Når generativ AI fungerer – og hvorfor det ofte ikke gjør det
- Stian Andreassen
- 12. des. 2025
- 3 min lesing

En teknisk erfaring fra arkitekturvisualisering
Generativ AI har på kort tid blitt et nytt verktøy i mange kreative arbeidsprosesser, også innen visualisering og eiendom. Muligheten til å tilføre stemning, lys og sesong uttrykk til ferdige visualiseringer er åpenbart attraktiv.
Samtidig opplever mange det samme:
Bildene blir gradvis mykere, mister detaljpresisjon og får et uttrykk som oppleves mindre fotografisk - selv når endringene er små og kontrollert.
Basert på egne tester hos Maestro Media har vi gjort noen konkrete observasjoner som forklarer hvorfor dette skjer, og hvordan det i stor grad kan begrenses.
Dobbel degenerering: Når kvalitetstapet eskalerer

I vårt arbeid brukte vi generativ image-to-image for å legge vinterstemning og julebelysning på en ferdig arkitekturvisualisering. Arbeidsflyten var i utgangspunktet forsiktig:
lav påvirkningsgrad
ingen geometri-endringer
ett steg for vinter, ett for lys
Likevel opplevde vi et markant tap av billedskarphet for hvert steg.
Årsaken viste seg ikke å være selve motivendringen - men kombinasjonen av regenerering og automatisk resampling.
De fleste generative bildemodeller:
tolker bildet i et internt latent rom
jobber på oppløsninger som er delbare på faste blokker
og returnerer bildet i denne “native” oppløsningen, ikke originalen
Når et bilde først regenereres og deretter brukes som input på nytt, oppstår dobbel degenerering:
Bildet regenereres (tap av mikrokontrast)
Bildet resamples (tap av høyfrekvent detalj)
Prosessen gjentas
Resultatet er et raskt og uforholdsmessig kvalitetstap, selv ved ellers konservativ bruk.
Et avgjørende grep: Forhånds-resampling
Det avgjørende gjennombruddet i testene kom da vi endret én variabel:
Originalbildet ble forhånds-resamplet til samme oppløsning som modellen uansett returnerte.
I vårt tilfelle:
original: 1920 × 1280
forhånds-resamplet: 2528 × 1696
Deretter ble samme samlede prompt kjørt i én generativ pass.
Resultatet var tydelig:
Verktøy vi brukte
For å være helt konkret bestod arbeidsflyten av tre ledd:

GPT-5.2
Brukt til å utvikle og raffinere presise prompts, med tydelige begrensninger på geometri, lys, materialer og bildekvalitet.
NanoBanana Pro
Brukt til selve image-to-image-genereringen: vinterstemning, belysning og sesonguttrykk.
Adobe Firefly
Brukt i etterkant til mindre, lokale justeringer og finpuss – ikke til å regenerere hele bildet på nytt.
Denne kombinasjonen gjorde det mulig å skille klart mellom generativ transformasjon og kontrollert etterbehandling.
Hva dette betyr i praksis

Disse erfaringene peker på et viktig prinsipp:
Generativ AI er ikke tapsfri.
Men mye av kvalitetstapet skyldes hvordan vi mater verktøyene, ikke nødvendigvis kreativiteten i promptene.
Ved å:
tilpasse originalmaterialet til modellens tekniske forutsetninger
redusere antall generative steg
samle endringer i én pass
og bruke etter-verktøy som Firefly kun til lokale justeringer
… kan AI brukes langt mer presist, også i fagområder med høye krav til kvalitet.

En nøktern konklusjon

Generativ AI er et effektivt verktøy for stemning, lys og sesonguttrykk i arkitekturvisualisering. Men det er ikke nøytralt, og det er ikke tapsfritt.
AI er generativ men også, i teknisk forstand, degenerativ.
Forskjellen mellom et svakt og et godt resultat ligger sjelden i hype eller kreativitet alene, men i forståelsen av hvordan bildene faktisk behandles under panseret - og i å bruke riktig verktøy til riktig del av prosessen.
Hos Maestro Media bruker vi AI som et supplement, ikke en snarvei - med samme krav til kontroll, presisjon og faglig ansvar som i resten av arbeidet vårt.
Skrevet av Stian Andreassen @maestromedia. SEO tilpasset av GPT 5.2




Kommentarer