Krönika

Calle Rosenqvist: En ny era för visualisering

När tidningarna kunde komplettera text med bild blev budskapet tydligare. Nu finns ytterligare verktyg för visualisering – med hjälp av artificiell intelligens.

Är fotografers bilder på väg att bli utkonkurrerade av text? Det omvända frågade man sig antagligen den 4 mars 1880 när den första halvtonsbilden trycktes i den amerikanska tidningen The Daily Graphics. Då var detta starten på en ny era där man kunde använda ett helt nytt grepp av visualisering av en nyhet. Sedan dess har vi sett att användningen av bilder har ökad med tiden – bildberättandet har aldrig varit större – och bildproducerandet har aldrig varit större.

Digitaliseringen förenklade det hela en del, inte bara själva hanteringen, men även tillgängligheten. Det som möjligen satte gränsen då, i början av 2000-talet – runt 120 år efter The Daily Graphics första bild i tryck – var kunskapen kring hur man fotograferade.

Men sedan tog det mindre än 10 år innan mobiltelefonerna fick överkomligt bra kameror för att låta sina användare tänka ett steg närmare bilder och fotografier. Samtidigt kom sociala medier, och nu efter runt tio-tolv år till, har mobiltelefonernas kameror fantastiska möjligheten för att både fotografera i 200 megapixel och filma i 8K, endast genom en knapptryckning som alla kan hantera eftersom automatiken är så utvecklad.

Är fotografers bilder på väg att bli utkonkurrerade av text? Det omvända frågade man sig antagligen den 4 mars 1880 när den första halvtonsbilden trycktes i den amerikanska tidningen The Daily Graphics. Då var detta starten på en ny era där man kunde använda ett helt nytt grepp av visualisering av en nyhet. Sedan dess har vi sett att användningen av bilder har ökad med tiden – bildberättandet har aldrig varit större – och bildproducerandet har aldrig varit större.

Digitaliseringen förenklade det hela en del, inte bara själva hanteringen, men även tillgängligheten. Det som möjligen satte gränsen då, i början av 2000-talet – runt 120 år efter The Daily Graphics första bild i tryck – var kunskapen kring hur man fotograferade.

Men sedan tog det mindre än 10 år innan mobiltelefonerna fick överkomligt bra kameror för att låta sina användare tänka ett steg närmare bilder och fotografier. Samtidigt kom sociala medier, och nu efter runt tio-tolv år till, har mobiltelefonernas kameror fantastiska möjligheten för att både fotografera i 200 megapixel och filma i 8K, endast genom en knapptryckning som alla kan hantera eftersom automatiken är så utvecklad.

När AI äntrade fotografins värld var det många som rynkade på pannan. Hur kan det här ens bli bra? AI är sämst på kreativitet, eftersom det handlar om rationalitet, och där finns någon sorts motsatsförhållande. Men trots detta skapades programmet Midjourney som skapar bilder ur texter. Det enda du behöver göra är att skriva en text, så utförlig du vill att den ska vara, och den genererar en bild utifrån sina algoritmer.

Faktum är att det kan bli rätt visuellt häftigt, även om det inte alltid blir helt fotografiskt korrekt. Men det är ändå ett bra betyg när reflektioner stämmer, objekt ser hyfsat verkliga ut och miljöerna rätt så förtroendeingivande. Ansikten är vi människor mycket säkra på att analysera, så det är inte så konstigt att det finns en del att jobba på för Midjourney på den fronten.

Men det intressanta kan jag ändå tycka är när man matar in enklare uttryck. Det som händer då, exempelvis »rita ett hus«, är att huset blir så mycket mer tolkat av Midjourney än om jag själv skulle rita ett hus. Det är som om AI-algoritmerna fyller i tomrummen helt själva. Men så är det så klart inte. Det som händer är att alla de bilder som Midjourney matats med ligger någonstans där bakom och plockas fram för att skapa en tolkning. Tolkningen är allså summan av de bilder som själva maskininlärningsprocessen använt sig av, och det i sin tur är »en hel del bilder på nätet«, enligt skaparen av Midjourney.

Programmet har nämligen matats med alla möjliga bilder, och det innebär också att det går att härma uttryck hos allt från Vincent van Gogh i sina bilder, till mer moderna ljusrenderingar i OctaneRender som kan få ljuset att hamna på rätt ställe och skapa en trovärdig miljökänsla både när det gäller geometri, färg och ljusreflexer.

En hel del problematik uppkommer så klart: vem äger då upphovsrätten till alla verk som Midjourney skapar? Spelar det ens någon roll? Självklart är det den som skriver texten som Midjourney matas med, säger någon, med en annan säger att det är självklart att det är allas, eftersom det inte är någon verklig person som skapat verket. Och så klart tycker säkert några att det är alla kreatörer där bakom alla inmatade bilder som äger rätten till det som spottas ut.

Vi ser redan nu fotografer och kreatörer som använder sig av både Midjourney och andra AI-funktioner för att skapa eller förbättra sina bilder. Det är inte långt kvar innan de sista bitarna hamnar på plats och de syntetiska bilderna blir extremt lika de klassiska fotografiska bilderna. Då har vi ett annat problem, att kunna värdera bildernas autenticitet. Hur ska det går för bildjournalistiken?

Kanske är vi på väg in i en ny era när det gäller just visualisering – så här lagom till 200-årsjubileumet av det äldsta bevarade fotografiska verket gjort med kamera, »Point de vue du Gras«, skapad av Nicéphore Niépce år 1826.

Detta är en PLUS-artikel. Som plusmedlem får du:

  • Omedelbar & obegränsad tillgång till denna och alla artiklar
  • Fördjupande reportage, fotoskolor, guider & mycket mer
  • Inbjudningar till VIP-event
  • Exklusiva erbjudanden från våra samarbetspartners

Prenumerera

Välj period och betalning. Köp med engångsköp eller välj en prenumeration så debiteras du inför varje ny period. Avsluta när du vill.

Ett år för bara 449 kr

Prenumerera

Engångsbetalning: Betala snabbt och enkelt för direkt tillgång till denna artikel