Som Plus-medlem får du: Tillgång till våra Plus-artiklar | Egen blogg och Portfolio | Fri uppladdning av dina bilder | Rabatt på kameraförsäkring och fotoresor | 20% rabatt på Leofoto-stativ och tillbehör | Köp till Sveriges mest lästa fototidning Fotosidan Magasin till extra bra pris.

Plusmedlemskap kostar 349 kr per år

Annons

F-stoppers om nya Google Gemini (Nano Banana) - It´s so incredibly good ....

Produkter
(logga in för att koppla)
De finns nog många yrkesgrupper som kan vara hotade. Modeller t.ex. Armani och Gucci kommer nog inte att använda AI-modeller, man Ellos-katalogen kanske kan smyga in några.

Men det läskiga är ju inte det, utan att trovärdigheten i bilder vi ser snart är nere på noll. Nyhetsbilder förstås (även om jag litar på större svenska media på den punkten). Men även, säg, naturbilder. Två fåglar på en gren istället för en. Eller ingen. Eller gatufoto. En person i en intressant position läggs till. O.s.v.
Det är därför nyhetsindustrin med nyhetsbyråer och till dessa knutna fotografer kommer luta sig mot C2PA och skälen är nog väldigt ekonomiska för utan det skulle man behöva sitta där och ananlysera varenda övrig bild man skulle vilja använda och det har man varken tid, råd till eller är dimensionerafde för.
 
De finns nog många yrkesgrupper som kan vara hotade. Modeller t.ex. Armani och Gucci kommer nog inte att använda AI-modeller, man Ellos-katalogen kanske kan smyga in några.

Men det läskiga är ju inte det, utan att trovärdigheten i bilder vi ser snart är nere på noll. Nyhetsbilder förstås (även om jag litar på större svenska media på den punkten). Men även, säg, naturbilder. Två fåglar på en gren istället för en. Eller ingen. Eller gatufoto. En person i en intressant position läggs till. O.s.v.
Vi har ju redan sett att en del smarta modeller som hyr ut sig själva som en typ av "avatarer" till exv, modebranschen. Det här är inte binärt längre som att alla modeller åker ut eller inte. Avatarerna är ju ytterligare ett möjligt scenarium.
 
De finns nog många yrkesgrupper som kan vara hotade. Modeller t.ex. Armani och Gucci kommer nog inte att använda AI-modeller, man Ellos-katalogen kanske kan smyga in några.

Men det läskiga är ju inte det, utan att trovärdigheten i bilder vi ser snart är nere på noll. Nyhetsbilder förstås (även om jag litar på större svenska media på den punkten). Men även, säg, naturbilder. Två fåglar på en gren istället för en. Eller ingen. Eller gatufoto. En person i en intressant position läggs till. O.s.v.
Detta gör att vi alla tvingas bli mer vaksamma med vad vi litar på. Det är som att vi nu kommer att leva i parallella världar allihop. En del är autentikst, annat är AI-genererat från prompt och andra är nybrider där viss input kan ha varit autentiskt men där slutresultatet inte längre är det. Det blir väldigt komplicerat och det kommer att bli kostsamt för alla andra än de som lever i en strikt kontrollerad värld som CAI nu försöker skapa med bl.a. C2PA-certifierade kretslopp. De som inte lever i dessa kretslopp kommer förmodligen inte kunna vara lika effektiva som gör det.
 
SVT har ju nåt formulär där man kan lädda upp misstänkta fejkbilder för granskning. Det kanske gäller mest politiska grejer, nyhetsbilder.

Jag förstår inte varför upphovsrätt inte skulle vara tillämpligt? Jag bearbetar min egentagna bild med hjälp av AI. So what? Eller jag skapar en helt ny bild genom att instruera en AI. Vi använder redan AI när vi redigerar våra bilder.

Det senare är nåt jag ska testa bananen för förresten. Typ "ta bort eluttaget bredvid personens öra". Slutbilden är ju lågupplöst, men kul att se hur den fixar det ändå.

Jag blev lite imponerad av vad den gjorde med ett av portätten. Det är en taskig mobilbild tagen på en restaurang. "Modellen" hade nästan ingen luft över huvudet, typ några cm, och jag vill ha hår som stod upp. Bananen förstod inte alls när jag bad den lägge till utrymme. Så jag gjorde det själv, en bred vit kant upptill. Sen bad jag den fylla det vita utrymmet med samma bakgrund som på resten av bilden.

Jag har skurit ner bilden, vill inte lägga ut bilder på personer. Men ni ser de hängade lamporna. Bananen förlängde sladdarna rätt snyggt. Dessutom är det en horisontell skugga upptill som gör att det ser ut som taket börjar där. Men det måste vara en olycka som blev en lyckträff. Eller?

Hon hör till de utslätade. Försökte fixa genom att lägga till lite rynkor, men det blev bara konstigt.

P.S. Hon har inte en tatuering av My Little Pony i pannan i verkligheten heller. 😋
 

Bilagor

  • marianne-banana-crop.jpg
    marianne-banana-crop.jpg
    230.2 KB · Visningar: 20
Och här är det riktigt märkliga, som jag inte insett förrän nu. Sladdarna är inte ens med på originalbilden! Så här ser toppen av originalet ut, med den vita förlängningen.
 

Bilagor

  • orig.jpg
    orig.jpg
    109.1 KB · Visningar: 14
Senast ändrad:
Här är mitt första försök med bananen. Jag valde en gammal bild utan människor på, tagen i Polen för 20 år sedan.

Fem enkla nybörjarprompter och ni kan se skillnaden. Färgerna stämmer inte riktigt. Detverkade inte som att bananen förstod färgrymder och filformat så bra när jag frågade.
Bilden är ju inget särskilt men jag kan se hur mycket manioulerande och ändrande det kan bli på facebook, i nyhetsflöden, på konspiratoriskt lagda paranoida idioters forum världen över och så vidare.
Bilden är från början från Wroclaw 2006.
871_hotel_olimpia.jpgHotel_Olimpia_final_AI.jpg
 
Det är därför nyhetsindustrin med nyhetsbyråer och till dessa knutna fotografer kommer luta sig mot C2PA och skälen är nog väldigt ekonomiska för utan det skulle man behöva sitta där och ananlysera varenda övrig bild man skulle vilja använda och det har man varken tid, råd till eller är dimensionerafde för.

Det kan kanske bli en business att fota av AI-genererat material och få en C2PA- stämpel på det. Såg en 24k-skärm förra veckan, den borde man kunna fotografera av med rätt hög upplösning utan att några pixlar syns.
 
Jo, men hur får man det då?Alltså varför behöver du fota skärmen?

Nu har bananen börjat snacka också. Jag gjorde om ett porträtt på en äldre man i svart tisha och flanellskjorta. Satte på honom halmhatt med blommor runt brättet, bytte skjortan mot en skinnpaj med nitar. Vid ett tillfälle sa bananen "Here it is", men jag fick jag ingen bild. Jag provade då att på påpeka detta. Då sa den "I'm so sorry! I forgot to attach.".

När jag avslutade det hela med en rosa fjäderboa om halsen på gubben så sa bananen helt självmant "That's an unusual approach!". 😂
 
Senast ändrad:
Det kan kanske bli en business att fota av AI-genererat material och få en C2PA- stämpel på det. Såg en 24k-skärm förra veckan, den borde man kunna fotografera av med rätt hög upplösning utan att några pixlar syns.
Cool!
Approved by Falumas!

Det här skriver OpenAI:

Men har inte CAI tänkt på det?

ChatGPT sade:​

Jo – CAI (Content Authenticity Initiative, som ligger bakom C2PA-standarden tillsammans med bland annat Adobe, Microsoft och Nikon) är medvetna om just det här scenariot, men det är en svår nöt att knäcka tekniskt.
Här är varför:
  • C2PA bygger på kryptografiska signaturer och metadata som är kopplade till själva filen.
  • När du fotograferar av en skärm skapar du en helt ny fil – en ny ”capture event” – som saknar den ursprungliga signaturen. Ur C2PA:s perspektiv är det en ny, autentisk bild som bara råkar föreställa samma motiv.
  • Det gör att deras system inte kan veta om du har fotograferat ett fysiskt objekt, ett AI-print, en skärm eller något annat.
CAI har diskuterat detta i sina whitepapers och på sina konferenser. De erkänner att den mänskliga sensorn (kameran) blir ett ”gap” i kedjan:
  • Om din kamera stöder C2PA kan den lägga till en provenance-stämpel (”Captured with Sony A7IV, signerad av kamerans chip”).
  • Men den kan inte veta att motivet på bilden i själva verket är AI-genererat – det ser bara ljus.
  • Framtida lösningar skulle kunna inkludera AI-detektion i kameran (”screen re-capture detection”), men det är en arms race: högre skärmupplösning + optik + brusreducering kan göra det nästan omöjligt att avslöja.
Så kort svar: Ja, CAI har tänkt på det – men det är i princip ett olöst problem idag. De litar på att kedjan hålls intakt från skapelse → redigering → publicering, men så fort man gör en analog mellanhand (foto av skärm, print-scanning) är kedjan bruten.
Vill du att jag letar upp de senaste CAI-diskussionerna (2024–2025) om ”screen recapture problem” och hur de försöker adressera det? Det kan ge en tydligare bild av vad som är på gång.
 
Det kanske den faktiskt borde ha men frågan är hur det ska gå till när en och samma prompt kan ge olika resultat om de körs fler än en gång vilket exemplen Erik H beskrev vittnar om. Jag tror att vi kommer få se upphovsrättskrav komma för AI-skapade bilder också på sikt och jag ser faktikst inget konstigt i det när exv. en del av bilderna som skapas genom uppladdning av fotografens egna bilder.
Krav har redan kommit.
Men ingen domstol har givit efter för kraven.
 
Cool!
Approved by Falumas!

Det här skriver OpenAI:

Men har inte CAI tänkt på det?

ChatGPT sade:​

Jo – CAI (Content Authenticity Initiative, som ligger bakom C2PA-standarden tillsammans med bland annat Adobe, Microsoft och Nikon) är medvetna om just det här scenariot, men det är en svår nöt att knäcka tekniskt.
Här är varför:
  • C2PA bygger på kryptografiska signaturer och metadata som är kopplade till själva filen.
  • När du fotograferar av en skärm skapar du en helt ny fil – en ny ”capture event” – som saknar den ursprungliga signaturen. Ur C2PA:s perspektiv är det en ny, autentisk bild som bara råkar föreställa samma motiv.
  • Det gör att deras system inte kan veta om du har fotograferat ett fysiskt objekt, ett AI-print, en skärm eller något annat.
CAI har diskuterat detta i sina whitepapers och på sina konferenser. De erkänner att den mänskliga sensorn (kameran) blir ett ”gap” i kedjan:
  • Om din kamera stöder C2PA kan den lägga till en provenance-stämpel (”Captured with Sony A7IV, signerad av kamerans chip”).
  • Men den kan inte veta att motivet på bilden i själva verket är AI-genererat – det ser bara ljus.
  • Framtida lösningar skulle kunna inkludera AI-detektion i kameran (”screen re-capture detection”), men det är en arms race: högre skärmupplösning + optik + brusreducering kan göra det nästan omöjligt att avslöja.
Så kort svar: Ja, CAI har tänkt på det – men det är i princip ett olöst problem idag. De litar på att kedjan hålls intakt från skapelse → redigering → publicering, men så fort man gör en analog mellanhand (foto av skärm, print-scanning) är kedjan bruten.
Vill du att jag letar upp de senaste CAI-diskussionerna (2024–2025) om ”screen recapture problem” och hur de försöker adressera det? Det kan ge en tydligare bild av vad som är på gång.

Hur ska dom kunna lösa det? Dom kan fundera bäst dom vill, men jag ser inte att det skall gå att lösa.

Hur skall kameran veta om den verkligen fotograferar Selensky och Putin hånglandes eller en bild som föreställer det. Är upplösningen på det som fotograferas av högre än det sensor mäktar med så borde du ha en C2PA-verifierad bild som ser äkta ut.
 
Hur skall kameran veta om den verkligen fotograferar Selensky och Putin hånglandes eller en bild som föreställer det.
Jag kan inget om C2PA-standarden, men om jag bläddrar lite snabbt i den så står det att de kan signera EXIF-information också. Om saker som t.ex. fokusavstånd och objektiv ingår så kanske det är lite krångligare att förfalska en bild än att bara fotografera av en skärm.
 
Jag kan inget om C2PA-standarden, men om jag bläddrar lite snabbt i den så står det att de kan signera EXIF-information också. Om saker som t.ex. fokusavstånd och objektiv ingår så kanske det är lite krångligare att förfalska en bild än att bara fotografera av en skärm.
?
När man tar bilden händer allting. Så om du tar en bild av ett landskap, en människa, en reklamtavla eller en skärm så händer allting då, i det ögonblicket. Din bild innehåller alla de data, inklusive EXIF och C2PA, som en originalbild ska innehålla. Att någon annan tagit bilden tidigare med en annan utrustning spelar väl ingen roll.
Kanske missar jag något?
 
Jag kan inget om C2PA-standarden, men om jag bläddrar lite snabbt i den så står det att de kan signera EXIF-information också. Om saker som t.ex. fokusavstånd och objektiv ingår så kanske det är lite krångligare att förfalska en bild än att bara fotografera av en skärm.
Ja fokusavståndet är en sådan grej men det kanske också kan fejkas.
 
Jag kan inget om C2PA-standarden, men om jag bläddrar lite snabbt i den så står det att de kan signera EXIF-information också. Om saker som t.ex. fokusavstånd och objektiv ingår så kanske det är lite krångligare att förfalska en bild än att bara fotografera av en skärm.

Vi har otroligt högupplösta skärmar som är väldigt stora (diagonal 50m) på jobbet. Jag skulle nog kunna ta många bilder med ett rimligt fokusavstånd.
 
ANNONS
Götaplatsens Foto