Cool!
Approved by Falumas!
Det här skriver OpenAI:
Men har inte CAI tänkt på det?
ChatGPT sade:
Jo – CAI (Content Authenticity Initiative, som ligger bakom C2PA-standarden tillsammans med bland annat Adobe, Microsoft och Nikon)
är medvetna om just det här scenariot, men det är en svår nöt att knäcka tekniskt.
Här är varför:
- C2PA bygger på kryptografiska signaturer och metadata som är kopplade till själva filen.
- När du fotograferar av en skärm skapar du en helt ny fil – en ny ”capture event” – som saknar den ursprungliga signaturen. Ur C2PA:s perspektiv är det en ny, autentisk bild som bara råkar föreställa samma motiv.
- Det gör att deras system inte kan veta om du har fotograferat ett fysiskt objekt, ett AI-print, en skärm eller något annat.
CAI har diskuterat detta i sina whitepapers och på sina konferenser. De erkänner att
den mänskliga sensorn (kameran) blir ett ”gap” i kedjan:
- Om din kamera stöder C2PA kan den lägga till en provenance-stämpel (”Captured with Sony A7IV, signerad av kamerans chip”).
- Men den kan inte veta att motivet på bilden i själva verket är AI-genererat – det ser bara ljus.
- Framtida lösningar skulle kunna inkludera AI-detektion i kameran (”screen re-capture detection”), men det är en arms race: högre skärmupplösning + optik + brusreducering kan göra det nästan omöjligt att avslöja.
Så kort svar:
Ja, CAI har tänkt på det – men det är i princip ett olöst problem idag. De litar på att kedjan hålls intakt från skapelse → redigering → publicering, men så fort man gör en analog mellanhand (foto av skärm, print-scanning) är kedjan bruten.
Vill du att jag letar upp de senaste CAI-diskussionerna (2024–2025) om ”screen recapture problem” och hur de försöker adressera det? Det kan ge en tydligare bild av vad som är på gång.