Annons

AI för att generera exv. ITPC-keywords?

Produkter
(logga in för att koppla)
Jag testade med din bild i ChatGPT 4, och frågade vad bilden föreställer:

"Bilden visar ett färgstarkt glasmosaikfönster som porträtterar olika figurer. Centralfiguren verkar vara en skelettgestalt klädd i rött, vilket kan föreslå en representation av döden eller en skelettfigur från en kulturell eller religiös tradition. Runt denna figur finns andra element som kan vara människor eller symboliska representationer. Färgerna är livliga och kontrastrika, vilket är typiskt för glasmosaik. Denna konstform är ofta använd för att skapa ett dramatiskt och beständigt uttryck, och är vanlig i platser för andlig reflektion såsom kyrkor eller minnesmärken. Detaljerna i verket är svåra att tolka utan ytterligare sammanhang, men verket ger ett intryck av att berätta en historia eller förmedla ett budskap."

Rätt imponerande, och uppenbarligen går tekniken frammåt. Snabbt...

Visst på ett generellt plan så kan beskrivningen som med glasmosaikfönstret mycket väl funka men det håller varken för mig eller exv. ett museums fotoantikvarier.

Chat GPT har ingen aning om att bilden togs i Africa Hall i Addis Abeba i Etiopien av mig 1978 och har inte en susning om vilken konstnären var som skapade verket och vad konstnären egentligen varit ute efter att beskriva med sitt konstverk och därför blir den i Chat GPT-sammanhanget helt värdelös eftersom Chat GPT uppenbarligen fortfarande lever helt frikopplad från konstverkets kontext.
 
Låter som att en enkel fix är att skapa ett nytt fält för metadata som t.ex. döps till ai_keywords och autogenereras återkommande i takt med att teknikutvecklingen går framåt. Då kan du alltid falla tillbaka på din egen data när den existerar men fortfarande ha möjligheten att hitta bilder som du inte lagt hundratals timmar på att märka upp.

Vid sök så är det bara att markera vilka fält man vill söka i.

Det påminner lite om fluortantens föredrag i skolan om hur tandreperationer inte är en ersättning av tänder utan ett bättre alternativ än att inte ha några tänder. Dagens AI har fortfarande svårt att hävda sig mot mänskliga experter med personliga värderingar när de lägger ner hundratals eller tusentals timmar. Fördelen med AI:n är att det bara krävs ett knapptryck för att nå 90% av vägen och vi istället kan lägga dessa hundratals timmar på t.ex. vårt eget skapande.

Problemet är tyvärr långtifrån så enkelt så att det kan fixas med en floursköljning varje termin och inte med ett extra parallellt keyword-fält heller, eftersom både du och jag i nästan alla sammanhang inte ens kommer kunna anpassa de metadataverktyg vi använder till vardags för att kunna jobba enligt ditt förslag och det gäller alla de konverterare jag använt (Lightroom, Capture One eller DXO Photolab). Den enda mjukvara jag har som hjälpligt skulle kunna riggas för att fixa detta är PhotoMechanic.

Där skulle jag kunna ha parallella variabelstyrda dataflöden via två olika inläsningsprocesser till två olika databaser, min vanliga och en dedikerad för att hålla skitiga mobilmetadata från exv. mobilkamerors AI-taggning skilda från mina egna. Till skillnad från integrerade simpla hopplöst inflexibla monolitiska kataloger a la Lightroom, så kan ju PM Plus enkelt söka kors över många databaser samtidigt (bara genom at man kryssar i en check box framför de man vill söka samtidigt) men det skulle ju inte hjälpa mig ändå eftersom mina keywords är på engelska och min familjs telefoner har svenska menyer och keywords också antar jag. Det är trots allt ingen vidare idé att inte hålla olika språk skilda åt.

Skälet till en del problem är också att folk, ofta som jag, använder flera applikationer som kommunicerar med varann och är mer eller mindre bra integrerade. Dessutom så byter folk och företag ofta system och då hamnar man förr eller senare i olika typer av migrationsproblem och i en del fall som med DXO Photolab så finns idag inga möjligheter alls att importera eller exportera vare sig Controlled Vocabularies eller egenproducerade keyword-filer. Enda sättet där är att låta Photolab automatiskt bygga en keywordlista vid indexeringen, som passar XMP-metadatainnehållet i filerna. Därför går det helt enkelt inte att blanda skit och bräckkorv i datat och göra våld på den dataintegritet som är helt nödvändig att upprätthålla.

För de som är intresserade så finns ju "Controlled Vocabularies" att ladda ned till både Lightroom och PhotoMechanic:

Keyword Lists / Controlled Vocabularies | The Lightroom Queen

... och det var faktiskt det jag testade först med Photo Mechanic. Jag hämtade alltså först en generell fotovocabulary avsedd för Lightroom i tabseparerad text. Det gick finfint att ta in den och använda den även i PM men jag fann snart den inte funkade särskilt väl med mina bilder som i mycket är resebilder från resor under mer än 50 år (mellan 1972 och 2023). Gränssnittet för att underhålla och använda hierarkiska keywords i PM Plus har jag aldrig gillat så när jag skulle göra det så exporterade jag hellre ut filen och fixade den i en texteditor och tog in den igen. Att istället jobba med en helt flat struktur i PM-applikationens formulär visade sig mycket mer effektivt för mig.

Sedan visade det sig även att Photolab i version 6 inte kunde läsa in hierarkiska data korrekt från PM och vise versa. Sedan dess avänder jag inte hierarkiska keywords alls och det är också mycket effektivare att använda en flat struktur i PhotoMechanic. En del av dessa problem har dock korrigerats i PL 7. Så det finns en hel del problem med alla möjliga konstiga fel som kan uppstå med datautbyte mellan olika applikationer och vid migration.

Om jag skulle ha "Load" (metadata) på i Capture One i senaste version så skulle denna automatiska process snabbt sabba både keywordlistor och sökningen via keyword-listan genom om en skulle tillåtas att autogenerera dessa listor (i CO är det alltså en lista som används för att fylla i keywords och en som används för att söka via om inte fritext används).

Det är av dessa skäl av yttersta vikt att man faktiskt kan stänga av en sådan "Load"-process som i CO (och det kan man) men däremot riskerar man både i CO och PL att en omindexering eller initial import i PO kommer att kontaminera keyword-systemet. om man inte ser upp.

Det är också så att man måste förstå skillnaden mellan en keywordlista som autogenererats från filernas XMP-data och en Controlled Vocabulary. Använder man en Controlled Vocabulary kan man inte samtidigt låta ett program skita ner den med data från någon omindexeringsprocess och Photolab idag kan inte ens importera eller exportera keywords vare sig de ligger i en flat struktur eller inte. En Controlled Vocabulary kan heller aldrig återskapas via en nyindexering av filerna. Den måste kunna importeras.

Många fattar heller inte att den struktur de ser i sina konverterare eller i PhotoMechanic som i samtliga fall är IPTC är något helt annat än den som lagrar keywords i XMP. När visa metadata skickas mellan olika applikationer, så kan de splittas och dupliceras till flera fält (forking) ibland och skickas de andra vägen så kanske set inte alls sker på samma sätt. På DXO Forums har vi de senaste åren sett ett flertal mycket långa och komplicerade trådar kring detta. Det har fått mig att inse att om man använder fler än en XMP-metadata medveten applikation, så behöver man verkligen ta reda på hur denna typ av kommunikation faktiskt fungerar.

Som grädde på moset kan jag meddela att jag bytt konverterare för gott från Photolab till Capture One och huvudskälet var att de senaste service uppgraderingarna till Photolab 7 helt sabbat den automatiska synkronisering av metadata mellan PM och Photolab (som annars varit helt överlägsen både den som funits mellan både Lightroom och PM och Capture One och PM, vilket även har sitt ursprung i att Photolab saknar importfunktion utan går direkt mot bildfoldrarna.) Sedan har ju CO nu fått en helt lysande AI-maskningsfunktion som helt förändrat förutsättningarna för en effektiv och precis bildredigering som i mycket faktiskt saknas idag i Photolab, så det valet var inte svårt även om även det krävt ett visst labbande för att det ska fungera som jag vill.
 
Senast ändrad:
Visst på ett generellt plan så kan beskrivningen som med glasmosaikfönstret mycket väl funka men det håller varken för mig eller exv. ett museums fotoantikvarier.

Chat GPT har ingen aning om att bilden togs i Africa Hall i Addis Abeba i Etiopien av mig 1978 och har inte en susning om vilken konstnären var som skapade verket och vad konstnären egentligen varit ute efter att beskriva med sitt konstverk och därför blir den i Chat GPT-sammanhanget helt värdelös eftersom Chat GPT uppenbarligen fortfarande lever helt frikopplad från konstverkets kontext.
I mitt eget sammanhang bör det fungera ganska bra. Dvs om jag letar bland mina egna bilder efter bilder med ett visst innehåll.
 
Nä, jag hänger inte upp mig på terminologi, hoppas jag.

Jag syftade på att strunta i att märka upp sina bilder med nyckelord utan att istället beskriva vad man vill hitta.

Prova att be Google Photos att visa dina bilder med gula blommor, för att ta ett mycket enkelt exempel.

Jag vet inte om klassifikationen av bilderna görs i realtid men det är inte heller något man behöver bry sig om. Att köra ett AI-program som lägger in nyckelord en gång och nöja sig med det tror jag inte är så framtidssäkert. AI utvecklas hela tiden så man vill nog att klassificeringen görs om regelbundet.

Som jag skrev i mitt förra inlägg så finns det knappast något som hindrar att man har egen nyckelordsmärkning också, om man tror att det tillför något (vilket det förstås kan göra).


Hur tänkte du att det skulle funka då? Ska AI få ersätta allt i dina keyword-fält eller ska den tillåtas att bara lägga till nytt för att inte skriva sönder dina egna data?
 
Jag skulle skapa ett nytt fält (eller tabell i databasen) för AI-skapade beskrivningar av bilden och behålla möjligheten att skriva in egna nyckelord som tidigare.
 
I mitt eget sammanhang bör det fungera ganska bra. Dvs om jag letar bland mina egna bilder efter bilder med ett visst innehåll.


Visst, det är bara du som kan avgöra om texterna funkar för dig. En sak jag upptäckt själv dock är att det kan vara väldigt värdefullt med mer precis data ibland. Jag har ofta gått från en bild jag tagit av exv. något historiskt men glömt bort vad stället hette och ibland har det handlat om en byggnad, arkitektur m.m. I detta fall visste jag varken exakt adress eller vad byggnaden hette men det gick lätt att få klarhet i genom att söka efter "postmodern buildings in Tel Aviv"

Sedan lade jag till en kort men mer precis beskrivning i "Description"-fältet:

Israel 2016 - Tel Aviv - "The house on the board walk at 2 Trumpeldor Street in Tel Aviv" - Architect Tzvi Harel . This is one of Israels many stunning post modern buildings in Tel Aviv.

Jag har haft en plan länge att skriva en fotoberättelse om Israels arkitektur från City of David i Jerusalem till Bauhaus och Postmodernism i Tel Aviv men jag behöver nog skanna några gamla dia till innan det blir aktuellt.

Personligen är jag rätt ointresserad av bilder i sig. Få bilder kan stå själva helt utan kontext. Jag tror säkert att även dina bilder skulle vinna på dina egna bildtexter istället för en oprecis svepande generell beskrivning från Chat GPT. Efter mina år på Stadsmuseet där jag jobbade nära och i dialoig med museets antikvarier så har jag mer och mer insett värdet av deras stora kunnande. Jag vet att några bilder vid några få tillfällen fått helt felaktiga texter av antikvarierna och vad det kan leda till i form av förvirring :) och helt felaktig bildanvändning. Jaa, även högst kompetenta antikavrier gör fel ibland!

Israel_2016_08_P3_4K__1.jpg

Israel_2016_61_4K__P3_4K_.jpg

Israel 2016 - Tel Aviv - The Crazy House at 181 Hayarkon Street close to Tel Aviv Hilton was designed by architect Leon Gaignebert and has a touch of the Spanish architect Gaudi.

1708388688084.png

Det går ofta som i detta exempel att hitta rätt kring arkitektur även om man söker lite brett som i detta exempel. Man kanske inte är hjälpt av den första bildens bildtext man kollar men ofta hittar man vad man letar efter rätt snabbt och om man publicerar bilder och bildberättelser eller reportage så tror jag det är rätt uppskattat. Någon kanske faktiskt vill åka dit och kolla själv!

Men ytterst gör jag detta för mig själv för jag vet att jag kommer ha glädje av det och jag har redan stor glädje av det som en hjälp och ett stöd för mitt eget minne. I grunden är det inte svårare än så och jag har inga problem med att motivera mig själv för mina underhållsinsatser, för jag har hela tiden ganska snabbt sett de positiva resultaten av det jobb jag lagt ned.

Egentligen går det förvånansvärt snabbt att bygga upp en rätt väl fungerande grundstruktur för ett bildarkiv om man som jag haft "turen" att från början fastnat för att döpa alla mina resebildfoldrar med Plats/Event Land och Årtal. Genom att även sökvägar indexeras, så får man redan där en grundstruktur även virtuellt direkt efter en initial indexering av bildkatalogstrukturen.

Sedan går det rätt fort att blåsa på en grundstruktur med PhotoMechanic (min har idag bara 12 huvudområden eller teman) och sedan berabetar men respektive sådant område/tema med nästa nivå i "hierarkin" med PhotoMechanic. Denna hierarki finns dock inte i PM i form av en hierarkisk keyword-tabell för allt hamnar ju i samma keyword-fält.

PhotoMechanic är väldigt effektivt och många fält fylls i automatiskt med både statiskt och dynamiskt data via olika variabler man använder och hade det inte varit det skulle jag aldrig tagit mig an ett fotoarkiv-projekt som detta.

Både Photolab och Capture One är fullständigt hopplösa och jag har aldrig övervägt att använda någon av dessa för metadataunderhållet och Lightroom avskrev jag redan för 10 år sedan för jag tyckte även det var verkligt fyrkantigt och hopplöst som metadataunderhållsverktyg i mina ögon.

Jag tror jag betalade 2000:- spänn då när PhotoMechanic 6 kom och även om det kostar 329 U$ idag, så är det otroligt billigt för vad man verkligen får tycker jag. Det är ett helt otroligt bra och supereffektivt verktyg som förfinats till effektiv perfection under 25 år i dialog med de mest krävande fotografer vi har och har haft. Genom att det är IPTC- och XMP-baserat, så skalar det om man vill det till mer generella och större DAM-system och det är lätt att migrera både till och från om man nu vill det. Eftersom masterdatat ligger i filernas XMP så är det mycket feltolerant.

Om en katalog skulle paja så behöver man inte ens ha någon backup av själva den för det är ju bara att indexera om hela katalogstrukturen och skapa en ny från filernas XMP.
 
Senast ändrad:
Jodå, vi har väl alla olika krav. För geografisk och historisk uppmärkning fungerar nog inte AI så jättebra än (även om det till viss del nog kan fungera). För personliga uppmärkningar lär det dröja innan AI kan göra ett bra jobb …

Skojiga hus du har hittat!
 
Jodå, vi har väl alla olika krav. För geografisk och historisk uppmärkning fungerar nog inte AI så jättebra än (även om det till viss del nog kan fungera). För personliga uppmärkningar lär det dröja innan AI kan göra ett bra jobb …

Skojiga hus du har hittat!

Det var inte jag som ritade utan möjligen någon israel som lyssnat väl mycket på LSD-gurun Timothy Leary. :)
 
Jag skulle skapa ett nytt fält (eller tabell i databasen) för AI-skapade beskrivningar av bilden och behålla möjligheten att skriva in egna nyckelord som tidigare.

... i vilken konverterare då? Jag kan ju givetvis lägga till ett fält i exv. Photolabs imbäddade databas men det är ju inte särskilt enkelt att få någon vidare nytta av det i en applikation som är vad den är. Jag känner en kvinna över nätet som byggt en egen metadataapplikation men jag vet inte riktigt hur den funkar ihop med Photolab som hon också kör.

Hur ska du få detta att funka ihop med det du använder i form av konvertrrare? Tänkte du bygga något från något Open Source? Känns ju rätt proprietärt och jag undrar hur du många timmar det skulle ta innan du kunde börja använda det och sedan undrar jag hur du skulle bära dig åt om du någon gång behöver migrera till något annat som ju jag faktiskt just gjort. Det enda jag behövde göra då var att låta Capture One göra en initial import från XMP-metadatat, vilket tog tre-fyra timmar så var jag på banan med de knappt 27 000 bilder som jag nu har efterbehandlade och metadatasatta i mitt fotoarkiv. Sedan var hag helt i synk med den databasen i Photo Mechanic. De andra ca 45 000 bilderna ligger i en egen databas i PM men jag kan lätt söka i allt genom att bara sätta ett kryss i gränssnittet vid den databasen också.
 
Senast ändrad:
Hur tänkte du att det skulle funka då? Ska AI få ersätta allt i dina keyword-fält eller ska den tillåtas att bara lägga till nytt för att inte skriva sönder dina egna data?

Glöm keywords som lagras i bildfilen, kommer bli på tok för långsamt att söka på.
AI scannar filerna och uppdaterar sina egen DB.
Du kommer ändå aldrig få till något bra system där ett program fyller i metadatat och en annan söker med detta. Det fungerar bara på dum strukturerad data. Hela idén med att göra detta med AI är att det inte är dum strukturerad data.

AI kommer nog ganska snart kunna geotagga bilder som är tagna på kända platser.
 
  • Gilla
Reaktioner: PMD
Glöm keywords som lagras i bildfilen, kommer bli på tok för långsamt att söka på.
AI scannar filerna och uppdaterar sina egen DB.
Du kommer ändå aldrig få till något bra system där ett program fyller i metadatat och en annan söker med detta. Det fungerar bara på dum strukturerad data. Hela idén med att göra detta med AI är att det inte är dum strukturerad data.

AI kommer nog ganska snart kunna geotagga bilder som är tagna på kända platser.

Det är inte jag som haft de tankarna utan de andra som försökt hitta på egna kreativa lösningar här. Jag är fullkomligt nöjd med hur PhotoMechanic funkar. XMP lagras i både JPEG, TIFF och DNG och det finns inga problrm med det när det gäller prestanda eftersom man ju aldrig söker i dessa vid sökningar utan i den indexdatabas/katalog som indexeringen skapat. Har du missat det?? Det är blixtsnabbt redan idag med miljontals bilder.

Ja det mesta finns på plats för det och den geodatabas baserade reverse lookup som finns i PhotoMechanic är ju redan den lysande tycker jag så det behövs faktiskt ingen AI för det enda den behöver är koordinaterna och det är ju de man fixar när man manuellt plottar ut markörer på en karta idag. Om koordinater redan finns skulle det redan nu kunna automatiseras helt. Du kan kolla själv om du vill med PM redan idag. Det ät f.ö. långt mer precist än någon AJ-stödd bildanalys kan ge. Skulle aldrig välja det senare om du frågar mig. Helt feltänkt med folks mobilbilder speciellt.

Det går mycket effektivt att sätta dessa data redan idag och reverse lookup fyller i fem sex metadatafält (Picture Taken IPTC redan idag) och det med en metadata som nästan är väl detaljerad.
 
Nu låter det som ni sitter i Windows 95 å jobbar. Nyckelord känns väl ganska mycket som förr i tiden. Ansiktsigenkänning någon? Är inte det extremt effektivt i en stor bildsamling? Särskilt i kombination med andra markörer, som en lång tid nu enkelt känns igen av diverse katalogappar, som t.ex. objekt, väder, djur, scenarion m.m.
Och det kommer ju bevisligen inte bli sämre på den fronten.
 
Senast ändrad:
Nu låter det som ni sitter i Windows 95 å jobbar. Nyckelord känns väl ganska mycket som förr i tiden. Ansiktsigenkänning någon? Är inte det extremt effektivt i en stor bildsamling? Särskilt i kombination med andra markörer, som en lång tid nu enkelt känns igen av diverse katalogappar, som t.ex. objekt, väder, djur, scenarion m.m.
Och det kommer ju bevisligen inte bli sämre på den fronten.

Windows 95? Nää det låg långt fram i tiden! Jag pratar om 10 år innan Windows 95 typ 1986 när jag var i Nakaseke i Uganda alldeles efter att man öppnat gränserna efter att National Resistance Army drivit ut den gamla regimen.

17 Uganda 1986_Nakaseke_kvinna_DxO_1.jpg

Jag har alltid undrat vem denna underbart vänliga kvinna var som inte hade mycket men som ändå bjöd mig på bananer i Nakaseke i Uganda 1986. Däremot vet jag inte om jag vill veta vad hon egentligen hade varit med om.

Tror du AI kommer verkligen kommer kunna hjälpa mig med den identifieringen. Hon var en av de överlevande som överlevt Milton Obotes folkmord som sägs ha krävt upp emot 750 000 döda i Uganda. Alla pratar om hur hemsk Ida Amin var sade en man i Nakaseke och han matade verkligen krokodilerna med sina fiender .... men Milton Obote döda alla, var det sista han sade innan han gick. De som hamnade hos krokodelerna är nog också svåra att identifiera.

18a Uganda 1986_Nakaseke_pojkarna som visade mig skeletten_DxO_1.jpg

Även dessa små killar undrar jag om AI skulle ha den minsta chans på. De var födda under en folkmordets tid under det s.k. Ugandan Bush War mellan 1980-86, då inga barn i Nakaseke släpptes iväg till några skolor. Jag är nog en av de få som någonsin tog en bild av dem.

21 Uganda 1986_Nakaseke_gamla polisstationen_DxO_1.jpg

De som utredde folkmordet skulle säkert varit glada om de kunna få hjälp av AI med identifieringen.

AI i form av ansiktsigenkänning har nog i hög grad ett bäst efter datum är jag rädd för och detta inträffade alltför sent för att ha den minsta betydelse här och så är det nog för de flesta av mina historiska resebilder. För histióriska bilder är jag ytterst tveksam inte minst för att det i en del fall överhuvudtaget aldrig tagit några bilder av miljarder av människor från denna tid.

Jag tror att vi i detta fall är rätt hårt fast i vår egen etnocentrism och vär egen tid men problemet är att det är nu vi har tid att identifiera många av min generations alla bilder och om inte vi har den tiden eller tar oss den så kommer många av de som finns på dessa bilder för evigt glömmas bort. Jag tror alla som suttit med ett gäng bilder från någon äldre släkting i knät upplever exakt samma sak.
 
Senast ändrad:
Windows 95? Nää det låg långt fram i tiden! Jag pratar om 10 år innan Windows 95 typ 1986 när jag var i Nakaseke i Uganda alldeles efter att man öppnat gränserna efter att National Resistance Army drivit ut den gamla regimen.

Visa bilaga 173323

Jag har alltid undrat vem denna underbart vänliga kvinna var som inte hade mycket men som ändå bjöd mig på bananer i Nakaseke i Uganda 1986. Däremot vet jag inte om jag vill veta vad hon egentligen hade varit med om.

Tror du AI kommer verkligen kommer kunna hjälpa mig med den identifieringen. Hon var en av de överlevande som överlevt Milton Obotes folkmord som sägs ha krävt upp emot 750 000 döda i Uganda. Alla pratar om hur hemsk Ida Amin var sade en man i Nakaseke och han matade verkligen krokodilerna med sina fiender .... men Milton Obote döda alla, var det sista han sade innan han gick. De som hamnade hos krokodelerna är nog också svåra att identifiera.

Visa bilaga 173324

Även dessa små killar undrar jag om AI skulle ha den minsta chans på. De var födda under en folkmordets tid under det s.k. Ugandan Bush War mellan 1980-86, då inga barn i Nakaseke släpptes iväg till några skolor. Jag är nog en av de få som någonsin tog en bild av dem.

Visa bilaga 173325

De som utredde folkmordet skulle säkert varit glada om de kunna få hjälp av AI med identifieringen.

AI i form av ansiktsigenkänning har nog i hög grad ett bäst efter datum är jag rädd för och detta inträffade alltför sent för att ha den minsta betydelse här och så är det nog för de flesta av mina historiska resebilder. För histióriska bilder är jag ytterst tveksam inte minst för att det i en del fall överhuvudtaget aldrig tagit några bilder av miljarder av människor från denna tid.

Jag tror att vi i detta fall är rätt hårt fast i vår egen etnocentrism och vär egen tid men problemet är att det är nu vi har tid att identifiera många av min generations alla bilder och om inte vi har den tiden eller tar oss den så kommer många av de som finns på dessa bilder för evigt glömmas bort. Jag tror alla som suttit med ett gäng bilder från någon äldre släkting i knät upplever exakt samma sak.

Oklart om du skojar nu, men du förstår att ansiktsigenkänning i fotoappar inte används för att identifiera, för dig, okända personer?
Det har samma funktion som dina keywords, fast automatiskt. Men det hajar du väl?
 
Chat GPT har ingen aning om att bilden togs i Africa Hall i Addis Abeba i Etiopien av mig 1978 och har inte en susning om vilken konstnären var som skapade verket och vad konstnären egentligen varit ute efter att beskriva med sitt konstverk och därför blir den i Chat GPT-sammanhanget helt värdelös eftersom Chat GPT uppenbarligen fortfarande lever helt frikopplad från konstverkets kontext.

Jag har alltid undrat vem denna underbart vänliga kvinna var som inte hade mycket men som ändå bjöd mig på bananer i Nakaseke i Uganda 1986. Däremot vet jag inte om jag vill veta vad hon egentligen hade varit med om. Tror du AI kommer verkligen kommer kunna hjälpa mig med den identifieringen.

Jag känner att jag tappat tråden. Det säger väl sig självt att ingen mjukvara kan de dig information som aldrig har dokumenterats eller digitaliserats? Den kommer aldrig bli "tillräckligt bra" (trådens frågeställning) om det är ditt krav.
 
Oklart om du skojar nu, men du förstår att ansiktsigenkänning i fotoappar inte används för att identifiera, för dig, okända personer?
Det har samma funktion som dina keywords, fast automatiskt. Men det hajar du väl?

Nää, där kommer detta inte att stanna och det vet jag att även ni vet. Vi som var med på åtti- och nittiotalen då statens uppgift bl.a. såg som självklar när det gällde att försvara folks integritet har fått se de ambitionerna successivt malas ned av sociala media. Staten kunde nämligen inte göra något som helst när folk själva upphävde sin personliga integritet på Facebook och på den vägen är det och detta har blivit mycket värre än vi någonsin ens kunde mardrömma om redan.

Vill man ha hjälp att identifiera någon så är nog det inget större problem eller hur? Det är bara att to hjälp av instagrams sociogrambaserade relationer så vet man vilka kompisar folk har också. Det som fortfarande varit fult i Europa har ju varit om en stat börjat kartlägga folk aktivt men det har alltså gott väldigt bra om folk själva gjort det på sociala medier

Så idag är manegen redan krattad och man har självklart börjar i Afrika, där kunskapsnivån är lägst och motståndet minst. Jag ser en nära framtid där det kommer vara vardagsmat med tjänster på nätet som man kan slänga vilka personbilder som helst på. I Afrika har Huawei hålit på ett bra tag nu med att sälja in sitt koncept Safe Cities baserat på kinesernas teknik som de utvecklat för att ha råkoll på sin egen befolkning.

Huawei’s Surveillance Technology Program “Safe Cities” Now Active in 12 African Countries – The China-Global South Project (chinaglobalsouth.com)

Det kommer nog inte ta särskilt lång tid innan det finns världsomspännande tjänster som kommer erbjuda denna typ av tjänster precis som det finns de som erbjuder data för reverse lookup av geodata utifrån koordinater.

---> Se gärna denna 3D-presentation av det imponerande kongresscentret som byggts av Kina för African Unity i Addis Ababa Etiopien

De smarta och långsiktigt navigerande kineserna har ju byggt det nya kongresscentret för African Unity som ersatte den gamla Africa Hall som byggdes på 60-talet under Haile Selassie i Addis Abeba och det är större än t.o.m. FN-området i New York. De bygger dammar och sportarenor, vägar och hamnar och inte minst så bygger Huawei deras telesystem nu över hela Afrika. Varje år samlas ledarna för Afrikas stater i det nya kongresscentret och kommunicerar med varann via det Huawei-när kineserna byggt åt dem. Låter det bra?

Afrikanerna är totalfintade av ett Kina som fortfarande ses som obefläckat som imperialistsstat och som rider på en våg av cred de skickligt byggt upp sedan de byggde TanZam-järnvägen mellan Tanzania och Zambia.

Varför ska vi tro att inte alla dessa persondata kommer krängas en dag på precis samma sätt som den data Facebook säljer till företag idag.

Rent tekniskt så ser jag ingen större skillnad mellan att man idag kan skicka en bild på Chat GPT och att man i en nära framtid kommer kunna skicka personporträtt på en identifieringstjänst och de kommer säkert byggas in i framtida kameror och bildredigerare också.
 
Senast ändrad:
Jag känner att jag tappat tråden. Det säger väl sig självt att ingen mjukvara kan de dig information som aldrig har dokumenterats eller digitaliserats? Den kommer aldrig bli "tillräckligt bra" (trådens frågeställning) om det är ditt krav.


Nää, jag kan inte se att exv. ansiktsigenkänning som nu var det senaste som kom upp skulle kunna ge just mig något vidare stöd i det jag gör eftersom jag nu har mycket fokus på historiska bilder. Därmed inte sagt att vi i delar av världen (som tillåter det politiskt) kommer få se tjänster som kan hjälpa de som använder dem att inte bara identifiera dessa utan även de sociala sammanhang de verkar i och vilka relationer de har med andra.

Som sagt " “Safe Cities” products that include facial and license-plate recognition, social media monitoring, and other surveillance capabilities. "
 
Senast ändrad:
Nu låter det som ni sitter i Windows 95 å jobbar. Nyckelord känns väl ganska mycket som förr i tiden. Ansiktsigenkänning någon? Är inte det extremt effektivt i en stor bildsamling? Särskilt i kombination med andra markörer, som en lång tid nu enkelt känns igen av diverse katalogappar, som t.ex. objekt, väder, djur, scenarion m.m.
Och det kommer ju bevisligen inte bli sämre på den fronten.

Jag vet inte om du någonsin sett vad man faktiskt kan göra med ett bra metadatasatt bildarkiv eller ännu hellre med ett riktigt Enterprise DAM. Har man det så är det nog lättare att ha en annan uppfattning. Det är egentligen ingen större skillnad alls på ett Enterprise DAM och exv. PhotoMechanic (båda lever i samma XMP-metadatavärld) och det finns t.o.m. en hel del företag som idag använder PhotoMechanic som front end mot större DAM-system.

Digitala Stadsmuseet (stockholm.se)

Här ett exempel med vad man får i träffar om man söker på "Stockholms Slott"


I större DAM-system hanterar man både bilder och i princip vilka andra dokumenttyper som helsttyper av dokument då dessa DAM kan hantera XMP-filer som knutits till vilken dokumenttyp som helst. Som du ser på digitala Stadsmuseet, så söker man i alla typer av dokumenttyper museet har och träffarna hamnar under respektive flikar. Det är bildfiler, PDF:er och kanske Word-dokument eller t.o.m. bildspel och filmer.

En del metadata styr dessutom en massa automatiska processer som styrs hur detta data processas, lagras och presenteras. Skickar man in en historisk bild med ett regstrerat bildnummer så hämtas metadata från kopplade SQL-databaser inna den lagras in i tre olika arkiv - ett basfilsarkiv i DNG eller TIFF i full storlek samt ett leveransfilsbibliotek i JPEG men med full storlek (alla pixlar) och ett skissfils eller systemfilsbibliotek i JPEG max 1280.

Öven i PhotoMechanic kan man göra en hel massa med en fil som läses in med hjälp av olika mallar och olika variabler. Så metadata det är långtifrån bara keywords om det var det du trodde. Jag själv underhåller 27 stycken och de flesta mallas eller fylls på med automatik av variabler i de mallar jag använder.

Omodernt?? Det finns få system som så i grunden kan styra upp och rationalisera exv, större företag som ett väl implementerat DAM-system och i botten på alla dessa finns dessa metadata och variabler och ett hederligt genomfört uppmärkningsarbete.
 
Jag tror ni dessutom är helt ute om ni skulle tro att jag är någon motståndare till AI generellt, men jag vet bara genom mitt eget både professionella yrkesliv med DAM-teknik och mitt eget arkivbyggande att autogenererade keywords från exv. telefonbilder inte är särskilt bra utom i ett enda avseende och det kan vara att de går snabbt att få på plats. Problemet är bara att det i andra änden kan kosta ganska stora insatser för att rensa ut en massa AI-hallusinationer i andra änden.

Rätt använt älskar jag AI i bl.a. min kameras AF, Photolabs Deep Prime för brusreducering och Capture Ones nya fantastiska AI-styrda maskningsfunktioner som jag tycker redan är förbluffande bra. Att maska bordet på bilden skulle vara rätt ineffektivt, oprecist och jag skulle faktikst inte riktigt veta var jag skulle börja med de verktyg som finns i nuvarnade DXO Photolab som med dagens mått mätt är väldigt daterade.

Skärmbild 2024-02-18 000045.png

Men med Capture One och build 16.3.5 så väljer man AI-select och ritar en kvadrat runt bordet. Då markeras tyvärr även allt på bordet. Inget problem- Med AI-Erase så klickar man bara en gång på varje glas, ett par ggr på flaskan och drar en linje för att markera alla grupper av utspridda kort på bortdet - Klart. Så med väldigt liten insats har man idag en väldigt stor frihet att ta sig an snart sagt vad som helt och med en effektivitet som är vida bättre än allt jag sett i någon av mina konverterare tidigare.

Efter det tycker jag det blivit mycket kortare mellan mina tankar på vad jag vill göra med en bild och det färdiga resultatet. Några sådana effekter har jag svårt att se att jag skulle kunna vare sig med ansiktsigenkänning eller AI-genererade keywords i ett system där man försöker upprätthålla dataintegritet kring en Controlled Vocabulary. Det passar inte alls mig men om andra blir glada åt det så har jag inget emot det. Folk får göra precis vad de vill med sina metadata - det angår inte mig överhuvudtaget bara jag slipper höra här om deras brustna förväntningar :cool:
 
Senast ändrad:
ANNONS
Köp en spegellös systemkamera från Canon och få ett 50mm objektiv på köpet hos Götaplatsens Foto.