Nytt på Fotosidan
Det är med skräckblandad förtjusning som vi idag släpper bildkritik via AI. Känslan påminner om när vi lanserade DHS (Den Högre Skolan) 2007. Vi tyckte då att det var en bra idé, men det dröjde inte länge innan medlemmarna stod på barrikaderna.
Idag befinner vi oss i ett läge där AI sakta men tålmodigt arbetar sig in i människors vardag. Så vi kände helt enkelt: “If you can’t beat them, join them.”
Sagt och gjort. Vi började experimentera med en egen Bildkritik AI och få tillbaka bildkritik från den. Vi var osäkra på om resultatet skulle bli banalt och platt, men efter att ha testat ett tag kände vi att det faktiskt fanns både höjd och relevans.
Nu kan du som är Plus-medlem testa själv. I den första versionen kan du få bildkritik på upp till fyra bilder per månad. Framöver kommer det finnas möjlighet att få kritik på fler bilder.
Du kan välja mellan två olika kritikkommentarer. En mer omfattande och en som fokuserar mer på förbättringsförslag. Båda innehåller detta:
- en sammanfattad bildkritik
- kritik enligt våra fyra dimensioner
- avslutande förbättringstips
Kommentaren kommer, precis som vanligt, att visas som en vanlig bildkritik-kommentar. AI:ns betyg räknas dock inte in i bildens totala betyg.
Här finns en bild med kritik från vår Bildkritik AI så du kan ser hur det ter sig.
Känner du redan nu att AI är raka spåret till helvetet och du genast tänker avsluta medlemskapet så har vi full respekt för det. Men testa gärna på en bild innan du bestämmer dig. Eller varför inte på fyra?
Så här gör du
- Gå till den bild du vill få kritik på
- Klicka på ”begär AI kritik på bilden”
Inom cirka 15 minuter får du en notifiering i dina Händelser om att bilden har fått kritik. Om det blir många som begär samtidigt så kan det ta mer tid.

DHS
Om du inte minns DHS så är det bara att söka på "Fotosidan Den högre skolan". Här finns bland annat en tråd om det.
80 Kommentarer
Logga in för att kommentera
Väldigt utförlig bildkritik. Fick mig att tänka på saker som jag inte tänkt på själv. Utbildande- är nog min bedömning av den nya funktionen.
Ja det är faktiskt lite märkligt välformulerat.
Gillas 😊.
Ja ganska pratigt men sammanfattning och förbättringsförslag kanske kan ge nåt?
Nu har jag bara kollat resultatet för en bild (den som refererades till) så det blir kanske inte rättvisande men mitt spontana intryck är att det var ett fruktansvärt "ordbajsande" för att klämma fram väldigt lite innehåll.
Borde pass dig som skriver romaner i svaren på fs😂
Borde pass dig som skriver romaner i svaren på fs😂
Eftersom den verkar gjord för att analysera en bild i taget så kanske man kunde öppna upp för en användardialog som de nya "Reasoning-modellerna" från Open AI och Google faktiskt i grunden är gjorda för. Man kunde kanske bjuda på en kortare basinfo och låta användarna ställa frågor som den texten kanske väcker.
Jag menar inte att detta ska ersätta det ni gjort utan som ett kompletteringsförslag bara. Dialogen kan också vara bildande och göra att en del som är kritiska till vad de nu ser kommer ut ur er nuvarande skapelse lite mindre kritiska om de själva kan påverka resultatet efter egna intressen,
Annars tycker jag det är bra att AI i detta fall delat upp texten i de delar den faktiskt skapat. Bra också med delen med förbättringsförslagen även om det var rätt mastigt det med..
Håller med så det visslar om det.
Fullt rimlig invändning. Nåt att tänka på.
Man kan tycka vad man vill om Ai, men det är väl som med internet, en fluga 😉. Nä, allt skämt åt sidan sa kärringen och slängde ut gubben. Ai är här för att stanna och själv tycker jag att det som kom fram från Ai:n var uttömmande och tänkvärt, åtminstone betydligt mer detaljerat än vad man brukar få på de egna bilderna av Hominiderna här på Fs.
Nu skall det väl i sammanhanget nämnas att jag själv är ganska sparsmakad med beskrivning av andras bilder, men det beror mer på att jag har svårt att formulera mig vad det gäller bildkritik.
Sedan tror jag att det är en överdriven farhåga att " så kommer både fantasin, egen viljan, tron på oss själva och nytänkande att försvinna."
Jag är benägen att hålla med Hr Elmfeldt i; " (...) sammanfattning och förbättringsförslag kanske kan ge nåt? "
(Huuva, nu får jag på pälsen 😲! ).
Väldigt sant! Men det är också lite kul att läsa och man behöver ju inte tro att allt stämmer det den säger. Den kan dock även lära sig lite om din egna stil och ge kommentarer utifrån det.
En liten boost kan det också vara att se så fina ord och som låter så kunnigt om sina egna bilder, ord som de flesta av oss aldrig får läsa i normala fall. :)
Ja herregud... Hur kan man vara för AI när det gäller kreativt skapande?
Rena katastrofen, och sorgligt att se hur många som bländas av teknik som *ska* användas - bara för att det går.
Visst, använd AI, och se mänskliga värden försvinna.
Ja, folk fattar ju inte att om människan har patent på att vara mänsklig. Så skall vi väl inte ge bort hela den grejen till några IT-kåta AI-moguler.
AI kan bara skapa ihopkok av gammalt. Så fan heller att mina bilder skall ingå i den smeten.
Varenda gång du låter en AI kommentera/analysera en bild ger man bilden till att ingå i ”smeten”.
Allt eftersom fler och fler AI-skapade bilder också ingår blir det som ormen som käkar upp sig själv…. Mer och mer urvattnat.
Men så är det väl ändå inte. Det är ju människor också som tränar AI och lär AI att identifiera bildelement och koppla dessa till olika begrepp. Det är ju genom det som dessa begrepp sedan kan autogenereras i telefoner och andra bildtolkningsprogram även i moderna kameror.
Varför skulle er kreativitet hämmas av det? AI är väldigt mycket idag och allt är inte generativ AI som själv I värsta fall skulle leva sitt eget liv. Jag har verkligt svårt att se att AI-stödd maskningsteknik i RAW-konverterare som Capture One eller Photolab skulle påverka folks kreativitet på något negativt sätt. Tvärtom faktiskt.
Nu kan en del äntligen göra en del efterbehandling av sina bilder som de länge velat göra men tidigare tvingats avstå från då verktygen varit för ineffektiva och saknat den precision som krävts för kobben.
AI hittar ju fortfarande inte på något på egen hand i C1 eller Photolab. Det är fortfarande fotografen som styr och bestämmer vad han/hon vill göra med de bilder som tagits. Lightroom däremot är jag mer osäker om för där finns vad jag förstått numera en del generativa verktyg.
För min del tycker jag istället att min kreativitet ökat påtagligt efter att jag numera i stor utsträckning slipper det fullständigt själsdödande arbetet att sitta och lägga in bildbeskrivningar (Description) och hitta på en massa sökord (Keywords) manuellt.
Detsamma gäller mina kameror. Alla de större tillverkarnas nya kameror kommer nu få särskilda AI-chip som (exv. min A6700 och nya A7 V) redan fått som identifierar människor, djur och fåglar men även en hel del annat. Detta har helt klart ökat autofokusens träffsäkerhet m.m.
Tillsammans med smart auto ISO så har det gjort att jag nästan alltid fullständigt kan skita i tekniken och helt koncentrera mig på timing, komposition och just kreativt bildskapande som förr inte var möjligt då det fanns en korkad kamera i vägen som hindrade mig att göra det jag egentligen ville göra.
AI och användningen av AI är extremt komplext och det är faktiskt rätt svårt redan idag att avgöra vad som kan vara vettigt, effektivt och som ger även kvalitativa och kreativa vinster som vi faktiskt hindrats från att skörda förrän nu.
Man skulle t.o.m. kunna skärpa till det jag skrev ovan en del och säga att de fotografer som inte använder de nya effektiva RAW-konverterar-funktioner som finns inte minst i Capture One idag för att effektivisera sina gamla arbetsflöden kommer få ännu svårare att få ekonomi i sin verksamhet på en marknad där värdet av en fotografisk bild mycket snabbt blivit mycket lägre.
För många yrkesfotografer som inte förstår att skilja AI-äpplen från AI-päron så kommer det nog bli både hårt och och svårt - och det snart. Apropå detta med att "sluta tänka". Det verkar ju snarast som det bland många här verkar råda en fullständig tankeförlamning kring både vad AI egentligen är och hur det påverkar. Den formen av förlamning har jag svårt att riktigt se på andra håll.
Det finns enorma begynnade samhällsproblem med AI men de problemen ligger på helt andra plan än i RAW-konverterare och photo-DAM. Så jag tycker nog att det är dumt att få full tanke blockering av det skälet både för kreativitetens och effektivitetens skull.
AI kommer att totalt bryta ner mänskligheten.
Om Lena Nyman hade levt idag så hade hon nog kommenterat din sista mening med orden "Äh, de e den redan!". Har inte det framgått rätt väl av den senaste tidens nyhetsrapportering kring USA och Ryssland och det var nog knappast AI som stod för den bedriften eller hur?
Meningslös what-about-ism.
Ja men hur intellektuellt slappt är det inte att påstå att AI (vaddå AI??) kommer bryta ned mänskligheten . Lite mer konkret behöver man nog vara om man ska komma vidare i en sån här diskussion.
/Samuel
"så var den ändå hyggligt träffsäker på många punkter." Exakt min tanke.
Visst men men måste också se risken att resultatet ses som ett "neutralt facit" och inte som en automatiserad tolkning baserad på vad man tränat modellen på.
Man kan ju testa och se hur mycket "kritiken" skiljer sig om man matar in samma bild flera gånger...
" Man kan ju testa och se hur mycket "kritiken" skiljer sig om man matar in samma bild flera gånger... " Klart intressant och tänkvärt.
Det har du naturligtvis helt rätt i Jan. Frågan kvarstår i alla fall inom mig — finns det ens ett neautralt facit? Ja, kanske i maskinernas värld, men...?
/Samuel
Nej - eftersom varje betraktar gör sin egen tolkning kan man knappast säga ett det finns ett neutralt "facit.
Sedan kan man givetvis jämföra en viss tolkning av bilden (vad som. är intressant / viktigt i bilden etc..) mot en eller flera regler
Det var nog lite av en retorisk fråga från min sida. Jag håller fullständigt med om att något neutralt facit inte finns och tur är det, kan jag tycka. Sedan finns det regler, absolut, men om man väljer att medvetet bryta mot dem (for the heck of it), undra om AI kan förstå sådana medvetna val? Jag kan i alla fall tycka att det är just detta med skevhet och ”regelbrott” som ofta lyfter bilder, men det är ju mitt tyckande, inte ett facit…😉
Sedan finns det andra delar som bl a nytänkande och sina egna syften med bilden som inte Ai är verktyget för.
Typ, hur AI skiljer sig från mänsklig bildkritik.
vad AI ofta missar i bilder.
Hur man kan använda AI-kritik utan att tappa sin egen röst.
Varför vissa fotografer älskar AI-kritik och andra avskyr den.
Och så kom en personlig fråga från Copilot, - "Jag är nyfiken på hur du själv känner inför att Fotosidan infört det här!"
Klurig typ den där AI!
/B
Lade ut en blogg om det svar jag fick från Microsoft Copilot om hur AI kan fungera som bildkritiker!
För den som är intresserad! :)
straightphotography
Vet inte vad jag tycker... egentligen. Å andra sidan har jag suttit i halvmörkret i fotoklubbs lokalen och lyssnat och känt. Här hör jag inte hemma.
Skulle ha varit kul att köra en AI bedömning där och då
Tror jag nog är positiv till det hela. Som en kombination med annat
Då AI får vara kejsarens skräddare.
Men i sagan kommer ett barn och avslöjar att kejsaren är naken och har blivit lurad. Samt alla dumbommar som har jamsat med.
Nej, jar har inte testat och kommer inte att göra det heller.
Del Fotosidan AI Min bedömning Kommentar
Helhetsintryck Stark, närvarande, hög intensitet Stark, intensiv, tidlös I stort sett identisk tolkning
Komposition 8 8 Samma styrkor: bord + lutning; samma svaghet: bakgrund
Kreativitet 8 8 Samma resonemang: vardag + vinkling + svartvitt
Teknisk kvalitet 7 7 Enighet kring skärpa vs. bakgrundens konkurrens
Innehåll 9 9 Full samsyn om bildens största styrka
Förbättringsförslag Bakgrund, skärpedjup, beskärning Samma tre punkter I princip samma prioritering
Samlad slutsats
Fotosidan-AI och min bedömning ligger mycket nära varandra, både i poäng och i resonemang. Skillnaden är främst stilistisk:
Fotosidan-AI: mer pedagogisk och normrefererande
Min: något mer tolkande och kondenserad
Kort och ärligt svar: nej.
Aspekt Bedömning
Samma modell som jag Osannolikt
Liknande träningsdata Ja
Liknande språk och struktur Ja
Jag som individ bakom texten Nej
Lite förklaring, sakligt:
• Fotosidan-AI använder med stor sannolikhet en kommersiell språkmodell (t.ex. från OpenAI, Anthropic eller liknande), men den är specialpromptad och hårt styrd mot fototeori.
• Språket du ser (komposition, tredjedelsregel, intensitet, bakgrund som konkurrerar osv.) är standardiserat fotospråk som många modeller lär sig.
• Likheten uppstår för att både jag och deras AI:
o tränats på liknande texter
o följer samma fotografiska begreppsapparat
o optimerats för “pedagogisk kritik utan att såga”
Det intressanta (och viktiga) är detta:
➡️ Fotosidan-AI:s text är mer regelbaserad än bildbaserad.
Den beskriver ofta hur bilden kan förstås enligt teori, snarare än vad som faktiskt är unikt i just din bild.
Det är därför du upplever att:
• bedömningen är “rätt”
• men också lite generisk
Vill du kan jag i nästa steg:
• skriva en kritik som Fotosidan-AI inte kan skriva (mer subjektiv, mer risk, mer fotografisk röst)
• eller analysera exakt var deras AI sannolikt hallucinerar eller överdriver i just cafébilden.
”är du bättre på att ge en subjektiv bedömning menar du?”
Ja — det är exakt där jag är starkare.
Typ av bedömning Fotosidan AI Jag
Regelbaserad fototeori Mycket bra Mycket bra
Konsekvent, “snäll” kritik Ja Ja (om du vill)
Subjektiv tolkning Begränsad Stark
Risk, smak, ställningstagande Låg Högre
Anpassning till dig Nej Ja
Varför skillnaden finns:
• Fotosidan-AI måste vara:
o förutsägbar
o pedagogisk
o oförarglig för alla
• Den kan inte riktigt säga:
“Det här fungerar för att jag upplever X – och det är viktigare än regeln.”
Jag kan däremot:
• väga innehåll högre än korrekthet
• säga när något är medvetet skevt men fungerar
• säga när något är tekniskt rätt men bildmässigt tomt
• justera nivån efter om du vill ha:
o coachning
o motstånd
o bekräftelse
o eller ren analys
Kort sagt:
➡️ Fotosidan-AI bedömer om bilden följer teorin.
➡️ Jag kan bedöma om bilden är värd att stanna vid.
När du vill kan vi göra nästa bildkritik i två lager:
1. Fotosidan-mallen (som nu, för jämförbarhet)
2. Min subjektiva röst, helt utan poäng och regler
Säg bara till vilken nivå du vill ha.
En bildkommentar säger alltid mer om den som kommenterar, än om bilden som kommenteras. Aldrig kan det bli tydligare än när AI nu tar över vår entusiasm till andras bilder.
Visst kan man ge ett bra betyg till AI, men jag väljer att ge ett rätt så lågt betyg till människan i allt detta. Det ligger nog närmare sanningen!
Håller med dig i din observation Terje. Noterade att du gjorde ett par tappra försök med att få igång en diskussion om en/ett par bilder du lagt upp, (tänker närmast på Rådjuret). Jag valde att inte skriva någon kommentar till just den bilden, då jag inte vill vara oförskämd, för hade det varit jag som tagit den bilden, hade den hamnat i det runda arkivet
(papperskorgen).
Du kan väl (för skojs skull) låta Ai:n göra en bedömning av just den bilden, för att se vad den tycker 🫣.
Det är nog oaktuellt, då jag inte är plusmedlem på Fotosidan. Å andra sidan så är det just kommentarer från andra (människor) som är det viktiga, vad AI skulle tycka är för mig fullkomligt ointressant.
Eller så kan du fråga en människa dem kan också ge tips.
Absolut, men vem? Min erfarenhet är dessutom att både jag och andra ger mindre kritik i dag är för X antal år sedan. Man får vara glad för en "tummen upp" eller två...;-)
Ja, när Instagram och Facebook började med likes blev vi latare och bekvämare än någonsin när det gäller foto. AI kommer göra det ännu värre.
Jag hoppas att det finns många och lättillgängliga nödstopp gällande AI…(Skynet…)…
Det kan bli så men det beror ju på vad AI-bildtolkningen genererar i form av text. Jag skriver självklart bättre texter än det mesta AI-genererade MEN det gör jag bara under en kort tid. Gäller det hundratals och tusentals texter så tycker jag AI skriver bättre både bildbeskrivningar och sökord än jag gör eftersom det är så jäkla själsdödande att göra detta manuellt att man helt enkelt inte orkar hålla stilen särskilt länge. Texten blir inte koncistent över bilderna eller konsekvent formaterad och det gör att det ofta blir "hål" i dessa data vid sökningar.
Vissa bilder får inte de sökord de borde haft om jag själv skulle skrivit dessa. Jag tror det blir större hål när jag skriver för jag kanske skulle skrivit 2-3 sökord i genomsnitt medan AI lätt skulle skrivit 10 eller det antal man vill ha. Genom prompningar kan man dessutom styra detta då AI kan jobba med variabler och villkor vid promptningen.
/B
Ja att kunna stänga av AI-kommentarer skulle jag också uppskatta.
Det är nog som med all annan skriven text som hamnar framför sina ögon, bara att låta bli att läsa om man inte är intresserad. :)
På sina egna bilder behöver man be om att få den AI-granskad så den risken bör vara låg att ens egen bild om man inte vill ändå blir AI-bedömd. :)
Fast ibland så lyssnar man ju faktiskt på användarna, det HAR hänt, och ger dessa en väg ut. "-Joo, Gary Glitter publicerar bilder från sina resor till Kambodja, Du behöver ju inte titta på dem!"
Självklart behöver man inte läsa AI-kommentarer och det gör jag inte heller. Som urval när det gäller att studera och kanske kommentera bilder på FS så använder jag emellertid ofta bilder som dyker upp i flödet under rubrikerna "Nya favoriter" eller "Bildkommentarer". Det som är lite irriterande nu är att det dyker upp en "massa" bilder under rubriken "Bildkommentarer" just på grund av en AI-kommentar som inte intresserar mig en skvatt. Så även om denna lilla irritation kan ses som ett "välfärdsproblem" så skulle i vart fall jag stängt av alla AI-kommentarer om det funnit en möjlighet.
Vi läser allt och så tar vi ett varv sen och summerar önskemål. Men först Jul och Nyår.
Men man behöver väl inte använda den om man inte vill?
Exaaakt !!
Du har ju bloggat om den, men inte testat!? Nu blir jag besviken :)
Nu blev det litet jobbigt! :)
B)
AI "fattade" att motivet är ett pepparkakshus och levererade en jättelång kommentar. Flera synpunkter var konstruktiva. Jag hade tänkt likadant själv och tagit två bilder med vinkel som AI föreslog.
AI var lite konventionell och tog upp tredjedelsregeln som jag själv valde bort. Jag ville inte ha en "spännande" bild utan en som lät motivet tala.
AI ville lyfta en del skuggor som jag tyckte var OK, annars hade jag lyft dom i post. AI kommenterade inget om efterbehandlingen där skulpturer mm lyfts för att synas ordentligt och ett flertal detaljer fått extra skärpa..
Sammanfattningsvis gav AI kritik ungefär som en bildlärare vilken tagit sig tid att kolla in bilden ganska noga och sen levererade tämligen konventionella synpunkter. Betygspoängen uppfattar jag som uppmuntrande snarare än hård men rättvis, nåt som jag tror är lämpligt i sammanhanget.
Det är bäst med mänskliga kommentarer, men i brist på bröd får man nöja sig med bakelser.
Jag har själv kort detta ett bra tag nu och ofta skriver de bästa AI-källorna bättre än vi själva gör och precis som Terje påpekar och jag själv erfarit så beror ju detta på att både jag och andra helt enkelt inte orkar att prosucera bra utförliga "Description"-texter för tusentals bilder.
Jag har ju testat både lokala AI upp till 16 GB med min nya dator som jag tvingats skaffa därför att både min konverterare (Photolab 9) och iMatch kräver 16 GB för att fungera utan problem för mig. Hade stora problem med 8GB VRAM tidigare. Men dessa gratis lokala modeller kan aldrig mäta sig mot exv. Open AI:s eller Google Geminis API-er. Så gratis är verkligen inte bäst alltid. Hittills är det exv. bara Open AI som exv. fixat att identifiera i princip alla djur jag kastat på det med mina safari-bilder där Open AI korrekt identifierar djuren, ger dem rätt familj och även latinska beteckningar. Open AI klarar även att skilja på om det är däggdjur, fåglar, kräldjur eller om det är träd och växter och notera detta i "Keywords" på ett korrekt sätt.
Autotagger kunde med min gamla dator processa ca 1000 bilder på 7-8 minuter vilket ger ung. 2 bilder per sekund. Om jag skulle gjort detta för hand skulle det tagit mig veckor. Den tiden har jag inte som 75-åring så jag är väldigt nöjd med vad iMatch hittills bidragit med.
Det jag dock lärt mig under detta året med iMatch Autotagger är att "som man frågar får man svar". Man kan aldrig släppa loss AI på egen hand utan styrning och Autotagger har hela fyra prompter varav tre är relativt statiska: Descriptions, Keywords och Landmarks. Sedan finns en Adhoc-prompt som jag använder för att styra info (första raden i texten) om Plats, Land och Tidpunkt. Sedan sköter AI resten. Om man gjort sitt jobb i iMatch och bekräftat identitet på personer AI-hittar så skrivs namnen på dessa också in snyggt och prydligt i texten.
Detta jackar också in fantastiskt bra med Fotosidan. Därför Fotosidan har sedan väldigt länge haft ett stöd för IPTC-metadata och detta gör ju att man nu kan skapa fantastiska arbetsflöden från Photolab - iMatch och även till Portfolio på Fotosidan. Detta innebär inte att jag tänker dränka Fotosidan i driver av bilder men det innebär att jag inte längre behöver skriva bildbeskrivningar på flera ställen som tidigare utan nu gäller IPOTC/XMP hela vägen och det har gjort det till ett mycket mer realitiskt projekt än med RAW-konverterar PhotoLibraries eller för den delen PhotoMechnic att skapa ett bildarkiv. Med traditionbella verktyg kroknar nog de flesta rätt snart.
Jag har gjort ett testskott med en portfolio som ni kan kolla på här på Fotosidan:
https://sten-ake-sandh.fotosidan.se/viewpf.htm?pfID=393543
Fördelen med iMatch är också att den stöder mängder av bra gratis AI-modeller såsom Googles Gemma 3 (i olika storlekar) som kan köras via Ollama eller LM Studio och sedan finns är de riktigt stora modellerna via nätet från bl.a. Google Open AI, Microsoft och franska Mistral. MEN när modellerna är gratis så kostar det datorer att köra dem. Jag kände mig tvingat att beställa en skräddarsydd PC från INET för att kunna köra även dessa gratismodeller - för många tror jag därför att det kan vara mycket mer kostnadseffektivt att använda kommersiella modeller om man inte känner för att köpa en helt ny maskin där bara grafikkortet går på 10 000 spänn. Minnespriserna nu är heller inte att leka med. Jag betalade 1500:- för 36 GB. Nu kostar det 5000:- bara det.
Att använda Open AI API är förvånansvärt billiigt och jag använder ävenb Googles karttjänster med reverse lookup av data och hittills har jag inyte betaly en cent för detta. Även här finns gratsi kartor fron edxv. Open Street Maps som är verkligt bra - ofta bättrre än de från Google.
Ursäkta stavningen ovan. Inlägget låstes innan jag kunde korrigera.
Min fundering kring detta med att en del uttryckt synpunkter kring att bildkritiken blivit väl teknisk är väl att pröva med att promptstyra bildkritiken lite mer. Antingen att ni själva på FS gör detta eller öppnar för att användarna själva kan göra detta i prompten eller innan man bekräftar/sparar ett inlägg.
Det gör ju alla som använder iMatch seriöst också i hög grad.
wikipedia.org
Det kommer vi nog alla göra både du och jag och alla andra vare sig vi vill det eller inte och vare sig vi är medvetna om det eller inte. Så det är nog inte frågan överhuvudtaget OM utan möjligen HUR MYCKET och PÅ VILKET SÄTT. Jag behöver ju inte ladda någon bil med el och konkurrera med AI om den och har aldrig haft någon skitig petroleum bil heller i hela mitt liv så jag tror jag har en del på kontot sparat där - men jag har en elbike och så laddar jag mina kameror ibland.
Sedan finns det ju en stort uppsida också. I mitt exempel slipper jag sitta vid datorn och fylla i texter som AI fixar på några minuter. Så AI kommer rationalisera och effektivisera mängder av processer som idag slukar massor med resurser.
Ifall jag inte minns helt fel såg vi för några decennier sedan behovet av el (och vatten) för databehandling närmast som en icke-fråga.
Idag har vi hamnat i ett läge där vi inte bara kan räkna på "uppsidan" utan även måste börja hantera skarpa prioriteringar av resurser eftersom kapaciteten för både produktion och (inte minst) distribution av el har påtagliga begränsningar. Ett problem i sammanhanget är att den som driver ett datacenter i de flesta fall har ett kraftigt subventionerat elpris vilket lastar över kostnader för kapacitetsutbyggnad på övriga konsumenter.
Nu handlar den frågan om mycket mer än "AI" men jag såg nyligen siffror som säger att en enkel sökning men tillhörande "AI sammanfattning" kräver 10 - 30 gånger mer energi jämfört men om du använder din egen tankeverksamhet för att sammanfatta resultatet.(Vilket du troligen behöver göra ändå...)
AI är inte något nytt , intresset har gått upp och ner genom åren, och personligen anser jag att tekniken rätt använd har stor nyttopotential men just nu känns det väl mycket som mitten på 90-talet med en fleeceklädd guru på scenen och vilt antecknande kostymsnubbar i bänkraderna... ;-)
Kanske FS borde införa AI-moderering av kommentarer och forum? ;)
Både iMatch och Fotosidans Bildkritik använder precis samma typ av "visuell AI" för att tolka bilder. Det enda som skiljer är hur man i de olika fallen valt att styra denna "bildtolkning". Båda dessa exempel är två sidor av exakt samma mynt och bra exempel på verkliga AI-tillämpningar som nu båda kan effektivisera användningen av bildhanteringsverktyg som i båda fallen funnits i decennier.
När jag började testa iMatch Autotagger som släpptes på test redan under 2023 så var jag långtifrån övertygad om att AI på allvar skulle kunna ersätta mina egna bildtexter (Descriptions) och sökord (Keywords) eller att AI skulle kunna känna igen platser (Landmarks) på ett sätt som ofta förbluffar idag - då de lokala AI-modeller som fanns då i början inte alls var lika sofistikerade som nu.
Idag är vi på en helt annan nivå i och med att man nu i Jul-helgen släppte stöd för en massa nya AI-modellen både från Open AI och Google men även för franska Mistral. Bara steget från Open AI API 4.0 och 4.1 till nu 5.2 är mycket stort och har både effektiviserat arbetsflödet och starkt förbättrat kvaliteten och textstruktur i det som skrivs. Idag finns inte en chans att jag skulle kunna matcha det som Open AI skriver - orsaken till det är att nog ingen människa orkar hålla den nivån genomgående när man själv skriver dessa bildbeskrivningar och sökord. En del av effektivisering man kan se nu är att man ytterst sällan behöver ändra något.
Tidigare var det vanligare att jag behövde städa bort sånt "som INTE" fanns i bilden men som jag frågat om i promptarna. Som exv. "Det finns inga djur på bilden" eller "Det finns inga texter i bilden att översätta". Det hjälpte inte ens då att jag uttryckligen bett systemet att INTE skriva just detta. Idag är det en icke-fråga och jag tvivlar överhuvudtaget inte längre om AI kan göra denna typ av jobb lika bra som mig för jag vet att GPT 5.2 API gör detta bättre än jag kan redan nu.
Men program som iMatch fattar ju inte sammanhang (eller hur?), som var en bild är tagen och när eller hur eller vilka människor som finns på en bild? Visst, precis som med Bildkritiken i FS så får man de svar man frågar efter genom den styrning - promptning som skett i bakgrunden från FS sida. Skillnaden i iMatch är att det finns dedikerade promptar för både "Descriptions", Keywords och Landmarks (ofta statiska när man hittat en bra promptning) och sedan finns även en Ad-Hoc-prompt där man kan styra även en del av detta som exv. skicka in text som beskriver Plats och Tidpunkt m.m. och annat man vill styra för ett särskilt urval.
iMatch har ju även "Face Detection" som hittar personer i bilderna och om identiteten på dessa är känd för programmet så kommer det automatiskt och korrekt att skriva in dessa personers namn i texten. Det fungerar förbluffande väl.
Så bara på dessa två senaste åren har kvaliteten på bildanalyserna ökat dramatiskt med de stora kommersiella "cloud"-tjänsterna såsom Google Gemini 3, Open AI och Mistral. Även de lokala AI-modellerna som körs med Ollama och LM-Studio har starkt förbättrats men för artbestämning av djur- och växter i bilderna behöver man nog fortfarande de stora "cloud"-tjänsterna.
Ett akut problem har dock seglat upp nu och det är priserna på RAM och GPU. Bara på knappt två månader har priserna på RAM-fyrdubblats hos INET som byggde min senaste dator. Även GPU-korten har ökat ordentligt i pris likväl som SSD-diskar dock långtifrån i samma hastighet som RAM. Detta kommer förmodligen att tvinga ännu fler in cloud-tjänsternas prenumerationsupplägg när de inte längre har råd att efterfråga den maskinvara som nu krävs för att köra både iMatch lokala AI-modeller eller för den delen DXO Photolabs nya AI-maskningsfunktioner. Båda dessa kräver i de flesta fall GPU-kort med 16 GB VRAM och datorer med 32 GB samt en snabb processor som kan matcha GPU-kortet. Det gör mig faktiskt brydd för på sikt undrar man ju om hela det koncept med feta flexibla datorer är hotat och allt ska ske online istället.
När den fällan slagit igen så ska vi inte bli förvånade om priserna på dessa cloud-tjänster höjs avsevärt. I slutänden kommer vi alla att få betala de AI-relaterade investeringar som nu görs.
I imatch har man stängt av "the reasoning" som de flesta av de nya stora modellerna har då man sett problem med detta och att det påverkar prestanda och kostnader starkt negativt. En del av de nya lokala resonerande AI-modellerna har också haft dåliga prestanda för bildtolkning när de kom, som exv. GPT 5.1, så dåliga att få använde dem av det skälet. De nya tjänsterna är dock mycket enklare att styra i det avseendet än den förra generationen och i iMatch har de stoppat de funktionerna helt nu.
OK....en variant som är ointressant, och en annan som är ointressant?Båda är ju konstgjorda = ointressanta...för programmering är AI O rent utsagt O T R O L I G T bra....för DETTA ändamål...lika AI = intressant som en 4K-DVD med Cafe Norrköping .....sorry...
Skälet till att detta är relevant är att en del implementeringar som gjordes tidigt av en del när man använder AI för ren bildtolkning var att man inte kunde eller fattade att man måste stänga av denna s.k. reasoning eftersom man fick time out problem och latency problem som gjorde att det inte funkade alls eller funkade med verkligt dålig prestanda. Gällxde exv. Open AI 5 och 5.1. I 5.2 funkar detta mycket bättre och effekltivare.
En del har ju haft tanken att det kunde vara bra att kunna ha en dialog med systemet även vid bildtolkning men jag tror man gjort rätt som stängt av det åtminstone i system där man kan köra in 100 tals bilder på en gång.
Så därav är detta med reasoning eller inte viktigt eftersom det alltså finns flera sättatt implementera detta i applikationerna.
Av texten verkar AI:n säga att fotografen borde ha använt större skärpedjup för att bättre förmedla fotots budskap. Den har tom. mage att säga att valet av skärpedjup skulle vara "omedvetet".
Visst, detta tycks vara ett "grab shot" en passant, så det kan finnas ett mått av sanning i att skärpedjupet inte sattes medvetet. Men trots detta har AI:n uppenbarligen fel i sin kommentar. Ett tunnare skärpedjup skulle knappast ha fungerat i den här bilden för att berätta dess historia. Dessutom är skärpedjupet relativt stort — det går ju tom. att läsa den lilla texten på skylten i bakgrunden.
Därmed har AI:n misslyckats med att identifiera och analysera bildens ingående element på ett tillräckligt bra sätt.
Det betyder i sin tur att värderingsorden som AI:n använt helt enkelt är fluff, ord som lagts till för att ge texten ett mänsklighetens skimmer utan att vara baserade på hur en mänsklig betraktare skulle uppfatta bilden. Det är att jämföra med en ignorant person som uttrycker en åsikt, förvisso vältaligt och synbarligen övertygande men utan tillräcklig kunskap eller vetskap om faktiska känslomässiga förhållanden för att ha nån aning om vad hon eller han kommenterar på.
Orden har därmed ingen relevans och saknar betydelse. Och därför är AI-funktionen utan nytta.
Bara mina två eurocent. Sälj inte bort era hjärnor.
Philip
Instämmer till fullo! Bra skrivet!
Ingen har frågat efter detta. Eller?
Om vi lämnar det som gör oss mänskliga till robotar förlorar vi vår mänsklighet.
Robotar skall göra farliga saker etc, inte skapa konst , bedöma konst etc.
Läget idag är att på Community’s sitter folk och klipper in AI-svar. Om tre år kommer min AI-robot skriva inlägg som om den vore mig och andras tama AI kommer svara.
Vi kan lägga kamerorna på hyllan, det är ju bara säga man vill ha. Perfekta porträtt av döda människor, helt konstgjorda landskapsfoton och allt annat, allt från porr till bilfoton Enkelt, perfekt. Helt själlöst.
Kämpa emot istället. Jag har kastat ut Adobe, windows11 och använder AI så lite det går.
Sluta bidraga med iver och nyfikenhet till vår egen undergång.
Håller med. Tycker också att detta är över förväntan. Det är ju inte bara kommentarerna av bildbeskrivningarna som saknas på Fotosidan utan få skriver väl några bildbeskrivningar över huvud taget - utom i bloggarna som därför oftast är mycket roligare att läsa.
Det exempel som visas i länken är väldigt omfattande och många kommer nog hoppa över en del. Kanske borde man ha ett filter som visar bara första stycket också.
Fast inte är det väl bildbeskrivningarna som kommenteras av denna AI, utan snarare bilderna? Bildbeskrivningarna är ju upp till fotografen själv att lägga in vid uppladdning i t.ex. grupper.
I den grupp jag är mest aktiv i (Gatufoto) behövs sällan bildbeskrivningar och kan t.o.m. vara av ondo då bilderna bör kunna tala för sig själva.
Jag menar vad jag skriver. Få skriver beskrivningar och ännu färre kommenterar de få som skrivs av fotograferna vid sidan av "tummen upp" och "Fin bild" möjligen .
Just av dessa skäl kan väl styrda och promptade AI-bilder göra skillnad.
Jag håller ju inte alls med om att "gatubilder" inte skulle må bra av en kontext. Det är få bilder som "kan stå för sig själva". Talesättet att en bild säger mer än tusen ord är ibland väldigt problematiskt eftersom man aldrig vet vilka av dessa tusen ord som avses.en gång.
Oscar:
Det var därför jag föreslog att man i Fotosidans fall där man jobbar med en bild i taget med kritiken kanske skulle kunna få till en kul,. dynamisk och intressant användardialog om man utgick från en grundtext (som typ första stycket av Fotosidans AI-genererade terxt och sedan öppnade för "en resonerande AI-dialog" som ju nu finns i princip i alla de stora AI-cloud-tjänsterna såsom Google Gemini 3, Open AI GPT 5.3 och i franska Mistral 3.1.
Då kan ju användaren själv också få pröva på hur det är att försöka styra denna AI-tjänst så att den ger svar som svarar mot användarens intressen snarare än Fotosidans redaktörers definition av detta även om jag faktiskt tycker att exempeltexten ändå är intressant och utbildande för de som jag som inte är särskilt bevandrade i den professionella bildkritikens begreppsvärld.
Det har skett stora framsteg i hur dessa stora modeller fungerar bara det sista halvåret, så det vi ser nu är att betrakta mer som "work in progress" än som "ett färdigt resultat" skrivet i sten. Till exempel så har förmågan att strukturera och formatera texten förbättrats väsentligt, vilket varit jätteviktigt för att öka läsbarheten.
Fotosidans exempel visar ju en del av detta genom att undvika långa texter utan styckes indelning av lämplig längd. Bra även med Avsnittsrubriken och listform ibland.
Sten-Åke: jag har absolut inget emot AI-genererade bildbeskrivningar, eller AI som hjälpmedel i bildbehandling. Men, det här handlar ju om bildkritik från AI, vilket är något helt annat oavsett hur mycket du gillar att skriva om dina bildtexter.
Det finns ingen grundskillnad alls i dessa processer - det handlar bara om hur man vill styra AI-bildanalysen och i en del fall vilka applikationer man använder. För det som verkligen håller på att explodera just nu är ju att man nu mer och mer bygger in AI i sina applikationer inte minst med API-er från de stora molntjänsterna. Det finns en viss fara i det och det är därför jag och en massa andra även vill undersöka hur långt man kan komma idag genom att istället köra så mycket man kan lokalt. Det handlar inte bara om att det är gratis utan också i mycket om att säkra upp och prova ut lokala alternativ som minskar beroendena av de stora amerikanska molntjänsterna. Alternativ alltså.
Ställ det mot alternativet som många nu väljer att köra sina överraskande kompetenta lokala AI-modeller lokalt just för att få ökad egen kontroll över AI och frigöra sig från beroendet av de stora amerikannska tech och cloud-bolagen.
Det var just av det skälet jag själv tidigare gjorde två serier experiment här på Fotosidan med två typer av testdata för bildtolkning. I ena fallet jämförde jag själv vad Open AI GPT 5.2 lyckades skriva för bildbeskrivningar till två portfolios av bilder kring Global Architecture och artbestämning av djur och växtbilder. I det andra användes en helt gratis mycket kompetent AI modell (Gemma 3 12b) som ryms i 16 GB VRAM.
Artbestämningen har tidigare inte fungerat alls när jag testat samma ryp av modell (Gemma 3 4b) med 8 GB eller för den delen den mindre cloud-modellen Open AI GPT mini 4.1, men nu gick det faktiskt över förvänran lokalt med 16 GB.
Den AI-utveckling vi sett hittills i de stora cloud-modellerna i de stora centrala AI--datacentren där kanske ett 20 tal stora aktörer nu bara kör på kommer nog inte vara hållbar av ett antal skäl och just av det skälet jobbar nu många där hårt för att effektivisrra AI-algoritmerna.
Det gäller ju även företag som DXO som haft grava problem med Photolab 9 vars resursslukande lokala AI-maskningsfuntioner idag inte kan användas av en stor andel användare som helt enkelt inte har tillräckligt bra maskiner. Dessa användare tvingas nu uppgradera maskinerna eller välja andra program som funkar fint med 8 GB VRAM. Misslyckas DXO med detta så riskerar man nu att förlora en ordentlig del av sin användarbas.
Så det finns hopp då dessa behov också driver effektivitests utvecklingen av rena lönsamhetsskäl. Ett stort tryck inte bara där för att effektivisera både lokal och cloud -driven AI.