Annons

Lens Diffraction Compensation

Produkter
(logga in för att koppla)

Sten-Åke Sändh

Aktiv medlem
Jag läste följande blogg för ett tag sedan och jag tyckte det var ganska intressant:

https://blog.phaseone.com/compensate-lost-sharpness-small-apertures/


RAW-konverteraren Capture One 10 som är en av de tre jag använder har jag normalt idag mest som ett verktyg för "tethering" och viss initial korrigering av reprofotade dia bilder Det är på många sätt ett fantastiskt program med en del starka sidor. Det är i många avseenden mer avancerat än både DxO Photolab och Lightroom. Inte minst har det en lagerhantering värd namnet och verkligt bra färghanteringsverktyg vid sidan av mycket bra tetheringstöd.

Det jag nu vill ha era tankar kring är upplevda problem med diffraktion och om ni använder Lens Diffraction Compensation i CO 10 eller 11. Ni som kör version 11: ser ni några förbättringar i jämförelse med version 10?

Jag har inte lyckats hitta något motsvarande i mina andra konverterade även om DxO har exv. "Lens sharpness"-funktionen med möjlighet att lägga på extra skärpa, detalj och påverka bokeh. Jag vet inte i detalj vad Capture Ones "Lens Diffraction Compensation" faktiskt gör men både skärpa och detalj påverkas och frågan för mig att testa är ju om dessa verktyg faktiskt biter på inskannade eller reprofotade Tri-X och dia. I en del fall verkar en del verktyg inte fungera som de gör på en vanlig digitalt född bild när man använder dem på bilder som har en konverterad films textur.

I bloggen ger man ju intressanta bildexempel på hur kraftfullt detta verkar vara och det skrivs ju dessutom att det ger förutsättningar för att blända ner lite till, vilket man annars skulle ha aktat sig för. Det kan ju vara värt mycket ibland.

Personligen ska jag försöka testa om det även kan funka på mina inskannade dian som i en del fall kan vara lite luddiga av olika skäl. Dian har ju verkligt dålig dynamik i jämförelse med dagens digitalt födda bilder och man var tvingad ofta att leva på ISO som man idag sällan eller aldrig använder. För mig var det ofta bara ISO 50. Risken för oskärpa där är ju rätt överhängande och på den tiden (70-talet) så var antiskak i kamerahus ännu inte påtänkt.

Enligt artikelns lista så startar diffractionen göra sig påmind vid lite olika bländartal i de exempel man listat:

1" sensor 20 MP redan vid bländare 5.6
APS-C 24 MP vid bländare 9
FF 42 MP vid bländare 11

Så även där finns ytterligare en faktor att tänka på som jag aldrig ägnat en tanke på när det gäller relationen APS-C och FF. Jag använder ju båda de senare.

Det är ju också rätt fascinerande att man med mjukvara kan påverka det upplevda optiska skärpedjupet på det sätt som visas också i bilderna av fyren. I exemplet tvingas man ju som ofta välja vad som ska vara skarpt och särskilt med de större sensorerna så blir ju det än mer tydligt. Att då i efterbehandling med detta verktyg upphäva mycket av den begränsningen är ju rätt enastående.

Jag tycker ofta att kamerautvecklingen gått ganska sakta och att den tagits i rätt små steg. Mycket skrik för lite ull ofta. Utvecklingen av RAW-konverterarna däremot har ständigt förbluffat mig med vad man kan göra med en bild i efterbehandling och många gånger får man väldigt mycket mer i bildkvalitetsförbättringar där än genom att på marginalen lägga väldigt mycket mer pengar på kameror eller objektiv med marginellt bättre prestanda.

Har någon annan erfarenheter av detta att dela med sig av så lyssnar jag gärna och lär.

Finns det något motsvarande funktioner i Lightroom 6 som jag missat?
 
Senast ändrad:

Grevture

Aktiv medlem
Teknikredaktör
Intressant, men tror du inte det bara är en extra skärpning av olika grad som läggs på utifrån EXIF?

/stefan
Ur blogginlägget:

"When checking on the Diffraction Compensation in Capture One 10, a special kind of complex re-sharpening of the images will take place to restore the lost sharpness and micro contrast. Needless to say, if details are totally lost due to diffraction they cannot be restored, but even such images will still greatly benefit from the Diffraction Compensation tool."

Så jodå, det är skärpning, men sannolikt en som är lite specialanpassad eftersom man trots allt vet en del om vilken typ av oskärpa diffraktion ger med utgångspunkt från pixelstorlek och bländare, men även kanske lite utifrån analys av motivet.

LR har (så vitt jag märkt i alla fall :) ingen specifik diffraktionsskärpning, men skärpning är ju över huvud taget ganska enkel i LR. Där vill väl Adobe att man skall använda PS istället som har en mängd olika metoder för skärpning, varav någon kan vara särskilt väl anpassad för att kompensera diffraktion.
 

jeduven

Aktiv medlem
Diffraktionsoskärpa är väl ett avtagande problem med minskande pixelstorlekar. Däremot är det värre att komma tillrätta med diffraktionsoskärpa ju större pixlarna är. Dät är nog därför som Capture One har den möjligheten för Phase Ones kameror med deras relativt stora pixlar...
 

Grevture

Aktiv medlem
Teknikredaktör
Diffraktionsoskärpa är väl ett avtagande problem med minskande pixelstorlekar.
Nej, ganska exakt tvärtom :)

Jag har ägnat mycket tid att argumentera mot vad jag upplevt som onödig ångest över och överdrivet misstroende mot mindre pixlar i systemkameror, något som tack och lov verkar ha avtagit senaste åren. Jag är inte ute efter att tala illa om små pixlar ... :) Men, blir de tillräckligt små når vi till slut en nivå där diffraktion gör ytterligare ökad upplösning rätt meningslös. Nu är vi långt därifrån ännu med våra systemkameror, men i kompakter och i synnerhet mobiler har man nått ned i pixelstorlekar där diffraktion verkligen blir en begränsande faktor, även med stora bländaröppningar.

Däremot är det värre att komma tillrätta med diffraktionsoskärpa ju större pixlarna är. Dät är nog därför som Capture One har den möjligheten för Phase Ones kameror med deras relativt stora pixlar...
Nja, där tror jag nog du fått orsakssammanhangen lite om bakfoten. Diffraktion är ju i grunden ett optiskt fenomen - att ljus kröks en aning när det passerar en kant, i det här fallet bländaren. Det här ger oss två saker: 1) Ju högre upplösning (mindre pixlar) vi har, ju tydligare kan vi notera effekten av diffraktion och 2) ju mindre bländaröppning vi använder, ju mer av ljuset blir krökt och vi får mer diffraktion.

Mellanformatsfotografer tenderar att blända ned mer än andra fotografer (vilket alltså förvärrar fenomenet), plus att en stor grundorsak att de alls kör mellanformat är för att maximera skärpa och detaljteckning. Där har du nog huvudskälen att Phase One bryr sig extra mycket om diffraktion.
 

jeduven

Aktiv medlem
Nej, ganska exakt tvärtom :)
Aldrig Martin, aldrig!
Det är alltid mycket lättare att dreja med finare lera än med grövre grus.
Du förstår säkert vad jag menar med detta. :)

Jag har ägnat mycket tid att argumentera mot vad jag upplevt som onödig ångest över och överdrivet misstroende mot mindre pixlar i systemkameror, något som tack och lov verkar ha avtagit senaste åren. Jag är inte ute efter att tala illa om små pixlar ... :) Men, blir de tillräckligt små når vi till slut en nivå där diffraktion gör ytterligare ökad upplösning rätt meningslös. Nu är vi långt därifrån ännu med våra systemkameror, men i kompakter och i synnerhet mobiler har man nått ned i pixelstorlekar där diffraktion verkligen blir en begränsande faktor, även med stora bländaröppningar.

Nja, där tror jag nog du fått orsakssammanhangen lite om bakfoten. Diffraktion är ju i grunden ett optiskt fenomen - att ljus kröks en aning när det passerar en kant, i det här fallet bländaren. Det här ger oss två saker: 1) Ju högre upplösning (mindre pixlar) vi har, ju tydligare kan vi notera effekten av diffraktion och 2) ju mindre bländaröppning vi använder, ju mer av ljuset blir krökt och vi får mer diffraktion.
Och helt plötsligt kom pixelstorleken med i det optiska fenomenet...häpp.

Mellanformatsfotografer tenderar att blända ned mer än andra fotografer (vilket alltså förvärrar fenomenet), plus att en stor grundorsak att de alls kör mellanformat är för att maximera skärpa och detaljteckning. Där har du nog huvudskälen att Phase One bryr sig extra mycket om diffraktion.
Jo, det är dom stora pixlarna som förvärrar fenomenet....inte dom mindre,
 

PMD

Aktiv medlem
Om pixlarna är mindre än Airyskivan så tappar man upplösningsförmåga. Airyskivans storlek beror på bländaröppningens storlek.

Cambridge in Colour har en bra artikel som visar hur stor Airyskivan blir vid olika stora bländaröppningar och hur skivan relaterar till pixlarnas storlek för ett antal typiska sensorer. Tyvärr är listan över sensorer lite gammal numera, men det går att åskådliggöra principen ändå.
 

Grevture

Aktiv medlem
Teknikredaktör
Sten-Åke får säga ifrån om han upplever det här som ett sidospår som inte hör hemma i diskussionen, så jag håller mig kort tills vidare.

Aldrig Martin, aldrig!

...

Jo, det är dom stora pixlarna som förvärrar fenomenet....inte dom mindre,
Som en allmän formulering i debatten om små vs stora pixlar skulle jag hålla med dig ... Eftersom små pixlar generellt ger väldigt mycket fördelar. Men jag vidhåller att du nog fått orsakssammanhangen lite om bakfoten kring varför mellanformatsfotografer hittills varit mer intresserade av diffraktion än andra. Sedan får du tro vad du vill :)
 

Sten-Åke Sändh

Aktiv medlem
Om pixlarna är mindre än Airyskivan så tappar man upplösningsförmåga. Airyskivans storlek beror på bländaröppningens storlek.

Cambridge in Colour har en bra artikel som visar hur stor Airyskivan blir vid olika stora bländaröppningar och hur skivan relaterar till pixlarnas storlek för ett antal typiska sensorer. Tyvärr är listan över sensorer lite gammal numera, men det går att åskådliggöra principen ändå.
Spelar antalet lameller och hålets "rundhet" någon roll?
 

Grevture

Aktiv medlem
Teknikredaktör
Ok, då kör vi :)

1. Låt oss fastslå en sak, med en gång. Diffraktion i sig självt har absolut ingenting med pixelstorlek att göra. Lika lite som, t.ex. kromatisk aberration eller något annat optiskt fenomen i sig orsakas, förbättras eller förvärras av pixelstorlekar. Diffraktion är ett optiskt fenomen som beror på att ljus som passerar nära någon slags kant kröks en smula. Den finns där även om det inte ens sitter någon sensor bakom optiken (men man kan ju i det läget hävda principen att det vi inte ser, det finns inte :)

2. Men, som med alla optiska fel så spelar pixelstorlek en roll i hur lätt eller svårt det är att se ett optiskt fenomen. Som så ofta när man skall förstå något kan det ibland vara en hjälp att tänka på extremvärden. Om vi tar kromatisk aberration som exempel, är det lättare eller svårare att upptäcka den med mer upplösning? Ser du CA lättare i en bild från en sensor på 100 pixlar eller i en bild från en sensor på 100 miljoner pixlar (100 megapixel)? Svaret är rätt självklart - det är lättare att se CA ju högre upplösning man har. Samma gäller allt från skakningsoskärpa till fokusfel eller dålig upplösning - ju högre upplösning du har, ju lättare är det att se fenomenet. Och samma sak gäller diffraktion. Det är faktiskt först när vi uppnått någorlunda höga upplösningar som vi ens upptäcker att diffraktionen finns där - för det har den gjort hela iden, oavsett vilken sensor vi använder.

Aldrig Martin, aldrig!
Det är alltid mycket lättare att dreja med finare lera än med grövre grus.
Du förstår säkert vad jag menar med detta. :)
Tro mig, jag är en varm anhängare av högre upplösning, och jag håller med dig att det är lättare att på ett bra sätt skärpa bilder så diffraktionen stör resultatet mindre ju högre upplösning (mindre pixlar) man har. Precis som resultatet av CA-reducering blir bättre ju högre upplösning man hade i ursprungsbilden. Hög upplösning är i sig själv aldrig en nackdel (ok, filstorlek då, men om vi håller oss till bildkvalitet), och hög upplösning i sensorn (och bildfilen) gör det i stort sett alltid lättare att korrigera det optiska felet.

Och helt plötsligt kom pixelstorleken med i det optiska fenomenet...häpp.
Nej, då missförstod du mig.

Jo, det är dom stora pixlarna som förvärrar fenomenet....inte dom mindre,
Nej, faktum är att tillräckligt stora pixlar kan dölja diffraktion, vilket påminner om principen att ju mindre man tittar, ju mindre ser man :) Det följer ju samma princip som att man kan dölja allt från fokusfel eller brus till aberrationer genom att skala ned bilder till tillräckligt liten storlek. Det här är nog en orsak att hobbyfotografer inte pratade om eller funderade så mycket på diffraktion på filmtiden. Med småbildsfilm (eller mindre) var det svårt att upptäcka diffraktion.

Och har vi väl synlig diffraktion är det som sagt lättare att korrigera den (skärpa bilden) om vi har mindre pixlar, än större.

Men att mellanformatsfotografer brytt sig mer om diffraktion beror knappast på pixelstorlekar. Jag skulle nog hävda som en allmän tumregel att fotografer (i betydelsen "alla som använder en kamera") tenderar att bry sig mer om diffraktion ju större bildsensor man använder. Varför är det så?

Dels för att hela skälet att över huvud taget använda stora sensorformat (eller filmformat för den delen) är att få en bättre bildkvalitet, och diffraktion är något som begränsar bildkvalitet. Alltså bryr man sig mer.

Plus, en sak som de nämner i texten som Per länkade till, och som jag hoppas att många läser och tar till sig är, citat "Even when a camera system is near or just past its diffraction limit, other factors such as focus accuracy, motion blur and imperfect lenses are likely to be more significant. Diffraction therefore limits total sharpness only when using a sturdy tripod, mirror lock-up and a very high quality lens." Diffraktion har en tendens att döljas bakom eller försvinna bland andra fotografiska synder (skakig kamera, fokusfel, oskarpa objektiv osv). Jag skulle säga, som tumregel, att noggrannheten i att undvika sådana fel ofta är direkt proportionell mot sensorstorleken :)

Sist men inte minst - kanske rent av viktigast - diffraktion blir alltså värre ju mindre bländare man använder. Vilka typer av fotografer har ofta och regelmässigt jobbat med riktigt små bländare? Jo, de med större sensorformat. Det är inte många APS-C-eller småbildsobjektiv som ens har bländare som f/32 eller f/45 - vilket däremot är vanligare just hos mellanformatsobjektiv (storformatsfotografer är ju ännu värre - den här gruppen fotografer tog sig inte sitt namn utan orsak: https://www.google.se/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&ved=0ahUKEwjz3_r15tPYAhXjB5oKHYgIBqEQFggnMAA&url=https://en.wikipedia.org/wiki/Group_f/64&usg=AOvVaw1QZS_jtimKiAKLcEyQass0)

Så nej, jag håller inte med om det Leif skrev: "Diffraktionsoskärpa är väl ett avtagande problem med minskande pixelstorlekar."

Varför? Jo, det är snarare så att ju mindre pixlar (och därmed högre bildupplösning) vi har tillgång till, ju mer medvetna om diffraktionens påverkan kommer vi att behöva bli. Har vi låg sensorupplösning ser vi den helt enkelt inte, på samma sätt som vi inte ser fokusfel eller optiska aberrationer. Så länge vi APS-C- eller småbildsfotografer höll oss under säg 20 megapixel behövde vi inte fundera så mycket på saken. Det var något som störde lite på bländare 16, men i övrigt märkte vi det inte. Men när vi nu passerat 30, 40 och 50 megapixel börjar vi upptäcka och irriteras av diffraktion vid allt större bländare. När vi passerar 100 megapixel måste vi nog verkligen på allvar börja hantera det med sådan där skärpning som CaptureOne använder.

I slutändan kommer diffraktion att innebära att det helt enkelt inte längre är någon poäng att minska pixlarna (öka upplösningen) något mer. För att åter ta ett citat ur texten från Cambride in Colour: "Diffraction thus sets a fundamental resolution limit that is independent of the number of megapixels, or the size of the film format. It depends only on the f-number of your lens, and on the wavelength of light being imaged. One can think of it as the smallest theoretical "pixel" of detail in photography." Det här är nog en bra bit bort ännu, men förmodligen gör diffraktionen det meningslöst att ha mer än 500-700 megapixel i en småbildssensor - vid det laget är även den bästa optik vi har diffraktionsbegränsad på alla bländare.
 

PMD

Aktiv medlem
Toppenforum!

Jag måste ju bara få uttrycka min uppskattning av Fotosidans forum. Klockan tre på natten sitter folk och diskuterar diffraktion! :)
 

jeduven

Aktiv medlem
Ok, då kör vi :)

1. Låt oss fastslå en sak, med en gång. Diffraktion i sig självt har absolut ingenting med pixelstorlek att göra. Lika lite som, t.ex. kromatisk aberration eller något annat optiskt fenomen i sig orsakas, förbättras eller förvärras av pixelstorlekar. Diffraktion är ett optiskt fenomen som beror på att ljus som passerar nära någon slags kant kröks en smula. Den finns där även om det inte ens sitter någon sensor bakom optiken (men man kan ju i det läget hävda principen att det vi inte ser, det finns inte :)

2. Men, som med alla optiska fel så spelar pixelstorlek en roll i hur lätt eller svårt det är att se ett optiskt fenomen. Som så ofta när man skall förstå något kan det ibland vara en hjälp att tänka på extremvärden. Om vi tar kromatisk aberration som exempel, är det lättare eller svårare att upptäcka den med mer upplösning? Ser du CA lättare i en bild från en sensor på 100 pixlar eller i en bild från en sensor på 100 miljoner pixlar (100 megapixel)? Svaret är rätt självklart - det är lättare att se CA ju högre upplösning man har. Samma gäller allt från skakningsoskärpa till fokusfel eller dålig upplösning - ju högre upplösning du har, ju lättare är det att se fenomenet. Och samma sak gäller diffraktion. Det är faktiskt först när vi uppnått någorlunda höga upplösningar som vi ens upptäcker att diffraktionen finns där - för det har den gjort hela iden, oavsett vilken sensor vi använder.



Tro mig, jag är en varm anhängare av högre upplösning, och jag håller med dig att det är lättare att på ett bra sätt skärpa bilder så diffraktionen stör resultatet mindre ju högre upplösning (mindre pixlar) man har. Precis som resultatet av CA-reducering blir bättre ju högre upplösning man hade i ursprungsbilden. Hög upplösning är i sig själv aldrig en nackdel (ok, filstorlek då, men om vi håller oss till bildkvalitet), och hög upplösning i sensorn (och bildfilen) gör det i stort sett alltid lättare att korrigera det optiska felet.



Nej, då missförstod du mig.



Nej, faktum är att tillräckligt stora pixlar kan dölja diffraktion, vilket påminner om principen att ju mindre man tittar, ju mindre ser man :) Det följer ju samma princip som att man kan dölja allt från fokusfel eller brus till aberrationer genom att skala ned bilder till tillräckligt liten storlek. Det här är nog en orsak att hobbyfotografer inte pratade om eller funderade så mycket på diffraktion på filmtiden. Med småbildsfilm (eller mindre) var det svårt att upptäcka diffraktion.

Och har vi väl synlig diffraktion är det som sagt lättare att korrigera den (skärpa bilden) om vi har mindre pixlar, än större.

Men att mellanformatsfotografer brytt sig mer om diffraktion beror knappast på pixelstorlekar. Jag skulle nog hävda som en allmän tumregel att fotografer (i betydelsen "alla som använder en kamera") tenderar att bry sig mer om diffraktion ju större bildsensor man använder. Varför är det så?

Dels för att hela skälet att över huvud taget använda stora sensorformat (eller filmformat för den delen) är att få en bättre bildkvalitet, och diffraktion är något som begränsar bildkvalitet. Alltså bryr man sig mer.

Plus, en sak som de nämner i texten som Per länkade till, och som jag hoppas att många läser och tar till sig är, citat "Even when a camera system is near or just past its diffraction limit, other factors such as focus accuracy, motion blur and imperfect lenses are likely to be more significant. Diffraction therefore limits total sharpness only when using a sturdy tripod, mirror lock-up and a very high quality lens." Diffraktion har en tendens att döljas bakom eller försvinna bland andra fotografiska synder (skakig kamera, fokusfel, oskarpa objektiv osv). Jag skulle säga, som tumregel, att noggrannheten i att undvika sådana fel ofta är direkt proportionell mot sensorstorleken :)

Sist men inte minst - kanske rent av viktigast - diffraktion blir alltså värre ju mindre bländare man använder. Vilka typer av fotografer har ofta och regelmässigt jobbat med riktigt små bländare? Jo, de med större sensorformat. Det är inte många APS-C-eller småbildsobjektiv som ens har bländare som f/32 eller f/45 - vilket däremot är vanligare just hos mellanformatsobjektiv (storformatsfotografer är ju ännu värre - den här gruppen fotografer tog sig inte sitt namn utan orsak: https://www.google.se/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&ved=0ahUKEwjz3_r15tPYAhXjB5oKHYgIBqEQFggnMAA&url=https://en.wikipedia.org/wiki/Group_f/64&usg=AOvVaw1QZS_jtimKiAKLcEyQass0)

Så nej, jag håller inte med om det Leif skrev: "Diffraktionsoskärpa är väl ett avtagande problem med minskande pixelstorlekar."

Varför? Jo, det är snarare så att ju mindre pixlar (och därmed högre bildupplösning) vi har tillgång till, ju mer medvetna om diffraktionens påverkan kommer vi att behöva bli. Har vi låg sensorupplösning ser vi den helt enkelt inte, på samma sätt som vi inte ser fokusfel eller optiska aberrationer. Så länge vi APS-C- eller småbildsfotografer höll oss under säg 20 megapixel behövde vi inte fundera så mycket på saken. Det var något som störde lite på bländare 16, men i övrigt märkte vi det inte. Men när vi nu passerat 30, 40 och 50 megapixel börjar vi upptäcka och irriteras av diffraktion vid allt större bländare. När vi passerar 100 megapixel måste vi nog verkligen på allvar börja hantera det med sådan där skärpning som CaptureOne använder.

I slutändan kommer diffraktion att innebära att det helt enkelt inte längre är någon poäng att minska pixlarna (öka upplösningen) något mer. För att åter ta ett citat ur texten från Cambride in Colour: "Diffraction thus sets a fundamental resolution limit that is independent of the number of megapixels, or the size of the film format. It depends only on the f-number of your lens, and on the wavelength of light being imaged. One can think of it as the smallest theoretical "pixel" of detail in photography." Det här är nog en bra bit bort ännu, men förmodligen gör diffraktionen det meningslöst att ha mer än 500-700 megapixel i en småbildssensor - vid det laget är även den bästa optik vi har diffraktionsbegränsad på alla bländare.
Jo, vi är alltså helt överens om att det s.k. diffraktionproblemet är lättare att komma till tals med ju mindre pixlarna är.

Det andra du beskriver här ovan handlar mer om den ständigt återkommande 100%-luppen.
 

Grevture

Aktiv medlem
Teknikredaktör
Jo, vi är alltså helt överens om att det s.k. diffraktionproblemet är lättare att komma till tals med ju mindre pixlarna är.

Det andra du beskriver här ovan handlar mer om den ständigt återkommande 100%-luppen.
Jo, det där med att betrakta bilder i 100 % är ju som bekant lite tveeggat och kan lätt ge upphov till missförstånd.

Det handlar ju, skulle jag säga, om att det i grunden finns två olika perspektiv på ökad upplösning: Man kan se det som ett problem (nu måste jag skaffa bättre objektiv, nu får jag diffraktion osv) eller som en vinst (nu utnyttjar jag mer av potentialen i mitt system). Lite av "glaset halvt tomt, glaset halvt fullt" :)

I mycket av debatten som härjade för kanske i synnerhet 5-6 år sedan (alla minns nog "The D800-induced Resolution Panic of 2012" :) hade många - i mina ögon - ett underligt negativt perspektiv. Det framställdes inte sällan som en nackdel med högre upplösning: "nu måste du byta objektiv", "nu får du dålig hörskärpa med din gamla billiga 70-300" osv. Inte minst uppstod ju ett av de på den tiden återkommande utbrotten av brusångest.

Med tiden upplever jag att många ändå har upptäckt, insett och accepterat att upplösning snarare innebär att man äntligen ser nyttan och glädjen med bra objektiv, att man tydligare ser nyttan med stativ eller noggrann fokus och nyttan av att mer exakt och precis kunna jobba med optiska fel som funnits där hela tiden. Jag tror t.ex. att alla utan undantag accepterar att det är enklare att kompensera bort distorsion med högre upplösning (ett av de få optiska fel som syns nästan oberoende av upplösning).

Men, man få ju också faktiskt acceptera att en del verkligen vill få ut så mycket som möjligt av en ökad upplösning och då, bland mycket annat, börjar fundera över och arbeta med och vilja dämpa effekterna av diffraktion. Att skaffa en mellanformatare har ju redan sedan filmtiden varit ett sätt att få mer upplösning och i den världen har man alltså tidigare än i småbilds-/APS-C-världen börjat bry sig om och arbeta för att dämpa diffraktionens effekter.

Du skrev, i ditt första inlägg

Diffraktionsoskärpa är väl ett avtagande problem med minskande pixelstorlekar. Däremot är det värre att komma tillrätta med diffraktionsoskärpa ju större pixlarna är. Dät är nog därför som Capture One har den möjligheten för Phase Ones kameror med deras relativt stora pixlar...
Och jag tycker som sagt att du ger ett bakvänt perspektiv på det hela:

1) Nej, diffraktion är inte ett avtagande problem med minskad pixelstorlek - det är ett fenomen som är oberoende av pixelstorlek som vi dels måste upp i relativt höga upplösningar för att alls upptäcka, och - så långt har du rätt - inte går att bekämpa (med skärpning) förrän man faktiskt ser det, tack vare ökad upplösning. Men det innebär ju inte att problemet avtar med ökad upplösning. Faktum är ju att diffraktion är en optisk begränsning som till slut gör det meningslöst att öka upplösningen bortom en viss gräns - hur mycket vi än skärper bilden.

2) Det är inte värre att komma till rätta med diffraktion med större pixlar. Med större pixlar och lägre upplösning går det helt enkelt inte att se diffraktion vilket gör det meningslöst (ur bildsynpunkt) att försöka bekämpa den. Och nej, jag ser verkligen inte lägre upplösning som ett plus. Jag säger bara att det inte är svårare att bekämpa ett fenomen som man faktiskt inte ens behöver bry sig om eftersom det inte syns.

3) Och det här med pixelstorleken hos Phase Ones kameror ... Deras 100 MP-sensorer (CCD) har en liten aning större pixlar än en Eos 5DS (50 MP) eller en D850. Men de har nästan exakt samma pixelstorlek som en A7R II/A7R III (42 MP) och mindre pixlar än en D800/D810/K1/A7R (36 MP). Och de mindre CMOS-sensorerna på 50 MP som sitter i GFX eller X1D mfl har i princip samma pixelstorlek. Och de kommande 100 MP-sensorerna från Sony kommer ju ha en pixelgeometri som motsvarar ca 80 MP i en småbildssensor. Så nej, jag tycker inte att man kan påstå att Phase One bryr sig mer om diffraktion för att de har större pixlar.
 

Sten-Åke Sändh

Aktiv medlem
Kommer den med verkligt små pixlar bara uppfattas som bokeh?

När jag nu håller på att efterbehandla en del gamla dian så ser jag ju att en del ytor med jämn textur som exv. himlar (som ju normalt väl är det minsta man bryr sig om när det gäller oskärpa) till följd av mediet kan vara väldigt känsliga för främst kontrast. Så kontrast som ju kan ge en illusion av skärpa kan i det fallet verkligen ställa till det. Dia film kan under en del förhållanden ge verkligt besvärliga problem med kornet så där parerar i alla fall jag det genom att minska Micro Contrast så att dessa grova kornklutter minskar eller försvinner och det jag gör då rent praktiskt är ju att minska motsvarigheten till den tidens pixlar och det är ju kornklutter (har inget bättre begrepp så rätta mig gärna om ni har det).

Jag ser ju dessutom precis som Martin så utförligt beskrivit att dessa reprofotade diabilder (24 MP) som jag ser på skärm i 4K och som jag varit lite orolig för den tekniska kvaliteten hos ju inte motsvara normala 24 MP utan det diats ursprungliga betydligt lägre kvalitet ger. En dia kanske inte håller mer än motsvarande 10 MP och har ett DR på kanske hälften av vad som kommer ur min A7r. Ser man dem på skärm så är nog max storlek motsvarande A4 om bilden inte är helt tekniskt perfekt som dia och knappt då ens. Så bara för att man fotar 24 MP repro som gör ju inte det att man får en bild med motsvarande kvalitet som en 24 MP digitalt född bild skulle ha.

Så precis som Martin säger så ser de faktiskt ofta rätt bra ut trots de begränsningarna när jag publicerat dem på FS portfolio för där skala de ju ner starkt. Jag exporterar dem i 3840 på längsta sidan som ju är Ultra HD som en del kallar 4K fast det egentligen per definition inte är det. I Portfolio skalas bilden ner utterligare till drygt 2000+ på längsta sidan om jag minns rätt.

Jag undrade vad denna funktion hos CO tillför i förhållande till det vanliga skärpningsverktyget. Martin påpekade ju att Lightroom ju har den vanliga skärpningen och saknar den speciella CO varianten. För mina dian spelar den dessutom ingen roll för den är inaktiv för de ARW ram som skapas när jag kör direktfångst i CO. Så även konverterarna gör en massa koller på datat. I DxO kan man exv. inte ta in bilder i DNG som inte skapats av DxO då det programmet tydligen gör skillnad på DNG och DNG och bara accepterar sådana som försetts med korrigeringsmetadata vid importen till DxO eller exporten till DNG från DxO.

Även i DxO finns ju en särskild skärpningsfunktion under rubriken "Lens" och en del tycker tydligen att den är bra och använder den hellre än den vanliga skärpningen, så jag känner mig klart förvirrad av detta för jag själv har ingen aning om varför det finns två varianter av skärpning i exv. DxO Fotolab. Det är ju liten vinst med det om inte algoritmerna under dessa gränssnitt verkligen anpassats för olika uppgifter. Problemet är ju bara att det inte är lätt alla gånger att verkligen få reda på varför man gjort som man gjort och om jag inte vet det så har ju tillverkarna ett pedagogiskt problem och jag ett praktiskt.

Det är ju också uppenbarligen så att bilddatats struktur påverkar RAW-konverterarna. Verktygen som funkar bra på en vanlig kameratagen bild med en sådan bilds struktur inte funkar bra eller inte alls med vissa av programmets verktyg. Jag tror att det beror på bilddatats struktur. De nya fina "adjustment"-verktygen "bombar" hårt om jag använder dem på mina reprofotade diabilder. Det kraschar direkt oavsett vilken bild jag testar på så jag kan alltså tyvärr inte använda dem idag på mina diabilder för mer selektiv redigering.
 

Grevture

Aktiv medlem
Teknikredaktör
Kommer den med verkligt små pixlar bara uppfattas som bokeh?
Diffraktion kan nog få oskärpeteckning (bokeh) att se ännu lite mjukare ut, men problemet är ju att den även sänker skärpan i de delar av bilden som är i fokus - det blir helt enkelt som ett oskärpefilter över hela bilden.

En dia kanske inte håller mer än motsvarande 10 MP
Det är en vanlig approximation ja (för dia/neg tagna med småbildsfilm, på frihand, med på filmtiden vanlig konsumentoptik).

... och har ett DR på kanske hälften av vad som kommer ur min A7r.
Hälften så många steg ja, 6-7 steg, mot runt 12 i din A7R, men tänk på att sex steg innebär 64 gånger större/mindre omfång :)

Ser man dem på skärm så är nog max storlek motsvarande A4 om bilden inte är helt tekniskt perfekt som dia och knappt då ens. Så bara för att man fotar 24 MP repro som gör ju inte det att man får en bild med motsvarande kvalitet som en 24 MP digitalt född bild skulle ha.
Nej, men med 24 MP (har inte A7R 36 MP?) ser du i alla fall till att tappa så lite som möjligt i kvalitet i själva reproduktionssteget. Du tillför så att säga inga nya begränsningar.

En annan gammal tumregel är att en tekniskt vettig bild på 5 MP räcker rätt bra för en utskrift i A4-format. 10 MP borde i alla fall ta dig halvvägs till ett A3 :)

Så precis som Martin säger så ser de faktiskt ofta rätt bra ut trots de begränsningarna när jag publicerat dem på FS portfolio för där skala de ju ner starkt.
Att skala ned en bild döljer många synder :)

Jag undrade vad denna funktion hos CO tillför i förhållande till det vanliga skärpningsverktyget.
Jag skulle väl lite vagt och undvikande säga att det är en skärpningsmekanism speciellt anpassad för en viss typ av oskärpa. Och att den därför kan funka bättre, men det kan nog variera med en massa saker som vilken film du skannar, hur skanningen går till, hur skarp optik de gamla diabilderna togs med och en lång rad andra faktorer.

Vill du verkligen experimentera med skärpning är ju trots allt gamla Photoshop ett bra ställe att börja, där har du ju ett urval av både färdiga skärpningsverktyg och välkända skärpningsmetoder (sök på Youtube :) som arbetar på lite olika sätt och kan kombineras närmast i det oändliga.
 

Sten-Åke Sändh

Aktiv medlem
Jag måste ju bara få uttrycka min uppskattning av Fotosidans forum. Klockan tre på natten sitter folk och diskuterar diffraktion! :)

Ja är det nördigt eller är det nördigt! Men man kan ju inte styra när man får idéer eller hur? Tar man inte dem i flykten så är de ofta borta. När jag sover är det "batteri ur" och jag vaknar ju nästan aldrig på nätterna av att en massa idéer poppar upp, som en del andra tydligen gör. Jag kommer inte ens ihåg den minsta dröm så jag har inget annat val än att dagdrömma lite eller helt enkelt låta bli att gå och lägga mig. Du verkar ju också tycka att nattsömn är överskattat.

Det har faktiskt blivit ännu värre efter att jag gjorde en operation av näsan. Jag kunde inte andas genom den förut nästan alls och hade galen sömn apné. Vaknade hur många gånger som helst på natten tidigare men då vaknade jag inte främst av intressanta idéer utan för att jag trodde jag höll på att drunkna. För alltid tacksam mot Sophiahemmets läkare som utan sedvanligt vårddribbel bara fixade detta.
 

Sten-Åke Sändh

Aktiv medlem
Diffraktion kan nog få oskärpeteckning (bokeh) att se ännu lite mjukare ut, men problemet är ju att den även sänker skärpan i de delar av bilden som är i fokus - det blir helt enkelt som ett oskärpefilter över hela bilden.



Det är en vanlig approximation ja (för dia/neg tagna med småbildsfilm, på frihand, med på filmtiden vanlig konsumentoptik).



Hälften så många steg ja, 6-7 steg, mot runt 12 i din A7R, men tänk på att sex steg innebär 64 gånger större/mindre omfång :)



Nej, men med 24 MP (har inte A7R 36 MP?) ser du i alla fall till att tappa så lite som möjligt i kvalitet i själva reproduktionssteget. Du tillför så att säga inga nya begränsningar.

En annan gammal tumregel är att en tekniskt vettig bild på 5 MP räcker rätt bra för en utskrift i A4-format. 10 MP borde i alla fall ta dig halvvägs till ett A3 :)



Att skala ned en bild döljer många synder :)



Jag skulle väl lite vagt och undvikande säga att det är en skärpningsmekanism speciellt anpassad för en viss typ av oskärpa. Och att den därför kan funka bättre, men det kan nog variera med en massa saker som vilken film du skannar, hur skanningen går till, hur skarp optik de gamla diabilderna togs med och en lång rad andra faktorer.

Vill du verkligen experimentera med skärpning är ju trots allt gamla Photoshop ett bra ställe att börja, där har du ju ett urval av både färdiga skärpningsverktyg och välkända skärpningsmetoder (sök på Youtube :) som arbetar på lite olika sätt och kan kombineras närmast i det oändliga.
Tack för kommentarer och snabb respons. En kobra skulle ju bli grön som en mamba av avund!

Nej jag kan inte använda min A7r till repron för den är en generation för gammal för att ge full funktionalitet med CO:s tethering tyvärr, så där kör jag med min A7 II istället och ett Samyang 100 makro som nog ger rätt bra möjligheter att få ut det som går at få ut.

Jag har också noterat det pekar på om filmen som begränsning. Agfa CT 18 och 21 (18 och 21 DIN eller 50 och 100 ISO/ASA. ISO 50 ger ju i de flesta lägen klart större risk för oskärpa än den man har med dagens stabiliserade kameror. Objektivet är också en kompromiss (Pentax SMC-M 40mm/2,8) för det hade jag för att det var litet och gav en lite större bildvinkel än Pentax verkligt bra 50mm/1,7.

Men kamera och objektiv var helt OK för det ser jag ju i de bilder jag tagit med Tri-X som ju gav 400 ASA/ISO.

Om du kollar mina bilder i den portfolio jag lagt upp hittills, så ser du just att Tri-X-bilderna är en aning tekniskt bättre. Det står under varje bild om det är dia eller Tri-X. Så jag ångrar idag att jag inte bara tog Tri-X (men inte då för det fanns inga andra bra sätt att visa bilder på då) och det är även i ljuset av att färgen ändå ballar ur efter 30-40 år på en del bilder även om Agfa-bilderna där inte alltid är de värsta.

http://www.sten-ake-sandh.fotosidan.se/portfolios.htm
 
ANNONS