PerHbg
Aktiv medlem
macrobild skrev:
Så här borde alla sensortillverkare deklarera sina sensorer, ungefär så som du önskade - eller?
http://www.kodak.com/US/en/dpq/site..._product/show/KAF-39000_productSpecifications
Vilke jävla sensor förresten!
Follow along with the video below to see how to install our site as a web app on your home screen.
Notera: This feature may not be available in some browsers.
macrobild skrev:
Så här borde alla sensortillverkare deklarera sina sensorer, ungefär så som du önskade - eller?
http://www.kodak.com/US/en/dpq/site..._product/show/KAF-39000_productSpecifications
macrobild skrev:
Bla i Hasselblads bakstycken
Mikael
PS
Du behöver inte jiddra med att kolla din kamera , erfarenhetsmässigt så uppvisar de två kamerorna ungefär likartad dynamiskt omfång, det kan diffa lite i högdager eller skugga mellan de två.
Min 5d och 30d har liknande dynamiska omfång, 5d går lite högre i det vita, 30d går lite djupare i skuggor vid uppmätning.Lite beroende på hur Canon anser det är lämligt att lägga sina interna parametrar.
Canon EOS 400 8.4 EV likaså 5d, 30d
Här en jämförelse
http://www.dpreview.com/reviews/canoneos30d/page21.asp
En till: http://www.dpreview.com/reviews/CanonEOS400D/page19.asp
Mina svar se ovanPerHbg skrev:
Ok. Jo jag hittade de länkarna också och 8.4 är kanske inte så imponerande men några steg vill man kanske ha i avstånd till bruset och ett par steg i headroom så är man fort uppe i 12 steg/bitar. Något extra steg vinner man väl i någon ände på att ha 14 bitar istället för 12 i slutänden kanske då? Lite extra headroom som man kan mixtra med efter exponeringen? Ska vi se de 14 bitarna så?
SVAR :Förstår inte riktigt vad du menar??? OBS detta är Phil Askey som har mätt och fått dessa värden med sin metod, med exv Imatest så får man högre DR värden.
Och sen får man helt enkelt ange sensorns dynamik separat för den är mycket lägre än de 12-14 bitarna ändå?
Och då är vi tillbaka på min ursprungsfråga och vi har svaret: Sensorns dynamik är mycket sämre än 12 eller 14 bitar och för en "lagom" exponerad bild spelar det inte så mycket roll om kameran har 12 eller 14 bitar eller ännu mindre 22 bitar (Pentax).
SVAR: Du har missuppfattat vad 12 eller 14 bitar innebär, att dela in sensorns omfång i fler och mindre nivåer har sina poänger, exv undvika posterisering, större färgdjup men det finns en gräns när vi kan ha nytta av detta. Du ser vad du ser. Det är alltså inte självklart att man vinner något med att gå från 12 bitar till 14 vad det gäller resultatet. 12 bitar är tillräckligt, se Lars förklaring.
Vi kunde ju se att supersensorn från kodak "endast" har knappt 72 dB vilket ju är ganska precis 12 EV. Samtidigt vet vi att 8.4 EV är ca 50 dB och det är ju inte speciellt imponerande när vi ser det så här. Om 40D också har runt 8.4 EV i dynamik återstår att se. Vi får väl se det snart i någon test om inte annat.
SVAR_ Se tidigare svar högre upp, detta är Phills mätmetod, bla Imatest ger helt andra siffror , där har 5d 11 steg
Mvh Per
Det är precis det jag menar. Man bör inte alls behöva 12 bitar för att kunna återge 12 EV-steg, om jag tänker rätt. Man kan ju inte räkna en "nivå" utifrån bruset delat med den totala mängden elektroner per pixel eftersom bruset bara ligget i "botten". Bruset är ju extremt litet i förhållande till pixelns elektroner när man kommer uppåt i luminanskurvan. I botten däremot så begränsas omfånget vid den punkt där bruset motsvarar antalet infångade fotoner (och alltså elektroner) med förhållandet 1:1. Vill vi bara kunna återge hela EV-steg så krävs bara 4 bitars bitdjup för 16 stegs omfång. Bilderna kommer ju att se ut som skit, men det är samma omfång. Med 12 bitar får vi 2^12 = 4096 tonala steg att leka med över den punkt där bruset motsvarar infångade fotoner. Det är 341 delsteg per EV-steg för 12 stegs omfång. Sparar vi signalen i 14 bitar så har vi istället 16384 delnivåer och 1365 nivåer i varje EV-steg vid 12 stegs totalt omfång. Det är en rejäl skillnad om man vill greja med kontrasten i efterbehandlingen. Det torde vara mycket svårare att få posterisering i himmelstoner och liknande.macrobild skrev:
Dynamiskt omfång är vad den är från olika sensorer. Dvs att kunna återge från det svartaste till det vitaste innan "bägaran är så mättad" att den rinner över". Se Lars förklaring, dvs från att kunna hålla ett antal elektroner före utläsning well capacity till att kunna urskilja få elektroner ovan brus som ger en detektbar signal.
DETTA ÄR DYNAMISKT OMFÅNG.Sedan hur du förvaltar den information från det svarta till det vita är en annan sak, dvs synligör olika gråskalesteg och indelning i hur få eller många dessa skall vara.
Mikael
Makten skrev:
Det är precis det jag menar. Man bör inte alls behöva 12 bitar för att kunna återge 12 EV-steg, om jag tänker rätt. Man kan ju inte räkna en "nivå" utifrån bruset delat med den totala mängden elektroner per pixel eftersom bruset bara ligget i "botten". Bruset är ju extremt litet i förhållande till pixelns elektroner när man kommer uppåt i luminanskurvan. I botten däremot så begränsas omfånget vid den punkt där bruset motsvarar antalet infångade fotoner (och alltså elektroner) med förhållandet 1:1. Vill vi bara kunna återge hela EV-steg så krävs bara 4 bitars bitdjup för 16 stegs omfång. Bilderna kommer ju att se ut som skit, men det är samma omfång. Med 12 bitar får vi 2^12 = 4096 tonala steg att leka med över den punkt där bruset motsvarar infångade fotoner. Det är 341 delsteg per EV-steg för 12 stegs omfång. Sparar vi signalen i 14 bitar så har vi istället 16384 delnivåer och 1365 nivåer i varje EV-steg vid 12 stegs totalt omfång. Det är en rejäl skillnad om man vill greja med kontrasten i efterbehandlingen. Det torde vara mycket svårare att få posterisering i himmelstoner och liknande.
Makten skrev:
Det är precis det jag menar. Man bör inte alls behöva 12 bitar för att kunna återge 12 EV-steg, om jag tänker rätt. Man kan ju inte räkna en "nivå" utifrån bruset delat med den totala mängden elektroner per pixel eftersom bruset bara ligget i "botten". Bruset är ju extremt litet i förhållande till pixelns elektroner när man kommer uppåt i luminanskurvan. I botten däremot så begränsas omfånget vid den punkt där bruset motsvarar antalet infångade fotoner (och alltså elektroner) med förhållandet 1:1. Vill vi bara kunna återge hela EV-steg så krävs bara 4 bitars bitdjup för 16 stegs omfång. Bilderna kommer ju att se ut som skit, men det är samma omfång. Med 12 bitar får vi 2^12 = 4096 tonala steg att leka med över den punkt där bruset motsvarar infångade fotoner. Det är 341 delsteg per EV-steg för 12 stegs omfång. Sparar vi signalen i 14 bitar så har vi istället 16384 delnivåer och 1365 nivåer i varje EV-steg vid 12 stegs totalt omfång. Det är en rejäl skillnad om man vill greja med kontrasten i efterbehandlingen. Det torde vara mycket svårare att få posterisering i himmelstoner och liknande.
Varför? Rent matematiskt låter det som nonsens, men jag kanske har missat något?PerHbg skrev:
Jo vi måste ha MINST 12 bitar för att kunna återge 12 EV.
Är inte A/D-omvandlarens brus lägre än det termiska bruset på själva sensorn? Faktum är ju att bruset är högst i skuggorna och nästan obefintligt i högdagrarna, vilket talar för det. Alltså påverkas de övre "trappstegen" betydligt mindre av brus än de nedre.PerHbg skrev:
Det stämmer att bruset ligger i botten men det hamnar överallt i nivåerna så att även i varje trappsteg kommer bruset in och fluktuerar signalen och därmed begränsas vi i de tonala övergångarna av signal/brus och eftersom AD-omvandlingen har sitt kvantiseringsbrus som är en direkt funktion av bitdjupet så blir det bitdjupet som sätter gränsen.
Så varför skulle det behövas 4096 nivåer för att återge 12 steg? Det verkar ju konstigt att det skulle vara någon skillnad mot övriga analoga signaler som omvandlas till digitala. Det är ju bara en fråga om upplösningen i dynamik.PerHbg skrev:
Jag orkar inte förklara det matematiska här. Det går att läsa in sig på. Du kan inte trolla fram fler nivåer än bitdjupet anger och det är naturlagar som styr vart kvantiseringsbruset hamnar. Och ja sensorns egenbrus är högre det är det hela diskussionen har gått ut på.
Varför skulle jag växla mellan 12 och 14 bitar? Jag har bilder tagna med 1D-MkIII som innehåller 14 bitar data, och jag har andra bilder (med samma motiv) taget med andra kameror (Canon 5D, 20D, Nikon D70, D200) som innehåller 12 bitar data. Inget konstigt med detta.photodo skrev:
Hur gör du när du växlar mellan 12 och 14 bitar?
Jag gör inget spektakulärt, bara fotograferar av en gråkil (Stouffer T4110) liggandes på ett ljusbord. Sedan mäter jag vilket värde som har registrerats i råfilen för varje tonsteg i gråkilen (medelvärde för 9x9 pixlar) totalt 41 mätvärden, från 15280 till 1000. Varje tonplatta var urskiljbar med ett mätvärde som skiljer sig från sina grannar, precis som man kan förvänta sig.Med 1D-MkIII får jag mätbara skillnad mellan samtliga steg i Stouffers T4110 gråkil (samma som Dpreview använder), det vill säga mer än 13 EV steg dynamiskt omfång. Med min 5D kan jag bara separera c:a 11 EV.
Det skulle vara intressant att veta hur du gör här. Jag har svårt att tro att du kan återge mer än 13 EV med ett normalt objektiv. Jag finner det även svårt att tro att Canons sensor kan återge mer än 13 EV.
Det finns bara 10 sorters människor, de som kan räkna binärt och de som inte kan. Nej jag har inte missuppfattat något, men du kanske inte förstår det jag försöker säga.Exempelvis representeras EV 3 av fyra databitar när vi använder 14 bitar sensor, medan en 12 bitar sensor bara har en bit data för EV3 (om vi antar att bägge mäter från EV 14 som maxvärde). Högre datamängd medför också mindre känslighet för slumpmässigt bitbrus, exempelvis om den lägsta biten som kan registreras är rent brus.
Jag tror att du har missuppfattat det där med bitdjup och sensorer Daniel.
Visst är det så, jag har inte påstått något annat. Men det är här den stora potentialen med 14 bitar data framför 12 bitar finns, vi kan får större mätvärden vid lika exponeringsnivåer. Vilket i sin tur medför mindre brus i skuggorna om vi exponerar rätt, och antar att bottenbruset är likvärdigt mellan kamerorna. Problemet är att mäta bottenbruset, ett förenklat sätt skulle kunna vara att mäta nivåerna hos en helt svart exponering (tagen med objektivlocket på). Om vi gör så med 1D-MkIII kameran jag använde så får vi veta att det registrerade maxvärdet är 1049 och minvärdet är 999, med medelvärdet 1024. Vilket alltså skall jämföras med mätvärdet för det mörkaste fältet i gråkilen som är max 1052, min 999, medel 1024.På tal om brus så har jag med flit inte tagit med det i beräkningarna, främst för att jag inte har kunnat hitta något mätbart sätt att definiera brusnivåer (istället är brus något som uppfattas väldigt individuellt). Men också för att brus inte är direkt avhängigt om vi har 12 eller 14 bitar data, även om tonomfånget vi kan använda i praktiken kanske begränsas av bruset i skuggorna.
Det är bottenbruset som sätter den undre gränsen för DR.
Tja om vi försöker återge 64 EV steg med 8 bitar gammakorrigerat data (som på en skärm) är skillnaden mellan varje tonsteg bara 4, frågan är om det är tillräcklig stor skillnad mellan tonstegen för att vi skall kunna urskilja det? Om vi istället försöker återge mer normala 8 EV steg på samma sätt blir varje tonsteg 32, frågan är alltså hur små tonskillnader vi egentligen kan uppfatta?Det är väl inte konstigare än att du kan se skillnader mellan appliceringen av olika tonkurvor på bilden. Det enda problemet är att om du försöker tränga ihop för många EV steg är att kontrasten i mellantonerna blir för liten, det vill säga det problem som HDR tonmappning försöker lösa.
Hur många EV-steg? Och för liten för vad då?
Här förstår jag inte vad det är du försöker säga, självklart är motivkontrast och bildkontrast, det är vad jag har försökt säga hela tiden. Men här talar jag endast om bildkontrasten, det vill säga det kontrastomfång som finns i råbilden. (Sedan tror jag inte att de som fortfarande fotograferar svart/vitt med film håller med dig om att 12 steg räcker, men visst för mig räcker det bra.)Diafilmen har en maxdensitet på cirka 3,7 och en filmbas på cirka 0,1. Det ger ett omfång på 3,6 motsvarande 12 steg. Det borde väl räcka ;-)?
Skämt åsido så måste du skilja mellan kontrast och omfång i motivet och i bilden. Tänk dig ett X-Y-diagram som sensitometriskt representerar en film eller en sensor, ett så kallat HD-diagram. Längs med X-axeln har vi exponering (motivets omfång) och längs med Y-axeln har vi densitet för film och antal elektroner för sensorn. Densiteten och elektronantalet kan översättas till nyanssteg i bilden. En skillnad på 0,3 D motsvarar en fördubbling eller halvering = ett steg. På sidan 8 i denna PDF finner du sådana kurvor för Velvia:
http://www.fujifilmusa.com/JSP/fuji...FAF3-148E_1.pdf
Det är vilktigt att skilja mellan X- och Y-axel. Man måste inte återge varje motiv med exakt samma skillnad mellan skuggor och högdagrar.
Visst räcker 12 bitar (det gör 8 eller 10 bitar också om man vill), men 14 bitar ger möjlighet till större dynamiskt omfång i den fångade bilden vilket fortfarande är en av de mest efterfrågade egenskaperna hos digitalkameror. Sedan ger fler bitar ett större avstånd mellan signal och brusnivå.macrobild skrev:
Lars skriver: För Kodaks 39 megapixel KAF 39000 (pixelpitch 6,8µm) får man 60000/16=3750 tonsteg vilket kan beskrivas utan förlust med 12 bitar (4096 nivåer). Detta motsvarar nästan 12 stegs dynamiskt omfång.
Likaså tror jag det är med Canons sensorer, det räcker alltså med 12bitar, och det var det jag svarade på tidigare. Dvs varför 14 bitar A/D?
Varför inte 22 bitars A/D om vi ändå är igång-_Pentax har ju det, men till vilken nytta?
Mikael
Här har du missförstått något grundläggande. Sensorn arbetar i princip logaritmiskt, det vill säga stegen är större vid små signalnivåer än vid stora. Så risken för posterisering är väldigt låg i högdagrarna, men ett reellt problem i de mörkaste skuggorna (tack och lov "ser" våra ögon inte detta speciellt bra).Makten skrev:
Detta låter extremt egendomligt. Hur fin den dynamiska upplösningen är har väl inget med omfånget att göra? Man kan ju spara samma sensordata med olika många bitar. Omfånget mellan ljusast och mörkast i motivet är ju fortfarande lika stort, bara att bilden kommer att posteriseras om det är för många nivåer som ska återges i förhållande till bitdjupet:-O
Det är inte riktigt korrekt, indelningen i olika gråskalesteg som du kallar det är direkt proportionell mot antalet registrerade elektroner (fotoner). Det betyder att en kamera med 14 bitar alltid har en större bägare än en med 12 bitar (du kanske borde läsa på hur digitala sensorer faktiskt fungerar). Det betyder också att oavsett vilken motivkontrast vi har så har kameran registrerat en bild med c:a 12 eller 14 EV steg, även om de lägsta nivåerna med största sannolikhet är brus.macrobild skrev:
Dynamiskt omfång är vad den är från olika sensorer. Dvs att kunna återge från det svartaste till det vitaste innan "bägaran är så mättad" att den rinner över". Se Lars förklaring, dvs från att kunna hålla ett antal elektroner före utläsning well capacity till att kunna urskilja få elektroner ovan brus som ger en detektbar signal.
DETTA ÄR DYNAMISKT OMFÅNG.Sedan hur du förvaltar den information från det svarta till det vita är en annan sak, dvs synligör olika gråskalesteg och indelning i hur få eller många dessa skall vara.
Mikael
dano skrev:
Det är inte riktigt korrekt, indelningen i olika gråskalesteg som du kallar det är direkt proportionell mot antalet registrerade elektroner (fotoner). Det betyder att en kamera med 14 bitar alltid har en större bägare än en med 12 bitar (du kanske borde läsa på hur digitala sensorer faktiskt fungerar). Det betyder också att oavsett vilken motivkontrast vi har så har kameran registrerat en bild med c:a 12 eller 14 EV steg, även om de lägsta nivåerna med största sannolikhet är brus.
/Daniel





