Annons

20,17 Megapixlar går alltså, med rätt metod, att få ut från 1D X II.

Produkter
(logga in för att koppla)

PeterWem

Aktiv medlem
Detta är förstås värt en helt ny tråd och bör inte ligga i 1D X III.

Fungerar att nyttja 5496×3670 px i RawTherpee. Gick att plocka bort beskärningen på 4 pixlar vid kanterna. Med AMaZE eller AMaZE+VNG4 som färgmönstersinterpoleringsmetod såg det bra ut. Med DCB får man en gröngrå pixelrand och med LMMSE såg det ut som att någon skrapat bort färgen i hörnet.

20,17 Megapixlar går alltså, med rätt metod, att få ut från 1D X II.
 

Bilagor

apersson850

Aktiv medlem
Oavsett tycker jag det är tramsigt att ange en upplösning i datablad och broschyrer, som inte motsvaras av de bilder som normalt sett kommer från kameran. Särskilt när tillverkarens egna programvara, i det här fallet Digital Photo Professional, inte heller ger ifrån sig bilder med så många pixlar.
Ännu dummare blir det när man anger olika antal pixlar i två kameramodeller, där bilderna som kommer ur kameran är lika stora. Det är de säkert inte om man mixtrar på det sätt som angivits ovan, men de är det för en jpeg som kameran levererar.
 

PeterWem

Aktiv medlem
Det är väl inte fel att tycka att Canons egna programvara borde kunna nyttja alla användbara pixlar, eller så nära som möjligt åtminstone.

Jag tittade för övrigt på andra kameror från Canon angående totala pixlar och även om jag inte hunnit testa på speciellt många verkar det ha blivit en förändring vid Dual Pixel AF och dess intåg. 6D kan jag nämligen hitta alla pixlar men med M5, 1D X II och 6D II saknas det en del pixlar som inte ingår i svartfält eller användbara pixlar.
 

fotobollfoto

Aktiv medlem
Nu har du tittat på resultatet från en sensor.

Men kan det vara så att maskningen är gjord från fabrik för att de inte kan garantera kvaliteten längst i kanten. Och att en skillnad i tillverkningsprocess för mk III gör att de kan minska på maskningen och leverera fler effektiva pixlar med den?

Funderar jag.
 

Sten-Åke Sändh

Aktiv medlem
Oavsett tycker jag det är tramsigt att ange en upplösning i datablad och broschyrer, som inte motsvaras av de bilder som normalt sett kommer från kameran. Särskilt när tillverkarens egna programvara, i det här fallet Digital Photo Professional, inte heller ger ifrån sig bilder med så många pixlar.
Ännu dummare blir det när man anger olika antal pixlar i två kameramodeller, där bilderna som kommer ur kameran är lika stora. Det är de säkert inte om man mixtrar på det sätt som angivits ovan, men de är det för en jpeg som kameran levererar.
Det är väl ett nominellt värde för antalet pixlar på en sensor som hur som helst inte har någon bäring för vad som "normalt sett kommer ut ur kameran"? Så fort någon sätter ett objektiv på kameran så är det väl det som ytterst kommer att bestämma vilken perceptuell upplösning man faktiskt kan få i bilden man tar?
 

PMD

Aktiv medlem
Både objektivets upplösningsförmåga och kameransensorns samplingsförmåga är avgörande för hur små detaljer i motivet som bilden återger.

Upplösning är inte samma sak som antalet pixlar.
 

Falumas

Aktiv medlem
Både objektivets upplösningsförmåga och kameransensorns samplingsförmåga är avgörande för hur små detaljer i motivet som bilden återger.

Upplösning är inte samma sak som antalet pixlar.
Samplingsförmågan måste väl vara 14bit t.ex och ha ganska lite med upplösningsförmågan att göra.
 

fotobollfoto

Aktiv medlem
Den maskade ramen behövs tydligen som referens för att sätta svartpunkt

https://www.guidetocamera.com/glossary/effective-pixels/

Effective Pixels is a measurement of the number of pixels that actively record the photographic image within a sensor. As an example, a camera might hold a sensor containing 10.5 megapixels, but they have an effective pixel count of 10.2 megapixels. This discrepancy is due to the fact that digital imaging sensors have to dedicate a certain percentage of available pixels to establish a black reference point. These pixels are usually arranged frame-like, along the edge of the sensor, out of range of the recorded image.
 

PeterWem

Aktiv medlem
Den maskade ramen behövs tydligen som referens för att sätta svartpunkt

https://www.guidetocamera.com/glossary/effective-pixels/

Effective Pixels is a measurement of the number of pixels that actively record the photographic image within a sensor. As an example, a camera might hold a sensor containing 10.5 megapixels, but they have an effective pixel count of 10.2 megapixels. This discrepancy is due to the fact that digital imaging sensors have to dedicate a certain percentage of available pixels to establish a black reference point. These pixels are usually arranged frame-like, along the edge of the sensor, out of range of the recorded image.
Den maskade ramen har jag tagit med i beräkningen och det är den jag använder när jag räknar fram dynamiskt omfång. Bilden nedan är hur masken ser ut från en 7D II. Man kan använda databasen https://raw.pixls.us/ för att finna råfiler. Om man tittar på sin sensor utifrån kan man ofta se det maskade området https://www.lensrentals.com/blog/media/2015/04/t6ssensor-1024x864.jpg

Man ser även på denna sensor att det kan finnas ytterligare pixelrader på motsvarande sidor, men då inte i samma mängd som i de maskade fälten https://upload.wikimedia.org/wikipedia/commons/e/ef/Webysther_201503122213289885_-_Sensor_de_uma_DSLR_Canon.jpg

Det konstiga här är att pixlarna som inte är maskade + maskad yta inte uppgår till totalen. Mina beräkningar med följande kameror där siffrorna inom parentes är Canons specifikation och som inte går ihop med vad jag räknat fram. Har Canon avrundat uppåt eller nedåt t.ex. under åren som gått när det gäller effektiva (användbara) pixlar? Vilka pixlar som inte är maskade eller effektiva återstår?

Källkod:
M5 6288×4056=25504128 (25,80) Användbara  6024×4020=24216480 (24,20)
 
 40D 3944×2622=10341168 (10,5) Användbara 3914×2604=10192056 (10.1)
 
 1Ds II 5108×3349=17106692 (17,2) Användbara 5010×3336=16713360 (16,7)
 
 1Ds III 5712×3774=21557088 (21.9) Användbara 5650×3754=21210100 (21,1)
 
 6D 5568×3708=20646144 (20,6) Användbara 5496×3670=20170320 (20,2)
 
 EOS R 6888×4546=31312848 (31,7) Användbara 6744×4500=30348000 (30,3)
 
 7D 5360×3516=18845760 (19.0) Användbara 5202×3465=18024930 (18,0)
 
  7D II 5568×3708=20646144 (20,9) Användbara 5496×3670=20170320 (20,2)
 

Bilagor

Falumas

Aktiv medlem
På en sensor sitter ett antal sensorer som antingen mäter röd, grön eller blå. En pixel sätts samman med hjälp av flera sensorer och varje sensor ingår i flera pixlar efteråt.
Problemet är att dom flesta algoritmer för att sätta samman pixlar fungerar dåligt ute i kanten eftersom dom där inte har tillräckligt många sensorer på ena sidan för att algoritmen skall fungera ordentligt.
Till rawtherpee kan du använda andra algoritmer som försöker sig på att använda dom längst ut också, där finns det dock risk för att en pixel får fel färg. Det som däremot brukar fungera bra är om du behandlar sensorerna som svart/vita och rakt av behandla varje sensor som en svart/vit pixel.
 

fotobollfoto

Aktiv medlem
På en sensor sitter ett antal sensorer som antingen mäter röd, grön eller blå. En pixel sätts samman med hjälp av flera sensorer och varje sensor ingår i flera pixlar efteråt.
Problemet är att dom flesta algoritmer för att sätta samman pixlar fungerar dåligt ute i kanten eftersom dom där inte har tillräckligt många sensorer [...]
Ja så måste det såklart vara!
Det vi kallar rå-fil innehåller, antar jag, resultatet av algoritmerna, medan en riktigt rå rå-fil borde innehålla värden från de olika fotodioderna separat. Men den datan kastas bort i processen. Eller hur?
 

Falumas

Aktiv medlem
Ja så måste det såklart vara!
Det vi kallar rå-fil innehåller, antar jag, resultatet av algoritmerna, medan en riktigt rå rå-fil borde innehålla värden från de olika fotodioderna separat. Men den datan kastas bort i processen. Eller hur?
Raw-filen innehåller värdena från sensorn. Det är ju därför TS även kan sätta ihop pixlar med värdena från kanten med andra algoritmer i RawTherapee och få en något högre upplösning på sin bild. Dom flesta "vanliga" algoritmerna för att sätta samman pixlar bedömer dock att det inte blir tillräckligt hög kvalitet om man gör på det sättet.

Jag höll på och testade själv med rawtherapee med detta för en herrans massa år sedan, tyckte dock att jag bara fick gott resultat i svart/vitt. Har för mig att det diskuterades flitigt här då.
 

PeterWem

Aktiv medlem
Ja så måste det såklart vara!
Det vi kallar rå-fil innehåller, antar jag, resultatet av algoritmerna, medan en riktigt rå rå-fil borde innehålla värden från de olika fotodioderna separat. Men den datan kastas bort i processen. Eller hur?
Du har hur det ser ut i bilden från 7D II ovan innan färginterpolering skett. En fullskalig bild hade varit bättre för nu när jag nedskalat den till 800 pixlar blev den mest som en bild. Där finns ett rutmönster annars. 3:36 här https://youtu.be/N4BZkqEq_H8

Gif-filen är för stor för att ladda upp men man ser Bayermönstret även i RawTherapee, se bild längst ned.
Jag testade att köra kantlöst med RawTherapee och de råfiler jag använt ovan. Vissa metoder fungerar bättre än andra men jag förstår varför man satt standardinställning till att kapa fyra pixlar.

RawTherapee är gratis och råfiler finns det en hel databas att använda från hos raw.pixls.us.
 
Senast ändrad:

Falumas

Aktiv medlem
Du har hur det ser ut i bilden från 7D II ovan innan färginterpolering skett. En fullskalig bild hade varit bättre för nu när jag nedskalat den till 800 pixlar blev den mest som en bild. Där finns ett rutmönster annars. 3:36 här https://youtu.be/N4BZkqEq_H8

Gif-filen är för stor för att ladda upp men man ser Bayermönstret även i RawTherapee, se bild längst ned.
Jag testade att köra kantlöst med RawTherapee och de råfiler jag använt ovan. Vissa metoder fungerar bättre än andra men jag förstår varför man satt standardinställning till att kapa fyra pixlar.

RawTherapee är gratis och råfiler finns det en hel databas att använda från hos raw.pixls.us.
Rutmönstret är normalt när du gör en rakt av svart/vit konvertering. Har du t.ex. ett helblått område kommer dom som registrerar blått tycka allt är frid och fröjd men dom gröna och röda kommer inte se något.
En sensor har inte en unik uppsättning RGGB sensorer per pixel utan innehåller oftast ungefär lika många sensorer som upplösningen bortsett från kanterna som skalas bort av kvalitetsskäl (eller att algoritmen helt enkelt kräver värden från tillräckligt många närliggande sensorer åt alla håll). Så en G (grön sensor) kan vara del av 4 eller fler pixlar i den interpolerade bilden.

Så fotograferar du något superblått så kommer R och G sensorerna ha värdena noll medans B kommer vara maxad, det är det som orsakar det du kallar rutnät. Fotograferar du något neutralgrått kommer det fungera perfekt att svart/vit-omvandla varje sensor till en svart/vit bild.
 

PeterWem

Aktiv medlem
EOS R och RF 24-240 är kanske en ännu mer intressant kombination eftersom bildcirkeln inte täcker hela sensorytan. Vad blir det för pixelantal vid 24mm?
 

Falumas

Aktiv medlem
EOS R och RF 24-240 är kanske en ännu mer intressant kombination eftersom bildcirkeln inte täcker hela sensorytan. Vad blir det för pixelantal vid 24mm?
Jag tror inte det har något med detta att göra överhuvudtaget. Du får förklara varför du tror det. Skulle förvåna mig mycket om dom har objektiv som inte belyser hela sensorn.

Om så är fallet är det väl som att fota med ett DX-objektiv på en FX-kamera och säga åt kameran att använda hela sensorn. Då blir det en rund cirkel i mitten på bilden och resten svart.
 

PeterWem

Aktiv medlem
Jag tror inte det har något med detta att göra överhuvudtaget. Du får förklara varför du tror det. Skulle förvåna mig mycket om dom har objektiv som inte belyser hela sensorn.

Om så är fallet är det väl som att fota med ett DX-objektiv på en FX-kamera och säga åt kameran att använda hela sensorn. Då blir det en rund cirkel i mitten på bilden och resten svart.
Råfil att själv ladda ned https://www.dpreview.com/sample-galleries/6204946485/canon-rf-24-240mm-f4-6-3-sample-gallery/1363509453
 
ANNONS