Annons

Var går gränsen

Produkter
(logga in för att koppla)
Intressant.
Frågan kvarstår dock.
Kan man, dels i teorin, dels i praktiken mäta upp objektivets prestanda och jämföra det med sensorns?
T.ex optikens kontrast och upplösning (linjepar per mm vid en viss kontrast) gentemot en APS-C sensors upplösning i Megapixlar. När "bottnar" objektiven?
 
Så i teorin är det kanske inte helt omöjligt att man släpper en sensor med, taget ur luften, 30miljoner fotoceller men endast producerar en bild på 12MP? Dvs fotoceller för olika "ändamål" men en grupp av dessa sammantaget ger en mycket väl avvägd och kontrollerad pixel.. månne?

Tackar för svaret på mitt hafsiga inlägg.

Nja, inte riktigt så skulle jag tro ...

Dagens bayes-sensorer ger ju i slutändan en interpolerad bild som nästan alltid har lika många bildpunkter som sensorn har pixlar. Ju fler pixlar vi har att arbeta med, ju mindre problematiskt blir det att fortsätta göra så.

Bland systemkameror får vi väl backa till Nikons D1, D1H och D1X för att hitta kameror där man räknade ned en sensors pixlar rejält -- de kamerorna hade ju i grunden en sensor på för den tiden imponerande 10,8 megapixel, som man sedan räknade ned till 2,7 megapixel i D1/D1H och 6 megapixel i D1X. Läs gärna den här artikeln
http://imaging.nikon.com/products/imaging/technology/scene/12/index.htm som berättar mer om detta.

Idag har tillverkarna inte på långa vägar lika stora brusproblem som de var tvungna att hantera på den tiden.

Jag kan tänka mig en småbildssensor (24x36) med sisådär 50 megapixel där kanske hälften används för att samla in färginformation och resten koncentrerar sig på att registrera ljusnivåer. En sådan sensor borde fortfarande kunna ge en bild med 50 miljoner bildpunkter utan nämnvärda problem att teckna färgerna exakt i varje bildpunkt.

Det kan vara ett sätt att förfina både lågdagerteckning och minska brus. Men det är inte säkert att man gör så, förbättringar av mikrolinser, tunnare sensorer (grundare "brunnar"), bättre material, bättre A/D-omvandling och annan generell teknikutveckling kanske gör att det här med "svartvita" pixlar blir överflödigt. Risken finns ju att en sådan teknik skulle leda till moiré-problem.

Fast -- som andra redan påpekat tidigare i tråden -- hög upplösning i sensorn minskar problemen med moiré som i huvudsak är en sidoeffekt av just bayes-interpolationen av färgerna.

Det finns många olika möjliga vägar att gå, och förmodligen ännu fler som vi inte har upptäckt ännu :)
 
Intressant.
Frågan kvarstår dock.
Kan man, dels i teorin, dels i praktiken mäta upp objektivets prestanda och jämföra det med sensorns?
T.ex optikens kontrast och upplösning (linjepar per mm vid en viss kontrast) gentemot en APS-C sensors upplösning i Megapixlar. När "bottnar" objektiven?

Det kan man (nog). Dpreview.com anger resp. kameras teoretiska högsta upplösning när dom presenterar skärpan i olika objektiv i sina diagram.

Den streckade horisontella linjen i dessa diagram utgör den valda kamerans maximala upplösning enligt Nykvist teoremet.

Däremot lyckas de ändå få mätvärden från olika objektiv som ligger väl över denna frekvens för den valda kameran. Det har förbryllat mig lite.
Men det är inget jag ligger sömnlös för.

Objektiven måste också gå att mäta på nåt sätt. Men så länge det är sensorn som sätter gränsen för mina objektiv, vilket jag är övertygad om att det är, så är det ju lugnt för min del.
 
Jo.
Det är ju inte så länge sedan de bytte ut sin testkarta mot en med dubbla upplösningen (dpreview).
Så länge de använder fasta normalobjektiv vid testerna och bländar ned till optimal bländare så verkar det som ribban ständigt höjs.
Jag roade mig ikväll att studera deras recension av 450D.
Med lite tunnare AA-filter och lite högre upplösning (12 Mpix) så höjs prestandan lite grann från 10 Mpixels-kamerorna.
 
Det kan man (nog). Dpreview.com anger resp. kameras teoretiska högsta upplösning när dom presenterar skärpan i olika objektiv i sina diagram.

Den streckade horisontella linjen i dessa diagram utgör den valda kamerans maximala upplösning enligt Nykvist teoremet.

*Däremot lyckas de ändå få mätvärden från olika objektiv som ligger väl över denna frekvens för den valda kameran. Det har förbryllat mig lite.
Men det är inget jag ligger sömnlös för.

Objektiven måste också gå att mäta på nåt sätt. Men så länge det är sensorn som sätter gränsen för mina objektiv, vilket jag är övertygad om att det är, så är det ju lugnt för min del.

*Nä, men kanske denna test rätar ut en del frågetecken om "teoretisk" skärpa:
NOTE the line marked 'Nyquist Frequency' indicates the maximum theoretical resolution of the camera body used for testing. Whenever the measured numbers exceed this value, this simply indicates that the lens out-resolves the sensor at this point - the calculated MTF values themselves become meaningless.
http://www.dpreview.com/lensreviews/sigma_50_1p4_c16/
 
ANNONS
Götaplatsens Foto