Annons

Hur fungerar ISO rent tekniskt?

Produkter
(logga in för att koppla)

adask330

Aktiv medlem
Jag undrar hur ISO inställningarna görs? Om det är mellan sensorn och minnes kortet dvs i processorn som bilden bearbetas. Eller om det är så att sensorn matas med en högre ström/spänning och att det är därför sensorn blir känsligare. För om det är så att processorn gör om bilden borde inte program i datorn kunna göra det bättre?

Om någon har ett detaljerat kopplings schema vore det kul att se.

Någon som kan det här?
 

Przemek

Aktiv medlem
Jag är inte 100 på det men sensorn matas nog alltid med samma spänning oavsett ISO, värdet vid varje pixel multipliceras bara sedan med ISO/100, dvs med fakorn 1 vid iso 100, 4 vid 400, 32 vid 3200 osv.

Det är bara som jag tror och jag kan ha fel...
 

xandx

Aktiv medlem
Det man vinner i kraft förlorar man i väg!

Vad som händer är att signalen från sensorn förstärks tex från iso 100 till 200 förstärks den 2x men med förstärkning av signalen kommer också bruset. Att öka signalens ström är det som används mest. Hur det fungerar rent tekniskt är nog en annan fråga då olika tillverkare har olika metoder för detta.
 

xandx

Aktiv medlem
OBS Sensorn skickar en analog signal som omvandlas till digital via en AD omvandlare, det är innan den AD omvandlas som den behandlas för ISO och förstärks.
 

xandx

Aktiv medlem
Jag är inte 100 på det men sensorn matas nog alltid med samma spänning oavsett ISO, värdet vid varje pixel multipliceras bara sedan med ISO/100, dvs med fakorn 1 vid iso 100, 4 vid 400, 32 vid 3200 osv.

Det är bara som jag tror och jag kan ha fel...
Nej du kan inte multiplicera en pixel med något?
En pixel består av bitar oavset vad så representerar de en färg och börjar du multiplicera dem så ändrar de bara färg inget annat.
 

The_SuedeII

Aktiv medlem
http://dalsa.com/sensors/products/ccd_vs_cmos.aspx#CMOSdev
Kan vara ett bra ställe att börja på om man är lite mer intresserad.

Sensorn matas alltid med samma spänning. Det går alldeles utmärkt att "multiplicera" ett enskilt pixelvärde, det är så många mellaformatskameror är konstruerade. Högre ISO är helt enkelt en digital multiplikation, avläsningen och digitaliseringen är samma hela tiden. Från sensorn finns bara en färg per pixel, så detta går alldeles utmärkt.

Normalt sett dock (vanliga kameror) ökas den analoga spänningen ut från sensorn med förstärkning innan DA-omvandlaren gör om det till en digital siffra som senare skickas till bildbehandlingsprocessorn. Detta är en betydligt bättre lösning om man inte helt enkelt vill optimera kameran stenhårt mot basISO - och så är det ju faktiskt med mellanformatare - de är tänkta att användas på basISO och inget annat. Att använda förstärkning i stället för multiplicering efter AD-omvandling ger bättre brusegenskaper på högre ISO, upp till en viss punkt iaf.

Vissa kameror med "utökat ISO-område" gör både och - när man kommer till låt oss säga ISO3200 så tar förstärkaren "slut", man kan inte vrida upp volymen mer om vi uttrycker det så. ISO högre än detta får man då via digital multiplicering av de avlästa värdena.

Eftersom du efterfrågade ett schema så antar jag att du kan läsa det... Håll tillgodo.
Ljus träffar PD, fotodioden, och den omvandlar då en del av fotonerna till elektrisk laddning. Under exponering är TG öppen, så laddningen kan dras till C som från början är motsatt laddad. När TG stänger så tas det inte upp mer laddning - detta kallas "elektronisk slutare" i många sammanhang... Efter exponering så används laddningen i C till att ge en utspänning via SF som "öppnar" olika mycket beroende på hur stark laddningen är och detta reglerar då spänningsfallet från VD till RS. Alla pixlarna sitter i ett stort rutnät, så för att kunna läsa ut en pixel i mitten av sensorn måste alla andra pixlar på "linan" vara isolerade, detta sköts med RS. Alla andra pixlar i en pixelrad har RS stängd medans denna pixel läses av, när avläsningen är färdig så stängs denna pixels RS och nästa pixels RS öppnas.

Vissa kameror kan mäta laddningen flera gånger för att minska felmarginalerna i avläsningen - titta på schemat så ser du att laddningen finns kvar under hela avläsningen - inte förrän RST öppnar så kan de sparade laddningarna i C "försvinna".

Ifrån "Vout" så leds spänningen till en förstärkare vars förstärkning bestämmer kamerans ISO - högre förstärkning är högre ISO - och från denna förstärkare sedan till en AD-omvandlare som skickar data vidare till DSP-kretsarna i bildbehandlingen på kameran. Här görs alla "övriga" förändringar som vitbalans, CFA-interpolering, exponeringskurvan, färgstyrka osv osv...

Schemat är en ganska standard 4T-lösning på CMOS-sensorer.
 

Bilagor

xandx

Aktiv medlem
Intressant läsning, jag skulle vilja gå in mer på det där med att multiplicera en pixel rent matematiskt för att uppnå högre iso?

Har du något exempel?

Om jag inte missförstår så är det väl precis det man gör med RAW filen i tex Camera RAW när men ökar eller sänker exponneringen med 2 ev steg?

Rent tekniskt borde det finnas referens information i en enskilda pixel dvs ett undre och ett övre värde som varje enskild pixel kan anta? Förmodar att det är bitskifte som man använder? x >> faktor 2 för att öka 1 steg? Fast jag har aldrig satt mig in i vad för sorts data som kommer ur AD omvandlingen på varje enskild pixel.
 

adask330

Aktiv medlem
Sensorn matas alltid med samma spänning. Det går alldeles utmärkt att "multiplicera" ett enskilt pixelvärde, det är så många mellaformatskameror är konstruerade. Högre ISO är helt enkelt en digital multiplikation, avläsningen och digitaliseringen är samma hela tiden. Från sensorn finns bara en färg per pixel, så detta går alldeles utmärkt.
Tack Joakim, har läst lite på forumet och hoppades att du skulle belysa denna tråd med din kunskap.

Vilken typ av förstärkning är det som sker innan DA-omvandlaren och sitter den på sensorn eller någon annanstans. Det är ju ändå oerhört massa information som ska förstärkas?
 

apersson850

Aktiv medlem
Man läser bara av några bitar i taget. Hur många beror på hur avancerad kameran är. En Canon 1000D är enklare än en 1D Mark III, exempelvis.
 

The_SuedeII

Aktiv medlem
Förstärkningen kan sitta på lite olika ställen beroende på hur sensorn/efterelektroniken har planerats... Det som visas i schemat ovanför (elschemat, inte flödesschemat) sitter dock alltid direkt bredvid varje fotodiod på sensorn (om det är en CMOS-sensor - CCD är annorlunda konstruerad). Det är denna elektronik som är det "döda" utrymmet på sensorns framsida, och en av de saker man kan utveckla ytterligare från dagens sensorer...
Idag kan man säga att vi har någonstans runt 85-90% yttäckning (andel av sensorns sida mot objektivet som faktiskt mäter ljus!) om vi räknar in mikrolinserna som sitter framför varje enskild fotodiod. Denna siffra sjunker ju tätare vi packar pixlarna (transistorerna och ledningarna tar lika mycket plats, men fotodioden blir mindre = effektiv ytprocent minskar).

Normalt sett finns det ett antal AD-omvandlare per sensor, och detta styr till viss del hur nogrannt man kan läsa av den. AD-omvandlares brus är vid en viss "hastighet" - pixlar/datanivåer per sekund - ganska linjär mot felmarginalen, dvs extra brus. Vill man mäta fler pixlar per sekund så får man mer brus. De bästa AD-omvandlarna med 12-14 bit linjäritet ligger idag på ca 60M bitar per sekund om man ska hålla sig till vettiga prestanda.
I t.ex en D3/D700 så sitter sex stycken tvåkanals AD9974 (tolv kanaler sammalagt) efter sensorn för att man ska kunna läsa lite långsammare och därmed få högre nogrannhet. Sensorn har också tolv "utgångar" där alla pixlars analoga värden skall passera "ut" igenom... Sen kan du själv räkna på antal pixlar per sekund om du har 13MP och 5 bilder per sekund! Förstärkningen här sitter direkt efter sensorutgången, vid chiphållaren, och AD-omvandlarna sitter sedan på det större moderkortet på baksida från sensorn sett.

Sony IMX038-sensorn som sitter i D90 är väldigt lik den sensor som D300 och Sonys A700 också använder, och dessa har både förstärkning och AD-omvandling direkt på sensorchipet, en förstärkare och en AD-omvandlare per pixelkolumn - lite över 4300st alltså... D3x och A900 använder samma teknik, men större sensor och fler pixlar. Här vinner man på att hastigheten i pixlar per sekund per AD-omvandlare och avläsning kan minskas drastiskt, men å andra sidan så ställs högre krav på att alla förstärkare och omvandlare arbetar exakt lika... Och eftersom storleken är mindre (4000+ st ska få plats på chippet!) så är det också svårt att få högre nogrannhet än 12 bitar internt. Men å andra sidan har man med denna lösning så gott om tid "över" vid varje bildutläsning att man kan göra den (läsningen) flera gånger på samma datavärden (samma bild) och därmed när man tar geneomsnittet av flera läsningar uppnå högre mätvärdessäkerhet.
 

Bengf

Aktiv medlem
http://dalsa.com/sensors/products/ccd_vs_cmos.aspx#CMOSdev
Kan vara ett bra ställe att börja på om man är lite mer intresserad.

Sensorn matas alltid med samma spänning. Det går alldeles utmärkt att "multiplicera" ett enskilt pixelvärde, det är så många mellaformatskameror är konstruerade. Högre ISO är helt enkelt en digital multiplikation, avläsningen och digitaliseringen är samma hela tiden. Från sensorn finns bara en färg per pixel, så detta går alldeles utmärkt.

Normalt sett dock (vanliga kameror) ökas den analoga spänningen ut från sensorn med förstärkning innan DA-omvandlaren gör om det till en digital siffra som senare skickas till bildbehandlingsprocessorn. Detta är en betydligt bättre lösning om man inte helt enkelt vill optimera kameran stenhårt mot basISO - och så är det ju faktiskt med mellanformatare - de är tänkta att användas på basISO och inget annat. Att använda förstärkning i stället för multiplicering efter AD-omvandling ger bättre brusegenskaper på högre ISO, upp till en viss punkt iaf.

Vissa kameror med "utökat ISO-område" gör både och - när man kommer till låt oss säga ISO3200 så tar förstärkaren "slut", man kan inte vrida upp volymen mer om vi uttrycker det så. ISO högre än detta får man då via digital multiplicering av de avlästa värdena.

Eftersom du efterfrågade ett schema så antar jag att du kan läsa det... Håll tillgodo.
Ljus träffar PD, fotodioden, och den omvandlar då en del av fotonerna till elektrisk laddning. Under exponering är TG öppen, så laddningen kan dras till C som från början är motsatt laddad. När TG stänger så tas det inte upp mer laddning - detta kallas "elektronisk slutare" i många sammanhang... Efter exponering så används laddningen i C till att ge en utspänning via SF som "öppnar" olika mycket beroende på hur stark laddningen är och detta reglerar då spänningsfallet från VD till RS. Alla pixlarna sitter i ett stort rutnät, så för att kunna läsa ut en pixel i mitten av sensorn måste alla andra pixlar på "linan" vara isolerade, detta sköts med RS. Alla andra pixlar i en pixelrad har RS stängd medans denna pixel läses av, när avläsningen är färdig så stängs denna pixels RS och nästa pixels RS öppnas.

Vissa kameror kan mäta laddningen flera gånger för att minska felmarginalerna i avläsningen - titta på schemat så ser du att laddningen finns kvar under hela avläsningen - inte förrän RST öppnar så kan de sparade laddningarna i C "försvinna".

Ifrån "Vout" så leds spänningen till en förstärkare vars förstärkning bestämmer kamerans ISO - högre förstärkning är högre ISO - och från denna förstärkare sedan till en AD-omvandlare som skickar data vidare till DSP-kretsarna i bildbehandlingen på kameran. Här görs alla "övriga" förändringar som vitbalans, CFA-interpolering, exponeringskurvan, färgstyrka osv osv...

Schemat är en ganska standard 4T-lösning på CMOS-sensorer.
Måste bara ge dig en stor dos med beröm, det spelar ingen roll vilken tråd man än öppnar, så är Suedellen där och skriver långa förklaringar, och uttömmande svar. För det mesta handlar det om kamerans innersta kärna. Här har miljoner människor tittat på TV i 50 år och jag tänker 80% har inte en aning om hur bilden blir till. Man har väl inte heller med sig så mycket i bagaget, för att kunna ta till sig vissa djupa förklaringar. Jag imponeras djupt av ditt starka intresse för dessa saker, och den tid du lägger ner på dessa sidor, alltid intressant att öppna en Suedellen ( tänker på Sue Ellen dallas varje gång jag ser Suedellen). Vänl./Bengt.
 

elbe

Avslutat medlemskap
....

Idag kan man säga att vi har någonstans runt 85-90% yttäckning (andel av sensorns sida mot objektivet som faktiskt mäter ljus!) om vi räknar in mikrolinserna som sitter framför varje enskild fotodiod. Denna siffra sjunker ju tätare vi packar pixlarna (transistorerna och ledningarna tar lika mycket plats, men fotodioden blir mindre = effektiv ytprocent minskar).
....
Här är det väl så att även elektroniken runt pixlarna skalas ner med pixlarna så att yttäckningen i stort sett är konstant...eller?
 

The_SuedeII

Aktiv medlem
Njae, det går i "hack" kan man säga så länge man håller sig inom samma sensorgeneration. Hack, relativt mot sensorstorleken (yttermåtten), inte mot pixelstorleken!

Man använder i stort sett alltid det minsta "komponentmåttet" som tillverkningsutrustningen klarar att detaljera oberoende av pixelantal när silikonskivan som chippet byggs på belyses. Detta fungerar ju lite som en framkallning av analog film, ju större kopia man tar, desto mer ser man mistor och oskärpa. Finns det ett minstakrav på kvaliten finns det en maxupplösning, och man försöker alltid hålla sig rimligt nära denna gräns för att få ut maximalt av tillverkningsprocessen.

En stepper ("silikonframkallningsapparat") som används till sensortillverkning är sällan den allra nyaste eller bästa - sånt reserveras för "finelektronik" i t.ex processorer, minnen osv... De steppers som används till crop- och FF-sensorer är oftast maskiner med upplösning på 0.35-0.5µm och maximal bildutlysningsstorlek på 26x33mm - precis lagom för en cropsensor med lite kringelektronik och utledningar. FF-sensorer måste göras i två framkallningar, lite som att förstoringsapparaten är för liten för fotopappret och man får flytta pappret för att göra andra halvan av fotot... (därav namnet "stepper"!). Detta är att jämföra med t.ex bildsensorer till videokameror och mobilkameror som inte sällan ligger från 0.130-0.090µm (90 nanometer), och datorprocessorer/minnen som ligger på 0.045µm (45 nanometer). Här kan komponent- och ledningsbredder minskas.

Både Canon och nikon har nu dock börjat tillverka och leverera steppers som klarar 50x50mm på 300mm-plattor... Men det kommer ta något år innan de maskinerna är tillräckligt avbetalda för att kunna börja användas i kameratillverkning - som ju faktiskt är ganska lågprofil jmf med övrig konsumentelektronik, mp3-spelare, mobiltelefoner och datorer osvosv där intjäningen per minut av tillverkning är betydligt högre... Detta behövs med tanke på utrustningskostnaden - tänk på att upplösningen (inom en väldigt begränsad ljusvåglängd iofs) som krävs av optiken är en punktstorlek på ca 50nanometer, vilket på 23x36mm motsvarar 660.000 x 520.000 enskilda punkter... Ca 340.000MP!!! Och vinjettering och kantoskärpa anses här inte ligga inom "artistiskt godkända egenskaper" om vi säger så.

Sony har ett par 7 till 9mm sensormodeller i full produktion (till pro och semi-pro videokameror) där man börjar med att "göra" fotodioderna i botten, och sedan lägger man elektroniken ovanpå. Sedan vänder man på chippet och slipar ner "botten" på silikonskivan tills fotodioderna börjar titta fram... På detta sätt kan få en 98%ig teckning av sensorytan med ljuskänslighet, all elektronik är ju nu på "baksidan" - och skymmer därmed inte ljuset. På en liten, högupplöst sensor är detta mer än en dubbling av effektiviteten!
 
ANNONS