Annons

Individuellt styrda pixlar?

Produkter
(logga in för att koppla)
Erik Schalin skrev:
Här gör du en tankegroda.

OM du styr varje pixel enskilt så blir den medelgrå, oavsett vad grannpixeln får för värde.

För att undvika det måste du skapa förhållanden till andra närliggande pixlar och VIPS så är vi tillbaka till dagens evaluerande mätmetoder som kamerorna redan har.

Han gör ingen tankegroda men tänker inte hela vägen fram. Förslaget är bra och används redan i vetenskaplig optisk utrustning. Det man måste göra är att normera utläsningen från varje pixel med dess exponeringstid. Då får man en bild med högre DR.

Exempel: antag att en pixel samlar in 25000 fotoelektroner vid en exponeringstid på 1/100 s. En annan pixel behöver en exponeringstid 5 s för att samla in 25000 fotoelektroner. Pixel 1 har alltså en signalnivå på 25000/(1/100) = 2,5 miljoner fotoelektroner/s. Pixel 2 har en signalnivå på 25000/5 = 5000 fotoelektroner/s.

Det som bygger upp bilden är nu signalnivåerna uttryckt i fotoelektroner/s i stället för bara antalet fotoelektroner. Med den här metoden kan i princip uppnå oändligt stort dynamiskt omfång (förutsatt man kan acceptera oändligt långa exponeringstider). Ju större spann i skillnaden mellan exponeringstid mellan olika pixlar, desto större DR.
 
Johannes-S skrev:
Det som bygger upp bilden är nu signalnivåerna uttryckt i fotoelektroner/s i stället för bara antalet fotoelektroner. Med den här metoden kan i princip uppnå oändligt stort dynamiskt omfång (förutsatt man kan acceptera oändligt långa exponeringstider). Ju större spann i skillnaden mellan exponeringstid mellan olika pixlar, desto större DR.

Det är absolut ett sätt att göra det på. Problemet är nu har vi fått en bild med en kontrast av, kanske 15-20 EV eller mer. Hur ska vi nu titta på den? Skärm går inte, ej heller papper. Koppla direkt till hjärnan? Läsa bilden hexadecimalt och se bilden för sin inre syn? :)

Jag tror inte att kameran är problemet för att återge hög kontrast, det är visningen.

Per.
 
Erik Schalin skrev:
Ja det funkar perfekt.

Fast jag skulle inte vilja bära den kameran vi skriver om. Får ju ha med sig en hel lastbil.

Det fick man förr (1975?) om man skulle ha med sig 2GByte minne också. Igår köpte jag en 2GB-bricka till min telefon som ryms på min tumnagel!

Lugn, utvecklingen går framåt!

Per.
 
perstromgren skrev:
Det fick man förr (1975?) om man skulle ha med sig 2GByte minne också. Igår köpte jag en 2GB-bricka till min telefon som ryms på min tumnagel!

Lugn, utvecklingen går framåt!

Per.
För mig är det lugnt Per.
Tar ju bara några rullar film i fickan & går ut...
 
perstromgren skrev:
Det är absolut ett sätt att göra det på. Problemet är nu har vi fått en bild med en kontrast av, kanske 15-20 EV eller mer. Hur ska vi nu titta på den? Skärm går inte, ej heller papper. Koppla direkt till hjärnan? Läsa bilden hexadecimalt och se bilden för sin inre syn? :)

Jag tror inte att kameran är problemet för att återge hög kontrast, det är visningen.

Per.

Det blir ämnet för nästa diskussion! ;)
 
Sir Anselm skrev:
[...] Om jag har en pixel och riktar den mot ett fält som till hälften är svart och till andra hälften vitt, då förstår jag att pixeln blir grå, men om jag har två pixlar som jag kan mäta på och styra individuellt så borde ju den ena pixeln bli vit och den andra svart, eller? Den ena pixeln "ser" svart och blir svart, den andra "ser" vitt och blir vit, den vita kommer då behöva exponeras längre tid än den svarta, men det märker inte jag eftersom jag bara ser den längsta tiden...
Du glömmer en sak. Hur skall kameran veta vilken av pixlarna som är svart respektive vit? Det är bara genom att jämföra dem som du kan få reda på det. Genom att snitta exponeringen över bildytan får du just det, ett genomsnitt där de ljusa partierna blir ljusare än de mörka. Om bildens genomsnittsintensitet är 18% får du en korrekt exponering, är reflektionen annorlunda blir exponeringen mer eller mindre fel.

Kameran vet inte om du fotograferar en isbjörn på solbelyst snö eller en svartbjörn i nattmörker så hur skall den då kunna exponera rätt? Det finns extremt avancerade exponeringsmätare som jämför det aktuella motivet med en databas och korrigerar exponeringen efter vad algoritmerna tycker är rätt. Problemet är att _du_ kanske inte tycker det är rätt...

Den absolut bästa exponeringsmätaren sitter i ditt huvud, det är bara du som vet hur du vill ha dina bilder. Glömmer du huvudet hemma blir bilderna kassa oavsett hur dyr utrustning du har.
 
perstromgren skrev:
Det är absolut ett sätt att göra det på. Problemet är nu har vi fått en bild med en kontrast av, kanske 15-20 EV eller mer. Hur ska vi nu titta på den?

Det finns ju massor av HDR-metoder som ser mer eller mindre verklighetstrogna ut. Välj din favorit!
 
För att uppnå din önskan skulle nog inte kameran studera varje pixel för sig. Utan istället göra en eller flera "förexponeringar" som processas i kameran för att bestämma vilka pixlar som ska "strypas" (och när) och hur lång exponeringstid det ska vara för att få med mer information i de mörka delarna (ev höja ISO för de mörka pixlarna). Typ en on-the-fly HDR i kameran. Det skulle säkert gå göra en hyfsat intelligent algoritm för detta.

Dock är jag också rädd för att det skulle kunna ge tråkiga bilder med lägre kontrast. Men i vissa sammanhang skulle det nog kunna vara en intressant funktion. Det skulle vara kul att testa iaf.

Det går ju simulera en sådan här funktion i datorn genom att ta många bilder med olika exponering och skapa en automatisk algoritm för att skapa denna effekten.
 
Johannes-S skrev:
Det finns ju massor av HDR-metoder som ser mer eller mindre verklighetstrogna ut. Välj din favorit!

Men alla sådana metoder går väl ut på att avbilda ett stort dynamikomfång i insignalen på ett mindre dynamikomfång för visning? Då har vi ju inte uppnått mycket, bara krokat till gamma-överföringskurvan.

Eller missförstår jag något?

Per.
 
Brandin skrev:
För att uppnå din önskan skulle nog inte kameran studera varje pixel för sig. Utan istället göra en eller flera "förexponeringar" som processas i kameran för att bestämma vilka pixlar som ska "strypas" (och när) och hur lång exponeringstid det ska vara för att få med mer information i de mörka delarna (ev höja ISO för de mörka pixlarna). Typ en on-the-fly HDR i kameran. Det skulle säkert gå göra en hyfsat intelligent algoritm för detta.

Dock är jag också rädd för att det skulle kunna ge tråkiga bilder med lägre kontrast. Men i vissa sammanhang skulle det nog kunna vara en intressant funktion. Det skulle vara kul att testa iaf.

Det går ju simulera en sådan här funktion i datorn genom att ta många bilder med olika exponering och skapa en automatisk algoritm för att skapa denna effekten.

Det finns redan patenterade lösningar på dubbla utläsningar av pixlar där signalnivån är högre och risk för "översvämmning" är stor och dessa läses ut tidigare än övriga. Bla har Cypress patent på en sådan lösning

Mikael
 
Emil-G skrev:
Du glömmer en sak. Hur skall kameran veta vilken av pixlarna som är svart respektive vit?
Att den är exakt svart eller vit kan den inte veta.

Men om man samlar ljus tills man har uppnåt medelgrått och sparar tidsparametern för insamlingen så får datorn ett förhållande som den kan jobba vidare på.
 
perstromgren skrev:
Men alla sådana metoder går väl ut på att avbilda ett stort dynamikomfång i insignalen på ett mindre dynamikomfång för visning? Då har vi ju inte uppnått mycket, bara krokat till gamma-överföringskurvan.

Eller missförstår jag något?

Per.

Diskussionen handlar väl om hur man skulle kunna göra en kamera som kan samla in ett större omfång än dagens. Fördelarna med det är flera, främst att man slipper välja mellan klippta högdagrar och igensotade (brusiga) skuggor.

Sedan finns det mer avancerade HDR-metoder än att bara att lägga på en global kurva. Man kan processa olika delar av bilden på olika sätt.
 
Jag har svårt att förstå alla nej-sägare i den här tråden!
Om man inte har mer DR än vad en jpeg kan visa så är man ju låst till att alltid ha samma exponering som vid fotograferandet och vitbalansen ställd till dagsljus. Nu är det som tur inte så utan vi har marginal. Därför kan vi välja vitbalans och justera exponeringen en smula. De flesta är glada med det även om en del kort åker i sopkorgen pga fel exponering.
Fuji försöker tänja på gränserna med dubbla sensorer och får på så sätt bättre teckning i högdagrarna. Bilderna blir inte "gråa" för det!
Andra kör med flera exponeringar, ganska bökigt, och kan på så sätt trolla fram mer eller mindre fulltecknade bilder, och som går att skriva ut på papper.

Varför vill en del inte ha möjligheten att ens kunna justera exponeringen i efterhand? Det är för mig helt obegripligt. En del skyller på att det inte är tekniskt möjligt att få in sånt i en kamera. Jag säger att det är nonsens! Teknikutvecklingen bevisar hela tiden att allt är möjligt i framtiden även om det inte är det just nu.

Tänk den dagen när man slipper bekymra sig för exponeringen och istället kan lägga allt krut på komposition och innehåll. Då kommer fotokonsten att höja sig ett snäpp till. Blanda inte ihop fotokonst och skicklighet i att tekniskt hantera en kamera.

Med nanoteknikens hjälp har forskarna nu kommit på en teknik för att få ner reflektionen i en glasyta nästan till noll. Tänk er ett objektiv som släpper igenom allt ljus. Tänk er sen ett objektiv utan flares. Det kommer...

Tänk er sen att man använder samma nanoteknik till att göra kanten på bländaren optiskt "mjuk". Helt plötsligt så har vi ett objektiv som man kan blända ner betydligt mer än nu utan att skärpan försvinner. Vem vill inte ha den möjligheten?

Det finns massor med saker att förbättra så varför inte? Säg inte nej, fundera istället på hur!
 
Grimmer skrev:
Fuji försöker tänja på gränserna med dubbla sensorer och får på så sätt bättre teckning i högdagrarna. Bilderna blir inte "gråa" för det!

Tänk er sen att man använder samma nanoteknik till att göra kanten på bländaren optiskt "mjuk". Helt plötsligt så har vi ett objektiv som man kan blända ner betydligt mer än nu utan att skärpan försvinner. Vem vill inte ha den möjligheten?

Säg inte nej, fundera istället på hur!
Fuji har inte börjat komprimera det som läses in, de har ökat dynamiken.

Hålet blir väl inte större för att du använder nanoteknik? Eller förstår jag inte vad du menar.

Det hanndlar om att när man funderar bör man vara medveten om fysikaliska begränsningar.
 
Erik Schalin skrev:
Fuji har inte börjat komprimera det som läses in, de har ökat dynamiken.

Hålet blir väl inte större för att du använder nanoteknik? Eller förstår jag inte vad du menar.

Det hanndlar om att när man funderar bör man vara medveten om fysikaliska begränsningar.

Motfråga: Var är taket för dynamiken, när börjar man komprimera?

Hålet bör vara mindre för ökat skärpedjup. Om man kan mjuka upp kanten på bländaren så dämpas det inteferensmönster som uppkommer där och som är orsaken till att bilden blir suddig.

Rätta mig gärna om jag har fel men säg inte bara nej.
 
Grimmer skrev:
Motfråga: Var är taket för dynamiken, när börjar man komprimera?

Hålet bör vara mindre för ökat skärpedjup. Om man kan mjuka upp kanten på bländaren så dämpas det inteferensmönster som uppkommer där och som är orsaken till att bilden blir suddig.

Rätta mig gärna om jag har fel men säg inte bara nej.
Ahh blända ner läste jag men tänkte upp, tokigt!

Dynamikens perfektion bör vara när man kan räkna fotonerna styckvis. max är väl bara en fråga om tiden för att fylla mätsonder är praktisk eller inte. I dag fungerar pixlarna som en hink, vid högdager så rinner hinken över.

komprission är en annan sak
 
Komprimera gör man bara ifall det inte går att visa bilden på annat sätt.

När det gäller att få fram bättre teknik så ska man inte tänka "förfining" utan tänka i nya banor. Annars så hamnar man förr eller senare i en återvändsgränd.
 
Erik Schalin skrev:
Dynamikens perfektion bör vara när man kan räkna fotonerna styckvis. max är väl bara en fråga om tiden för att fylla mätsonder är praktisk eller inte. I dag fungerar pixlarna som en hink, vid högdager så rinner hinken över.

Den riktigt intressanta nyheten vore en sensor som inte är integrerande som dagens ("hinkar") utan som räknar fotonerna en efter en varefter de kommer. Då finns inte längre möjligheten att överexponera. Exponeringstiden handlar då i stället om att exponera tillräckligt länge för att få tillräckligt brusfria bilder.
 
det har du redan se mitt tidigare inlägg vad det gäller cypress med tidigare utläsning vad det gäller hög signalnivå/högdager i en bild.
Mikael
 
ANNONS
Götaplatsens Foto