Annons

Lägga samman flera bilder för att få fler pixlar?

Produkter
(logga in för att koppla)

overtune

Aktiv medlem
Hej!

Satt och funderade på en sak.
Finns det något program som kan lägga samman ett antal likadana foton (t.ex. om man drar av en bildserie av 10 bilder eller så på samma föremål), så att man får ett foto med bättre upplösning?

Om man t.ex. skulle sätta kameran på ett stativ och foto ett äpple, eller vad som helst. Även om kameran skulle vara på ett stativ så bör ju bilderna i teorin, inte bli exakt identiska, även om ögat inte skulle kunna urskilja någon skillnad. Men för varje foto man tar borde ju, på en mikronivå, bilden innehålla ny bildinformation. Så att om man lägger samman ett antal bilder så borde man ju kunna få fram en bild med betydligt mer bildinformation än enbart en bild skulle kunna.

Så med en 4 mp kamera som tar en bild hundra gånger, som sedan läggas samman så borde ju pixlarna ha täckt lite olika delar varje gång se en otroligt högupplöst bild skulle kunna fås fram.

Förstår ni hur jag menar?
Finns det redan något program som skulle kunna göra detta?
Alltså analysera flera identiska bilder och ta fram en riktigt högupplöst bild?
 

pasram

Aktiv medlem
Nej, jag förstår faktiskt inte riktigt vad du menar eller vill uppnå. Om en bild har upplösningen 1000*1000 pixlar och du tar 10 likadana och lägger ihop dem så blir ju inte bilden större för det. Eller är du ute efter ett större tonomfång? I så fall kallas tekniken HDR, och för det ändamålet finns ett antal program. Jag använder själv photomatix.
 

Walle

Aktiv medlem
Jag tror jag förstår hur du menar, men tyvärr fungerar det inte. Hade det fungerat så, så hade det knappast funnits en marknad för extremt högupplösta digitala bakstycken för hundratusentals kronor..
 

iSolen.se

Guest
overtune skrev:
Hej!

Satt och funderade på en sak.
Finns det något program som kan lägga samman ett antal likadana foton (t.ex. om man drar av en bildserie av 10 bilder eller så på samma föremål), så att man får ett foto med bättre upplösning?

Om man t.ex. skulle sätta kameran på ett stativ och foto ett äpple, eller vad som helst. Även om kameran skulle vara på ett stativ så bör ju bilderna i teorin, inte bli exakt identiska, även om ögat inte skulle kunna urskilja någon skillnad. Men för varje foto man tar borde ju, på en mikronivå, bilden innehålla ny bildinformation. Så att om man lägger samman ett antal bilder så borde man ju kunna få fram en bild med betydligt mer bildinformation än enbart en bild skulle kunna.

Så med en 4 mp kamera som tar en bild hundra gånger, som sedan läggas samman så borde ju pixlarna ha täckt lite olika delar varje gång se en otroligt högupplöst bild skulle kunna fås fram.

Förstår ni hur jag menar?
Finns det redan något program som skulle kunna göra detta?
Alltså analysera flera identiska bilder och ta fram en riktigt högupplöst bild?
För astrofoto kallas tekniken digiscoping så visst finns det. Det är ett lite större begrepp men det är vanligt att en astronom tar 20 eller tom 100 bilder av samma motiv för att få bort "daller" i atmosfären.
 
Senast ändrad:

elohim

Aktiv medlem
Tekniken finns, och fungerar. Har sett en utvecklingsfilm om det för några år sedan, minns inte var - men antagligen från något universitet i USA.

Där lade man samman 5 st exakt lika exponerade 4 Mpixelsbilder för att få en 15 Mpixelsbild. Huruvidare det idag är utvecklad/kommesiellt vet jag inte.

Hittade vid en snabb sökning detta:

The estimated parameters can be used for direct multi-image super-resolution, which can directly reconstruct a high-resolution full-color image from a set of low-resolution Bayer CFA images.
Super-Resolution under Image Deformation
 
Senast ändrad:

tiq

Aktiv medlem
digiscoping trodde jag var att man stoppade en digitalkamera (kompakt) på en kikare eller teleskop.
(EDIT: hehe, svårt att vara messerschmitt när folk redigerar sina inlägg:)

Johan: jo, det borde fungera. bland annat kan man använda fler rutor ur en lågupplöst film för att få en mer högupplöst bild.

har dock ingen aning hur det går till i praktiken eller om det går att göra med generella program som photoshop.
 

pasram

Aktiv medlem
elohim skrev:
Tekniken finns, och fungerar. Har sett en utvecklingsfilm om det för några år sedan, minns inte var - men antagligen från något universitet i USA.

Där lade man samman 5 st exakt lika exponerade 4 Mpixelsbilder för att få en 15 Mpixelsbild. Huruvidare det idag är utvecklad/kommesiellt vet jag inte.
Jag förstår inte alls hur det skulle kunna funka... Men förklara gärna!

Tänk dig att du har tagit tre likadant exponerade bilder. Det underlättar om vi tänker endast en kanal d v s en s/v-bild (8 bitar). Om du har pixelvärdet 52 i en punkt och så lägger du ihop dina tre bilder så får du värdet 156 i den nya bilden. Nu har bilden "vuxit" från en 8 bitars till en 24 bitars men du har inte fått några fler toner eller mer information i den. Om du mappar ned den till en 8 bitars bild igen så kommer du få fram samma bild som från början. Om du däremot har tre olika exponerade bilder kan du få fram intressanta effekter men då är det HDR/tonemapping du gör.
 

avslutat_bj

Aktiv medlem
En annan fördel med att lägga samman informationen från "identiska" bilder är att få bort bruset i bilden. Bruset avtar väl med kvadratroten ur antalet bilder man använder, har jag för mig.

Det lär finnas kommersiella program som medelvärdesbildar exponeringar på det sättet, men jag minns inte vad de heter.
 

tiq

Aktiv medlem
pasram skrev:
...
Tänk dig att du har tagit tre likadant exponerade bilder. ...

idén är att bilderna inte ska vara exakt lika exponerade, utan att sensorn ska ha flyttat sig en halv pixel eller så, så man skulle få lite olika värden, och dessa tillsammans ger mer information än en bild
 

elohim

Aktiv medlem
pasram skrev:
Jag förstår inte alls hur det skulle kunna funka... Men förklara gärna!

Tänk dig att du har tagit tre likadant exponerade bilder. Det underlättar om vi tänker endast en kanal d v s en s/v-bild (8 bitar). Om du har pixelvärdet 52 i en punkt och så lägger du ihop dina tre bilder så får du värdet 156 i den nya bilden. Nu har bilden "vuxit" från en 8 bitars till en 24 bitars men du har inte fått några fler toner eller mer information i den. Om du mappar ned den till en 8 bitars bild igen så kommer du få fram samma bild som från början. Om du däremot har tre olika exponerade bilder kan du få fram intressanta effekter men då är det HDR/tonemapping du gör.
Jag är inte heller någon expert, men har fått en liten inblick i tankegången bakom:
Hur du än tar en serie fotografier så är de aldrig likadana. Genom matematisk beräkning (t.ex. fouriertranformation, som används genom att interpolera fram en bild från flera mindre och "dåligare" ur följande bilder ur en film) kan man använda sig av de skillnader som faktiskt uppstår i fotografierna på datanivå. Det man nu utforskar är just den möjligheten - att utan att röra sensorn få fram ytterligare information genom de flerexponerade bilderna.

High-tech-bildskärpning av filmrutor som man ser i science-fictionfilmer har funnits länge.
 

iSolen.se

Guest
pasram skrev:
Jag förstår inte alls hur det skulle kunna funka... Men förklara gärna!

Tänk dig att du har tagit tre likadant exponerade bilder. Det underlättar om vi tänker endast en kanal d v s en s/v-bild (8 bitar). Om du har pixelvärdet 52 i en punkt och så lägger du ihop dina tre bilder så får du värdet 156 i den nya bilden. Nu har bilden "vuxit" från en 8 bitars till en 24 bitars men du har inte fått några fler toner eller mer information i den. Om du mappar ned den till en 8 bitars bild igen så kommer du få fram samma bild som från början. Om du däremot har tre olika exponerade bilder kan du få fram intressanta effekter men då är det HDR/tonemapping du gör.
Tänk dig att du tar två identiska bilder men försljuter den andra en halv pixel.

Dår inser man lätt att det finns goda möjligheter att plocka ut mer info ur bilden.

Gör om med 16 bilder som har lite slumpmässig förskjutning...

Eller om bilderna är helt perfekt identiska så kan du medelvärdesutjämna bort störningar i luften och brus i sensorn.


Edit:

En liten parallell: tittar du på tv upplever du den rörliga bilden som skarpare än var och en av de 50-bilder per sekund som sändningen består av.
 

pasram

Aktiv medlem
tiq skrev:
idén är att bilderna inte ska vara exakt lika exponerade, utan att sensorn ska ha flyttat sig en halv pixel eller så, så man skulle få lite olika värden, och dessa tillsammans ger mer information än en bild
Då är jag med. Det är alltså HDR-teknik vi pratar om fast vid HDR-fotografering tar man medvetet bilder med olika exponering.

Hur kan sensorn flytta på sig förresten?
 

elohim

Aktiv medlem
pasram skrev:
Då är jag med. Det är alltså HDR-teknik vi pratar om fast vid HDR-fotografering tar man medvetet bilder med olika exponering.

Hur kan sensorn flytta på sig förresten?
HDR har inget med saken att göra. Och det man utforskar nu är möjligheterna att interpolera på ett vettigt sätt utan att ha bildrutor som skiljer sig (eftersom detta slutgiltigt skulle ge bättre resultat).
 

edsjo

Aktiv medlem
Tekniken finns visst, det man försöker använda är att varje bild hamnar lite, lite olika (dvs pixlarna hamnar inte exakt lika över motivet) om jag har förstått det rätt. Ser här

http://www.outbackphoto.com/CONTENT_2007_01/section_hdr_and_tonemapping/20071002_PhotoAcute/index.html

för ett program som fixar detta (och HDR på en gång!)

Joakim

Edit: Oops, såg att detta redan varit uppe. Jag vill minnas att det fanns en Toshiba-kompact (tror jag) för många många år sedan som tog två exponeringar i tät följd med en halv pixels skift emellan och fogade ihop dessa till en bild med högre upplösning. Det fungerade dock inte särskilt bra, men var ju en kul idé i princip.
 
Senast ändrad:

avslutat_bj

Aktiv medlem
Rolig läsning! Jag försökte mig på hela pappret om Fourier Slice Photography också, men det är tungt...

Om jag fattar det rätt så trollar man inte fram den tredje dimensionen ur ingenting, utan man måste komplettera kameran med "ett djup i sensorn" genom en mikrolins-matris (micro lens array) framför sensorn. Men det verkar ju vara ett överkomligt problem, så det är bara att önska Ren Ng lycka till med Refocus Imaging.
 
ANNONS