Annons

Hur fungerar RAW? (algoritmer och grejer)

Produkter
(logga in för att koppla)

BjornEdstrom

Aktiv medlem
Är ganska ny på det här med RAW och har ganska nyligen hittat ett program jag gillar. Nu försöker jag lista ut hur programmet fungerar "matematiskt", på ett ungefär.

När man exponeringskompenserar i exempelvis Capture One, vad händer med pixlarna? Adderas/subtraheras godtyckliga värden till färgkanalerna (som i RGB) för att göra bilden mörkare eller ljusare? Jag tycker detta verkar lite konstigt, men jag lyckas inte lista ut hur det annars ska fungera såvida inte kameran exponerar bilden "mekaniskt" flera gånger utan att jag vet om det. Jag menar, om vi utgår från färgen 210r,210g,210b och man överexponerar ett halv steg och får en ny färg, säg 240r,240g,240b, kommer det halva steget alltid motsvara +30 decimalt per färg? Isåfall, vad är det för skillnad mot att använda ljushetsfunktionen i exempelvis Photoshop? Och framförallt, hur bestämmer rawprogrammet hur mycket ljusare/mörkare ett visst steg är? (Vad är ett steg rent fysiskt? :))

Vidare, vitbalans. Om man använder ett penverktyg för att peka ut en neutralgrå färg, är det bara så att programmet kollar vad den bevisligen gråa färgen har för nyans och neutraliserar detta? Om man pekar på en "vit" yta som har färgen 100r,110g,120b modiferas alla pixlar med -10 grön och -20 blå, eller +10 röd och -10 blå?

RAW-filen måste ju spara pixeldata från sensorn sedan något mer, men vad och hur fungerar det? Jag tänker RAW-filerna som en avancerad TIFF och det är nog det som är problemet.

Tack för info!
 
Ett steg motsvarar en dubblering (eller halvering, om man är på väg åt andra hållet) av mängden ljus. De flesta kameror reagerar linjärt på ljuset, d.v.s. ett steg motsvarar även en dubblering/halvering av värdena i råfilen. För att kompensera +1/2 steg multiplicerar man således värdena i filen med 2^(1/2) vilket blir ungefär 1.4.

När råfilen konverteras till en användbar bild sker dock en massa andra beräkningar på pixeldatat, så tittar du på pixelvärden i t.ex. Photoshop så kommer det inte att se lika enkelt ut.

Även vid vitbalansering är det multiplikation som gäller; i ditt exempel med (100,110,120) kan man t.ex. multiplicera alla pixlar med (1.20, 1.09, 1.00) för att få den utpekade ytan rent grå.

Skillnaden mellan att göra det i råkonverteraren och senare är att råkonverteraren har tillgång till det ursprungliga linjära datat (och om det inte är linjärt så "vet" den i alla fall exakt hur olinjärt det är och kan kompensera för det) vilket dels gör livet enklare för den stackars programmeraren men framför allt minskar det totala felet genom hela kedjan, eftersom det blir färre beräkningssteg där data "kastas bort" p.g.a. begränsningar i lagringsformat och liknande. Till exempel brukar beräkningarna som nämns i andra stycket öka kontrasten i bilden rätt kraftigt, vilket får till följd att skuggor och/eller högdagrar klipps. En sådan bild går inte att rädda senare i kedjan, eftersom informationen då redan är borta, men i råkonverteraren som har tillgång till kamerans originaldata kan det gå att locka fram teckning även i till synes över- eller underexponerade delar.
 
ANNONS
Götaplatsens Foto