Fler avsnitt
#126 - Lyckas med att sälja utskrifter och posters (i samarbete med Svenska Fotografers Förbund)
Fotosidan Poddradio
Linnea Frank är fotograf och konstnär och säljer framgångsrikt utskrifter och posters av sina bilder online – samtidigt som hon via gallerier säljer konstnärliga verk i begränsad upplaga. Som bästsäljare på svenska posters-tjänsten Printler delar hon i detta avsnitt med sig av sina strategier och insikter.
Läs mer...
Fotosidan Poddradio #124 - Digitaliseringens fördelar och nackdelar (i samarbete med Svenska Fotografers Förbund)
Fotosidan Poddradio
Svenska Fotografers Förbunds ordförande Paulina Holmgren är på besök i Stockholm och är med på ett samtal om digitaliserings fördelar och nackdelar. För visst har vi fått större synlighet och fler jobbtillfällen, men hur ska vi få bättre möjlighet till ekonomisk ersättning för våra bilder?
Läs mer...
4
Fotosidan Poddradio #122 - Utanför Storstaden – Martin Savara - (i samarbete med Svenska Fotografers Förbund)
Fotosidan Poddradio
I avsnitt 122 med titeln träffar vi fotografen Martin Savara. Han fotograferar främst inredning, stilleben och mat i sin stora studio i Borås. Med en stadig ökning i omsättning och fler och fler stora kunder visar han att man inte behöver bo i storstan för att driva en framgångsrik kommersiell fotostudio.
Läs mer...
69 Kommentarer
Logga in för att kommentera
Sedan kan man fråga sig hur ofta vi egentligen i praktiken behöver den fördelen, och hur viktig den tekniska bildkvaliteten är för olika bilder, men det är en lite annan diskussion :-)
När jag nu testade på datan gick det förstås bra :)
Så, som ni säger, glöm ALLTID pixelmängden och fotografera som du alltid gjort. Sluta titta så djupt i "glaset" istället ;-)
Det påstås i podden att ljus rör sig i slumpmässiga banor, jag trodde att ljuset rör sig i en rät linje?
Vidare att man får "störningar under omvandling från analog till digital signal."
-Sker det verkligen sådan omvandling i en digital kamera? Var då i så fall?
Den analoga delen i kameran är fortfarande optiken. Omvandlingen sker när ljuset passerar optiken och till den digitala sensorn. se det som. Optik = Analog. CMOS-sensorer = Digital
Om analog-omvandling: Sensorn är faktiskt i sig själv analog (och till råga på allt färgblind). Den analoga signalen sensorn fångar in omvandlas till digital i A/D-omvandlare. Traditionellt har dessa suttit utanför själva sensorn, men senaste åren har vi också lösningar där A/D-omvandlingen sker integrerat i sensorn. En av flera fördelar med sådan omvandling är att den analoga signalen som till sin natur är mycket mer störningskänslig färdas kortare väg och påverkas mindre innan den digitaliseras. Plus att man då arbetar med många små parallella A/D-omvandlare, en teknik som verkar introducera mindre brus än få stora A/D-omvandlare.
Däremot förstår jag inte samme Martin A i kommentaren här ovan i "ibland kan till exempel någon del av ljuset som är på väg mot en sensor krocka med eller påverkas av någon annan strålning"; ett stycke ljus påverkas inte (i betydelsen styrs om eller ändrar våglängd) av att krocka med något annat stycke ljus, annat än möjligen i mycket extrema situationer som inte uppstår i fotografering.
Men jag kanske missförstår den passagen.
I sak håller jag med dig.
Bra Optik först och sedan ett hus med bra upplösning och fullformat sensor.
Har nu fixat optik och sparar nu till ett kamera hus. Ser ut att bli ett D810 om inte Nikon kommer ut med 50 Mpix kamera innan jag har fåt ihop pengarna..
Det är svårare att hitta ett bra spegelöst kamera som klarar trippelexponering som komplement till Systemkameran.
Någonstans har man glömt bort fotografen som kreatör och bildskapare
Men, eller kanske just därför, vill jag komma med en synpunkt. På slutet när det pratas om skakningsoskärpa dras en jämförelse med den jättehöga pixeltätheten hos enkla kompaktkameror som vi ju handhåller.
Men om man antar att skakningsoskärpan kommer i första hand (vid normal fotografering) från vinkelförändringar i hur man håller kameran så är det inte pixlar per ytenhet på sensorn som är det relevanta, utan pixlar per bildvinkelenhet. Och då hamnar kompaktkamerorna på ungefär samma täthet som systemkameror, vilket också förklarar varför man verkar kunna använda ungefär samma tumregler. Och det förklarar varför det inte verkar vara dubbelt så svårt att handhålla en 24 Mpix APS-kamera med 35 mm objektiv än en 24 Mpix fullformatare med 50 mm objektiv – vilket det skulle vara, om det var pixeltätheten per sensoryta som var det styrande.
Vi brottas med en blandning av vinkelförändringar men också förskjutning i x-, y- och z-led. Det är hur som helst ett vanligt argument från Olympus och (numera) Sony när de skall berätta hur bra det är med 5-axlig stabilisering :-)
Tänk på att de mer traditionella stabiliseringssystemen (i synnerhet de tidiga) nästan uteslutande ägnar sig åt att kompensera för förskjutningsskakningar, så jag tror inte riktigt att de utgör en försumbar del av det hela.
Och, om jag får vara lite petig i retur ... :-)
Visst har en 24 mpix aps-c dubbelt så många pixlar per ytenhet som en 24 Mpix småbildssensor - men den har bara 40% fler pixlar per millimeter i någon given riktning (som x- eller y-led). Skall det, sett till förskjutningsskakningar, bli dubbelt så svårt att handhålla aps-c-kameran så behöver den klämma in dubbla antalet pixlar på halva ytan för att ge en dubbel känslighet för rörelser i någon given riktning.
Annorlunda uttryckt: En 48 megapixels aps-c borde vara dubbelt så känslig för förskjutningsskakningar som en 24 Mpix småbildssensor. Och du måste upp till 96 Mpix i en småbildssensor för att den skall bli dubbelt så känslig för förskjutningsskakningar som en 24 Mpix småbildssensor. (Här talar jag alltså enbart om förskjutningsskakningar.)
Det är mycket riktigt ett rejält "om" att bara vinkelförändringen skulle vara av betydelse. Jag resonerade att om vi antar att förskjutningsamplituden är storleksordningen 1 mm (gripet ur luften) och objektet man fotograferar är flera meter stort och bildvinkeln är någorlunda normal så kommer förskjutningsoskärpan att ha jämförelsevis liten effekt på resultatet. Gängse tumregel med 1/brännvidden (alt 1/(brännvidden*x)) indikerar också att vinkelskaket normalt dominerar över förskjutningsskakning.
Däremot, om man fotar makro och objektet bara är några centimeter stort, då blir förstås förskjutningsoskärpan påtaglig.
Jag är iofs öppen för att jag kan ha tänkt fel här. Det du skriver om traditionella stabiliseringssystem är onekligen bestickande.
Angående upplösning i en eller två dimensioner sedan - jag funderade ett ögonblick innan jag skrev föregående kommentar på vilket mått jag borde ta, men eftersom jag uppfattade att ni körde areamåttet i podden (alltså pixlar per yta) valde jag samma.
Leif:
Myt och myt. Det beror på vad slutmålet är. Om ens mål är att maximalt nyttja all ny upplösningsförmåga så är det ingen myt.
Dels är effekten bara intressant om man verkligen vill utnyttja den ökade potentialen den ökade upplösningen kan ge (vilket man ju många vardagsbilder faktiskt inte bryr sig om).
Dels överdriver helt enkelt många hur stort problemet är. Jag skulle nog säga att man måste upp dubbla linjära upplösningen (alltså fyra gånger fler pixlar på samma yta) för att skillnaden skall synas speciellt tydligt. Plus att problemet ofta överskuggas av andra problem - som att motivet rör sig (de är ju ofta det större problemet) eller att detaljåtergivningen hämmas av brus (när vi skruvar upp iso).
Kort sagt, problemet finns men är inte på långa vägar så stort som många gärna vill göra det till.
Den handhållna fotograferingen efter tumregeln 1/brännvidden kan ju absolut inte bli sämre i takt med att pixelmängden ökar så handhållningsmyten är ju precis lika mycket nys som objektivmyten.
Sen att snabbare tider, stativ samt skarpare och ljusstarkare objektiv alltid har varit, och fortfarande är, en fördel tillhör ju bara den vardagliga kunskapen, oavsett pixelmängd eller filmtyp.
Men med högre upplösning går det verkligen att upptäcka skakningsoskärpa som man inte hade upptäckt med en lägre upplösning. Vilket innebär att det är en faktor som tar bort en liten del av den fördel som den högre upplösningen potentiellt kan ge. Ju högre upplösning vi har, ju mer märks detta.
Någonstans når vi en punkt där det på grund av flera faktorer - som skakningsoskärpa, optiska brister, fokusfel med mera - helt enkelt inte längre lönar sig speciellt mycket att höja sensorupplösningen mer. Varje gång sensorupplösningarna höjs tror många att vi passerat den här gränsen, medan jag hävdar att vi i praktiken har långt kvar dit.
Vad Göran tog upp i podden och vad Dan och jag filosoferat kring är att tumregeln 1/brännvidden inte längre funkar lika bra om man vill få ut så mycket som möjligt av sin mer högupplösta sensor. Inte att det skulle bli _sämre_ på grund av det. Frågan är snarare hur stor del av fördelen som äts upp av detta.
Skämt åsido. Vi är nog aningen överens :-)
Så det vill till att ha optik och ställa skärpan exakt om man skall ha nytta av den höga upplösningen, sitter man framför skärm och hänförs av detaljer man kan gräva fram i sina bilder kan det givetvis vara intressant. Men som de flesta av oss tittar på våra bilder ställer jag mig ytterst tveksam till att vi kommer att se någon skillnad ens om vi går ned ganska mycket i upplösning. Sedan kan det ju finnas en massa andra anledningar till att man vill ha denna kamera, men jag tror att en av de främsta faktiskt handlar om lyckan att ha "det värsta som går att köpa".
Jag sitter själv i samma träsk, fast där handlar det om optik, jag har några rent ut sagt vansinnigt dyra Leicaglugga och älskar dem. Men skulle jag se någon skillnad på väsentligt billigare glas?
Normalbehandlad film gav nätt och jämnt den kvalitén.
Sedan kommer förstås önskemålen om beskärning och att betrakta stora bilder nära. Kraven på megapixlar ökar. Ingen mening att klaga. Tacka och ta emot.
Den stora gåvan tycker jag är höga ISO. Vi som, förgäves, pressat film måste bara älska möjligheten att fortsätta fotografera när solen försvunnit.
Befintligt ljus är numera befintligt mörker.
Älska pixlarna, men ännu mer höga ISO!
Ursäkta min tröghet i skallen.
Skalar vi ner till 12 megapixel kan vi behålla nästan samma verkliga upplösning i bilden (detaljåtergivning). Vi behåller innehållet men ökar effektiviteten.
Det finns ingen större anledning att sitta och skala ner sina bilder, men det är så här komprimeringen i vissa filformat jobbar, grovt förenklat.
Det gör att du oftast kan skala ned sådana bilder till sisådär halva pixelantalet (skriva på varje rad i blocket) utan att egentligen tappa speciellt mycket information, det enda som händer är att du lagrar (i stort sett) samma mängd information utspridd över en mindre yta.
Att skala ned så är så som Magnus pekar på ungefär motsatsen till att skala upp en bild där du ju rent informationsmässigt bara sprider ut data över en större yta.
(Har 3 st CP 5400:or) Silkeslena bilder, underliga färger ibland, rakbladsskärpa ibland. I praktiken bör man inte gå över 50 ASA ; )) alltså
stativ och stöd och motivet måste vara någorlunda stilla. Ibland så ramlar allting rätt tex med runstenar som motiv..50 mPix just nu..imorgon 200 mPix ..gränsen uppåt begränsas av hur mycket det går i praktiken att få in de ljuskänsliga elementen på den begränsade ytan som vi har idag...Idag en fysisk sensorsplatta imorgon en virtuell programuppbyggd sensor.. vem vet...allting utvecklas och så skall det vara..
Och den segmenteringen är ju ganska begriplig. Även om det förstås finns de som vill ha både hög upplösning och hög hastighet (t.ex. en del fågelfotografer) så är det nog vanligare att man kombinerar riktigt hög upplösning med eftertänksamt fotograferande (där man får mest utbyte av upplösningen) medan de som bryr sig mycket om snabbhet nog ofta bryr sig lite mindre om upplösningen.
Den per automatik misstänksamma inställningen har troligen mest med skräcken för att det ska försvinna pengar från bankkontot.
Nikon kommer med 100 % säkerhet med ett matchande eller ännu bättre hus i sinom tid.
Jag misstänker att mycket av misstänksamheten mot fler pixlar uppstår ur bildtittande i 100% och misstolkningar av det man ser där.
Nu ger fler pixlar också andra fördelar än ökad detaljrikedom, som ökat dynamiskt omfång. Fler pixlar handlar alltså inte bara om högre upplösning.
Sedan är det med diffraktion ungefär som med kvalitet med optiken eller skakningsoskärpa: En mer högupplöst sensor är mer avslöjande än en sensor med lägre upplösning, men bilden blir aldrig sämre - som allra sämsta utfall får man ingen märkbar kvalitetsökning av fler pixlar.
Ofta ser man uttrycket att den och den sensorn är "diffraktionsbegränsad" vid en viss bländare. Det uttrycket är delvis missvisande, det handlar inte om en hård "begränsning" utan om en gråzon där diffraktionens effekter gradvis märks mer och mer.
Kort sagt, diffraktion är inte en så stor stötesten för ökad sensorupplösning som många vill göra de till. Kompaktkamerorna är ju ett bra exempel, de är ofta helt klart "diffraktionsbegränsade" men det innebär ju inte att kompakter med högre sensorupplösning ger sämre bilder, bara att man inte får ut hela den potentiella fördelen.
Enligt ditt resonemang skulle det regna mer om vi ställer ut många regnmätare över stor yta. Vi har visserligen samlat in mer vatten men det är inte så vi mäter nederbörd.
"I en bildsensor är det inte totalen som gäller."
Jo, det är precis så det är. Det är sensorytan som avgör hur mycket ljus som fångas. Om vi jämför två kameror med samma pixelstorlek och liknande sensorteknik, men olika sensoryta (ex Nikon D800 och D7000) så ser vi att D800 med större sensor fångar mer ljus, vilket ger lägre brus och större dynamiskt omfång.
http://www.dxomark.com/Cameras/Compare/Side-by-side/Nikon-D800-versus-Nikon-D7000___792_680
Om vi istället jämför två kameror med samma sensorstorlek och liknande sensorteknik, men med samma sensorstorlek så får vi liknande värden för dynamiskt omfång och brus.
http://www.dxomark.com/Cameras/Compare/Side-by-side/Nikon-D600-versus-Nikon-D800___834_792
"Enligt ditt resonemang skulle det regna mer om vi ställer ut många regnmätare över stor yta"
Den liknelsen haltar. Tänkt så här istället. Mängden regn/ljus är konstant, men med ett större kar får vi ihop mer vatten/ljus. Om vi sen delar upp det vattnet i många små burkar eller några stora hinkar spelar ingen roll – mängden vatten vi samlat ihop är samma. Men om vi ställer ut småburkar istället för stora hinkar eller hela kar så kan vi registrera små skillnader i regnmängd på olika platser.
Det är lätt att tänka fel om man utgår från pixlarna. Man måste utgå från hela bilden och inse att en pixel är bara en liten beståndsdel som vi inte kollar på. Vi kollar på hur pixlarna samverkar.
Och att totalytan styr prestanda är på intet sätt en motsättning till att ljuset skall mätas i varje enskild punkt, i själva verket är det ju så att det nästan alltid blir bättre ju fler mätpunkter (fler pixlar) vi har.
Mitt resonemang säger absolut inte att det skulle regna mer om vi samlar in mätvärden över en större yta, det är en ganska absurd tolkning av vad jag sade. Det jag pekar på är att vi kan mäta regnmängden mer exakt ju större yta vi mäter med.
Att insamlingsyta spelar roll för prestanda är ingen nytt, alla som fotograferat parallellt med olika filmformat brukar vara väl förtrogna med detta. Man kan säga att den tanken stöds av mer än 100 år av empiriska försök :-)
Att det finns skillnader mellan olika kameror är inget nytt. Utvecklingen har gått framåt både vad det gäller hur man bygger sensorer men också hur man behandlar de ynka signalerna. Den effektiva ytan på varje pixel blir större med ny teknik.
Vill du ha hög upplösning utan att göra pixlarna mindre är naturligtvis en till ytan större sensor att föredra, så långt är jag med.
1) Varför skulle mätprecisionen öka med storlek? I så fall kan du slänga ut måtten för deciliter, tesked, kryddmått m m som du har i köket och alltid använda ett litermått :)
2) Det du inte tycks greppa är att bildens kvalitet styrs av det _sammanlagda_ ljuset som samlas in av pixlarna, inte av ljuset som samlas in i enskilda pixlar. Detta eftersom bilden (som ju ändå är slutmålet) faktiskt består av en _samling_ av pixlar. Det är summan av prestanda hos de använda pixlarna som spelar roll.
3) Hur mycket kapacitans du har i varje pixel i en cmos-sensor har faktiskt ganska lite att göra med dess yta. Faktum är att kapacitansen i dagens små pixlar generellt är högre än de varit i de äldre och större pixlarna. Att göra pixlarna större innebär inte att du kan samla in mer ljus, bara att du vet mindre exakt var på sensorn ljuset träffat.
Grundfelet i ditt resonemang är att du tycks tro att bildprestanda=pixelprestanda, och det är ett feltänk på flera nivåer. Hade det varit sant hade de bästa sensorerna bara haft en enda stor pixel ...
Om ni inte tror på mig så kanske en mer vetenskaplig förklaring kan få er att förstå att pixelytan som fångar upp fotoner är av största betydelse.
Här är ett par artiklar som ger en förklaring:
http://www.clarkvision.com/articles/does.pixel.size.matter/
http://spectrum.ieee.org/geek-life/tools-toys/pixels-size-matters/0
Det är helt annan sak som jag inte bestrider och det är att större sensorer kan förbättra bildkvaliteten. En anledning är att sensorn kan ha fler pixlar utan att göra dem mindre, en annan är att den färdiga bilden inte behöver förstoras lika mycket.
Clarks artikel är gammal, blev mycket hårt kritiserad redan när den skrevs och utvecklingen har i praktiken visat att han tänkt ganska fel. Han har sedan dess inte sagt speciellt mycket i debatten ... Den andra artikeln har rätt i att sensoryta är viktigt, men kör sedan i diket ganska rejält.
Det är lite roligt att de som nu i många år envist fortsätter hävda att små pixlar är en nackdel helt verkar missa att pixlarna fortsätter krympa och ändå envisas prestanda med att bli bättre. Hur kan nu det komma sig? :-)
Det tog visserligen hundratals inlägg, ett otal invektiv och påhopp Och ett gäng varningar, men så småningom kom de flesta överens om att stora pixlar inte är bättre. Många fick sin världsbild rubbad där ...
En anan källa som kanske kan bringa lite klarhet så att du förstår betydelsen av en stor effektiv pixelarea.
http://ibv.vdma.org/documents/256550/5908100/2014-11-05_1_1200_+JAI.pdf/02557c7c-fb17-4f22-9b36-a325062bcc0b
Att det idag är möjligt att minska avståndet mellan pixlar utan att tappa kvalitet kan tillskrivas flera faktorer. En är tekniken som kallas backside illumination (BSI). Elektroniken och signalbehandlingen har också förbättras.
Det handlar ju inte om att ersätta en stor pixel med en liten pixel, utan just det faktum att du kan få in fler små pixlar på samma yta som färre större pixlar.
I dokumentet du länkar till har författaren begått en mycket vanlig tankevurpa, citat: "CAMERAS WITH SMALLER PIXELS TYPICALLY HAVE SMALLER QUANTUM WELLS."
Han är kvar i CCD-teknikens värld,där stämde den tanken. I dagens cmos-sensorer har faktiskt inte kapacitansen i varje pixel speciellt mycket med ytan att göra.
BSI är en bra teknik, dels för att den ger en liten ökning av insamlat ljus, men det märks mest på riktigt tätpackade sensorer. Som de vi har i mobil- och kompaktkamerasensorer. För våra systemkameror och deras än så länge ganska glest befolkade sensorer är nog största nyttan med BSI-tekniken att den minskar kraven på telecentricitet hos objektiven. Det här blir viktigt hos de spegelfria kamerorna och möjliggör kompaktare och/eller bättre presterande vidvinkelobjektiv.
Men prestandaökning hos allt mindre pixlar har vi sett också utan BSI. Faktum är att bland systemkameror är det än så länge bara Samsung NX1 och NX500 som har BSI-sensorer.
Vad jag inledningsvis vände mig emot var att ni var så fixerade vid den totala mängden ljus som träffar sensorn också kallad exponeringsmätare. För att skapa en bild måste man som du riktigt påpekat veta var ljuset träffar så att man kan skapa pixlarna i en bild.
Jag tror inte längre det är lönt att argumentera för fysikaliska realiteter eftersom ni har en kvasivetenskaplig grund för er teori som är svår att bemöta med fakta.
Saker att läsa, tja, läs gärna vad till exempel Eric Fossum (http://en.wikipedia.org/wiki/Eric_Fossum) skriver, det är bara att googla, han har skrivit en del om sensorteknik genom åren :-)
Senaste åren har han bland annat skrivit mycket om att använda alldeles fantastiskt många och därmed fantastiskt små pixlar, t.ex. här: http://ericfossum.com/Presentations/2012%20March%20QIS%20London.pdf
En välkänd debattör av det här ämnet är Bob Newman, a.k.a. Bobn2 på Dpreview, här ett av hans oerhört inlägg i ämnet:
http://www.dpreview.com/forums/post/55278918
Här är annars en snart sex år gammal, men i huvudsak bra genomgång:
http://www.dpreview.com/forums/post/32064270
Generellt på Dpreview kan du söka efter och läsa inlägg och förklaringar vad kunniga personer som Joseph S. Wisniewski, fysikern Emil J. Martinec, Marianne Oelund, Iliah Borg och kanske framför allt John Sheehy som mer än någon annan fört den här diskussionen framåt.
Läs gärna tråden här på Fotosidan som AFE länkade till ovan, den pågick just under den period då allt fler började inse att man tänkt lite bakvänt när det gäller hur stor roll storleken på enskilda pixlar spelar. Jag hör själv till dem som fick tänka om i den vevan.
I en referens talas om sensorer med en helt ny teknik där ljuset samlas in av mängder av små sensorer. Spännande, men det är det det vi talar om här.
Det står dessutom om att designen är full av kompromisser. Ska man satsa på en större pixelyta eller förse densamma med bättre elektronik. Här har du en förklaring till att pixlarna idag kan göras mindre utan att prestanda försämras. DxO-lab har visat att egenskaperna ständigt förbättras även om det inte är med gigantiska steg.
Du som läser så bra borde ha sett att jag har två invändningar mot din teori.
1) Den totala ljusmängden är ointressant. Det har alltid varit så att ljus har fångats av små silverkorn eller av ljusmätande pixlar. Om du tänker att ett större filmformat eller större sensor är bra för bildkvaliteten så är jag helt med på det. Detta eftersom den slutliga bilden inte behöver förstoras lika mycket. Om du däremot beskär bilden och tittar på ett lika stort utsnitt från negativet/sensorn ser du ingen skillnad.
2) Du säger "Att göra pixlarna större innebär inte att du kan samla in mer ljus". Jag hävdar att pixelytan är avgörande för mängden fotoner som samlas in. Detta i sin tur påverkar bruset. Hittar inget i dina referenser som motsäger detta.
Om du ser på kameror som är lika med undantag av upplösningen så ser du att tillverkarna anger ett betydligt mindre maximalt ISO-tal för de modeller som har fler men mindre pixlar. Varför? Jo, mindre pixlar har mera brus helt i enlighet med fysikens lagar. Som sagt så har sensorerna blivit bättre med tiden, men jämför du två kameror från samma tidsperiod får du ett rättvisare resultat.
Kanske blandar du ihop den viktiga totala bildupplevelsen med hur de påverkas av högre upplösning eller större filmformat. Jag talar om den ointressanta totala ljusmängden och de fysiska lagar som gäller registrering av ljus på pixelnivå.
Joakim är troligen en av de svenskar som har bäst koll på hur det egentligen hänger ihop, men du kanske vet bättre?
Att hänvisa till resonemang som handlar om andra saker än de jag fört fram är inte så konstruktivt. Jag har aldrig sagt att filmformat och sensorstorlek saknar betydelse för bildkvaliteten. Vad jag däremot noterat att det krävs sensor med större pixlar om man ska kunna ta bilder i dåligt ljus. Sony Alpha 7S har ISO upp till 102 400 men A7R med högre upplösning bara går till ISO 25 600. A7S är alltså överlägsen i svagt ljus. Det beror på att pixlarna är större i A7S. Ytan har alltså stor betydelse för att fånga upp ljus. Tvärt emot vad Martin hävdar när han säger "Att göra pixlarna större innebär inte att du kan samla in mer ljus". Finns det nya vetenskapliga rön som ger honom rätt? Inte som har presenterats här i alla fall. Ska det vara någon mening med denna diskussion kan ni inte lägga ord i min mun som jag aldrig har sagt. Dumma påhopp som inte håller sig till sak är ovärdigt.
"I en bildsensor är det inte totalen som gäller."
Vilket jag hävdar motbevisas av sisådär 100 års samlad fotografisk erfarenhet. Analogt eller digitalt, man vinner mycket på att öka insamlingsytan. Något man enkelt kan visa både om man kör samma filmkvalitet i olika format eller sensorer med liknande teknik i olika storlekar.
Där du envist kör i diket är idén att prestanda i enstaka pixlar är det viktiga. Fel. Bilder består alltid av _grupper_ av pixlar, aldrig av enstaka. Och det är summan av prestanda hos gruppen av pixlar i bilden som spelar roll. Det är - tvärt emot vad du inledde med - just exakt totalen som räknas.
I och med att bilder byggs upp från grupper av pixlar så är det ok om prestanda i enskilda pixlar sjunker - så länge antalet ökar mer. Att t.ex. tappa 10% prestanda i varje pixel är helt ok om du samtidigt ökar antalet med 20%. Och ser vi på utvecklingen i stort under de senaste 15 åren så har prestandan i varje pixel inte alls minskat utan tvärtom ökat, detta trots att de samtidigt krympt i storlek och blivit fler. Kort sagt, vi har ökat både pixelprestanda och antalet pixlar i bilderna - en win-win.
Visst har A7s bra prestanda på höga iso, men det har D4s och 1Dx också, och de har 16 respektive 18 megapixel vilket inte tycks hämma dem ett dugg. Och något alla de tre kamerorna har gemensamt är att deras sensorer optimerats just för högiso. Ingen av dem är speciellt imponerande på låga iso om du jämför med till exempel en A7 eller A7r.
Du jämför alltså en sensor optimerad för högiso med en som är optimerad för lågiso och anser att skillnaden i huvudsak beror på skillnaden i pixelstorlek. Förklara då varför A7 och A7r är så lika på högiso? Eller att Nikon D750 och D810 är så lika? Trots 50% skillnad i antal pixlar på samma yta. Kan det möjligen bero på att du då jämför sensorer som är optimerade på samma sätt och att skillnaden i pixelstolek faktiskt inte spelar någon nämnvärd roll?
Och om du lyfter blicken från enstaka modeller och tittar på hur sensorer i allmänhet utvecklats under de senaste 15 åren så är det en sak som är tydlig: Det finns ingen tydlig trend om att mindre pixlar skulle påverka bildkvaliteten negativt. Tvärtom, det finns en tydlig trend där bildkvaliteten stadigt förbättras i takt med att vi fått fler och mindre pixlar.
Du har fortfarande inte fattat att en större pixel kan samla in mer ljus än en mindre. Detta påverkar signal- brusförhållandet. Din tes "Att göra pixlarna större innebär inte att du kan samla in mer ljus" är ovetenskaplig och felaktig.
Du skriver nu senast "Det handlar annars om att en större yta innehåller mer information." Och varifrån tror du den extra informationen kommer egentligen? Enda sättet att få mer information i en sensor som fångar in ljus är - att fånga in mer ljus. Och åter igen, att den infångade mängden ljus ökar med ytan är ganska välkänt sedan långt över 100 år. I det avseendet skiljer sig inte film eller sensorer åt.
Jag har inga som helst problem att förstå att en större pixel kan fånga in mer ljus än en mindre. Problemet är att få dig att förstå att man inte vinner något särskilt på att samla in mer ljus i varje pixel om priset är att vi får färre pixlar. Det centrala är och har alltid varit hur mycket summan av de använda pixlarna samlar in.
Det tål att upprepas, prestanda i enskilda pixlar blir bara avgörande om vi skapar bilder som består av enskilda pixlar. Men nu skapar vi faktiskt alltid bilder som består av grupper av pixlar och då är det alltid summan av de använda pixlarnas prestanda som är det centrala.
Sedan verkar du inte heller ha uppfattat att dagens pixlar, trots att de är mindre, faktiskt generellt inte har sämre prestanda än äldre och större pixlar. Faktum är att de, sett över en tioårsperiod, har blivit påtagligt bättre. Så vi får en win-win tack vare både _fler_ pixlar och _bättre_ pixlar.
Jag ska pröva med en annan jämförelse. Om du trycker en text med en viss kvalitet och väljer att trycka på ett större ark så kommer det att gå åt mer tryckfärg. Kan du då hävda att det påverkar kvaliteten på enskilda delarna?
Det är sant att med dagens sensorer som är färgblinda måste den slutliga bildpunkten skapas genom att hämta information från de närmaste grannarna. Algoritmen skiljer sig inte om man har en stor sensor med miljoner fler pixlar eller inte. Dagens kameror har ett 1:1-förhållande mellan pixlar och färdiga bildpunkter. Detta förhållande kan ändras framöver, men nu pratar vi om teknik som finns nu.
Precis som jag sagt har utveckling gått framåt och pixlarna är mer effektiva. Det motsäger inte det faktum att en större yta registrerar fler fotoner och därför ger mindre brus.
Om du är intresserad av fakta kan du titta här http://www.sensorgen.info
Som du ser här varier den så kallade QE-faktorn kraftigt. Den är som du vet förmågan att omvandla fotonen till elektrisk energi. Titta också på enskilda kamerors prestanda och se hur mycket pixelstorleken påverkar signal- brusförhållandet. Det finns ett tydligt samband.
Igen, jag har aldrig förnekat fördelen med större sensorer. Där slår du in öppna dörrar. Jag menar att det är en konstig omskrivning att tala om den totala ljusmängden. Du har fortfarande inte sagt var denna mängd redovisas i utdatat. Jag ser bara bildpunkter med ett RGB-värde skapat från en pixel och de närmaste grannarna. Säg nu inte att jag ägnar mig att jämföra bilder i 100 %. Jag redovisar fakta, men anser att fotografiskt ska man bedöma helheten.
"Jag ser bara bildpunkter med ett RGB-värde skapat från en pixel och de närmaste grannarna."
Blir dessa bildpunkter bättre och snyggare om de behöver förstoras mindre för att presenteras på skärm eller utskrift? ;)
En pixel med ett visst värde lär behålla det värdet helt oavsett förstoringsgrad. Jämför du med film blir det galet eftersom storleken på kornet inte minskas i och med en mindre filmyta (förutsatt att filmen är av samma typ).
Kul att du citerar data från sensorgen.info :-) Prova gärna att kontakta Bob Newman (han finns på Dpreview med namnet "Bobn2") som ligger bakom den sajten och be honom ge sin syn på relationen mellan sensoryta, pixelstorlek och bildprestanda - han hör till dem som hävdar just det jag påstår. Eller prata DxOMark som ligger bakom det mesta av de data Sensorgen använder och se hur de ser på saken. Som här:
http://www.dxomark.com/Reviews/More-pixels-offset-noise
Du skriver, och jag citerar:
"Jag menar att det är en konstig omskrivning att tala om den totala ljusmängden. Du har fortfarande inte sagt var denna mängd redovisas i utdatat."
Den redovisas i form av hela bilden. En bild består av summan av det ljus vi har samlat in under exponeringen.
Vidare:
"Jag ser bara bildpunkter med ett RGB-värde skapat från en pixel och de närmaste grannarna."
Det är här jag menar du du tittar för mycket på _pixlar_ och för lite på _bilden_
Det är inte färgintepoleringen jag syftar på när jag talar om att en bild består av grupper av pixlar. (att det är summan av pixlarna som räknas gäller lika mycket för en Foevon-sensor där du inte gör bayer-interpolering för att få färg).
Det jag menar är att ingen bild någonsin består av enstaka pixlar - en bild med bara en pixel skulle ju inte kunna ha några detaljer eller nyanser. Bilder består ju alltid av många pixlar. Och det du ser när du tittar på en bild är summan av pixlarna i den. Hur enskilda pixlar ser ut spelar mindre roll än summan av deras utseende. Eller annorlunda formulerat: Vi kan kosta på oss att tappa prestanda i de enskilda pixlarna så länge summan av deras prestanda blir bättre.
Med din populärvetenskapliga skildring av komplexa sammanhang riskerar du trovärdigheten inte bara för din personliga del utan också som bidragsgivare till Fotosidan.
Kan vi vara överens om en sak; en bild består av miljontals pixlar som utgör helheten. Ska vi också konstatera att vi är oeniga om att det är pixlar som samlar in ljus och att ytan och effektiviteten hos dessa bestämmer signal- brusförhållandet. Det är bland annat därför du borde se att sensorer med små pixlar inte fungerar lika bra vid lågt ljus. De kan helt enkelt inte samla in tillräckligt med fotoner.
Du har rätt i att vi nog inte kommer längre. Men så länge du envisas med att misstolka och besvara mina inlägg med spydigheter så ser jag som min rätt att svara och lägga till rätta.
Om du nu vill veta vad vi talar om så kan jag berätta för dig att ögat inte kan uppfatta hur små detaljer som helst. Det är därför man inte ska dra upp en bild hur mycket som helst. Då kommer till slut ögat att kunna urskilja de enskilda bildpunkterna och det är inte önskvärt.
Vi kan väl vänta och se vems trovärdighet som klarar sig ur den här ordväxlingen :-)
Lars, du resonerar helt bakvänt
Det du inte tycks greppa...
Grundfelet i ditt resonemang är att du tycks tro…
Och du fortsätter missa huvudpoängen...
Fysikaliska lagar brukar inte omprövas allt för ofta, men du kanske har rätt i att de inte gäller lägre. Då får jag i så fall krypa till korset.