Som Plus-medlem får du: Tillgång till våra Plus-artiklar | Egen blogg och Portfolio | Fri uppladdning av dina bilder | Rabatt på kameraförsäkring och fotoresor | 20% rabatt på Leofoto-stativ och tillbehör | Köp till Sveriges mest lästa fototidning Fotosidan Magasin till extra bra pris.

Plusmedlemskap kostar 349 kr per år

Annons

Kan LR CS4/5 skicka 10-bitar /färgkanal till Skärm?

Produkter
(logga in för att koppla)

nalleg

Aktiv medlem
Exempelvis NEC Spectraview kan enligt spec ta emot 10-bitar. Några frågor


1. Enligt ADOBES kundtjänst kan inte PS4/5 ännu skicka 10-bitar. Man borde ju kunna lita på dessa uppgifter. PÅ nätet finns dock uppgifter om att PS klarar det men däremot inte LR. Ngn som vet vad som gäller?

2. När/om PS och LR kan hantera det hur är det kopplat till färgrymden?. Det borde väl vara så att ju vidare färgrymd desto större nytta har man av 10-bitars?

3. Konsekvenser för andra applikationer?

Vad händer med andra applikationer?. Kan bildskärmen automatiskt "växla" mellan olika 8-10-bitar?

(Jag är naturligtvis medveten om att grafikkort etc måste hänga med)
 
1) Eftersom det egentligen inte är Photoshop's problem att se till att systemet gör rätt, och vi ännu inte har något presentationsmedia som klarar att visa 8bit gamma 2.2 med tydliga bandningsegenskaper är detta inte så viktigt för PS/LR. 8 bitar räcker.

Det som däremot kan göra skillnad är systemets profilering. Om drivrutinen till grafikkortet tar emot 8-bit signaler som ska räknas om från säg Adobe RGB till skärm-RGB (enligt skärmprofilens instruktioner) kommer en 8-bitars utsignal att bryta upp, och bitvis bara vara en 7-bits signal. Detta ger tydliga "trappsteg" i toningar.

Om systemet däreot klarar att göra uträkningarna från 8-bit insignal via icc-profilerna för skärmen till 10-bit korrigerade värden har i stort sett all stegning tagits bort.

Win 7 och Vista klarar att göra detta - med rätt drivrutiner till grafik-korten. Vilka detta är finns specat på AMD's och nVidia's hemsidor.

Mac klarar inte att göra detta, trots att Apple vill lura dig till att tro det. Funktionaliteten i skalet finns osv, men koden bakom saknas antingen helt, eller fungerar helt enkelt inte. Vad du än gör och hur du än ställer in systemet skickar OSX ut en 8-bit signal till skärmkortet.

Jag har pratat med drivrutinsprogrammerare på AMD om det, och de bekräftar att trots att OSX-systemet "påstår" att det är en 10bit signal som levereras är de minst två signifikanta bitarna i varje data-ord alltid noll. Det är alltså en 8-bit signal med två extra nollor på slutet.
..............

2) Nej.

..............

3) Inga. Det är systemets problem att se till att rätt datatyp lämnas till grafikdrivrutinerna.
 
Jag kör på Vista 64 och med grafikkort NIVDIA Geforce 8800GT. Den klarar såvitt jag förstår inte att "interpolera up" 8--bitars signalen från ADOBE utan man får de problem som du nämnde.

Har googlat och det verkar som om QUADRO (exempelvis 600) är nödvändig investering (10-bit per channel output = 30-bit color rendering)

Mern sen måste det väl vara så att ovanämnda i"interpolering" innebär kvalitetsförsämringar jämfört med om ADOBE kunde leverera 10 bitars output?
 
Ja, du måste ha ett kort ur aningen AMD's FirePro/FireGL- eller nVidias Quadro-serie.

En viss kvalitetsförsämring blir det naturligtvis, men om du arbetar i 16 bitar, och PS för över denna information till systemet med 8 bitars precision så ligger den största flaskhalsen vad det gäller tonupplösning i skärmprofilen (systemets CM-modul).

Det lär vara ganska svårt, på gränsen till omöjligt att upptäcka bandning på en kalibrerad skärm om du stänger av skärmprofilen. Alltså är 8 bitar ganska tillräckligt, så länge man inte behöver dra i dom för mycket.
 
ANNONS
Götaplatsens Foto