Som Plus-medlem får du: Tillgång till våra Plus-artiklar | Egen blogg och Portfolio | Fri uppladdning av dina bilder | Rabatt på kameraförsäkring och fotoresor | 20% rabatt på Leofoto-stativ och tillbehör | Köp till Sveriges mest lästa fototidning Fotosidan Magasin till extra bra pris.

Plusmedlemskap kostar 349 kr per år

Annons

MBP 15" med 256MB eller 1GB grafikminne

Produkter
(logga in för att koppla)

bandola83

Aktiv medlem
Halloj!

Är det någon som har erfarenheter kring prestandan i de två olika modellerna när det kommer till bildredigering? Används grafikminnet i så stor grad att det påverkar prestandan?

Jag kör typiskt Lightroom/PS CS5 och 12MP-bilder.

Jag kommer att peta in 8GB RAM.
 

l1nd3c0n

Aktiv medlem
Använder iofs inte MBP men har konstaterat betydande skillnader mellan olika grafikkort och mängden grafikminne. Datorns process blir kanske inte bättre, men man kan följa proceduren bättre då skärmen uppdateras löpande och därmed upplever man det som om datorn blir betydligt snabbare.

Beroende på mängden komplex grafik kan det också vara så att när grafikminnet tar slut så måste datorn använda sig av andra resurser för att beräkna bildskärmens innehåll. Detta uppstår kanske inte vid enstaka bilder, men kör du lite animeringar och flera skärmar så blir ju mängden grafik betydande.

Har du råd så ta så stort grafikminne som möjligt, det går ju inte direkt att uppgradera i efterhand som man kan göra med arbetsminnet.
 

j2^

Aktiv medlem
Halloj!

Är det någon som har erfarenheter kring prestandan i de två olika modellerna när det kommer till bildredigering? Används grafikminnet i så stor grad att det påverkar prestandan?

Jag kör typiskt Lightroom/PS CS5 och 12MP-bilder.

Jag kommer att peta in 8GB RAM.
Svaret är: Det påverkar inte prestandan i varesig LR eller PS överhuvudtaget.
 

SportSkjutaren

Aktiv medlem
Mina erfarenheter.

Har inte erfarenheter av de maskiner TS (trådskaparen) tar upp.
Däremot nyaste versionen av den billigaste MBP 13#.
Dock med 8GB RAM och 750 GB 7200 RPM hårddisk.
(Uppgraderade själv).

Har precis redigerat bilder (från ett bröllopsjobb).
Orginalfilerna är Fullstora RAW från EOS 7D. Dvs 18MP i upplösning.
Förutom de program som inte har med redigeringen att göra, och som körs i bakgrunden (Firefox 5, Mozilla 5 samt Twitters klient och Itunes) så använder jag för redigeringen Photo Mechanic, Lightroom 3.4.1 samt Photoshop CS 5.1.

Hade nyss flera filer öppna samtidigt i PS (PSD-format ProfofotoRGB 16 bitar).
Dessutom så kör jag med en extern skärm som "utökat skrivbord".
Dvs två skärmar samtidigt.

Trots en jämförelsevis begärnsad hårdvara, framförallt gällande grafikkort i förhållande till MBP 15#:s-modellerna. Så flyter det på riktigt bra.

1TB grafikminne är knappast av någon betydelse för annat än de som redigerar video, eller kör krävande spel.
Har rejält svårt att se att skillnaden för "vanlig" bildredigering är märkbar överhuvud taget mellan de maskiner TS tar upp.

Bättre att lägga pengar på den matta och mer högupplösta skärmen.
Eller något annat som gör verklig nytta.

Mina "50 öre".
/D.
 

j2^

Aktiv medlem
Använder iofs inte MBP men har konstaterat betydande skillnader mellan olika grafikkort och mängden grafikminne. Datorns process blir kanske inte bättre, men man kan följa proceduren bättre då skärmen uppdateras löpande och därmed upplever man det som om datorn blir betydligt snabbare.

Beroende på mängden komplex grafik kan det också vara så att när grafikminnet tar slut så måste datorn använda sig av andra resurser för att beräkna bildskärmens innehåll. Detta uppstår kanske inte vid enstaka bilder, men kör du lite animeringar och flera skärmar så blir ju mängden grafik betydande.

Har du råd så ta så stort grafikminne som möjligt, det går ju inte direkt att uppgradera i efterhand som man kan göra med arbetsminnet.
Det känns lite som du totalt missat hur ett grafikkort fungerar, och hur minnet används.

Ditt första stycke förstår jag inte riktigt vad du vill säga med?

Ditt andra stycke är totalt felaktigt.

Ponera att vi har en skärm med en upplösning på 1920x1200px (alltså cirka tvåmegapixlar) och vill köra 32bpp, hur mycket minne behöver vi då?

Mjo.. cirka åtta megabyte videominne. Vill vi köra det trippelbuffrat (som man som regel gör idag) så behövs det 24MB videominne. Säg att vi vill driva tre skärmar i full HD-upplösning trippelbuffrade... Jodå, så använder vi hela 72MB av vårat videominne.

Vad har man då allt övrigt minne till i ett grafikkort? Det korta svaret: Spel.

Det lite längre svaret "Spel, häftiga skrivbordseffekter i operativsystemet, och vissa applikationer som använder CUDA eller liknande tekniker för att lasta över beräkningar och stora dataset till GPU'n.

Även om vi skulle mäta med Adobe Premiere så skulle vi inte se någon skillnad på ett 256MB och ett 1TB grafikkort (sålänge vi jämför samma GPU), eftersom Premiere inte använder så stora dataset.
 

l1nd3c0n

Aktiv medlem
Det känns lite som du totalt missat hur ett grafikkort fungerar, och hur minnet används.

Ditt första stycke förstår jag inte riktigt vad du vill säga med?

Ditt andra stycke är totalt felaktigt.

Ponera att vi har en skärm med en upplösning på 1920x1200px (alltså cirka tvåmegapixlar) och vill köra 32bpp, hur mycket minne behöver vi då?

Mjo.. cirka åtta megabyte videominne. Vill vi köra det trippelbuffrat (som man som regel gör idag) så behövs det 24MB videominne. Säg att vi vill driva tre skärmar i full HD-upplösning trippelbuffrade... Jodå, så använder vi hela 72MB av vårat videominne.

Okej, jag ska villigt erkänna att jag inte är någon datortekniker utan en användare. Med första stycket ville jag bara klargöra att jag provat mer än ett grafikkort och även samma grafikkort med olika grafikminne. Sedan kan jag ha helt fel när det gäller att bildskärmarna uppdateras snabbare.

Men när du säger att jag har helt fel i andra stycket så börjar jag bli nyfiken på vad jag missat. Enligt Wikipedia läser jag följande:

A dedicated graphics card on the other hand has its own RAM and Processor specifically for processing video images, and thus offloads this work from the CPU and system RAM.
Verkar ju som jag helt missförstått att om grafikkortet blir överbelastat så tar det hjälp av CPU och arbetsminne. Skulle du möjligen kunna beskriva hur ett grafikkort arbetar på en svenska som en icke datortekniker klarar av att förstå ;)?

Slutligen, angående att man inte behöver mer än 72 MB grafikminne. De program jag använder ställer krav på hårdvaruaccelererade grafikkort med stöd för något som kallas Open GL, bl.a. Adobe Photoshop. Vidare skriver Adobe att deras rekommendation är 512 MB videominne, men att minimum är 256 MB. Hur kan Adobe tycka att man ska behöva så mycket om nu 72 MB borde räcka trippelt?
 

j2^

Aktiv medlem
Okej, jag ska villigt erkänna att jag inte är någon datortekniker utan en användare. Med första stycket ville jag bara klargöra att jag provat mer än ett grafikkort och även samma grafikkort med olika grafikminne. Sedan kan jag ha helt fel när det gäller att bildskärmarna uppdateras snabbare.

Men när du säger att jag har helt fel i andra stycket så börjar jag bli nyfiken på vad jag missat. Enligt Wikipedia läser jag följande:


Verkar ju som jag helt missförstått att om grafikkortet blir överbelastat så tar det hjälp av CPU och arbetsminne. Skulle du möjligen kunna beskriva hur ett grafikkort arbetar på en svenska som en icke datortekniker klarar av att förstå ;)?

Slutligen, angående att man inte behöver mer än 72 MB grafikminne. De program jag använder ställer krav på hårdvaruaccelererade grafikkort med stöd för något som kallas Open GL, bl.a. Adobe Photoshop. Vidare skriver Adobe att deras rekommendation är 512 MB videominne, men att minimum är 256 MB. Hur kan Adobe tycka att man ska behöva så mycket om nu 72 MB borde räcka trippelt?
Vad gäller CPU-arbetsminne så har du nog missuppfattat Wikipedia. GPU'er gjorda för väldigt billiga lösningar (eller där absolut minimal strömförbrukning är ett krav) har inget eget grafikminne, utan använder det vanliga RAM-minnet. Detta gör ju att du ökar belastningen på RAM och MMU.

Vad gäller att du prövat "samma grafikkort men olika minne" så är motfrågan: Var det inte så att du hade excempelvis GDDR3 på det ena, och GDDR5 på det andra? Naturligtvis så får man olika prestanda om du har olika _hastighet_ på minnena på de olika korten. Hade korten verkligen samma GPU/MMU-klockning?

Varför rekommenderar Adobe 512MB? Enkelt: "Adobe Premiere Pro CS4" <-- Där har du svaret. Premiere Pro kan använda sig av CUDA för att accelerera en del av rendreringsarbetena (Nej, det gäller INTE i Premiere Elements), precis som jag skrev i mitt svar. Men eftersom frågesträllaren inte nämnde Premiere Pro så anser jag inte att det är ett argument.

Tänk också på att för att _överhuvudtaget_ få CUDA-stöd så måste man antingen lägga _grova_ pengar på något av de kort som är _godkänt_ av Adobe. Det räcker alltså INTE med att kortet _stöder_ CUDA.

Ett alternativ till det är att fulhacka sina Adobeprogram för att tvinga dem att acceptera även andra kort.
 

l1nd3c0n

Aktiv medlem
Vad gäller CPU-arbetsminne så har du nog missuppfattat Wikipedia. GPU'er gjorda för väldigt billiga lösningar (eller där absolut minimal strömförbrukning är ett krav) har inget eget grafikminne, utan använder det vanliga RAM-minnet. Detta gör ju att du ökar belastningen på RAM och MMU.

Vad gäller att du prövat "samma grafikkort men olika minne" så är motfrågan: Var det inte så att du hade excempelvis GDDR3 på det ena, och GDDR5 på det andra? Naturligtvis så får man olika prestanda om du har olika _hastighet_ på minnena på de olika korten. Hade korten verkligen samma GPU/MMU-klockning?

Varför rekommenderar Adobe 512MB? Enkelt: "Adobe Premiere Pro CS4" <-- Där har du svaret. Premiere Pro kan använda sig av CUDA för att accelerera en del av rendreringsarbetena (Nej, det gäller INTE i Premiere Elements), precis som jag skrev i mitt svar. Men eftersom frågesträllaren inte nämnde Premiere Pro så anser jag inte att det är ett argument.

Tänk också på att för att _överhuvudtaget_ få CUDA-stöd så måste man antingen lägga _grova_ pengar på något av de kort som är _godkänt_ av Adobe. Det räcker alltså INTE med att kortet _stöder_ CUDA.

Ett alternativ till det är att fulhacka sina Adobeprogram för att tvinga dem att acceptera även andra kort.
Aha, okej ... så om grafikkortet har eget RAM så belastar det aldrig arbetsminnet, rätt uppfattat? Det borde då innebära att den jobbar på tills den blir klar utan att ta hjälp av CPU och arbetsminne. Hur fungerar då mer grafikminne, blir det samma som med mer arbetsminne till CPU:n, dvs den behöver inte skyffla fram-o-tillbaka lika mycket om allt får plats i minnet och blir då totalt sett lite snabbare?

Vad grafikkorten hade för GDDRx vet jag faktiskt inte. Men visst kan det stämma att nyare versioner troligen var bättre på fler sätt än enbart mängden videominne ;)

Avseende 512 MB så gällde det faktiskt Photoshop och inte Premiere, kolla länkarna ;)
 

j2^

Aktiv medlem
Aha, okej ... så om grafikkortet har eget RAM så belastar det aldrig arbetsminnet, rätt uppfattat? Det borde då innebära att den jobbar på tills den blir klar utan att ta hjälp av CPU och arbetsminne. Hur fungerar då mer grafikminne, blir det samma som med mer arbetsminne till CPU:n, dvs den behöver inte skyffla fram-o-tillbaka lika mycket om allt får plats i minnet och blir då totalt sett lite snabbare?

Vad grafikkorten hade för GDDRx vet jag faktiskt inte. Men visst kan det stämma att nyare versioner troligen var bättre på fler sätt än enbart mängden videominne ;)

Avseende 512 MB så gällde det faktiskt Photoshop och inte Premiere, kolla länkarna ;)
Korrekt. Ett kort med dedikerat arbetsminne belastar inte värdresurserna. Det FANNS "ful-kort" som både har dedikerat minne OCH kan använda RAM. Men jag tror faktiskt inte att varesig nVIdia eller AMD tillverkar sådana längre?

Du har på-sätt-och-vis rätt i din analogi mellan mer arbetsminne till CPU. I moderna spel så görs nästan allt grafikarbete av GPU'n, som då behöver ha tillgång till alla texturer, bump maps, shading modeller, polygonmodeller och liknande så nära GPU'n som det bara är möjligt.
Tänk på att även det enklaste grafikkort kan utföra geometriska beräkningar VÄLDIGT många gånger snabbare än ens den snabbaste CPU.

Kikar man på CUDA / OpenCL (Obs, jag skriver CL, inte GL!) så innebär mer minne att man kan lägga upp större datasets/programkod i GPU för behandling. Det finns idag löjligt kraftfulla CUDA-moduler som (i princip) består av 4-8 riktigt kraftiga Quadra-grafikkort, med en märklig egenskap: Du kan inte ansluta någon bildskärm till modulerna överhuvudtaget. Kika exempelvis på http://www.amax.com/hpc/productdetail.asp?product_id=superg och var beredd på att betala åttasiffriga belopp för maxade lösningar ;)

Nu känns det som om den här tråden gått gravt off topic dock.
 

l1nd3c0n

Aktiv medlem
Nu känns det som om den här tråden gått gravt off topic dock.
LOL ... närå, vi har ju inte ens nämnt Mac vs. Windows ;)

Hela tråden har ju faktiskt handlat om grafikminne och det var ju det TS frågade om. Sedan blev jag lite nyfiken i mer detaljnivå och tackar för klargöranden ;)
 
ANNONS