Annons

Allmäna spånerier om Sony och annat

Produkter
(logga in för att koppla)

Sten-Åke Sändh

Aktiv medlem
Därför att de kanske inte har samma färgfilter framför sensorn, t.ex.
Men det finns ju ett antal olika tillverkare som sparar i DNG. Varför skulle det vara en omöjlighet? Det exempel du gav till Martain, kan inte de RAW-filerna konverteras till DNG idag?? Adobe brukar väl göra adapters till de flesta RAW-formaten eller hur? DNG är ju fortsatt ett alternativ även om det inte idag är så att det omfattas av de stora som hellre låser in sina användare och försöker skapa mervärden genom att själva vara först med anpassningar till sina nya kameror.
 

Sten-Åke Sändh

Aktiv medlem
Det beror nog på hur DNG är specificerad. Medger DNG-specifikationen flera olika varianter av färgfilter?
Jag vet inte? Är det Fuji:s RAW vi pratar om och som är problemet? Jag förstår inte vad du menar annars.

Men det beror ju också på hur RAW-konverterarna faktiskt läser DNG.

Capture One som jag också kör läste DNG riktigt dåligt tidigare men nu sedan version 9 tror jag och i version 10 så läser man åtminstone grundmetadatat men det finns saker som de inte tar med sig om man exv. flyttar sina DNG från Lightroom till Capture One exv., så de måste nog försöka komma överens bättre Adobe och de andra.

DNG är ju öppet, så man borde väl kunna korrigera detta och göra det tillgängligt till alla utan den prestige som finns bland hårdvarutillverkarna. Idag ser inte de olika tillverkarnas metadatastruktur likadan ut trots att de alla kan hantera DNG på ett eller annat sätt. Möjligen finns en kärna som är lika men sedan stämmer det inte riktigt.
 

Sten-Åke Sändh

Aktiv medlem
DxO har testat 70-200/2,8 GM och de har tydligen ett bra X!

Martin Agfors hade väl rätt då i sina slutsatser och han hade väl också ett bra X då.

Kolla själva lite längre ner i texten så ser ni även en jämförelse med Canons och Nikons motsvarigheter.


https://www.dxomark.com/Reviews/Sony-FE-70-200mm-f-2.8-GM-OSS-lens-review



Lite orättvist är det kanske mot Nikon som fortsatt bara har de gamla 36MP -sensorn men även Canon-ekipaget är ju frånåkt lite trots att det har en kamera med fler pixlar (50 mot 42). Men det här visar ju på att man bör vara lite noggrann när man köper objektivet för det finns ju även en del som sågat det som råkat få dåligt justerade X.
 

PMD

Aktiv medlem
Jag vet inte? Är det Fuji:s RAW vi pratar om och som är problemet? Jag förstår inte vad du menar annars.
Jag tog det som exempel. Ett annat exempel är att Nikon i vissa kameror har använt Sonysensorer, men byggt in dem i egen kringelektronik.

Jag har inte så bra koll på hur DNG är specificerat, men risken om man låser sig vid ett råfilsformat som någon annan har specat är att det blir lite som JPEG. Ett format som alla kan hantera, men som är hopplöst gammalmodigt.

Om DNG medger tillverkarspecifika data i någon sektion så är det tveksamt om det är någon poäng med DNG. Alla program som ska hantera en sådan fil måste känna till det tillverkarspecifika dataformatet, precis som om det låg i en tillverkarspecifik råfil.

Jag har faktiskt inte förstått poängen med DNG. Om det inte medger tillverkarspecifika dataformat så är det ju ett meningslöst filformat, och om det medger tillverkarspecifika format så har man inte vunnit så mycket mot att använda tillverkarnas egna filformat.
 

Bengf

Aktiv medlem
Jag tog det som exempel. Ett annat exempel är att Nikon i vissa kameror har använt Sonysensorer, men byggt in dem i egen kringelektronik.

Jag har inte så bra koll på hur DNG är specificerat, men risken om man låser sig vid ett råfilsformat som någon annan har specat är att det blir lite som JPEG. Ett format som alla kan hantera, men som är hopplöst gammalmodigt.

Om DNG medger tillverkarspecifika data i någon sektion så är det tveksamt om det är någon poäng med DNG. Alla program som ska hantera en sådan fil måste känna till det tillverkarspecifika dataformatet, precis som om det låg i en tillverkarspecifik råfil.

Jag har faktiskt inte förstått poängen med DNG. Om det inte medger tillverkarspecifika dataformat så är det ju ett meningslöst filformat, och om det medger tillverkarspecifika format så har man inte vunnit så mycket mot att använda tillverkarnas egna filformat.

Kolla DX0 PMD på nya Oly M1 MK2 eller hur man nu skall skriva kamera namnet, ett skutt upp på Lågljus-parametern så man tror det är en Nikon, bra jobbat Olympus.
 

Sten-Åke Sändh

Aktiv medlem
Jag tog det som exempel. Ett annat exempel är att Nikon i vissa kameror har använt Sonysensorer, men byggt in dem i egen kringelektronik.

Jag har inte så bra koll på hur DNG är specificerat, men risken om man låser sig vid ett råfilsformat som någon annan har specat är att det blir lite som JPEG. Ett format som alla kan hantera, men som är hopplöst gammalmodigt.

Om DNG medger tillverkarspecifika data i någon sektion så är det tveksamt om det är någon poäng med DNG. Alla program som ska hantera en sådan fil måste känna till det tillverkarspecifika dataformatet, precis som om det låg i en tillverkarspecifik råfil.

Jag har faktiskt inte förstått poängen med DNG. Om det inte medger tillverkarspecifika dataformat så är det ju ett meningslöst filformat, och om det medger tillverkarspecifika format så har man inte vunnit så mycket mot att använda tillverkarnas egna filformat.
DNG är fantastiskt men kanske mer fantastiskt i stora metadatastyrda automatiserade bildflödenän för enskilda fotografer idag.

Adobe har specat DNG och de har också specat XMP (Extensible Metadata Platform) som är en del av W3C-standards och numera även ISO. Detta innehåller dessutom ytterligare en del "standardfält" som Dublin Core (ursprungligen från biblioteksvärlden), ITPC som använts framförallt mycket i tidnings och publishing-världen och även EXIF som ju främst är fotografernas metadata då det ju idag läggs dit av våra kameror.

Många moderna DAM-system (Digital Asset Mangement) lever och andas XMP och XMP kan bakas in i de XMP-headers som finns i XMP-kompatibla format såsom JPEG, TIFF och DNG samt vissa typer av av PDF-dokumentformatet. De filtyper som inte är XMP-kompatibla fullt ut och inte har XMP-headers kan ändå hanteras transparent av DAM-systemen på samma sätt som görs exv. med alla RAW-filer. Där läggs istället en s.k. sidecarfil bredvid. Om en RAW-fil heter 123.ARW så kommer den filen att heta 123.XMP i et Windows-system.

I XMP finns även Resource Description Framework (RDF) data model och där ingår exv. de standardfält från Dublin Core (som fungerar som en grundbult och lingua franca för den s.k. "semantiska webben")där man kan lägga info om exv. en bild och det handlar om bildbeskrivning, kommentar, vem som tagit bilden m.m. Det är detta RDF som också kan användas för att ge förutsättning för Linked Open Data (Tim Berners Lees högsta nivå i definitionen för Open Data), där exv. ett sökresultat som innehåller dessa metadata i sin tur kan användas för att automatiskt söka upp relaterad (linked) Open Data från andra ställen av intresse. Genom detta kan man utöver själva ursprungliga sökresultat även helt automatiskt få tillgång till relaterad länkad information baserad på innehållet i det ursprungliga sökresultatet i form av länkar till mer releterad info. Det är bl.a. det man vill uppnår med den s.k. "Semantiska webben". Man får genom detta en mer associativ upplevelse än med en traditionell webb. Det här är många museers våta dröm idag som många pratar om men få lyckats uppnå.

DNG var grundbulten i stadsmuseets FotoWare DAM-baserade automatiska arbetsflöden. Stadsmuseets standard för RAW är sedan länge DNG. Det beslutet hade tagit långt före vi byggde Digitala Stadsmuseet och började använda FotoWare DAM och hade inget med det senare att göra när beslutet togs. Man ville helt enkelt ha ett enda RAW-format. Fotograferna konverterade sina RAW till DNG och "framkallade" DNG-filen och bakade in en fullstor JPEG i DNG-filen. Genom detta får man en enda fil som både innehåller RAW-data men även en framkallad JPEG som fotografen velat ha den. Efter det skickas DNG-filen in i systemet och där lagras först DNG-filen in efter att grundläggande metadata lagts på.

Sedan i nästa steg bryts den inbakade JPEG-filen i full storlek ut och påförs metadata den med innan även den lagras ner bland museets s.k. "leveransfiler" (det är dessa man erbjuder sina kunder via webb för nedladdning normalt). I sista steget skapas en mindre s.k. "skissbild" som är max 1280 pixlar på längsta sidan. Dessa bilder är avsedda att användas i systemen och det är dessa som äger metadata. Skälet till detta är prestanda. Även TIFF-bilder kan hålla XMP-data men dels är de ofta jättestora och dels har de ingen specifik XMP-header, vilket gör dem onödigt långsamma i alla bildflöden, så därför ser det ut så.

Så DNG är ett format som är verkligt kraftfullt. Med ett XMP-baserat system som exv. FotoWare är det dessutom väldigt enkelt att lägga till egendefinierade XMP-metadatafält som komplement till de som ingår i XMP som standard. Denna XMP-metadatastruktur används sedan även för att automatiskt påföra metadata på inskannade historiska bilder genom att XMP-fälten matchas mot motsvarande fält som exv. ingår i en SQL-vy mot en SQL-databas. Det är fantastiskt effektivt i just en sådan hantering. DNG är mycket mer fantastiskt än folk i allmänhet har fattat tror jag och exv. Lightroom är ju idag väldig väl anpassat för att kunnat skriva tillbaka både en framkallad inbakad JPEG som fotografen vill ha den till det XMP-metadata som Lightroom själv kan generera.

Många gnäller på Adobe (inklusive jag själv ibland) men de har varit mycket viktigare i dessa sammanhang än exv. Microsoft eller IBM eller någon annan av de stora. De har skapat och upplåtit både DNG och TIFF samt PDF för dokument och på toppen av det den felande pusselbiten XMP-metadata. För det här kan man bara älska dem tycker i alla fall jag och det är en förmildrande omständighet i allt mitt negativa för Adobe.

Så DNG medger tillverkaspecifika data (det är bara att lägga till i XMP-schemat) och det medger faktiskt även användarspecifika data, även där är det bara att lägga till det i det XMP-schema man använder, vilket alltså är väldigt enkelt och effektivt med exv. FotoWare (som ju länge - ca 15 år i alla fall - använts av exv. tidningarna i Norden. Det vi behöver precis som man gjort i övriga branscher med XML-scheman är ju att man kommer överens om hur standardfälten för foto-RAW ska se ut och användas. Är det så att man hittar på egna saker så kommer dessa data att vara osynliga i andra sammanhang än de egna i värsta fall.


https://iptc.org/standards/photo-metadata/iptc-standard/

"What’s Defined by This Standard (ITPC)

The IPTC Photo Metadata Standard provides a structure for fields as well as descriptions for how fields should be used, and what information should be included.

The IPTC Photo Metadata Standard also specifies two technical formats for storing the information externally of image files:
•XMP: Developed by Adobe in 2002, and now maintained by ISO. It uses the Resource Description Framework (RDF) data model and XML as serialization syntax.
•IIM: It uses a genuine data model and binary structures to save the data.

How Photo Metadata formats are stored internally of image files are defined by non-IPTC file format standards, such as JPEG/JFIF, TIFF, PNG and more."
 

PMD

Aktiv medlem
Vilket annat filformat som helst för rådata skulle ju fungera bra i det där systemet. Visst är det en fördel att bara behöva lagra en sorts råfiler, men det är en gradskillnad och inte en artskillnad.

Filformat är tämligen ointressanta i systemsammanhang. Det är hur de hanteras av systemet som spelar roll.

Filformatet är däremot högintressant när datat ska behandlas av något program, och det är i det sammanhanget jag inte riktigt kan se hur DNG underlättar för råkonverterarna.
 

Sten-Åke Sändh

Aktiv medlem
Vilket annat filformat som helst för rådata skulle ju fungera bra i det där systemet. Visst är det en fördel att bara behöva lagra en sorts råfiler, men det är en gradskillnad och inte en artskillnad.

Filformat är tämligen ointressanta i systemsammanhang. Det är hur de hanteras av systemet som spelar roll.

Filformatet är däremot högintressant när datat ska behandlas av något program, och det är i det sammanhanget jag inte riktigt kan se hur DNG underlättar för råkonverterarna.
Nä det är ju just det det inte är eftersom en proprietär RAW-fil inte alls har de egenskaper som en DNG-fil har. Om du lagrar en DNG-fil med en inbakad JPEG som ser ut som fotografen vill att den ska se ut så är det något helt annat än bara en RAW-fil och du kan göra helt andra saker med den i ett avancerat bildflöde också. Den kan även innehålla metadata som lagts dit av både system och användare både statiskt och dynamiskt i olika flödesprocesser. Detta metadata ligger på ett väldefinierat ställe i DNG-filen och genom det så kan detta metadata aldrig tappas bort på vägen. Man kan hantera en RAW-fil ihop med en sidecar XMP transparent i ett DAM-system men så fort denna fil skickas ut ur ett DAM-system någon annanstans så skulle det metadatat vara försvunnet exv. ute på Internet. Det är ju det som är styrkan med alla XMP-kompatibla format och det är att detta metadata alltid följer med flödena oavsett om dessa är lokala eller finns på Internet utom all vidare kontroll. Så vill man som fotograf se till att ens metadata följer med bilderna så ska man välja ett XMP-kompatibelt format.

Detsamma gäller förstår dokumentformat. MS Office-format är vad jag sett inte XMP-kompatibla utan dessa är man tvingade att skapa sidecars för i DAM-hantering med XMP. Så för dokument är det PDF som är XMP-kompatibelt och det är väl ingen hemlighet att Adobe står bakom det med. Det är PDF som är arkivstandard och inte Words .doc eller .docx.

Alla som någon gång arbetat med historiska bilder förstår att beskrivande metadata till en bild kan göra all skillnad i världen. Utan beskrivande metadata - en kontext - är en bild bara en bild. Därför är det så oerhört bra att vi numera faktiskt har allt som behövs för att se till att detta kontextgivande metadata kan säkras ihop med en bilden för bildens hela digitala liv.

Det är filformatens egenskaper som ger grundförutsättningarna i dessa avseenden för vad ett system kan göra med filerna och inte tvärtom Per. Det är också därför man låter metadata i de automatiserade processerna ligga i JPEG-filer och ägas av JPEG-filer eftersom exv. TIFF är alldeles för ineffektivt både för att det formatet ger mycket större och tyngre filer att processa och flytta men också för att det formatet inte har någon definierad plats för XMP-headers. Det innebär en mindre effektiv hantering än med DNG och JPEG (längre läs- och skrivtider tider). Så filformatens egenskaper är väldigt avgörande för vilka man väljer att använda och för vilka uppgifter.

En annan egenskap med DNG som jag tror få använder är att man i samma DNG även kan välja att baka in den ursprungliga RAW-filen. För de som är extremt upptagna med att säkra bevis på en bilds äkthet kan detta bli aktuellt. Jag skulle kunna tänka mig att exv. polisen skulle kunna vara intresserade av den funktionen. På så sätt kan både RAW, DNG-representationen av RAW, en inbakad framkallad JPEG i valfri storlek som fotografen framkallat den samt det metadata man velat spara i filen lagras i en och samma fil. Vad jag vet så är det bara DNG som kan fixa detta. Så DNG är i detta avseende ett bra arkiv-format eftersom det kan hålla ihop alla dessa olika delar kring en bild i en enda fil.
 
Senast ändrad:

PMD

Aktiv medlem
Nä det är ju just det det inte är eftersom en proprietär RAW-fil inte alls har de egenskaper som en DNG-fil har. Om du lagrar en DNG-fil med en inbakad JPEG som ser ut som fotografen vill att den ska se ut så är det något helt annat än bara en RAW-fil och du kan göra helt andra saker med den i ett avancerat bildflöde också.
Det är rätt så vanligt att proprietära råfiler har inbäddade JPEG:ar.

Visst är det lämpligt att standardisera på ett format i ett sånt system som du beskrev, och DNG verkar väl bra, men det är ju inget magiskt med DNG, och som sagt så är det när rådatat ska framkallas i en råkonverterare som jag inte riktigt förstår hur DNG ger någon större fördel.
 

Sten-Åke Sändh

Aktiv medlem
Det är rätt så vanligt att proprietära råfiler har inbäddade JPEG:ar.

Visst är det lämpligt att standardisera på ett format i ett sånt system som du beskrev, och DNG verkar väl bra, men det är ju inget magiskt med DNG, och som sagt så är det när rådatat ska framkallas i en råkonverterare som jag inte riktigt förstår hur DNG ger någon större fördel.
Ja Per jag vet det men det finns inte någon möjlighet i verktyg som exv. Lightroom att styra hur dessa ska se ut. De är bara en liten hjälp att kunna se hur den oframkallade bilden "ser ut". Skillnaden är stor från med DNG där man exv. i Lightroom själv kan bestämma hur stor denna inbäddade JPEG ska se ut och denna JPEG är av ett halt annat slag eftersom den kan visa hur fotografen vill att bilden ska se ut efter efterbehandlingen. Det är en helt annan sak. Dessutom så har man som sagt möjligheten att skriva tillbaka både JPEG och metadataändringar in i DNG-filen från Lightroom. Hela grejen med RAW har ju varit att den inte ska ändras i efterhand även om vissa tillverkare idag tummar lite på detta. Men en JPEG i en RAW är just inget annat än en preview medan en JPEG i en DNG kan vara något helt annat.

Magiskt och magiskt - inget annat RAW-format kan användas på samma smarta sätt som DNG och inget annat RAW-format kan hålla både ursprunglig RAW, framkallad JPEG och både administrativ och kontextbärande metadata inbakat i samma fil. Metadatat används ju även till att styra de automatiska processerna bilderna hanteras med i de fall man har såna. Det är svårt att överskatta värdet av detta och det vet alla som försöker hålla ordning i bildarkiv där exv. ett RAW-original inte sällan ger upphov till X-antal kopior av olika kvalitet och beskärning som dessutom efter ett tags hantering ligger på x-antal olika ställen.

Det görs massor av dubbelarbete i många bildarkiv bara för att man har dålig ordning och det både kostar massor av pengar både för de som äger bilderna och deras kunder och gör även ibland att man helt enkelt inte hittar bilderna när man behöver dem. Gäller det gamla inskannade bilder, så kan det hända att man måste gå tillbaka till filmorginalet till onödiga kostnader. Det är enklare om man har "allt i ett" i en DNG-fil.
 

Sten-Åke Sändh

Aktiv medlem
Orkar inte citera och svara explicit just nu, utan bemöter själva andemenngen lite istället

Det var inte explicit XP och NetWare jag syftade på, utan konceptet med feta klienter och dedicerade servrar installerade på datorer. T.ex Windows Server 2008 installerat på rackservrar från HP...

Moln är INTE samma som outsourcad IT och att någon annan sköter om datorhallen och där hostar en liknande infrastruktur.

Konceptet med dyra märkesservrar med RAID-controllers och SAN-storage, fibre-channel, avancerade servrar med dubbla kraftaggregat, dyra ECC-minnen, ILO-processorer och klustrade servrar mm. är passé.

Järnet spelar mindre roll i framtiden . Framöver blir det mer ful-disk, enklare grejer och billigare no-name. Reundans byggs inte med RAID-teknik och avancerad hårdvara, utan allt är software defined. Denna fabric kan skalas ut beroende på behov av storage, computing osv. Redundans och tillgänglighet sköts i mjukvara så att data synkroniseras på flera platser med betydligt smartare algoritmer än i RAID och kluster, samt kopplas ihop nätverksmässigt utan att ha en massa routers och brandväggar, utan istället med SDN, software defned networking.

Den sammanlagda multi-tennant infrastrrukturen har sedan definierade gränssnitt för att exponera tjänster på olika nivåer i form av t.ex. SaaS, Software as a service, eller PaaS, Platform as a Service.

DET är moln och det har ingenting att göra med vem som tillhandahåller det. Man kan köra molnet helt inom den egna organisationen i egna datorhallar, eller köra sin tjänst hos någon extern leverantör. Det är inte att man lejer ut det som gör skillnaden, utan vilka gränssnitt som finns för att konsumera tjänsterna.


"Skulle bara vara för Microsoft att släppa ett Common Language Runtime för Linux"

.NET är död. länge leve .NET!

Gamla .Net har nått vägs ände och byggs nu om på nytt i något som heter .Net Core. Det är Open Source och finns för alla plattformar. Än så länge är det bara ett subset av stora .Net, men utvecklingen går mycket fort och det mesta av all ny programvara skrivs för .Net Core. Räkna kallt med att kommande Office görs för det.

Så att Microsoft inte skulle släppa .Net för Linux är fel. De har redan gjort det och dessutom släppt hela källkoden till det som Open Source.

Microsoft är idag ett helt annat företag än det var under Ballmers ledning. Omvärlden har inte riktigt fattat vilken dramatisk skillnad som skett. Det kommer att finnas kvar Windows för både klient och server, men inte i olika versioner som tidigare, utan en ever-green. Servrar på fysiskt järn kommer att vara begränsade till hypervisors och storage.

Det kommer att finnas klienter i form av datorer med Windows och Macar ett bra tag till, men blir nog förändrat framöver med specialiserade device för olika illämpningar. Med universal-apps kan man köra samma binärer på olika device och de ändrar utseende och funktion baserat på devicens egenskaper. Du kan t.ex köra Excel på din telefon, men när du dockr telefonen ihop med tangentbord och stor skärm så byter programmet skepnad.
Vilket OS som kärs kommer inte att vara avgörande och det kommer att köra i sina virtuella bubblor, som t.ex. med Docker och där kan den underliggande plattformen vara Linux eller Windows.

Just nu i privatkonsumentledet ser det fortfarande ut lite som både du och Martain är inne på. Det stämmer nog med hans idé om "café-folket som kör Mac", men det är långt ifrån den enda målgruppen. Apple är framgångsrikt och kommer att få betydligt mera spridning, men det blir mindre och mindre viktigt för programmen. De kommer att kunna köras på alla plattformar.


Det är såklart inte löjligt med vad som händer i IT-världen.
Det jag menade var att det inte är särskilt strikt relaterat till ett diskussionsforum om kameror och tillbehör tillverkade av Sony :)

(Om nån undrar över dessa nattsudds-inlägg så har jag varit sjuk och inte kunnat sova för att jag hostar, så jag sitter uppe i soffan istället när jag nu är pigg efter att ha sovit mest hela dagen och proppat i mig anseliga mängder Alvedon.)


/Mats
Vill ge en kommentar till detta med moln eller cloud computing. Med moln kan man mena flera saker även i IT-sammanhang och har så gjort över tid och gör än idag. Moln är ofta outsourcing men inte nödvändigt. För mig är det egentligen att förlägga sånt man gjort på klienterna ända sedan man frigjorde sig från stor- och minidatorer på datorresurser i form av olika tjänster som kan nås via Internet och en webbläsare på klienten. Men även en gammal stordator erbjuder ju tillgång till applikationer som inte ligger på klienterna så det kräver väl lite mer av precisering. Man menar inte gammal "timeslicing" i stor- och minidatorer utan lösningar där man använder mjukvara som en tjänst eller molnlagring eller båda i förening. Jag vet att det kan var mer än så med hårdvara och plattformar som tjänst men i grunden handlar det om tunna klienter.

Det jag vände mig mot är att detta molnsnack fortfarande är en massa marknadsbull som vanligt. Ta Adobe t.ex. som pratar om "Creativa Cloud". Vad är det? Ja det är i alla fall inte ett dugg av "tunna klienter". Man laddar ju fortfarande ner hela applikationer från deras site och installerar lokalt. Det enda som är moln där är ju licenskontroll och nedladdning av själva applikationerna men inte applikationerna i sig för de är ju i princip de samma och kräver installation.

Detsamma med Microsoft Office 365. Det finns i tre varianter. En lite enklare som verkligen är en molnlösning. En där man laddar ner feta versioner av de traditionella Office-programmen och en variant där man får tillgång till båda dessa varianter samt mail och lagring över moln.

Lite mindre företag har ju länge länge sålt mjukvara över Internet och både tagit betalt, hållit koll på licenser och bjudit på nedladdningstjänster. Jag tror både Microsoft och Adobe till slut fattat att det enda sättet att få bättre koll på svartkopieringen har varit att hyra ut sina produkter per månad genom ett prenumerationssystem. Hittills har det handlat mer om det och det gjorde ju exv. Altova som gör XML-verktyg för säkert 15 år sedan. Så så mycket längre har man inte kommit för det är fortfarande så att det bara är de fulla nedladdade och lokalt installerade produkterna som ger full funktionalitet. Något annat duger ofta inte för yrkesfolk som värderar produktivitet högre än ett enklare underhåll på klienterna.

Sen har ju Microsoft även Azure och det är ju deras verkliga molnlösning.

Jag hittade en ganska bra IDG-artikel ni kan läsa om ni vill uppdatera er.

http://techworld.idg.se/2.2524/1.290664/sa-fungerar-molnet
 

Photocon

Aktiv medlem
Hyfsat pris för ett A7-combo: 9.990;- för ett A7-hus med FE 28-70/3.5-5.6 OSS på Rajala. Det är ju en ganska häftig prisnedgång för en FF med normalzoom.

Låt vara att zoomen inte är i toppklass vad gäller kantskärpa i 28mm-området. Fast när jag testade den var den överlag bättre än den mycket dyrare FE 24-70/4 OSS. Därtill lättare och håller en konstant längd vid zoomning och är riktigt bra från 32mm upp till c:a 70mm på full öppning. OSS fungerade klanderfritt.

Så helt klart prisvärt combo. Vem hade trott för några år sedan att man skulle kunna få en 24 mp FF med kitzoom för under 10k?

Sedan må det vara en kamera som inte är helt modern. Men inte mycket att klanka ned på vad gäller priset i alla fall.
 

martinot

Aktiv medlem
Kamerahus rasar snabbt i pris, och speciellt mer så för spegellösa än DSLR:er.

Även om sensorer, både med DR och upplösning, räcker för de flesta, och sensorutvecklingen har saktat in betydligt (jämfört med tidigare), så är det på AF-sidan och EVF-sidan som utvecklas rätt snabbt på den spegellösa sidan.

Så att spegellösa hus extremt snabbt rasar i värde - hade inte förväntat mig något annat.

Har själv en massor av spegellösa (fler än vad jag har DSLR:er), men oftast står sig investeringen i optik lite bättre över lång tid. Även om det sakta går ner i värde där också så är det inte alls samma ras som sker på med spegellösa kamerahus.

(PS. Rajala hade 10% off på allt igår, så även ovan Sonykombo, så man kan absolut göra lite fynd om man inte har bråttom med det senaste, och dessutom kan avvakta kampanjer som denna).
 

Photocon

Aktiv medlem
Kamerahus rasar snabbt i pris, och speciellt mer så för spegellösa än DSLR:er.

Även om sensorer, både med DR och upplösning, räcker för de flesta, och sensorutvecklingen har saktat in betydligt (jämfört med tidigare), så är det på AF-sidan och EVF-sidan som utvecklas rätt snabbt på den spegellösa sidan.

Så att spegellösa hus extremt snabbt rasar i värde - hade inte förväntat mig något annat.

Har själv en massor av spegellösa (fler än vad jag har DSLR:er), men oftast står sig investeringen i optik lite bättre över lång tid. Även om det sakta går ner i värde där också så är det inte alls samma ras som sker på med spegellösa kamerahus.

(PS. Rajala hade 10% off på allt igår, så även ovan Sonykombo, så man kan absolut göra lite fynd om man inte har bråttom med det senaste, och dessutom kan avvakta kampanjer som denna).
Håller med om AF-sidan. Men det hela handlar ju om vilken typ av fotograf man är. Upplösningsmässigt och dito DR står sig "gamla" kamerahus mycket väl.

Själv har jag ju gamla Fuji X-pro 1 och X-E1 som är väldigt välfungerande efter alla FW-uppgraderingar. De har ju fallit värdemässigt (men inte bruksmässigt). Så jag håller med dig även där.

Å andra sidan har jag kommit underfund med att mina "gamla" kameror som D800 och NX1 tillsammans med FF-kompakten Sony RX1R och ovannämnda räcker mer än väl för mig vad gäller mp och DR och vad gäller D800 och NX1 även AF-mässigt. Så jag sitter lugnt och satsar på bra glas istället.
 

martinot

Aktiv medlem
Absolut! Tycker det inte finns någon hets att uppgradera hela tiden idag. Väntar man lite så kan man även göra en hel del fynd. Man måste normalt inte vara först av alla (även om jag kan förstå tekniksuget, som jag själv har ibland).

Undantaget kan vara för de som inte har någon DSLR och bara har tillgång till lite äldre spegellösa, men som behöver just bättre AF och/eller EVF.
 

PMD

Aktiv medlem
Det görs massor av dubbelarbete i många bildarkiv bara för att man har dålig ordning och det både kostar massor av pengar både för de som äger bilderna och deras kunder och gör även ibland att man helt enkelt inte hittar bilderna när man behöver dem. Gäller det gamla inskannade bilder, så kan det hända att man måste gå tillbaka till filmorginalet till onödiga kostnader. Det är enklare om man har "allt i ett" i en DNG-fil.
Men jag har fortfarande inte en aning om hur DNG underlättar för en råkonverterare.
 

Sten-Åke Sändh

Aktiv medlem
Men jag har fortfarande inte en aning om hur DNG underlättar för en råkonverterare.
Inte för råkonverteraren men för dig. Om du kör Lightroom som väl sedan version 4 åtminstone fick ett antal speciella DNG-relaterade funktioner så kan man enkelt spara och underhålla både metadata och en framkallad JPEG-preview i en enda DNG-fil istället för i minst tre olika filer om du har en vanlig RAW. Skulle något hända med din Lightroom-katalog som ju annars håller alla dina redigeringar, så finns allt detta i DNG-filen om du har som regel att spara tillbaka ändringar ner i DNG-filen.

För de som använder DAM-system finns en hel del andra vinster att göra i automatiserade bildflöden med DNG. Idag ser dock många verksamheter bilder som ett flöde som de inte avser att bevara så i de fallen så har man inga större vinster för de kanske helt enkelt bara lagrar i JPEG och skippar RAW helt och hållet.
 
ANNONS