Proffsfoto

Artiklar > Robotkamera fotograferar konst med extrem upplösning

Robotkamera fotograferar konst med extrem upplösning

Snabb, skarp och högupplöst. Med ny teknik kan Googles Art Camera snabbt fotografera konst i extrem upplösning.

Google har utvecklat ny teknik för att avbilda bland annat konstverk i mycket hög upplösning, och dessutom mycket snabbare än tidigare.

Det virtuella museet Google Cultural Institute, som innehåller digitaliserade avbildningar på en mängd kända konstverk och artefakter från hela världen, har utökat sin samling med cirka 1000 bilder av klassiska målningar. Bland dem syns Monet, Rembrandt och Van Gogh, detta enligt Googles blogg.

Fram till nu har arkivet bestått av cirkla 200 bilder som har tagits fram under fem år. Men med ny teknik går det mycket snabbare att avbilda konstverk med Googles nya robotkamera, Art Camera.



Efter att kameran har kalibrerats mot konstverket eller dokumentet, tar kameran automatiskt närbilder av en sektion åt gången. Kameran använder laser och sonar för att sätta exakt fokus. Sonaren fungerar ungefär på samma sätt som en fladdermus mäter avstånd; kameran skickar högfrekventa signaler mot verket för att få exakt avstånd.

Och snabbt går det. En tavla på en gånger en meter tar cirka en halvtimme att avbilda. Tidigare kunde det ta en eller flera dagar. Resultatet blir hundratals bilder som sätts ihop till en bild på en gigapixel.

Google har byggt 20 Art Cameras och ett flertal museum får kamerorna gratis.

Här kan du se bilder.



Publicerad 2016-05-24. Läst av 6541 personer.
Missa inte utrustningsförsäkringen som Plus-medlemmar har bättre pris på

Plusmedlemskap kostar 220 kr per år

2016-05-24 10:31   horvendile
Telecentrisk optik? Antar jag.
RobinGee 2016-05-24 15:25
Om jag förstår tekniken rätt är det inget nytt under solen när det gäller principen. Det är samma princip som när vi tar tre bilder från vänster till höger och använder en sticher för att skapa ett panorama. Vad som är nytt är att man har tagit teknologin ytterligare ett steg och använder laser och ultraljud för att dels hitta exakt rätt område för varje bild (tile), och exakt avstånd. Snabbheten och precisionen ökar dramatiskt. Sedan sammanställs alla dessa små tiles till en stor bild, liknade som när vi använder satellit bilder i program som MOBAC eller Google Earth. Det finns redan sådana system på marknaden där man placerar en vanlig kamera med ett teleobjektiv i en datorstyrd ”vagga”, sedan flyttar vaggan kameran ett steg år gången och tar ett stort antal bilder som sedan sammanställs till en enda stor mycket detaljerad och högupplöst bild. Problemet med tekniken är att alla dessa små tiles har tagits vi olika tidpunkter, om man fotar ett landskap ändrar sig ljuset, och om något rörligt passerar, som ett tåg, fungerar det inte. Med tavlor går det bra för detaljerna flyttar ju inte runt speciellt mycket. Ett exempel är detta system http://www.gigapan.com/
horvendile 2016-05-24 17:29
Telecentrisk optik är inte heller något nytt. Då slipper man eventuella problem med att tittvinkeln är olika på olika ställen i bilden; alla punkter avbildas rakt framifrån. Vet inte om det skulle vara ett praktiskt problem för sådan här användning, men skulle jag sätta ihop ett dyrt system i den här stilen skulle jag titta på telecentrisk optik. Känns som ett typfall.
RobinGee 2016-05-25 04:47
Sant, det finns två sätt att korrigera fel. Den ena är optiskt, den andra med en dator, elektroniskt. Vilken Google använder vet vi inte, kanske båda. Alla har väl erfarit att, speciellt med vidvinkelobjektiv, linjer, till exempel byggnader, som borde ha varit vågräta eller lodräta istället lutar, ”tittarvinkeln”. En annan är den så kallade ”barrel distorsion” eller ”fisheye effect”, vad som skulle ha varit räta linjer får en kurvigt utseende. Det korrigerar vi ofta med ett program som GIMP. Det finns massa olika sådana optiska fel som uppträder beroende på objektivet och kameran och hur de används. Det här är en hel vetenskap och väl värd en eller flera separat artiklar. En annan intressant sidolinje. Google kameran är ju högt specialiserad, den kan, och är avsett, att bara göra ett slags jobb, ta högupplösta bilder av konst. De många små bilderna tas med en tidsförskjutning, och det gör inget för objektet förändra sig inte. I till exempel astronomi fungerar inte det, man vill ha gigabilder av ett exakt ögonblick i tid. Då måste man använda antingen ett objektiv med massor av sensorer bakom, eller många objektiv, en för varje sensor, alltså många kameror, varje kamera riktad mot ett bestämt område inom den bildram man vill fånga. Sedan sammanställs de många bilderna till en enda, precis som med Google kameran. Våra SLR och andra kameror tar tre bilder samtidigt, RGB, medan satellitkamerorna tar tre bilder efter varandra som elektroniskt blir tre bilder för RGB. Satelliterna rör sig ganska långsamt relativt jorden, så det gör inget, men om dom fotograferar ett flygplan, som alltså rör sig snabbt, då blir det tre separata bilden, en efter den andre åtskjilda i rum, för R, G, och B. I samtliga fall, lägg till svartvitt, alltså fyra bilder totat.
A.Dent 2016-05-25 07:48
Just astronomi är det väl vanligast att ta flera bilder på både samma område och på olika områden för att slå samman efteråt. Jag har sett bilder på andromedagalaxen som är tagna under en 2-3 års period där man tagit bilder på delområden och därefter slagit samman.
RobinGee 2016-05-26 03:42
Skillnaden mellan ”Google systemet” och de andra teknologierna är att det i det första fallet är en ordentlig tidsskillnad mellan den första delen av bilden och den sista. Det fungerar fint när objektet är statiskt, som en målning eller ett landskap. I andra fall måste alla delar av bilden fångas vid exakt samma tidpunkt, till exempel en aktionsbild av idrott, eller en komet. Sedan, som med astronomi, kan man ta ett antal bilder under flera år och sätta samman dom som i en video. Även inom astronomin finns det naturligtvis statiska förlopp som kan fångas med ”Google metoden”, men det är inte alltid så. Astronomerna väljer väl den metod som bäst passar deras projekt. Den ena metoden utesluter inte den andra. En intressant artikel här, http://petapixel.com/2012/11/12/a-look-at-the-worlds-largest-digital-camera/ ”62 separate CCD sensors” och http://www.businessinsider.com/worlds-largest-camera-in-chile-2015-9?op=1
2016-05-24 15:38   Lars-Gunnar Nyqvist
Svenska Nationalmuseum är ett av flera som är med i ett första försök. Mycket bra upplösning när man zoomar in på konstverket. Bättre tom än att stå och kolla live

Äntligen! Hoppas denna möjlighet blir verklighet i stor skala
abcxyz 2016-05-24 18:39
Topp tre på min önskelista: Isabella Stewart Gardner, Metropolitan, National Gallery London. Otroliga mästerverk på dessa museum.
Abe Normal 2016-05-26 03:58
Fantastiska möjligheter för den som verkligen vill se efter, blev lite besviken på Van Gogh's första bilder (dom på Nationalmuseum?). Att kunna se Nattvakten i detalj är mäktigt och den målningen kommer man ju inte nära i verkligheten, typ bakom en glasmonter? Utvecklingen kommer bli ännu bättre med mer upplösning, bättre skärmar osv, riktigt kul.

Vore också kul att få se samtida konst, varför inte av dom stora samlarna, som tex Saatchi?
Lars-Gunnar Nyqvist 2016-05-26 16:03
Har varit på Louvre museet i Paris två gånger. Imponerande stort och imponerande mycket och det går bara inte att ta in allt på ett och samma besök. "Mona Lisa" 5 meter bort.... Nja

Tror detta kan bli mycket mycket intressant. Tänk om det på sikt skulle kunna bli möjligt att få se favoritkonstnärernas alster oavsett vart i världen de hänger.

Skulle även kunna tänka mig att betala för det
2016-05-30 10:28   polhem
Men behöver man inte en robotljusätnning som flyttas med?? Och en robot som täcker för fönstrena?

Min erfarenhet av att fota konst är att ljussättningen är ALLT. (Vilket det såklart är i all fotografreing, inget ljus - ingen bild)
Men det blir så lätt blänk, och blänk i penseldragen eller krackeleringen går nästan inte att komma från. Detta kan visa strukturen i ytan dock. Men då måste man ändå kontrollera ljuset...

Merläsning