Efter en plåtning drar jag in alla bilder på en intern disk som är speglad (inte raid, utan den speglas med schemalagd carbon copy-filkopiering varje natt. Mjukvaruraid körde jag tidigare, men det strulade rejält en gång, så aldrig mer för min del) och detta i en datum_projekt-baserad filstruktur.
På denna interna arbetsdisk ligger även Projekt-mappar där bilderna jag arbetar på/är klar med hamnar.
När ett projekt är klart och levererat flyttar jag råfilerna och projektmappen till en extern disk. När denna externa disk är full scannar jag hela disken med programmet FileFinder som gör små (1024)-tumnaglar på ALLA filer på hela hårddisken och sparar det i en speglad filstruktur på den interna disken. Där har jag alltså mini-kopior på alla mina externa diskar och det tar nästan ingen plats alls. Behöver jag någon gång komma åt en högupplöst fil/råfil så avslöjar sökvägen till tumnageln exakt vilken hårddisk samt sökväg det är till orginalet.
Sen lägger jag dessa externa diskar i en bokhylla och låter dem ligga. Där har jag nu nånstans runt 8 terrabytes med bilder, och samtidigt ett par gigabytes i en speglad struktur (om än i enbart 1024-jpeggar) lokalt.
Detta har funkat bra för mig länge, och jag har hårdkört de flesta bilddatabasprogrammen för att hitta en bättre lösning, men än så länge har jag inte hittat något mer öppet och smidigt (fast just nu är jag inne i en ny Aperture 2.1-period som i princip gör exakt likadant förutom att jag inte kommer åt de små jpeggarna manuellt).
Den felande länken i mitt arbetsflöde är att hårddiskarna på hyllan inte är backuppade, utan bara ett arkiv. Går en hårddisk sönder (vilket de ju gör) så är de högupplösta borta. Men jag har inte råd att dubblera mitt arkiv.