Annons

Backa upp data allt mer tidskrävande. Har någon en bra lösning?

Produkter
(logga in för att koppla)

Flash Gordon

Aktiv medlem
Sedan 90-talet och några kraschade diskar har jag lärt mig att backa upp min data.
Försöker följa strategin med 3 oberoende kopior av datan. En skall ju som bekant helst lagras på annan plats. Lätt att säga men svårt att få till på ett praktiskt sätt.

Fast nu börjar jag tycka att det kräver allt mer tid och kunskap för att få detta att fungera smidigt.
Dokument och liknande är en begränsad del av problemet. Framförallt är det bilder och video som producerar de stora mängderna data varje månad.

Nu vet jag att det finns många här på fotosidan som jobbar med IT-professionellt eller har stor kunskap inom området. Så jag hoppas få lite smarta tips för att förbättra min egen lösning.

Inte världens sexigaste ämne det erkänns. Inte lika kul som att spekulera om en ny kamera från Canikon men kanske viktigare i praktiken.

Så här ser min lösning ut idag.

Mina Macar backas upp med Time Capsule. Så vad som finns på datorernas interna diskar backas upp regelbundet. Numera är detta SSD-diskar så den delmängd av datan som lagras på dessa är en bråkdel.
Ett annat problem är att all denna utrustning finns i hemmet så i händelse av brand eller stöld riskerar hela lösningen gå förlorad. Enda sättet som är realistiskt är att ha en separat USB-disk och ta kopior med jämna mellanrum. Tar lång tid och kräver en arbetsinsats varje gång.

Den stora datamängden ligger på 2 små portabla USB3 diskar som är mina arbetsdiskar för bilder, video och dokument. Dessa följer oftast med på resor mm. och jag försöker hålla dem på olika ställen. T.ex. en i det incheckade bagaget och en i handbagaget.
Disk 1 är master och disk 2 synkas regelbundet med hjälp av Chronosync även under resor. Data från minneskort lagras på båda diskarna direkt.
Vad gäller bilder så låter jag alltid LR skriva metadata till XMP filerna så det mesta finns lagrat med bilderna. Fördelen är givetvis att även om katalogfilen i LR går förlorad är framkallningar gjorda i LR och större delen av annan metadata möjlig att läsa tillbaka in i LR.

Masterdisken (Disk 1) backas sedan upp också till en NAS med 4 diskar och RAID 6 en gång veckan när jag befinner mig på hemmafronten. Data kan alltså återskapas även om 2 diskar havererar.
En ganska säker lösning så länge vi inte pratar stöld eller barn och liknande.
Backspin synken görs med hjälp av Chronosync och är schemalagd.
Sedan är tänkt att jag låter denna i sin tur replikeras till en andra NAS server som jag nu ersatt med ovanstående 4 diskars.
Problemet är med denna lösning att det över tiden gärna blir fler och fler sync-errors. Beror förmodligen främst på att filer blir upplåsta av operativt eller annat program eller på på skillnader i rättigheter mellan Macens format och Nasens.
Svårlöst och svårt att analysera vad som är orsaken. Enda lösningen jag hittas så här långt är att detta synchistoriken och låta den köra en helt ny sync från grunden. Vilket tar nästan ett dygn. Jag kan inte få upp farten över 9-10 MB/s över trådat Ethernet. Förmodligen inte nätet i sig som är flaskhalsen. Alltså 64 Mbit/s för den insatte. Förmodligen utläsning, inläsning samt Chronosync som är den trånga sektorn.
Så här borde finnas möjligheter till att förbättra arbetsflödet. Kanske genom anna programvara eller med annan hårdvara som minskar antalet errors och ökar hastigheten.
Drömmen är att få detta att fungera bättre och i princip utan att man behöver bekymra sig.
Ungefär som en krockkudde. Finns där i fall det händer men utan man behöver underhålla den.

Sedan kommer den som jag tycker svåraste delen. Att få till en back-up som man kan förvara på annan plats men ändå är smidig. Glöm molnlösningar för det har jag inte bandbredd för. Samt att lagra ett par TB på nätet kostar också en bra slant per månad.
Sedan skulle det ta mig en allt för lång tid att återställa från en back-up med mina 8 Mbit bredband som idag är det bästa jag kan få trots jag bor i Göteborg.

Att ta ut en back-up på en NAS server är inte helt lätt och är tidskrävande. Förmodligen är det bättre att igen använda Chronosync och låta den backa-upp filerna till en extern hårddisk.
Här måste man dock koma ihåg att sätta ett ett nytt sync-dokument om man skapar en ny huvudfolder på NAS-servern.


Så alla kloka gubbar och gummor. Är det någon som har ett säkert och smidigt arbetsflöde att tipsa om. Bra hårdvara eller mjukvara som underlättar.

Eller borde jag glömma den perfekta lösningen och helt enkelt leva med risken att vid den sällsynta händelsen av stöld eller brand så går datan förlorad?
Vad säger ni?
 
.....

Jag kan inte få upp farten över 9-10 MB/s över trådat Ethernet. Förmodligen inte nätet i sig som är flaskhalsen. Alltså 64 Mbit/s för den insatte.

.....

9-10 MB/s (megabyte per sekund) är, om det är hastigheten för det "faktiska nyttodatat", snarare 90-100 Mbit/s (megabit per sekund) på själva kabeln. En byte är 8 bitar, och med diverse overhead för protokoll och adresser så brukar man grovt sett räkna med faktor 10.

Är det så att någon av dina maskiner sitter på 100 Mbps Ethernet-interface? Då kan du ju aldrig få mer än 100 Mbps på kabeln. Isåfall kanske en uppgradering till gigabit skulle höja den användbara hastigheten?
 
Lösningen är 1 Gb/s dubbelriktad fiber kopplad till stadsnätet som vi ska få under året! ;-)

Till dess kör jag som vanligt mina backuper med synkade filer disk till disk med en komplett uppsättning hemma och en uppsättning diskar som jag låst in i brf:ens kassaskåp, dvs i huset i källaren, men utanför lägenheten. Försöker uppdatera dessa varje kvartal, men det glöms ofta bort tyvärr. Det värsta som kan hända är att jag tappar ett halvårs foton i händelse av brand, om det nu inte blir typ jordbävning, vilket väl inte är så troligt.
 
9-10 MB/s (megabyte per sekund) är, om det är hastigheten för det "faktiska nyttodatat", snarare 90-100 Mbit/s (megabit per sekund) på själva kabeln. En byte är 8 bitar, och med diverse overhead för protokoll och adresser så brukar man grovt sett räkna med faktor 10.

Är det så att någon av dina maskiner sitter på 100 Mbps Ethernet-interface? Då kan du ju aldrig få mer än 100 Mbps på kabeln. Isåfall kanske en uppgradering till gigabit skulle höja den användbara hastigheten?

Bra tips och jag är rädd för du har rätt. Alltid trott jag hade Gigabit hastighet men det är nog fel.
Min dator stödjer minst Gigabit trafik enligt vad jag hittar i om denna Mac. Detsamma gäller min egen router. En timecapsule som både NAS server och dator är ansluten till.
Nu har jag ADSL från BBB och deras ADSL router måste jag brygga TimeCapsule till för att få Internet att fungera smidigt och det gör också att den hanterar DHCP.
Problemet är att den routern bara klarar 100BaseTX. Så den är förmodligen flaskhalsen.
Ringde BBB och frågade om de kunde ge mig en Router som klarar 1 Gbit men det vägrar de göra om jag inte är kund till deras fiberlösningar vilket jag inte kan bli eftersom jag inte får någon att gräva för att hänga på den Gothnet fiber som finns ute i gatan.

Så frågan är om jag med någon switch kan få trafiken att gå förbi den gamla sunkiga ADSL routern som BBB anser jag skall vara nöjd med?
Förklara gärna i så fall för en erfaren amatör hur man går tillväga.
 
Sätt alla prylarna på en gigabitswitch istf direkt i routern. En kabel mellan switch och router.
 
Har man för dålig bandbredd för att köra backup antingen till en molntjänst, jobbet eller en snäll kamrat med kompatibel miljö får man väl mura in en nas i en garderob eller nåt. Själv har jag min NAS stående i ett annat hus på tomten.

Mitt flöde ser ut som följande:

  1. Importera bilderna via Lightroom till min stationära dator som har utrymme för hela mitt bildarkiv. Lightroom gör samtidigt en ytterligare kopia som lagras i en temporär katalog på min NAS.
  2. När bilderna väl ligger på datorn görs en automatisk backup av Windows File History (motsvarar Time Machine till Mac) till en extern disk ansluten med eSATA. Denna inkluderar också Lightroomkatalogen.
  3. Inom en timme efter detta sätter Crashplan i den stationära datorn igång att överföra de ändrade och nya filerna till min molnlagring (som kostar en dryg 50-lapp per månad för obegränsad datamängd). Detta via mitt 4G som inte har fantastisk hastighet, men den får tugga tills den är klar. Programmet skulle lika gärna kunna koppla sig mot en dator på jobbet som också kör Crashplan, en kompis som gör det eller ytterligare en NAS som är inmurad i väggen.
  4. När jag tycker mig vara klar med sessionen kör jag ett skript som synkar filerna på min stationära dator med min NAS med Robocopy (på Mac kan man t.ex. köra rsync vilket finns i alla moderna NAS-enheter). Detta skript tar också bort de temporära filerna som lagrades i första steget på NAS:en.
  5. Först när dessa steg är utförda formaterar jag minneskortet i kameran (eller glömmer det, men det brukar Lightroom ha koll på ändå vid nästa import så det inte blir dubbelt).

I och med detta har jag alla mina bilder, LR-kataloger och XMP-filer på två olika diskar som är direktanslutna till min stationära dator, på en NAS som inte bor i samma hus och i det berömda molnet. Jag är fullt medveten om att en återställning från det senare kan ta extremt lång tid, men den ska bara användas i värsta fall (det tog tre veckor att få dit min initiala backup).

För att hanteringen mellan dina enheter ska gå snabbt bör du köra gigabitnät mellan dem, men det har du redan fått tips om ;)

Ett tips generellt vad gäller backuper är att då och då testa att de faktiskt går att återställa och att de data du får tillbaks motsvarar dina förväntningar. Under mina år i IT-världen har jag tyvär flera gånger stött på att så inte varit fallet. Det var dock mest på den tiden när man gjorde backup till band, och då framför allt DAT som var synnerligen otillförlitligt för ändamålet.
 
Jag kör Amazon cloud everything obegränsat data mängd för 60$ per år. Blir billigare om begränsat till foto. Tog tid att ladda upp första gången 3TB, nu tugger det på i bakgrunden...
 
Så länge jag är förpassad till mitt ADSL med 8Mbit ner och 0,8 mbit upp får jag nog glömma en molnlösning. Vill inte tänka på hur lång tid det skulle ta att ladda 1,5 TB och ständigt växande datamängd med 0,8 Mbit./s. Samtidigt som det under den tiden också skulle påverka alla annan Internet i huset.
 
Kör backup av sina originaldiskar till en NAS. Koppla in en USB-disk och gör en kopia från NASen och lägg disken på ett ställe som inte brinner samtidigt som NASen, typ studio/kontor/släkting. Med två externa diskar som du byter plats på en gång i veckan/månaden kan du ha ena off-site medan du uppdaterar den andra över helgen. På det här viset behöver du inte ens ha internetanslutning. I slutänden behöver du balansera värdet på din bildsamling mot omaket i backuprutinerna.
 
Om du har en kompis som du kan ställa en NAS hos så tror jag att jag har en lösning. Det bredband är inte så uselt som du tror. Det går faktiskt trycka upp drygt 8GB per dygn. Men fotograferar du mer än så är det för klent. Man kan nog ställa backupen på schema så det inte stör ditt vanliga surfande.

Med Crashplan (onlinebackup) gratisprogram så kan man skapa en onlinebackup hos en kompis. Den första backupen gör man hemma och sedan kör man disken till kompisen och talar om för hans Crashplan att den disken är din backup. Efter det så kommer din backup skickas via nätet till din disk hos kompisen.

I ditt fall blir det mer komplicerat eftersom backupen behöver gå större delen av dygnet. Antingen måste båda ha datorer som är igång alltid eller två NAS som kan skicka och ta emot crashplan backup. Qnap har färdig Crashplan app , på Synologi går en Crashplan app installeras, båda som kan skicka backup. Om de kan ta emot en crashplan utifrån vet jag inte. Men det borde gå att ta reda på.
Alternativt sätter man en RasberryPi på den mottagande sidan och en valfri NAS.

Om man bor i USA så kan man posta en disk till Crashplan med sin första backup, känner du någon där så går ju det att lösa. Crashplan tar bara 50$ per år för obegränsad backup.

Om du kan låna någon annans snabbare bredband så kan du skicka upp din första backup därifrån och sedan fortsätta hemma.

Det kan finnas andra onlinebackup som tar emot in inskickad disk om man bor i Europa. Återställning kan också skickas på disk.
 
Om du har en kompis som du kan ställa en NAS hos så tror jag att jag har en lösning. Det bredband är inte så uselt som du tror. Det går faktiskt trycka upp drygt 8GB per dygn. Men fotograferar du mer än så är det för klent. Man kan nog ställa backupen på schema så det inte stör ditt vanliga surfande.

Med Crashplan (onlinebackup) gratisprogram så kan man skapa en onlinebackup hos en kompis. Den första backupen gör man hemma och sedan kör man disken till kompisen och talar om för hans Crashplan att den disken är din backup. Efter det så kommer din backup skickas via nätet till din disk hos kompisen.

I ditt fall blir det mer komplicerat eftersom backupen behöver gå större delen av dygnet. Antingen måste båda ha datorer som är igång alltid eller två NAS som kan skicka och ta emot crashplan backup. Qnap har färdig Crashplan app , på Synologi går en Crashplan app installeras, båda som kan skicka backup. Om de kan ta emot en crashplan utifrån vet jag inte. Men det borde gå att ta reda på.
Alternativt sätter man en RasberryPi på den mottagande sidan och en valfri NAS.

Om man bor i USA så kan man posta en disk till Crashplan med sin första backup, känner du någon där så går ju det att lösa. Crashplan tar bara 50$ per år för obegränsad backup.

Om du kan låna någon annans snabbare bredband så kan du skicka upp din första backup därifrån och sedan fortsätta hemma.

Det kan finnas andra onlinebackup som tar emot in inskickad disk om man bor i Europa. Återställning kan också skickas på disk.

Tack för tipset. Fast jag tror jag avstår. 8 Gb per dag skulle driva mig till vansinne. Det innebär att ett fullt minneskort från en kamera kräver 2-4 dagar att backa upp. Om det sedan är från min X-PRO1 där raw-filen är runt 25 Mb styck och jag oftast använder Iridient som framkallare får jag också en TiFF-fil på runt 125 MB per bild.
Så om jag tycker det går trögt nu vad skulle jag då tänka om det tar en vecka att backa upp ett enda fototillfälle som ett bröllop med ett par fulla minneskort?
 
Av alla svar var det första det bästa och viktigaste. Det fick mig att kika på vad mitt Lan verkligen presterar. Det går på 100Base TX och det är det första jag måste komma runt.
Att använda Gigabit switch fungerade inte. Troligen därför att flera enheter av utrustningen har kopplats upp med bredbandbolagets usla Zyxel som DHCP.
Det gör att den talar om för de andra prylarna att det är 100Base tX som gäller.
Så när min back-up till NASEN som nu hållit på ett dygn strax är klar skall jag starta allt från scratch med Zyxel routern frånkopplad.
Då har jag inget Internet men LANet bör fungera och förhoppningsvis med Gbit hastighet.
Sedan får jag se om jag kan få igång Zyxel och Internet utan att det sänker hastigheten.
Har kopplat TimeCapsule så den inte längre är bryggad och Internet fungerar fortfarande.
Nu får vi se om jag kan lösa resten.
 
Link speed negotiation är en funktion i länklagret och inget din routers DHCP-implementation kan ha någon inverkan på. Kolla istället dina kablar - för gigabit krävs att alla 8 kontaktstift är inkopplade medan det för 10 och 100 Mbps-bruk ibland sålts kablar som varit bra nog men bara haft två par trådar (4 totalt). Står det cat5, cat5e eller cat6 på kabeln ska du inte behöva bry dig.
 
Tack för tipset. Fast jag tror jag avstår. 8 Gb per dag skulle driva mig till vansinne. Det innebär att ett fullt minneskort från en kamera kräver 2-4 dagar att backa upp.

Eller borde jag glömma den perfekta lösningen och helt enkelt leva med risken att vid den sällsynta händelsen av stöld eller brand så går datan förlorad?

Vilket av ovanstående är värst?
Som du har det idag har du inget skydd mot brand eller stöld.
Om du har crachplan på en NAS så behöver du inte sitta och vänta på någon backup, du kommer inte se den eller märka av den.
Mitt tips om Crashplan är bara en lösning för att få ut en backup från ditt hem, inte på hela ditt backupproblem.
 
Av alla svar var det första det bästa och viktigaste. Det fick mig att kika på vad mitt Lan verkligen presterar. Det går på 100Base TX och det är det första jag måste komma runt.
Att använda Gigabit switch fungerade inte. Troligen därför att flera enheter av utrustningen har kopplats upp med bredbandbolagets usla Zyxel som DHCP.
Det gör att den talar om för de andra prylarna att det är 100Base tX som gäller.
Så när min back-up till NASEN som nu hållit på ett dygn strax är klar skall jag starta allt från scratch med Zyxel routern frånkopplad.
Då har jag inget Internet men LANet bör fungera och förhoppningsvis med Gbit hastighet.
Sedan får jag se om jag kan få igång Zyxel och Internet utan att det sänker hastigheten.
Har kopplat TimeCapsule så den inte längre är bryggad och Internet fungerar fortfarande.
Nu får vi se om jag kan lösa resten.

Nej så är det inte, enheterna ska koppla upp sig med vad de (och kabeln!) klarar, dvs det kan vara blandat 10Mb/s, 100Mb/s och 1Gb/s mot switchen.

Antar att du anslutit allt till en Gb-switch och endast har en kabel till det långsamma ADSL-modemet. Inget hindrar dig att köra ett eget ADSL-modem med inbyggd switch om du vill slippa en pryl.

Att backa upp till molnet med den farten du nämner är förstås helt omöjligt. Skulle man backa allt man har 8-10TB skulle det ta tre år. Och sen tre år till för att läsa tillbaka om blixten slagit ut allt man har hemma (vilket jag råkat ut för en gång i tidernas begynnelse).

Kopiera till hårddisk och posta eller ge till kollega/vän. Kopiera en till en månad senare och byt. Upprepa. Så gör jag trots 100Mb/s dubbelriktat.
 
Tack för de senaste svaren. Problemet med LAN-hastigheten nu löst. Visst var det en billig kabel jag förmodligen fått i en leverans av någon nätpryl.
Nu råkade jag satt just den mellan datorns thunderbolt adapter och min TimeCapsule.
Just på fel ställe. Det var den enda skräpkabeln. Nu går allt i gigabit hastighet och jag ligger på hastigheter mellan 66-70MB/s för det mesta.
Så nu går det i motorvägsfart och dessa back-upper är klart acceptabla.

Vad gäller att backa upp data till en extern disk som förvaras på annat ställe har jag bestämt mig för att använda en USB3 disk och backa upp Nasen där jag skall samla all data från olika källor.

Idag har även jag en del saker liggande i iCloud, och andra molnlösnigar.
Jag föredrar definitivt att ha en egen molnlösning i QSync och inte få mina dokument och bilder spridda på ett antal ställen hur bra de än är.

Som vi vet är att om något är gratis är det du som är kunden och information om dig lagras och säljs. Även om du betalar kan du inte vara säker på att man inte snokar i din data och säljer information.
 
Kopiera till hårddisk och posta eller ge till kollega/vän. Kopiera en till en månad senare och byt. Upprepa. Så gör jag trots 100Mb/s dubbelriktat.
Har du lagt över allt på få, större diskar? Själv kör jag många olika storlekar och det är inte så kul att byta mellan dem. Vilket backup program använder du? (Jag kör Windows).
 
Har du lagt över allt på få, större diskar? Själv kör jag många olika storlekar och det är inte så kul att byta mellan dem. Vilket backup program använder du? (Jag kör Windows).

Jag kör Mac.
Min lösning ser nu ut så här.

Intern SSD på 256 GB i MBr 15 laptopen som är min huvuddator. 2 Stycken USB3 diskar på 2 Tb styck som är speglade. Disk 1 Master och disk 2 speglas med Chronosync. Vet inte om Chronosync finns för PC.
Som synkar alla data ena vägen till disk 2 men inte raderade filer. Disk 2 innehåller med andra ord mer data med tiden.
Vid lämpliga lägen raderar jag disk 2 och startar om från scratch. Dessa diskar har det mesta av min data som jag inte har på min interna disk.
Disk 1 synkas också till min stora NAS server med 4,9 TB i kapacitet och Raid 6.

Fast all data finns inte på dessa 2 USB diskar. Jag har också en egen dropbox lösning i Qsync,. Denna ligger enbart på NAS-servern men dokumenten finns också lokalt på min SSD och synkas också mot min andra lilla MBA laptop. Dessa dokument kan jag komma åt på samma sätt som Dropbox. Jag har provat flera molnlösningar men börjar tycka det gör min datalagring svåröverskådlig. Det är iCloud, Dropbox, Microsoft m.fl. som har en del av främst mina dokument.
Skall försöka lägga alla dessa i Qsync så de finns på ett ställe.

Till sist finns i princip alla mina dokument av olika slag samlade i min stora NAS server.

Sedan har jag 2 NAS servrar över nu. En liten WD My cloud med en disk och utan Raid på 3 Tb och min gamla Qnap NAS 219 som pensionerats på grund av prestandan. Båda dessa kan jag nu använda för att backa upp NAS 1.
Så när nu det flyter på bra via mitt Lan kommer jag förmodligen spegla QNAP 1 mot den gamla QNAP 2 med 3 Tb . Då har jag samma data lagrad på 2 servrar så även om en skulle kortslutas så kan jag köra vidare.
Sedan kommer jag förmodligen synka även den lilla WD disken mot NAS 1 och lagra på annat ställe än bostaden. Den kommer inte vara långt borta så det är lätt att ta en ny kopia med jämna mellanrum.

Detta är inte den lösning jag drömde om för ett par år sedan när Apple släppte Thunderbolt. då såg jag framför mig en lösning med snabba Thunderbolt diskar med Raid som både kunde vara arbetsdiskar och tillgängliga för flera datorer.
Sedan skulle det bara krävas en extern back-up av dessa att lagra på annan plats och så var man säker.
Nu investerade jag aldrig i Thunderbolt eftersom vad som fanns att köpa alltid var väldigt dyrt jämfört med USB3 alternativ. Tur var väl det när man nu ser att Apple verkar ändra inriktning.
Skälet till att Thunderbolt var dyrt misstänker jag var att Intel skulle ha massor av royalty för Thunderbolt. Där bet de sig kanske själva i svansen.

Så min lösning är säkert inte perfekt men good enough för mina behov. En jag kan leva med.
Jag är till min läggning en som nöjer mig om jag eliminerat riskerna till 95%. De sista 5% risk kan jag lugnt leva med.
NI vet väl att 20% av Sveriges befolkning kommer under sin livstid allvarligt skadas i en trafikolycka. Ändå kör vi bil. Jag känner till den risken men kör trots det både bil och MC som har ändå högre risk.

Bedöma risker hör till jobbet som projektledare. Något vi människor ar otroligt dåliga på.

Den gamla men sanna historien om lappen som bodde i närheten av Kiruna kan säkert många.
När man sköt upp raketer från Esrange för att mäta partiklar i Norrskenet så damp den här noskonen ner i det stora område som den här lappen levde på och hade sina renar.
Det fanns ju en liten risk att han skulle kunna få den i huvudet och avlida. Så varje gång man gjorde en sådan uppskjutning skickade man in en helikopter som hämtade ut honom från området.
Några matematiker hörde detta och gjorde en sannolikhetsbedömning för risken han skulle få något i huvudet och att han skulle dö i en helikopter olycka.
De kom fram till att risken han skulle dö i en helikopterolycka var 10 000 gånger högre än han skulle avlida av att få en satellitkon i huvudet.

Med detta vill jag säga jag är beredd att ta risker och att min löning inte måste vara perfekt.
Det den måste vara är bekväm och kräva liten arbetsinsats. Annars kommer jag inte orka genomföra mina egna back-up rutiner.
Så nu har jag tack vare dialogen med er och den input jag fått hittat en lösning jag anser mig kunna leva med. Den behöver nog ytterligare finslipning men konceptet verkar fungera.
Det är säkert inte optimalt men "good enough". Det duger.

Så tack än en gång till alla er som gett mig goda råd och fått mig att hitta problemen.
 
Har du lagt över allt på få, större diskar? Själv kör jag många olika storlekar och det är inte så kul att byta mellan dem. Vilket backup program använder du? (Jag kör Windows).

Jo det går åt 3 st 3-4TB eller en 8TB som inte räcker riktigt.

Inget krångel att byta, gör en quick format och kopierar in så mycket det går med hjälp av vanlig windowskopiering till de olika diskarna.

Har en hög gamla diskar av mindre storlekar som ytterligare backup men fyller inte på något nytt där, de samlar bara damm.
 
ANNONS