Microsoft Edge, Microsoft, Browser Internet Firefox, Mozilla, estensioni OpenOffice, software libero, Writer, Impress, Calc PadFone, smartphone Matroska, multimedia Avast, antivirus, sicurezza html5, flash, giochi iPhone, iPod touch e iPad infografica, internet browsers, opera, mozilla firefox, chrome, internet explorer cloud computing, internet

venerdì 28 marzo 2014

AFbackup e' un sofisticato sistema client-server che consente a piu' workstation di sfruttare un sistema di backup centralizzato verso un apposito server.

AFbackup e' un sofisticato sistema client-server che consente a piu' workstation di sfruttare un sistema di backup centralizzato verso un apposito server.

Questo è un sistema di backup client-server che offre a diverse postazioni di lavoro un backup centralizzato in uno speciale server di backup.  

È anche facilmente possibile fare il backup di un singolo computer. Qualsiasi dispositivo streamer (normalmente sarà un dispositivo a nastro) può essere usato per scrivervi i dati.

La scrittura dei backup viene di norma fatta in maniera sequenziale: la scrittura sul nastro inizia alla fine della precedente scrittura, non importa da dove si è fatto il ripristino nel frattempo.

Screenshot




Caratteristiche:
- autenticazione client prima che questo prenda il controllo,
- restrizioni di accesso al dispositivo streamer -> sicurezza,
- compressione dei singoli file dal lato client -> affidabilità,
- flusso dei dati scritto sul nastro in frammenti -> ricerca veloce di file,
- logging della posizione del nastro per ogni file,
- utilizzo completo della capacità del nastro,
- backup totali/incrementali,
- possibilità di fare il backup di partizioni raw,
- buffering lato client e server per massimizzare il trasferimento.

Si noti: è necessario Tk se si desidera usare l'utilità grafica di configurazione invece di quella testuale. 

A volte bisogna prendere alcune decisioni che hanno la pruriginosa caratteristica di essere poco convenzionali. Un amministratore di sistemi con un po’ di esperienza alle spalle sa che è bene cercare una soluzione pratica a problemi pratici, piuttosto che addentrarsi nell’estetica del sysadmin. Certo, creare soluzioni eleganti è un piacere quanto leggere un codice raffinato e ben indentato, ma spesso i problemi sopraggiungono a spron battuto ed esigono soluzioni immediate, pratiche, efficienti, semplici.

Si, perché il principio del KISS, Keep It Simple Stupid, è un comandamento da mandare a memoria: quanto più una soluzione è complessa, tanto più è prona a inconsistenze e difficile da manutenere nel tempo.
Semplice, semplice ed efficiente.

Quando si hanno diversi clienti, macchine che viaggiano da anni e poco tempo, si deve cercare di razionalizzare, sfrondare i rami non produttivi, ridurre all’essenziale affinché tutto possa essere più facilmente gestibile.
Hai perso i dati? Ok, tira fuori un backup. Be…che?

A volte ci si accorge che qualcuno ha cancellato “per sbaglio” un file importante. E, magari, sono passati mesi prima che sia stata notata la mancanza questo file, vitale ma poco utilizzato. A volte, semplicemente, qualcuno cancella intere directory “per fare spazio”, saltando quella inutile pratica di controllare *cosa* era contenuto al suo interno. A volte, è un semplice “tirone” sulla linea elettrica a mandare tutto a quel paese, oppure un calo di tensione, in ambienti privi di continuità elettrica. In ogni caso, se non avete backuppato, sono guai vostri.
Già, perché poi scopri che il sito del cliente, fatto di quattro pagine in croce, ancora in beta non aperto al pubblico, tutto traballante, faceva 1000 iscritti al giorno, generava fantastiliardi, era di importanza capitale e ogni minuto offline costa all’azienda zilioni di talleri. Ops, ve l’avevo detto di implementare una sana politica di backup 

E non basta dire al cliente “bisogna fare dei backup”. E nemmeno fidarsi quando ci si sente rispondere “si li facciamo”. A me è capitato di vedere dei backup effettuati sulla stessa macchina “backuppata”. Al primo disastro, il sistemista di turno, con espressione vacua, si chiedeva come recuperare i dati dal disco morto del server. Mah. >Ora, l’ideale sarebbe implementare dei backup in rete, su server geograficamente dispersi, prendendo poi i supporti, portandoli altrove, rinchiudendoli in armadi ignifughi e mettendoci un Terminator di guardia. Questo giusto per evitare che le classiche “cassette” vengano danneggiate insieme al server, nel caso in cui un inconveniente di qualche tipo affliggesse l’edificio in cui server e macchine di backup si trovano insieme. Che ne so, un’alluvione, un’invasione di cavallette, rane, attivisti che vogliano liberare i server dalla schiavitù dei rack. Ovviamente, giusto per non sprecare risorse, andrebbe gestita una politica di conservazione dei dati, con backup incrementali, totali, rotazione dei supporti, insomma tutto quello che ci si sente dire ogni volta che ci vengono illustrati i vantaggi di questa sana pratica.  

Perché dovrei usare FTP per trasferire i backup?
Rsync su ssh non si autentica, dato che sul server remoto sshd non è configurato per accettare l’autenticazione tramite le chiavi. Un’alternativa potrebbe consistere nel montare lo spazio remoto come directory e quindi scriverci sopra, ma poi andrebbero implementati i controlli necessari a verificare che lo spazio remoto sia correttamente montato prima delle operazioni di scrittura. No, non c’è tempo e nemmeno ho voglia di porre delle domande ai tedeschi e attendere le risposte. I forum e i wiki forniti dall’ISP sono in tedesco e anche traducendoli online, l’operazione diventa troppo lenta.

Visto che la macchina che ospita i backup è interna alla rete del provider, i rischi che questi vengano sniffati è relativamente basso e, oltretutto, i dati non sono di eccezionale valore, quindi si potrebbe optare per una soluzione pratica e veloce, riesumando le connessioni FTP. Si, certo, il protocollo FTP fa passare qualsiasi cosa in chiaro e quindi il suo utilizzo deve essere limitato a scenari in cui il rapporto costi/benefici sia favorevole, come per esempio in presenza di dati non sensibili da backuppare, oppure di trasferimento degli stessi all’interno di una rete interna, meno soggetta a possibili intrusioni e sniff. In questo caso, i dati non sono sensibili e il backup avviene su rete interna, quindi il rapporto costi/benefici è ottimo. Quindi, non rimane che implementare una soluzione di trasferimento dei backup basata su FTP. Si, va bene, ma quale tipo di backup?

Ok, l’ideale sarebbe usare una utility di livello non troppo alto, in modo che i dati archiviati siano facilmente recuperabili. Il problema, però consiste nel loro difficile utilizzo: programmi come dd, dump o mt non sono familiari a molti sysadmin, sicuramente non ai più giovani che sono cresciuti con strumenti come
Se ti è piaciuto l'articolo , iscriviti al feed cliccando sull'immagine sottostante per tenerti sempre aggiornato sui nuovi contenuti del blog:


Nessun commento:
Scrivi commenti

Random Posts