<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 3.2 Final//EN"> <HTML> <HEAD> <META NAME="GENERATOR" CONTENT="SGML-Tools 1.0.9"> <TITLE>HOWTO: Multi Disk System Tuning: Technologie </TITLE> <LINK HREF="Multi-Disk-HOWTO-7.html" REL=next> <LINK HREF="Multi-Disk-HOWTO-5.html" REL=previous> <LINK HREF="Multi-Disk-HOWTO.html#toc6" REL=contents> </HEAD> <BODY> <A HREF="Multi-Disk-HOWTO-7.html">Avanti</A> <A HREF="Multi-Disk-HOWTO-5.html">Indietro</A> <A HREF="Multi-Disk-HOWTO.html#toc6">Indice</A> <HR> <H2><A NAME="technologies"></A> <A NAME="s6">6. Technologie </A></H2> <P> <!-- disco!tecnologie --> Al fine di decidere come ottenere il massimo dai vostri dispositivi dovete sapere quali tecnologie sono disponibili e le loro implicazioni. Come sempre ci possono essere esigenze conflittuali riguardo la velocità, l'affidabilità, l'alimentazione, la flessibilità, la facilità di utilizzo e la complessità. <P>Molte delle tecniche descritte qui sotto possono essere unite in maniere diverse per aumentare la prestazione e l'affidabilità, sebbene a scapito di ulteriore complessità. <P> <P> <H2><A NAME="RAID"></A> <A NAME="ss6.1">6.1 RAID</A> </H2> <P> <!-- disco!tecnologie!RAID --> Questo è un metodo per aumentare l'affidabilità, la velocità o entrambi utilizzando più dischi in parallelo così da diminuire il tempo di accesso ed aumentare la velocità di trasferimento. Per aumentare l'affidabilità può essere usato un sistema di controllo o di mirroring. Grossi server possono trarre vantaggio da questo setup ma potrebbe essere troppo per un utente singolo a meno che non abbiate un gran numero di dischi disponibili. Guardate altri documenti e FAQ per maggiori informazioni. <P>Si può avere RAID in Linux o mediante software (il modulo <CODE>md</CODE> nel kernel), una scheda controller compatibile Linux (PCI-to-SCSI) o un controller SCSI-to-SCSI. Controllate la documentazione per sapere per cosa possono essere utilizzati i controller. Una soluzione hardware è generalmente più veloce, e forse anche più sicura, ma costa. <P> <P> <H3><A NAME="SCSI-to-SCSI"></A> SCSI-to-SCSI</H3> <P> <!-- disco!tecnologie!RAID!SCSI-to-SCSI --> I controller SCSI-to-SCSI sono generalmente implementati come cabinet completi con dischi ed un controller che si connette al computer con un secondo bus SCSI. Questo fa sì che l'intero cabinet sembri un singolo grosso, veloce disco SCSI e non richiede nessun driver RAID particolare. Lo svantaggio è che il bus SCSI che connette il cabinet al computer diventa un collo di bottiglia. <P>Uno svantaggio significativo per la gente con grosse quantità di dischi è che c'è un limite a quante voci SCSI possono esserci nella directory <CODE>/dev</CODE>. In questi casi utilizzare lo SCSI-to-SCSI conserverà le voci. <P>Generalmente sono configurati attraverso il pannello frontale o con un terminale connesso alle loro interfacce seriali. <P> <P>Tra i produttori di questi sistemi ci sono <A HREF="http://www.cmd.com">CMD</A> e <A HREF="http://www.syred.com">Syred</A> nelle cui pagine web sono descritti diversi sistemi. <P> <P> <H3><A NAME="PCI-to-SCSI"></A> PCI-to-SCSI</H3> <P> <!-- disco!tecnologie!RAID!PCI-to-SCSI --> I controller PCI-to-SCSI sono, come suggerisce il nome, connessi al bus PCI ad alta velocità e non soffrono dello stesso collo di bottiglia come i controller SCSI-to-SCSI. Questi controller richiedono driver speciali ma potete anche capire cosa significa controllare la configurazione RAID attraverso la rete il che semplifica la gestione. <P>Attualmente solo poche famiglie di adattatori PCI-to-SCSI sono gestiti sotto Linux. <P> <DL> <P> <DT><B>DPT</B><DD><P>I più vecchi e più maturi sono una gamma di controller della <A HREF="http://www.dpt.com">DPT</A> incluse le famiglie di controller SmartCache I/III/IV e SmartRAID I/III/IV. Questi controller sono supportati dai driver EATA-DMA presenti nel kernel standard. Questa compagnia ha inoltre una <A HREF="http://www.dpt.com">home page</A> informativa che descrive i vari aspetti generali del RAID e dello SCSI oltre alle informazioni dei prodotti. <P>Maggiori informazioni dall'autore dei driver dei controller DPT (driver EATA* possono essere trovate sulla sua pagina presso <A HREF="http://www.uni-mainz.de/~neuffer/scsi">SCSI</A> e <A HREF="http://www.uni-mainz.de/~neuffer/scsi/dpt">DPT</A>. <P>Questi non sono i più veloci ma hanno una affidabilità più che provata. <P>Notate che gli strumenti di gestione per i controller DTP attualmente girano solamente sotto DOS/Win, così avrete bisogno di una piccola partizione Dos/Win per un po' di software. Ciò significa pure che dovrete lanciare il sistema con Windows per fare manutenzione del vostro sistema RAID. <P> <P> <DT><B>ICP-Vortex</B><DD><P>Una recentissima aggiunta è un set di controller della <A HREF="http://www.icp-vortex.com">ICP-Vortex</A> con la caratteristica di avere fino a 5 canali indipendenti e hardware molto veloce basati sul chip i960. Il driver per Linux è stato scritto dalla compagnia stessa il che dimostra che supportano Linux. <P>Visto che ICP-Vortex fornisce il software di manutenzione per Linux, non è necessario fare un boot verso altri sistemi operativi per il setup e la manutenzione del vostro sistema RAID. Questo vi fa risparmiare tempo. <P> <P> <DT><B>Mylex DAC-960</B><DD><P>Questo è una delle ultime uscite ed è in beta. Maggiori informazioni come anche i driver sono disponibili presso la <A HREF="http://www.dandelion.com/Linux/DAC960.html">Dandelion Digital's Linux DAC960 Page</A>. <P> <P> <DT><B>Compaq Smart-2 PCI Disk Array Controllers</B><DD><P>Un'altra entrata recentissima e attualmente in versione beta è il driver <A HREF="http://www.insync.net~frantze/cpqarray.html">Smart-2</A>. <P> </DL> <P> <P> <H3><A NAME="soft-raid"></A> Software RAID</H3> <P> <!-- disco!tecnologie!RAID!RAID Software --> Qualche sistema operativo offre software RAID su dischi comuni e controller. Il costo è basso e le prestazioni per il crudo IO su disco possono essere molto alte. <P>Visto che può richiedere molte risorse della CPU, aumenta il carico evidente quindi se la macchina è limitata nelle prestazioni della CPU piuttosto che nelle prestazioni dell'IO, sarebbe meglio per voi risolvere con un controller hardware PCI-to-RAID. <P>Il costo reale, le prestazioni e specialmente l'affidabilità del RAID software contro quello hardware sono un argomento molto controverso. L'affidabilità su sistemi Linux è stata finora molto buona. <P>L'attuale progetto del software RAID per Linux, è il sistema <CODE>md</CODE> (multiple devices) che offre molto più del RAID, quindi è descritto maggiormente più avanti. <P> <P> <P> <H3><A NAME="raid-levels"></A> Livelli di RAID</H3> <P> <!-- disco!tecnologie!RAID!Livelli di RAID --> Il RAID lo troviamo con molti livelli e sapori su cui farò una breve descrizione qui. Molto è stato scritto riguardo questo ed il lettore interesato è invitato a leggere di più sulle FAQ del RAID. <P> <UL> <LI>RAID <EM>0</EM> non è affatto ridondante ma offre la più alta velocità di trasferimento di tutti i livelli. I dati sfilano attraverso un bel numero di dischi quindi le operazioni di lettura e scrittura avvengono in parallelo attraverso tutti i dischi. D'altra parte se un singolo disco fallisce, allora tutto è perduto. Avevo parlato di backup? </LI> <LI>RAID <EM>1</EM> è il metodo più primitivo per ottenere ridondanza duplicando i dati attraverso tutti i drive. Naturalmente questo è un metodo che spreca molto ma ottenete un vantaggio che è l'accesso rapido. Il disco che accede ai dati per primo vince. I trasferimenti non sono più veloci che per dischi singoli, sebbene potreste ottenere trasferimenti di lettura maggiori utilizzando una lettura di traccia per disco. Inoltre se avete solo due dischi, questo è l'unico modo per raggiungere la ridondanza. </LI> <LI>RAID <EM>2</EM> e <EM>4</EM> non sono così comuni e non ci sono qui. </LI> <LI>RAID <EM>3</EM> utilizza un certo numeri di dischi (almeno 2) per immagazzinare i dati come nella modalità RAID 0. Esso utilizza inoltre un disco di ridondanza addizionale per archiviare la somma XOR dei dati dai dischi contenenti i dati. Dovesse fallire il disco di ridondanza, il disco può continuare ad operare come se niente fosse accaduto. Se un disco contenente i dati dovesse fallire, il sistema può determinare i dati su questo disco dall'informazione sul disco di ridondanza e sui dischi rimanenti. Qualsiasi doppio fallo porterà alla disattivazione del RAID. RAID 3 ha senso solo con almeno 2 dischi di dati (3 dischi incluso il disco di ridondanza). Teoricamente non c'è limite per il numero di dischi nell'insieme, ma la probabilità di un errore aumenta con il numero di dischi nell'insieme RAID. Generalmente il limite superiore è dai 5 ai 7 dischi in un singolo insieme RAID. Visto che RAID 3 immagazzina tutte le informazioni ridondanti su un disco dedicato e visto che questa informazione deve essere aggiornata qualora ci sia un'operazione di scrittura su qualsiasi disco di dati, la velocità generale di scrittura dell'insieme RAID 3 è limitata dalla velocità di scrittura del disco di ridondanza. Anche questo è un limite per il numero di dischi in un insieme RAID. La velocità generale di lettura di un insieme RAID 3 con tutti i dischi di dati attivati, è quella di un insieme RAID 0 con quel numero di dischi. Se l'insieme deve ricostruire i dati immagazzinati su un disco fallito da un'informazione ridondante, la prestazione sarà severamente limitata: tutti i dischi nell'insieme devono essere letti e dev'essere fatto l'XOR dai dati per calcolare le informazioni rimanenti. </LI> <LI>RAID <EM>5</EM> è come il RAID 3, ma l'informazione ridondante è sparsa su tutti i dischi dell'insieme RAID. Questo aumenta la prestazione in scrittura, perché il carico è distribuito più omogeneamente tra tutti i dsichi disponibili. </LI> </UL> <P>Ci sono anche ibridi basati su RAID 0 o 1 e un altro livello. Molte combinazioni sono possibili ma ne ho viste solamente poche. Questi sono più complessi dei livelli RAID sopra menzionati. <P>RAID <EM>0/1</EM> combina lo spandimento con la duplicazione, il che conferisce trasferimenti molto veloci insieme ad accessi veloci come anche ridondanza. Lo svantaggio è il grosso consumo di disco come anche la complessità sopra descritta. <P>RAID <EM>1/5</EM> combina la velocità e i benefici della ridondanza del RAID 5 con l'accesso veloce del RAID 1. La ridondanza è migliorata se paragonata al RAID 0/1 ma il consumo di disco è ancora importante. Implementare questo sistema vuol dire utilizzare in genere più di 6 dischi, forse anche diversi controller o canali SCSI. <P> <P> <H2><A NAME="vol-mgmnt"></A> <A NAME="ss6.2">6.2 Gestione dei Volumi</A> </H2> <P> <!-- disco!tecnologie!Gestione dei Volumi --> La gestione dei volumi è un modo per superare le costrizioni delle partizioni e dei dischi a dimensione fissa mantenendo sempre il controllo di dove le varie parti dei file risiedono. Con un sistema del genere potete aggiungere nuovi dischi al vostro sistema e aggiungere spazio da questo disco alle parti dello spazio file dove è necessario, come anche migrare i dati fuori da un disco che ha dei problemi ad altri dischi prima che avvenga un fallimento catastrofico. <P>Il sistema sviluppato da <A HREF="http://www.veritas.com">Veritas</A> è diventato lo standard di fatto per la gestione logica dei volumi. <P>La gestione dei volumi è una delle cose in cui attulamente Linux è carente. <P>Uno è il progetto del sistema a partizioni virtuali <A HREF="http://www.uiuc.edu/ph/www/roth">VPS</A> che reimplementerà molte delle funzioni di gestione trovate nel sistema AIX di IBM. Sfortunatamente questo progetto è fermo. <P>Un altro progetto è il <A HREF="http://linux.msede.com/lvm/">Logical Volume Manager</A> che è simile ad un progetto della HP. <P> <P> <H2><A NAME="ss6.3">6.3 La patch <CODE>md</CODE> per il kernel Linux</A> </H2> <P> <!-- disco!tecnologie!md --> <!-- disco!tecnologie!raid --> <!-- disco!tecnologie!striping --> <!-- disco!tecnologie!traslucenza --> Il Linux Multi Disk (md) fornisce un certo numero di caratteristiche di livelli di blocco in vari stadi di sviluppo. <P>RAID 0 (spargimento) e concatenamento sono molto solidi anche nella qualità di produzione e anche i RAID 4 e 5 sono molto maturi. <P>È inoltre possibile ammucchiare qualche livello, ad esempio fare il mirror (RAID 1) di due paia di dischi, ogni paio costruito come dischi sparsi (RAID 0), il che offre la velocità del RAID 0 con l'affidabilità del RAID 1. <P>Oltre al RAID questo sistema offre (allo stadio alfa) la gestione dei volumi a livelli di blocco e presto anche spazio file traslucido. Dal momento che questo è fatto a livello di blocco, esso può essere utilizzato in combinazione con qualsiasi file system, anche per la <CODE>fat</CODE> utilizzando Wine. <P>Pensate attentamente quali dischi combinate così potete agire su tutti i dischi in parallelo, il che vi fornisce migliori prestazioni e meno usura. Leggete di più riguardo a ciò nella documentazione che accompagna <CODE>md</CODE>. <P>Sfortunatamente la documentazione è piuttosto vecchia ed in parte fuorviante e si riferisce solamente alla versione 0.35 di <CODE>md</CODE> che usa un setup di vecchio stile. Il nuovo sistema è molto differente e presto sarà rilasciato come versione 1.0 ma è attualmente non documentato. Se voleste provarlo, dovreste seguire la mailing list <CODE>linux-raid</CODE>. <P>La documentazione sta migliorando e il <A HREF="http://ostenfeld.dk/~jakob/Software-RAID.HOWTO/">Software RAID HOWTO</A> è in lavorazione. <P> <P>Suggerimento: se non riuscite a farlo funzionare correttamente, avete dimenticato di impostare il flag <CODE>persistent-block</CODE>. La vostra documentazione migliore è attualmente il codice sorgente. <P> <P> <P> <H2><A NAME="ss6.4">6.4 Compressione</A> </H2> <P> <!-- disco!tecnologie!compressione --> <!-- disco!compressione!DouBle --> <!-- disco!compressione!Zlibc --> <!-- disco!compressione!dmsdos --> <!-- disco!compressione!e2compr --> La compressione del disco contro la compressione dei file è un dibattito caldo specialmente riguardo il rischio aggiunto di corruzione dei file. Nonostante ciò ci sono diverse opzioni disponibili per gli amministratori avventurosi. Questi intraprendono molte forme, dai moduli del kernel ed le patch alle librerie extra, ma notate che molti soffrono di diverse forme di limitazione quali essere di sola lettura. Visto che lo sviluppo va così rapidamente, sicuramente le specifiche saranno cambiate nel momento in cui leggete questo. Come sempre: controllate da soli gli aggiornamenti. Qui sono elencati solo pochi riferimenti. <P> <UL> <LI>Compressione file dalle doppie caratteristiche con alcune limitazioni.</LI> <LI>Zlibc aggiunge una decompressione in tempo reale e trasparente dei file mentre li carica.</LI> <LI>ci sono molti moduli disponibili per leggere i file compressi o le partizioni che sono native ad altri svariati sistemi operativi sebbene attualmente la maggior parte di questi è di sola lettura.</LI> <LI> <A HREF="http://bf9nt.uni-duisburg.de/mitarbeiter/gockel/software/dmsdos/">dmsdos</A> (attualmente alla versione 0.9.2.0) offre molto della compressione disponibile per il DOS e per Windows. Non è ancora completa ma il lavoro sta andando avanti e nuove caratteristiche aggiunte regolarmente.</LI> <LI><CODE>e2compr</CODE> è un pacchetto che implementa l'<CODE>ext2fs</CODE> con le capacità di compressione. È ancora in fase di test e sarà principalmente di interesse per gli hacker del kernel ma dovrebbe acquisire ben presto la stabilità necessaria per un uso più vasto. Controllate l' <A HREF="http://netspace.net.au/~reiter/e2compr.html">homepage e2compr</A> per maggiori informazioni. Ho saputo della velocità e della buona stabilità, ecco perché è menzionato qui.</LI> </UL> <P> <P> <H2><A NAME="ss6.5">6.5 ACL</A> </H2> <P> <!-- disco!tecnologie!ACL --> L'Access Control List (ACL) offre un controllo più fine sull'accesso ai file di un utente sulle basi dell'utente stesso piuttosto che il tradizionale owner, group and others, come si vede nel listato della directory (<CODE>drwxr-xr-x</CODE>). Ciò non è ancora disponibile in Linux ma ci si aspetta che lo sarà nel kernel 2.3 visto che gli agganci sono già posizionati nell'<CODE>ext2fs</CODE>. <P> <P> <H2><A NAME="ss6.6">6.6 <CODE>cachefs</CODE></A> </H2> <P> <!-- disco!tecnologie!cachefs --> Questo utilizza una parte del disco rigido per mettere in cache supporti più lenti come i CD-ROM. è disponibile per SunOS ma non ancora per Linux. <P> <P> <H2><A NAME="ss6.7">6.7 File System Traslucidi o Nascosti</A> </H2> <P> <!-- disco!tecnologie!traslucidi --> <!-- disco!tecnologie!nascosti --> Questo è un sistema copy-on-write dove le scritture finiscono su un sistema differente dalla reale origine facendolo sembrare uno spazio file ordinario. Quindi visto che lo spazio file nasconde i dati originali ed il traslucente li riscrive indietro, il buffer può essere privato per ogni utente. <P>C'è un certo numero di applicazioni: <UL> <LI>aggiornare un file system vivo su un CD-ROM, rendendolo flessibile, veloce e che risparmi anche spazio,</LI> <LI>uno scheletro dei file originale per ciascun nuovo utente, risparmiando spazio visto che i dati originali sono mantenuti in uno spazio singolo e condivisi,</LI> <LI>progetto di sviluppo parallelo prototipizzando il fatto che ogni utente possa modificare il sistema globalmente non intaccando gli altri utenti.</LI> </UL> <P>SunOS offre questa caratteristica ed è in fase di sviluppo per Linux. C'era un vecchio progetto chiamato Inheriting File Systems (<CODE>ifs</CODE>) ma questo progetto si è fermato. Un progetto attuale è parte del sistema <CODE>md</CODE> e offre traslucenza del livello di blocco così può essere applicato a qualsiasi file system. <P>La Sun ha una <A HREF="http://www.sun.ca/white-papers/tfs.html">pagina</A> informativa sul file system traslucido. <P> <P> <P> <P> <H2><A NAME="physical-track-positioning"></A> <A NAME="ss6.8">6.8 Posizionamento Fisico delle Tracce</A> </H2> <P> <!-- disco!tecnologie!posizionamento fisico delle tracce --> <!-- disco!tecnologie!posizionamento delle tracce --> Questo trucco era molto importante quando i dischi erano lenti e piccoli e qualche file system era solito considerare le caratteristiche variabili nel posizionare i file. Oltre alla velocità generale più alta, la cache integrata nei controller e nei dischi ha ridotto questo effetto. <P>Comunque c'è ancora qualcosa da guadagnare anche oggi. Da quel che sappiamo, "<I>il dominio del mondo</I>" è a portata di mano, ma per raggiungerlo "<I>velocemente</I>" dobbiamo impiegare tutti i trucchi che possiamo <A HREF="http://www.cs.indiana.edu/finger/linux.cs.helsinki.fi/linus"> </A>. <P>Per capire la strategia dobbiamo richiamare questo vecchio pezzo di conoscenza e le proprietà delle varie localizzazioni delle tracce. Questo è basato sul fatto che le velocità di trasferimento generalmente aumentano per le tracce più ci si allontana dal pignone, come anche per il fatto che è più veloce accedere verso o dalle tracce centrali che verso o dalle tracce più interne o più esterne. <P>La maggior parte delle unità utilizzano dischi che girano con velocità angolare costante ma utilizzano una densità di dati (abbastanza) costante attraverso tutte le tracce. Questo vuol dire che otterrete una più alta velocità di trasferimento sulle tracce esterne che su quelle più interne; una carateristica che è molto buona per le necessità di grosse librerie. <P>I dischi più recenti utilizzano una geometria logica di mappatura che differisce dall'attuale mappatura fisica con la quale sono mappati trasparentemente dal disco stesso. Questo fa sì che la stima delle tracce "di mezzo" sia più difficile. <P>Nella maggior parte dei casi la traccia 0 è nella traccia più esterna e questo è lo standard per molte persone. Comunque, si dovrebbe ricordare che non ci sono garanzie che sia sempre così. <P> <P> <DL> <DT><B>Le tracce più interne</B><DD><P>sono generalmente lente in trasferimento e anche il fatto di giacere alla fine della posizione di accesso ne rende lento l'accesso. <P>Sono quindi più adatte per le directory low end come DOS, root e gli spool di stampa. <P> <DT><B>Le tracce intermedie</B><DD><P>sono mediamente più veloci riguardo al trasferimento rispetto alle tracce più interne e essendo in mezzo vi si accede più velocemente. <P>Questa caratteristica è ideale per le parti che richiedono di più quali <CODE>swap</CODE>, <CODE>/tmp</CODE> e <CODE>/var/tmp</CODE>. <P> <DT><B>Le tracce esterne</B><DD><P>hanno di media caratteristiche di trasferimento più veloci ma, come le tracce interne, sono collocate alla fine dell'accesso; quindi, statisticamente, accedervi è ugualmente lento che per le tracce interne. <P>Grandi file come le librerie beneficerebbero del posizionamento in questa sede. <P> </DL> <P>Quindi la riduzione del tempo di accesso può essere raggiunta posizionando le tracce con accesso frequente in mezzo così che la distanza media di accesso e di conseguenza il tempo di accesso possa essere breve. Questo può essere fatto sia utilizzando <CODE>fdisk</CODE> o <CODE>cfdisk</CODE> per fare una partizione nelle tracce di mezzo o facendo prima un file (utilizzando <CODE>dd</CODE>) uguale alla metà della grandezza dell'intero disco prima di creare i file cui si ha accesso di frequente, dopo di che il file fittizio può essere cancellato. In entrambe i casi si assume che si inizi da un disco vuoto. <P>L'ultimo trucco è adatto per gli spool delle news dove la struttura delle directory vuote può essere posizionata nel mezzo prima di metterci i file di dati. Questo aiuta inoltre un po' la frammentazione. <P>Questo piccolo trucco può essere utilizzato sia sui dischi ordinari sia per i sistemi RAID. Nell'ultimo caso il calcolo per mettere al centro le tracce sarà differente, se possibile. Consultate l'ultimo manuale RAID. <P>La differenza di velocità sta al drive ma un 50 per cento di miglioramento è un valore comune. <P> <H3><A NAME="disk-speed-values"></A> Valori di velocità del disco</H3> <P> <!-- disco!tecnologie!valori di velocità del disco --> Lo stesso assemblaggo della testata (HDA) è spesso disponibile su un bel numero di interfacce (IDE, SCSI, ecc.) ed i parametri meccanici sono quindi paragonabili. Oggigiorno la meccanica è spesso il fattore limitante ma lo sviluppo sta migliorando le cose rapidamente. Ci sono due parametri principali, generalmente riportati in millisecondi (ms): <P> <UL> <LI>Movimento delle testine - la velocità alla quale la testina di lettura e scrittura è capace di muoversi da una traccia a quella successiva, chiamata tempo di accesso. Se fate i calcoli e integrate l'accesso prima attraverso tutte le possibili tracce di partenza e poi attraverso tutte le possibili tracce di destinazione, troverete che ciò è uguale ad un colpo (stroke) attraverso un terzo di tutte le tracce. </LI> <LI>Velocità rotazionale - che determina il tempo necessario per arrivare al settore giusto, chiamato latenza.</LI> </UL> <P>Dopo che le bobine audio hanno rimpiazzato i motori passo passo per il controllo del movimento delle testine, i miglioramenti sembrarono essersi livellati e maggiore energia è oggi impiegata (letteralmente) per migliorare la velocità rotazionale. Questo ha il beneficio secondario di aumentare anche le velocità di trasferimento. <P>Qualche valore tipico: <BLOCKQUOTE><CODE> <PRE> Tipo di Disco Tempo di acceso (ms) | Veloce Tipico Vecchio -------------------------------------------------- Traccia-a-traccia <1 2 8 Tempo medio di accesso 10 15 30 Fine-a-fine 10 30 70 </PRE> </CODE></BLOCKQUOTE> <P>Ciò dimostra che gli ultimissimi dischi, offrono solo marginalmente un miglior tempo di accesso della media dei dischi ma che i vecchi dischi basati su motori passo passo sono decisamente peggiori. <P> <BLOCKQUOTE><CODE> <PRE> Velocità di rotazione | 3600 | 4500 | 4800 | 5400 | 7200 | 10000 ------------------------------------------------------------------- Latenza (ms) | 17 | 13 | 12.5 | 11.1 | 8.3 | 6.0 </PRE> </CODE></BLOCKQUOTE> <P>Dal momento che la latenza è il tempo medio per raggiungere un settore particolare, la formula è sufficientemente semplice <BLOCKQUOTE><CODE> <PRE> latenza (ms) = 60000 / velocità (RPM) </PRE> </CODE></BLOCKQUOTE> <P>Ovviamente anche questo è un esempio della diminuzione dei compensi per gli sforzi messi nello sviluppo. Comunque, ciò che veramente importa qui è il consumo di elettricità, il calore ed il rumore. <P> <P> <H2><A NAME="ss6.9">6.9 Sovrapposizione di strati RAID</A> </H2> <P> <!-- disco!tecnologie!Sovrapposizione di strati RAID --> Uno dei vantaggi di un progetto a strati di un sistema operativo è che si ha a disposizione la flessibilità di mettere insieme i pezzi in un gran numero di modi. Ad esempio potete mettere in cache un CD-ROM con <CODE>cachefs</CODE> che è un volume suddiviso tra due dischi. Questo a turno può essere organizzato in maniera traslucente con un volume che è montato da un'altra macchina via NFS. RAID può essere raggruppato in svariati strati per offrire accesso molto veloce e trasferimento in una maniera tale che potrebbe funzionare se anche fallissero 3 dischi. Le scelte sono tante, limitate solamente dall'immaginazione e, cosa probabilmente più importante, dal denaro. <P> <P> <H2><A NAME="ss6.10">6.10 Raccomandazioni</A> </H2> <P> <!-- disco!tecnologie!raccomandazioni --> C'è un numero praticamente infinito di combinazioni disponibili ma la mia raccomandazione è di iniziare con un'installazione semplice senza alcuna aggiunta immaginosa. Capite cosa vi serve, dove è richiesta la massima prestazione, se il collo di bottiglia è il tempo di accesso o la velocità di trasferimento, e così via. Poi affrontate ogni componente a turno. Se voi potete raggruppare abbastanza liberamente, dovreste essere capaci di rimpiazzare la maggior parte dei componenti con poche difficoltà. <P>RAID è generalmente una buona idea ma assicuratevi di avere una buona padronanza della tecnologia ed un solido sistema di back up. <P> <P> <P> <HR> <A HREF="Multi-Disk-HOWTO-7.html">Avanti</A> <A HREF="Multi-Disk-HOWTO-5.html">Indietro</A> <A HREF="Multi-Disk-HOWTO.html#toc6">Indice</A> </BODY> </HTML>