Sophie

Sophie

distrib > Mandriva > 9.1 > i586 > by-pkgid > f1098342ec4a2b28475e34123ce17201 > files > 690

howto-html-it-9.1-0.5mdk.noarch.rpm

<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 3.2 Final//EN">
<HTML>
<HEAD>
 <META NAME="GENERATOR" CONTENT="SGML-Tools 1.0.9">
 <TITLE>HOWTO: Multi Disk System Tuning: Technologie </TITLE>
 <LINK HREF="Multi-Disk-HOWTO-7.html" REL=next>
 <LINK HREF="Multi-Disk-HOWTO-5.html" REL=previous>
 <LINK HREF="Multi-Disk-HOWTO.html#toc6" REL=contents>
</HEAD>
<BODY>
<A HREF="Multi-Disk-HOWTO-7.html">Avanti</A>
<A HREF="Multi-Disk-HOWTO-5.html">Indietro</A>
<A HREF="Multi-Disk-HOWTO.html#toc6">Indice</A>
<HR>
<H2><A NAME="technologies"></A> <A NAME="s6">6. Technologie </A></H2>

<P>
<!--
disco!tecnologie
-->

Al fine di decidere come ottenere il massimo dai vostri dispositivi
dovete sapere quali tecnologie sono disponibili e le loro implicazioni.
Come sempre ci possono essere esigenze conflittuali riguardo la velocit&agrave;,
l'affidabilit&agrave;, l'alimentazione, la flessibilit&agrave;, la facilit&agrave; di
utilizzo e la complessit&agrave;.
<P>Molte delle tecniche descritte qui sotto possono essere unite in maniere
diverse per aumentare la prestazione e l'affidabilit&agrave;, sebbene a scapito
di ulteriore complessit&agrave;.
<P>
<P>
<H2><A NAME="RAID"></A> <A NAME="ss6.1">6.1 RAID</A>
</H2>

<P>
<!--
disco!tecnologie!RAID
-->

Questo &egrave; un metodo per aumentare l'affidabilit&agrave;, la velocit&agrave; o
entrambi utilizzando pi&ugrave; dischi in parallelo cos&igrave; da diminuire
il tempo di accesso ed aumentare la velocit&agrave; di trasferimento.
Per aumentare l'affidabilit&agrave; pu&ograve; essere usato un sistema di
controllo o di mirroring. Grossi server possono trarre vantaggio 
da questo setup ma potrebbe essere troppo per un utente singolo a meno che
non abbiate un gran numero di dischi disponibili.
Guardate altri documenti e FAQ per maggiori informazioni.
<P>Si pu&ograve; avere RAID in Linux o mediante software (il modulo
<CODE>md</CODE> nel kernel), una scheda controller compatibile Linux
(PCI-to-SCSI)  
o un controller SCSI-to-SCSI. Controllate la documentazione per sapere
per cosa possono essere utilizzati i controller. Una soluzione hardware
&egrave; generalmente pi&ugrave; veloce, e forse anche pi&ugrave; sicura, ma costa.
<P>
<P>
<H3><A NAME="SCSI-to-SCSI"></A> SCSI-to-SCSI</H3>

<P>
<!--
disco!tecnologie!RAID!SCSI-to-SCSI
-->

I controller SCSI-to-SCSI sono generalmente implementati come
cabinet completi con dischi ed un controller che si connette al
computer con un secondo bus SCSI. Questo fa s&igrave; che l'intero cabinet
sembri un singolo grosso, veloce disco SCSI e non richiede nessun driver
RAID particolare. Lo svantaggio &egrave; che il bus SCSI che connette il cabinet
al computer diventa un collo di bottiglia.
<P>Uno svantaggio significativo per la gente con grosse quantit&agrave; di dischi
&egrave; che c'&egrave; un limite a quante voci SCSI possono esserci nella
directory <CODE>/dev</CODE>. In questi casi utilizzare lo SCSI-to-SCSI 
conserver&agrave; le voci.
<P>Generalmente sono configurati attraverso il pannello frontale o con
un terminale connesso alle loro interfacce seriali.
<P>
<P>Tra i produttori di questi sistemi ci sono
<A HREF="http://www.cmd.com">CMD</A>
e
<A HREF="http://www.syred.com">Syred</A>
nelle cui pagine web sono descritti diversi sistemi.
<P>
<P>
<H3><A NAME="PCI-to-SCSI"></A> PCI-to-SCSI</H3>

<P>
<!--
disco!tecnologie!RAID!PCI-to-SCSI
-->

I controller PCI-to-SCSI sono, come suggerisce il nome,
connessi al bus PCI ad alta velocit&agrave; e non soffrono dello stesso
collo di bottiglia come i controller SCSI-to-SCSI. Questi controller
richiedono driver speciali ma potete anche capire cosa significa
controllare la configurazione RAID attraverso la rete il che semplifica
la gestione.
<P>Attualmente solo poche famiglie di adattatori PCI-to-SCSI sono
gestiti sotto Linux.
<P>
<DL>
<P>
<DT><B>DPT</B><DD><P>I pi&ugrave; vecchi e pi&ugrave; maturi sono una gamma di controller
della 
<A HREF="http://www.dpt.com">DPT</A>
incluse le famiglie di controller SmartCache I/III/IV e 
SmartRAID I/III/IV.
Questi controller sono supportati dai driver EATA-DMA presenti
nel kernel standard. Questa compagnia ha inoltre una
<A HREF="http://www.dpt.com">home page</A>
informativa che descrive i vari aspetti generali del RAID
e dello SCSI oltre alle informazioni dei prodotti.
<P>Maggiori informazioni dall'autore dei driver dei controller DPT
(driver EATA* possono essere trovate sulla sua pagina presso
<A HREF="http://www.uni-mainz.de/~neuffer/scsi">SCSI</A>
e
<A HREF="http://www.uni-mainz.de/~neuffer/scsi/dpt">DPT</A>.
<P>Questi non sono i pi&ugrave; veloci ma hanno una affidabilit&agrave;
pi&ugrave; che provata.
<P>Notate che gli strumenti di gestione per i controller DTP attualmente
girano solamente sotto DOS/Win, cos&igrave; avrete bisogno di una piccola
partizione Dos/Win per un po' di software. Ci&ograve; significa pure che
dovrete lanciare il sistema con Windows per 
fare manutenzione del vostro sistema RAID.
<P>
<P>
<DT><B>ICP-Vortex</B><DD><P>Una recentissima aggiunta &egrave; un set di controller della
<A HREF="http://www.icp-vortex.com">ICP-Vortex</A>
con la caratteristica di avere fino a 5 canali indipendenti e
hardware molto veloce basati sul chip i960. Il driver per Linux
&egrave; stato scritto dalla compagnia stessa il che dimostra che supportano
Linux.
<P>Visto che ICP-Vortex fornisce il software di manutenzione per Linux,
non &egrave; necessario fare un boot verso altri sistemi operativi per
il setup e la manutenzione del vostro sistema RAID. Questo vi fa
risparmiare tempo.
<P>
<P>
<DT><B>Mylex DAC-960</B><DD><P>Questo &egrave; una delle ultime uscite ed &egrave; in beta.
Maggiori informazioni come anche i driver sono disponibili presso la
<A HREF="http://www.dandelion.com/Linux/DAC960.html">Dandelion Digital's Linux DAC960 Page</A>.
<P>
<P>
<DT><B>Compaq Smart-2 PCI Disk Array Controllers</B><DD><P>Un'altra entrata recentissima e attualmente in versione beta &egrave; il driver
<A HREF="http://www.insync.net~frantze/cpqarray.html">Smart-2</A>.
<P>
</DL>
<P>
<P>
<H3><A NAME="soft-raid"></A> Software RAID</H3>

<P>
<!--
disco!tecnologie!RAID!RAID Software
-->

Qualche sistema operativo offre software RAID su dischi comuni
e controller. Il costo &egrave; basso e le prestazioni per il crudo IO
su disco possono essere molto alte.
<P>Visto che pu&ograve; richiedere molte risorse della CPU, aumenta il carico
evidente quindi se la macchina &egrave; limitata nelle prestazioni 
della CPU piuttosto che nelle prestazioni dell'IO, sarebbe meglio
per voi risolvere con un controller hardware PCI-to-RAID.
<P>Il costo reale, le prestazioni e specialmente l'affidabilit&agrave; del
RAID software contro quello hardware sono un argomento molto controverso.
L'affidabilit&agrave; su sistemi Linux &egrave; stata finora molto buona.
<P>L'attuale progetto del software RAID per Linux, &egrave; il sistema <CODE>md</CODE> 
(multiple devices) che offre molto pi&ugrave; del RAID, quindi &egrave; descritto 
maggiormente pi&ugrave; avanti.
<P>
<P>
<P>
<H3><A NAME="raid-levels"></A> Livelli di RAID</H3>

<P>
<!--
disco!tecnologie!RAID!Livelli di RAID
-->

Il RAID lo troviamo con molti livelli e sapori su cui far&ograve;
una breve descrizione qui. Molto &egrave; stato scritto riguardo
questo ed il lettore interesato &egrave; invitato a leggere di pi&ugrave;
sulle FAQ del RAID.
<P>
<UL>
<LI>RAID <EM>0</EM> non &egrave; affatto ridondante ma offre la pi&ugrave; alta velocit&agrave; di trasferimento
di tutti i livelli. I dati sfilano attraverso un
bel numero di dischi quindi le operazioni di lettura e scrittura
avvengono in parallelo attraverso tutti i dischi.
D'altra parte se un singolo disco fallisce, allora tutto &egrave; perduto.
Avevo parlato di backup?
</LI>
<LI>RAID <EM>1</EM> &egrave; il metodo pi&ugrave; primitivo per ottenere
ridondanza duplicando i dati attraverso tutti i drive. Naturalmente
questo &egrave; un metodo che spreca molto ma ottenete un vantaggio che &egrave;
l'accesso rapido.
Il disco che accede ai dati per primo vince. I trasferimenti non sono
pi&ugrave; veloci che per dischi singoli, sebbene potreste ottenere 
trasferimenti di lettura maggiori utilizzando una lettura di traccia
per disco.

Inoltre se avete solo due dischi, questo &egrave; l'unico modo per raggiungere
la ridondanza.
</LI>
<LI>RAID <EM>2</EM> e <EM>4</EM> non sono cos&igrave; comuni e non ci sono qui.
</LI>
<LI>RAID <EM>3</EM> utilizza un certo numeri di dischi (almeno 2) per
immagazzinare i dati come nella modalit&agrave; RAID 0. Esso utilizza inoltre
un disco di ridondanza addizionale per archiviare la somma XOR dei
dati dai dischi contenenti i dati. Dovesse fallire il disco di ridondanza,
il disco pu&ograve; continuare ad operare come se niente fosse accaduto.
Se un disco contenente i dati dovesse fallire, il sistema pu&ograve;
determinare i dati su questo disco dall'informazione sul disco di
ridondanza e sui dischi rimanenti. Qualsiasi doppio fallo porter&agrave;
alla disattivazione del RAID.

RAID 3 ha senso solo con almeno 2 dischi di dati (3 dischi
incluso il disco di ridondanza). Teoricamente non c'&egrave; limite per il
numero di dischi nell'insieme, ma la probabilit&agrave; di un errore 
aumenta con il numero di dischi nell'insieme RAID. Generalmente
il limite superiore &egrave; dai 5 ai 7 dischi in un singolo insieme RAID.

Visto che RAID 3 immagazzina tutte le informazioni ridondanti su
un disco dedicato e visto che questa informazione deve essere aggiornata
qualora ci sia un'operazione di scrittura su qualsiasi disco di dati,
la velocit&agrave; generale di scrittura dell'insieme RAID 3 &egrave; limitata
dalla velocit&agrave; di scrittura del disco di ridondanza. Anche questo
&egrave; un limite per il numero di dischi in un insieme RAID.
La velocit&agrave; generale di lettura di un insieme RAID 3 con tutti i dischi
di dati attivati, &egrave; quella di un insieme RAID 0 con quel numero
di dischi. Se l'insieme deve ricostruire i dati immagazzinati su 
un disco fallito da un'informazione ridondante, la prestazione
sar&agrave; severamente limitata: tutti i dischi nell'insieme devono essere
letti e dev'essere fatto l'XOR dai dati per calcolare le informazioni
rimanenti. 
</LI>
<LI>RAID <EM>5</EM> &egrave; come il RAID 3, ma l'informazione ridondante 
&egrave; sparsa su tutti i dischi dell'insieme RAID. Questo aumenta la
prestazione in scrittura, perch&eacute; il carico &egrave; distribuito pi&ugrave;
omogeneamente tra tutti i dsichi disponibili.
</LI>
</UL>
<P>Ci sono anche ibridi basati su RAID 0 o 1 e un altro livello.
Molte combinazioni sono possibili ma ne ho viste solamente poche.
Questi sono pi&ugrave; complessi dei livelli RAID sopra menzionati.
<P>RAID <EM>0/1</EM> combina lo spandimento con la duplicazione, il che
conferisce trasferimenti molto veloci insieme ad accessi veloci
come anche ridondanza. Lo svantaggio &egrave; il grosso consumo di disco
come anche la complessit&agrave; sopra descritta.
<P>RAID <EM>1/5</EM> combina la velocit&agrave; e i benefici della ridondanza
del RAID 5 con l'accesso veloce del RAID 1. La ridondanza &egrave; migliorata
se paragonata al RAID 0/1 ma il consumo di disco &egrave; ancora importante.
Implementare questo sistema vuol dire utilizzare in genere pi&ugrave; di 
6 dischi, forse anche diversi controller o canali SCSI.
<P>
<P>
<H2><A NAME="vol-mgmnt"></A> <A NAME="ss6.2">6.2 Gestione dei Volumi</A>
</H2>

<P>
<!--
disco!tecnologie!Gestione dei Volumi
-->

La gestione dei volumi &egrave; un modo per superare le costrizioni delle
partizioni e dei dischi a dimensione fissa mantenendo sempre il controllo
di dove le varie parti dei file risiedono. Con un sistema del genere
potete aggiungere nuovi dischi al vostro sistema e aggiungere spazio
da questo disco alle parti dello spazio file dove &egrave; necessario, come
anche migrare i dati fuori da un disco che ha dei problemi ad altri
dischi prima che avvenga un fallimento catastrofico.
<P>Il sistema sviluppato da
<A HREF="http://www.veritas.com">Veritas</A>
&egrave; diventato lo standard di fatto per la gestione logica dei volumi.
<P>La gestione dei volumi &egrave; una delle cose in cui attulamente Linux &egrave;
carente.
<P>Uno &egrave; il progetto del sistema a partizioni virtuali
<A HREF="http://www.uiuc.edu/ph/www/roth">VPS</A>
che reimplementer&agrave; molte delle funzioni di gestione trovate nel 
sistema AIX di IBM. Sfortunatamente questo progetto &egrave; fermo.
<P>Un altro progetto &egrave; il
<A HREF="http://linux.msede.com/lvm/">Logical Volume Manager</A>
che &egrave; simile ad un progetto della HP.
<P>
<P>
<H2><A NAME="ss6.3">6.3 La patch <CODE>md</CODE> per il kernel Linux</A>
</H2>

<P>
<!--
disco!tecnologie!md
-->

<!--
disco!tecnologie!raid
-->

<!--
disco!tecnologie!striping
-->

<!--
disco!tecnologie!traslucenza
-->

Il Linux Multi Disk (md) fornisce un certo numero di caratteristiche
di livelli di blocco in vari stadi di sviluppo.
<P>RAID 0 (spargimento) e concatenamento sono molto solidi anche nella
qualit&agrave; di produzione e anche i RAID 4 e 5 sono molto maturi.
<P>&Egrave; inoltre possibile ammucchiare qualche livello, ad esempio fare
il mirror (RAID 1) di due paia di dischi, ogni paio costruito come
dischi sparsi (RAID 0), il che offre la velocit&agrave; del RAID 0 con
l'affidabilit&agrave; del RAID 1.
<P>Oltre al RAID questo sistema offre (allo stadio alfa) la gestione
dei volumi a livelli di blocco e presto anche spazio file traslucido.
Dal momento che questo &egrave; fatto a livello di blocco, esso pu&ograve; 
essere utilizzato in combinazione con qualsiasi file system, anche
per la <CODE>fat</CODE> utilizzando Wine.
<P>Pensate attentamente quali dischi combinate cos&igrave; potete agire
su tutti i dischi in parallelo, il che vi fornisce migliori prestazioni
e meno usura. Leggete di pi&ugrave; riguardo a ci&ograve; nella documentazione
che accompagna <CODE>md</CODE>.
<P>Sfortunatamente la documentazione &egrave; piuttosto vecchia ed in parte
fuorviante e si riferisce solamente alla versione 0.35 di <CODE>md</CODE> 
che usa un setup di vecchio stile. Il nuovo sistema &egrave; molto differente
e presto sar&agrave; rilasciato come versione 1.0 ma &egrave; attualmente non 
documentato. Se voleste provarlo, dovreste seguire la mailing list
<CODE>linux-raid</CODE>.
<P>La documentazione sta migliorando e il
<A HREF="http://ostenfeld.dk/~jakob/Software-RAID.HOWTO/">Software RAID HOWTO</A>
&egrave; in lavorazione.
<P>
<P>Suggerimento: se non riuscite a farlo funzionare correttamente, avete
dimenticato di impostare il flag <CODE>persistent-block</CODE>. La vostra 
documentazione migliore &egrave; attualmente il codice sorgente.
<P>
<P>
<P>
<H2><A NAME="ss6.4">6.4 Compressione</A>
</H2>

<P>
<!--
disco!tecnologie!compressione
-->

<!--
disco!compressione!DouBle
-->

<!--
disco!compressione!Zlibc
-->

<!--
disco!compressione!dmsdos
-->

<!--
disco!compressione!e2compr
-->

La compressione del disco contro la compressione dei file &egrave; un dibattito
caldo specialmente riguardo il rischio aggiunto di corruzione dei file.
Nonostante ci&ograve; ci sono diverse opzioni disponibili per gli amministratori
avventurosi. Questi intraprendono molte forme, dai moduli del kernel ed
le patch alle librerie extra, ma notate che molti soffrono di diverse
forme di limitazione quali essere di sola lettura. Visto che lo sviluppo va
cos&igrave; rapidamente, sicuramente le specifiche saranno cambiate nel momento
in cui leggete questo. Come sempre: controllate da soli gli aggiornamenti.
Qui sono elencati solo pochi riferimenti.
<P>
<UL>
<LI>Compressione file dalle doppie caratteristiche con alcune
limitazioni.</LI>
<LI>Zlibc aggiunge una decompressione in tempo reale e trasparente
dei file mentre li carica.</LI>
<LI>ci sono molti moduli disponibili per leggere i file compressi o
le partizioni che sono native ad altri svariati sistemi operativi
sebbene attualmente la maggior parte di questi &egrave; di sola lettura.</LI>
<LI>
<A HREF="http://bf9nt.uni-duisburg.de/mitarbeiter/gockel/software/dmsdos/">dmsdos</A>
(attualmente alla versione 0.9.2.0) offre molto della compressione
disponibile per il DOS e per Windows. Non &egrave; ancora completa ma il
lavoro sta andando avanti e nuove caratteristiche aggiunte regolarmente.</LI>
<LI><CODE>e2compr</CODE> &egrave; un pacchetto che implementa l'<CODE>ext2fs</CODE> 
con le capacit&agrave; di compressione. &Egrave; ancora in fase di test e sar&agrave;
principalmente di interesse per gli hacker del kernel ma dovrebbe
acquisire ben presto la stabilit&agrave; necessaria per un uso pi&ugrave; vasto.
Controllate l'
<A HREF="http://netspace.net.au/~reiter/e2compr.html">homepage e2compr</A>
per maggiori informazioni. Ho saputo della velocit&agrave; e della buona
stabilit&agrave;, ecco perch&eacute; &egrave; menzionato qui.</LI>
</UL>
<P>
<P>
<H2><A NAME="ss6.5">6.5 ACL</A>
</H2>

<P>
<!--
disco!tecnologie!ACL
-->

L'Access Control List (ACL) offre un controllo pi&ugrave; fine sull'accesso
ai file di un utente sulle basi dell'utente stesso piuttosto che 
il tradizionale owner, group and others, come si vede nel listato della
directory (<CODE>drwxr-xr-x</CODE>). Ci&ograve; non &egrave; ancora disponibile in Linux ma 
ci si aspetta che lo sar&agrave; nel kernel 2.3 visto che gli agganci
sono gi&agrave; posizionati nell'<CODE>ext2fs</CODE>.
<P>
<P>
<H2><A NAME="ss6.6">6.6 <CODE>cachefs</CODE></A>
</H2>

<P>
<!--
disco!tecnologie!cachefs
-->

Questo utilizza una parte del disco rigido per mettere in cache
supporti pi&ugrave; lenti come i CD-ROM. &egrave; disponibile per SunOS ma non
ancora per Linux.
<P>
<P>
<H2><A NAME="ss6.7">6.7 File System Traslucidi o Nascosti</A>
</H2>

<P>
<!--
disco!tecnologie!traslucidi
-->

<!--
disco!tecnologie!nascosti
-->

Questo &egrave; un sistema copy-on-write dove le scritture finiscono
su un sistema differente dalla reale origine facendolo sembrare
uno spazio file ordinario. Quindi visto che lo spazio file nasconde i dati
originali ed il traslucente li riscrive indietro, il buffer
pu&ograve; essere privato per ogni utente.
<P>C'&egrave; un certo numero di applicazioni:
<UL>
<LI>aggiornare un file system vivo su un CD-ROM, rendendolo flessibile,
veloce e che risparmi anche spazio,</LI>
<LI>uno scheletro dei file originale per ciascun nuovo utente, 
risparmiando spazio visto che i dati originali sono mantenuti in uno
spazio singolo e condivisi,</LI>
<LI>progetto di sviluppo parallelo prototipizzando il fatto che
ogni utente possa modificare il sistema globalmente non intaccando 
gli altri utenti.</LI>
</UL>
<P>SunOS offre questa caratteristica ed &egrave; in fase di sviluppo per Linux.
C'era un vecchio progetto chiamato Inheriting File Systems (<CODE>ifs</CODE>)
ma questo progetto si &egrave; fermato.
Un progetto attuale &egrave; parte del sistema <CODE>md</CODE> e offre traslucenza
del livello di blocco cos&igrave; pu&ograve; essere applicato a qualsiasi file
system.
<P>La Sun ha una 
<A HREF="http://www.sun.ca/white-papers/tfs.html">pagina</A>
informativa sul file system traslucido.
<P>
<P>
<P>
<P>
<H2><A NAME="physical-track-positioning"></A> <A NAME="ss6.8">6.8 Posizionamento Fisico delle Tracce</A>
</H2>

<P>
<!--
disco!tecnologie!posizionamento fisico delle tracce
-->

<!--
disco!tecnologie!posizionamento delle tracce
-->

Questo trucco era molto importante quando i dischi erano lenti e
piccoli e qualche file system era solito considerare le 
caratteristiche variabili nel posizionare i file. Oltre alla velocit&agrave;
generale pi&ugrave; alta, la cache integrata nei controller e nei dischi 
ha ridotto questo effetto.
<P>Comunque c'&egrave; ancora qualcosa da guadagnare anche oggi.
Da quel che sappiamo, "<I>il dominio del mondo</I>" &egrave; a portata di
mano, ma per raggiungerlo "<I>velocemente</I>" dobbiamo impiegare
tutti i trucchi che possiamo 
<A HREF="http://www.cs.indiana.edu/finger/linux.cs.helsinki.fi/linus"> </A>.
<P>Per capire la strategia dobbiamo richiamare questo vecchio pezzo
di conoscenza e le propriet&agrave; delle varie localizzazioni delle tracce.
Questo &egrave; basato sul fatto che le velocit&agrave; di trasferimento generalmente
aumentano per le tracce pi&ugrave; ci si allontana dal pignone, come anche
per il fatto che &egrave; pi&ugrave; veloce accedere verso o dalle tracce centrali
che verso o dalle tracce pi&ugrave; interne o pi&ugrave; esterne.
<P>La maggior parte delle unit&agrave; utilizzano dischi che girano con velocit&agrave;
angolare costante ma utilizzano una densit&agrave; di dati (abbastanza)
costante attraverso tutte le tracce. Questo vuol dire che otterrete
una pi&ugrave; alta velocit&agrave; di trasferimento sulle tracce esterne che
su quelle pi&ugrave; interne; una carateristica che &egrave; molto buona per
le necessit&agrave; di grosse librerie.
<P>I dischi pi&ugrave; recenti utilizzano una geometria logica di mappatura
che differisce dall'attuale mappatura fisica con la quale sono mappati
trasparentemente dal disco stesso.
Questo fa s&igrave; che la stima delle tracce "di mezzo" sia pi&ugrave; difficile.
<P>Nella maggior parte dei casi la traccia 0 &egrave; nella traccia pi&ugrave; esterna
e questo &egrave; lo standard per molte persone. Comunque, si dovrebbe ricordare
che non ci sono garanzie che sia sempre cos&igrave;.
<P>
<P>
<DL>
<DT><B>Le tracce pi&ugrave; interne</B><DD><P>sono generalmente lente in trasferimento 
e anche il fatto di giacere alla fine della posizione di accesso ne
rende lento l'accesso.
<P>Sono quindi pi&ugrave; adatte per le directory low end come DOS, root e
gli spool di stampa.
<P>
<DT><B>Le tracce intermedie</B><DD><P>sono mediamente pi&ugrave; veloci riguardo
al trasferimento rispetto alle tracce pi&ugrave; interne e essendo
in mezzo vi si accede pi&ugrave; velocemente.
<P>Questa caratteristica &egrave; ideale per le parti che richiedono di
pi&ugrave; quali <CODE>swap</CODE>, <CODE>/tmp</CODE> e <CODE>/var/tmp</CODE>.
<P>
<DT><B>Le tracce esterne</B><DD><P>hanno di media caratteristiche di trasferimento
pi&ugrave; veloci ma, come le tracce interne, sono collocate alla fine dell'accesso;
quindi, statisticamente, accedervi &egrave; ugualmente lento che per le tracce
interne.
<P>Grandi file come le librerie beneficerebbero del posizionamento
in questa sede.
<P>
</DL>
<P>Quindi la riduzione del tempo di accesso pu&ograve; essere raggiunta
posizionando le tracce con accesso frequente in mezzo cos&igrave; che
la distanza media di accesso e di conseguenza il tempo di accesso possa essere breve.
Questo pu&ograve; essere fatto sia utilizzando <CODE>fdisk</CODE> o <CODE>cfdisk</CODE> 
per fare una partizione nelle tracce di mezzo o facendo prima un file
(utilizzando <CODE>dd</CODE>) uguale alla met&agrave; della grandezza dell'intero disco
prima di creare i file cui si ha accesso di frequente, dopo di che
il file fittizio pu&ograve; essere cancellato. In entrambe i casi si assume
che si inizi da un disco vuoto.
<P>L'ultimo trucco &egrave; adatto per gli spool delle news dove la struttura
delle directory vuote pu&ograve; essere posizionata nel mezzo prima di
metterci i file di dati. Questo aiuta inoltre un po' la frammentazione.
<P>Questo piccolo trucco pu&ograve; essere utilizzato sia sui dischi ordinari
sia per i sistemi RAID. Nell'ultimo caso il calcolo per
mettere al centro le tracce sar&agrave; differente, se possibile. Consultate
l'ultimo manuale RAID.
<P>La differenza di velocit&agrave; sta al drive ma un 50 per cento di miglioramento
&egrave; un valore comune.
<P>
<H3><A NAME="disk-speed-values"></A> Valori di velocit&agrave; del disco</H3>

<P>
<!--
disco!tecnologie!valori di velocit&agrave; del disco
-->

Lo stesso assemblaggo della testata (HDA) &egrave; spesso disponibile
su un bel numero di interfacce (IDE, SCSI, ecc.) ed i parametri meccanici
sono quindi paragonabili. Oggigiorno la meccanica &egrave; spesso il fattore
limitante ma lo sviluppo sta migliorando le cose rapidamente.
Ci sono due parametri principali, generalmente riportati in millisecondi 
(ms):
<P>
<UL>
<LI>Movimento delle testine - la velocit&agrave; alla quale la testina
di lettura e scrittura &egrave; capace di muoversi da una traccia a quella
successiva, chiamata tempo di accesso.
Se fate i calcoli e integrate l'accesso prima attraverso tutte le
possibili tracce di partenza e poi attraverso tutte le 
possibili tracce di destinazione, troverete che ci&ograve; &egrave;
uguale ad un colpo (stroke) attraverso un terzo di tutte le tracce.
</LI>
<LI>Velocit&agrave; rotazionale - che determina il tempo necessario
per arrivare al settore giusto, chiamato latenza.</LI>
</UL>
<P>Dopo che le bobine audio hanno rimpiazzato i motori passo passo per
il controllo del movimento delle testine, i miglioramenti sembrarono essersi livellati
e maggiore energia &egrave; oggi impiegata (letteralmente) per migliorare la
velocit&agrave; rotazionale. Questo ha il beneficio secondario di aumentare anche
le velocit&agrave; di trasferimento.
<P>Qualche valore tipico:
<BLOCKQUOTE><CODE>
<PRE>

                      Tipo di Disco


Tempo di acceso  (ms)   | Veloce  Tipico  Vecchio
--------------------------------------------------
Traccia-a-traccia          &lt;1       2       8
Tempo medio di accesso     10      15      30
Fine-a-fine                10      30      70
</PRE>
</CODE></BLOCKQUOTE>
<P>Ci&ograve; dimostra che gli ultimissimi dischi, offrono solo marginalmente
un miglior tempo di accesso della media dei dischi ma che i vecchi 
dischi basati su motori passo passo sono decisamente peggiori.
<P>
<BLOCKQUOTE><CODE>
<PRE>

Velocit&agrave; di rotazione |  3600 | 4500 | 4800 | 5400 | 7200 | 10000           
-------------------------------------------------------------------
Latenza          (ms)   |    17 |   13 | 12.5 | 11.1 |  8.3 |   6.0
</PRE>
</CODE></BLOCKQUOTE>
<P>Dal momento che la latenza &egrave; il tempo medio per raggiungere un 
settore particolare, la formula &egrave; sufficientemente semplice
<BLOCKQUOTE><CODE>
<PRE>
latenza (ms) = 60000 / velocit&agrave; (RPM)
</PRE>
</CODE></BLOCKQUOTE>
<P>Ovviamente anche questo &egrave; un esempio della diminuzione dei compensi
per gli sforzi messi nello sviluppo. Comunque, ci&ograve; che veramente
importa qui &egrave; il consumo di elettricit&agrave;, il calore ed il rumore.
<P>
<P>
<H2><A NAME="ss6.9">6.9 Sovrapposizione di strati RAID</A>
</H2>

<P>
<!--
disco!tecnologie!Sovrapposizione di strati RAID
-->

Uno dei vantaggi di un progetto a strati di un sistema operativo
&egrave; che si ha a disposizione la flessibilit&agrave; di mettere insieme
i pezzi in un gran numero di modi.
Ad esempio potete mettere in cache un CD-ROM con <CODE>cachefs</CODE> 
che &egrave; un volume suddiviso tra due dischi. Questo a turno pu&ograve; essere
organizzato in maniera traslucente con un volume che &egrave; montato da
un'altra macchina via NFS. RAID pu&ograve; essere raggruppato in svariati strati per
offrire accesso molto veloce e trasferimento in una maniera tale che
potrebbe funzionare se anche fallissero 3 dischi.
Le scelte sono tante, limitate solamente dall'immaginazione e, 
cosa probabilmente pi&ugrave; importante, dal denaro.
<P>
<P>
<H2><A NAME="ss6.10">6.10 Raccomandazioni</A>
</H2>

<P>
<!--
disco!tecnologie!raccomandazioni
-->

C'&egrave; un numero praticamente infinito di combinazioni disponibili
ma la mia raccomandazione &egrave; di iniziare con un'installazione
semplice senza alcuna aggiunta immaginosa. Capite cosa vi serve,
dove &egrave; richiesta la massima prestazione, se il collo di bottiglia
&egrave; il tempo di accesso o la velocit&agrave; di trasferimento, e cos&igrave; via.
Poi affrontate ogni componente a turno. Se voi potete raggruppare
abbastanza liberamente, dovreste essere capaci di rimpiazzare la maggior
parte dei componenti con poche difficolt&agrave;.
<P>RAID &egrave; generalmente una buona idea ma assicuratevi di avere una buona
padronanza della tecnologia ed un solido sistema di back up.
<P>
<P>
<P>
<HR>
<A HREF="Multi-Disk-HOWTO-7.html">Avanti</A>
<A HREF="Multi-Disk-HOWTO-5.html">Indietro</A>
<A HREF="Multi-Disk-HOWTO.html#toc6">Indice</A>
</BODY>
</HTML>