Professionisti & Consulenti ICT - Italia

Il portale dei Professionisti & Consulenti ICT Italiani! Leggi tutto »

 

Category Archives: Virtualizzazione

Boot from SAN

Intendiamoci, non è l’ultima briciola tecnologica caduta da un banchetto alla NASA, è una idea che già ad inizio anni 2000 riempiva pagine sul web, ma ora è sufficientemente matura/riproducibile/accessibile/gestibile per finire anche nel piatto del più tranquillo dei CED. Stiamo parlando del Boot from SAN.

E’ la possibilità di fare il boot (Solaris, Windows 2003/2008, Hyper-V, Linux vari e, ovviamente, VMware ESX) non più da dischi locali, inseriti nel server, bensì da volumi (LUN) nella storage area network.

In una Storage Area Network -FC o iSCSI- correttamente ridondata, l’affidabilità e la velocità saranno al servizio anche del boot e dell’installazione del sistema operativo.

Velocità ed affidabilità sono solo il primo elemento positivo di una soluzione boot from SAN.

Non serve più avere dischi locali negli host.

Cluster VMWARE

dl120g5

In questo articolo vediamo come realizzare un cluster di macchine virtuali con un NAS (Network Attached Storage) e due server (detti nodi) che ospitano macchine VMWARE.

Questa soluzione è l’ideale per i provider e le aziende che vogliono entrare nel mondo della virtualizzazione con un sistema flessibile ed espandibile; per realizzare il cluster usiamo un server basato su FreeBSD e come nodi normali server HP senza hard disk.

Gli ingredienti per questa ricetta sono:

  • una SAN che funge da disco di rete per i nodi, con due dischi da 250GB in mirroring;
  • due nodi con il supporto della virtualizzazione hardware: in questa soluzione due server HP DL120G5 con 8GB di RAM, senza hdd e con il sistema VMWARE ESXi su pendrive USB interno;
  • uno switch managed Gigabit Cisco Linksys 8 porte.

La SAN

La SAN che proponiamo è realizzata usando server rack modello HP con due dischi da 250GB e due schede Gigabit. Il sistema operativo è basato su FreeBSD e appositamente personalizzato per le funzioni di file server ad alte prestazioni.

Questa macchina deve svolgere le funzioni di:

  • file server  NAS / SAN per due o più nodi ed eventuali server standalone;
  • eseguire il RAID 1 (mirroring) dei dischi per avere doppia copia dei dati;
  • utilizzare due schede Gigabit per ridondanza e aumento della banda uscente per i nodi (totale 2Gbit);
  • monitorare il sistema RAID e avvertire via snmp per problemi o calo di prestazioni.

E’ realizzata installando il sistema operativo, appositamente modificato, su pendrive USB e non sui dischi, in modo da garantire alta affidabilità (il disco non viene mai usato) e da eliminare problemi di installazione ( basta inserire nel server HP).

Riferimenti tecnici:

  • sistema operativo Elephant OS2.1 su pendriv;
  • hardware HP DL180 server rack 1 unita CPU Intel Xeon con 2 ethernet Gigabit.

I nodi VMWARE ESXi

Come unità per l’esecuzione delle macchine virtuali abbiamo scelto dei server entry level HP: i DL120G5 con 8MB di RAM e due schede di rete Gigabit.

dl120g5Queste macchine hanno un processore Xeon Dual Core con 4MB di cache per core; sono compatte, economiche e sufficientemente potenti per ospitare cadauna da 4 a 12 server virtualizzati.

Le macchine sono private di harddisk, un punto debole per l’affidabilità a lungo termine, che è sostituito da un pendrive inserito sul connettore interno, su cui è installato il sistema.

Utilizzando una seconda scheda di rete possiamo dividere fisicamente quello che è il traffico rete verso la SAN per l’uso del disco, dal traffico di ‘servizio’ che le macchine virtualizzate fanno verso l’utenza.

Il sistema operativo che trasforma questo server in nodo di un cluster è il VMWARE ESXi 4. Ogni nodo svolge le funzioni di:

  • server ospitante VMWARE per le macchine virtualizzate;
  • testato per supportare da 4 a 12 server virtualizzati;
  • i dischi e i dati dei server virtualizzati sono ospitati sulla SAN, raggiunta con una scheda di rete dedicata;
  • è gestito con i tool VMWARE: VMWARE vCenter, VMWARE Infrastructure Client.

I dettagli tecnici:

  • sistema operativo ESXi 4 su pendrive interno;
  • hardware HP DL120G5 server rack 1 unita CPU Intel Xeon con 1 ethernet Gigabit.

Lo Switch managed

Per gestire al meglio il traffico di rete tra gli utenti e i nodi ed isolarlo dal traffico tra i nodi e la SAN è necessario utilizzare uno switch managed con il supporto delle VLAN: per questo scelto uno switch Cisco Linksys 8 porte, ovviamente Gigabit.srw2008eu

Questo switch, oltre al supporto delle VLAN, è in grado di fare il trunking sulle su due o più porte cosi che possiamo utilizzare le due schede di rete a 1 Gigabit uscenti dalla SAN come un unica scheda a 2 Gigabit – in modo da aumentare la velocità dei dischi virtuali dei nodi.

Grazie alla presenza di due porte di uplink dedicate questo switch può essere facilmente interfacciato a switch di dimensioni più grosse, a cui collegare le utenze.

Svolge la funzione di:

  • collegare la SAN ai nodi attraverso una rete dedicata (VLAN);
  • collega la seconda scheda di rete dei nodi alle utenze;
  • si collega in cascata con uno o due switch di servizio per le utente;
  • può essere programmato in modo da gestire il traffico.
  • supporta il monitoraggio via SNMP e ha un interfaccia web per la programmazione

I dettagli tecnici:

  • switch 8 porte Gigabit managed (layer 2) – 28x17x4,5cm – kit montaggio rac;
  • supporto VLAN, QoS, Weighted Round Robin queuing e DiffServ;
  • monitoraggio SNMP1-3, RMON1-3;
  • 2x porte SFP (mini GBIC).

Configurare lo switch e i server

struttura_tipo_SANPer prima cosa è necessario configurare lo switch creando almeno una VLAN per la LAN interna dei nodi e SAN (VLAN1). Sulla VLAN1, che nel nostro caso occuperà 4 porte, dedichiamo due porte al trunking usando il protocollo LACP; sulla SAN configuriamo di conseguenza le schede in modo da supportare il failover e load balancing (lagg module su FreeBSD).

Impostiamo gli indirizzi IP in modo che le interfacce-SAN dei nodi e la SAN abbiamo la stessa rete: ad esempio 192.168.1.0/255.

Impostiamo poi gli indirizzi IP per interfacce pubbliche dei nodi: questi inidirizzi, da attribuire da console ai server vmware, saranno quelli per la manutenzione dei nodi.

Collegare e accendere

Colleghiamo il tutto, facendo attenzione a mettere i cavi nel posto giusto: le schede VLAN sulle porte dedicate e il resto sulle porte pubbliche.

Accendiamo la SAN e i nodi e colleghiamoci dagli IP di manutenzione ai nodi: sul VMware Infrastructure Client andiamo in Configuration->Storage->Add Storage… e inseriamo come storage Netwrok File System, poi l’indirizzo in VLAN1 della nostra SAN e la cartella di export configurata nel NFS della SAN.

A questo punto possiamo procedere a installare sui due nodi le macchine virtuali di cui abbiamo bisogno: abbiamo a disposizione un cluster VMWARE con 16GB di RAM, due CPU Xeon dual core e 250GB disco in mirroring!

 

vmwareclient-shot

 

Link utili:

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fonire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o clicchi su "Accetta" permetti al loro utilizzo.

Chiudi