In questo articolo vediamo come realizzare un cluster di macchine virtuali con un NAS (Network Attached Storage) e due server (detti nodi) che ospitano macchine VMWARE.
Questa soluzione è l’ideale per i provider e le aziende che vogliono entrare nel mondo della virtualizzazione con un sistema flessibile ed espandibile; per realizzare il cluster usiamo un server basato su FreeBSD e come nodi normali server HP senza hard disk.
Gli ingredienti per questa ricetta sono:
- una SAN che funge da disco di rete per i nodi, con due dischi da 250GB in mirroring;
- due nodi con il supporto della virtualizzazione hardware: in questa soluzione due server HP DL120G5 con 8GB di RAM, senza hdd e con il sistema VMWARE ESXi su pendrive USB interno;
- uno switch managed Gigabit Cisco Linksys 8 porte.
La SAN
La SAN che proponiamo è realizzata usando server rack modello HP con due dischi da 250GB e due schede Gigabit. Il sistema operativo è basato su FreeBSD e appositamente personalizzato per le funzioni di file server ad alte prestazioni.
Questa macchina deve svolgere le funzioni di:
- file server NAS / SAN per due o più nodi ed eventuali server standalone;
- eseguire il RAID 1 (mirroring) dei dischi per avere doppia copia dei dati;
- utilizzare due schede Gigabit per ridondanza e aumento della banda uscente per i nodi (totale 2Gbit);
- monitorare il sistema RAID e avvertire via snmp per problemi o calo di prestazioni.
E’ realizzata installando il sistema operativo, appositamente modificato, su pendrive USB e non sui dischi, in modo da garantire alta affidabilità (il disco non viene mai usato) e da eliminare problemi di installazione ( basta inserire nel server HP).
Riferimenti tecnici:
- sistema operativo Elephant OS2.1 su pendriv;
- hardware HP DL180 server rack 1 unita CPU Intel Xeon con 2 ethernet Gigabit.
I nodi VMWARE ESXi
Come unità per l’esecuzione delle macchine virtuali abbiamo scelto dei server entry level HP: i DL120G5 con 8MB di RAM e due schede di rete Gigabit.
Queste macchine hanno un processore Xeon Dual Core con 4MB di cache per core; sono compatte, economiche e sufficientemente potenti per ospitare cadauna da 4 a 12 server virtualizzati.
Le macchine sono private di harddisk, un punto debole per l’affidabilità a lungo termine, che è sostituito da un pendrive inserito sul connettore interno, su cui è installato il sistema.
Utilizzando una seconda scheda di rete possiamo dividere fisicamente quello che è il traffico rete verso la SAN per l’uso del disco, dal traffico di ‘servizio’ che le macchine virtualizzate fanno verso l’utenza.
Il sistema operativo che trasforma questo server in nodo di un cluster è il VMWARE ESXi 4. Ogni nodo svolge le funzioni di:
- server ospitante VMWARE per le macchine virtualizzate;
- testato per supportare da 4 a 12 server virtualizzati;
- i dischi e i dati dei server virtualizzati sono ospitati sulla SAN, raggiunta con una scheda di rete dedicata;
- è gestito con i tool VMWARE: VMWARE vCenter, VMWARE Infrastructure Client.
I dettagli tecnici:
- sistema operativo ESXi 4 su pendrive interno;
- hardware HP DL120G5 server rack 1 unita CPU Intel Xeon con 1 ethernet Gigabit.
Lo Switch managed
Per gestire al meglio il traffico di rete tra gli utenti e i nodi ed isolarlo dal traffico tra i nodi e la SAN è necessario utilizzare uno switch managed con il supporto delle VLAN: per questo scelto uno switch Cisco Linksys 8 porte, ovviamente Gigabit.
Questo switch, oltre al supporto delle VLAN, è in grado di fare il trunking sulle su due o più porte cosi che possiamo utilizzare le due schede di rete a 1 Gigabit uscenti dalla SAN come un unica scheda a 2 Gigabit – in modo da aumentare la velocità dei dischi virtuali dei nodi.
Grazie alla presenza di due porte di uplink dedicate questo switch può essere facilmente interfacciato a switch di dimensioni più grosse, a cui collegare le utenze.
Svolge la funzione di:
- collegare la SAN ai nodi attraverso una rete dedicata (VLAN);
- collega la seconda scheda di rete dei nodi alle utenze;
- si collega in cascata con uno o due switch di servizio per le utente;
- può essere programmato in modo da gestire il traffico.
- supporta il monitoraggio via SNMP e ha un interfaccia web per la programmazione
I dettagli tecnici:
- switch 8 porte Gigabit managed (layer 2) – 28x17x4,5cm – kit montaggio rac;
- supporto VLAN, QoS, Weighted Round Robin queuing e DiffServ;
- monitoraggio SNMP1-3, RMON1-3;
- 2x porte SFP (mini GBIC).
Configurare lo switch e i server
Per prima cosa è necessario configurare lo switch creando almeno una VLAN per la LAN interna dei nodi e SAN (VLAN1). Sulla VLAN1, che nel nostro caso occuperà 4 porte, dedichiamo due porte al trunking usando il protocollo LACP; sulla SAN configuriamo di conseguenza le schede in modo da supportare il failover e load balancing (lagg module su FreeBSD).
Impostiamo gli indirizzi IP in modo che le interfacce-SAN dei nodi e la SAN abbiamo la stessa rete: ad esempio 192.168.1.0/255.
Impostiamo poi gli indirizzi IP per interfacce pubbliche dei nodi: questi inidirizzi, da attribuire da console ai server vmware, saranno quelli per la manutenzione dei nodi.
Collegare e accendere
Colleghiamo il tutto, facendo attenzione a mettere i cavi nel posto giusto: le schede VLAN sulle porte dedicate e il resto sulle porte pubbliche.
Accendiamo la SAN e i nodi e colleghiamoci dagli IP di manutenzione ai nodi: sul VMware Infrastructure Client andiamo in Configuration->Storage->Add Storage… e inseriamo come storage Netwrok File System, poi l’indirizzo in VLAN1 della nostra SAN e la cartella di export configurata nel NFS della SAN.
A questo punto possiamo procedere a installare sui due nodi le macchine virtuali di cui abbiamo bisogno: abbiamo a disposizione un cluster VMWARE con 16GB di RAM, due CPU Xeon dual core e 250GB disco in mirroring!
Â
Â
Link utili:
- Elephant SAN https://www.gallacci.com
- VMWARE ESXi 4 https://www.vmware.com
- Server HP https://www.hp.com
Lascia un commento