Foundation: la virtualizzazione

Tra gli aspetti fondamentali dell’IT di oggi e dell’IT del futuro vi è, come dovrebbe essere chiaro a chiunque gestisca un reparto IT, la virtualizzazione. Questa tecnologia, applicata ai server, allo storage e alle reti, ha permesso di introdurre, tra le altre cose, quel set di caratteristiche su cui costruire servizi di Cloud Computing.

La virtualizzazione non è una tecnologia nuova, ma il suo impatto nell’IT è fondamentale. Ciò che fa la virtualizzazione è molto semplice: astrae le risorse fisiche del datacenter in modo da creare risorse logiche che, proprio perché astratte dalla loro base fisica, possono essere, da un lato, gestite in modo più efficace – spostate, copiate, raggruppate – e, dall’altro, consolidate in un numero minore di supporti fisici. Poiché non è una tecnologia nuova, è supportata da tecnologie mature, di facile acquisizione sul mercato e flessibili a tal punto da potersi adattare facilmente a qualsiasi tipo di configurazione. È inoltre una tecnologia semplice da implementare nel proprio datacenter o all’interno della rete della propria azienda e può essere utile per diverse finalità: dal consolidamento di vecchi server, alla gestione di desktop virtuali alla riduzione delle macchine per risparmiare spazio o consumare meno energia elettrica.

Sebbene sia una tecnologia semplice da implementare e possa portare diversi vantaggi a chi la utilizza, tra le piccole e medie imprese del nostro paese, e non solo, la sua adozione è ancora limitata. Ciò non solo riduce l’innovazione, ma preclude la transizione verso il paradigma di gestione dell’IT che rappresenta il modello più efficiente disponibile: il Cloud OS. Cerchiamo dunque di evidenziare i tanti vantaggi che si ottengono dall’uso della virtualizzazione con il proposito di evidenziare le migliori pratiche in questo campo e cominciare a toccare con mano i vantaggi che si ottengono con un approccio strutturato all’ottimizzazione dell’IT.

 

Riduzione dei costi

Il primo vantaggio che si ottiene introducendo nella propria infrastruttura delle tecnologie di virtualizzazione è legato alla riduzione dei costi. Con la virtualizzazione un’azienda può ridurre il numero di server fisici e andare a incidere sia sulla spesa capitale, tipicamente associata in questo caso all’acquisizione dell’hardware, sia sulla spesa operativa, spesa legata ai consumi di energia elettrica necessaria per mantenere in funzione l’infrastruttura.

 

Aumento della competitività dell’azienda

La virtualizzazione permette di aumentare la capacità computazionale di un datacenter senza incorrere in grandi investimenti. Pensiamo ad una piccola e media impresa: per erogare un servizio che ha bisogno, poniamo, di un server database, un server web, un server per l’autenticazione e gestione di identità e un server per la conservazione dei file, non ha più necessità di usare quattro differenti macchine. Con la virtualizzazione posso erogare lo stesso servizio utilizzando un’unica macchina, non solo risparmiando nei costi, ma soprattutto potendo ampliare la capacità computazionale necessaria all’erogazione del servizio senza dover incorrere in grandi costi infrastrutturali. Con la virtualizzazione una PMI può, in altre parole, raggiungere con una certa facilità la capacità IT che le consente di competere con le grandi aziende.

 

Aumento della flessibilità e dell’efficienza del datacenter

La virtualizzazione aumenta l’efficienza e la flessibilità di un datacenter. Virtualizzazione non riguarda solo i server, ma è un’astrazione di tutte le risorse che si utilizzano in un datacenter: storage, network e macchine virtuali. Considerando che, in genere, le risorse IT di un dipartimento non virtualizzato sono utilizzate per il 20 per cento delle loro potenzialità, spostando queste risorse in un ambiente virtualizzato è possibile ad aumentare il loro tasso di utilizzo e, di conseguenza, aumentare efficienza e flessibilità.

 

Consolidamento delle risorse

La virtualizzazione permette di affrontare il problema della disomogeneità delle infrastrutture IT. Non è raro trovare in aziende, sia piccole sia grandi, una gamma poco coerente di server, apparati di rete, dispositivi di archiviazione, aggiunti all’infrastruttura nel tempo adottando criteri differenti. Un’infrastruttura poco omogenea rende difficile non solo la gestione, ma anche l’adozione, per fare un esempio, di semplici procedure di backup. In questi casi la virtualizzazione permette, con piccoli investimenti e senza complesse procedure di configurazione, di consolidare le risorse, riducendo l’hardware e semplificando in generale tutto il sistema.

 

Scegliere il giusto hypervisor

La virtualizzazione rappresenta dunque le fondamenta su cui costruire un’infrastruttura IT moderna. Per questo motivo è importante, al momento di progettare l’infrastruttura, scegliere il giusto hypervisor, il componente che si occupa di abilitare le tecnologie di virtualizzazione. L’hypervisor deve essere affidabile, capace, flessibile. Ma soprattutto deve essere integrato in un ecosistema che ne permette di gestire le capacità, di monitorarne le operazioni, di automatizzarne le funzioni: al crescere della base di elementi virtualizzati, avere un hypervisor che non offre queste caratteristiche potrebbero compromettere l’intera infrastruttura.

Hyper-V integrato in Windows Server 2012 R2 rappresenta lo stato dell’arte degli hypervisor. Analizzando le sue caratteristiche è possibile farsi un’idea di come deve composto questo fondamentale componente IT. Un hypervisor deve essere in primo luogo scalabile: Hyper-V supporta cluster composti da 64 nodi in cui possono essere ospitate fino ad 8000 virtual machine; le singole virtual machine possono essere configurate per supportare fino a 64 CPU, 1 TB di Ram e 64 TB di disco. La capacità di mantenere la qualità del servizio prevista dagli utenti deve essere garantita da tecnologie di alta affidabilità in grado di azzerare o ridurre il tempo di downtime: Hyper-V supporta la mobilità a caldo delle virtual machine e dello storage attraverso la funzione di Live Migration che, nelle ultime versioni, è stata estesa attraverso la Shared Nothing Live Migration che offre la possibilità di spostare una virtual machine verso un altro host, mantenendo funzionanti i servizi, attraverso una semplice connessione di rete. Un hypervisor deve essere anche in grado di gestire con la stessa semplicità anche l’astrazione della rete. Hyper-V affronta questo problema con la network virtualization: è possibile virtualizzare lo stack di rete cosa che, tra le altre cose, rende molto più comodo spostare delle virtual machine tra datacenter diversi. Infine, un hypervisor deve poter supportare le diverse tecnologie, in termini di sistemi operativi, server, apparati di rete, dispositivi di storage, utilizzate all’interno delle aziende. Hyper-V permette di ospitare server Windows o server Linux e il supporto alle tecnologie di storage è stato ampliato grazie alla possibilità di salvare hard disk virtuali anche su cartelle condivise in rete (attraverso il protocollo SMB) senza, dunque, ricorrere a costose soluzioni di Storage Area Network (SAN).

 

Dalla virtualizzazione al Cloud OS

Come abbiamo indicato ad inizio articolo, la virtualizzazione rappresenta la base, le fondamenta di un’infrastruttura IT moderna. Il percorso di evoluzione da un datacenter tradizionale ad uno virtualizzato deve tenere conto tuttavia anche degli aspetti legati al monitoraggio e alla gestione dell’intera infrastruttura. Una volta introdotte le tecnologie di virtualizzazione è normale, ed è una tendenze certificata anche dalle maggiori società di analisi, che il numero di macchine virtuali tenderà ad aumentare esponenzialmente. A mano a mano che aumentano le macchine virtuali, i professionisti IT devono anche essere anche in grado di gestirle e monitorarle attraverso sistemi coerenti ed integrati.

In un datacenter virtualizzato, in cui l’astrazione delle risorse non è limitata ai soli server, ma coinvolge anche i dispositivi di storage o le reti, diventa quasi naturale cercare una soluzione che riesca, da un lato, a semplificare la gestione di questa infrastruttura virtualizzata, dall’altro, ad attivare funzionalità aggiuntive, come ad esempio il monitoraggio di tutte le risorse, l’automazione dei processi più ripetitivi e quotidiani, la gestione della disponibilità dei servizi. Si tratta di un processo che deve essere pianificato e gestito a medio o lungo termine, ma che se ben implementato porta non solo ad aumentare l’efficienza dell’IT, e dunque, anche la competitività dell’azienda e la capacità di adattarsi all’evoluzione del proprio modello di business, ma anche a risparmiare sui costi di acquisizione e di gestione dell’intera infrastruttura.

Oltre la virtualizzazione c’è dunque un altro passo da compiere. Applicando, al di sopra del livello di virtualizzazione, un ulteriore livello che permette di organizzare tutte le diverse risorse come se fossero un unico organismo, si scala un ulteriore gradino verso la costruzione di un IT che sappia affrontare con affidabilità i cambiamenti di cui abbiamo ampiamento parlato. Questo gradino ci porta al cuore dell’IT moderna, ci porta al Cloud OS.