Storia della virtualizzazione

La tecnologia di virtualizzazione venne sviluppata inizialmente negli anni ’60 per partizionare l’hardware dei mainframe di grandi dimensioni e ottimizzarne l’utilizzo. Gli attuali computer basati sull’architettura x86 ripropongono gli stessi problemi di rigidità e sottoutilizzo che caratterizzavano i mainframe negli anni ’60. Per risolvere le innumerevoli problematiche associate alla piattaforma x86, tra cui il sottoutilizzo, negli anni ’90 VMware ha inventato la virtualizzazione, consentendo il superamento di numerosi ostacoli. VMware è oggi il leader globale nel settore della virtualizzazione dei sistemi x86, con oltre 480.000 clienti, tra cui il 100% delle aziende della classifica Fortune 100.

 

I primi passi: la virtualizzazione dei mainframe

La virtualizzazione venne implementata per la prima volta da IBM oltre 30 anni fa come metodo per partizionare in maniera logica i computer mainframe in macchine virtuali separate. È grazie a queste partizioni che oggi i mainframe sono in grado di eseguire operazioni in multitasking, ossia eseguire più applicazioni e processi simultaneamente. Poiché i mainframe all’epoca erano risorse costose, il loro partizionamento rappresentava un modo per valorizzare appieno l’investimento.

 

L’esigenza di virtualizzare i sistemi x86

La virtualizzazione venne di fatto accantonata negli anni ’80 e ’90 quando le applicazioni client-server e gli economici server e desktop x86 hanno dato vita all’elaborazione distribuita. L’ampia diffusione di Windows e la nascita di Linux come sistemi operativi server fecero sì che negli anni ’90 i sistemi x86 si imponessero come standard di settore. L’adozione sempre più vasta e articolata di server e desktop x86 ha comportato nuove sfide operative e infrastrutturali per i reparti IT, tra cui:

  • Bassi livelli di utilizzo dell’infrastruttura. Secondo quanto riportato dalla società di indagini di mercato IDC (International Data Corporation ) i server x86 sono utilizzati in media soltanto al 10-15% della loro capacità complessiva. Per evitare che eventuali problemi di sicurezza di un’applicazione influiscano sulla disponibilità di un’altra nello stesso server, le aziende di norma eseguono una sola applicazione per server.
  • Aumento dei costi dell’infrastruttura fisica. I costi operativi per il supporto di un’infrastruttura fisica in continua crescita sono notevolmente aumentati. La maggioranza delle infrastrutture di elaborazione deve rimanere sempre operativa, pertanto i costi di alimentazione, di raffreddamento e di impianto non variano in rapporto ai livelli di utilizzo.
  • Aumento dei costi di gestione IT. Il grado di formazione ed esperienza specialistica del personale incaricato della gestione infrastrutturale e i costi ad esso associati sono aumentati progressivamente con l’incremento della complessità degli ambienti informatici. Le organizzazioni impiegano una quantità sproporzionata di risorse e tempo per attività manuali correlate alla manutenzione dei server e pertanto necessitano di più personale per il completamento di queste attività.
  • Failover e disaster recovery insufficienti. Le organizzazioni sono sempre più penalizzate dai tempi di inattività delle applicazioni server mission-critical e dall’inaccessibilità dei desktop importanti. La minaccia di attacchi alla sicurezza, disastri naturali, pandemie e terrorismo ha accresciuto l’importanza di una corretta pianificazione della business continuity, sia per i server che per i desktop aziendali.
  • Manutenzione impegnativa dei desktop degli utenti finali. La gestione e la protezione dei desktop aziendali presenta non pochi problemi. Il controllo di un ambiente desktop distribuito e l’applicazione di criteri di gestione, accesso e sicurezza che non compromettano l’efficienza operativa degli utenti sono attività complesse e costose. Per eliminare i rischi per la sicurezza, è necessario installare costantemente patch e upgrade negli ambienti desktop.