A Evolução da Computação
Nos anos 80, a proliferação de PCs nas organizações aniquilou completamente a necessidade davirtualização como solução de multitarefa. Nessa altura, a virtualização foi abandonada até que, no final dos anos 90, a indústria sentiu novamente necessidade e lhe deu uma nova utilização. No início do novo século, a incrível expansão do negócio dos computadores baratos e a indústria dosdatacenters começam a acusar sinais de desgaste, em grande medida devido aos elevados custos energéticos implicados neste modelo de computação. Em 2002, os datacenters já consumiam cerca de 1,5 % da energia dos EUA e estimava-se um crescimento anual da ordem dos 10%, com cerca de 5 milhões de servidores a ser instalados todos os anos. À medida que os especialistas lançam alertas acerca do excessivo consumo, os fabricantes de hardware procuram soluções que requeiram menos arrefecimento e a indústria das TI procura alternativas que lhe permitam continuar a responder à sempre crescente demanda por mais e melhores serviços.
A esmagadora maioria da computação nesta altura é baseada na ineficiente arquitectura x86, criada originalmente pela Intel em 1978. Com o advento do hardware barato, a indústria das TI tinha caído no erro de sobre dimensionar toda a infra-estrutura e subaproveitar todos os recursos. Como já vimos, a cada nova aplicação correspondiam vários servidores e estes estavam invariavelmente muitíssimo subutilizados embora consumissem energia e requeressem arrefecimento.
Em 1998, a VMware resolve o problema da virtualização da arquitectura x86 abrindo caminho a um processo de consolidação de servidores como forma de reduzir o imenso desperdício de recursos nas organizações, independentemente da sua dimensão. Nesta altura torna-se evidente que era financeiramente vantajoso adquirir menos servidores de maior capacidade capazes de suportar as tarefas até então distribuídas por dezenas de outras máquinas. Reduziam-se assim