quarta-feira, 21 de setembro de 2011

Virtualização: como não sobrecarregar os servidores

Colocar 100 máquinas virtuais em um único equipamento físico pode gerar riscos ao ambiente de produção

Há uma tendência das empresas adotarem o conceito de virtualização de forma cada vez mais abrangente, incluindo serviços de missões críticas e o uso intensivo de aplicações. Com isso, os executivos de TI estão aprendendo que a divisão de servidores em poucas máquinas virtuais é coisa do passado.

A grande variação entre a realidade e as expectativas, seja por conta da publicidade do fornecedor ou por questões de retorno sobre investimento (ROI), pode se traduzir em problemas para a equipe de tecnologia. Isso porque quanto maior o número de serviços consolidados em um servidor, maiores serão as supostas vantagens da tecnologia.

Confira dicas para evitar problemas:

Leve em conta que aplicativos chave lutarão por seu espaço

Por que há uma falta de conexão entre a realidade da virtualização e as expectativas? Especialistas afirmam que, até agora, companhias focaram em virtualização nas camadas mais baixas: aplicações com pouca demanda de desempenho, como ambientes de desenvolvimento, armazenamento de arquivos e serviços de impressão.

No entanto, existe a necessidade de instalar aplicações de missão crítica, com utilização mais intensa dos sistemas, o risco de segurança aumenta e a demanda por desempenho e disponibilidade cai consideravelmente. Essas aplicações vão competir por largura de banda, memória, armazenamento e processamento. Mesmo máquinas com processadores topo de linha vão apresentar gargalos se tantos recursos recorrerem ao mesmo servidor.

Comece com uma análise de capacidade

Qualquer início de projeto requer educação dos usuários. As equipes de TI devem mudar o pensamento de quem acha que tudo será possível com poucos servidores. Para começar, uma análise de capacidade pode ser uma boa ideia.

Outro recurso é usar ferramenta própria para conduzir uma análise intradepartamental de capacidade que monitore a utilização de hardware dos servidores. Assim, é possível fazer um estudo mais aprofundado sobre os recursos exigidos dos servidores.

Acompanhamento contínuo é fundamental

Em se tratando de virtualização de aplicações de missão crítica, é necessário muito mais do que RAM para garantir o desempenho. “Originalmente, imaginávamos que poderíamos manter 40 consumidores de menor porte em um servidor baseado somente na memória RAM disponível. Para aplicações mais pesadas, não é a RAM que importa, mas sim as operações de entrada e saída de dados (I/O).

Para ajudar no gerenciamento, um painel de controle que permite aos consumidores verificarem como a máquina virtual lida com leituras, escritas, uso de espaço em disco e outros dados que afetam desempenho. Além disso, máquinas hospedeiras podem contar com ferramentas de monitoramento para garantir que o desempenho de todas as máquinas virtuais não seja prejudicado por conta de tráfego de uma única máquina.

Os testes também ajudam a determinar qual carga virtual de trabalho deve coexistir em um servidor físico de forma que a distribuição não comprometa a disponibilidade.

E não esqueça a contingência

As equipes de TI não podem esquecer que as empresas precisam manter recursos na manga como contingência. Se a equipe roda todos os servidores usando 80% da capacidade, não há espaço para redundância.




fonte: cio-tecnologia

O que você achou desta matéria? Faça seu comentário abaixo

Nenhum comentário:

Postar um comentário