Colocar 100 máquinas virtuais em um único equipamento físico pode gerar riscos ao ambiente de produção
Há uma tendência das empresas adotarem o conceito de virtualização de
forma cada vez mais abrangente, incluindo serviços de missões críticas e
o uso intensivo de aplicações. Com isso, os executivos de TI estão
aprendendo que a divisão de servidores em poucas máquinas virtuais é
coisa do passado.
A grande variação entre a realidade e as expectativas, seja por conta
da publicidade do fornecedor ou por questões de retorno sobre
investimento (ROI), pode se traduzir em problemas para a equipe de
tecnologia. Isso porque quanto maior o número de serviços consolidados
em um servidor, maiores serão as supostas vantagens da tecnologia.
Confira dicas para evitar problemas:
Leve em conta que aplicativos chave lutarão por seu espaço
Por que há uma falta de conexão entre a realidade da virtualização e
as expectativas? Especialistas afirmam que, até agora, companhias
focaram em virtualização nas camadas mais baixas: aplicações com pouca
demanda de desempenho, como ambientes de desenvolvimento, armazenamento
de arquivos e serviços de impressão.
No entanto, existe a necessidade de instalar aplicações de missão
crítica, com utilização mais intensa dos sistemas, o risco de segurança
aumenta e a demanda por desempenho e disponibilidade cai
consideravelmente. Essas aplicações vão competir por largura de banda,
memória, armazenamento e processamento. Mesmo máquinas com processadores
topo de linha vão apresentar gargalos se tantos recursos recorrerem ao
mesmo servidor.
Comece com uma análise de capacidade
Qualquer início de projeto requer educação dos usuários. As equipes
de TI devem mudar o pensamento de quem acha que tudo será possível com
poucos servidores. Para começar, uma análise de capacidade pode ser uma
boa ideia.
Outro recurso é usar ferramenta própria para conduzir uma análise
intradepartamental de capacidade que monitore a utilização de hardware
dos servidores. Assim, é possível fazer um estudo mais aprofundado sobre
os recursos exigidos dos servidores.
Acompanhamento contínuo é fundamental
Em se tratando de virtualização de aplicações de missão crítica, é
necessário muito mais do que RAM para garantir o desempenho.
“Originalmente, imaginávamos que poderíamos manter 40 consumidores de
menor porte em um servidor baseado somente na memória RAM disponível.
Para aplicações mais pesadas, não é a RAM que importa, mas sim as
operações de entrada e saída de dados (I/O).
Para ajudar no gerenciamento, um painel de controle que permite aos
consumidores verificarem como a máquina virtual lida com leituras,
escritas, uso de espaço em disco e outros dados que afetam desempenho.
Além disso, máquinas hospedeiras podem contar com ferramentas de
monitoramento para garantir que o desempenho de todas as máquinas
virtuais não seja prejudicado por conta de tráfego de uma única máquina.
Os testes também ajudam a determinar qual carga virtual de trabalho
deve coexistir em um servidor físico de forma que a distribuição não
comprometa a disponibilidade.
E não esqueça a contingência
As equipes de TI não podem esquecer que as empresas precisam manter
recursos na manga como contingência. Se a equipe roda todos os
servidores usando 80% da capacidade, não há espaço para redundância.
fonte: cio-tecnologia
O que você achou desta matéria? Faça seu comentário abaixo
Nenhum comentário:
Postar um comentário