Um X-MEN na era da computação

A história da computação é muito rica e recheada de detalhes em sua evolução. Acompanhar a evolução da tecnologia criada em 1946 com o primeiro mainframe é um banquete de informações e curiosidades para os apaixonados pelo mundo binário.

Com este artigo quero pegar uma fatia dessa história da computação e descrever a evolução dos servidores de uma maneira simples. Quero apresentar a próxima evolução desta cadeia, cheio de “superpoderes” e recheado de novas capacidades.

O pai de todos os servidores, cujo chamado de Mainframe, era um gigantesco computador capaz de processar várias informações (para aquela época). Nele existia terminais para requisitar seu processamento e devolver a informação que o usuário solicitava.

Um dos problemas que deixou essa tecnologia obsoleta, de terminais ligados a um único mainframe enorme foi a disseminação dos sistemas informatizados. Isso aconteceu bem mais rápido do que os investimentos em infraestrutura em telecom. Fazer com que vários terminais fossem espalhados pelo país inteiro e que todos eles fossem processados em um único mainframe, deixaria a operação quase que impossível. Portanto, temos a primeira imposição de mutação. A solução foi: servidores de menor capacidade de processamento e reflexo um menor custo para que justificasse que fossem espalhados em unidades de negócios para atender a necessidade de grupos para acesso aos terminais de trabalho.

Era a revolução da época, você não precisava fazer todo processamento dos terminais em um único mainframe, e ainda era possível interligar poucos servidores em si para comunicação mútua.

Depois desse fato, a evolução alavanca de maneira em progressão geométrica, a montanha de dados cresce em uma velocidade inimaginável. Na década de 90, novas mídias apareceram, periféricos surgiram e  storages para armazenar grandes massas de dados foram criadas. Toda essa informação produzida era armazenada em vários storages, chamados de silos, os quais eram utilizados para os servidores (antigos mainframes, ou seja, já tinha sofrido evolução) para ler e gravar dados que fossem processar e armazenar. Para interligar storages com os servidores é necessário o uso de switchs gerenciados, que substituíam a antiga rede coaxial e hubs, permitindo organizar caminhos de dados digitais, facilitando assim a administração da rede de dados.

Vide, a evolução desde mainframe até os switches obviamente trouxe maior ganho de performance e administração, entre inúmeras outras vantagens. No entanto, cada vez mais ficando na dependência de periféricos, como por exemplo os switches. Afinal, você não quer que sua rede fique indisponível ou falhe. Então nesse momento temos mais uma evolução na era da computação, chamada de virtualização de servidor. Isso garantia que vários serviços que fossem executados nos servidores, de certa forma nunca falhassem, afinal, a função da virtualização é não depender de um servidor físico, pois vários servidores físicos estão trabalhando para a virtualizar. Por exemplo, se no caso um servidor físico parar por qualquer problema, outro servidor assume o controle da fatia de processamento do servidor que está em falha e o processo continua normalmente, garantido que o servidor virtual não fique inoperante.

Nessa etapa da evolução, sobre servidores virtuais, mais performance nas storages eram requisitadas. As antigas conexões de rede de 10 Mbps entre a comunicação dos periféricos (servidores, switches e storages) já não é mais performática. O mínimo e comum para uma performance aceitável seria de 1000 Mbps, ou para ambientes críticos que exigem performance, o ideal é não menos que de 8000 Mbps, tecnologia chamada de fibra óptica.

Recapitulando, saímos de mainframes gigantescos, para criação de storages, interligação através de switches e agora virtualização de servidores. Nesse momento temos um ambiente virtualizado, com storages de alta performance interligados com fibras óptica. Todos esses equipamentos duplicados e reduplicados para redundância, ar condicionado de tamanho cavalar para esfriar todo aquele legado de máquinas e máquinas, espalhados por um datacenter que tem que suportar toda aquela energia e que por si só, a conta só vai aumentado… bom ao menos estamos seguros sobre processamento e performance, certo? Qualquer responsável por uma infraestrutura de T.I pensaria isso, o mundo perfeito cheio de caixas de metais/ferro interligadas por quilômetros e mais quilômetros de cabos super sensíveis de fibra óptica.

Mas a evolução não parou e visto que todo esse legado da história cria algo totalmente diferente, que sai da curva tradicional da evolução e avança vários anos adiante. Como fosse um “x-men” da computação, chamado de hiperconvergência.

Esse mutante hiperconvergente reúne no mesmo equipamento todos os periféricos da tecnologia passada, como o servidor, switches, storages de alta performance chamado de SSD (unidade de estado sólido super performático) e storage de HD (disco rígido). Todos interligados por uma conexão de 400000 Mpbs. Ou seja, toda aquela parafernalha de várias caixas de metal/ferro e quilômetros de cabos para interligar os periféricos, eles não existem mais. Sim, um Wolverine capaz de estraçalhar com qualquer carga de trabalho intensa, com segurança e performance que nenhum servidor virtualizado ou não conseguiria.

Aliado a isso, um poderoso firmware, o qual são instruções operacionais, controlam várias storages virtuais e orquestram o processamento e armazenamento para garantir alta disponibilidade de cada periférico integrado nesse único hardware hiperconvergente. E plus, caso você precise aumentar seu nível de processamento, basta investir em mais um hardware de hiperconvergência e inserir no ecossistema de forma plug-and-play, ou seja, só conectar. Uma topologia superior a tudo que você tenha visto até o momento, comparada a qualquer clusterização dos servidores tradicionais.

Se você é técnico da área deve estar pensando sobre as enclousers. Então vou comentar sobre isso em uma linguagem um pouco mais técnica para alinhar os interesses. As Enclouser de Blade eram vistas como a última evolução da clusterização, capaz de facilitar o gerenciamento do processamento, permitindo o crescimento vertical. No entanto quando comparamos com a tecnologia hiperconvergente, em apenas dois Us você consegue ter mais performance do que uma enclouser inteira que ocupa dezesseis Us e você não só ganha em espaço mas ganha também storage e economia de energia. Fora a questão de processamento, que de longe, não há comparações.

Entrei no mérito da evolução da computação para mostrar que cada vez mais a tecnologia tem ficado performática e com menor tamanho. Quando falamos de servidores, são informações que fazem contingência e produzem seu core de negócio, ou seja, altamente crítico para você e sua empresa. E por isso que a Winov é o primeiro provedor de Cloud da América Latina a possuir servidores hiperconvergentes da Nutanix. Conseguimos com isso entregar uma performance 7x maior do que a mesma configuração do modo tradicional de servidores, graças a hiperconvergência. Tudo isso gerando alta disponibilidade e escabilidade na sua demanda de performance, no momento que você precisar. Inovamos mais uma vez. Quer conhecer essa inovação da Winov? O convite está feito.

Curtiu nossa publicação? Então, nos conte o que achou!

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.