Capacity plan: Por que é tão importante hora de implementar novas tecnologias

No primeiro turno das eleições os servidores do TSE (Tribunal Superior Eleitoral) apresentaram instabilidade. Ficaram sobrecarregados, sofreram ataques, e até mesmo os resultados, atrasaram. Nosso diretor Artur Araújo analisou o caso e apontou como o Capacity Plan pode fazer a diferença para as organizações na hora de se planejar, não só para implementar novas tecnologias mas também garantir a disponibilidade em datas que os acessos fogem do padrão.

O país inteiro foi às urnas neste último domingo (15 de novembro) e, as notícias que ganharam destaque foram sobre dois dos principais sistemas tiveram suas capacidades comprometidas: Aplicativo para justificativa de votos (e-Título) e o próprio sistema de apuração de votos.

 

O próprio Tribunal Superior Eleitoral (TSE) divulgou uma nota em que explica o que ocorreu com o aplicativo: “…Tiramos um servidor da rede e fizemos um backup. Assim, teríamos um servidor fora do sistema. Com esse servidor desligado, o servidor remanescente sofreu uma sobrecarga. E afetou o desempenho ótimo do e-Título. Essa é uma das explicações”

 

Fora a notória questão técnica ligada a segurança da informação, percebe-se também a falta de planejamento de crise e capacidade. O que se pode entender é que o sistema apenas funcionaria se os dois servidores estivessem totalmente funcionais.

 

Neste caso era imprescindível um plano de contingência caso problemas acontecessem com algum dos servidores e aumento da redundância para o pico de acessos que aconteceria.

 

Já sobre a demora em apurar os votos, houve uma mudança no processo, que antes era executado pelos Tribunais Regionais Eleitorais (TREs) de forma independente, passou a ser consolidado integralmente pelo TSE (concentrando os dados dos 5.568 municípios). Ironicamente, o intuído era centralizar os dados e possibilitar o uso de recursos em nuvem para uma melhor elasticidade deles.

 

Claramente havia elementos para se calcular o consumo esperado (número de votos e municípios), mas os provisionamentos de recursos não ocorreram de forma assertiva, causando atraso na apuração e divulgação.

 

O que vimos foi um caso em que se investiu em tecnologia, mas esqueceu-se da etapa principal: estudo dos dados e informações de acesso, planejamento da aquisição e implementação.

 

O processo de gerenciamento de capacidade precisa ser implantado e seguido a fim de mapear gargalos e, com o uso de tecnologias preditivas, conseguir equilibrar a balança entre demanda e custos – maior dilema dentro de qualquer organização.

 

Ninguém quer investir erroneamente em uma infraestrutura muito maior do que a demanda. Por outro lado, perder vendas ou reputação pela indisponibilidade do sistema podem gerar prejuízos ainda piores.

 

Algoritmos modernos baseados em inteligência artificial e machine learning conseguem desenhar os níveis de utilização previstos. Com essa previsão e um bom processo de gerenciamento de capacidade, é possível criar uma arquitetura que absorva toda a demanda.

 

Não se pode trabalhar na especificação de ambientes com base em suposições, o famoso “chutômetro”. Existem tecnologias acessíveis para todos os segmentos e portes, que podem realizar uma análise precisa, sem desperdício e com o menor risco possível.

 

 

***Artigo escrito por Artur Araújo, diretor da Pinpoint e especialista em infraestrutura de TI, redes, telecomunicações e segurança.


 {loadmoduleid 180}

Quer saber mais?

Preencha seus dados para que um de
nossos especialistas entre em contato.

Veja também

Todos os direitos reservados à Seek Web

Todos os direitos reservados à Seek Web