OS DADOS QUE NÃO DEPENDEM DA SORTE


Você já deve ter ouvido falar que apenas 10% da capacidade do cérebro humano são usados efetivamente. Possivelmente já ouviu também um desmentido dessa tese. Vários estudos sobre o cérebro, ao longo de décadas, não indicam que a máquina cinzenta tenha ociosidade. O mito teria surgido no final dos anos 1.800 (Século XIX), por uma interpretação equivocada de alguns relatos científicos. A literatura de auto ajuda baseou todo um discurso de empoderamento nessa premissa, popularizando uma suspeita que nunca se confirmou.

Seria bom, hein!? Imagine se você pudesse aumentar em 10 vezes seu desempenho intelectual... É, mas a interpretação equivocada agora está ganhando ares de premonição. O que não se confirmou para o seu cérebro, está mais que confirmado para os “cérebros eletrônicos”. Trata-se de uma enorme carga de dados armazenados pelas empresas em geral, provavelmente a sua também. Estudos da Intel Corporation dão conta de que 90% dos dados gerados por uma empresa e armazenados em seus sistemas, nunca serão utilizados. Quer dizer, enquanto a arquitetura ultrapassada de armazenamento for mantida, o eventual valor desses dados continuará perdido. A solução começa por altos investimentos em data centers. O crescimento das empresas do setor está acontecendo a taxas de dois dígitos nos últimos anos, segundo informa o site TeleSíntese.


O 5G está no centro dessa agitação. O sistema móvel da quinta geração de dados foi idealizado num contexto de edge computing ou computação de borda. Os dados ficam armazenados mais próximos do ponto onde são gerados, aumentando a velocidade de resposta. Lembra-se do tempo em que falar de computação era falar de frações de segundo? Essas frações ficaram muito menores, mas a quantidade de operações cresceu tanto que a soma de tantas frações é significativa. A computação de borda melhora o gerenciamento do tráfego de rede, reduzindo a latência. É o que está trazendo de volta para o dicionário da computação algumas palavras que estavam um tanto esquecidas. Por exemplo, o “quase”. Há 30 anos dizia-se que, o piscar de olhos em que uma planilha efetuava cálculos, era algo “imediato”. Aquele tempo desprezível desaparecia em meio ao marketing da tecnologia. Hoje, quando se fala na latência do 5G, bem menor do que o tempo de apertar o controle remoto e ver o canal mudar na tela, fala-se “quase instantâneo”. Pois é, as frações de segundo estão valorizando muito rapidamente, perderam a invisibilidade e tudo indica que essa importância só tende a crescer.


A computação de borda é parte de toda uma arquitetura de computação distribuída. Além dos pequenos data centers também estão integrados à essa infraestrutura os grandes centros de dados e macro estruturas como a nuvem. Porém, diante das necessidades atuais, a distância física de proporções nacionais até a nuvem, mesmo sendo percorrida a uma velocidade bem próxima à da luz, passou a ser um problema para a atual logística de dados. Mais por causa das novas aplicações e não apenas pela velocidade da Internet num dispositivo móvel. A IoT e principalmente, a automação de sistemas industriais de alta precisão, dependem desse nível de eficiência. Procedimentos médicos, como cirurgias, já são realizados à distância. Com a edge computing a complexidade desses procedimentos pode aumentar muito. Até a segurança do sistema é maior. A computação de borda, com parte do processamento muito mais próximo dos usuários, resolve a questão. Mais uma vez, tempo e espaço foram requalificados na informática.


Por conta dessas novas necessidades os investimentos previstos no Brasil em data centers estão na casa dos bilhões de reais anuais. Por empresa (quando se considera as grandes). Isso sem contar a quantidade de pequenas estruturas de comunicação. No 5G as ERBs (estações rádio base) que ligam os celulares à rede são bem menores. E no espaço entre duas ERBs do 4G, vai precisar de 10 ERBs num sistema 5G.


O custo para o consumidor tende a ser alto. Porém, o que mais preocupa no momento, é o gasto de energia com essa nova arquitetura de armazenamento de dados. No Brasil, só os data centers consomem quase 2% da eletricidade disponível para o setor industrial. Na Europa e nos Estados Unidos essa proporção já passa de 5%. As atuais limitações do sistema elétrico nacional precisam ser equacionadas. Além da maior oferta, o sistema precisa de mais estabilidade e principalmente, manter uma matriz limpa.


Comentários

Postagens mais visitadas deste blog

COQUELUCHES DA TECNOLOGIA

GUERRA FRIA 2.0

O SILÊNCIO INOPORTUNO