O mapeamento e inventário de redes entre as necessidades e preocupações das empresas.

 

O mapeamento e o inventário das redes estão entre as necessidades e preocupações das empresas principalmente por seu crescimento e entrega dos serviços, de forma a evitar sobrecargas e a baixa qualidade dos serviços.

Desde o início das redes de computadores era preciso conhecer três fatores cruciais para gerenciá-las:

  1. A topologia constantemente atualizada, a capacidade ocupada e disponível das redes e dos recursos que a compõem.
  2. O desempenho da rede, que deve cumprir as premissas de disponibilidade das conexões e a sua qualidade de serviço necessária para o correto funcionamento das aplicações.
  3. O comportamento do tráfego, bem como os desvios do comportamento normal e as tendências de mudança do comportamento.

Esse conhecimento permite implantar uma gestão eficiente das redes nos aspectos de desenvolvimento de aplicações e soluções, configuração, operação, diagnóstico, manutenção, planejamento de capacidade e, mais recentemente, segurança cibernética.

No início das redes de dados, tudo era simples. As redes de Tecnologia da Informação ou simplesmente TI eram quase estáticas, a demanda de tráfego tinha um crescimento ordenado e orgânico e as redes tendiam a ser implantadas com recursos de rede e arquitetura simples e segundo os padrões e soluções de um fabricante. O suporte de telecomunicações também era simples, hierárquico e de tecnologias altamente padronizadas e homogêneas. A mesma rede de telecomunicações servia para atender as demandas de serviços de voz e de dados. A administração das redes telecomunicações era feita pelo grupo de telecom para atender a ambos tipos de clientes: de telefonia, por um lado, e de telegrafia, telemedição e dados, por outro.

Como as redes eram quase estáticas, o controle das conexões, da ocupação e do tráfego podia ser feito de forma quase manual, com base em planilhas ou em sistemas simples de inventário.

A partir do final da década de 1980, apareceram com força as redes locais, onde o padrão Ethernet logo se impôs. A década de 1990 inaugurou a era do crescimento das redes locais e surgiram as redes de processamento distribuído e a interconexão de redes locais, com conexões de telecomunicações cada vez de maior velocidade e uma maior complexidade.

A demanda de capacidade para a interconexão de redes crescia rapidamente, e nas redes de telecomunicações era preciso responder cada vez mais rapidamente a esse crescimento da demanda. Muito se investiu nas redes de telecomunicações, mas as conexões fornecidas ainda eram de velocidade binária constante sobre sistemas de multiplexação determinístico. A canalização disponível para a interconexão passou de 56 ou 64 kbit/s para múltiplos dessas velocidades e E1 (2048 kbit/s). Nessa ocasião, surgiram serviços de redes com multiplexação estatística com cada vez mais banda disponível e compatibilidade com os padrões de redes. Serviços como Frame Relay em redes públicas permitiram compartilhar canais de velocidade mais elevada com várias conexões virtuais em um mesmo acesso. As redes corporativas baseadas em IP valiam-se desses serviços.

Os roteadores e switches próprios dos clientes implementavam a conectividade interna em IP, e por isso logo surgiram redes IP públicas com acesso em banda larga, com serviços de VPN IP para interconectar redes privadas com qualidade e segurança suficientes para a demanda das redes corporativas, a um custo menor e versatilidade maior do que as redes de canais digitais e conexões determinísticas e estatísticas anteriores.

A partir da década seguinte, a demanda de capacidade e de conectividade dos clientes aumentou exponencialmente, e as conexões e serviços evoluíram notadamente. As redes de backbone das operadoras e das grandes corporações passaram a oferecer aos clientes, externos ou internos, serviços de banda a partir de 1,25 Gbit/s.

As novas técnicas de transmissão por fibras ópticas colocaram mais banda à disposição dos usuários: SDH até 10 Gbit/s com granularidade de conexões a partir 2 Mbit/s, e depois OTN – Optical Transport Network, até 400 Mbit/s, com granularidade de 1,25 Gbit/s. Cada fibra óbtica passou a suportar dezenas desses sinais de alta velocidade binária, utilizando as técnicas de DWDM (Dense Wavelength Division Multiplexing), que permitiam criar uma nova camada de roteamento do sinal óptico subjacente, abaixo da camada de roteamento de sinais de velocidade binária de n x 1,25 Gbit/s.

As novas tecnologias de rede, primeiro com comutação de etiquetas (MPLS, Multi Protocol Label Switching) e depois com avanços nas tecnologias de comutação de quadros Ethernet (Ethernet Bridging) permitiram o aparecimento de VPNs de camadas 2 e 3 (redes privadas virtuais com conexões ponto a ponto e ponto e multiponto). Os protocolos IP e Ethernet evoluíram, e passaram a incluir facilidades de OAM (Operação, Administração e Manutenção) para monitoração de continuidade, de falhas e desempenho ao longo das conexões fim-a-fim e para a comutação automática de proteção.

Paralelamente, os serviços de interconexão também evoluíram. Antes, a robustez e o controle operacional das conexões públicas não eram suportados pelos protocolos IP e Ethernet, o que os impedia de ser usados como protocolos nativamente aptos para serviços padronizados de rede com as características requeridas. O surgimento de serviços padronizados de interconexão em IP e Ethernet (serviços sobre MPLS com engenharia de tráfego e serviços Carrier Ethernet, com garantias de banda, de QoS e de disponibilidade) e o surgimento de recursos de OAM nos protocolos IP e Ethernet possibilitou o uso nativo e autônomo tanto de IP quanto de Ethernet em redes de transporte.

A partir de 2010, com tanta capacidade e flexibilidade das redes e serviços de interconexão disponíveis, o panorama mudou. A disponibilidade de banda permitiu transportar sinais de alta velocidade binária a custo baixo e provimento de capacidade rápido. Começaram a surgir os conceitos de computação em nuvem, isto é, a capacidade de processamento mudando de distribuída, nas pontas, para data centers, onde as máquinas que rodam as aplicações são hospedadas em ambientes onde a segurança física e as infraestruturas de refrigeração, de alimentação e de manutenção se concentram, para reduzir os custos operacionais e de capital, e também para facilitar a rápida expansão, atualização, migração de serviços e o compartilhamento de recursos – infraestrutura de computação, plataforma, software e armazenamento de dados e distribuição de conteúdo. Surgiram os conceitos de nuvens privadas – proprietárias – e nuvens públicas, onde empresas de cloud computing ofereciam capacidade de suas máquinas por demanda – em contratos de longo prazo ou por tempo de uso.

Nos últimos anos, as redes se diversificaram ainda mais, o que exigiu mudar o conceito de operação e planejamento das redes. Faltava flexibilizar um tipo de elemento ainda: os dispositivos de rede e sua configuração.

Surgiram então duas tecnologias que tiveram um impacto maior ainda sobre a arquitetura das redes. Uma delas, SDN, permite a configuração flexível e por demanda da topologia das redes, com o aprovisionamento imediato de conectividade e suporte a QoS (qualidade de serviço) de forma padronizada e aberta. A outra, NFV (virtualização das funções de rede) permite usar hardware padronizado cujas funções de rede são determinadas e comandadas por softwares genéricos externos, localizados, por exemplo, em máquinas virtuais em data centers remotos, o que reduz custos de aquisição e operação, flexibiliza a configuração e otimiza as funções de rede, substituindo equipamentos fisicamente integrados tais como firewalls, roteadores e switches, e elementos de cibersegurança, por elementos virtualizados rodando em hardware genérico.

Tudo isto veio acompanhado de um aumento do número e da demanda de conexões, diversificação de tecnologias de rede e de fornecedores de conectividade, uso de nuvens híbridas, uso de redes públicas zero trust, aumento do trabalho remoto, maior integração entre clientes e fornecedores e preocupações com o desempenho e a segurança da rede. No tocante às redes de interconexão, antes até certo ponto estáticas e controláveis centralmente, migra-se cada vez mais para um conjunto de redes diversas que cooperam para prover a conectividade necessária às aplicações em um ambiente heterogêneo e desprovido de um controle centralizado. Nessa situação, monitorar o desempenho das redes, diagnosticar falhas, reconhecer padrões e tendências de tráfego e do uso das aplicações nas redes e detectar comportamentos anômalos constitui um desafio que requer um novo enfoque para sua solução.

Nessa década, foram sendo alcançados os limites dos métodos tradicionais de monitoração e diagnóstico, baseados na análise pelos especialistas de indicadores (fornecidos por elementos de rede, por sistemas de gestão de rede e por elementos adicionais – probes ou agentes de software – inseridos nas redes). Some-se a esse panorama a dificuldade de integração das informações de fontes diversas, a diversidade de tecnologias e arquiteturas das novas redes e a escassez no mercado de especialistas experientes, entre outros fatores, e a consequência era que ficava cada vez mais difícil, trabalhoso, demorado e caro solucionar os problemas de desempenho.

É nesse ambiente que se cria o conceito de NPMD (Monitoração e Diagnóstico do Desempenho de Redes), que descreve o enfoque que conduz a uma visão integrada das redes heterogêneas e que, com o auxílio de aprendizagem de máquina (ML, Machine Learning), e mais recentemente, de inteligência artificial (IA, Artificial Intelligence). O conceito, que começou simples na primeira metade da década de 2010 vem evoluindo com rapidez. O uso de NPMD, na prática, é o que permite que a operação de redes complexas e diversas possa ser resolvida com um controle integrado em visões amplas e extremamente detalhadas e granulares da rede, que permitem a detecção e análise imediata de variações de desempenho, a qualificação do impacto dessas variações e a solução rápida dos problemas. Só com esse enfoque é possível garantir a gerência da experiência do usuário final nessas redes diversas, complexas e em constante mutação.

É preciso ressaltar que toda essa inteligência da rede requer uma base de informações sólida e muito bem estruturada sobre todos os recursos de rede existentes, tanto de hardware quanto de meios de comunicação e de conexões físicas e lógicas através das redes.

Uma parte que requer atenção especial é a que diz respeito aos recursos de redes e de conexões físicas – algo que normalmente não costumava estar informatizado e com um acesso automático a suas configurações. Nenhum sistema de gerenciamento de redes será eficaz se deixar de incluir o inventário de redes físicas. A integração do inventário da parte física da rede é o que permite ter visibilidade total do estado da rede e da disponibilidade de recursos para a configuração e provisionamento dos serviços, além da localização e reparação de eventuais falhas.

O inventário de rede a que nos referimos, e sobre o qual repousam todas as funções de gerenciamento das redes, dos serviços e do próprio negócio, contém uma descrição detalhada de cada conexão existente na rede.

Dependendo da finalidade da empresa, o inventário de redes pode conter desde todas as conexões físicas até as conexões lógicas nas várias camadas da rede.

Uma empresa de redes de acesso em banda larga, por exemplo, pode estar interessada em descrever toda a rede física GPON. Essa descrição considera desde os caminhos de fibras e a localização das caixas de acesso, caixas de emenda, usuários conectados até dispositivos de rede. Dessa forma é possível obter uma visão georreferenciada de cada fibra e de cada cliente até a porta da OLT e dos roteadores, de modo que uma falha em qualquer ponto da rede pode ser localizada fisicamente num piscar de olhos.

Além do mais, a possibilidade de poder usar o sistema para reservar capacidade para atender a novos clientes, ter uma visão imediata dos recursos livres e ocupados, fazer um projeto, emitir ordens de serviço – tudo isso em uma plataforma comum, detalhada, simples e de fácil acesso pelas equipes de vendas, de projeto, de instalação e de construção, faz do inventário de redes uma peça muito importante do gerenciamento.

Já uma empresa que vende capacidade em suas redes ópticas pode querer ter essa mesma visão de suas redes ópticas – o percurso georreferenciado de dutos, cabos, tubetes e fibra, caixas de acesso, caixas de emenda, cabos drop, posições nos DIOs e DGOs, e as respectivas conexões desde o acesso do cliente até os elementos ativos nos sites da operadora. Mas, além disso, pode querer também descrever todas as conexões lógicas nessas fibras – no nível óptico DWDM (comprimentos de onda), no nível de multiplexação (SDH ou OTN), no nível de conexões de serviços de transporte em camadas de conexão e de rede (MPLS e Carrier Ethernet, por exemplo, ou IP). Um sistema de inventário completo permite chegar até o nível desejado dos serviços e representar todas as conexões no inventário georreferenciado unificado da rede.

O importante é que esse inventário seja capaz de dar suporte à operação do negócio de forma direta e integrada, permitindo a visualização de todo o percurso das conexões através de toda a rede e o conhecimento da disponibilidade de capacidade em toda a rede para uma rápida configuração e provisionamento do serviço. E, mais importante ainda, que possa manter-se atualizado diante de todas as mudanças do dia a dia.

O sistema deve poder prestar suporte para as plataformas de engenharia e de operação, tanto para que estas consultem o inventário para projetos quanto o modifiquem para sua atualização automática. Um inventário de redes não atualizado, e que represente apenas uma fotografia instantânea da rede em um momento, tem pouca serventia no suporte à operação.

A visão representada no sistema de inventário de redes, portanto, dá suporte a todos os sistemas de gerência da empresa, e a todos os grupos de trabalho, indo desde a operação, desenvolvimento, serviços e aplicações de redes, passando pela segurança e toda a parte de Inteligência Artificial da qual depende cada vez mais a eficácia dos sistemas de gestão de serviços e do negócio.

 

Por Cristiano Henrique Ferraz – CTO da Netcon Americas