websights

Noticias

Control de los recursos de red: preparándose para la transformación digital

Netcon Americas

Control de los recursos de red: preparándose para la transformación digital

El mapeo e inventario de redes se encuentran entre las necesidades e inquietudes de las empresas, principalmente por crecimiento y entrega, con el fin de evitar sobrecargas y baja calidad de los servicios.

Desde el inicio de las redes de computadoras era necesario conocer tres factores cruciales para gestionarlas:

  1. La topología constantemente actualizada y la capacidad ocupada y disponible de las redes y de los recursos que la componen.
  2. El desempeño de la red, que debe cumplir con las premisas de disponibilidad de las conexiones y la calidad de servicio (QoS) necesaria para el correcto funcionamiento de las aplicaciones.
  3. El comportamiento del tráfico, así como las desviaciones del comportamiento normal y las tendencias de cambio de comportamiento.

Evolución de las redes de Tecnología de la Información (TI)

Este conocimiento permite una gestión eficiente de las redes en los aspectos de desarrollo e implantación de aplicaciones y soluciones, configuración, operación, diagnóstico, mantenimiento, planificación de capacidad y, más recientemente, seguridad cibernética.

Al principio todo era sencillo en las redes de datos. Las redes de Tecnología de la Información y Comunicación (TIC) eran casi estáticas, la demanda de tráfico tenía un crecimiento ordenado y orgánico y las redes tendían a ser implantadas con recursos de red y arquitectura sencillas, frecuentemente según los estándares y soluciones de un mismo fabricante. El soporte de telecomunicaciones también era sencillo, jerárquico y de tecnologías altamente estandarizadas y homogéneas. Una sola red de telecomunicaciones servía para atender las demandas de servicios de voz y de datos. El grupo de telecomunicaciones era el responsable por la administración de las redes, que atendían a ambos tipos de clientes: de telefonía, por un lado, y de telegrafía, telemedición y datos, por otro.

Como las redes eran casi estáticas, el control de las conexiones, de la ocupación y del tráfico podía hacerse de forma casi manual, con base en hojas de cálculo o en sistemas de inventario sencillos y no siempre actualizados.

A partir de finales de la década de 1980, aparecieron con fuerza las redes locales, donde el estándar Ethernet pronto se impuso. La década de 1990 inauguró la era del crecimiento de las redes locales y surgieron las redes de procesamiento distribuido y la interconexión de redes locales, con conexiones de telecomunicaciones cada vez de mayor velocidad y una mayor complejidad.

La demanda de capacidad para la interconexión de redes crecía rápidamente, y en las redes de telecomunicaciones era necesario responder cada vez más rápidamente a ese crecimiento de la demanda. Se invirtieron muchos recursos humanos y materiales en las redes de telecomunicaciones, pero las conexiones suministradas aún eran de velocidad binaria constante sobre sistemas de multiplexación determinista. La canalización disponible para la interconexión pasó de 56 o 64 kbit/s a múltiplos de esas velocidades y E1 (2048 kbit/s). En esa ocasión, surgieron servicios de redes con multiplexación estadística con cada vez más banda disponible y compatibilidad con los estándares de redes. Servicios como Frame Relay en redes públicas permitieron compartir canales de velocidad más alta con varias conexiones virtuales en un mismo acceso. Las redes corporativas basadas en IP se valían de esos servicios.

Los routers y switches propios de los clientes implementaban la conectividad interna en IP, y por eso pronto surgieron redes IP públicas con acceso de banda ancha, con servicios de VPN IP para interconectar redes privadas con calidad y seguridad suficientes para la demanda de las redes corporativas, a un costo menor y versatilidad mayor que las redes de canales digitales y conexiones determinísticas y estadísticas anteriores.

Impacto de las tecnologías de redes emergentes

A partir de la década siguiente, la demanda de capacidad y conectividad de los clientes aumentó exponencialmente, y las conexiones y servicios evolucionaron notablemente. Las redes de backbone de los operadores y de las grandes corporaciones pasaron a ofrecer a los clientes, externos o internos, servicios de banda a partir de 1,25 Gbit/s.

Las nuevas técnicas de transmisión por fibras ópticas pusieron más banda a disposición de los usuarios:  SDH hasta 10 Gbit/s con granularidad de conexiones a partir de 2 Mbit/s, y luego OTN – Optical Transport Network, con hasta 400 Mbit/s con granularidad de conexiones a partir de 1,25 Gbit/s. Cada fibra óptica pasó a soportar decenas de estas señales de alta velocidad binaria, utilizando las técnicas de DWDM (Dense Wavelength Division Multiplexing), que permitían crear una nueva capa de enrutamiento de la señal óptica, por debajo de la capa de enrutamiento de señales de velocidad binaria a partir de n x 1,25 Gbit/s.

Las nuevas tecnologías de red, primero con conmutación de etiquetas (MPLS, Multi Protocol Label Switching) y después con avances en las tecnologías de conmutación de frames Ethernet (Ethernet Bridging) permitieron la aparición de VPNs de capas 2 y 3 (redes privadas virtuales con conexiones punto a punto y multipunto). Los protocolos IP y Ethernet evolucionaron, y pasaron a incluir funciones de OAM (Operación, Administración y Mantenimiento) para monitoreo de continuidad, de fallas y desempeño a lo largo de las conexiones fin a fin y para la conmutación automática de protección.

Al mismo tiempo, los servicios de interconexión también han evolucionado. Antes, la robustez y el control operativo de las conexiones públicas no era soportada por los protocolos IP y Ethernet, lo que les impedía ser utilizados como protocolos nativamente aptos para servicios estandarizados de red con las características requeridas. El surgimiento de servicios estandarizados de interconexión en IP y Ethernet (servicios sobre MPLS con ingeniería de tráfico y servicios Carrier Ethernet, con garantía de banda, de QoS y de disponibilidad) y el surgimiento de recursos de OAM en los protocolos IP y Ethernet posibilitó el uso nativo y autónomo tanto de IP como de Ethernet en redes de transporte.

A partir de 2010, con tanta capacidad y flexibilidad de las redes y servicios de interconexión disponibles, el panorama cambió. La disponibilidad de banda permitió transportar señales de alta velocidad binaria a bajo costo y provisión de capacidad rápida. Comenzaron a surgir los conceptos de computación en nube (cloud computing), es decir, la capacidad de procesamiento cambiando de distribuida, en las puntas, para data centers, donde las máquinas que ejecutan las aplicaciones son hospedadas en ambientes donde la seguridad física y las infraestructuras de refrigeración, de alimentación y mantenimiento se concentran, para reducir los costos operativos y de capital, y también para facilitar la rápida expansión, actualización de hardware y software, migración de servicios y compartición de recursos de infraestructura informática, plataforma, software y almacenamiento de datos y distribución de contenido. Surgieron los conceptos de nubes privadas – propietarias – y nubes públicas, donde empresas de cloud computing ofrecen capacidad de sus máquinas por demanda – en contratos a largo plazo o por tiempo de uso.

Desafíos en la era de la diversificación de las redes

En los últimos años, las redes se diversificaron aún más, lo que exigió cambiar el concepto de operación y planificación de las redes. Faltaba flexibilizar un tipo de elemento aún: los dispositivos de red y su configuración.

Surgieron entonces dos tecnologías que tuvieron un impacto aún mayor sobre la arquitectura de las redes. Una de ellas, SDN, permite la configuración flexible y por demanda de la topología de las redes, con el aprovisionamiento inmediato de conectividad y soporte a QoS (calidad de servicio) de forma estandarizada y abierta. La otra, NFV (virtualización de funciones de red) permite utilizar hardware estandarizado cuyas funciones de red son determinadas y controladas por software genérico externo, localizado, por ejemplo, en máquinas virtuales en data centers remotos, lo que reduce costos de adquisición y operación, flexibiliza la configuración y optimiza las funciones de red, sustituyendo equipos físicamente integrados tales como firewallsrouters y switches, y elementos de ciberseguridad por elementos virtualizados funcionando en hardware genérico.

Todo esto vino acompañado de un aumento del número y de la demanda de conexiones, diversificación de tecnologías de red y de proveedores de conectividad, uso de nubes híbridas, uso de redes públicas zero trust, aumento del trabajo remoto, mayor integración entre clientes y proveedores y preocupaciones por el desempeño y la seguridad de la red. Con respecto a las redes de interconexión, antes hasta cierto punto estáticas y controlables centralmente, se migra cada vez más hacia un conjunto de redes diversas que cooperan para proveer la conectividad necesaria a las aplicaciones en un ambiente heterogéneo y desprovisto de un control centralizado. En esa situación, monitorear el desempeño de las redes, diagnosticar fallas, reconocer patrones y tendencias de tráfico y del uso de las aplicaciones en las redes y detectar comportamientos anómalos constituye un reto que requiere un nuevo enfoque para su solución.

En esa década, fueron siendo alcanzados los límites de los métodos tradicionales de monitoreo y diagnóstico, basados en el análisis por los especialistas de indicadores (proporcionados por elementos de red, por sistemas de gestión de red y por elementos adicionales – probes de hardware o agentes de software – insertados en las redes). Se suma a ese panorama la dificultad de integración de las informaciones de fuentes diversas, la diversidad de tecnologías y arquitecturas de las nuevas redes y la escasez en el mercado de especialistas experimentados, entre otros factores. La consecuencia era que se hacía cada vez más difícil, laborioso, lento y costoso solucionar los problemas de desempeño.

NPMD y la transformación de la gestión de redes

Es en ese ambiente que se crea el concepto de NPMD (Monitoreo y Diagnóstico del Desempeño de Redes), que describe el enfoque que conduce a una visión integrada de las redes heterogéneas y que, con el auxilio de aprendizaje de máquina (ML, Machine Learning), y más recientemente, de inteligencia artificial (IA – o, en inglés, AI, Artificial Intelligence). El concepto, que comenzó sencillo en la primera mitad de la década de 2010 ha evolucionado con rapidez. El uso de NPMD, en la práctica, es lo que permite que la operación de redes complejas y diversas pueda ser resuelta con un control integrado en visiones amplias y al mismo tiempo extremadamente detalladas y granulares de la red, que permiten la detección y análisis inmediatas de variaciones de desempeño, la calificación del impacto de estas variaciones y la rápida solución de los problemas. Solo con este enfoque es posible garantizar la gestión de la experiencia del usuario final en estas redes diversas, complejas y en constante mutación.

El papel estratégico del inventario de redes

Es preciso resaltar que toda esa inteligencia de la red requiere una base de informaciones sólida y muy bien estructurada sobre todos los recursos de red existentes, tanto de hardware como de medios de comunicación y de conexiones físicas y lógicas a través de las redes.

Una parte que requiere especial atención es la que se refiere a los recursos de redes y de conexiones físicas – algo que normalmente no solía ser informatizado y dotada de un acceso automático a sus configuraciones. Ningún sistema de gestión de redes será eficaz si deja de incluir el inventario de redes físicas. La integración del inventario de la parte física de la red es lo que permite tener visibilidad total del estado de la red y de la disponibilidad de recursos para la configuración y aprovisionamiento de los servicios, además de la localización y reparación de eventuales fallas.

Actualización continua: esencial para la eficiencia

El inventario de red al que nos referimos, y sobre el cual reposan todas las funciones de gestión de las redes, de los servicios y del propio negocio, contiene una descripción detallada de cada conexión existente en la red.

Dependiendo de la finalidad de la empresa, el inventario de redes puede contener desde todas las conexiones físicas hasta las conexiones lógicas en las múltiples capas de la red.

Una empresa de redes de acceso de banda ancha, por ejemplo, puede estar interesada en describir toda la red física GPON. Esta descripción tiene en cuenta desde las rutas de ductos y de fibras y la ubicación de las cajas de acceso, las cajas de empalme y los usuarios conectados hasta los dispositivos de red. De esta forma es posible obtener una visión georeferenciada de cada fibra y de cada cliente hasta el puerto de OLT y de los routers, de modo que una falla en cualquier punto de la red puede ser localizada físicamente en un abrir y cerrar de ojos.

Más aún, la posibilidad de poder utilizar el sistema para reservar capacidad para atender a nuevos clientes, tener una visión inmediata de los recursos libres y ocupados, hacer un proyecto, emitir órdenes de servicio – todo ello en una plataforma común, detallada, sencilla de consultar y de fácil acceso por los equipos de ventas, de diseño, de instalación y de construcción, hace del inventario de redes una pieza muy importante de la gestión.

Ya una empresa que vende capacidad en sus redes ópticas puede querer tener esa misma visión de sus redes ópticas – el recorrido georeferenciado de conductos, cables, tubos holgados y fibras, cajas de acceso, cajas de empalme, cables de bajada, posiciones en los distribuidores de interfaces ópticas (DIOs y DGOs), y las respectivas conexiones desde el acceso del cliente hasta los elementos de red activos en las localidades del operador. Pero, además, también puede describir todas las conexiones lógicas que cursan por esas fibras – en el nivel óptico DWDM (longitudes de onda), en el nivel de multiplexación (SDH u OTN) y en el nivel de conexiones de servicios de transporte en capas de conexión y de red (MPLS y Carrier Ethernet, por ejemplo, o IP). Un sistema de inventario completo permite alcanzar el nivel deseado de los servicios y representar todas las conexiones en el inventario georeferenciado unificado de la red.

Lo importante es que ese inventario sea capaz de dar soporte a la operación del negocio de forma directa e integrada, permitiendo la visualización de todo el recorrido de las conexiones a través de toda la red y de la disponibilidad de capacidad en toda la red para una rápida configuración y aprovisionamiento del servicio. Y, lo más importante, que pueda mantenerse al día con todos los cambios del día a día.

Una visión integral para respaldar la operación

El sistema debe poder prestar soporte a las plataformas de ingeniería y de operación, tanto para que éstas consulten el inventario para proyectos como para que lo modifiquen para su actualización automática. Un inventario de redes no actualizado, y que representa solo una imagen instantánea de la red en un momento, tiene poca utilidad en el soporte a la operación.

La visión representada en el sistema de inventario de redes, por lo tanto, da soporte a todos los sistemas de gestión de la empresa, y a todos los grupos de trabajo, yendo desde la operación, desarrollo, servicios y aplicaciones de redes, pasando por la seguridad y toda la parte de Inteligencia Artificial de la cual depende cada vez más la eficacia de los sistemas de gestión de servicios y del negocio.

De Cristiano Henrique Ferraz – CTO de Netcon Americas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *