Saludos en este curso abarcará las siguientes unidades
1. Las redes de Telecomunicaciones
2. Redes inteligentes eléctricas
3. Redes de Próxima Generación (NGN: Next Generation Network)
4. Gestión de Redes Inteligentes.
Las redes de telecomunicaciones son infraestructuras encargadas del transporte de la información. Para recibir un servicio de telecomunicaciones, un usuario utiliza un equipo terminal a través del cual obtiene entrada a la red por medio de un canal de acceso.
Cada servicio de telecomunicaciones tiene distintas características, puede utilizar diferentes redes de transporte, y, por tanto, el usuario requiere de distintos equipos terminales.
Se dividen en tres partes:
1. Red de Acceso – Última milla hasta el usuario
2. Red de Transporte/Distribución/Agregación – Comunicación desde la Red de acceso al Núcleo de Red
3. Núcleo de Red - Conmutación
El mercado de telecomunicaciones de Ecuador ofrece oportunidades de inversión y crecimiento, en especial, después de los recientes proyectos de ley para rebajar el costo del espectro para las compañías establecidas Telefónica, América Móvil y CNT, así como para las firmas que se sumen.
Todavía quedan segmentos de la población sin conexión y grandes oportunidades de incremento en ingreso promedio por usuario (ARPU). La cobertura 4G es baja en comparación con países de población y tamaño económico similares en la región.
A fines de noviembre en 2022, el país tenía 18,3 millones de líneas móviles en servicio, de las cuales un 78,6% era de pago y solo un 21,3%, de pospago, según estadísticas del regulador Arcotel. Alrededor de un 55% de todas las líneas ofrecía 4G LTE. La marca Claro es el líder con una participación de mercado de 51,5%, seguida de Telefónica (Otecel) con un 31,1% y la teleco pública CNT con un 17,2%. La penetración de la banda ancha fija ha subido a 56%, o 2,7 millones de accesos. Sin embargo, la cifra también es comparativamente baja, lo que abre posibilidades de crecimiento para los protagonistas en este campo —Megadatos, CNT, Conecel (Claro) y Setel— y, en particular, para los proveedores de servicios de internet, que en conjunto representan cerca de un tercio de estos accesos en la nación.
El ritmo de esta expansión y la magnitud de las oportunidades dependen, por supuesto, de factores macroeconómicos, la estabilidad política y la capacidad de consumo de los hogares, empresas y personas. Arcotel expidió hace poco un nuevo reglamento sobre el otorgamiento y renovación de títulos habilitantes para la prestación de servicios de telecomunicaciones, audio y video por suscripción, entre otros. La norma incluye cambios en el valor de los derechos y las tarifas por uso del espectro.
La implementación de la agenda nacional de transformación digital 2022-2025 cumplirá la mayoría de los hitos fijados para 2024. Los pilares de la agenda son infraestructura digital, cultura e inclusión digital, economía digital, tecnologías emergentes para el desarrollo sostenible, gobierno digital, interoperabilidad y procesamiento de datos, seguridad y confianza. Por último, en cables submarinos, Aurora y Galápagos Cable System podrían activarse en 2023 para sumarse a Pacific Caribbean Cable System (PCCS), South America-1 (SAM-1) y el más nuevo, Mistral. Otro cable que conectará el país es Carnival Submarine Network-1 (CSN-1).
La red de Transporte se define como una infraestructura de red que proporciona conectividad y ancho de banda para los servicios al cliente. Se encarga de hacer posible que la red alcance cualquier extensión geográfica. Las redes de transporte (backbone) puede terminar en diferentes redes de acceso dependiendo de los servicios y los tipos de usuario. De tal forma dependerá de la capacidad de comunicaciones que se quiera ofrecer mediante el sistema de acceso que se elija.
Hoy en día tiene plataformas MPLS, SDH e IP. Las redes troncales de telecomunicaciones hacen posible el transporte de tráfico gracias a que comparten los distintos sistemas de transmisión y conmutación entre todos los usuarios
La Jerarquía Digital Síncrona (SDH) también conocida como Red Óptica Síncrona (SONET; terminología ANSI), que se formalizó y estandarizó por primera vez en 1988. SDH/SONET es la segunda generación de jerarquía, y se basa en una infraestructura física de fibras ópticas. Anteriormente existía PDH o Jerarquía Digital Plesiócrona, la cual era un conjunto de sistemas de transmisión digital de información agrupados en niveles o jerarquías, según su capacidad de transporte de información, donde los equipos operan de manera plesiócrona. Tanto PDH y SDH/SONET son modelos de red de conmutación de circuitos centrada en la voz que conmutan millones de circuitos de 64 Kbps entre varios puntos de conmutación.
Un parámetro técnico del transporte de datos es la capacidad del canal. Se llama capacidad de un canal a la velocidad, expresada en bps ( bits por segundo), a la que se pueden transmitir los datos en un canal o ruta de comunicación
Las limitaciones en el ancho de banda surgen de las propiedades físicas de los medios de transmisión o por limitaciones que se imponen deliberadamente en el transmisor para prevenir interferencia con otras fuentes que comparten el mismo medio.
Cuanto mayor es el ancho de banda mayor el costo del canal.
Las pérdidas y retardos
Se tomará en cuenta:
Los paquetes son encolados en la memoria de cada router
Tasa de arribo de paquetes puede exceder la capacidad de salida del enlace
Los paquetes son encolados, y esperan por su turno.
Características del retardo, se describen 4 aspectos:
Así dentro de la gestion de la red de transporte sea cual fuese su tecnología, deberá alcanzar indicadores de disponibilidad y de calidad de servicio (QoS) del tráfico de los datos o información. Se debe minimzar perdidas y retardos para aquello es vital medirlos y tomar acciones de control. Internamnete los programas de gestión calculan o registran esos parametros de QoS. A través de modelos matemáticos se calcula el patron de trafico. Modelos matemáticos como el de Teoría de Colas; pueden describir o analizar el comportamiento de las líneas de espera. La existencia de colas o líneas de esperas se presenta cuando existen momentos en los que hay una mayor demanda que capacidad de servicio en un sistema determinado. En el caso de redes de telecomunicaciones, se tienen escenarios en el cual a través de un solo canal deben circular múltiples conversaciones telefónicas, programas de TV, datos informáticos, etc.
Una técnica que se usa para la asignación de ranuras de canales en la transmisión de red. es la multiplexación estadística. La multiplexación estadística es el proceso de mezcla de todas las señales en un canal cuya capacidad máxima es inferior a la suma de los máximos de cada una de las fuentes que se suman (se supone, de hecho, que es muy improbable que todas las fuentes produzcan su máximo de información simultáneamente). En cualquier caso debe garantizarse una calidad de servicio predeterminada. Los canales de transmisión se asignan automáticamente, según la necesidad. Si hay canales disponibles, los datos se pueden transmitir por varios de ellos. Todo esto acelera la velocidad de transmisión. Si los canales son más limitados, la información se transmite según la cantidad de datos que se necesitan para cada canal. También se puede usar al transmitir varios tipos de datos por la misma red. Este caso se da cuando los datos se dividen y se envían por la asignación total de canales disponibles.
El diseño de un multiplexor va desde lo muy simple a lo muy elaborado. En este contexto se plantean interrogantes ¿Cuál es el mejor diseño de la topología del multiplexor?. ¿Cuáles son los tamaños óptimos de los diversos buffers que contiene? Así, cabe preguntarse si es preferible un buffer de acceso compartido por todos los canales, un buffer individual para cada canal, o una solución intermedia. De modo intuitivo, un buffer único disminuiría las pérdidas de modo global, aunque podría incrementarlas localmente (cuando hay tráfico a ráfagas); por ello parece mejor compromiso una combinación de buffers individuales y compartidos; el dimensionamiento de tales buffers
Los Análisis de Colas relacionan:
En este contexto entre las herramientas que ofrece la teoría de colas se puede destacar:
• El tráfico como proceso estocástico (Tráfico de Poisson, Autosimilar,AR, MAP. TES)
• Análisis elemental de sistemas de colas: colas markovianas y semimarkovianas
• Modelos de Conmutadores y Multiplexores:
*Objetivos del diseño de una disciplina: reducir la complejidad de la implementación, controlar parámetros de calidad, garantizar (o no) ecuanimidad entre las conexiones.
* Colas compartidas o una cola para cada clase de cliente.
*Servicio FIFO, según prioridades, etc.
• Modelos para el control de la congestión: WFQ, descarte según prioridades.
• Modelos para simulación.
SMART GRID
Las redes eléctricas nteligentes en inglés Smart Grid explotan tecnologías digitales e innovadoras para administrar y monitorear el transporte de electricidad desde todas las fuentes de generación para satisfacer de manera rápida, rápida y efectiva la demanda de los usuarios finales.
Son básicamente redes de distribución eléctrica combinadas con modernas tecnologías de información, que proporcionan datos tanto a las empresas distribuidoras de electricidad como a los consumidores aumentan la confiabilidad, estabilidad del sistema, y minimización de interrupciones, etc. Algunas de estas nuevas tecnologías, como la Generación Distribuida (DG) compuesta por un generador de Fuente Renovable (ejemplo; paneles solares, aerogeneradores) y un equipo de acople a la red (por ejemplo, un inversor que convierte la corriente continua en corriente alterna).y las microrredes (red eléctrica autónoma que permite generar tu propia electricidad en el sitio y usarla cuando más la necesites) proporcionan energía localmente, creando redes más grandes y confiables y reduciendo la sobrecarga de la línea. A diferencia del sistema de energía existente de un sistema unidireccional, que distribuye la electricidad generada por una planta de energía al consumidor, la microrred está equipada con un sistema de almacenamiento y suministro de energía local centrado en fuentes de energía distribuidas independientes. Además puede generar ingresos si produjera un excedente de energía, que podría venderse al proveedor de energía.
Las smart grids pueden monitorear automáticamente los flujos de energía y adaptarse a los cambios en la demanda y el suministro de energía de una manera flexible y en tiempo real. Aquí, las herramientas de medición inteligente podrían informan a los consumidores y proveedores, brindándoles información sobre el consumo en tiempo real. Con los contadores inteligentes, los consumidores pueden adaptar, en términos de tiempo y volumen, su consumo de energía a diferentes precios de energía durante el día, ahorrando en sus facturas de energía al consumir más energía en períodos de precios más bajos.
Comunicación para redes de sensores AMI
Las mediciones remotas y la convergencia en el sistema SCADA. Parten por la red de comunicación como portadora de intercambio de información entre unidades terminales remotas y estaciones maestras, es la parte clave del sistema SCADA y tiene un alto requisito de seguridad. Sin embargo, debido a la amplia distribución de la red y la estructura de la red interconectada, es susceptible a riesgos. Por lo tanto, existe una necesidad urgente de una predicción de riesgos precisa y en tiempo real. Estos sistemas evolucionan en un modelo de predicción de riesgo basado en el modelo de entropía gris, donde el modelo gris se utiliza para predecir los valores de los índices de riesgo de la red, y el método de entropía determinar el peso de esos índices de riesgo. El valor de riesgo general de la red se decide con un proceso de jerarquía analítica.
Sistema de Gestión de energía
En la gestion de una smart grid, es esencial que todos los componentes involucrados trabajen juntos desde la generación hasta el consumo. Entonces, la planificación y su implementación en grid se realizan mediante la interoperabilidad. La NIST (National Institute of Standards and Technology),inició la interoperabilidad de redes inteligentes (SGIP), que era responsable de desarrollar y mantener los estándares para las redes inteligentes y todos los componentes involucrados deben comunicarse y operar de manera eficiente. También podía proporcionar una plataforma para que todas las partes interesadas de la red eléctrica, incluidos el cliente, los mercados, el proveedor de servicios, el sistema eléctrico, la red de generación, transmisión y distribución, trabajaran juntos para formar un sistema de red moderno, fiable y eficiente..
Ver video sobre Sistema de Medición Inteligente
▶️ Fundamentos de una Red Inteligente
▶️ Sistema de Medición Inteligente (SMI)
▶️ Plataformas de Gestión
▶️ Funciones de un SMI
▶️ Criterios de Evaluación de un SMI
La redes inteligentes se refieren a una red de telecomunicaciones que es independiente de los servicios. Esto significa insertar componentes inteligentes en nodos informáticos para que se distribuyan por toda la red. Como resultado, los operadores de red pueden controlar y desarrollar servicios de manera más eficaz. Así los nuevos servicios se pueden colocar rápidamente en la red y se pueden personalizar de acuerdo con las preferencias del consumidor.
¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨2 PARCIAL¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨
REDES DE PROXIMA GENERACIÓN
Según la ITU-T: “Una Red de Siguiente Generación es una red basada en la transmisión de paquetes capaz de proveer servicios integrados, incluyendo los tradicionales telefónicos, y capaz de explotar al máximo el ancho de banda del canal haciendo uso de las Tecnologías de Calidad del Servicio (QoS) de modo que el transporte sea totalmente independiente de la infraestructura de red utilizada. Cuando la NGN fue concebida, se la vio como la solución hacia una red de paquetes. Por esta razón y además por ser el vínculo de enlace con la red de circuitos, esta tiene ganado su lugar dentro del IMS (IP Multimedia Subsystem); en teoría hanta que no existan más redes de circuito. Sin embargo, aunque la red de un operador con una arquitectura IMS, no posea ya equipamientos legacy (heredados o bien no cuentan con soporte y mantenimiento y están limitados a nivel de crecimiento), todavía existirán las interconexiones con otros operadores no evolucionados o clientes que posean PBX cuya evolución seguramente deberá ser subvencionada por el operador.
Estas nuevas redes son construidas a partir del protocolo IP (Internet Protocol), siendo el término "all-IP" comúnmente utilizado para describir dicha evolución. NGN se caracteriza por los siguientes aspectos fundamentales:
NGN adopta una arquitectura estándar abierta y se basa en soft switching, que proporciona servicios integrados multimedia como voz, vídeo y datos. El Softswitch es una central telefónica de conmutación de circuitos evolucionada, que permite también transportar voz por redes de conmutación de paquetes. Facilita la autentificación y autorización de llamadas y su registro recogiendo la información de los sistemas de señalización SS7 (Signaling System 7) propios de la conmutación de circuitos. Permiten una fácil interoperabilidad entre la telefonía convencional y la telefonía IP. Pueden llegar a tener muchas funcionalidades: independencia del medio de transmisión (puede ser ATM, IP o TDM); soporte de diferentes protocolos de control y señalización; escalabilidad; interfaces para otras aplicaciones; etc.
Entonces para aplicaciones de voz, uno de los dispositivos más importantes en NGN es un Softswitch, dispositivo programable que controla las llamadas de voz sobre IP. Éste habilita la correcta integración de los diferentes protocolos en la NGN. Su función más importante es la de crear la interfaz para la actual red telefónica, a través de puertas de señalización (Signalling Gateways) y puertas multimedia (Multimedia Gateways). Sin embargo, el Softswitch como término puede ser definido de forma diferente por los fabricantes de equipos y puede hasta tener más y diferentes funcionalidades.
Aparte del protocolo IP y el MPLS (Multiprotocol Label Switching). En el nivel de aplicación, los protocolos SIP (Session Initiation Protocol), parecen haberse incorporado desde la norma ITU-T H.323.
Inicialmente H.323 era el protocolo más conocido a pesar de que su popularidad decayó en la red local por su deficiente gestión de NAT (Network Address Translation) y firewalls. Por este motivo, mientras se están desarrollando los servicios domésticos de VoIP, los nuevos servicios SIP están siendo mejor acogidos. Sin embargo, mientras que, en las redes de voz, todo el control se encuentra bajo el operador telefónico, la mayoría de los portadores a gran escala usan H.323 como elección más acertada. Por tanto, SIP es realmente una herramienta muy útil para la red local y el protocolo H.323 es como la norma para la fibra de transporte. Con los últimos cambios introducidos por el protocolo H.323, es posible que ahora los nuevos dispositivos H.323 soporten la gestión de NAT y firewalls. No obstante, la mayoría de las operadoras están haciendo un estudio intensivo y apoyo hacia el IMS (IP Multimedia Subsystem) que da al protocolo SIP una mejor oportunidad de ser el nuevo protocolo más ampliamente utilizado.
El IMS es una estandarización de arquitectura NGN para los servicios multimedia de Internet definida por el Instituto Europeo de Estándares de Telecomunicaciones (ETSI) y la 3GPP (del inglés 3rd Generation Partnership Project). El MPLS dos década atrás, fue de gran ayuda para los proveedores a la hora de desplegar y ampliar sus redes, aunque su mayor velocidad en la transmisión de datos pronto retrocedió a un segundo plano con la entrada en juego de la nueva generación de routers de mayor rendimiento con procesador de red integrado. No obstante, hoy sigue siendo utilizado por muchos operadores como método con el que garantizar la calidad del servicio en el marco de la llamada ingeniería o gestión de tráfico (Traffic engineering, TE), un proceso que se ocupa del análisis y la optimización de flujos de datos y en el cual, además de la clasificación de cada conexión de datos, también tiene lugar un análisis del ancho de banda y de la capacidad de cada elemento de red. En función de los resultados de este análisis, la carga de datos se distribuye de la forma más conveniente con el propósito de fortalecer la red entera.
Otro ámbito de aplicación muy extendido de MPLS son las redes virtuales privadas o VPN redes aisladas de comunicación que utilizan infraestructuras de red, como Internet, como medio de transporte. Esto permite a los dispositivos conectarse a una red sin que estén físicamente conectados entre sí. Se diferencian básicamente dos tipos de redes virtuales MPLS:
VPN en la capa 2: las redes privadas en el nivel de enlace de datos pueden ser concebidas para conexiones punto a punto o para el acceso remoto. Para el usuario de estas VPN, la capa 2 funciona de interfaz para establecer la conexión. Los protocolos básicos son el Point-to-Point Tunneling Protocol (PPTP) o el Layer 2 Tunneling Protocol (L2TP). De este modo los proveedores de servicios tienen la posibilidad de ofrecer a sus clientes servicios similares a SDH y Ethernet.
VPN en la capa 3: estas redes representan para los proveedores de servicios una solución asequible para ofrecer a diferentes clientes (independientemente de los rangos privados de direcciones IP) estructuras de red completamente enrutadas erigidas sobre una única infraestructura IP. La gestión independiente de los clientes mediante etiquetas MPLS individuales y rutas de paquetes predefinidas garantizan la calidad del servicio (los nodos no enrutan en este caso).
Los operadores de grandes redes WAN (Wide Area Network) obtienen beneficio de las ofertas de proveedores basadas en MPLS porque, configuradas correctamente, las Label Switched Paths optimizan el tráfico de datos y garantizan que todos los usuarios dispongan siempre del ancho de banda que necesitan sin un gran coste. El método también constituye una solución adecuada para redes universitarias internas o para redes corporativas, siempre y cuando se cuente con el presupuesto suficiente.
Ventajas de las VPN con MPLS
La conmutación de etiquetas multiprotocolo compite como tecnología para redes virtuales con la extensión de la pila de protocolos IP IPsec. La actualización de seguridad del protocolo de Internet se caracteriza en especial por sus propios mecanismos de cifrado y su bajo coste, pero la realización de la infraestructura con IPsec no es responsabilidad del proveedor sino del mismo usuario, por lo que, a diferencia del método MPLS, implica más trabajo por su parte. A este respecto el método MPLS ofrece una clara ventaja, pero además se pueden enumerar las siguientes:
Escaso mantenimiento: operar una red MPLS es responsabilidad del proveedor, como también la configuración IP y el enrutamiento. El cliente se beneficia entonces de una infraestructura acabada, ahorrándose así el esfuerzo de desplegar una red propia.
Rendimiento excelente: al estar definidas de antemano, las rutas de los datos proveen a la transmisión de una elevada velocidad sometida solo a escasas variaciones. Los acuerdos del nivel de servicio (SLA, Service Level Agreements) entre el proveedor y el cliente garantizan obtener el ancho de banda deseado y un soporte agilizado en caso de fallo.
Gran flexibilidad: las redes VPN basadas en MPLS garantizan a los proveedores de Internet un amplio margen de maniobra en la cuestión del reparto de recursos, lo que al final también beneficia al cliente. Los proveedores pueden, con este método, acordar paquetes específicos de prestaciones y escalar las redes siempre que se necesite.
Posibilidad de priorizar servicios: gracias a la infraestructura MPLS, los proveedores pueden ofrecer diferentes niveles de QoS porque en ella el ancho de banda alquilado no es estático sino clasificable (Class of Service). De esta forma se pueden priorizar algunos servicios como VoIP para garantizar la estabilidad de la transmisión.
Centros de datos de próxima generación.
Al igual que el mundo digital, los interminables terabytes de datos que lo respaldan crecerán, al igual que la constelación de centros de datos, cuyo número se espera que se duplique en menos de una década. La refrigeración por agua de los centros de datos está cambiando el juego de la sostenibilidad.
La gestión de la red es el proceso de mantener y organizar los componentes activos y pasivos de la red. Proporcionará los servicios para el mantenimiento de los componentes de la red, así como la supervisión y administración del rendimiento de la red. Identifica la falla, investiga, soluciona problemas, administración de la configuración y cambios en el sistema operativo para cumplir con todos los requisitos del cliente. La administración de red permite que las computadoras en una red se comuniquen entre sí, controlen las redes y permitan la resolución de problemas o mejoras de rendimiento.
Gestión de fallos:
La gestión de fallos es el proceso de tecnología que se utiliza para mantener al administrador que evita fallos dentro de un sistema en red de modo que la posibilidad de tiempo de inactividad se reduzca al detectar, aislar y arreglar cualquier mal funcionamiento que ocurra. Mantenga los componentes activos y pasivos para desautorizar la culpa. La gestión de fallas de red se puede monitorear a través de programas que envían algunas notificaciones al administrador si la red comienza a deteriorarse en cualquier área monitoreada y ayuda a reducir el impacto de una falla que surja en la red.
Gestión de la configuración:
La función básica de la gestión de la configuración es gestionar el equipo en la red. Esto incluye el seguimiento y la gestión del equipo en la red, incluida la gestión de las versiones de software del equipo. La gestión de la configuración es el proceso de configurar y realizar un seguimiento de las conexiones en una red. Contiene información sobre los programas, versiones y actualizaciones instaladas en las computadoras de la red. La gestión de la red ayuda a la red a mejorar el rendimiento y resolver cualquier problema que surja.
Supervisión del rendimiento:
La función de monitoreo del desempeño es monitorear cómo se han estado desempeñando las partes clave de la red. La supervisión del rendimiento son los tiempos de respuesta del usuario si el usuario solicita cualquier documento o archivo, se anotará el tiempo de respuesta del servidor y se determinará el rendimiento de la red con qué rapidez se transfieren los datos a través de una red.
Se utiliza para medir el rendimiento de la red y los usuarios.
Gestion de seguridad:
La gestión de la seguridad es esencial en la red para garantizar la seguridad, prevenir virus y otras amenazas mediante la implementación de software antivirus para evitar que los virus entren en una red. Virus como archivos, documentos en Internet, software espía. Si un virus ingresa en una red, reducirá el rendimiento de la red y comete una falla en el trabajo, por lo que se usa para llevar los archivos de respaldo a otro servidor en caso de un ataque, por lo que se mantiene seguro si se produce alguna pérdida de datos .
Contabilidad (informe de datos)
Recopilación de datos de uso (de servicios basados en el monitoreo y la medición) y las interacciones que pasan a través de un punto determinado en un sistema, Define políticas de contabilidad y tarifas, que permitirán generar facturas y cargos a los usuarios Si ocurre alguna falla en el sistema, el administrador puede ir al registro y ver qué pudo haberla causado. Existe administración de tarifas, control de cambios en el sistema de tarifas, control de generación de registro, control de transferencia de datos, control de almacenamiento de datos
Así el administrador obtenga un informe detallado sobre el rendimiento del sistema y el uso de la red para informar.
El rastreo de redes
Si bien el rastreo de redes tiene varios usos legítimos, generalmente se asocia con la comunidad de piratas informáticos. Una vez que la información se envía a través de una red, se divide en paquetes. Estos paquetes contienen una pequeña cantidad de información, las direcciones del receptor y del remitente y algunos datos técnicos. El hardware o software especializado puede interceptar y copiar estos paquetes. Una vez que tiene una copia, el usuario puede abrir el paquete y leer la información y las direcciones.
Cuando se realiza desde el interior de una red, suele tratarse de un método de solución de problemas y seguridad interna. Los administradores del sistema supervisarán los paquetes de forma aleatoria para asegurarse de que el destinatario previsto no esté intentando eludir los protocolos de seguridad de Internet o acceder a ubicaciones bloqueadas. Con esta forma de rastreo de redes, normalmente solo se leen las direcciones.Si se utiliza como método de resolución de problemas de la red interna, los paquetes se analizan en secuencias, a menudo desde un conmutador de red completo. Los paquetes se comprueban en busca de degradación en los datos o secuencias faltantes. Si hay algún problema, es probable que la red tenga una pieza de hardware defectuosa. Las ubicaciones adicionales se prueban utilizando métodos similares hasta que se encuentra la pieza defectuosa.
El rastreo de redes externas tiene dos áreas básicas; Inalámbrico y cableado. La detección inalámbrica implica moverse físicamente y buscar puntos de acceso inalámbricos. Los analizadores de paquetes se utilizan en la información saliente a través del sistema inalámbrico para encontrar los tipos de hardware utilizados para la difusión. Entonces es posible encontrar su información de inicio de sesión predeterminada y acceder a las capacidades de seguridad y vulnerabilidades de esa pieza específica de hardware.
El rastreo inalámbrico puede apuntar a tramas, paquetes o ambos. Las tramas de destino pueden revelar la presencia de una estación base inalámbrica que está configurada para permanecer oculta, e incluso se puede utilizar para descifrar estándares de encriptación inalámbricos más antiguos. El rastreo de paquetes, que también se puede llamar rastreo del proveedor de Internet (IP), se puede utilizar para monitorear el correo electrónico u otros datos que otros envían a través de una red inalámbrica. El software de rastreo examina todos las tramas o paquetes, independientemente de la computadora a la que esté destinada la información. En rsumen el programa de rastreo envía comandos al adaptador,de red inalámbrica que luego captura y envía los paquetes de datos al rastreador.
Los administradores pueden usar herramientas de rastreo para monitorear la efectividad de los filtros de correo no deseado, los firewalls de red y los sistemas de control de acceso y prevención de intrusiones. Los piratas informáticos pueden capturar información confidencial de la empresa, así como información personal, contraseñas y direcciones de control de acceso a medios (MAC). Con esa información, pueden acceder a las cuentas, enviar correos electrónicos no deseados desde una dirección de correo electrónico falsificada o dirigir a los usuarios web a sitios web maliciosos, entre otros usos.
Los usuarios y los administradores de TI deben asegurarse de usar la protección adecuada para evitar que los rastreadores inalámbricos se utilicen de manera inapropiada. Los protocolos de seguridad como Secure Sockets Layer (SSL), Wi-Fi Protected Access, (WPA), Wired Equivalent Privacy (WEP) pueden ayudar a proteger una red. El uso de cifrado y una base sólida en las prácticas de seguridad habituales puede ayudar a frustrar los usos maliciosos de los rastreadores inalámbricos.
Un sistema de prevención de intrusiones (IPS) supervisa los paquetes de datos de una red en busca de actividad sospechosa e intenta tomar medidas utilizando políticas específicas. Actúa como un sistema de detección de intrusos que incluye un firewall para prevenir ataques. Envía una alerta a un administrador de red o de sistemas cuando se detecta algo sospechoso, lo que permite al administrador seleccionar una acción a tomar cuando ocurre el evento. Además, pueden monitorear una red completa, protocolos de red inalámbrica, comportamiento de la red y el tráfico de una sola computadora. Cada sistema IPS utiliza métodos de detección específicos para analizar los riesgos. Dependiendo del modelo de IPS y sus características, un sistema de prevención de intrusiones puede detectar varias brechas de seguridad.
Algunos pueden detectar la propagación de malware a través de una red, la copia de archivos grandes entre dos sistemas y el uso de actividades sospechosas como el escaneo de puertos. Una vez que el IPS compara el problema con sus reglas de seguridad, registra cada evento y documenta la frecuencia del evento. Si el administrador de la red configuró el sistema IPS para realizar una acción específica basada en el incidente, toma la acción asignada. Se envía una alerta básica al administrador para que pueda responder adecuadamente o ver información adicional en el IPS, si es necesario.
Hay cuatro tipos generales de sistemas de prevención de intrusiones, que incluyen análisis de comportamiento de red, inalámbricos, basados en red y basados en host. Un sistema IPS basado en red analiza varios protocolos de red y se usa comúnmente en servidores de acceso remoto, servidores de red privada virtual y enrutadores. Un IPS inalámbrico observa actividades sospechosas en redes inalámbricas y también busca redes inalámbricas no autorizadas en un área. El análisis del comportamiento de la red busca amenazas que podrían derribar una red o propagar malware y se usa comúnmente con redes privadas que se conectan a Internet. Un IPS basado en host funciona en un solo sistema y busca procesos de aplicación extraños, tráfico de red inusual hacia el host, modificación del sistema de archivos y cambios de configuración.
Hay tres métodos de detección que puede usar un sistema de prevención de intrusiones, y muchos sistemas usan una combinación de los tres. La detección basada en firmas funciona bien para detectar amenazas conocidas al comparar un evento con una firma ya documentada para determinar si se ha producido una infracción de seguridad. La detección basada en anomalías busca actividad anormal en comparación con los eventos normales que ocurren en un sistema o red y es particularmente útil para identificar amenazas desconocidas. El análisis de protocolo con estado busca actividad que vaya en contra de cómo se usa normalmente un protocolo específico.
Revisar sobre rastreo de red y medición de trafico con NetFlow Analyzer
Caso: Una universidad en Reino Unido sufre ataque cibernético en su red T.I
Diferencia entre un administrador de red y sistema
Un administrador del sistema administra las computadoras de una organización, mientras que el trabajo del administrador de la red es gestionar la forma en que las computadoras se comunican entre sí. Tanto un administrador de red como de sistema a menudo se encuentran en la necesidad de comprender cómo configurar y solucionar problemas de computadoras en su red. Además, ambos a menudo tienen que comprender los conceptos básicos de las redes, aunque solo sea para ayudar en el proceso de resolución de problemas.
El administrador del sistema normalmente tendrá la tarea de manejar problemas de menor alcance, como problemas de usuarios de computadoras y problemas de hardware. Un administrador de red, por otro lado, se ocupa de problemas de mayor escala, como la seguridad de la red y la gestión de interacciones entre computadoras. Los administradores del sistema deben conocer íntimamente los sistemas operativos utilizados por todas las computadoras en el sistema operativo de la organización . Su trabajo consiste en administrar a otros usuarios de computadoras agregando y eliminando cuentas de usuario, así como en la resolución de problemas de hardware y software.
Algunas organizaciones grandes contratan un departamento de soporte técnico para asesorar a los usuarios sobre cómo resolver sus propios problemas, pero si esto no funciona, el problema se deriva al administrador del sistema. La realización de copias de seguridad de los datos, la optimización del rendimiento y la aplicación de actualizaciones y parches al software de la computadora y los sistemas operativos son tareas realizadas por el administrador del sistema. También suele ser capaz de escribir pequeñas piezas de software, llamadas scripts, que automatizan determinadas tareas informáticas.Los administradores del sistema pueden necesitar certificaciones como Microsoft Certified Professional (MCP) o la serie de certificaciones Red Hat y CompTIA.
Los problemas que un administrador del sistema no puede resolver suelen estar relacionados con la red, como las violaciones de seguridad por parte de intrusos externos a la organización, y deben ser manejados por un profesional de redes. Los administradores de red también pueden desempeñar el papel de ingenieros de red. Esto implica diseñar y construir redes informáticas completas desde cero. Sus habilidades son activos clave cuando se trata de establecer la infraestructura de TI de una nueva organización. El software del administrador del sistema generalmente incluyen programas para monitorear la acción en un sistema y responder a eventos o problemas que ocurren. Los programas comunes incluyen herramientas que un administrador puede usar para tomar el control de un terminal remoto y software para administrar cuentas y contraseñas.
Existen tipos de software de administrador del sistema que se utilizan como herramientas de copia de seguridad y recuperación para proteger los datos y programas para garantizar la protección contra software malintencionado (crea rápidamente un disco de recuperación o hace una imagen de disco completa como copia de seguridad). También hay muchos programas diseñados para la asignación y el control de cuentas en un sistema. Esto puede incluir software de administrador del sistema que se utiliza para crear y distribuir rápidamente nombres de usuario y establecer contraseñas predeterminadas. Se pueden incluir controles de seguridad y contraseñas adicionales, como programas que escanean contraseñas para encontrar aquellas que son débiles o comprometidas y envían una notificación al administrador.
Se pueden utilizar otras herramientas para realizar pruebas de mayor seguridad, como los programas que lanzan un ataque a una red o intentan piratear contraseñas. Un ejemplo de software es PRTG es una herramienta de supervisión central para redes WAN, LAN.
I.A en Gestión de red
La supervisión de la red avanza gracias a la inteligencia artificial. Un laboratorio de Orange en Belfort desarrolló una solución de análisis predictivo que puede evitar la sobrecarga del tráfico de la red móvil. Orange basada en IA es capaz de predecir la congestión de la red 30 minutos antes de que ocurra, lo que permite a los ingenieros resolver proactivamente los problemas antes de que surjan.
Un algoritmo detecta una congestión inminente 30 minutos antes de que ocurra, con una tasa de éxito superior al 80%. Esta solución de mantenimiento predictivo ahorra a los ingenieros de red de Orange un tiempo valioso, lo que les permite descargar la congestión de la celda y distribuir la carga a las celdas vecinas como medida de precaución.
El algoritmo utiliza técnicas de aprendizaje automático para observar tendencias en cuatro indicadores de calidad de radio (latencia; rendimiento promedio en el enlace descendente; número promedio de usuarios en el enlace descendente por celda; y carga de celda) y determinar el vínculo entre el comportamiento de estos indicadores y la ocurrencia. de congestión en una celda determinada. Si uno de estos indicadores excede un umbral particular, esto automáticamente causa congestión en la red. Al estudiar el comportamiento de estos indicadores a lo largo del tiempo sobre la base de algoritmos de aprendizaje automático, se predice cuándo se producirá la congestión en una celda determinada,
Por lo general, los indicadores de desempeño se consideran individualmente. Con esta solución artificialmente inteligente, el problema se vuelve multidisciplinario ya que se considera el impacto de varias variables al mismo tiempo. En cuanto a la preparación de datos, se ha adoptado un enfoque funcional, utilizando funciones matemáticas con el objetivo de comprender las tendencias de los datos a lo largo del tiempo. Se corrigen errores y agregan datos faltantes utilizando valores cercanos a la realidad.
Caso: Amazon Datazone, (AWS) es un nuevo servicio de administración de datos que permite eficientar los procesos de catalogar, descubrir, compartir y controlar los datos almacenados donde sea que estén. Presenta nuevas capacidades de su servicio serverless de inteligencia de negocios QuickSight, que ahora integra funcionalidades de Machine Learning y procesamiento de lenguaje natural para responder preguntas puntuales sobre los datos, incluyendo qué y por qué. Por ejemplo, se le puede preguntar cuáles fueron las ventas de determinado periodo, y por qué cayeron o subieron. Integra, además, funcionalidades de pronóstico, por lo que también se le puede pedir cuáles serán las ventas para el próximo año. Hoy en día, Machine Learning permite predecir lo que sucederá en el futuro y también construir inteligencia en sistemas y aplicaciones.