Introducción a la Ingeniería Telemática y las Redes de Comunicación


¿Qué es la Ingeniería Telemática?

La ingeniería telemática es la aplicación de técnicas de telecomunicación e informática a la transmisión de información digital a larga distancia. Es una disciplina relacionada con el diseño, implementación, gestión y monitorización de las infraestructuras y servicios de telecomunicación.

Redes de Comunicaciones

Una red de telecomunicaciones es una red de enlaces y nodos (combinación de hardware y software), ordenados para la comunicación a distancia, donde los mensajes pueden pasarse de una parte a otra de la red sobre múltiples enlaces y a través de varios nodos. Es una infraestructura que facilita el intercambio de información entre usuarios de una red. Los mensajes en una red son generados por un terminal de envío. A continuación, se transmiten a través de enlaces y nodos hasta que llegan al terminal de destino.

Clasificación de Redes de Comunicación

En una red podemos tener elementos de interconexión (por ejemplo, un router, switch…), terminales…

Según el tipo de conexión

  • Comunicaciones punto a punto: Son las redes que responden a un tipo de arquitectura de red en las que cada canal de datos se usa para comunicar únicamente dos nodos. (Conversación por teléfono).
  • Comunicación punto a multipunto: En este caso, el emisor transmite a muchos receptores; también puede existir información de retroalimentación entre el emisor y los receptores. (Radio, televisión).
  • Comunicación multipunto a multipunto: Es el caso más genérico, donde en un conjunto de terminales pueden distinguirse varios emisores y varios receptores compartiendo la única línea de transmisión. (Los sistemas de chat, donde conceptualmente todos los terminales son a la vez emisores y receptores).

Según la topología física

La topología es la disposición física de las estaciones en el medio de transmisión.

  • Red en estrella: En esta red, cada nodo está conectado a un punto central y todas las comunicaciones se hacen a través de este punto; los dispositivos no están conectados directamente entre sí. (Google).
  • Red en bus: No hay elementos de interconexión, hay un bus que se asocia a X terminales (se caracteriza por tener un único canal de comunicaciones, al cual se conectan diferentes dispositivos). (Cafés de internet).
    • Ventaja: El coste es barato.
    • Desventaja: La red es inestable, es decir, si hay un fallo en la red, todo lo demás deja de funcionar.
  • Red en aro (poco utilizada): Cada estación tiene una conexión de entrada y otra de salida, tiene un receptor y un transmisor que hace la función de traductor, pasando la señal a la siguiente estación. Solo en una dirección. La usa la empresa IDM.
  • Red en malla (mesh): Cada nodo está conectado a todos los nodos, por lo que es posible llevar un mensaje de un nodo a otro por los distintos caminos; si la red está conectada completamente, no debe de existir ninguna interrupción al comunicar.
    • Ventaja frente a la red comercial: La red mallada necesita un medio físico para conectarme al resto de terminales de la red.
    • Algunos inconvenientes son el alto coste de la red y que si un enlace se rompe afectaría. La seguridad solamente se hace entre la línea entre dos terminales.

Según ámbito geográfico

  • LAN: Local Area Network (Red de Área Local). Una LAN es la red que conecta los ordenadores en un área relativamente pequeña y predeterminada. (WiFi de la casa o del laboratorio). Su topología es en estrella y su origen era en bus.
  • WAN: Wide Area Network (Red de Área Amplia). Es un grupo de computadoras conectadas en red a largas distancias (100 km hasta 1000 km) dando el servidor a un país o continente. (IBM, internet). Su topología es conexión punto a punto, puede ser mallada o en estrella.
  • PAN: Personal Area Network (Red de Área Personal). Es una red de ordenadores usada para la comunicación entre los dispositivos la computadora acerca de una persona (punto de acceso).
  • VAN: Vehicle Area Network. Utilidades en los fabricantes de vehículos cuando la pantalla se conecta al móvil. Su topología suele ser mallada.

Servicios de Telecomunicación

Los servicios de telecomunicación son la utilidad o el provecho que resulta de la prestación, uso y aplicación del conjunto de capacidades y facilidades que nos ofrece la telecomunicación.

Protocolos de Comunicación

Un protocolo de comunicaciones es un conjunto de normas que están obligadas a cumplir todos las máquinas o entidades (cualquier cosa capaz de enviar o recibir información) y programas que intervienen en una comunicación de datos entre ordenadores, sin las cuales la comunicación resultaría caótica y, por tanto, imposible.

Elementos clave de un protocolo

  • Sintaxis: El orden en el cual se presentan los datos.
  • Semántica: Significado de cada sección de bits.
  • Temporización: Cuándo se deberían enviar los datos y con qué rapidez.

Router

  • Definición: Dispositivo de hardware que permite la interconexión de ordenadores en la red. Su función es la de establecer la ruta que destinará a cada paquete de datos dentro de una red informática.
  • El router opera en el nivel 3 de la torre de protocolos.

Switch o Conmutador

  • Interconecta equipos dentro de una misma red. El switch opera en la capa 2 (nivel de enlace) del modelo de OSI.
  • Conmutación o switching: Es la acción de establecer una vía, un camino, de extremo a extremo entre dos puntos, un emisor y un receptor a través de nodos o equipos de transmisión.
  • Conmutación de paquetes: No se establece un camino para cada comunicación.
  • Diferencia entre router y switch: La diferencia básica entre un router y un switch es que un router conecta diferentes redes entre sí, mientras que un switch conecta múltiples dispositivos entre sí para crear una red (el switch trabaja en LAN).

Internet

  • Interconexión de red a escala global. Procede de la palabra Interconnected Network, que significa redes interconectadas, es la unión de todas las redes mediante distintos protocolos que ofrece una gran diversidad de servicios y recursos y computadoras distribuidas por todo el mundo, por lo que se puede definir como una red informática global, descentralizada.
  • Se caracteriza por utilizar el modelo cliente-servidor y el protocolo TCP/IP.

Intranet

Sistema de red privado que permite compartir recursos entre sus miembros (intranet de la UJA).

Extranet

Red privada que permite la comunicación para compartir de modo seguro la información de una compañía con agentes externos: socios, clientes, proveedores, etc. Es, por lo tanto, una extensión de la intranet hacia usuarios externos. La extranet tiene un acceso semiprivado.

Presentación y Esquemas de Comunicación

  • Simplex: Es una transmisión que solo ocurre en una dirección, deshabilitando al receptor de responder al emisor (la televisión, una radio…).
  • Half-duplex: Es una transmisión que permite transmitir en ambas direcciones, pero la transmisión solo ocurre en una dirección a la vez (un walkie-talkie).
  • Full-duplex: Es una transmisión que permite transmitir en ambas direcciones y simultáneamente por el mismo canal; hay dos frecuencias, para transmitir y para recibir (las videollamadas del Meet).

Multiplexación

La multiplexación es el conjunto de técnicas que permite la transmisión simultánea de múltiples señales a través de un único enlace de datos. Se puede compartir:

  • Ancho de banda.
  • Tiempo de transmisión.
  • Códigos de transmisión.

Por división de la frecuencia (FDM)

Es una técnica mediante la cual el ancho de banda total de un medio de comunicación se divide en una serie de sub-bandas de frecuencias que no se superponen; cada una se utiliza para transportar una señal separada. La FDM es posible cuando el ancho de banda del medio de transmisión excede el ancho de banda requerido para la transmisión de las señales. En un caso general de multiplexación:

  1. Un grupo de señales entran a un multiplexor, que modulará cada una en una frecuencia.
  2. La intermodulación es la modulación de amplitud no deseada de señales. Este problema se puede solucionar dejando espacio entre canales para que no se colapsen.
  3. El crosstalk es el ruido que se introduce a la entrada o salida del medio. Este se puede solucionar con el apantallamiento del medio.

Por división del tiempo (TDM)

Tipo de multiplexación más usado en la actualidad. En ella, el ancho de banda total del medio es asignado a cada canal durante una fracción del tiempo total (intervalo). A diferencia de la FDM, donde varios usuarios pueden transmitir información al mismo tiempo (en diferentes frecuencias), la TDM solo permite transmitir a un usuario cada vez. En este tipo de multiplexación:

  1. Multiplexación por división de longitud de onda: Tecnología que permite transmitir varias señales independientes sobre una sola fibra óptica mediante portadoras ópticas de diferente longitud de onda.
  2. Multiplexación por división de frecuencia ortogonal: Multiplexación de un conjunto de ondas portadoras de diferentes frecuencias, donde cada una transporta información. Estas son generadas por la división de una onda portadora central.
  3. Multiplexación por división del código: Es una técnica en la red en la que se combinan múltiples señales de datos para la transmisión simultánea en una banda de frecuencia común.


Los estándares son reglas sobre las que hay un acuerdo. Se pueden clasificar en dos categorías: de facto (no han sido aprobados por un cuerpo organizado) y de jure (han sido legislados por un organismo oficialmente reconocido). La estandarización es el proceso de ajustar o adaptar características en un producto, servicio o procedimiento; con el objetivo de que estos se asemejen a un tipo, modelo o norma en común.

El objetivo principal de todo sistema de comunicaciones es:

  • Establecer comunicaciones entre dispositivos de diferente naturaleza.
  • Proporcionar diferentes servicios de telecomunicación entre sistemas y/o usuarios.

En el caso de un problema complejo, es conveniente resolver un conjunto de tareas sencillas que, conjuntamente, permitan solucionar el problema total. Para el éxito de la estandarización, las empresas crearon esas normas de estandarización y después fueron los gobiernos los encargados de que funcionasen. La única tecnología de la telecomunicación en la que fracasó la estandarización fue en las centralitas PBX (actualmente en desuso), básicamente porque cuando se diseñaron aún no existía el concepto de estandarización.

Arquitectura de Red o Torre de Protocolos

  • Protocolo (conexión lógica): Conjunto de normas que regulan el diálogo entre dos entidades de la misma capa o nivel (sirven para que sea eficaz la conexión entre niveles).
  • Los protocolos se usan para que haya comunicación efectiva.
  • Los protocolos están entre los niveles, es decir, son las interacciones en sentido horizontal. La conexión puede ser física (cableada, inalámbrica) o lógica.

El tamaño máximo de un bloque de datos (cajita de la torre de protocolos) es de 100 kbytes. Si el paquete sobrepasa esta capacidad, se fragmenta en varios paquetes de datos (fragmentación descendente). La desfragmentación ocurre en sentido ascendente. Cada fragmento se procesa de manera independiente. Una capa inferior ofrece servicios a la superior. El nivel superior proporciona los datos de retorno a la inferior.

Torre de protocolos

Una torre de protocolos o la arquitectura de red (siguen la misma idea), es la representación de un elemento de una red como un sistema compuesto por varios niveles, en los que cada uno realiza una función específica. Los nodos que conectan dichos niveles deben de tener la misma torre de protocolos para que se establezca la comunicación.

  • Una descomposición vertical permite resolver un problema horizontal.
  • Es específica para una determinada red.
  • Única para todos los componentes de una red.
  • Puede no ser completa en todos los elementos de la red.
  • Normalmente se implementa en hardware y software.

Interacción entre nodos

Una torre de protocolos se caracteriza por implementar en cada una de sus capas un determinado protocolo; este protocolo establece unas reglas para el intercambio de información entre el mismo nivel. No puede haber saltos entre nodos sin pasar los niveles que los conectan. El software o hardware que implementa un protocolo en cada nodo se denomina entidad. Las entidades de cada una de las capas de la torre de protocolos deben ser compatibles para que la comunicación entre nodos sea posible.

El protocolo

  • Define el formato de los mensajes intercambiados entre entidades.
  • Facilita el intercambio de información de usuario y comandos entre nodos.

Interacción entre niveles

La interfaz define el intercambio de información entre dos niveles contiguos, además de los servicios que un nivel inferior ofrece a su capa superior. El que ofrece los servicios son los niveles inferiores y el que se beneficia son los niveles superiores.

  • Sentido descendente: Una capa solo proporciona bloques de datos a la inferior.
  • Sentido ascendente: Los servicios que ofrece un nivel son el resultado de operaciones realizadas por la entidad de ese nivel y los servicios por capas inferiores.
  • Cada nivel es una caja negra en relación con el resto.
  • Al objeto de soportar múltiples comunicaciones en un nodo, cada capa ofrece un conjunto de services.

Arquitectura de protocolos

Es una estructura en capas de elementos hardware y software que facilitan el intercambio de entre sistemas y posibilita aplicaciones distribuidas, como el comercio electrónico y la transferencia de archivos; la más usada es la TCP/IP.

Encapsulamiento

Encapsulamiento es cuando entre los niveles almacenas una cantidad de información.

  • Inconvenientes: A mayor encapsulamiento, peor es el rendimiento y retardo en la transmisión.
  • Encapsulación: El encapsulamiento es el proceso por el cual los datos que se deben enviar a través de una red se colocan en paquetes que se puedan administrar y rastrear. Este proceso consiste en ‘envolver’ los datos con la información que requiere cada protocolo. Cuando el propio usuario genera un mensaje y lo pasa al nivel inferior de su torre de protocolos, para que haya transferencia en ese nivel se añade una cabecera y una cola (esto ocurre en todos los niveles). Así, cada nivel va añadiendo su cola y su cabecera.
  • Desencapsulación: Para que se entiendan las dos entidades, se va desglosando la cabecera y la cola de cada nivel, procesando cada información con su entidad correspondiente.

Torre de Protocolos TCP/IP (tiene 5 capas)

  • Se desarrolló antes que el modelo OSI.
  • Este modelo ha sido usado en ARPANET y, posteriormente, en la internet mundial; una de las principales metas de diseño desde sus inicios fue la capacidad para conectar múltiples redes de una manera sólida.
  • Otro objetivo fue que la red pudiera sobrevivir a la pérdida de hardware de la subred, sin que las conversaciones existentes se interrumpieran.
  • Debajo de la capa de red hay un gran vacío; el modelo TCP/IP no dice mucho acerca de esto, solo que el host se tiene que conectar a la red mediante el mismo protocolo para que le puedan enviar paquetes IP.
  • Este protocolo no está definido, varía de un host a otro y de una red a otra.

Pequeño resumen de los niveles

Los niveles 1, 2 y 3 son los niveles de soporte de red (tienen que ver con los aspectos físicos de la transmisión de datos de un dispositivo a otro). El nivel 4 asegura la transmisión fiable de datos de extremo a extremo (no como la capa 2, que asegura la transmisión fiable de datos en un único enlace). Los niveles 5, 6 y 7 proporcionan servicios de soporte de usuario. En cada nivel (exceptuando los niveles 7 y 1), se añade una cabecera a la unidad de datos. En el nivel 2, se añade también una cola. Cuando las unidades de datos formateadas pasan a través del nivel físico (nivel 1), se transforman en señales electromagnéticas y se transportan por el enlace físico. Los niveles superiores de OSI constan casi siempre de software; los niveles inferiores son una combinación de hardware y software, excepto el nivel físico, que es principalmente hardware.


Introducción

Internet ha transformado la informática y las comunicaciones como ninguna otra innovación anterior, superando incluso la invención del telégrafo, el teléfono, la radio y el ordenador. Es una herramienta global de emisión, difusión de información, colaboración e interacción entre personas y ordenadores, sin importar su ubicación geográfica. Representa el éxito de la inversión continua en investigación y desarrollo de infraestructura de información, con la colaboración entre el Gobierno, la Industria y la Academia desde las primeras investigaciones en conmutación de paquetes. La evolución de Internet abarca varios aspectos: tecnológico, operativo, social y comercial. Desde las investigaciones iniciales en conmutación de paquetes hasta la creación de ARPANET y tecnologías relacionadas, hasta la gestión de una infraestructura global y compleja, la formación de una comunidad de internautas y la transición eficaz de los resultados de la investigación a una infraestructura de información ampliamente disponible. Hoy en día, Internet es una infraestructura de información ampliamente difundida, un prototipo de la Infraestructura de Información Nacional (o Global, o Galáctica), con una influencia que se extiende más allá de la informática y las comunicaciones para abarcar toda la sociedad, impulsando el comercio electrónico, la obtención de información y las operaciones comunitarias en línea.

Orígenes de Internet

El desarrollo de Internet comenzó en la década de 1960 con la visión de J.C.R. Licklider de una «Red galáctica» de computadoras interconectadas globalmente para permitir interacciones sociales y acceso rápido a datos y programas desde cualquier lugar. Leonard Kleinrock del MIT contribuyó con la teoría de conmutación de paquetes, mientras Lawrence G. Roberts exploró la comunicación entre computadoras. En 1966, Roberts propuso ARPANET, influenciado por investigaciones paralelas en el Reino Unido y en RAND sobre redes de conmutación de paquetes. La colaboración con Frank Heart de BBN llevó al desarrollo de los procesadores de mensajes de interfaz (IMP) para ARPANET. En septiembre de 1969, se instaló el primer IMP en UCLA, marcando el inicio de ARPANET, con el SRI como el segundo nodo. La expansión de ARPANET continuó con la adición de nodos en otras universidades, facilitando la investigación y el desarrollo de aplicaciones. En 1970, el Network Working Group (NWG) desarrolló el protocolo de host a host inicial, llamado Network Control Protocol (NCP), permitiendo a los usuarios desarrollar aplicaciones. En octubre de 1972, ARPANET fue presentada en la International Computer Communication Conference (ICCC), demostrando su potencial. Ese mismo año, se introdujo el correo electrónico como la primera aplicación importante de la red, sentando las bases para el crecimiento futuro de la comunicación «de persona a persona», como vemos en la actualidad en la World Wide Web.

Primeros Conceptos de Internet

La evolución de ARPANET hacia lo que conocemos como Internet se basó en la idea de una arquitectura abierta, donde múltiples redes independientes podrían conectarse mediante un protocolo común. Este enfoque permitió que las redes individuales se diseñaran y desarrollaran por separado, con interfaces únicas adaptadas a las necesidades específicas de cada red y sus usuarios. Bob Kahn introdujo por primera vez el concepto de arquitectura abierta en 1972 como parte del programa de radiopaquetes en DARPA, más tarde conocido como Internetting. La clave para el éxito de este enfoque fue el desarrollo de un nuevo protocolo, TCP/IP, que permitía la comunicación confiable y efectiva entre redes heterogéneas. TCP/IP ofrecía un conjunto de reglas básicas, como mantener redes separadas y permitir la comunicación basada en el mejor esfuerzo, con paquetes retransmitidos si no llegaban a su destino. Para implementar TCP/IP, se necesitaban soluciones para problemas como la retransmisión de paquetes perdidos, la segmentación de datos, las funciones de las puertas de enlace y la detección de errores. Vint Cerf se unió a Kahn en el diseño detallado del protocolo, y juntos crearon la primera versión de TCP/IP, que se presentó en una reunión del International Network Working Group en 1973. Inicialmente, TCP/IP se diseñó para admitir una variedad de servicios de transporte, desde la entrega confiable de datos hasta un servicio de datagramas más directo. Sin embargo, pronto se separó en dos protocolos distintos: IP, que se ocupaba del enrutamiento y reenvío de paquetes, y TCP, que proporcionaba servicios de transporte como el control de flujo y la recuperación de paquetes perdidos. El correo electrónico fue una de las primeras y más influyentes aplicaciones de Internet, transformando la comunicación entre personas y sentando las bases para futuras innovaciones como la World Wide Web. A medida que Internet evolucionaba, se exploraban nuevas aplicaciones, como la voz sobre IP y los primeros programas de intercambio de archivos. La flexibilidad y generalidad de TCP/IP permitieron que Internet se convirtiera en una infraestructura generalista, capaz de soportar una amplia gama de aplicaciones y servicios. Esto fue fundamental para el desarrollo y la expansión continua de Internet hasta convertirse en la red global que conocemos hoy en día.

Papel de la Documentación

Las RFC (Request for Comments) desempeñaron un papel crucial en el rápido crecimiento de Internet al proporcionar un mecanismo abierto y gratuito para compartir ideas y especificaciones de protocolos entre la comunidad investigadora. Estas notas, establecidas por S. Crocker en 1969, facilitaron un intercambio dinámico de ideas, lo que llevó a la creación de estándares de protocolos. Con el tiempo, las RFC se han centrado más en los estándares de protocolos, aunque siguen proporcionando información sobre enfoques alternativos y antecedentes de ingeniería. El acceso abierto a las RFC ha promovido el crecimiento de Internet al permitir su uso como ejemplos en clases y por parte de emprendedores que desarrollan nuevos sistemas. El correo electrónico también ha desempeñado un papel importante en el desarrollo de especificaciones de protocolos, facilitando la colaboración entre investigadores de diferentes ubicaciones. En la actualidad, las listas de correo electrónico especializadas continúan siendo una herramienta clave en el proceso de desarrollo de estándares de Internet, con la IETF coordinando más de 75 grupos de trabajo que discuten y elaboran borradores de protocolos. La práctica de compartir información a través de las RFC sigue siendo fundamental para la evolución futura de Internet.

Formación de una Comunidad Amplia

El éxito de Internet se debe en gran medida a satisfacer las necesidades de sus comunidades y utilizar eficazmente el espíritu comunitario para avanzar en su infraestructura. Este enfoque comunitario tiene sus raíces en ARPANET, donde los investigadores trabajaron juntos para demostrar la tecnología de conmutación de paquetes. Con el tiempo, se formaron grupos de trabajo y organismos de coordinación para gestionar el crecimiento y la diversificación de la comunidad de Internet. En la década de 1970, Vint Cerf estableció varios organismos de coordinación, como la Junta de Cooperación Internacional (ICB) y el Grupo de Investigación de Internet, para gestionar el creciente interés en la red. En 1983, Barry Leiner reestructuró la coordinación de Internet con la formación de la Internet Activities Board (IAB) y varias fuerzas de tareas centradas en áreas específicas de tecnología. La IAB y la IETF (Internet Engineering Task Force) se convirtieron en órganos clave en el desarrollo de estándares y la coordinación de la comunidad de Internet. El crecimiento continuo de la comunidad y la entrada del sector comercial llevaron a más reorganizaciones, como la formación de la Internet Society en 1991 y la reestructuración del proceso de estándares en 1992 para asegurar un enfoque justo y abierto. La World Wide Web también trajo una nueva comunidad, representada por el World Wide Web Consortium (W3C), que evolucionó protocolos y estándares asociados con la Web. En resumen, a lo largo de dos décadas de actividad en Internet, ha habido una evolución constante en las estructuras organizativas diseñadas para apoyar y facilitar la creciente comunidad que colabora en temas de Internet.

Historia del Futuro

El 24 de octubre de 1995, el Consejo Federal de Redes (FNC) definió oficialmente el término «Internet» como un sistema global de información enlazado lógicamente a través de direcciones únicas basadas en el Protocolo de Internet (IP). Esta definición incluye la capacidad de soportar comunicaciones utilizando el conjunto de protocolos TCP/IP y otros protocolos compatibles, así como la accesibilidad a servicios de alto nivel superpuestos en la infraestructura de comunicaciones. A lo largo de sus dos décadas de existencia, Internet ha experimentado una transformación significativa, adaptándose a cambios tecnológicos y evolucionando para ofrecer una amplia gama de servicios, desde compartir archivos hasta la World Wide Web. Sin embargo, Internet sigue evolucionando para ofrecer nuevas capacidades, como el transporte en tiempo real para transmisiones de audio y vídeo. La disponibilidad de una red dominante como Internet, junto con el desarrollo de dispositivos portátiles y poderosos, ha dado lugar a un nuevo paradigma de computación y comunicaciones nómadas. Este cambio continuo en Internet está impulsado no solo por avances tecnológicos, sino también por la necesidad de gestionar el proceso de cambio y evolución de manera efectiva. El futuro de Internet dependerá de la capacidad de encontrar una estructura social que guíe su desarrollo, dado el creciente número de partes interesadas y la lucha por encontrar la motivación económica para invertir en su crecimiento futuro. En última instancia, el éxito continuo de Internet dependerá de nuestra capacidad para determinar una dirección común y avanzar juntos hacia el futuro.

Dejar un Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *