sábado, 9 de junio de 2018

Descargar Ping Plotter Pro FULL + KEY SERIAL

  5 comentarios
7:40 p.m.

Abajo dejo el link de este programa. Nota ejecute el Key Gen como administrador para que funcione.
Sin el link esta roto, avisen para volverlo a subir.

http://www.mediafire.com/file/7diboi2qohh72p8/PingPlotter+Pro+v5.5.7.rar

Read More

jueves, 9 de noviembre de 2017

Resumen CCNA Modulo 1

  No hay comentarios.
11:08 a.m.




Mientras los datos de la aplicación bajan al stack del protocolo y se transmiten por los medios de la red, varios protocolos le agregan información en cada nivel. Esto comúnmente se conoce como proceso de encapsulación.

Las unidades de datos del protocolo (PDU) se denominan según los protocolos de la suite TCP/IP: datos, segmento, paquete, trama y bits.


cada segmento de TCP se le otorga una etiqueta, denominada encabezado. El encabezado IP contiene las direcciones IP de host de origen y de destino, como también la información necesaria para entregar el paquete a su proceso de destino correspondiente. Cada encabezado de trama contiene una dirección física de origen y de destino. La dirección física identifica de forma exclusiva los dispositivos en la red local. El tráiler contiene información de verificación de errores.

La desencapsulación es el proceso que utilizan los dispositivos receptores para eliminar uno o más de los encabezados de protocolo

Direcciones de red y direcciones de enlace de datos

La dirección lógica de la capa de red, o capa 3, contiene la información necesaria para enviar el paquete IP desde el dispositivo de origen hasta el dispositivo de destino. Una dirección IP de capa 3 tiene dos partes: el prefijo de red y la parte de host.
La dirección física de la capa de enlace de datos, o capa 2, tiene una función distinta. Su propósito es enviar la trama de enlace de datos desde una interfaz de red hasta otra interfaz de red en la misma red.


Direcciones de enlaces de datos
Cuando el emisor y el receptor del paquete IP están en la misma red, la trama de enlace de datos se envía directamente al dispositivo receptor. En una red Ethernet, las direcciones de enlace de datos se conocen como direcciones MAC de Ethernet. Las direcciones MAC son direcciones de 48 bits que están integradas físicamente en la NIC Ethernet. Las direcciones MAC también se conocen como direcciones físicas (BIA).
Ahora debe estar claro que para enviar datos a otro host en la misma LAN, el host de origen debe conocer tanto la dirección física como la dirección lógica del host de destino. Una vez que se conocen estas direcciones, puede crear una trama y enviarla a través de los medios de red. El host de origen puede obtener la dirección IP de destino de diversas maneras. Por ejemplo, puede descubrir la dirección IP mediante el uso del sistema de nombres de dominios (DNS), o puede conocer la dirección IP de destino porque la dirección se introduce en la aplicación en forma manual, como cuando un usuario especifica la dirección IP de un servidor FTP de destino. Sin embargo, ¿cómo determina un host la dirección MAC de Ethernet de otro dispositivo?
La mayoría de las aplicaciones de red dependen de la dirección IP lógica del destino para identificar la ubicación de los hosts entre los que se produce la comunicación. Se requiere la dirección MAC de enlace de datos para enviar el paquete IP encapsulado dentro de la trama de Ethernet a través de la red hasta el destino.

El host emisor utiliza un protocolo denominado “protocolo de resolución de direcciones” (ARP) para descubrir la dirección MAC de cualquiera de los hosts de la misma red local. El host emisor envía un mensaje de solicitud de ARP a toda la LAN. La solicitud de ARP es un mensaje de broadcast. La solicitud de ARP contiene la dirección IP del dispositivo de destino. Cada dispositivo en la LAN examina la solicitud de ARP para ver si contiene su propia dirección IP. Solamente el dispositivo con la dirección IP contenida en la solicitud de ARP responde con una respuesta de ARP. La respuesta de ARP incluye la dirección MAC asociada con la dirección IP en la solicitud de ARP.


Cuando un host necesita enviar un mensaje a una red remota, debe utilizar el router, también conocido como “gateway predeterminado”. El gateway predeterminado es la dirección IP de una interfaz de un router en la misma red que el host emisor.

Cuando el emisor y el receptor del paquete IP se encuentran en redes diferentes, la trama de enlace de datos de Ethernet no se puede enviar directamente al host de destino, debido a que en la red del emisor no se puede tener acceso directamente al host. La trama de Ethernet se debe enviar a otro dispositivo conocido como “router” o “gateway predeterminado”.
Capítulo 4: Acceso a la red

Las redes utilizan medios de cobre porque son económicos y fáciles de instalar, y tienen baja resistencia a la corriente eléctrica. Sin embargo, los medios de cobre se ven limitados por la distancia y la interferencia de señales.
Los datos se transmiten en cables de cobre como impulsos eléctricos.

Interferencia electromagnética (EMI) o interferencia de radiofrecuencia (RFI): las señales de EMI y RFI pueden distorsionar y dañar las señales de datos que transportan los medios de cobre.


Crosstalk: se trata de una perturbación causada por los campos eléctricos o magnéticos de una señal de un hilo a la señal de un hilo adyacente. En los circuitos telefónicos, el crosstalk puede provocar que se escuche parte de otra conversación de voz de un circuito adyacente.


Existen tres tipos principales de medios de cobre que se utilizan en las redes:
Par trenzado no blindado (UTP)


Par trenzado blindado (STP)
Coaxial






 Tipos de medios de fibra óptica
En términos generales, los cables de fibra óptica pueden clasificarse en dos tipos:

Fibra óptica monomodo: la fibra óptica monomodo (SMF) consta de un núcleo muy pequeño y emplea tecnología láser costosa para enviar un único haz de luz. Se usa mucho en situaciones de larga distancia que abarcan cientos de kilómetros, como aplicaciones de TV por cable y telefonía de larga distancia.


Fibra óptica multimodo: la fibra óptica multimodo (MMF) consta de un núcleo más grande y utiliza emisores LED para enviar pulsos de luz. Específicamente, la luz de un LED ingresa a la fibra multimodo en diferentes ángulos. Se usa mucho en las redes LAN, debido a que se puede alimentar mediante LED de bajo costo. Proporciona un ancho de banda de hasta 10 Gb/s a través de longitudes de enlace de hasta 550 m.



 Conectores de red de fibra óptica
Los 3 conectores mas populares:

·         Punta recta (ST): conectores antiguos de estilo bayoneta, ampliamente utilizados con la fibra óptica multimodo.
·         Conector suscriptor (SC): en ocasiones, se lo denomina “conector cuadrado” o “conector estándar”. Es un conector LAN y WAN ampliamente adoptado que utiliza un mecanismo de inserción/extracción para asegurar la inserción correcta. Este tipo de conector se utiliza con la fibra óptica multimodo y monomodo.


·          Conector Lucent (LC): en ocasiones, denominado conector “pequeño” o “local”, cada vez adquiere mayor popularidad debido a su tamaño reducido. Se utiliza con la fibra óptica monomodo y también es compatible con la fibra óptica multimodo.

Se requieren dos fibras para realizar una operación full duplex ya que la luz sólo puede viajar en una dirección a través de la fibra óptica.















Tres tipos comunes de errores de empalme y terminación de fibra óptica son:
Desalineación: los medios de fibra óptica no se alinean con precisión al unirlos.
Separación de los extremos: no hay contacto completo de los medios en el empalme o la conexión.
Acabado de los extremos: los extremos de los medios no se encuentran bien pulidos o puede verse suciedad en la terminación.


Se recomienda utilizar un comprobador óptico como el que se muestra en la ilustración para probar los cables de fibra óptica. Se puede utilizar un reflectómetro óptico de dominio de tiempo (OTDR) para probar cada segmento del cable de fibra óptica. Este dispositivo introduce un impulso de luz de prueba en el cable y mide la retrodispersión y el reflejo de la luz detectados en función del tiempo. El OTDR calculará la distancia aproximada en la que se detectan estas fallas en toda la longitud del cable.

Subcapas de enlace de datos
La capa de enlace de datos se divide en dos subcapas:

· Control de enlace lógico (LLC): se trata de la subcapa superior, que define los procesos de software que proporcionan servicios a los protocolos de capa de red. El LLC coloca en la trama información que identifica qué protocolo de capa de red se utiliza para la trama. Esta información permite que varios protocolos de la capa 3, tales como IPv4 e IPv6, utilicen la misma interfaz y los mismos medios de red.
Control de acceso al medio (MAC): se trata de la subcapa inferior, que define los procesos de acceso al medio que realiza el hardware. Proporciona el direccionamiento de la capa de enlace de datos y la delimitación de los datos de acuerdo con los requisitos

Los protocolos de la Capa 2 especifican la encapsulación de un paquete en una trama y las técnicas para colocar y sacar el paquete encapsulado de cada medio. La técnica utilizada para colocar y sacar la trama de los medios se llama método de control de acceso al medio.

La capa de enlace de datos prepara los paquetes para transportarlos a través de los medios locales mediante su encapsulación con un encabezado y un tráiler para crear una trama. La descripción de una trama es un elemento clave de cada protocolo de capa de enlace de datos.








Las tramas de la capa de enlace de datos incluyen los siguientes elementos:

Encabezado: contiene información de control, como direccionamiento, y está ubicado al comienzo de la PDU.
Datos: contienen el encabezado IP, el encabezado de la capa de transporte y los datos de aplicación.
Tráiler: contiene la información de control que se agrega al final de la PDU para la detección de errores.

Como se muestra en la ilustración, los tipos de campos de trama genéricos incluyen lo siguiente:
Indicadores de comienzo y de detención de la trama: la subcapa MAC utiliza estos campos para identificar el inicio y el final de la trama.
Direccionamiento: la subcapa MAC utiliza este campo para identificar los nodos de origen y destino.
Tipo: el LLC utiliza este campo para identificar el protocolo de capa 3.


· Control: identifica servicios especiales de control del flujo.
Datos: incluye el contenido de la trama (es decir, el encabezado del paquete, el encabezado del segmento y los datos).
Detección de errores: estos campos de trama, que se incluyen después de los datos para formar el tráiler, se utilizan para la detección de errores.

No todos los protocolos incluyen todos estos campos. Los estándares para un protocolo de enlace de datos específico definen el formato real de la trama.

Acceso a la red
El control de acceso al medio es el equivalente a las reglas de tránsito que regulan la entrada de vehículos a una autopista. La ausencia de un control de acceso al medio sería el equivalente a vehículos que ignoren el resto del tráfico e ingresen al camino sin tener en cuenta a los demás vehículos. Sin embargo, no todos los caminos y entradas son iguales


· Topología física: se refiere a las conexiones físicas e identifica cómo se interconectan los dispositivos finales y de infraestructura, como los routers, los switches y los puntos de acceso inalámbrico. Las topologías físicas generalmente son punto a punto o en estrella.
Topología lógica: se refiere a la forma en que una red transfiere tramas de un nodo al siguiente. Esta disposición consta de conexiones virtuales entre los nodos de una red. Los protocolos de capa de enlace de datos definen estas rutas de señales lógicas.

Por lo general, las WAN se interconectan mediante las siguientes topologías físicas:

Punto a punto: esta es la topología más simple, que consta de un enlace permanente entre dos terminales. Por este motivo, es una topología de WAN muy popular.
Hub-and-spoke: es una versión WAN de la topología en estrella, en la que un sitio central interconecta sitios de sucursal mediante enlaces punto a punto.
Malla: esta topología proporciona alta disponibilidad, pero requiere que cada sistema final esté interconectado con todos los demás sistemas. Por lo tanto, los costos administrativos y físicos pueden ser importantes. Básicamente, cada enlace es un enlace punto a punto al otro nodo. Las variantes de  esta topología incluyen la topología de malla parcial, en la que se interconectan algunos dispositivos finales, pero no todos.



Comunicación half-duplex: ambos dispositivos pueden transmitir y recibir datos en los medios, pero no pueden hacerlo en forma simultánea


Comunicación full-duplex: ambos dispositivos pueden transmitir y recibir datos en los medios al mismo tiempo.


Hay dos métodos básicos de control de acceso al medio para medios compartidos:


· Acceso por contienda: todos los nodos compiten por el uso del medio, pero tienen un plan si se producen colisiones.


· Acceso controlado: cada nodo tiene su propio tiempo para utilizar el medio.




Acceso por contienda;

Acceso múltiple por detección de portadora (CSMA) para detectar primero si los medios están transportando una señal.

Si se detecta una señal portadora en el medio desde otro nodo, quiere decir que otro dispositivo está transmitiendo. Cuando un dispositivo está intentando transmitir y nota que el medio está ocupado, esperará e intentará después de un período de tiempo corto. Si no se detecta una señal portadora, el dispositivo transmite sus datos. Las redes Ethernet e inalámbricas utilizan control de acceso al medio por contención.




Generalmente se implementa CSMA junto con un método para resolver la contención del medio. Los dos métodos comúnmente utilizados son:


·         (CSMA/CD), el dispositivo final supervisa los medios para detectar la presencia de una señal de datos. Si no hay una señal de datos y, en consecuencia, los medios están libres, el dispositivo transmite los datos. Si luego se detectan señales que muestran que otro dispositivo estaba transmitiendo al mismo tiempo, todos los dispositivos dejan de enviar e intentan después. Las formas tradicionales de Ethernet utilizan este método.

NOTA: CSMA/CD fue usado en las -ahora obsoletas- variantes de Ethernet 10BASE5 y 10BASE2. Actualmente las modernas redes Ethernet construidas con switches y conexiones full-duplex lo mantienen como modo de retrocompatibilidad.



·         (CSMA/CA), el dispositivo final examina los medios para detectar la presencia de una señal de datos. Si el medio está libre, el dispositivo envía una notificación a través del medio, sobre su intención de utilizarlo. Una vez que recibe autorización para transmitir, el dispositivo envía los datos. Las tecnologías de red inalámbricas 802.11 utilizan este método.


Acceso controlado;

Al utilizar el método de acceso controlado, los dispositivos de red toman turnos en secuencia para acceder al medio. Si un dispositivo final no necesita acceder al medio, el turno pasa al dispositivo final siguiente. Este proceso se facilita por medio de un token. Un dispositivo final adquiere el token y coloca una trama en los medios; ningún otro dispositivo puede hacerlo hasta que la trama se haya recibido y procesado en el destino, y se libere el token.

Nota: este método también se conoce como “acceso programado” o “determinista”.

Los ejemplos de acceso controlado incluyen lo siguiente:
Token Ring (IEEE 802.5)
Interfaz de datos distribuida por fibra (FDDI), que se basa en el protocolo de token bus IEEE 802.4.

Nota: estos dos métodos de control de acceso al medio se consideran obsoletos.




Trama;

Si bien existen muchos protocolos de capa de enlace de datos diferentes que describen las tramas de la capa de enlace de datos, cada tipo de trama tiene tres partes básicas:

Encabezado
Datos
Tráiler

El protocolo de capa de enlace de datos describe las características requeridas para el transporte de paquetes a través de diferentes medios. Estas características del protocolo están integradas en la encapsulación de la trama. Cuando la trama llega a su destino y el protocolo de enlace de datos quita la trama de los medios, la información sobre el entramado se lee y se descarta.

El encabezado de la trama contiene la información de control que especifica el protocolo de capa de enlace de datos para la topología lógica y los medios específicos utilizados.

La información de control de trama es única para cada tipo de protocolo.

Campos de encabezado de la trama de Ethernet:


· Campo Inicio de trama: indica el comienzo de la trama.
Campos Dirección de origen y Dirección de destino: indican los nodos de origen y destino en los medios.
Campo Tipo: indica el servicio de capa superior que se incluye en la trama.

Otros campos de encabezado de trama de protocolo de capa 2 podrían incluir los siguientes:

Campo Prioridad/Calidad de servicio: indica un tipo específico de servicio de comunicación para el procesamiento.
Campo Control de conexión lógica: se utiliza para establecer una conexión lógica entre nodos.
Campo Control de enlace físico: se utiliza para establecer el enlace con los medios.
Campo Control del flujo: se utiliza para iniciar y detener el tráfico a través de los medios.
Campo Control de congestión: indica si hay congestión en los medios.



A diferencia de las direcciones lógicas de capa 3, que son jerárquicas, las direcciones físicas no indican en qué red se encuentra el dispositivo.

No se puede utilizar una dirección específica de un dispositivo y no jerárquica para localizar un dispositivo a través de grandes redes o de Internet. Eso sería como intentar localizar una casa específica en todo el mundo, sin más datos que el nombre de la calle y el número de la casa. Sin embargo, la dirección física se puede usar para localizar un dispositivo dentro de un área limitada. Por este motivo, la dirección de la capa de enlace de datos solo se utiliza para entregas locales. Las direcciones en esta capa no tienen significado más allá de la red local.

El tráiler se utiliza para determinar si la trama llegó sin errores. Este proceso se denomina “detección de errores” y se logra mediante la colocación en el tráiler de un resumen lógico o matemático de los bits que componen la trama. La detección de errores se agrega a la capa de enlace de datos porque las señales en los medios pueden sufrir interferencias, distorsiones o pérdidas que cambien considerablemente los valores de bits que representan esas señales.

Un nodo transmisor crea un resumen lógico del contenido de la trama. Esto se conoce como valor de comprobación de redundancia cíclica (CRC). Este valor se coloca en el campo Secuencia de verificación de la trama (FCS) para representar el contenido de la trama.

Cuando la trama llega al nodo de destino, el nodo receptor calcula su propio resumen lógico, o CRC, de la trama. El nodo receptor compara los dos valores CRC. Si los dos valores son iguales, se considera que la trama llegó como se transmitió. Si el valor CRC en el FCS difiere del CRC calculado en el nodo receptor, la trama se descarta.

Por lo tanto, el campo FCS se utiliza para determinar si se produjeron errores durante la transmisión y la recepción de la trama.





Los protocolos de capa de enlace de datos comunes incluyen los siguientes:
Ethernet
Protocolo punto a punto (PPP)
Inalámbrico 802.11

Ethernet es la tecnología LAN predominante. Se trata de una familia de tecnologías de red que se definen en los estándares IEEE 802.2 y 802.3.

Los estándares de Ethernet definen los protocolos de Capa 2 y las tecnologías de Capa 1. Ethernet es la tecnología LAN más ampliamente utilizada y admite anchos de banda de datos de 10 Mbps, 100 Mbps, 1 Gbps (1000 Mbps) o 10 Gbps (10 000 Mbps).
Ethernet proporciona servicio sin conexión y sin reconocimiento sobre un medio compartido utilizando CSMA/CD como métodos de acceso al medio
Una dirección MAC de Ethernet es de 48 bits y generalmente se representa en formato hexadecimal.
PPP utiliza una arquitectura en capas. Para incluir a los diferentes tipos de medios, PPP establece conexiones lógicas, llamadas sesiones, entre dos nodos.
PPP también permite que dos nodos negocien opciones dentro de la sesión PPP. Esto incluye la autenticación, compresión y multienlace (el uso de varias conexiones físicas).

El estándar IEEE 802.11 utiliza el mismo LLC de 802.2 y el mismo esquema de direccionamiento de 48 bits que las demás LAN 802. Sin embargo, existen muchas diferencias en la subcapa MAC y en la capa física. En un entorno inalámbrico, el entorno requiere consideraciones especiales. No hay una conectividad física definible; por lo tanto, factores externos pueden interferir con la transferencia de datos y es difícil controlar el acceso. Para vencer estos desafíos, los estándares inalámbricos tienen controles adicionales.
Comúnmente, el estándar IEEE 802.11 se denomina “Wi-Fi”. Es un sistema de contienda que utiliza un proceso CSMA/CA de acceso al medio. CSMA/CA especifica un procedimiento postergación aleatoria para todos los nodos que están esperando transmitir. La oportunidad más probable para la contención de medio es el momento en que el medio está disponible. Hacer el back off de los nodos para un período aleatorio reduce en gran medida la probabilidad de colisión.

Las redes 802.11 también utilizan acuses de recibo de enlace de datos para confirmar que una trama se recibió correctamente.

Si la estación transmisora no detecta la trama de reconocimiento, ya sea porque la trama de datos original o el reconocimiento no se recibieron intactos, se retransmite la trama. Este reconocimiento explícito supera la interferencia y otros problemas relacionados con la radio.

Como se muestra en la ilustración, las tramas 802.11 incluyen los siguientes campos:
  
Resumen

Existen tres tipos principales de medios de cobre utilizados en redes: el cable de par trenzado no blindado (UTP), el cable de par trenzado blindado (STP) y el cable coaxial. El cableado UTP es el medio de cobre que más se utiliza en redes.


El cable de fibra óptica se volvió muy popular para interconectar dispositivos de red de infraestructura. Permite la transmisión de datos a través de distancias más extensas y a anchos de banda (velocidades de datos) mayores que cualquier otro medio de red. A diferencia de los cables de cobre, el cable de fibra óptica puede transmitir señales con menos atenuación y es totalmente inmune a las EMI y RFI.

Entre las diferentes implementaciones de los protocolos de capa de enlace de datos, existen diferentes métodos para controlar el acceso al medio. Estas técnicas de control de acceso al medio definen si los nodos comparten los medios y de qué manera lo hacen. El método específico de control de acceso al medio utilizado depende de la topología y los medios compartidos.

Todos los protocolos de capa de enlace de datos encapsulan la PDU de la capa 3 dentro del campo de datos de la trama. Sin embargo, la estructura de la trama y los campos contenidos en el encabezado y tráiler varían de acuerdo con el protocolo.

Capítulo 5 Ethernet

En la actualidad, Ethernet es la tecnología LAN predominante en el mundo. Ethernet funciona en la capa de enlace de datos y en la capa física.

Las tramas también se conocen como unidades de datos de protocolo (PDU).

En lo que respecta a los protocolos de capa 2, al igual que sucede con todos los estándares IEEE 802, Ethernet depende de las dos subcapas separadas de la capa de enlace de datos para funcionar: la subcapa de control de enlace lógico (LLC) y la subcapa MAC.

Subcapa LLC

La subcapa LLC de Ethernet se ocupa de la comunicación entre las capas superiores y las capas inferiores. Generalmente, esta comunicación se produce entre el software de red y el hardware del dispositivo.

La subcapa LLC toma los datos del protocolo de la red, que generalmente son un paquete IPv4, y agrega información de control para ayudar a entregar el paquete al nodo de destino. El LLC se utiliza para comunicarse con las capas superiores de la aplicación y para la transición del paquete a las capas inferiores para su entrega.
El LLC se implementa en software, y su implementación no depende del hardware.

Subcapa MAC

La MAC constituye la subcapa inferior de la capa de enlace de datos. La MAC se implementa mediante hardware, por lo general, en la NIC de la PC.


Como se muestra en la ilustración, la subcapa MAC de Ethernet tiene dos responsabilidades principales:

· Encapsulación de datos
Control de acceso al medio


Encapsulación de datos

El proceso de encapsulación de datos incluye el armado de la trama antes de la transmisión y el desarmado de la trama en el momento en que se la recibe.

La encapsulación de datos proporciona tres funciones principales:

Delimitación de tramas: el proceso de entramado proporciona delimitadores importantes que se utilizan para identificar un grupo de bits que componen una trama. Este proceso ofrece una sincronización entre los nodos transmisores y receptores.
Direccionamiento: el proceso de encapsulación también proporciona direccionamiento de la capa de enlace de datos. Cada encabezado Ethernet agregado a la trama contiene la dirección física (dirección MAC) que permite que la trama se envíe a un nodo de destino.
Detección de errores: cada trama de Ethernet contiene un tráiler con una comprobación de redundancia cíclica (CRC) del contenido de la trama. Una vez que se recibe una trama, el nodo receptor crea una CRC para compararla con la de la trama. Si estos dos cálculos de CRC coinciden, puede asumirse que la trama se recibió sin errores.


Control de acceso al medio

En primera instancia, el proceso de CSMA se utiliza para detectar si los medios transportan una señal. Si se detecta una señal portadora en el medio desde otro nodo, quiere decir que otro dispositivo está transmitiendo. Cuando un dispositivo está intentando transmitir y nota que el medio está ocupado, esperará e intentará después de un período de tiempo corto.

 Si no se detecta una señal portadora, el dispositivo transmite sus datos. Es posible que el proceso CSMA falle si dos dispositivos transmiten al mismo tiempo. A esto se le denomina colisión de datos. Si esto ocurre, los datos enviados por ambos dispositivos se dañarán y deberán enviarse nuevamente.

Los métodos de control de acceso al medio por contienda no requieren mecanismos para llevar la cuenta de a quién le corresponde acceder al medio; por lo tanto, no tienen la sobrecarga de los métodos de acceso controlado.

Sin embargo, los sistemas por contención no escalan bien bajo un uso intensivo de los medios. A medida que el uso y el número de nodos aumenta, la probabilidad de acceder a los medios con éxito sin una colisión disminuye. Además, los mecanismos de recuperación que se requieren para corregir errores debidos a esas colisiones disminuyen aún más el rendimiento.

CSMA/Detección de colisión

Con el método CSMA/Detección de colisión (CSMA/CD), el dispositivo controla los medios para detectar la presencia de una señal de datos. Si no hay una señal de datos, que indica que el medio está libre, el dispositivo transmite los datos.

Si luego se detectan señales que muestran que otro dispositivo estaba transmitiendo al mismo tiempo, todos los dispositivos dejan de enviar e intentan después. Las formas tradicionales de Ethernet se desarrollaron para utilizar este método.
La incorporación a gran escala de tecnologías conmutadas en las redes modernas reemplazó ampliamente la necesidad original de implementación de CSMA/CD en redes de área local.

 Hoy en día, casi todas las conexiones por cable entre dispositivos en una LAN son conexiones full-duplex, es decir, un mismo dispositivo puede enviar y recibir información simultáneamente. Esto significa que, si bien las redes Ethernet se diseñan con tecnología CSMA/CD, con los dispositivos intermediarios actuales no se producen colisiones y los procesos utilizados por el CSMA/CD son realmente innecesarios.

Sin embargo, todavía se deben tener en cuenta las colisiones en conexiones inalámbricas en entornos LAN. Los dispositivos LAN inalámbricos utilizan el método de acceso al medio CSMA/Prevención de colisiones (CSMA/CA).

CSMA/Prevención de colisiones

Con el método CSMA/CA, el dispositivo analiza los medios para detectar la presencia de una señal de datos. Si el medio está libre, el dispositivo envía una notificación a través del medio, sobre su intención de utilizarlo. El dispositivo luego envía los datos. Las tecnologías de red inalámbricas 802.11 utilizan este método.

Dirección MAC

Las direcciones MAC deben ser únicas en el mundo. El valor de la dirección MAC es el resultado directo de las normas implementadas por el IEEE para proveedores con el objetivo de garantizar direcciones únicas para cada dispositivo Ethernet. Las normas establecidas por el IEEE obligan a los proveedores de dispositivos Ethernet a registrarse en el IEEE. El IEEE le asigna al proveedor un código de 3 bytes (24 bits), denominado “Identificador único de organización” (OUI).

La dirección MAC suele denominarse “dirección física” (BIA) porque, históricamente, se graba en la ROM (memoria de solo lectura) de la NIC. Esto significa que la dirección se codifica en el chip de la ROM de manera permanente (el software no puede cambiarla).
Nota: en los sistemas operativos de PC y en las NIC modernos, es posible cambiar la dirección MAC mediante software. Esto es útil cuando se trata de acceder a una red que filtra sobre la base de la BIA. Esto quiere decir que el filtrado o control del tráfico sobre la base de la dirección MAC ya no es tan seguro como antes.
Trama de Ethernet
Tanto el estándar Ethernet II como el IEEE 802.3 definen el tamaño mínimo de trama en 64 bytes y el tamaño máximo de trama en 1518 bytes.
Los campos Preámbulo y Delimitador de inicio de trama no se incluyen en la descripción del tamaño de una trama.
Cualquier trama con menos de 64 bytes de longitud se considera un "fragmento de colisión" o "runt frame" y las estaciones receptoras la descartan automáticamente.
Si el tamaño de una trama transmitida es menor que el mínimo o mayor que el máximo, el dispositivo receptor descarta la trama. Es posible que las tramas descartadas se originen en colisiones u otras señales no deseadas y, por lo tanto, se consideran no válidas.

Campo Secuencia de verificación de trama (FCS): este campo de 4 bytes se utiliza para detectar errores en una trama. Utiliza una comprobación de redundancia cíclica (CRC). El dispositivo emisor incluye los resultados de una CRC en el campo FCS de la trama.

El dispositivo receptor recibe la trama y genera una CRC para buscar errores. Si los cálculos coinciden, significa que no se produjo ningún error. Los cálculos que no coinciden indican que los datos cambiaron y, por consiguiente, se descarta la trama. Un cambio en los datos podría ser resultado de una interrupción de las señales eléctricas que representan los bits.


Direcciones MAC
En Ethernet se utilizan distintas direcciones MAC para las comunicaciones unicast, broadcast y multicast de capa 2.

Una dirección MAC unicast es la dirección exclusiva que se utiliza cuando se envía una trama de un dispositivo de transmisión único a un dispositivo de destino único.
Muchos protocolos de red, como DHCP y el protocolo de resolución de direcciones (ARP), utilizan broadcasts.
Como se muestra en la figura, una dirección IP de broadcast para una red requiere una dirección MAC de broadcast correspondiente en la trama de Ethernet. En las redes Ethernet, la dirección MAC de broadcast está compuesta por 48 unos, que se muestran como el valor hexadecimal FF-FF-FF-FF-FF-FF.
El rango de direcciones IPv4 multicast va de 224.0.0.0 a 239.255.255.255.
Las direcciones multicast se pueden utilizar en juegos remotos, donde muchos jugadores se conectan de forma remota pero juegan al mismo juego.

 Las direcciones multicast también se pueden utilizar en situaciones de educación a distancia mediante videoconferencias, donde muchos estudiantes se conectan a la misma clase.
Al igual que con las direcciones unicast y de broadcast, la dirección IP multicast requiere una dirección MAC multicast correspondiente para poder enviar tramas en una red local. La dirección MAC multicast es un valor especial que comienza con 01-00-5E en hexadecimal. La porción restante de la dirección MAC multicast se crea mediante la conversión de los 23 bits inferiores de la dirección IP del grupo multicast en 6 caracteres hexadecimales.


Existen dos direcciones principales asignadas a un dispositivo host:
Dirección física (dirección MAC)
Dirección lógica (dirección IP)

Tanto la dirección MAC como la dirección IP operan juntas para identificar un dispositivo en la red. El proceso de utilizar la dirección MAC y la dirección IP para encontrar una PC es similar al proceso de utilizar el nombre y la dirección de una persona para enviarle una carta.

El nombre de una persona generalmente no cambia. Por otro lado, la dirección de una persona indica dónde vive esa persona y puede cambiar.
La dirección MAC en un host, como los nombres de las personas, no cambia; se asigna físicamente a la NIC del host y se conoce como “dirección física”.
Una dirección IP se asocia a un nombre de dominio, es una de las formas más comunes en que un dispositivo de origen determina la dirección IP de un dispositivo de destino. Por ejemplo, www.cisco.com equivale a 209.165.200.225. Esta dirección IP envía el paquete a la ubicación de red del dispositivo de destino. Los routers utilizan esta dirección IP para determinar el mejor camino para llegar a destino. Entonces, en resumen, el direccionamiento IP determina el comportamiento de extremo a extremo de un paquete IP.
Los dispositivos finales en una red Ethernet no aceptan ni procesan tramas según las direcciones IP. Por el contrario, las tramas se aceptan y procesan según las direcciones MAC.
En las redes Ethernet, las direcciones MAC se utilizan para identificar, en un nivel inferior, los hosts de origen y destino. Cuando un host de una red Ethernet se comunica, envía tramas que contienen su propia dirección MAC como origen y la dirección MAC del destinatario previsto como destino. Todos los hosts que reciben la trama leerán la dirección MAC de destino. El host procesa el mensaje solo si la dirección MAC de destino coincide con la dirección MAC configurada en su NIC.
¿Cómo se relacionan las direcciones IP de los paquetes IP en un flujo de datos con las direcciones MAC en cada enlace a lo largo de la ruta hacia el destino? Esto se logra mediante un proceso denominado “protocolo de resolución de direcciones” (ARP).

Introducción a ARP
Recuerde que cada nodo de una red IP tiene tanto una dirección MAC como una dirección IP. Para enviar datos, el nodo debe utilizar ambas direcciones. El nodo debe utilizar sus propias direcciones MAC e IP en los campos de origen y debe proporcionar una dirección MAC y una dirección IP para el destino.

El protocolo ARP se basa en determinados tipos de mensajes Ethernet de broadcast y unicast, denominados “solicitudes ARP” y “respuestas ARP”.

El protocolo ARP ofrece dos funciones básicas:
·         Resolución de direcciones IPv4 a direcciones MAC
·         Mantenimiento de una tabla de las asignaciones

Para que una trama se coloque en los medios de la LAN, debe contar con una dirección MAC de destino. Cuando se envía un paquete a la capa de enlace de datos para que se encapsule en una trama, el nodo consulta una tabla en su memoria para encontrar la dirección de la capa de enlace de datos asignada a la dirección IPv4 de destino. Esta tabla se denomina tabla ARP o caché ARP.

La tabla ARP se almacena en la RAM del dispositivo.
Cada entrada o fila de la tabla ARP vincula una dirección IP a una dirección MAC. La relación entre los dos valores se denomina mapa, que simplemente significa que usted puede localizar una dirección IP en la tabla y descubrir la dirección MAC correspondiente. En la tabla ARP, se guardan temporalmente (en caché) las asignaciones de los dispositivos en la LAN local.

Mantenimiento de la tabla ARP:

La tabla ARP se mantiene dinámicamente. Existen dos maneras en las que un dispositivo puede reunir direcciones MAC. Una es monitorear el tráfico que se produce en el segmento de la red local. A medida que un nodo recibe tramas de los medios, puede registrar las direcciones IP y MAC de origen como mapeos en la tabla ARP. A medida que las tramas se transmiten en la red, el dispositivo completa la tabla ARP con los pares de direcciones.

Una solicitud de ARP es un broadcast de capa 2 que se transmite a todos los dispositivos en la LAN Ethernet. La solicitud de ARP contiene la dirección IP del host de destino y la dirección MAC de broadcast, FFFF.FFFF.FFFF. Dado que se trata de un broadcast, todos los nodos en la LAN Ethernet reciben y examinan el contenido. El nodo cuya dirección IP coincide con la dirección IP en la solicitud de ARP responde. La respuesta es una trama de unicast que incluye la dirección MAC que corresponde a la dirección IP en la solicitud. Esta respuesta se utiliza para crear una entrada nueva en la tabla ARP del nodo de envío.

Las entradas en la tabla ARP tienen una marca de hora similar a la de las entradas de la tabla MAC en los switches. Si un dispositivo no recibe una trama de un dispositivo determinado antes de que caduque la marca horaria, la entrada para ese dispositivo se elimina de la tabla ARP.
Además, pueden ingresarse entradas estáticas de asignaciones en una tabla ARP, pero esto no sucede con frecuencia. Las entradas estáticas de la tabla ARP no caducan con el tiempo y deben eliminarse en forma manual.

Cuando el ARP recibe una solicitud para mapear una dirección IPv4 a una dirección MAC, busca el mapa almacenado en su tabla ARP. Si no encuentra la entrada, la encapsulación del paquete IPv4 no se realiza y los procesos de Capa 2 notifican al ARP que necesita un mapa. Los procesos ARP envían entonces un paquete de solicitud de ARP para descubrir la dirección MAC del dispositivo de destino de la red local. Si un dispositivo que recibe la solicitud tiene la dirección IP de destino, responde con una respuesta de ARP. Se crea un mapa en la tabla ARP.



Los paquetes para esa dirección IPv4 pueden ahora encapsularse en tramas.
Si ningún dispositivo responde a la solicitud de ARP, el paquete se descarta porque no puede crearse una trama. Esta falla de encapsulación se informa a las capas superiores del dispositivo.

Si el host IPv4 de destino no se encuentra en la red local, el nodo de origen necesita enviar la trama a la interfaz del router que es el gateway o el siguiente salto que se utiliza para llegar a dicho destino. El nodo de origen utilizará la dirección MAC del gateway como dirección de destino para las tramas que contengan un paquete IPv4 dirigido a hosts que se encuentren en otras redes.

La dirección de gateway de la interfaz del router se almacena en la configuración IPv4 de los hosts. Cuando un host crea un paquete para un destino, compara la dirección IP de destino con su propia dirección IP para determinar si las dos direcciones IP se encuentran en la misma red de Capa 3. Si el host receptor no se encuentra en la misma red, el origen utiliza el proceso de ARP para determinar una dirección MAC para la interfaz del router que sirve de gateway.

En caso de que la entrada de gateway no se encuentre en la tabla, el proceso de ARP normal enviará una solicitud de ARP para recuperar la dirección MAC asociada con la dirección IP de la interfaz del router.

Eliminación de entradas de una tabla ARP:

Para cada dispositivo, un temporizador de caché ARP elimina las entradas ARP que no se hayan utilizado durante un período de tiempo especificado. Los tiempos difieren dependiendo del dispositivo y su sistema operativo. Por ejemplo: algunos sistemas operativos de Windows almacenan las entradas de caché ARP por 2 minutos. Si la entrada se utiliza nuevamente durante ese tiempo, el temporizador ARP para esa entrada se extiende a 10 minutos.

También pueden utilizarse comandos para eliminar manualmente todas o algunas de las entradas de la tabla ARP. Después de eliminar una entrada, el proceso para enviar una solicitud de ARP y recibir una respuesta de ARP debe ocurrir nuevamente para ingresar la asignación en la tabla ARP.

En un router Cisco, se utiliza el comando show ip arp para mostrar la tabla ARP, como se muestra en la figura 1.

En una PC con Windows 7, se utiliza el comando arp -a para mostrar la tabla ARP, como se muestra en la figura 2.






Cómo puede ocasionar problemas el protocolo ARP:

Sobrecarga en los medios:

Todos los dispositivos de la red local reciben y procesan una solicitud de ARP debido a que es una trama de broadcast. En una red comercial típica, estos broadcasts tendrían probablemente un impacto mínimo en el rendimiento de la red. Sin embargo, si un gran número de dispositivos se encendiera y todos comenzaran a acceder a los servicios de la red al mismo tiempo, podría haber una disminución del rendimiento durante un período de tiempo breve

Seguridad:

En algunos casos, el uso del ARP puede ocasionar un riesgo potencial de seguridad. La suplantación o el envenenamiento ARP es una técnica que utiliza un atacante para introducir una asociación de direcciones MAC incorrecta en una red emitiendo respuestas ARP falsas. El individuo falsifica la dirección MAC de un dispositivo y de esta manera las tramas pueden enviarse a la dirección equivocada.
Configurar manualmente asociaciones ARP estáticas es una manera de impedir la suplantación de identidad de ARP. Las direcciones MAC autorizadas pueden configurarse en algunos dispositivos de red para que limiten el acceso a la red para sólo los dispositivos indicados.

Mitigación de problemas de ARP:

Los switches modernos pueden mitigar los problemas de broadcast y de seguridad relacionados con ARP. Los switches Cisco admiten varias tecnologías de seguridad diseñadas específicamente para mitigar problemas de Ethernet relacionados con los broadcasts, en general, y con ARP, en particular.

Los switches proporcionan la segmentación de LAN, ya que las dividen en dominios de colisiones independientes. Cada puerto de un switch representa un dominio de colisiones distinto y proporciona el ancho de banda de medio completo al nodo o a los nodos conectados a dicho puerto.
Si bien los switches no impiden de manera predeterminada que los broadcasts se propaguen a los dispositivos conectados, aíslan las comunicaciones unicast de Ethernet de modo que solamente las “escuchen” el dispositivo de origen y de destino.
Entonces, si hay una gran cantidad de solicitudes de ARP, cada respuesta de ARP tendrá lugar solamente entre dos dispositivos.

Con respecto a la mitigación de diferentes tipos de ataques de broadcast, a los que las redes Ethernet son propensas, los ingenieros de red implementan tecnologías de seguridad de switches de Cisco, como listas de acceso y seguridad de puertos especializadas.

Los switches LAN de capa 2 llevan a cabo los procesos de conmutación y filtrado basándose solamente en la dirección MAC de la capa de enlace de datos (capa 2) del modelo OSI. El switch es completamente transparente para los protocolos de red y las aplicaciones de usuario. Los switches de capa 2 crean una tabla de direcciones MAC que utilizan para tomar decisiones de reenvío. Los switches de capa 2 dependen de los routers para pasar datos entre subredes IP independientes.

Tabla de direcciones MAC del switch:

El switch determina cómo manejar las tramas de datos entrantes mediante una tabla de direcciones MAC. El switch genera su tabla de direcciones MAC grabando las direcciones MAC de los nodos que se encuentran conectados en cada uno de sus puertos. Una vez que la dirección MAC de un nodo específico en un puerto determinado queda registrada en la tabla de direcciones, el switch ya sabe enviar el tráfico destinado a ese nodo específico desde el puerto asignado a dicho nodo para posteriores transmisiones.

Cuando un switch recibe una trama de datos entrantes y la dirección MAC de destino no figura en la tabla, éste reenvía la trama a todos los puertos excepto al que la recibió en primer lugar. Cuando el nodo de destino responde, el switch registra la dirección MAC de éste en la tabla de direcciones del campo dirección de origen de la trama.

En las redes que cuentan con varios switches interconectados, las tablas de direcciones MAC registran varias direcciones MAC para los puertos que conectan los switches que reflejan los nodos de destino. Generalmente, los puertos de los switches que se utilizan para interconectar dos switches cuentan con varias direcciones MAC registradas en la tabla de direcciones.

A continuación se describe este proceso:

Paso 1. El switch recibe una trama de broadcast de la PC1 en el Puerto 1.
Paso 2. El switch ingresa la dirección MAC de origen y el puerto del switch que recibió la trama en la tabla de direcciones.
Paso 3. Dado que la dirección de destino es broadcast, el switch satura todos los puertos enviando la trama, excepto el puerto que la recibió.
Paso 4. El dispositivo de destino responde al broadcast con una trama de unicast dirigida a la PC1.
Paso 5. El switch introduce en la tabla de direcciones la dirección MAC de origen de la PC2 y el número del puerto de switch que recibió la trama. En la tabla de direcciones MAC pueden encontrarse la dirección de destino de la trama y su puerto asociado.
Paso 6. Ahora el switch puede enviar tramas entre los dispositivos de origen y destino sin saturar el tráfico, ya que cuenta con entradas en la tabla de direcciones que identifican a los puertos asociados.
Nota: en ocasiones, la tabla de direcciones MAC se denomina “tabla de memoria de contenido direccionable” (CAM). Si bien el término “tabla CAM” es bastante común, para el propósito de este curso la denominaremos “tabla de direcciones MAC”.

Configuración de Dúplex:

Half dúplex:

La comunicación half-duplex se basa en un flujo de datos unidireccional en el que el envío y la recepción de datos no se producen al mismo tiempo. Esto es similar a la función de las radios de dos vías o dos walki-talkies en donde una sola persona puede hablar a la vez. Si una persona habla mientras lo hace la otra, se produce una colisión.
Por ello, la comunicación half-duplex implementa el CSMA/CD con el objeto de reducir las posibilidades de que se produzcan colisiones y detectarlas en caso de que se presenten. Las comunicaciones half-duplex presentan problemas de funcionamiento debido a la constante espera, ya que el flujo de datos sólo se produce en una dirección a la vez. Las conexiones half-duplex suelen verse en los dispositivos de hardware más antiguos, como los hubs.

Full duplex

En las comunicaciones full-duplex el flujo de datos es bidireccional, por lo tanto la información puede enviarse y recibirse al mismo tiempo. La capacidad bidireccional mejora el rendimiento, dado que reduce el tiempo de espera entre las transmisiones. Actualmente, la mayoría de las tarjetas NIC Ethernet, Fast Ethernet y Gigabit Ethernet disponibles en el mercado proporciona capacidad full-duplex. En el modo full-duplex, el circuito de detección de colisiones se encuentra desactivado. Las tramas enviadas por los dos nodos finales conectados no pueden colisionar, dado que éstos utilizan dos circuitos independientes en el cable de la red. Cada conexión full-duplex utiliza un solo puerto. Las conexiones full-duplex requieren un switch que admita esta modalidad o bien una conexión directa entre dos nodos compatibles con el modo full duplex. Los nodos que se conecten directamente al puerto de un switch dedicado con tarjetas NIC capaces de admitir full duplex deben conectarse a puertos que estén configurados para funcionar en el modo full-duplex.

Los switches Cisco Catalyst admiten tres configuraciones dúplex:


·         La opción full establece el modo full-duplex.
·         La opción half establece el modo half-duplex.
·         La opción auto establece el modo autonegociación de dúplex. Cuando este modo se encuentra habilitado, los dos puertos se comunican para decidir el mejor modo de funcionamiento.

Para los puertos 10/100/1000 y Fast Ethernet la opción predeterminada es auto. Para los puertos 100BASE-FX, la opción predeterminada es full. Los puertos 10/100/1000 funcionan tanto en el modo half-duplex como en el full-duplex cuando se establecen en 10 ó 100 Mb/s, pero sólo funcionan en el modo full-duplex cuando se establecen en 1000 Mb/s.



MDIX automática:

Además de tener la configuración de dúplex correcta, también es necesario tener el tipo de cable adecuado definido para cada puerto. Antes, las conexiones entre dispositivos específicos, como las conexiones switch a switch, switch a router, switch a host y router a host, requerían el uso de tipos de cables específicos (de conexión cruzada o de conexión directa). Ahora, en cambio, la mayoría de los dispositivos de switch admiten el comando de configuración de interfazmdix auto en la CLI para habilitar la característica automática de conexión cruzada de interfaz dependiente del medio (MDIX automática o auto-MDIX).

Métodos de reenvío de tramas en switches Cisco:

Anteriormente, los switches solían utilizar uno de los siguientes métodos de reenvío para conmutar datos entre los puertos de la red:

·         Conmutación por almacenamiento y envío
·         Conmutación por método de corte

En este tipo de conmutación, cuando el switch recibe la trama la almacena en los búferes de datos hasta recibir la trama en su totalidad. Durante el proceso de almacenamiento, el switch analiza la trama para buscar información acerca de su destino. En este proceso, el switch también lleva a cabo una verificación de errores utilizando la porción del tráiler de comprobación de redundancia cíclica (CRC) de la trama de Ethernet.

La CRC utiliza una fórmula matemática, basada en la cantidad de bits (1) de la trama, para determinar si ésta tiene algún error. Después de confirmar la integridad de la trama, ésta se envía desde el puerto correspondiente hasta su destino. Cuando se detecta un error en la trama, el switch la descarta. El proceso de descarte de las tramas con errores reduce la cantidad de ancho de banda consumido por datos dañados.


Conmutación por método de corte:

En este tipo de conmutación, el switch actúa sobre los datos apenas los recibe, incluso si la transmisión aún no se ha completado. El switch recopila en el búfer sólo la información suficiente de la trama como para leer la dirección MAC de destino y así determinar a qué puerto debe reenviar los datos. La dirección MAC de destino se encuentra en los primeros 6 bytes de la trama después del preámbulo. El switch busca la dirección MAC de destino en su tabla de conmutación, determina el puerto de la interfaz de salida y reenvía la trama a su destino mediante el puerto de switch designado.

El switch no lleva a cabo ninguna verificación de errores en la trama. Dado que el switch no tiene que esperar que la trama se almacene de manera completa en el búfer y que no realiza ninguna verificación de errores, la conmutación por método de corte es más rápida que la de almacenamiento y envío. No obstante, al no llevar a cabo ninguna verificación de errores, el switch reenvía tramas dañadas a través de la red. Las tramas dañadas consumen ancho de banda mientras se reenvían. Al final, la NIC de destino descarta las tramas dañadas.

A continuación, se presentan dos variantes de la conmutación por método de corte:

·         Conmutación por envío rápido: este tipo de conmutación ofrece el nivel más bajo de latencia. La conmutación por envío rápido reenvía el paquete inmediatamente después de leer la dirección de destino. Como la conmutación por envío rápido comienza a reenviar el paquete antes de haberlo recibido en forma completa, es probable que a veces los paquetes se entreguen con errores. Esto ocurre con poca frecuencia y el adaptador de red de destino descarta los paquetes defectuosos en el momento de su recepción. En el modo de envío rápido, la latencia se mide desde el primer bit recibido hasta el primer bit transmitido. La conmutación por envío rápido es el típico método de corte.
·         Conmutación libre de fragmentos: en este método, el switch almacena los primeros 64 bytes de la trama antes de hacer el reenvío. Este tipo de conmutación se puede definir como un punto intermedio entre la conmutación por almacenamiento y envío y la conmutación por método de corte.

El motivo por el cual la conmutación libre de fragmentos almacena sólo los primeros 64 bytes de la trama es que la mayoría de los errores y las colisiones de la red se producen en esos primeros 64 bytes. El método de conmutación libre de fragmentos intenta mejorar la conmutación por envío rápido mediante una pequeña verificación de errores en los primeros 64 bytes de la trama, a fin de asegurar que no se hayan producido colisiones antes de reenviar la trama. La conmutación libre de fragmentos es un punto intermedio entre el alto nivel de latencia y la gran integridad que ofrece la conmutación por almacenamiento y envío, y el bajo nivel de latencia y la integridad reducida que brinda la conmutación por envío rápido.

Algunos switches se configuran para realizar una conmutación por método de corte por puerto hasta llegar a un umbral de error definido por el usuario y luego cambian la conmutación al modo de almacenamiento y envío. Si el índice de error está por debajo del umbral, el puerto vuelve automáticamente a la conmutación por método de corte.




Almacenamiento en búfer de memoria en switches:

Un switch Ethernet puede usar una técnica de bufferes para almacenar tramas antes de enviarlas. El almacenamiento en buffers también puede utilizarse cuando el puerto de destino está ocupado debido a una congestión. El switch almacena la trama hasta el momento en que pueda transmitirse.

Existen dos métodos de almacenamiento en búfer de memoria: el método basado en puerto y el de memoria compartida.

Búfer de memoria basada en puerto:

En el búfer de memoria basado en puerto, las tramas se almacenan en colas conectadas a puertos de entrada y de salida específicos. Una trama se transmite al puerto de salida una vez que todas las tramas que están delante de ella en la cola se hayan transmitido con éxito. Es posible que una sola trama retarde la transmisión de todas las tramas almacenadas en la memoria debido al tráfico del puerto de destino. Este retraso se produce aunque las demás tramas puedan transmitirse a puertos de destino abiertos.

Almacenamiento en búfer de memoria compartida:

El búfer de memoria compartida deposita todas las tramas en un búfer de memoria común que comparten todos los puertos del switch. La cantidad de memoria de búfer que requiere un puerto se asigna de forma dinámica. Las tramas en el búfer se vinculan de forma dinámica al puerto de destino. Esto permite que se pueda recibir el paquete por un puerto y se pueda transmitir por otro puerto, sin tener que colocarlo en otra cola.

El switch conserva un mapa de enlaces de trama a puerto que indica dónde debe transmitirse el paquete. El enlace del mapa se elimina una vez que la trama se ha transmitido con éxito. La cantidad de tramas almacenadas en el búfer se encuentra limitada por el tamaño del búfer de memoria en su totalidad y no se limita a un solo búfer de puerto. Esto permite la transmisión de tramas más amplias y que se descarte una menor cantidad de ellas. Esto es muy importante para la conmutación asimétrica.

La conmutación asimétrica permite diferentes velocidades de datos en diferentes puertos. Esto permite que se dedique más ancho de banda a ciertos puertos, como un puerto conectado a un servidor.


Comparación de conmutación de capa 2 y conmutación de capa 3

Recuerde que los switches LAN de capa 2 llevan a cabo los procesos de conmutación y filtrado solo según la dirección MAC de la capa de enlace de datos (capa 2) del modelo OSI y dependen de los routers para pasar datos entre subredes IP independientes.

un switch de capa 3, como el Catalyst 3560, funciona de manera similar a un switch de capa 2, como el Catalyst 2960, pero en lugar de utilizar solo la información de la dirección MAC de la capa 2 para las decisiones de reenvío, los switches de capa 3 también pueden utilizar la información de la dirección IP. En lugar de aprender qué direcciones MAC están vinculadas con cada uno de sus puertos, el switch de Capa 3 puede también conocer qué direcciones IP están relacionadas con sus interfaces. Esto permite que el switch de capa 3 también dirija el tráfico a través de la red sobre la base de la información de la dirección IP.

Los switches de Capa 3 son también capaces de llevar a cabo funciones de enrutamiento de Capa 3, con lo cual se reduce la necesidad de colocar routers dedicados en una LAN.

Cisco Express Forwarding

Los dispositivos Cisco que admiten conmutación de capa 3 utilizan Cisco Express Forwarding (CEF). Este método de reenvío es muy complejo, pero afortunadamente, como sucede con todas las buenas tecnologías, gran parte de lo que sucede se produce “detrás de escena”. Por lo general, CEF requiere muy poca configuración en los dispositivos Cisco.

Los dos componentes principales de la operación de CEF son los siguientes:
·         Base de información de reenvío (FIB)
·         Tablas de adyacencia

La FIB es conceptualmente similar a una tabla de enrutamiento.

Con CEF, la información que antes se almacenaba en la caché de la ruta se almacena ahora en varias estructuras de datos para la conmutación CEF. Las estructuras de datos proporcionan búsquedas optimizadas para un reenvío de paquetes eficaz. Los dispositivos de red utilizan la tabla de búsqueda de FIB para tomar decisiones de conmutación basadas en el destino sin tener que acceder a la caché de la ruta.

La FIB se actualiza cuando se producen cambios en la red y contiene todas las rutas conocidas hasta ese momento. La tabla de adyacencia mantiene las direcciones de siguiente salto de la capa 2 para todas las entradas de FIB.


La tabla de adyacencia se puede crear independientemente de la tabla FIB, lo que permite que ambas se creen sin que haya paquetes en proceso de conmutación.
La reescritura del encabezado MAC utilizada para reenviar paquetes no se almacena en las entradas de caché, por lo tanto, los cambios en una cadena de reescritura de encabezado MAC no requiere la invalidación de las entradas de caché.
CEF está habilitado de manera predeterminada en la mayoría de los dispositivos Cisco que realizan conmutación de capa 3.



Tipos de interfaces de capa 3

Las interfaces de capa 3 son aquellas que admiten el reenvío de paquetes IP a un destino final sobre la base de la dirección IP.
Los principales tipos de interfaces de capa 3 son los siguientes:

·         Interfaz virtual de switch (SVI): interfaz lógica en un switch asociado a una red de área local virtual (VLAN).
·         Puerto enrutado: puerto físico en un switch de capa 3 configurado para funcionar como puerto de router.
·         EtherChannel de capa 3: interfaz lógica en dispositivos Cisco asociada a un conjunto de puertos enrutados.

Como se mostró anteriormente, se debe habilitar una SVI para la VLAN predeterminada (VLAN1) a fin de proporcionar conectividad de host IP al switch y permitir la administración remota del switch. También se deben configurar SVI para permitir el enrutamiento entre redes VLAN.

Como ya se mencionó, las SVI son interfaces lógicas configuradas para VLAN específicas; para crear una ruta entre dos o más redes VLAN, cada VLAN debe tener habilitada una SVI independiente.
Los puertos enrutados permiten que los switches Cisco (de capa 3) funcionen como routers de manera eficaz. Cada puerto de un switch tal se puede configurar como puerto en una red IP independiente.
Los EtherChannels de capa 3 se utilizan para agrupar enlaces de Ethernet de capa 3 entre dispositivos Cisco para agregar ancho de banda, por lo general en uplinks.





Configuración de un puerto enrutado en un switch de capa 3

Un puerto de switch se puede configurar para que funcione como puerto enrutado de capa 3 y se comporte como una interfaz de router normal. Las características específicas de un puerto enrutado son las siguientes:

·         No está relacionado con una VLAN determinada.
·         Se puede configurar con un protocolo de enrutamiento de capa 3.
·         Es una interfaz de capa 3 únicamente, y no admite el protocolo de capa 2.

Configure los puertos enrutados colocando la interfaz en modo de capa 3 con el comando de configuración de interfaz no switchport. A continuación, asigne una dirección IP al puerto. Eso es todo.



Capítulo 6: Capa de Red:

Los protocolos de la capa de red del modelo OSI especifican el direccionamiento y los procesos que permiten empaquetar y transportar los datos de la capa de transporte. La encapsulación de la capa de red permite transmitir los datos a un destino dentro de la red (o de otra red) con una sobrecarga mínima.

La capa de red, o la capa 3 de OSI, proporciona servicios que permiten que los dispositivos finales intercambien datos a través de la red. Para lograr este transporte de extremo a extremo, la capa de red utiliza cuatro procesos básicos:

·         Direccionamiento de dispositivos finales: de la misma manera en que un teléfono tiene un número telefónico único, los dispositivos finales deben configurarse con una dirección IP única para su identificación en la red. Un dispositivo final con una dirección IP configurada se denomina “host”.
·         Encapsulación: la capa de red recibe una unidad de datos del protocolo (PDU) de la capa de transporte. En un proceso denominado “encapsulación”, la capa de red agrega la información del encabezado IP, como la dirección IP de los hosts de origen (emisor) y de destino (receptor). Una vez que se agrega la información de encabezado a la PDU, esta se denomina “paquete”.
·         Enrutamiento: la capa de red proporciona servicios para dirigir los paquetes a un host de destino en otra red. Para que el paquete se transfiera a otras redes, lo debe procesar un router. La función del router es seleccionar las rutas para los paquetes y dirigirlos hacia el host de destino en un proceso conocido como “enrutamiento”.

·         Un paquete puede cruzar muchos dispositivos intermediarios antes de llegar al host de destino. Cada ruta que toma el paquete para llegar al host de destino se denomina “salto”.

·         Desencapsulación: cuando un paquete llega a la capa de red del host de destino, el host revisa el encabezado IP del paquete. Si la dirección IP de destino en el encabezado coincide con su propia dirección IP, se elimina el encabezado IP del paquete. Este proceso de eliminación de encabezados de las capas inferiores se conoce como “desencapsulación”. Una vez que la capa de red desencapsula el paquete, la PDU de capa 4 que se obtiene como resultado se transfiere al servicio correspondiente en la capa de transporte.

Los protocolos de la capa de red especifican la estructura y el procesamiento de paquete que se utilizan para transportar los datos desde un host hasta otro.

Existen varios protocolos de capa de red; sin embargo, solo los dos que se incluyen a continuación se implementan con frecuencia, como se muestra en la ilustración:
·         Protocolo de Internet versión 4 (IPv4)
·         Protocolo de Internet versión 6 (IPv6)

Características de IP:

IP se diseñó como protocolo con baja sobrecarga. Provee sólo las funciones necesarias para enviar un paquete desde un origen a un destino a través de un sistema interconectado de redes. El protocolo no fue diseñado para rastrear ni administrar el flujo de paquetes. De ser necesarias, otros protocolos en otras capas llevan a cabo estas funciones.





Las características básicas del protocolo IP son las siguientes:

·         Sin conexión: no se establece ninguna conexión con el destino antes de enviar los paquetes de datos.
·         Máximo esfuerzo (no confiable): la entrega de paquetes no está garantizada.
·         Independiente de los medios: la operación es independiente del medio que transporta los datos.

Sin conexión:

La función de la capa de red es transportar paquetes entre los hosts colocando la menor carga posible en la red. La capa de red no se ocupa ni está al tanto del tipo de comunicación contenida dentro de un paquete. IP es un protocolo sin conexión, lo que significa que no se crea ninguna conexión dedicada de extremo a extremo antes de enviar los datos. Conceptualmente, la comunicación sin conexión es similar a enviar una carta a alguien sin notificar al destinatario con anticipación

IP es un protocolo sin conexión y, por lo tanto, no requiere ningún intercambio inicial de información de control para establecer una conexión de extremo a extremo antes de reenviar los paquetes. Además, tampoco requiere campos adicionales en el encabezado de la unidad de datos del protocolo (PDU) para mantener una conexión establecida.

Máximo esfuerzo de entrega:

A menudo, el protocolo IP se describe como un protocolo no confiable o de máximo esfuerzo de entrega. Esto no significa que IP a veces funcione bien y a veces funcione mal, ni que sea un protocolo de comunicación de datos deficiente. “No confiable” significa simplemente que IP no tiene la capacidad de administrar paquetes no entregados o dañados ni de recuperar datos de estos. Esto se debe a que los paquetes IP se envían con información sobre la ubicación de entrega, pero no contienen información que se pueda procesar para informar al emisor si la entrega se realizó correctamente. No se incluyen datos de sincronización en el encabezado del paquete para realizar un seguimiento del orden de entrega de los paquetes. Con el protocolo IP, tampoco hay acuses de recibo de la entrega de los paquetes ni datos de control de errores que permitan realizar un seguimiento de si los paquetes se entregaron sin daños. Los paquetes pueden llegar al destino dañado o fuera de secuencia, o pueden no llegar en absoluto. De acuerdo con la información proporcionada en el encabezado IP, no hay capacidad de retransmisión de paquetes si se producen errores como estos.

Si los paquetes faltantes o que no funcionan generan problemas para la aplicación que usa los datos, los servicios de las capas superiores, como TCP, deben resolver estos problemas. Esto permite que el protocolo IP funcione de forma muy eficaz. Si se incluyera la sobrecarga de confiabilidad en IP, las comunicaciones que no requieren conexión o confiabilidad se cargarían con el consumo de ancho de banda y la demora producidos por esta sobrecarga. En la suite TCP/IP, la capa de transporte puede utilizar el protocolo TCP o UDP, según la necesidad de confiabilidad en la comunicación. Dejar que la capa de transporte decida sobre la confiabilidad hace que el protocolo IP se adapte y se acomode mejor a los distintos tipos de comunicación.


Independiente de los medios:

IP funciona con independencia de los medios que transportan los datos en las capas inferiores del stack de protocolos. Como se muestra en la figura, cualquier paquete IP individual puede ser comunicado eléctricamente por cable, como señales ópticas por fibra, o sin cables como señales de radio.

Es responsabilidad de la capa de enlace de datos del modelo OSI tomar un paquete IP y prepararlo para transmitirlo a través del medio de comunicación. Esto significa que el transporte de paquetes IP no está limitado a un medio en particular.

Sin embargo, existe una característica importante de los medios que la capa de red tiene en cuenta: el tamaño máximo de la PDU que cada medio puede transportar. Esta característica se denomina “unidad máxima de transmisión” (MTU). Parte de la comunicación de control entre la capa de enlace de datos y la capa de red consiste en establecer el tamaño máximo para el paquete. La capa de enlace de datos pasa el valor de MTU a la capa de red. A continuación, la capa de red determina cuán grandes pueden ser los paquetes.

En algunos casos, un dispositivo intermediario, generalmente un router, debe dividir un paquete cuando lo reenvía de un medio a otro con una MTU más pequeña. A este proceso se lo llama fragmentación de paquetes o fragmentación.

Encapsulación de IP:

El protocolo IP encapsula o empaqueta el segmento de la capa de transporte agregando un encabezado IP. Este encabezado se utiliza para entregar el paquete al host de destino. El encabezado IP permanece en su lugar desde el momento en que el paquete abandona la capa de red del host de origen hasta que llega a la capa de red del host de destino.

El proceso de encapsulación de datos capa por capa permite el desarrollo y el escalamiento de los servicios de las diferentes capas sin afectar otras capas. Esto significa que el protocolo IPv4 o IPv6, o cualquier protocolo nuevo que se desarrolle en el futuro, pueden empaquetar fácilmente los segmentos de la capa de transporte.

Los routers pueden implementar estos diferentes protocolos de capa de red para operar al mismo tiempo en una red desde y hacia el mismo host o hosts diferentes. El enrutamiento que realizan estos dispositivos intermediarios solo tiene en cuenta el contenido del encabezado del paquete que encapsula el segmento. En todos los casos, la porción de datos del paquete, es decir, la PDU de la capa de transporte encapsulada, no se modifica durante los procesos de la capa de red.




Encabezado de paquetes IPv4:

IPv4 se utiliza desde 1983, IPv4, que continua siendo el protocolo de capa de red que más se utiliza.
Los paquetes IPV4 tienen dos partes:


· Encabezado IP: identifica las características del paquete.
·         Contenido: contiene la información del segmento de capa 4 y los datos propiamente dichos.

Los campos importantes del encabezado de IPv4 incluyen los siguientes:

·         Versión: contiene un valor binario de 4 bits que identifica la versión del paquete IP. Para los paquetes IPv4, este campo siempre se establece en 0100.
·         Servicios diferenciados (DS): anteriormente denominado “Tipo de servicio” (ToS), se trata de un campo de 8 bits que se utiliza para determinar la prioridad de cada paquete. Los primeros 6 bits identifican el valor del Punto de código de servicios diferenciados (DSCP), utilizado por un mecanismo de calidad de servicio (QoS). Los últimos 2 bits identifican el valor de Notificación explícita de congestión (ECN), que se puede utilizar para evitar que los paquetes se descarten durante momentos de congestión de la red.
·         Tiempo de vida (TTL): contiene un valor binario de 8 bits que se utiliza para limitar la vida útil de un paquete. Se especifica en segundos, pero comúnmente se denomina “conteo de saltos”.

El emisor del paquete establece el valor inicial de tiempo de vida (TTL), el que disminuye un punto por cada salto, es decir, cada vez que el paquete es procesado por un router. Si el campo TTL disminuye a cero, el router descarta el paquete y envía un mensaje del protocolo de mensajes de control de Internet (ICMP) de Tiempo superado a la dirección IP de origen. El comando tracerouteutiliza este campo para identificar los routers utilizados entre el origen y el destino.

·         Protocolo: este valor binario de 8 bits indica el tipo de contenido de datos que transporta el paquete, lo que permite que la capa de red pase los datos al protocolo de capa superior correspondiente. Los valores comunes incluyen ICMP (1), TCP (6) y UDP (17).
·         Dirección IP de origen: contiene un valor binario de 32 bits que representa la dirección IP de origen del paquete.
·         Dirección IP de destino: contiene un valor binario de 32 bits que representa la dirección IP de destino del paquete.



Es posible que un router deba fragmentar un paquete cuando lo reenvía de un medio a otro que tiene una MTU más pequeña. Cuando esto sucede, se produce una fragmentación, y el paquete IPV4 utiliza los siguientes campos para llevar a cabo un seguimiento de los fragmentos:


·         Identificación: este campo de 16 bits identifica de forma exclusiva el fragmento de un paquete IP original.
·         Indicadores: este campo de 3 bits identifica cómo se fragmenta el paquete. Se utiliza con los campos Desplazamiento de fragmentos e Identificación para ayudar a reconstruir el paquete original con el fragmento.


·         Desplazamiento de fragmentos: este campo de 13 bits identifica el orden en que se debe colocar el fragmento del paquete en la reconstrucción del paquete original sin fragmentar.

Las mejoras que proporciona IPv6 incluyen lo siguiente:


·          Mayor espacio de direcciones: las direcciones IPv6 se basan en un direccionamiento jerárquico de 128 bits, mientras que en IPv4 es de 32 bits. El número de direcciones IP disponibles aumenta drásticamente.

·         Mejora del manejo de los paquetes: el encabezado de IPv6 se simplificó con menos campos. Esto mejora el manejo de paquetes por parte de los routers intermediarios y también proporciona compatibilidad para extensiones y opciones para aumentar la escalabilidad y la duración.


·         Eliminación de la necesidad de NAT: con tal cantidad de direcciones IPv6 públicas, no se necesita traducción de direcciones de red (NAT).


·          Seguridad integrada: IPv6 admite capacidades de autenticación y privacidad de forma nativa. Con IPv4, se debían implementar características adicionales para este fin.

El espacio de direcciones IP versión 6 proporciona 340 282 366 920 938 463 463 374 607 431 768 211 456, o 340 sextillones de direcciones, lo que equivale a aproximadamente todos los granos de arena de la Tierra.

El encabezado de IPv4 consta de 20 octetos (hasta 60 bytes si se utiliza el campo Opciones) y 12 campos de encabezado básicos, sin incluir los campos Opciones y Relleno.

El encabezado de IPv6 consta de 40 octetos (en gran medida, debido a la longitud de las direcciones IPv6 de origen y de destino) y 8 campos de encabezado (3 campos de encabezado IPv4 básicos y 5 campos de encabezado adicionales).

El encabezado de IPv6 simplificado ofrece varias ventajas respecto de IPv4:

·         Mayor eficacia de enrutamiento para un buen rendimiento y una buena escalabilidad de velocidad de reenvío.
·         Sin requisito de procesamiento de checksums.
·         Mecanismos de encabezado de extensión simplificados y más eficaces (en comparación con el campo Opciones de IPv4).
·         Un campo Identificador de flujo para procesamiento por flujo, sin necesidad de abrir el paquete interno de transporte para identificar los distintos flujos de tráfico.

Los paquetes IPv6 también pueden contener encabezados de extensión (EH), que proporcionan información optativa de la capa de red. Los EH se utilizan para realizar la fragmentación, aportar seguridad, admitir la movilidad, y más.

IPv6 tiene muchos menos campos que un encabezado de IPv4. Esto hace que el encabezado de IPv6 sea más fácil y más rápido de procesar para el router. Debido al mayor tamaño de las direcciones IPv6, de 128 bits, se utiliza el sistema de numeración hexadecimal para simplificar la representación de las direcciones. En las direcciones IPv6, se utilizan dos puntos para separar las entradas en una serie de bloques hexadecimales de 16 bits.

Otra función de la capa de red es dirigir los paquetes entre los hosts. Un host puede enviar un paquete:
·         A sí mismo: en este caso, se utiliza una dirección IP especial, 127.0.0.1, que se denomina “interfaz loopback”. Esta dirección de loopback se asigna automáticamente a un host cuando se ejecuta TCP/IP. La capacidad de un host de enviarse un paquete a sí mismo mediante la funcionalidad de la red resulta útil para realizar pruebas. Cualquier dirección IP dentro de la red 127.0.0.0/8 se refiere al host local.



Gateway predeterminado:
El gateway predeterminado es el dispositivo que enruta el tráfico desde la red local hacia los dispositivos en las redes remotas. Si el host envía un paquete a un dispositivo en otra red IP, debe reenviar el paquete al gateway predeterminado a través del dispositivo intermediario.

El gateway predeterminado, que en general es un router, mantiene una tabla de enrutamiento. Una tabla de enrutamiento es un archivo de datos que se encuentra en la RAM y que se utiliza para almacenar información de la ruta sobre la red conectada directamente, así como las entradas de redes remotas descubiertas por el dispositivo. El router utiliza la información en la tabla de enrutamiento para determinar cuál es el mejor camino para llegar a esos destinos.

¿Cómo decide un host si debe o no debe reenviar paquetes al gateway predeterminado? Los hosts deben poseer una tabla de enrutamiento local propia para asegurarse de que los paquetes de la capa de red se dirijan a la red de destino correcta. La tabla local del host generalmente contiene lo siguiente:
·         Conexión directa: se trata de una ruta a la interfaz loopback (127.0.0.1).
·         Ruta de red local: la red a la cual está conectado el host se completa automáticamente en la tabla de enrutamiento del host.


·         Ruta predeterminada local: La dirección de gateway predeterminado es la dirección IP de la interfaz de red del router que está conectada a la red local.

Es importante observar que la ruta predeterminada y, por lo tanto, el gateway predeterminado, se utilizan solo cuando un host debe reenviar paquetes a una red remota. No se requieren, ni es necesario configurarlos, si solo se envían paquetes a dispositivos en la red local.

Tabla de enrutamiento de host IPv4:

En un host de Windows, se pueden utilizar los comandos route print o netstat -r para ver la tabla de enrutamiento del host. Los dos comandos provocan al mismo resultado. Al principio, los resultados pueden parecer abrumadores, pero son bastante fáciles de entender.

Al introducir el comando netstat -r o su equivalente, route print, se ven tres secciones relacionadas con las conexiones de red TCP/IP actuales:

·         Lista de interfaces: enumera las direcciones de control de acceso al medio (MAC) y el número de interfaz asignado de cada interfaz con capacidad de red en el host, incluidos los adaptadores Ethernet, Wi-Fi y Bluetooth.
·         Tabla de rutas IPv4: enumera todas las rutas IPv4 conocidas, incluidas las conexiones directas, las rutas de red locales y las rutas predeterminadas locales.
·         Tabla de rutas IPv6: enumera todas las rutas IPv6 conocidas, incluidas las conexiones directas, las rutas de red locales y las rutas predeterminadas locales.


En la ilustración, se muestra la sección de la tabla de rutas IPv4 de los resultados. Observe que los resultados se dividen en cinco columnas que identifican lo siguiente:


·         Destino de red: enumera las redes que se pueden alcanzar.


·          Máscara de red: incluye una máscara de subred que le indica al host cómo determinar las porciones de red y de host de la dirección IP.
·         Puerta de acceso: indica la dirección que utiliza la PC local para llegar a un destino en una red remota. Si un destino es directamente accesible, se muestra como “En enlace” en esta columna.
·         Interfaz: indica la dirección de la interfaz física utilizada para enviar el paquete al gateway que se emplea para llegar al destino de red.
·         Métrica: indica el costo de cada ruta y se utiliza para determinar la mejor ruta a un destino.

0.0.0.0  es la ruta predeterminada local. Todos los paquetes con destinos que no coincidan con otras direcciones especificadas en la tabla de enrutamiento se reenvían al gateway.

127.0.0.0-127.255.255.255 son las direcciones de loopback se relacionan con la conexión directa y proporcionan servicios al host local.

192.168.10.0 – 192.168.10.255 estas direcciones se relacionan con el host y la red local.

224.0.0.0 direcciones multicast de clase D especiales reservadas para usar mediante la interfaz loopback (127.0.0.1) o la dirección IP del host (192.168.10.10).

255.255.255.255 estas son las últimas dos direcciones representan los valores de direcciones IP de broadcast limitado para usar mediante la interfaz loopback (127.0.0.1) o la dirección IP del host (192.168.10.10). Estas direcciones se pueden utilizar para buscar un servidor de DHCP antes de que se determine la dirección IP local.

Tabla de enrutamiento de host IPv6 de muestra (291)



El comando netstat – r para mostrar los siguientes destinos de red:

·         ::/0: equivalente en IPv6 a la ruta predeterminada local.
·         ::1/128: equivale a la dirección de loopback IPv4 y proporciona servicios al host local.
·         2001::/32: prefijo de red unicast global.
·         2001:0:9d38:953c:2c30:3071:e718:a926/128:dirección IPv6 unicast global de la PC local.
·         fe80::/64: dirección de la ruta de red de enlace local, que representa todas las PC en la red IPv6 de enlace local.
·         fe80::2c30:3071:e718:a926/128: dirección IPv6 link-local de la PC local.
·         ff00::/8: direcciones multicast de clase D especiales y reservadas que equivalen a las direcciones IPv4 224.x.x.x.

Nota: en general, las interfaces en IPv6 tienen dos direcciones IPv6: una dirección link-local y una dirección unicast global.






Decisión de reenvío de paquetes del router:

¿Qué sucede cuando un paquete llega a una interfaz del router? El router examina la tabla de enrutamiento para determinar adónde reenviar los paquetes.


La tabla de enrutamiento de un router almacena información sobre lo siguiente:

·         Rutas conectadas directamente: estas rutas provienen de las interfaces del router activas. Los routers agregan una ruta conectada directamente cuando se configura una interfaz con una dirección IP y se activa. Cada


·         Rutas remotas: estas rutas provienen de las redes remotas conectadas a otros routers. El administrador de red puede configurar las rutas a estas redes de forma manual en el router local, o estas se pueden configurar de forma dinámica habilitando al router local para que intercambie información de enrutamiento con otros routers mediante protocolos de enrutamiento dinámico.


Nota tablas en enrutamiento:

Cuando un paquete llega a la interfaz del router, este examina el encabezado del paquete para determinar la red de destino. Si la red de destino coincide con una ruta de la tabla de enrutamiento, el router reenvía el paquete utilizando la información especificada en la tabla.
Si hay dos o más rutas posibles hacia el mismo destino, se utiliza la métrica para decidir qué ruta aparece en la tabla de enrutamiento.


Entradas de tabla de enrutamiento de red conectada directamente:

Origen de la ruta:

El origen de la ruta se rotula como “A” en la ilustración. Identifica el modo en que se descubrió la ruta. Las interfaces conectadas directamente tienen dos códigos de origen de la ruta.

·         C: identifica una red conectada directamente. Las redes conectadas directamente se crean de forma automática cuando se configura una interfaz con una dirección IP y se activa.
·         L: identifica que la ruta es link-local. Las redes link-local se crean de forma automática cuando se configura una interfaz con una dirección IP y se activa.

Red de destino:

La red de destino se rotula como “B” en la ilustración. Identifica la dirección de la red remota.

Interfaz de salida:

La interfaz de salida se rotula como “C” en la ilustración. Identifica la interfaz de salida que se debe utilizar al reenviar paquetes a la red de destino.

Los códigos comunes para las redes remotas incluyen lo siguiente:

·         S: indica que un administrador creó la ruta manualmente para llegar a una red específica. Esto se conoce como “ruta estática”.
·         D: indica que la ruta se obtuvo de forma dinámica de otro router mediante el protocolo de enrutamiento de gateway interior mejorado (EIGRP).
·         O: indica que la ruta se obtuvo de forma dinámica de otro router mediante el protocolo de enrutamiento Open Shortest Path First (OSPF).

Entradas de tabla de enrutamiento de red remota:


·         Origen de la ruta: identifica el modo en que se descubrió la ruta.
·         Red de destino: identifica la dirección de la red remota.
·         Distancia administrativa: identifica la confiabilidad del origen de la ruta.
·         Métrica: identifica el valor asignado para llegar a la red remota. Los valores más bajos indican las rutas preferidas.
·         Siguiente salto: identifica la dirección IP del router siguiente para reenviar el paquete.
·         Marca de hora de la ruta: identifica cuándo fue la última comunicación con la ruta.
·         Interfaz de salida: identifica la interfaz de salida que se debe utilizar para reenviar un paquete hacia el destino final.

Dirección Next-Hop:

Un router de siguiente salto es el gateway a las redes remotas. Las redes conectadas directamente a un router no tienen dirección de siguiente salto, porque los routers pueden reenviar los paquetes en forma directa a los hosts en esas redes mediante la interfaz designada. De la misma manera en que un host puede utilizar un gateway predeterminado para reenviar un paquete a un destino desconocido, un router también se puede configurar para que utilice una ruta estática predeterminada para crear un gateway de último recurso.

Tabla de enrutamiento de router IPv4 de muestra:

Suponga que la PC1 con la dirección IP 192.168.10.10 desea enviar un paquete a otro host en la misma red. La PC1 revisaría la tabla de rutas IPv4 según la dirección IP de destino. Luego, la PC1 descubriría que el host está en la misma red y, simplemente, lo enviaría por su interfaz (En enlace).
Nota: el R1 no participa en la transferencia del paquete. Si la PC1 reenvía un paquete a cualquier red que no sea su red local, debe utilizar los servicios del router R1 y reenviar el paquete a su ruta predeterminada local (192.168.10.1)

Memoria del router:

Los routers tienen acceso a cuatro tipos de memoria: RAM, ROM, NVRAM y flash.


·         Cisco IOS: el IOS se copia en la RAM durante el arranque.
·         Archivo de configuración en ejecución: este es el archivo de configuración que almacena los comandos de configuración que el IOS del router utiliza actualmente. También se conoce como “running-config”.


·         Tabla de enrutamiento IP


·         Caché ARP: esta caché contiene la asignación de direcciones IPv4 a direcciones MAC y es similar a la caché de protocolo de resolución de direcciones (ARP) de una PC.


·         Búfer de paquetes: los paquetes se almacenan temporalmente en un búfer cuando se reciben en una interfaz o antes de salir por una.

ROM:
Los routers Cisco usan la memoria ROM para almacenar lo siguiente:

·         Instrucciones de arranque: proporcionan las instrucciones de inicio.
·         Software de diagnóstico básico: realiza el autodiagnóstico al encender (POST) de todos los componentes.
·         IOS limitado: proporciona una versión limitada de respaldo del OS, en caso de que el router no pueda cargar el IOS con todas las funciones.



NVRAM
·         El Cisco IOS usa la NVRAM como almacenamiento permanente para el archivo de configuración de inicio (startup-config). Al igual que la ROM, la NVRAM no pierde el contenido cuando se apaga el dispositivo.

Memoria Flash
·         La memoria flash es memoria de PC no volátil que se utiliza como almacenamiento permanente para el IOS y otros archivos relacionados con el sistema. El IOS se copia de la memoria flash a la RAM durante el proceso de arranque.


Archivos Bootset:

·         Archivo de imagen de IOS: el IOS facilita el funcionamiento básico de los componentes de hardware del dispositivo. El archivo de imagen de IOS se almacena en la memoria flash.

·         Archivo de configuración de inicio: el archivo de configuración de inicio incluye los comandos que se utilizan para realizar la configuración inicial de un router y crear el archivo de configuración en ejecución almacenado en la RAM.

Cuando se realizan cambios al archivo running-config, este se debe guardar en la NVRAM como archivo de configuración de inicio, en caso de que el router se reinicie o se apague.  

Proceso de arranque del router;
El proceso de arranque consta de tres fases principales:
1. Llevar a cabo el POST y cargar el programa bootstrap.
2. Localizar y cargar el software Cisco IOS.
3. Localizar y cargar el archivo de configuración de inicio o ingresar al modo Setup.
1. Llevar a cabo el POST y cargar el programa bootstrap (figura 2)

La tarea principal del programa bootstrap es ubicar al Cisco IOS y cargarlo en la RAM.

Por lo general, el IOS se almacena en la memoria flash y se copia en la RAM para que lo ejecute la CPU. Durante la auto descompresión del archivo de imagen de IOS, se muestra una cadena de símbolos de almohadilla (#).







Resultado de show versión:

Este comando muestra información sobre la versión del software Cisco IOS que se encuentra en ejecución en el router, la versión del programa bootstrap y datos sobre la configuración de hardware, incluida la cantidad de memoria del sistema.


Versión de IOS, Programa bootstrap en la ROM, Ubicación del IOS, CPU y cantidad de RAM, Interfaces, Cantidad de memeoria NVRAM y Flash, la NVRAM se utiliza para almacenar el archivo startup-config y la flash se utiliza para almacenar Cisco IOS de forma permanente.

Notas de configuraciones:

Si bien no es necesario, es aconsejable configurar una descripción en cada interfaz para ayudar a registrar la información de la red. El texto de la descripción tiene un límite de 240 caracteres. En las redes de producción, una descripción puede ser útil para la resolución de problemas, dado que suministra información con respecto al tipo de red a la que está conectada la interfaz y si hay otros routers en esa red. Si la interfaz se conecta a un ISP o un proveedor de servicios de telefonía móvil, resulta útil introducir la información de contacto y de conexión de dichos terceros.

Puede verificar la conectividad desde la interfaz mediante el comando ping. Los routers Cisco envían cinco pings consecutivos y miden los tiempos de ida y vuelta mínimos, medios y máximos. Los signos de exclamación verifican la conectividad.


show ip route : muestra el contenido de la tabla de enrutamiento IPv4 almacenada en la RAM.
show interfaces - muestra estadísticas de todas las interfaces del dispositivo.
show ip interface : muestra las estadísticas de IPv4 de todas las interfaces de un router.

Gateway predeterminado:
El gateway predeterminado se utiliza solo cuando el host desea enviar un paquete a un dispositivo en otra redTodos los dispositivos que requieren el uso de un router utilizan un gateway predeterminado para precisar el mejor camino hacia un destino remoto. Sin embargo, si dispositivos de otra red deben acceder al switch, este se debe configurar con una dirección de gateway predeterminado, ya que los paquetes que se originan en el switch se manejan como los paquetes que se originan en un dispositivo host. Por lo tanto, los paquetes que se originan en el switch y están destinados a un dispositivo en la misma red se reenvían directamente al dispositivo apropiado.

Un concepto erróneo frecuente es que el switch utiliza la dirección de gateway predeterminado configurada para determinar adónde reenviar los paquetes que se originan en los hosts conectados al switch y que están destinados a los hosts en una red remota. En realidad, la información de dirección IP y de gateway predeterminado solo se utiliza para los paquetes que se originan en el switch. Los paquetes que se originan en los hosts conectados al switch ya deben tener configurada la información de gateway predeterminado para comunicarse en redes remotas.



MiniResumen Capa de Red:

Para lograr este transporte de extremo a extremo, la capa de red utiliza cuatro procesos básicos: el direccionamiento IP para dispositivos finales, la encapsulación, el enrutamiento y la desencapsulación. Las direcciones IPv6 se basan en un direccionamiento jerárquico de 128 bits, mientras que en IPv4 es de 32 bits.

Además del direccionamiento jerárquico, la capa de red también es responsable del enrutamiento.
Los hosts requieren una tabla de enrutamiento local para asegurarse de que los paquetes se dirijan a la red de destino correcta. Por lo general, la tabla local de un host contiene la conexión directa, la ruta de red local y la ruta predeterminada local. La ruta predeterminada local es la ruta al gateway predeterminado.

Si el router tiene una entrada para la red de destino en la tabla de enrutamiento, reenvía el paquete. Si no existe ninguna entrada de enrutamiento, es posible que el router reenvíe el paquete a su propia ruta predeterminada, si hay una configurada. En caso contrario, descartará el paquete.

Capa de Transporte:
La capa de transporte prepara los datos para transmitirlos a través de la red. La capa de transporte incluye también las siguientes funciones:
·         Permite que varias aplicaciones, como el envío de correo electrónico y las redes sociales, se puedan comunicar a través la red al mismo tiempo en un único dispositivo.
·         Asegura que, si es necesario, la aplicación correcta reciba todos los datos con confianza y en orden.
·         Emplea mecanismos de manejo de errores.

La capa de transporte es responsable de establecer una sesión de comunicación temporal entre dos aplicaciones y de transmitir datos entre ellas. La capa de transporte permite la segmentación de datos y proporciona el control necesario para rearmar estos segmentos en los distintos streams de comunicación.

Rastreo de conversaciones individuales
En la capa de transporte, cada conjunto de datos particular que fluye entre una aplicación de origen y una de destino se conoce como “conversación”. Un host puede tener varias aplicaciones que se comunican a través de la red de forma simultánea. Es responsabilidad de la capa de transporte mantener y hacer un seguimiento de todas estas conversaciones

Segmentación de datos y rearmado de segmentos
Se deben preparar los datos para el envío a través de los medios en partes manejables. Los protocolos de la capa de transporte tienen servicios que segmentan los datos de aplicación en bloques de datos de un tamaño apropiado. En el destino, la capa de transporte debe poder reconstruir las porciones de datos en un stream de datos completo que sea útil para la capa de aplicación.

Identificación de aplicaciones
Puede haber muchas aplicaciones o servicios que se ejecutan en cada host de la red. Para pasar streams de datos a las aplicaciones adecuadas, la capa de transporte debe identificar la aplicación objetivo (figura 3). Para lograr esto, la capa de transporte asigna un identificador a cada aplicación. Este identificador se denomina “número de puerto”.
A todos los procesos de software que requieran acceder a la red se les asigna un número de puerto exclusivo en ese host. La capa de transporte utiliza puertos para identificar la aplicación o el servicio.

Multiplexación de conversaciones:
En la ilustración, se muestra que la segmentación de los datos en partes más pequeñas permite que se entrelacen (multiplexen) varias comunicaciones de distintos usuarios en la misma red. Para identificar cada segmento de datos, la capa de transporte agrega al segmento un encabezado que contiene datos binarios. Este encabezado contiene campos de bits. Los valores de estos campos permiten que los distintos protocolos de la capa de transporte lleven a cabo diferentes funciones de administración de la comunicación de datos.

Confiabilidad de la capa de transporte:
Las diferentes aplicaciones tienen diferentes requisitos de confiabilidad de transporte. Los protocolos de transporte especifican la manera en que se transfieren los mensajes entre los hosts. TCP/IP proporciona dos protocolos de la capa de transporte: TCP y UDP

TCP
TCP se considera un protocolo de transporte confiable, lo que significa que incluye procesos para garantizar la entrega confiable entre aplicaciones mediante el uso de entrega con acuse de recibo.

Con TCP, las tres operaciones básicas de confiabilidad son las siguientes:
·         Seguimiento de segmentos de datos transmitidos
·         Acuse de recibo de datos
·         Retransmisión de cualquier dato sin acuse de recibo

TCP divide el mensaje en partes pequeñas, conocidas como segmentos. Los segmentos se numeran en secuencia y se pasan al proceso IP para armarse en paquetes. TCP realiza un seguimiento del número de segmentos que se enviaron a un host específico desde una aplicación específica. Si el emisor no recibe un acuse de recibo antes del transcurso de un período determinado, supone que los segmentos se perdieron y los vuelve a transmitir. Sólo se vuelve a enviar la parte del mensaje que se perdió, no todo el mensaje. En el host receptor, TCP se encarga de rearmar los segmentos del mensaje y de pasarlos a la aplicación.

Estos procesos de confiabilidad generan una sobrecarga adicional en los recursos de la red debido a los procesos de acuse de recibo, rastreo y retransmisión.

UDP
UDP proporciona solo las funciones básicas para entregar segmentos de datos entre las aplicaciones adecuadas, con muy poca sobrecarga y revisión de datos. El protocolo UDP se conoce como protocolo de entrega de máximo esfuerzo. En el contexto de redes, la entrega de máximo esfuerzo se denomina “poco confiable”, porque no hay acuse de recibo que indique que los datos se recibieron en el destino. Con UDP, no existen procesos de capa de transporte que informen al emisor si la entrega se produjo correctamente.

Tanto TCP como UDP son protocolos de transporte válidos. Según los requisitos de la aplicación, se puede utilizar uno de estos protocolos de transporte y, en ocasiones, se pueden utilizar ambos.


Presentación de TCP
TCP proporciona lo siguiente:

Conversaciones orientadas a la conexión mediante el establecimiento de sesiones
·         Entrega confiable
·         Reconstrucción de datos ordenada
·         Control del flujo

Establecimiento de una sesión
TCP es un protocolo orientado a la conexión. Un protocolo orientado a la conexión es uno que negocia y establece una conexión (o sesión) permanente entre los dispositivos de origen y de destino antes de reenviar tráfico. Los dispositivos negocian la cantidad de tráfico que se puede reenviar en un momento determinado, la sesión se termina solo cuando se completa toda la comunicación

Entrega confiable
TCP puede asegurar que todas las partes lleguen a destino al hacer que el dispositivo de origen retransmita los datos perdidos o dañados.

Entrega en el mismo orden
Los datos pueden llegar en el orden equivocado, debido a que las redes pueden proporcionar varias rutas que pueden tener diferentes velocidades de transmisión. Al numerar y secuenciar los segmentos, TCP puede asegurar que estos se rearmen en el orden correcto.

Control de flujo
Los hosts de la red cuentan con recursos limitados, como memoria o ancho de banda. Cuando TCP advierte que estos recursos están sobrecargados, puede solicitar que la aplicación emisora reduzca la velocidad del flujo de datos. Esto lo lleva a cabo TCP, que regula la cantidad de datos que transmite el origen. El control de flujo puede evitar la pérdida de segmentos en la red y evitar la necesitad de la retransmisión.

Rol del TCP:
Debido a la capacidad de TCP de hacer un seguimiento de conversaciones reales, se lo considera un protocolo con estado. Un protocolo con estado es un protocolo que realiza el seguimiento del estado de la sesión de comunicación. TCP genera sobrecarga adicional para obtener estas funciones. Como se muestra en la ilustración, cada segmento TCP tiene 20 bytes de sobrecarga en el encabezado que encapsula los datos de la capa de aplicación.


Número de secuencia (32 bits): se utiliza para rearmar datos.
·         Número de acuse de recibo (32 bits): indica los datos que se recibieron.
·         Longitud del encabezado (4 bits): conocido como “desplazamiento de datos”. Indica la longitud del encabezado del segmento TCP.
·         Reservado (6 bits): este campo está reservado para el futuro.
·         Bits de control (6 bits): incluye códigos de bit, o indicadores, que indican el propósito y la función del segmento TCP.
·         Tamaño de la ventana (16 bits): indica la cantidad de segmentos que se puedan aceptar por vez.
·         Checksum (16 bits): se utiliza para la verificación de errores en el encabezado y los datos del segmento.
·         Urgente (16 bits): indica si la información es urgente.

Presentación de UDP:
UDP se considera un protocolo de transporte de máximo esfuerzo las siguientes características describen a UDP:


Sin conexión: UDP no establece una conexión entre los hosts antes de que se puedan enviar y recibir datos.
·         Entrega no confiable: UDP no proporciona servicios para asegurar que los datos se entreguen con confianza. UDP no cuenta con procesos que hagan que el emisor vuelva a transmitir los datos que se pierden o se dañan.
·         Reconstrucción de datos no ordenada: Los datos simplemente se entregan a la aplicación en el orden en que llegan.


·         Sin control del flujo: UDP no cuenta con mecanismos para controlar la cantidad de datos que transmite el dispositivo de origen para evitar la saturación del dispositivo de destino. El origen envía los datos. Si los recursos en el host de destino se sobrecargan, es probable que dicho host descarte los datos enviados hasta que los recursos estén disponibles. A diferencia de TCP, en UDP no hay un mecanismo para la retransmisión automática de datos descartados.

Rol del UDP
Las porciones de comunicación en UDP se llaman datagramas. UDP es un protocolo sin estado, lo cual significa que ni el cliente ni el servidor están obligados a hacer un seguimiento del estado de la sesión de comunicación.

Nota: Tanto TCP como UDP cuentan con campos de encabezado que pueden identificar de manera exclusiva estas aplicaciones. Estos identificadores únicos son números de puertos. Una aplicación que utiliza UDP debe tolerar el hecho de que los datos no lleguen en el orden en el que fueron enviados.

Direccionamiento de puertos TCP y UDP:

La combinación de las direcciones IP de origen y de destino y de los números de puerto de origen y de destino se conoce como “socket”. El socket se utiliza para identificar el servidor y el servicio que solicita el cliente. Miles de hosts se comunican a diario con millones de servidores diferentes. Los sockets identifican esas comunicaciones.

Un socket de cliente puede ser parecido a esto, donde 1099 representa el número de puerto de origen: 192.168.1.5:1099


El socket en un servidor Web podría ser el siguiente: 192.168.1.7:80
Juntos, estos dos sockets se combinan para formar un par de sockets: 192.168.1.5:1099, 192.168.1.7:80

Los sockets permiten que los procesos múltiples que se ejecutan en un cliente se distingan entre sí. También permiten la diferenciación de múltiples conexiones a un proceso de servidor.

El puerto de origen de la solicitud de un cliente se genera de manera aleatoria. El número de puerto actúa como dirección de retorno para la aplicación que realiza la solicitud. La capa de transporte hace un seguimiento de este puerto y de la aplicación que generó la solicitud de manera que cuando se devuelva una respuesta, esta se envíe a la aplicación correcta.


·         Puertos bien conocidos (números del 0 al 1023):

·         Puertos bien conocidos (números del 0 al 1023):

·         Puertos dinámicos o privados (números 49152 a 65535)

El puerto dinámico suele utilizarse para identificar la aplicación cliente durante la comunicación, mientras que el cliente utiliza el puerto bien conocido para identificar el servicio que se solicita en el servidor y conectarse a dicho servicio.





Establecimiento y finalización de la conexión TCP:
El primer enlace solicita la sincronización. El segundo enlace acusa recibo de la solicitud de sincronización inicial y sincroniza los parámetros de conexión en la dirección opuesta. El tercer segmento de enlace es un acuse de recibo que se utiliza para informarle al destino que ambos lados están de acuerdo en que se estableció una conexión.

Cuando dos hosts se comunican utilizando TCP, se establece una conexión antes de que puedan intercambiarse los datos. Luego de que se completa la comunicación, se cierran las sesiones y la conexión finaliza.






Enlace de tres vías TCP
Los tres pasos en el establecimiento de una conexión TCP son:
Paso 1. El cliente de origen solicita una sesión de comunicación de cliente a servidor con el servidor.
Paso 2. El servidor acusa recibo de la sesión de comunicación de cliente a servidor y solicita una sesión de comunicación de servidor a cliente.
Paso 3. El cliente de origen acusa recibo de la sesión de comunicación de servidor a cliente.

Dentro del encabezado del segmento TCP, existen seis campos de 1 bit que contienen información de control utilizada para gestionar los procesos de TCP. Estos campos son los siguientes:
·         URG: campo indicador urgente importante
·         ACK: campo de acuse de recibo importante
·         PSH: función de empuje
·         RST: restablecer la conexión
·         SYN: sincronizar números de secuencia
·         FIN: no hay más datos del emisor

Los campos ACK y SYN son importantes para el análisis del protocolo de enlace de tres vías.

Pasos a Detalle:
1-Un cliente TCP inicia un protocolo de enlace de tres vías al enviar un segmento con el indicador de control de sincronizar números de secuencia (SYN) establecido. Este valor inicial para el número de secuencia, conocido como número de secuencia inicial (ISN), se elige de manera aleatoria y se utiliza para comenzar a rastrear el flujo de datos de esta sesión desde el cliente hasta el servidor.

2-El servidor envía un segmento al cliente con el indicador de acuse de recibo (ACK) establecido. El valor del campo de número de acuse de recibo es igual al ISN más 1. Esto establece una sesión del cliente al servidor. El indicador ACK permanece establecido para mantener el equilibrio de la sesión. El servidor debe iniciar la respuesta al cliente. Establece el señalizador de control SYN en el encabezado para establecer una sesión del servidor al cliente.

3-Por último, el cliente TCP responde con un segmento que contiene un ACK que actúa como respuesta al SYN de TCP enviado por el servidor. Una vez que se establecen ambas sesiones entre el cliente y el servidor, todos los segmentos adicionales que se intercambian en esta comunicación tendrán establecido el indicador ACK.
Se puede añadir seguridad a la red de datos de la siguiente manera:
·         Denegar el establecimiento de sesiones del TCP
·         Permitir sólo sesiones que se establezcan para servicios específicos
·         Permitir sólo tráfico como parte de sesiones ya establecidas

Para cerrar una conexión, se debe establecer el indicador de control finalizar (FIN) en el encabezado del segmento. Para finalizar todas las sesiones TCP de una vía, se utiliza un enlace de dos vías, que consta de un segmento FIN y un segmento ACK.

Paso 1: cuando el cliente no tiene más datos para enviar en el stream, envía un segmento con el indicador FIN establecido.
Paso 2: el servidor envía un ACK para acusar recibo del FIN y terminar la sesión de cliente a servidor.
Paso 3: el servidor envía un FIN al cliente para terminar la sesión de servidor a cliente.
Paso 4: el cliente responde con un ACK para dar acuse de recibo del FIN desde el servidor.

También es posible terminar la conexión por medio de un enlace de tres vías. Cuando el cliente no posee más datos para enviar, envía un señalizador FIN al servidor. Si el servidor tampoco tiene más datos para enviar, puede responder con los señalizadores FIN y ACK, combinando dos pasos en uno. A continuación, el cliente responde con un ACK.

Confiabilidad de TCP: entrega ordenada - Reordenamiento de segmentos:
Cuando los servicios envían datos mediante el TCP, los segmentos pueden llegar a su destino en desorden. Para que el receptor comprenda el mensaje original, los datos en estos segmentos se reensamblan en el orden original. Para lograr esto, se asignan números de secuencia en el encabezado de cada paquete. (número de secuencia inicial (ISN)). A medida que se transmiten los datos durante la sesión, el número de secuencia se incrementa en el número de bytes que se han transmitido. Este seguimiento de bytes de datos permite identificar y dar acuse de recibo de cada segmento de manera exclusiva. Se pueden identificar segmentos perdidos.



TCP: reconocimiento y tamaño de la ventana -  Confirmación de recepción de segmentos:
El número de secuencia (SEQ) y el número de acuse de recibo (ACK) se utilizan juntos para confirmar la recepción de los bytes de datos contenidos en los segmentos transmitidos. El número de SEQ indica la cantidad relativa de bytes que se transmitieron en esta sesión, incluso los bytes en el segmento actual.

Recuerde que cada conexión son realmente dos sesiones de una vía. Los números de SEQ y ACK se intercambian en ambas direcciones. En el ejemplo de la figura, el host de la izquierda envía datos al host de la derecha. Envía un segmento que contiene 10 bytes de datos para esta sesión y un número de secuencia igual a 1 en el encabezado.

El host receptor recibe el segmento en la capa 4 y determina que el número de secuencia es 1 y que tiene 10 bytes de datos. Luego el host envía un segmento de vuelta al host de la izquierda para acusar recibo de estos datos. En este segmento, el host establece el número de ACK en 11 para indicar que el siguiente byte de datos que espera recibir en esta sesión es el byte número 11. Cuando el host emisor recibe este acuse de recibo, puede enviar el próximo segmento que contiene datos para esta sesión a partir del byte 11.

La cantidad de datos que un origen puede transmitir antes de recibir un acuse de recibo se denomina “tamaño de la ventana”, que es un campo en el encabezado TCP que permite administrar datos perdidos y controlar el flujo.

Confiabilidad de TCP: pérdida y retransmisión de datos - Manejo de segmentos perdidos
Un servicio de host de destino que utiliza TCP generalmente sólo da acuse de recibo de datos para bytes de secuencia continuos. Si faltan uno o más segmentos, solo se hace acuse de recibo de los datos en la primera secuencia contigua de bytes. Por ejemplo, si se reciben segmentos con números de secuencia de 1500 a 3000 y de 3400 a 3500, el número de ACK sería 3001. Esto se debe a que hay segmentos con números de SEQ de 3001 a 3399 que no se recibieron.
Cuando el TCP en el host de origen no recibe un acuse de recibo después de una cantidad de tiempo predeterminada, este vuelve al último número de ACK recibido y vuelve a transmitir los datos desde ese punto en adelante.

Un host puede transmitir un segmento, colocar una copia del segmento en una cola de retransmisión e iniciar un temporizador. Cuando se recibe el acuse de recibo de los datos, se elimina el segmento de la cola. Si no se recibe el acuse de recibo antes de que el temporizador venza, el segmento es retransmitido. En la actualidad, los hosts pueden emplear también una característica optativa llamada “acuses de recibo selectivos” (SACK). Si ambos hosts admiten los SACK, es posible que el destino acuse recibo de los bytes de segmentos discontinuos, y el host solo necesitará volver a transmitir los datos perdidos.

Control del flujo de TCP: tamaño de la ventana y acuses de recibo - Control de flujo
El control del flujo permite mantener la confiabilidad de la transmisión de TCP mediante el ajuste de la velocidad del flujo de datos entre el origen y el destino para una sesión dada. El control del flujo se logra limitando la cantidad de segmentos de datos que se envían al mismo tiempo y solicitando acuses de recibo antes de enviar más segmentos.

Para lograr el control del flujo, lo primero que determina TCP es la cantidad de segmentos de datos que puede aceptar el dispositivo de destino. El encabezado TCP incluye un campo de 16 bits llamado “tamaño de la ventana”. Esta es la cantidad de bytes que el dispositivo de destino de una sesión TCP puede aceptar y procesar al mismo tiempo. El tamaño inicial de la ventana se acuerda durante el inicio de sesión entre el origen y el destino por medio del protocolo de enlace de tres vías. Una vez acordado el tamaño, el dispositivo de origen debe limitar la cantidad de segmentos de datos enviados al dispositivo de destino sobre la base del tamaño de la ventana. El dispositivo de origen puede continuar enviando más datos para la sesión solo cuando obtiene un acuse de recibo de los segmentos de datos recibidos.

Durante el retraso en la recepción del acuse de recibo, el emisor no envía ningún otro segmento. La disminución de velocidad en la transmisión de datos de cada sesión ayuda a reducir el conflicto de recursos en la red y en el dispositivo de destino cuando se ejecutan varias sesiones. TCP utiliza tamaños de ventana para tratar de aumentar la velocidad de transmisión hasta el flujo máximo que la red y el dispositivo de destino pueden admitir y, al mismo tiempo, minimizar las pérdidas y las retransmisiones.

Control del flujo de TCP: prevención de congestiones - Reducción del tamaño de la ventana
Otra forma de controlar el flujo de datos es utilizar tamaños de ventana dinámicos. Esto reduce de forma efectiva la velocidad de transmisión porque el origen espera que se de acuse de recibo de los datos con más frecuencia. Si el destino necesita disminuir la velocidad de comunicación debido, por ejemplo, a una memoria de búfer limitada, puede enviar un valor más pequeño del tamaño de la ventana al origen como parte del acuse de recibo.

Después de un período de transmisión sin pérdidas de datos ni recursos limitados, el receptor comienza a aumentar el campo de la ventana, lo que reduce la sobrecarga en la red, ya que se deben enviar menos acuses de recibo. El tamaño de la ventana sigue aumentando hasta que se produce la pérdida de datos, lo que provoca que disminuya el tamaño de la ventana.

Comparación de baja sobrecarga y confiabilidad de UDP
Algunas aplicaciones, como los juegos en línea o VoIP, pueden tolerar cierta pérdida de datos. Si estas aplicaciones utilizaran TCP, experimentarían largas demoras, ya que TCP detecta la pérdida de datos y los retransmite. Estas demoras serían más perjudiciales para el rendimiento de la aplicación que las pequeñas pérdidas de datos. Algunas aplicaciones, como DNS, simplemente reintentan el envío de la solicitud si no reciben ninguna respuesta; por lo tanto, no necesitan que TCP garantice la entrega de mensajes. La baja sobrecarga del UDP es deseada por dichas aplicaciones.

Reensamblaje de datagramas de UDP:
Se dice que UDP está basado en las transacciones; es decir, cuando una aplicación tiene datos para enviar, simplemente los envía. La PDU del UDP se conoce como un “datagrama”, aunque los términos “segmento” y “datagrama” se utilizan algunas veces de forma intercambiable para describir una PDU de la capa de transporte. UDP simplemente reensambla los datos en el orden en que se recibieron y los envía a la aplicación.
Procesos y solicitudes del servidor UDP:
Cuando UDP recibe un datagrama destinado a uno de esos puertos, envía los datos de aplicación a la aplicación adecuada en base a su número de puerto.
Aplicaciones que utilizan TCP:
TCP maneja todas las tareas asociadas con la segmentación del stream de datos, la confiabilidad, el control del flujo y el reordenamiento de segmentos, este libera a la aplicación de la tarea de administrar cualquiera de estas tareas.
algunos ejemplos de aplicaciones bien conocidas que utilizan TCP incluyen las siguientes:
·         Protocolo de transferencia de hipertexto (HTTP)
·         Protocolo de transferencia de archivos (FTP)
·         Protocolo simple de transferencia de correo (SMTP)
·         Telnet

Existen tres tipos de aplicaciones que son las más adecuadas para UDP:
·         Aplicaciones que pueden tolerar cierta pérdida de datos, pero requieren retrasos cortos o que no haya retrasos
·         Aplicaciones con transacciones de solicitud y respuesta simples
·         Comunicaciones unidireccionales donde no se requiere confiabilidad o donde la aplicación la pueda administrar

Algunas aplicaciones se ocupan de la confiabilidad por sí mismas. Estas aplicaciones no necesitan los servicios de TCP y pueden utilizar mejor UDP como protocolo de capa de transporte. TFTP es un ejemplo de este tipo de protocolo. TFTP tiene sus propios mecanismos para el control del flujo, la detección de errores, los acuses de recibo y la recuperación de errores. Este protocolo no necesita depender de TCP para esos servicios.

MiniResumen:
UDP y TCP son protocolos de la capa de transporte comunes.
Los datagramas de UDP y los segmentos TCP tienen encabezados que se agregan delante de los datos, los cuales incluyen un número de puerto de origen y un número de puerto de destino. Estos números de puerto permiten que los datos se dirijan a la aplicación correcta que se ejecuta en la computadora de destino.

El TCP pasa datos a la red hasta que conoce el destino y está listo para recibirlo. Luego TCP administra el flujo de datos y reenvía todos los segmentos de datos de los que recibió acuse a medida que se reciben en el destino. TCP utiliza mecanismos de enlace, temporizadores, mensajes de acuse de recibo y control del flujo mediante mecanismo ventana dinámico para lograr la confiabilidad.

El proceso de confiabilidad, sin embargo, impone una sobrecarga en la red en términos de encabezados de segmentos mucho más grandes y más tráfico de la red entre el origen y el destino.
Si se deben entregar los datos de aplicación a través de la red de manera rápida, o si el ancho de banda de la red no admite la sobrecarga de mensajes de control que se intercambian entre los sistemas de origen y destino, UDP es el protocolo de la capa de transporte preferido por los desarrolladores.

Capítulo 8: Asignación de direcciones IP
Las PC se comunican mediante datos binarios. Para traducir esas letras, la PC utiliza el Código Estadounidense Estándar para el Intercambio de Información (ASCII). Para la mayoría de las personas, una cadena de 32 bits es difícil de interpretar e incluso más difícil de recordar. Por este motivo, representamos las direcciones IPv4 mediante el formato decimal punteado en lugar del binario. Esto significa que vemos a cada byte (octeto) como número decimal en el rango de 0 a 255.
Sistema de numeración binaria
En el sistema de numeración binaria la raíz es 2. Por lo tanto, cada posición representa aumentos en potencias de 2. En números binarios de 8 bits, las posiciones representan estas cantidades:
2^7 2^6 2^5 2^4 2^3 2^2 2^1 2^0
128 64 32 16 8 4 2 1
Porción de red y porción de host de una dirección IPv4:
Recuerde que una dirección IP es una dirección jerárquica que consta de dos partes: una porción de red y una porción de host. Dentro del stream de 32 bits, una parte de los bits constituye la red y una porción de los bits constituye el host. ¿Pero cómo saben los hosts qué porción de los 32 bits es red y qué porción es host? Esa tarea le corresponde a la máscara de subred.
Cuando se configura un host IP, se asigna una máscara de subred junto con una dirección IP. Como sucede con la dirección IP, la máscara de subred tiene una longitud de 32 bits. La máscara de subred identifica qué parte de la dirección IP corresponde a la red y cuál al host.
Los 1 en la máscara de subred representan la porción de red, los 0 representan la porción de host. La máscara de subred se configura en un dispositivo host, junto con la dirección IPv4, y es necesaria para que el host pueda determinar a qué red pertenece.
La duración de prefijo es otra forma de expresar la máscara de subred. La duración de prefijo es la cantidad de bits establecidos en 1 en la máscara de subred. Se escribe en “notación con barras”, una “/” seguida de la cantidad de bits establecidos en 1. Por ejemplo, si la máscara de subred es 255.255.255.0, hay 24 bits establecidos en 1 en la versión binaria de la máscara de subred, de modo que la duración de prefijo es 24 bits o /24. El prefijo y la máscara de subred son diferentes formas de representar lo mismo, la porción de red de una dirección.
Direcciones de red, de host y de broadcast IPv4
Hay tres tipos de direcciones dentro del rango de direcciones de cada red IPv4:
·         Dirección de red
·         Dirección de host
·         Dirección de broadcast

Dirección de red
La dirección de red es una manera estándar de hacer referencia a una red. Al referirse a la dirección de red, también es posible utilizar la máscara de subred o la duración de prefijo. Por ejemplo, la red que se muestra en la figura 1 podría indicarse como la red 10.1.1.0, la red 10.1.1.0 255.255.255.0 o la red 10.1.1.0/24. Todos los hosts en la red 10.1.1.0/24 tendrán los mismos bits de porción de red.
Dirección de host
En direcciones IPv4, los valores entre la dirección de red y la dirección de broadcast se pueden asignar a los dispositivos finales en una red.
Dirección de broadcast
La dirección de broadcast IPv4 es una dirección especial para cada red que permite la comunicación a todos los host en esa red. Para enviar datos a todos los hosts en una red a la vez, un host puede enviar un único paquete dirigido a la dirección de broadcast de la red, y cada host en la red que recibe este paquete procesa su contenido.

La dirección de broadcast utiliza la dirección más alta en el rango de la red. Ésta es la dirección en la cual los bits de la porción de host son todos 1.

Primera y última dirección de host
Para asegurarse de que a todos los hosts en una red se les asigne una dirección IP única dentro de ese rango de red, es importante identificar la primera y la última dirección de host. Se pueden asignar direcciones IP dentro de este rango a los hosts dentro de una red. Esta dirección es siempre un número mayor que la dirección de red. En este ejemplo, la primera dirección de host en la red 10.1.1.0/24 es 10.1.1.1.
Última dirección de host
La porción de host de la última dirección de host contiene todos bits 1, con un bit 0 que representa el bit de orden más bajo o el bit que está más a la derecha. Esta dirección es siempre una menos que la dirección de broadcast..
Operación AND bit a bit
Al enviar datos de red, el dispositivo utiliza esta información para determinar si puede enviar paquetes localmente o si debe enviarlos a un gateway predeterminado para la entrega remota. Cuando un host envía un paquete, compara la porción de red de su propia dirección IP con la porción de red de la dirección IP de destino, sobre la base de las máscaras de subred.
Si los bits de la red coinciden, tanto el host de origen como el de destino se encuentran en la misma red, y el paquete puede ser enviado localmente. Si no coinciden, el host emisor reenvía el paquete al gateway predeterminado para que se envíe a otra red.

La operación AND
AND es una de las tres operaciones binarias básicas que se utilizan en la lógica digital. Las otras dos son OR y NOT. AND se usa para determinar la dirección de red.
La lógica AND es la comparación de dos bits que produce los siguientes resultados:
1 AND 1 = 1
0 AND 1 = 0
0 AND 0 = 0
1 AND 0 = 0 
Se aplica la lógica AND a la dirección de host IPv4, bit a bit, con su máscara de subred, para determinar la dirección de red a la cual se asocia el host. Cuando se aplica esta lógica AND bit a bit entre la dirección y la máscara de subred, el resultado que se produce es la dirección de red.
Direccionamiento estático y dinámico.
El direccionamiento estático tiene varias ventajas. Por ejemplo, es útil para impresoras, servidores y otros dispositivos de red que no suelen cambiar la ubicación y que deben ser accesibles para los clientes en la red sobre la base de una dirección IP fija. Si los hosts normalmente acceden a un servidor en una dirección IP en particular, esto provocaría problemas si se cambiara esa dirección. Además, la asignación estática de información de direccionamiento puede proporcionar un mayor control de los recursos de red.
En lugar de que el administrador de red asigne direcciones IP para cada estación de trabajo, es más simple que las direcciones IP se asignen automáticamente. Esto se realiza mediante un protocolo conocido como Protocolo de configuración dinámica de host (DHCP)
La configuración del servidor de DHCP requiere que se utilice un bloque de direcciones, denominado “conjunto de direcciones”, para la asignación a los clientes DHCP en una red. Las direcciones asignadas a este conjunto deben planificarse de modo que excluyan cualquier dirección estática que utilicen otros dispositivos.
Transmisión de unidifusión
En una red IPv4, los hosts pueden comunicarse de una de tres maneras:

·         Unicast: proceso por el cual se envía un paquete de un host a un host individual.
·         Broadcast: proceso por el cual se envía un paquete de un host a todos los hosts en la red.
·         Multicast: proceso por el cual se envía un paquete de un host a un grupo seleccionado de hosts, posiblemente en redes distintas.
En la comunicación unicast, las direcciones asignadas a dos dispositivos finales se usan como las direcciones IPv4 de origen y de destino. Las direcciones de host IPv4 son direcciones unicast y se encuentran en el rango de direcciones de 0.0.0.0 a 223.255.255.255.

Transmisión de broadcast

El tráfico de broadcast se utiliza para enviar paquetes a todos los hosts en la red usando la dirección de broadcast para la red. Para broadcast, el paquete contiene una dirección IP de destino con todos unos (1) en la porción de host. Esto significa que todos los hosts de esa red local (dominio de broadcast) recibirán y verán el paquete. Muchos protocolos de red, como DHCP, utilizan broadcasts.

Algunos ejemplos para utilizar una transmisión de broadcast son:
·         Asignar direcciones de capa superior a direcciones de capa inferior
·         Solicitar una dirección
·         A diferencia de unicast, donde los paquetes pueden ser enrutados por toda la internetwork, los paquetes de broadcast normalmente se restringen a la red local.

Existen dos tipos de broadcasts: broadcast dirigido y broadcast limitado.

Broadcast dirigido
Un broadcast dirigido se envía a todos los hosts de una red específica. Este tipo de broadcast es útil para enviar un broadcast a todos los hosts de una red local.

Broadcast limitado
El broadcast limitado se usa para la comunicación que está limitada a los hosts en la red local. Estos paquetes siempre utilizan la dirección IPv4 de destino 255.255.255.255.
Los routers no reenvían broadcasts limitados. Por esta razón, también se hace referencia a una red IPv4 como un dominio de broadcast. Los routers son dispositivos fronterizos para un dominio de broadcast.

Cuando se transmite un paquete, utiliza recursos en la red y hace que cada host receptor en la red procese el paquete. Por lo tanto, el tráfico de broadcast debe limitarse para que no afecte negativamente el rendimiento de la red o de los dispositivos. Debido a que los routers separan dominios de broadcast, subdividir las redes con tráfico de broadcast excesivo puede mejorar el rendimiento de la red.



Transmisión de multicast
La transmisión de multicast está diseñada para conservar el ancho de banda de las redes IPv4. Reduce el tráfico al permitir que un host envíe un único paquete a un conjunto seleccionado de hosts que forman parte de un grupo multicast suscrito.
Algunos ejemplos de transmisión de multicast son:
·         Transmisiones de video y de audio
·         Intercambio de información de enrutamiento por medio de protocolos de enrutamiento
·         Distribución de software
·         Juegos remooes

Direcciones multicast
IPv4 tiene un bloque de direcciones reservadas para direccionar grupos multicast. Este rango de direcciones va de 224.0.0.0 a 239.255.255.255. El rango de direcciones multicast está subdividido en distintos tipos de direcciones: direcciones de enlace local reservadas y direcciones agrupadas globalmente.
Las direcciones IPv4 multicast de 224.0.0.0 a 224.0.0.255 son direcciones de enlace local reservadas. Estas direcciones se utilizarán con grupos multicast en una red local.Un uso común de las direcciones de link-local reservadas se da en los protocolos de enrutamiento usando transmisión multicast para intercambiar información de enrutamiento.
Las direcciones agrupadas globalmente son de 224.0.1.0 a 238.255.255.255. Se les puede usar para transmitir datos en Internet mediante multicast. Por ejemplo, se reservó 224.0.1.1 para que el protocolo de hora de red (NTP) sincronice los relojes con la hora del día de los dispositivos de red.
Clientes multicast
Cada grupo multicast está representado por una sola dirección IPv4 de destino multicast. Cuando un host IPv4 se suscribe a un grupo multicast, el host procesa paquetes dirigidos a esta dirección multicast y paquetes dirigidos a su dirección unicast asignada exclusivamente.
Los routers que utilizan EIGRP envían paquetes a la dirección multicast 224.0.0.10, que representa el grupo de routers EIGRP. Si bien estos paquetes son recibidos por otros dispositivos, todos los dispositivos (excepto los routers EIGRP) los descartan en la capa 3, sin requerir otro procesamiento.
Direcciones IPv4 públicas y privadas
Privadas:
·         10.0.0.0 a 10.255.255.255 (10.0.0.0/8)
·         172.16.0.0 a 172.31.255.255 (172.16.0.0/12)
·         192.168.0.0 a 192.168.255.255 (192.168.0.0/16)

En RFC 6598, IANA reservó otro grupo de direcciones conocidas como “espacio de dirección compartido”. Como sucede con el espacio de dirección privado definido en RFC 1918, las direcciones del espacio de dirección compartido no son enrutables globalmente.
Sin embargo, el propósito de estas direcciones es solamente ser utilizadas en redes de proveedores de servicios. El bloque de direcciones compartido es 100.64.0.0/10.

Direcciones públicas
Existen determinadas direcciones que no pueden asignarse a los hosts. También hay direcciones especiales que pueden asignarse a los hosts, pero con restricciones respecto de la forma en que dichos hosts pueden interactuar dentro de la red.

Direcciones de red y de broadcast
Como se explicó anteriormente, no es posible asignar la primera ni la última dirección a hosts dentro de cada red. Éstas son, respectivamente, la dirección de red y la dirección de broadcast.

Loopback
Una de estas direcciones reservadas es la dirección de loopback IPv4 127.0.0.1. La dirección de loopback es una dirección especial que los hosts utilizan para dirigir el tráfico hacia ellos mismos.También es posible hacer ping a la dirección de loopback para probar la configuración de TCP/IP en el host local.
A pesar de que sólo se usa la dirección única 127.0.0.1, se reservan las direcciones 127.0.0.0 a 127.255.255.255. Cualquier dirección dentro de este bloque producirá un loop back al host local. Las direcciones dentro de este bloque no deben figurar en ninguna red.
Direcciones link-local

Las direcciones IPv4 del bloque de direcciones que va de 169.254.0.0 a 169.254.255.255 (169.254.0.0/16) se designan como direcciones link-local. El sistema operativo puede asignar automáticamente estas direcciones al host local en entornos donde no se dispone de una configuración IP. Se pueden utilizar en una red punto a punto pequeña o para un host que no pudo obtener una dirección de un servidor de DHCP automáticamente.

La comunicación mediante direcciones link-local IPv4 sólo es adecuada para comunicarse con otros dispositivos conectados a la misma red, como se muestra en la figura. Un host no debe enviar un paquete con una dirección de destino link-local IPv4 a ningún router para ser reenviado, y debería establecer el tiempo de vida (TLL) de IPv4 para estos paquetes en 1. Las direcciones link-local no proporcionan servicios fuera de la red local. Sin embargo, muchas aplicaciones de cliente/servidor y punto a punto funcionarán correctamente con direcciones de enlace local IPv4.

Direcciones TEST-NET
El bloque de direcciones que va de 192.0.2.0 a 192.0.2.255 (192.0.2.0/24) se reserva para fines de enseñanza y aprendizaje. Las direcciones del bloque que va de 240.0.0.0 a 255.255.255.254 se indican como reservadas para uso futuro (RFC 3330). En la actualidad, estas direcciones solo se pueden utilizar para fines de investigación o experimentación, y no se pueden utilizar en una red IPv4. Sin embargo, según RFC 3330, podrían, técnicamente, convertirse en direcciones utilizables en el futuro.
Direccionamiento con clase antigua
Eran tamaños específicos clase A (16 millones de direcciones host), B (65 000 hosts) y C (254 hosts) Para mas info ir a pg403 de ccna1

Direccionamiento sin clase
El sistema que se utiliza en la actualidad se denomina “direccionamiento sin clase”. El nombre formal es “enrutamiento entre dominios sin clase” (CIDR, pronunciado “cider”). El IETF sabía que el CIDR era solo una solución temporal y que sería necesario desarrollar un nuevo protocolo IP para admitir el rápido crecimiento de la cantidad de usuarios de Internet. En 1994, el IETF comenzó a trabajar para encontrar un sucesor de IPv4, que finalmente fue IPv6.
Niveles del ISP
·         Nivel 1: Estos son grandes ISP a nivel nacional o internacional que se conectan directamente al backbone de Internet. Los clientes de ISP de nivel 1 son ISP de menor nivel o grandes compañías y organizaciones.
·         Nivel 2: Estos ISP de nivel 2 suelen tener recursos de TI para ofrecer sus propios servicios, como DNS, servidores de correo electrónico y servidores Web. Otros servicios ofrecidos por los ISP de nivel 2 pueden incluir desarrollo y mantenimiento de sitios web, e-commerce/e-business y VoIP. La principal desventaja de los ISP de nivel 2, comparados con los ISP de nivel 1, es el acceso más lento a Internet.

·         Nivel 3: Como se muestra en la figura 3, los ISP de nivel 3 adquieren su servicio de Internet de los ISP de nivel 2. El objetivo de estos ISP son los mercados minoristas y del hogar en una ubicación específica. Su necesidad principal es conectividad y soporte.

Pv6
IPv6 tiene un mayor espacio de direcciones de 128 bits, lo que proporciona 340 sextillones de direcciones. Cuando el IETF comenzó el desarrollo de una sucesora de IPv4, utilizó esta oportunidad para corregir las limitaciones de IPv4 e incluir mejoras adicionales. Un ejemplo es el protocolo de mensajes de control de Internet versión 6 (ICPMv6), que incluye la resolución de direcciones y la configuración automática de direcciones.

El agotamiento del espacio de direcciones IPv4 fue el factor que motivó la migración a IPv6. El lunes 31 de enero de 2011, la IANA asignó los últimos dos bloques de direcciones IPv4 /8 a los registros regionales de Internet (RIR). La NAT tiene limitaciones que obstaculizan gravemente las comunicaciones punto a punto.

Las técnicas de migración pueden dividirse en tres categorías:
·         Dual-stack: como se muestra en la figura 1, la técnica dual-stack permite que IPv4 e IPv6 coexistan en la misma red. Los dispositivos dual-stack ejecutan stacks de protocolos IPv4 e IPv6 de manera simultánea.

·         Tunneling: es un método para transportar paquetes IPv6 a través de redes IPv4. El paquete IPv6 se encapsula dentro de un paquete IPV4, de manera similar a lo que sucede con otros tipos de datos.

·         Traducción: la traducción de direcciones de red 64 (NAT64) permite que los dispositivos con IPv6 habilitado se comuniquen con dispositivos con IPv4 habilitado mediante una técnica de traducción similar a la NAT para IPv4. Un paquete IPv6 se traduce en un paquete IPV4, y viceversa.
Así como el sistema de numeración decimal es un sistema de base diez y el binario es un sistema de base dos, el sistema hexadecimal es un sistema de base dieciséis. El sistema de numeración de base 16 utiliza los números del 0 al 9 y las letras de la A a la F. Existen 16 combinaciones únicas de cuatro bits, de 0000 a 1111. Los binarios 00000000 hasta 11111111 pueden representarse en valores hexadecimales como el intervalo 00 a FF.

Nota: en lo que respecta a los caracteres del 0 al 9, es importante distinguir los valores hexadecimales de los decimales. Por lo general, los valores hexadecimales se representan en forma de texto mediante el valor precedido por 0x (por ejemplo, 0x73) Sin embargo, y debido a que el texto en subíndice no es reconocido en entornos de línea de comando o de programación, la representación técnica de un valor hexadecimal es precedida de "0x" (cero X).

Las direcciones IPv6 tienen una longitud de 128 bits y se escriben como una cadena de valores hexadecimales. Cuatro bits se representan mediante un único dígito hexadecimal, con un total de 32 valores hexadecimales. Las direcciones IPv6 no distinguen mayúsculas de minúsculas y pueden escribirse en minúscula o en mayúscula.

IPv6 es que se puede omitir cualquier 0 (cero) inicial en cualquier sección de 16 bits o hexteto. Por ejemplo:
·         01AB puede representarse como 1AB.
·         09F0 puede representarse como 9F0.
·         0A00 puede representarse como A00.
·         00AB puede representarse como AB.

Esta regla solo es válida para los ceros iniciales, y NO para los ceros finales.

La segunda regla que permite reducir la notación de direcciones IPv6 es que los dos puntos dobles (::) pueden reemplazar cualquier cadena única y contigua de uno o más segmentos de 16 bits (hextetos) compuestos solo por ceros. Los dos puntos dobles (::) se pueden utilizar solamente una vez dentro de una dirección Esto se suele conocer como “formato comprimido”.

Existen tres tipos de direcciones IPv6:
·         Unicast: las direcciones IPv6 unicast identifican de forma exclusiva una interfaz en un dispositivo con IPv6 habilitado.

·         Multicast: las direcciones IPv6 multicast se utilizan para enviar un único paquete IPv6 a varios destinos.

·         Anycast: Los paquetes enviados a una dirección anycast se enrutan al dispositivo más cercano que tenga esa dirección. En este curso, no se analizan las direcciones anycast.
·         A diferencia de IPv4, IPv6 no tiene una dirección de broadcast. Sin embargo, existe una dirección IPv6 multicast de todos los nodos que brinda básicamente el mismo resultado.
·          
IPv6 no utiliza la notación decimal punteada de máscara de subred. La duración de prefijo puede ir de 0 a 128. Una duración de prefijo IPv6 típica para LAN y la mayoría de los demás tipos de redes es /64.



Direcciones IPv6 unicast
Como sucede con IPv4, las direcciones IPv6 de origen deben ser direcciones unicast. Las direcciones IPv6 de destino pueden ser direcciones unicast o multicast.
Existen seis tipos de direcciones IPv6 unicast.

Unicast global
·         Las direcciones unicast globales pueden configurarse estáticamente o asignarse de forma dinámica. Existen algunas diferencias importantes con respecto a la forma en que un dispositivo recibe su dirección IPv6 dinámicamente en comparación con DHCP para IPv4.
·         Las direcciones IPv6 unicast globales son globalmente únicas y enrutables en Internet IPv6. Estas direcciones son equivalentes a las direcciones IPv4 públicas.
·         Una dirección unicast global consta de tres partes:
Ø  Prefijo de enrutamiento global: es la porción de prefijo, o de red, de la dirección que asigna el proveedor ISP  a un cliente.
Ø  ID de subred: Se usa para identificar una subred dentro de su ubicación
Ø  ID de interfaz : equivale a la porción de host de una dirección IPv4. Se utiliza el término “ID de interfaz” debido a que un único host puede tener varias interfaces, cada una con una o más direcciones IPv6
Los dispositivos pueden obtener automáticamente una dirección IPv6 unicast global de dos maneras: Configuración automática de dirección sin estado (SLAAC) y DHCPv6


Link-local
·         Las direcciones link-local se utilizan para comunicarse con otros dispositivos en el mismo enlace local. Con IPv6, el término “enlace” hace referencia a una subred. Las direcciones link-local se limitan a un único enlace. Su exclusividad se debe confirmar solo para ese enlace, ya que no se pueden enrutar más allá del enlace. En otras palabras, los routers no reenvían paquetes con una dirección de origen o de destino link-local.
·         Los protocolos de enrutamiento IPv6 también utilizan direcciones IPv6 link-local para intercambiar mensajes y como la dirección del siguiente salto en la tabla de enrutamiento IPv6. Nota: por lo general, la dirección que se utiliza como gateway predeterminado para los otros dispositivos en el enlace es la dirección link-local del router, y no la dirección unicast global
·         La dirección link-local se crea dinámicamente mediante el prefijo FE80::/10 y la ID de interfaz.
·         De manera predeterminada, los routers en los que se utiliza Cisco IOS utilizan EUI-64 para generar la ID de interfaz para todas las direcciones link-local en las interfaces IPv6. Para las interfaces seriales, el router utiliza la dirección MAC de una interfaz Ethernet.
Loopback
·         Los hosts utilizan la dirección de loopback para enviarse paquetes a sí mismos, y esta dirección no se puede asignar a una interfaz física. Al igual que en el caso de una dirección IPv4 de loopback, se puede hacer ping a una dirección IPv6 de loopback para probar la configuración de TCP/IP en el host local.
Dirección sin especificar
·         Una dirección sin especificar es una dirección compuesta solo por ceros representada como ::/128 o, simplemente, :: en formato comprimido. No puede asignarse a una interfaz y solo se utiliza como dirección de origen en un paquete IPv6. Las direcciones sin especificar se utilizan como direcciones de origen cuando el dispositivo aún no tiene una dirección IPv6 permanente o cuando el origen del paquete es irrelevante para el destino.
Local única
·         Las direcciones locales únicas se utilizan para el direccionamiento local dentro de un sitio o entre una cantidad limitada de sitios. Estas direcciones no deben ser enrutables en la IPv6 global. Las direcciones locales únicas están en el rango de FC00::/7 a FDFF::/7. Si bien IPv6 proporciona direccionamiento de sitio específico, no tiene por propósito ser utilizado para contribuir a ocultar dispositivos internos con IPv6 habilitado de Internet IPv6. El IETF recomienda que la limitación del acceso a los dispositivos se logre implementando medidas de seguridad adecuadas y recomendadas.
IPv4 integrada
·         El último tipo de dirección unicast es la dirección IPv4 integrada. Estas direcciones se utilizan para facilitar la transición de IPv4 a IPv6. En este curso, no se analizan las direcciones IPv4 integradas.

Direcciones IPv6 multicast asignadas
Las direcciones multicast se utilizan para enviar un único paquete a uno o más destinos (grupo multicast). Las direcciones IPv6 multicast tienen el prefijo FF00::/8.
Nota: las direcciones multicast solo pueden ser direcciones de destino, no de origen.

Existen dos tipos de direcciones IPv6 multicast:
·         Dirección multicast asignada
·         Dirección multicast de nodo solicitado

Dirección multicast asignada
Las direcciones multicast asignadas son direcciones multicast reservadas para grupos predefinidos de dispositivos. Una dirección multicast asignada es una única dirección que se utiliza para llegar a un grupo de dispositivos que ejecutan un protocolo o servicio común. Las direcciones multicast asignadas se utilizan en contexto con protocolos específicos, como DHCPv6
.
Dos grupos comunes de direcciones multicast IPv6 asignadas incluyen los siguientes:

·         Grupo multicast de todos los nodos FF02::1: grupo multicast al que se unen todos los dispositivos con IPv6 habilitado. Los paquetes que se envían a este grupo son recibidos y procesados por todas las interfaces IPv6 en el enlace o en la red. Esto tiene el mismo efecto que una dirección de broadcast en IPv4.


·         Grupo multicast de todos los routers FF02::2:grupo multicast al que se unen todos los routers con IPv6 habilitado. Los paquetes que se envían a este grupo son recibidos y procesados por todos los routers IPv6 en el enlace o en la red.

Los dispositivos con IPv6 habilitado envían mensajes de solicitud de router (RS) de ICMPv6 a la dirección multicast de todos los routers. El mensaje de RS solicita un mensaje de RA del router IPv6 para contribuir a la configuración de direcciones del dispositivo.

Recuerde que la dirección multicast de todos los nodos es esencialmente lo mismo que una dirección IPv4 de broadcast. Todos los dispositivos en la red deben procesar el tráfico enviado a la dirección de todos los nodos. Para reducir el número de dispositivos que deben procesar tráfico, utilice una dirección multicast de nodo solicitado.



Una dirección multicast de nodo solicitado es una dirección que coincide solo con los últimos 24 bits de la dirección IPv6 unicast global de un dispositivo. Los únicos dispositivos que deben procesar estos paquetes son aquellos que tienen estos mismos 24 bits en la porción menos significativa que se encuentra más hacia la derecha de la ID de interfaz.

Una dirección IPv6 multicast de nodo solicitado se crea de forma automática cuando se asigna la dirección unicast global o la dirección unicast link-local. La dirección IPv6 multicast de nodo solicitado se crea combinando un prefijo especial FF02:0:0:0:0:1:FF00::/104 con los 24 bits de su dirección unicast que se encuentran en el extremo derecho.

La dirección multicast de nodo solicitado consta de dos partes:

·         Prefijo multicast FF02:0:0:0:0:1:FF00::/104: los primeros 104 bits de la dirección multicast de todos los nodos solicitados.
·         24 bits menos significativos: los 24 bits finales o que se encuentran más hacia la derecha de la dirección multicast de nodo solicitado. Estos bits se copian de los 24 bits del extremo derecho de la dirección unicast global o unicast link-local del dispositivo.

Es posible que varios dispositivos tengan la misma dirección multicast de nodo solicitado. Si bien es poco común, esto no genera ningún problema, ya que el dispositivo aún procesa el mensaje encapsulado, el cual incluye la dirección IPv6 completa del dispositivo en cuestión

Mensajes de ICMPv4 y ICMPv6
El objetivo de estos mensajes es proporcionar respuestas acerca de temas relacionados con el procesamiento de paquetes IP bajo determinadas condiciones, no es hacer que el IP sea confiable. Los mensajes de ICMP no son obligatorios y, a menudo, no se permiten dentro de una red por razones de seguridad. El protocolo ICMP está disponible tanto para IPv4 como para IPv6.

Los mensajes ICMP comunes a ICMPv4 y a ICMPv6 incluyen lo siguiente:

·          Confirmación de host
·         Destino o servicio inaccesible
·         Tiempo superado
·         Redireccionamiento de ruta

ICMPv6 incluye cuatro nuevos protocolos como parte del protocolo ND o NDP (Neighbor Discovery Protocol, protocolo de descubrimiento de vecinos):
·         Mensaje de solicitud de router
·         Mensaje de anuncio de router
·         Mensaje de solicitud de vecino
·         Mensaje de anuncio de vecino



Capítulo 9: División de redes IP en subredes
Este tipo de configuración se conoce como “diseño de red plana”. En una red pequeña, con una cantidad limitada de dispositivos, el diseño de red plana no presenta inconvenientes. Sin embargo, a medida que la red crece, este tipo de configuración puede generar problemas importantes. Este tipo de configuración se conoce como “diseño de red plana”. En una red pequeña, con una cantidad limitada de dispositivos, el diseño de red plana no presenta inconvenientes. Sin embargo, a medida que la red crece, este tipo de configuración puede generar problemas importantes.

Si un dispositivo debe procesar una cantidad significativa de broadcasts, esto podría incluso llegar a disminuir la velocidad de las operaciones del dispositivo. Por motivos tales como los mencionados, las redes más grandes se deben segmentar en subredes más pequeñas, de modo que permanezcan localizadas en grupos más reducidos de dispositivos y servicios.

El tráfico no puede reenviarse entre subredes sin un router. Cada interfaz en el router debe tener una dirección de host IPv4 que pertenezca a la red o a la subred a la cual se conecta la interfaz del router.

Cree estándares para la asignación de direcciones IP dentro de cada rango de subred. Por ejemplo:
Se asignarán direcciones IP estáticas a las impresoras y los servidores.
El usuario recibirá direcciones IP de los servidores de DHCP con subredes /24.
A los routers se les asignan las primeras direcciones de host disponibles en el rango.

Para más información de este capítulo ver Pag451

Capítulo 10: Capa de aplicación 10.1.1.3 Capas de presentación y sesión

La capa de presentación tiene tres funciones principales:
·         Dar formato a los datos del dispositivo de origen, o presentarlos, en una forma compatible para que lo reciba el dispositivo de destino.
·         Comprimir los datos de forma tal que los pueda descomprimir el dispositivo de destino.
·         Encriptar los datos para su transmisión y posterior descifrado al llegar al dispositivo de destino.

Capa de sesión
·         Como su nombre lo indica, las funciones de la capa de sesión crean y mantienen diálogos entre las aplicaciones de origen y destino. La capa de sesión maneja el intercambio de información para iniciar los diálogos y mantenerlos activos y para reiniciar sesiones que se interrumpieron o que estuvieron inactivas durante un período prolongado.

P2P Networks
·         En una red P2P, hay dos o más PC que están conectadas por medio de una red y pueden compartir recursos (como impresoras y archivos) sin tener un servidor dedicado. Todo dispositivo final conectado (conocido como “punto”) puede funcionar como servidor y como cliente. Una computadora puede asumir la función de servidor para una transacción mientras funciona en forma simultánea como cliente para otra transacción. Las funciones de cliente y servidor se establecen por solicitud.
Aplicaciones P2P comunes
Con las aplicaciones P2P, cada PC de la red que ejecuta la aplicación puede funcionar como cliente o como servidor para las otras PC en la red que ejecutan la aplicación. Las aplicaciones P2P comunes incluyen las siguientes:
·         eDonkey
·          eMule
·         Shareaza
·         BitTorrent
·         Bitcoin
·         LionShare

Algunas aplicaciones P2P se basan en el protocolo Gnutella. Estas aplicaciones permiten compartir archivos en discos duros con otras personas. Como se muestra en la ilustración, el software de cliente compatible con Gnutella permite a los usuarios conectarse a los servicios Gnutella a través de Internet, además de ubicar los recursos compartidos por otros puntos Gnutella y acceder a dichos recursos.

Muchas de las aplicaciones P2P no utilizan una base de datos central para registrar todos los archivos disponibles en los puntos. Por el contrario, los dispositivos en la red se indican mutuamente qué archivos están disponibles cuando hay una consulta, y utilizan el protocolo y los servicios de intercambio de archivos para dar soporte a la búsqueda de recursos.

HTTP se utiliza a través de la World Wide Web para transferencia de datos y es uno de los protocolos de aplicación más utilizados hoy en día. Originalmente, este protocolo se desarrolló solo para publicar y recuperar páginas HTML. Sin embargo, la flexibilidad de HTTP lo convirtió en una aplicación fundamental de los sistemas de información distribuidos y cooperativos.

HTTP es un protocolo de solicitud/respuesta. Cuando un cliente, por lo general un explorador Web, envía una solicitud a un servidor Web, HTTP especifica los tipos de mensaje que se utilizan para esa comunicación. Los tres tipos de mensajes comunes son GET, POST y PUT (consulte la ilustración).
GET es una solicitud de datos por parte del cliente y los mensajes POST y PUT se utilizan para subir datos al servidor Web.

El protocolo simple de transferencia de correo (SMTP) transfiere correo electrónico con confianza y eficacia. Para que las aplicaciones del SMTP funcionen bien, se debe formatear correctamente el mensaje de correo electrónico y los procesos SMTP deben estar en ejecución en el cliente y en el servidor.

El protocolo de oficina de correos (POP) permite que una estación de trabajo pueda recuperar correos de un servidor de correo. Con POP, el correo se descarga desde el servidor al cliente y después se elimina en el servidor.







El servidor DNS almacena diferentes tipos de registros de recursos utilizados para resolver nombres. Estos registros contienen el nombre, la dirección y el tipo de registro.
Algunos de estos tipos de registros son:
·         A: una dirección de dispositivo final
·         NS: un servidor de nombre autoritativo
·         CNAME: el nombre canónico (o el nombre de dominio completamente calificado) para un alias; se utiliza cuando varios servicios tienen una dirección de red única, pero cada servicio tiene su propia entrada en el DNS.
·         MX: registro de intercambio de correos; asigna un nombre de dominio a una lista de servidores de intercambio de correo para ese dominio.

Protocolo CDP:
CDP es un protocolo exclusivo de Cisco que se ejecuta en la capa de enlace de datos. Debido a que el protocolo CDP funciona en la capa de enlace de datos, es posible que dos o más dispositivos de red Cisco (como routers que admiten distintos protocolos de la capa de red) obtengan información de los demás incluso si no hay conectividad de capa 3.

Por razones obvias, CDP puede suponer un riesgo para la seguridad. Debido a que algunas versiones de IOS envían publicaciones CDP de manera predeterminada, es importante que sepa cómo deshabilitar el CDP.
Para desactivar CDP globalmente, utilice el comando de configuración global no cdp run. Para desactivar CDP en una interfaz, utilice el comando de interfaz no cdp enable.

Creación de copias de seguridad y restauración mediante TFTP
Para guardar la configuración en ejecución o la configuración de inicio en un servidor TFTP, utilice el comandocopy running-config tftp o copy startup-config tftp, como se muestra en la ilustración. Siga estos pasos para realizar una copia de seguridad de la configuración en ejecución en un servidor TFTP:
·         Paso 1. Introduzca el comando copy running-config tftp.
·         Paso 2. Ingrese la dirección IP del host en el cual se almacenará el archivo de configuración.
·         Paso 3. Ingrese el nombre que se asignará al archivo de configuración.
·         Paso 4. Presione Intro para confirmar cada elección.

Para restaurar la configuración en ejecución o la configuración de inicio desde un servidor TFTP, utilice el comando copy tftp running-config o copy tftp startup-config. Siga estos pasos para restaurar la configuración en ejecución desde un servidor TFTP:
·         Paso 1. Introduzca el comando copy tftp running-config.
·         Paso 2. Introduzca la dirección IP del host en el que está almacenado el archivo de configuración.
·         Paso 3. Ingrese el nombre que se asignará al archivo de configuración.
·         Paso 4. Presione Intro para confirmar cada elección.

Los módulos de memoria flash USB Cisco están disponibles en versiones de 64 MB, 128 MB y 256 MB. Para ser compatible con un router Cisco, una unidad flash USB debe tener formato FAT16. De lo contrario, el comando show file systems muestra un error que indica que el sistema de archivos es incompatible.


FIN –Hecho por Sergio Ledezma Castro

Read More