Resumen CCNA Modulo 1
Mientras los datos de la
aplicación bajan al stack del protocolo y se transmiten por los medios de la
red, varios protocolos le agregan información en cada nivel. Esto comúnmente se
conoce como proceso de encapsulación.
Las unidades de datos del protocolo
(PDU) se denominan según los protocolos de la suite TCP/IP: datos, segmento,
paquete, trama y bits.
cada segmento de TCP se le otorga
una etiqueta, denominada encabezado. El encabezado IP contiene las direcciones
IP de host de origen y de destino, como también la información necesaria para
entregar el paquete a su proceso de destino correspondiente. Cada encabezado de
trama contiene una dirección física de origen y de destino. La dirección física
identifica de forma exclusiva los dispositivos en la red local. El tráiler
contiene información de verificación de errores.
La desencapsulación es el proceso
que utilizan los dispositivos receptores para eliminar uno o más de los
encabezados de protocolo
Direcciones de red y direcciones de enlace de datos
La dirección lógica de la capa de
red, o capa 3, contiene la información necesaria para enviar el paquete IP
desde el dispositivo de origen hasta el dispositivo de destino. Una dirección
IP de capa 3 tiene dos partes: el prefijo de red y la parte de host.
La dirección física de la capa de
enlace de datos, o capa 2, tiene una función distinta. Su propósito es enviar
la trama de enlace de datos desde una interfaz de red hasta otra interfaz de
red en la misma red.
Direcciones de enlaces de
datos
Cuando el emisor y el receptor
del paquete IP están en la misma red, la trama de enlace de datos se envía
directamente al dispositivo receptor. En una red Ethernet, las direcciones de
enlace de datos se conocen como direcciones MAC de Ethernet. Las direcciones
MAC son direcciones de 48 bits que están integradas físicamente en la NIC
Ethernet. Las direcciones MAC también se conocen como direcciones físicas
(BIA).
Ahora debe estar claro que para
enviar datos a otro host en la misma LAN, el host de origen debe conocer tanto
la dirección física como la dirección lógica del host de destino. Una vez que
se conocen estas direcciones, puede crear una trama y enviarla a través de los
medios de red. El host de origen puede obtener la dirección IP de destino de
diversas maneras. Por ejemplo, puede descubrir la dirección IP mediante el uso
del sistema de nombres de dominios (DNS), o puede conocer la dirección IP de
destino porque la dirección se introduce en la aplicación en forma manual, como
cuando un usuario especifica la dirección IP de un servidor FTP de destino. Sin
embargo, ¿cómo determina un host la dirección MAC de Ethernet de otro
dispositivo?
La mayoría de las aplicaciones
de red dependen de la dirección IP lógica del destino para identificar la
ubicación de los hosts entre los que se produce la comunicación. Se requiere la
dirección MAC de enlace de datos para enviar el paquete IP encapsulado dentro
de la trama de Ethernet a través de la red hasta el destino.
El host emisor utiliza un
protocolo denominado “protocolo de resolución de direcciones” (ARP) para
descubrir la dirección MAC de cualquiera de los hosts de la misma red local. El
host emisor envía un mensaje de solicitud de ARP a toda la LAN. La solicitud de
ARP es un mensaje de broadcast. La solicitud de ARP contiene la dirección IP
del dispositivo de destino. Cada dispositivo en la LAN examina la solicitud de
ARP para ver si contiene su propia dirección IP. Solamente el dispositivo con
la dirección IP contenida en la solicitud de ARP responde con una respuesta de
ARP. La respuesta de ARP incluye la dirección MAC asociada con la dirección IP
en la solicitud de ARP.
Cuando un host necesita enviar un
mensaje a una red remota, debe utilizar el router, también conocido como
“gateway predeterminado”. El gateway predeterminado es la dirección IP de una
interfaz de un router en la misma red que el host emisor.
Cuando el emisor y el receptor
del paquete IP se encuentran en redes diferentes, la trama de enlace de datos
de Ethernet no se puede enviar directamente al host de destino, debido a que en
la red del emisor no se puede tener acceso directamente al host. La trama de
Ethernet se debe enviar a otro dispositivo conocido como “router” o “gateway
predeterminado”.
Capítulo 4: Acceso a la
red
Las redes utilizan medios de
cobre porque son económicos y fáciles de instalar, y tienen baja resistencia a
la corriente eléctrica. Sin embargo, los medios de cobre se ven limitados por
la distancia y la interferencia de señales.
Los datos se transmiten en cables de cobre como impulsos
eléctricos.
Interferencia electromagnética
(EMI) o interferencia de radiofrecuencia (RFI): las señales de EMI y RFI pueden
distorsionar y dañar las señales de datos que transportan los medios de cobre.
Crosstalk: se trata de una
perturbación causada por los campos eléctricos o magnéticos de una señal de un
hilo a la señal de un hilo adyacente. En los circuitos telefónicos, el
crosstalk puede provocar que se escuche parte de otra conversación de voz de un
circuito adyacente.
Existen tres tipos principales
de medios de cobre que se utilizan en las redes:
Par trenzado no blindado (UTP)
Par trenzado blindado (STP)
Coaxial
Tipos de medios de fibra óptica
En términos generales, los
cables de fibra óptica pueden clasificarse en dos tipos:
Fibra óptica monomodo: la fibra óptica monomodo (SMF)
consta de un núcleo muy pequeño y emplea tecnología láser costosa para enviar
un único haz de luz. Se usa mucho en situaciones de larga distancia que abarcan
cientos de kilómetros, como aplicaciones de TV por cable y telefonía de larga
distancia.
Fibra óptica multimodo: la
fibra óptica multimodo (MMF) consta de un núcleo más grande y utiliza emisores
LED para enviar pulsos de luz. Específicamente, la luz de un LED ingresa a la
fibra multimodo en diferentes ángulos. Se usa mucho en las redes LAN, debido a
que se puede alimentar mediante LED de bajo costo. Proporciona un ancho de
banda de hasta 10 Gb/s a través de longitudes de enlace de hasta 550 m.
Conectores
de red de fibra óptica
Los 3 conectores mas populares:
·
Punta recta (ST):
conectores antiguos de estilo bayoneta, ampliamente utilizados con la fibra
óptica multimodo.
·
Conector
suscriptor (SC): en ocasiones, se lo denomina “conector cuadrado” o “conector
estándar”. Es un conector LAN y WAN ampliamente adoptado que utiliza un mecanismo
de inserción/extracción para asegurar la inserción correcta. Este tipo de
conector se utiliza con la fibra óptica multimodo y monomodo.
·
Conector Lucent (LC): en ocasiones, denominado conector “pequeño”
o “local”, cada vez adquiere mayor popularidad debido a su tamaño reducido. Se
utiliza con la fibra óptica monomodo y también es compatible con la fibra
óptica multimodo.
Se requieren dos fibras
para realizar una operación full duplex ya que la luz sólo puede viajar en una
dirección a través de la fibra óptica.
Tres tipos comunes de errores
de empalme y terminación de fibra óptica son:
Desalineación: los medios de fibra óptica no se
alinean con precisión al unirlos.
Separación de los extremos: no hay contacto completo
de los medios en el empalme o la conexión.
Acabado de los extremos: los extremos de los medios no
se encuentran bien pulidos o puede verse suciedad en la terminación.
Se recomienda utilizar un comprobador óptico como el que se
muestra en la ilustración para probar los cables de fibra óptica. Se puede
utilizar un reflectómetro óptico de dominio de tiempo (OTDR) para probar cada
segmento del cable de fibra óptica. Este dispositivo introduce un impulso de
luz de prueba en el cable y mide la retrodispersión y el reflejo de la luz
detectados en función del tiempo. El OTDR calculará la distancia aproximada en
la que se detectan estas fallas en toda la longitud del cable.
Subcapas
de enlace de datos
La capa de enlace de datos se divide en dos subcapas:
· Control de enlace lógico (LLC): se trata de
la subcapa superior, que define los procesos de software que proporcionan
servicios a los protocolos de capa de red. El LLC coloca en la trama
información que identifica qué protocolo de capa de red se utiliza para la
trama. Esta información permite que varios protocolos de la capa 3, tales como
IPv4 e IPv6, utilicen la misma interfaz y los mismos medios de red.
Control de acceso al medio
(MAC): se trata de la subcapa inferior, que define los procesos de acceso al
medio que realiza el hardware. Proporciona el direccionamiento de la capa de
enlace de datos y la delimitación de los datos de acuerdo con los requisitos
Los protocolos de la Capa 2 especifican la encapsulación de
un paquete en una trama y las técnicas para colocar y sacar el paquete
encapsulado de cada medio. La técnica utilizada para colocar y sacar la trama
de los medios se llama método de control de acceso al medio.
La capa de enlace de datos prepara los paquetes para
transportarlos a través de los medios locales mediante su encapsulación con un
encabezado y un tráiler para crear una trama. La descripción de una trama es un
elemento clave de cada protocolo de capa de enlace de datos.
Las tramas de la capa de enlace
de datos incluyen los siguientes elementos:
Encabezado: contiene información de
control, como direccionamiento, y está ubicado al comienzo de la PDU.
Datos: contienen el encabezado IP, el
encabezado de la capa de transporte y los datos de aplicación.
Tráiler: contiene la información de control que se
agrega al final de la PDU para la detección de errores.
Como se muestra en la
ilustración, los tipos de campos de trama genéricos incluyen lo siguiente:
Indicadores de comienzo y de detención de
la trama: la subcapa MAC utiliza estos campos para identificar el inicio y el
final de la trama.
Direccionamiento: la subcapa MAC utiliza
este campo para identificar los nodos de origen y destino.
Tipo: el LLC utiliza este campo para identificar el
protocolo de capa 3.
· Control: identifica servicios especiales de
control del flujo.
Datos:
incluye el contenido de la trama (es decir, el encabezado del paquete, el
encabezado del segmento y los datos).
Detección de errores:
estos campos de trama, que se incluyen después de los datos para formar el
tráiler, se utilizan para la detección de errores.
No todos los protocolos
incluyen todos estos campos. Los estándares para un protocolo de enlace de
datos específico definen el formato real de la trama.
Acceso a la red
El control de acceso al medio es el equivalente a las reglas
de tránsito que regulan la entrada de vehículos a una autopista. La ausencia de
un control de acceso al medio sería el equivalente a vehículos que ignoren el
resto del tráfico e ingresen al camino sin tener en cuenta a los demás
vehículos. Sin embargo, no todos los caminos y entradas son iguales
· Topología física: se refiere a las conexiones
físicas e identifica cómo se interconectan los dispositivos finales y de
infraestructura, como los routers, los switches y los puntos de acceso
inalámbrico. Las topologías físicas generalmente son punto a punto o en
estrella.
Topología
lógica: se refiere a la forma en que una red transfiere tramas de un nodo al
siguiente. Esta disposición consta de conexiones virtuales entre los nodos de
una red. Los protocolos de capa de enlace de datos definen estas rutas de
señales lógicas.
Por lo general, las WAN se
interconectan mediante las siguientes topologías físicas:
Punto a punto: esta es la topología más
simple, que consta de un enlace permanente entre dos terminales. Por este
motivo, es una topología de WAN muy popular.
Hub-and-spoke: es una versión WAN de la
topología en estrella, en la que un sitio central interconecta sitios de
sucursal mediante enlaces punto a punto.
Malla: esta topología proporciona alta disponibilidad,
pero requiere que cada sistema final esté interconectado con todos los demás
sistemas. Por lo tanto, los costos administrativos y físicos pueden ser
importantes. Básicamente, cada enlace es un enlace punto a punto al otro nodo.
Las variantes de esta topología incluyen la topología de malla parcial,
en la que se interconectan algunos dispositivos finales, pero no todos.
Comunicación half-duplex: ambos
dispositivos pueden transmitir y recibir datos en los medios, pero no pueden
hacerlo en forma simultánea
Comunicación full-duplex: ambos
dispositivos pueden transmitir y recibir datos en los medios al mismo tiempo.
Hay dos métodos básicos de
control de acceso al medio para medios compartidos:
· Acceso por contienda:
todos los nodos compiten por el uso del medio, pero tienen un plan si se
producen colisiones.
· Acceso controlado: cada nodo
tiene su propio tiempo para utilizar el medio.
Acceso por contienda;
Acceso múltiple por detección de
portadora (CSMA) para detectar primero si los medios están transportando una
señal.
Si se detecta una señal
portadora en el medio desde otro nodo, quiere decir que otro dispositivo está
transmitiendo. Cuando un dispositivo está intentando transmitir y nota que el
medio está ocupado, esperará e intentará después de un período de tiempo corto.
Si no se detecta una señal portadora, el dispositivo transmite sus datos. Las
redes Ethernet e inalámbricas utilizan control de acceso al medio por
contención.
Generalmente se implementa CSMA
junto con un método para resolver la contención del medio. Los dos métodos
comúnmente utilizados son:
·
(CSMA/CD), el
dispositivo final supervisa los medios para detectar la presencia de una señal
de datos. Si no hay una señal de datos y, en consecuencia, los medios están
libres, el dispositivo transmite los datos. Si luego se detectan señales que
muestran que otro dispositivo estaba transmitiendo al mismo tiempo, todos los
dispositivos dejan de enviar e intentan después. Las formas tradicionales de
Ethernet utilizan este método.
NOTA: CSMA/CD fue usado en las -ahora obsoletas- variantes de Ethernet 10BASE5 y 10BASE2. Actualmente las modernas redes Ethernet construidas con switches y conexiones full-duplex lo mantienen como modo de retrocompatibilidad.
NOTA: CSMA/CD fue usado en las -ahora obsoletas- variantes de Ethernet 10BASE5 y 10BASE2. Actualmente las modernas redes Ethernet construidas con switches y conexiones full-duplex lo mantienen como modo de retrocompatibilidad.
·
(CSMA/CA), el
dispositivo final examina los medios para detectar la presencia de una señal de
datos. Si el medio está libre, el dispositivo envía una notificación a través
del medio, sobre su intención de utilizarlo. Una vez que recibe autorización
para transmitir, el dispositivo envía los datos. Las tecnologías de red
inalámbricas 802.11 utilizan este método.
Acceso controlado;
Al utilizar el método de acceso
controlado, los dispositivos de red toman turnos en secuencia para acceder al
medio. Si un dispositivo final no necesita acceder al medio, el turno pasa al
dispositivo final siguiente. Este proceso se facilita por medio de un token. Un
dispositivo final adquiere el token y coloca una trama en los medios; ningún
otro dispositivo puede hacerlo hasta que la trama se haya recibido y procesado
en el destino, y se libere el token.
Nota: este método también se
conoce como “acceso programado” o “determinista”.
Los ejemplos de acceso
controlado incluyen lo siguiente:
Token Ring (IEEE 802.5)
Interfaz de datos distribuida por fibra (FDDI), que se
basa en el protocolo de token bus IEEE 802.4.
Nota: estos dos métodos de
control de acceso al medio se consideran obsoletos.
Trama;
Si bien existen muchos
protocolos de capa de enlace de datos diferentes que describen las tramas de la
capa de enlace de datos, cada tipo de trama tiene tres partes básicas:
Encabezado
Datos
Tráiler
El protocolo de capa de enlace
de datos describe las características requeridas para el transporte de paquetes
a través de diferentes medios. Estas características del protocolo están
integradas en la encapsulación de la trama. Cuando la trama llega a su destino
y el protocolo de enlace de datos quita la trama de los medios, la información
sobre el entramado se lee y se descarta.
El encabezado de la trama
contiene la información de control que especifica el protocolo de capa de
enlace de datos para la topología lógica y los medios específicos utilizados.
La información de control de
trama es única para cada tipo de protocolo.
Campos de encabezado de la
trama de Ethernet:
· Campo Inicio de trama: indica el comienzo de
la trama.
Campos
Dirección de origen y Dirección de destino: indican los nodos de origen y
destino en los medios.
Campo Tipo: indica el
servicio de capa superior que se incluye en la trama.
Otros campos de encabezado de
trama de protocolo de capa 2 podrían incluir los siguientes:
Campo Prioridad/Calidad de servicio: indica un tipo
específico de servicio de comunicación para el procesamiento.
Campo Control de conexión lógica: se utiliza para
establecer una conexión lógica entre nodos.
Campo Control de enlace físico: se utiliza para
establecer el enlace con los medios.
Campo Control del flujo: se utiliza para iniciar y
detener el tráfico a través de los medios.
Campo Control de congestión: indica si hay congestión
en los medios.
A diferencia de las direcciones
lógicas de capa 3, que son jerárquicas, las direcciones físicas no indican en
qué red se encuentra el dispositivo.
No se puede utilizar una
dirección específica de un dispositivo y no jerárquica para localizar un
dispositivo a través de grandes redes o de Internet. Eso sería como intentar
localizar una casa específica en todo el mundo, sin más datos que el nombre de
la calle y el número de la casa. Sin embargo, la dirección física se puede usar
para localizar un dispositivo dentro de un área limitada. Por este motivo, la
dirección de la capa de enlace de datos solo se utiliza para entregas locales.
Las direcciones en esta capa no tienen significado más allá de la red local.
El tráiler se utiliza para
determinar si la trama llegó sin errores. Este proceso se denomina “detección
de errores” y se logra mediante la colocación en el tráiler de un resumen
lógico o matemático de los bits que componen la trama. La detección de errores
se agrega a la capa de enlace de datos porque las señales en los medios pueden
sufrir interferencias, distorsiones o pérdidas que cambien considerablemente
los valores de bits que representan esas señales.
Un nodo transmisor crea un
resumen lógico del contenido de la trama. Esto se conoce como valor de
comprobación de redundancia cíclica (CRC). Este valor se coloca en el campo
Secuencia de verificación de la trama (FCS) para representar el contenido de la
trama.
Cuando la trama llega al nodo
de destino, el nodo receptor calcula su propio resumen lógico, o CRC, de la
trama. El nodo receptor compara los dos valores CRC. Si los dos valores son
iguales, se considera que la trama llegó como se transmitió. Si el valor CRC en
el FCS difiere del CRC calculado en el nodo receptor, la trama se descarta.
Por lo tanto, el campo FCS se
utiliza para determinar si se produjeron errores durante la transmisión y la
recepción de la trama.
Los protocolos de capa de
enlace de datos comunes incluyen los siguientes:
Ethernet
Protocolo punto a punto (PPP)
Inalámbrico 802.11
Ethernet es la tecnología LAN
predominante. Se trata de una familia de tecnologías de red que se definen en
los estándares IEEE 802.2 y 802.3.
Los estándares de Ethernet definen los protocolos de Capa 2
y las tecnologías de Capa 1. Ethernet es la tecnología LAN más ampliamente
utilizada y admite anchos de banda de datos de 10 Mbps, 100 Mbps, 1 Gbps (1000
Mbps) o 10 Gbps (10 000 Mbps).
Ethernet proporciona servicio sin conexión y sin
reconocimiento sobre un medio compartido utilizando CSMA/CD como métodos de
acceso al medio
Una dirección MAC de Ethernet es de 48 bits y generalmente
se representa en formato hexadecimal.
PPP utiliza una arquitectura en capas. Para incluir a los
diferentes tipos de medios, PPP establece conexiones lógicas, llamadas
sesiones, entre dos nodos.
PPP también permite que dos nodos negocien opciones dentro
de la sesión PPP. Esto incluye la autenticación, compresión y multienlace (el
uso de varias conexiones físicas).
El estándar IEEE 802.11 utiliza el mismo LLC de 802.2 y el
mismo esquema de direccionamiento de 48 bits que las demás LAN 802. Sin
embargo, existen muchas diferencias en la subcapa MAC y en la capa física. En
un entorno inalámbrico, el entorno requiere consideraciones especiales. No hay
una conectividad física definible; por lo tanto, factores externos pueden
interferir con la transferencia de datos y es difícil controlar el acceso. Para
vencer estos desafíos, los estándares inalámbricos tienen controles
adicionales.
Comúnmente, el estándar IEEE
802.11 se denomina “Wi-Fi”. Es un sistema de contienda que utiliza un proceso
CSMA/CA de acceso al medio. CSMA/CA especifica un procedimiento postergación
aleatoria para todos los nodos que están esperando transmitir. La oportunidad
más probable para la contención de medio es el momento en que el medio está
disponible. Hacer el back off de los nodos para un período aleatorio reduce en
gran medida la probabilidad de colisión.
Las redes 802.11 también
utilizan acuses de recibo de enlace de datos para confirmar que una trama se
recibió correctamente.
Si la estación transmisora no detecta la trama de
reconocimiento, ya sea porque la trama de datos original o el reconocimiento no
se recibieron intactos, se retransmite la trama. Este reconocimiento explícito
supera la interferencia y otros problemas relacionados con la radio.
Como se muestra en la ilustración, las tramas 802.11 incluyen los siguientes campos:
Resumen
Existen tres tipos principales
de medios de cobre utilizados en redes: el cable de par trenzado no blindado
(UTP), el cable de par trenzado blindado (STP) y el cable coaxial. El cableado
UTP es el medio de cobre que más se utiliza en redes.
El cable de fibra óptica se
volvió muy popular para interconectar dispositivos de red de infraestructura.
Permite la transmisión de datos a través de distancias más extensas y a anchos
de banda (velocidades de datos) mayores que cualquier otro medio de red. A
diferencia de los cables de cobre, el cable de fibra óptica puede transmitir
señales con menos atenuación y es totalmente inmune a las EMI y RFI.
Entre las diferentes
implementaciones de los protocolos de capa de enlace de datos, existen
diferentes métodos para controlar el acceso al medio. Estas técnicas de control
de acceso al medio definen si los nodos comparten los medios y de qué manera lo
hacen. El método específico de control de acceso al medio utilizado depende de
la topología y los medios compartidos.
Todos los protocolos de capa de
enlace de datos encapsulan la PDU de la capa 3 dentro del campo de datos de la
trama. Sin embargo, la estructura de la trama y los campos contenidos en el
encabezado y tráiler varían de acuerdo con el protocolo.
Capítulo 5 Ethernet
En la actualidad, Ethernet es
la tecnología LAN predominante en el mundo. Ethernet funciona en la capa de
enlace de datos y en la capa física.
Las tramas también se conocen
como unidades de datos de protocolo (PDU).
En lo que respecta a los
protocolos de capa 2, al igual que sucede con todos los estándares IEEE 802,
Ethernet depende de las dos subcapas separadas de la capa de enlace de datos
para funcionar: la subcapa de control de enlace lógico (LLC) y la subcapa MAC.
Subcapa LLC
La subcapa LLC de Ethernet se
ocupa de la comunicación entre las capas superiores y las capas inferiores.
Generalmente, esta comunicación se produce entre el software de red y el
hardware del dispositivo.
La subcapa LLC toma los datos
del protocolo de la red, que generalmente son un paquete IPv4, y agrega
información de control para ayudar a entregar el paquete al nodo de destino. El
LLC se utiliza para comunicarse con las capas superiores de la aplicación y
para la transición del paquete a las capas inferiores para su entrega.
El LLC se implementa en
software, y su implementación no depende del hardware.
Subcapa MAC
La MAC constituye la subcapa
inferior de la capa de enlace de datos. La MAC se implementa mediante hardware,
por lo general, en la NIC de la PC.
Como se muestra en la
ilustración, la subcapa MAC de Ethernet tiene dos responsabilidades
principales:
· Encapsulación de datos
Control de acceso al medio
Encapsulación de datos
El proceso de encapsulación de
datos incluye el armado de la trama antes de la transmisión y el desarmado de
la trama en el momento en que se la recibe.
La encapsulación de datos
proporciona tres funciones principales:
Delimitación de tramas: el proceso de entramado
proporciona delimitadores importantes que se utilizan para identificar un grupo
de bits que componen una trama. Este proceso ofrece una sincronización entre
los nodos transmisores y receptores.
Direccionamiento: el proceso de encapsulación también
proporciona direccionamiento de la capa de enlace de datos. Cada encabezado
Ethernet agregado a la trama contiene la dirección física (dirección MAC) que
permite que la trama se envíe a un nodo de destino.
Detección de errores: cada trama de Ethernet contiene
un tráiler con una comprobación de redundancia cíclica (CRC) del contenido de
la trama. Una vez que se recibe una trama, el nodo receptor crea una CRC para
compararla con la de la trama. Si estos dos cálculos de CRC coinciden, puede
asumirse que la trama se recibió sin errores.
Control de acceso al medio
En primera instancia, el
proceso de CSMA se utiliza para detectar si los medios transportan una señal.
Si se detecta una señal portadora en el medio desde otro nodo, quiere decir que
otro dispositivo está transmitiendo. Cuando un dispositivo está intentando
transmitir y nota que el medio está ocupado, esperará e intentará después de un
período de tiempo corto.
Si no se detecta una señal portadora, el
dispositivo transmite sus datos. Es posible que el proceso CSMA falle si dos
dispositivos transmiten al mismo tiempo. A esto se le denomina colisión de
datos. Si esto ocurre, los datos enviados por ambos dispositivos se dañarán y
deberán enviarse nuevamente.
Los métodos de control de
acceso al medio por contienda no requieren mecanismos para llevar la cuenta de
a quién le corresponde acceder al medio; por lo tanto, no tienen la sobrecarga
de los métodos de acceso controlado.
Sin embargo, los sistemas por
contención no escalan bien bajo un uso intensivo de los medios. A medida que el
uso y el número de nodos aumenta, la probabilidad de acceder a los medios con
éxito sin una colisión disminuye. Además, los mecanismos de recuperación que se
requieren para corregir errores debidos a esas colisiones disminuyen aún más el
rendimiento.
CSMA/Detección de colisión
Con el método CSMA/Detección de
colisión (CSMA/CD), el dispositivo controla los medios para detectar la
presencia de una señal de datos. Si no hay una señal de datos, que indica que
el medio está libre, el dispositivo transmite los datos.
Si luego se detectan señales
que muestran que otro dispositivo estaba transmitiendo al mismo tiempo, todos
los dispositivos dejan de enviar e intentan después. Las formas tradicionales
de Ethernet se desarrollaron para utilizar este método.
La incorporación a gran escala
de tecnologías conmutadas en las redes modernas reemplazó ampliamente la
necesidad original de implementación de CSMA/CD en redes de área local.
Hoy en día, casi todas las conexiones por
cable entre dispositivos en una LAN son conexiones full-duplex, es decir, un
mismo dispositivo puede enviar y recibir información simultáneamente. Esto
significa que, si bien las redes Ethernet se diseñan con tecnología CSMA/CD,
con los dispositivos intermediarios actuales no se producen colisiones y los
procesos utilizados por el CSMA/CD son realmente innecesarios.
Sin embargo, todavía se deben
tener en cuenta las colisiones en conexiones inalámbricas en entornos LAN. Los
dispositivos LAN inalámbricos utilizan el método de acceso al medio
CSMA/Prevención de colisiones (CSMA/CA).
CSMA/Prevención de colisiones
Con el método CSMA/CA, el
dispositivo analiza los medios para detectar la presencia de una señal de datos.
Si el medio está libre, el dispositivo envía una notificación a través del
medio, sobre su intención de utilizarlo. El dispositivo luego envía los datos.
Las tecnologías de red inalámbricas 802.11 utilizan este método.
Dirección MAC
Las direcciones MAC deben ser
únicas en el mundo. El valor de la dirección MAC es el resultado directo de las
normas implementadas por el IEEE para proveedores con el objetivo de garantizar
direcciones únicas para cada dispositivo Ethernet. Las normas establecidas por
el IEEE obligan a los proveedores de dispositivos Ethernet a registrarse en el
IEEE. El IEEE le asigna al proveedor un código de 3 bytes (24 bits), denominado
“Identificador único de organización” (OUI).
La dirección MAC suele denominarse “dirección física” (BIA)
porque, históricamente, se graba en la ROM (memoria de solo lectura) de la NIC.
Esto significa que la dirección se codifica en el chip de la ROM de manera
permanente (el software no puede cambiarla).
Nota: en los sistemas operativos de PC y en las NIC modernos,
es posible cambiar la dirección MAC mediante software. Esto es útil cuando se
trata de acceder a una red que filtra sobre la base de la BIA. Esto quiere
decir que el filtrado o control del tráfico sobre la base de la dirección MAC
ya no es tan seguro como antes.
Trama de Ethernet
Tanto el estándar Ethernet II como el IEEE 802.3 definen el
tamaño mínimo de trama en 64 bytes y el tamaño máximo de trama en 1518 bytes.
Los campos Preámbulo y Delimitador de inicio de trama no se
incluyen en la descripción del tamaño de una trama.
Cualquier trama con menos de 64 bytes de longitud se
considera un "fragmento de colisión" o "runt frame" y las
estaciones receptoras la descartan automáticamente.
Si el tamaño de una trama transmitida es menor que el mínimo
o mayor que el máximo, el dispositivo receptor descarta la trama. Es posible
que las tramas descartadas se originen en colisiones u otras señales no
deseadas y, por lo tanto, se consideran no válidas.
Campo Secuencia de verificación
de trama (FCS): este campo de 4 bytes se utiliza para detectar errores en una
trama. Utiliza una comprobación de redundancia cíclica (CRC). El dispositivo
emisor incluye los resultados de una CRC en el campo FCS de la trama.
El dispositivo receptor recibe la trama y genera una CRC
para buscar errores. Si los cálculos coinciden, significa que no se produjo
ningún error. Los cálculos que no coinciden indican que los datos cambiaron y,
por consiguiente, se descarta la trama. Un cambio en los datos podría ser
resultado de una interrupción de las señales eléctricas que representan los
bits.
Direcciones MAC
En Ethernet se utilizan
distintas direcciones MAC para las comunicaciones unicast, broadcast y
multicast de capa 2.
Una dirección MAC unicast es la dirección exclusiva que se
utiliza cuando se envía una trama de un dispositivo de transmisión único a un
dispositivo de destino único.
Muchos protocolos de red, como DHCP y el protocolo de
resolución de direcciones (ARP), utilizan broadcasts.
Como se muestra en la figura, una dirección IP de broadcast
para una red requiere una dirección MAC de broadcast correspondiente en la
trama de Ethernet. En las redes Ethernet, la dirección MAC de broadcast está
compuesta por 48 unos, que se muestran como el valor hexadecimal FF-FF-FF-FF-FF-FF.
El rango de direcciones IPv4 multicast va de 224.0.0.0 a
239.255.255.255.
Las direcciones multicast se
pueden utilizar en juegos remotos, donde muchos jugadores se conectan de forma
remota pero juegan al mismo juego.
Las direcciones multicast también se pueden
utilizar en situaciones de educación a distancia mediante videoconferencias,
donde muchos estudiantes se conectan a la misma clase.
Al igual que con las direcciones unicast y de broadcast, la
dirección IP multicast requiere una dirección MAC multicast correspondiente
para poder enviar tramas en una red local. La dirección MAC multicast es un
valor especial que comienza con 01-00-5E en hexadecimal. La porción restante de
la dirección MAC multicast se crea mediante la conversión de los 23 bits
inferiores de la dirección IP del grupo multicast en 6 caracteres
hexadecimales.
Existen dos direcciones
principales asignadas a un dispositivo host:
Dirección física (dirección MAC)
Dirección lógica (dirección IP)
Tanto la dirección MAC como la
dirección IP operan juntas para identificar un dispositivo en la red. El
proceso de utilizar la dirección MAC y la dirección IP para encontrar una PC es
similar al proceso de utilizar el nombre y la dirección de una persona para
enviarle una carta.
El nombre de una persona
generalmente no cambia. Por otro lado, la dirección de una persona indica dónde
vive esa persona y puede cambiar.
La dirección MAC en un host, como los nombres de las
personas, no cambia; se asigna físicamente a la NIC del host y se conoce como
“dirección física”.
Una dirección IP se asocia a un nombre de dominio, es una de
las formas más comunes en que un dispositivo de origen determina la dirección
IP de un dispositivo de destino. Por ejemplo, www.cisco.com equivale a
209.165.200.225. Esta dirección IP envía el paquete a la ubicación de red del
dispositivo de destino. Los routers utilizan esta dirección IP para determinar
el mejor camino para llegar a destino. Entonces, en resumen, el
direccionamiento IP determina el comportamiento de extremo a extremo de un
paquete IP.
Los dispositivos finales en una red Ethernet no aceptan ni
procesan tramas según las direcciones IP. Por el contrario, las tramas se
aceptan y procesan según las direcciones MAC.
¿Cómo se relacionan las direcciones IP de los paquetes IP en
un flujo de datos con las direcciones MAC en cada enlace a lo largo de la ruta
hacia el destino? Esto se logra mediante un proceso denominado “protocolo de
resolución de direcciones” (ARP).
Introducción a ARP
Recuerde que cada nodo de una red IP tiene tanto una
dirección MAC como una dirección IP. Para enviar datos, el nodo debe utilizar
ambas direcciones. El nodo debe utilizar sus propias direcciones MAC e IP en
los campos de origen y debe proporcionar una dirección MAC y una dirección IP
para el destino.
El protocolo ARP se basa en determinados
tipos de mensajes Ethernet de broadcast y unicast, denominados “solicitudes
ARP” y “respuestas ARP”.
El protocolo ARP ofrece dos funciones
básicas:
·
Resolución de direcciones IPv4 a direcciones MAC
·
Mantenimiento de una tabla de las asignaciones
Para que una trama se coloque
en los medios de la LAN, debe contar con una dirección MAC de destino. Cuando
se envía un paquete a la capa de enlace de datos para que se encapsule en una
trama, el nodo consulta una tabla en su memoria para encontrar la dirección de
la capa de enlace de datos asignada a la dirección IPv4 de destino. Esta tabla
se denomina tabla ARP o caché ARP.
La tabla ARP se almacena en la
RAM del dispositivo.
Cada entrada o fila de
la tabla ARP vincula una dirección IP a una dirección MAC. La relación entre
los dos valores se denomina mapa, que simplemente significa que usted puede
localizar una dirección IP en la tabla y descubrir la dirección MAC
correspondiente. En la tabla ARP, se guardan temporalmente (en caché) las
asignaciones de los dispositivos en la LAN local.
Mantenimiento de la tabla ARP:
La tabla ARP se mantiene
dinámicamente. Existen dos maneras en las que un dispositivo puede reunir
direcciones MAC. Una es monitorear el tráfico que se produce en el segmento de
la red local. A medida que un nodo recibe tramas de los medios, puede registrar
las direcciones IP y MAC de origen como mapeos en la tabla ARP. A medida que
las tramas se transmiten en la red, el dispositivo completa la tabla ARP con
los pares de direcciones.
Una solicitud de ARP es
un broadcast de capa 2 que se transmite a todos los dispositivos en la LAN
Ethernet. La solicitud de ARP contiene la dirección IP del host de destino y la
dirección MAC de broadcast, FFFF.FFFF.FFFF. Dado que se trata de un broadcast,
todos los nodos en la LAN Ethernet reciben y examinan el contenido. El nodo
cuya dirección IP coincide con la dirección IP en la solicitud de ARP responde.
La respuesta es una trama de unicast que incluye la dirección MAC que
corresponde a la dirección IP en la solicitud. Esta respuesta se utiliza para
crear una entrada nueva en la tabla ARP del nodo de envío.
Las entradas en la tabla ARP
tienen una marca de hora similar a la de las entradas de la tabla MAC en los
switches. Si un dispositivo no recibe una trama de un dispositivo determinado
antes de que caduque la marca horaria, la entrada para ese dispositivo se
elimina de la tabla ARP.
Además, pueden
ingresarse entradas estáticas de asignaciones en una tabla ARP, pero esto no
sucede con frecuencia. Las entradas estáticas de la tabla ARP no caducan con el
tiempo y deben eliminarse en forma manual.
Cuando el ARP recibe una
solicitud para mapear una dirección IPv4 a una dirección MAC, busca el mapa
almacenado en su tabla ARP. Si no encuentra la entrada, la encapsulación del
paquete IPv4 no se realiza y los procesos de Capa 2 notifican al ARP que necesita
un mapa. Los procesos ARP envían entonces un paquete de solicitud de ARP para
descubrir la dirección MAC del dispositivo de destino de la red local. Si un
dispositivo que recibe la solicitud tiene la dirección IP de destino, responde
con una respuesta de ARP. Se crea un mapa en la tabla ARP.
Los paquetes para esa dirección
IPv4 pueden ahora encapsularse en tramas.
Si ningún dispositivo
responde a la solicitud de ARP, el paquete se descarta porque no puede crearse
una trama. Esta falla de encapsulación se informa a las capas superiores del
dispositivo.
Si el host IPv4 de destino no
se encuentra en la red local, el nodo de origen necesita enviar la trama a la
interfaz del router que es el gateway o el siguiente salto que se utiliza para
llegar a dicho destino. El nodo de origen utilizará la dirección MAC del
gateway como dirección de destino para las tramas que contengan un paquete IPv4
dirigido a hosts que se encuentren en otras redes.
La dirección de gateway de la
interfaz del router se almacena en la configuración IPv4 de los hosts. Cuando
un host crea un paquete para un destino, compara la dirección IP de destino con
su propia dirección IP para determinar si las dos direcciones IP se encuentran
en la misma red de Capa 3. Si el host receptor no se encuentra en la misma red,
el origen utiliza el proceso de ARP para determinar una dirección MAC para la
interfaz del router que sirve de gateway.
En caso de que la
entrada de gateway no se encuentre en la tabla, el proceso de ARP normal
enviará una solicitud de ARP para recuperar la dirección MAC asociada con la
dirección IP de la interfaz del router.
Eliminación de entradas de una
tabla ARP:
Para cada dispositivo, un
temporizador de caché ARP elimina las entradas ARP que no se hayan utilizado
durante un período de tiempo especificado. Los tiempos difieren dependiendo del
dispositivo y su sistema operativo. Por ejemplo: algunos sistemas operativos de
Windows almacenan las entradas de caché ARP por 2 minutos. Si la entrada se
utiliza nuevamente durante ese tiempo, el temporizador ARP para esa entrada se
extiende a 10 minutos.
También pueden
utilizarse comandos para eliminar manualmente todas o algunas de las entradas
de la tabla ARP. Después de eliminar una entrada, el proceso para enviar una
solicitud de ARP y recibir una respuesta de ARP debe ocurrir nuevamente para
ingresar la asignación en la tabla ARP.
En un router Cisco, se utiliza
el comando show ip arp para mostrar la tabla ARP, como se muestra en la figura
1.
En una PC con Windows 7,
se utiliza el comando arp -a para mostrar la tabla ARP, como se muestra en la
figura 2.
Cómo puede ocasionar problemas el protocolo ARP:
Sobrecarga en los medios:
Todos los dispositivos
de la red local reciben y procesan una solicitud de ARP debido a que es una
trama de broadcast. En una red comercial típica, estos broadcasts tendrían
probablemente un impacto mínimo en el rendimiento de la red. Sin embargo, si un
gran número de dispositivos se encendiera y todos comenzaran a acceder a los
servicios de la red al mismo tiempo, podría haber una disminución del
rendimiento durante un período de tiempo breve
Seguridad:
En algunos casos, el uso del
ARP puede ocasionar un riesgo potencial de seguridad. La suplantación o el
envenenamiento ARP es una técnica que utiliza un atacante para introducir una
asociación de direcciones MAC incorrecta en una red emitiendo respuestas ARP
falsas. El individuo falsifica la dirección MAC de un dispositivo y de esta
manera las tramas pueden enviarse a la dirección equivocada.
Configurar manualmente
asociaciones ARP estáticas es una manera de impedir la suplantación de
identidad de ARP. Las direcciones MAC autorizadas pueden configurarse en
algunos dispositivos de red para que limiten el acceso a la red para sólo los
dispositivos indicados.
Mitigación de problemas de ARP:
Los switches modernos pueden
mitigar los problemas de broadcast y de seguridad relacionados con ARP. Los
switches Cisco admiten varias tecnologías de seguridad diseñadas
específicamente para mitigar problemas de Ethernet relacionados con los
broadcasts, en general, y con ARP, en particular.
Los switches proporcionan la
segmentación de LAN, ya que las dividen en dominios de colisiones
independientes. Cada puerto de un switch representa un dominio de colisiones
distinto y proporciona el ancho de banda de medio completo al nodo o a los
nodos conectados a dicho puerto.
Si bien los switches no impiden
de manera predeterminada que los broadcasts se propaguen a los dispositivos
conectados, aíslan las comunicaciones unicast de Ethernet de modo que solamente
las “escuchen” el dispositivo de origen y de destino.
Entonces, si hay una gran
cantidad de solicitudes de ARP, cada respuesta de ARP tendrá lugar solamente
entre dos dispositivos.
Con respecto a la
mitigación de diferentes tipos de ataques de broadcast, a los que las redes
Ethernet son propensas, los ingenieros de red implementan tecnologías de
seguridad de switches de Cisco, como listas de acceso y seguridad de puertos especializadas.
Los switches LAN de capa
2 llevan a cabo los procesos de conmutación y filtrado basándose solamente en
la dirección MAC de la capa de enlace de datos (capa 2) del modelo OSI. El
switch es completamente transparente para los protocolos de red y las
aplicaciones de usuario. Los switches de capa 2 crean una tabla de direcciones
MAC que utilizan para tomar decisiones de reenvío. Los switches de capa 2
dependen de los routers para pasar datos entre subredes IP independientes.
Tabla de direcciones MAC del switch:
El switch determina cómo
manejar las tramas de datos entrantes mediante una tabla de direcciones MAC. El
switch genera su tabla de direcciones MAC grabando las direcciones MAC de los
nodos que se encuentran conectados en cada uno de sus puertos. Una vez que la
dirección MAC de un nodo específico en un puerto determinado queda registrada
en la tabla de direcciones, el switch ya sabe enviar el tráfico destinado a ese
nodo específico desde el puerto asignado a dicho nodo para posteriores transmisiones.
Cuando un switch recibe una
trama de datos entrantes y la dirección MAC de destino no figura en la tabla,
éste reenvía la trama a todos los puertos excepto al que la recibió en primer
lugar. Cuando el nodo de destino responde, el switch registra la dirección MAC
de éste en la tabla de direcciones del campo dirección de origen de la trama.
En las redes que cuentan
con varios switches interconectados, las tablas de direcciones MAC registran
varias direcciones MAC para los puertos que conectan los switches que reflejan
los nodos de destino. Generalmente, los puertos de los switches que se utilizan
para interconectar dos switches cuentan con varias direcciones MAC registradas
en la tabla de direcciones.
A continuación se describe este
proceso:
Paso 1. El switch recibe una
trama de broadcast de la PC1 en el Puerto 1.
Paso 2. El switch ingresa la
dirección MAC de origen y el puerto del switch que recibió la trama en la tabla
de direcciones.
Paso 3. Dado que la dirección
de destino es broadcast, el switch satura todos los puertos enviando la trama,
excepto el puerto que la recibió.
Paso 4. El dispositivo de
destino responde al broadcast con una trama de unicast dirigida a la PC1.
Paso 5. El switch introduce en
la tabla de direcciones la dirección MAC de origen de la PC2 y el número del
puerto de switch que recibió la trama. En la tabla de direcciones MAC pueden
encontrarse la dirección de destino de la trama y su puerto asociado.
Paso 6. Ahora el switch puede
enviar tramas entre los dispositivos de origen y destino sin saturar el
tráfico, ya que cuenta con entradas en la tabla de direcciones que identifican
a los puertos asociados.
Nota: en ocasiones, la
tabla de direcciones MAC se denomina “tabla de memoria de contenido
direccionable” (CAM). Si bien el término “tabla CAM” es bastante común, para el
propósito de este curso la denominaremos “tabla de direcciones MAC”.
Configuración de Dúplex:
Half dúplex:
La comunicación half-duplex se
basa en un flujo de datos unidireccional en el que el envío y la recepción de
datos no se producen al mismo tiempo. Esto es similar a la función de las
radios de dos vías o dos walki-talkies en donde una sola persona puede hablar a
la vez. Si una persona habla mientras lo hace la otra, se produce una colisión.
Por ello, la
comunicación half-duplex implementa el CSMA/CD con el objeto de reducir las
posibilidades de que se produzcan colisiones y detectarlas en caso de que se
presenten. Las comunicaciones half-duplex presentan problemas de funcionamiento
debido a la constante espera, ya que el flujo de datos sólo se produce en una
dirección a la vez. Las conexiones half-duplex suelen verse en los dispositivos
de hardware más antiguos, como los hubs.
Full duplex
En las comunicaciones
full-duplex el flujo de datos es bidireccional, por lo tanto la información
puede enviarse y recibirse al mismo tiempo. La capacidad bidireccional mejora
el rendimiento, dado que reduce el tiempo de espera entre las transmisiones.
Actualmente, la mayoría de las tarjetas NIC Ethernet, Fast Ethernet y Gigabit
Ethernet disponibles en el mercado proporciona capacidad full-duplex. En el
modo full-duplex, el circuito de detección de colisiones se encuentra
desactivado. Las tramas enviadas por los dos nodos finales conectados no pueden
colisionar, dado que éstos utilizan dos circuitos independientes en el cable de
la red. Cada conexión full-duplex utiliza un solo puerto. Las conexiones
full-duplex requieren un switch que admita esta modalidad o bien una conexión
directa entre dos nodos compatibles con el modo full duplex. Los nodos que se
conecten directamente al puerto de un switch dedicado con tarjetas NIC capaces
de admitir full duplex deben conectarse a puertos que estén configurados para
funcionar en el modo full-duplex.
Los switches Cisco Catalyst
admiten tres configuraciones dúplex:
·
La opción full
establece el modo full-duplex.
·
La opción half
establece el modo half-duplex.
·
La opción auto
establece el modo autonegociación de dúplex. Cuando este modo se encuentra
habilitado, los dos puertos se comunican para decidir el mejor modo de
funcionamiento.
Para los puertos 10/100/1000 y
Fast Ethernet la opción predeterminada es auto. Para los puertos 100BASE-FX, la
opción predeterminada es full. Los puertos 10/100/1000 funcionan tanto en el
modo half-duplex como en el full-duplex cuando se establecen en 10 ó 100 Mb/s,
pero sólo funcionan en el modo full-duplex cuando se establecen en 1000 Mb/s.
MDIX automática:
Además de tener la
configuración de dúplex correcta, también es necesario tener el tipo de cable
adecuado definido para cada puerto. Antes, las conexiones entre dispositivos
específicos, como las conexiones switch a switch, switch a router, switch a
host y router a host, requerían el uso de tipos de cables específicos (de
conexión cruzada o de conexión directa). Ahora, en cambio, la mayoría de los
dispositivos de switch admiten el comando de configuración de interfazmdix auto
en la CLI para habilitar la característica automática de conexión cruzada de
interfaz dependiente del medio (MDIX automática o auto-MDIX).
Métodos de reenvío de tramas en
switches Cisco:
Anteriormente, los switches
solían utilizar uno de los siguientes métodos de reenvío para conmutar datos
entre los puertos de la red:
·
Conmutación por
almacenamiento y envío
·
Conmutación por
método de corte
En este tipo de conmutación,
cuando el switch recibe la trama la almacena en los búferes de datos hasta
recibir la trama en su totalidad. Durante el proceso de almacenamiento, el
switch analiza la trama para buscar información acerca de su destino. En este
proceso, el switch también lleva a cabo una verificación de errores utilizando
la porción del tráiler de comprobación de redundancia cíclica (CRC) de la trama
de Ethernet.
La CRC utiliza una fórmula
matemática, basada en la cantidad de bits (1) de la trama, para determinar si
ésta tiene algún error. Después de confirmar la integridad de la trama, ésta se
envía desde el puerto correspondiente hasta su destino. Cuando se detecta un
error en la trama, el switch la descarta. El proceso de descarte de las tramas
con errores reduce la cantidad de ancho de banda consumido por datos dañados.
Conmutación por método de corte:
En este tipo de conmutación, el
switch actúa sobre los datos apenas los recibe, incluso si la transmisión aún
no se ha completado. El switch recopila en el búfer sólo la información
suficiente de la trama como para leer la dirección MAC de destino y así
determinar a qué puerto debe reenviar los datos. La dirección MAC de destino se
encuentra en los primeros 6 bytes de la trama después del preámbulo. El switch
busca la dirección MAC de destino en su tabla de conmutación, determina el
puerto de la interfaz de salida y reenvía la trama a su destino mediante el
puerto de switch designado.
El switch no lleva a cabo
ninguna verificación de errores en la trama. Dado que el switch no tiene que
esperar que la trama se almacene de manera completa en el búfer y que no
realiza ninguna verificación de errores, la conmutación por método de corte es
más rápida que la de almacenamiento y envío. No obstante, al no llevar a cabo
ninguna verificación de errores, el switch reenvía tramas dañadas a través de
la red. Las tramas dañadas consumen ancho de banda mientras se reenvían. Al
final, la NIC de destino descarta las tramas dañadas.
A continuación, se presentan
dos variantes de la conmutación por método de corte:
·
Conmutación por
envío rápido: este tipo de conmutación ofrece el nivel más bajo de latencia. La
conmutación por envío rápido reenvía el paquete inmediatamente después de leer
la dirección de destino. Como la conmutación por envío rápido comienza a
reenviar el paquete antes de haberlo recibido en forma completa, es probable
que a veces los paquetes se entreguen con errores. Esto ocurre con poca
frecuencia y el adaptador de red de destino descarta los paquetes defectuosos
en el momento de su recepción. En el modo de envío rápido, la latencia se mide
desde el primer bit recibido hasta el primer bit transmitido. La conmutación
por envío rápido es el típico método de corte.
·
Conmutación libre
de fragmentos: en este método, el switch almacena los primeros 64 bytes de la
trama antes de hacer el reenvío. Este tipo de conmutación se puede definir como
un punto intermedio entre la conmutación por almacenamiento y envío y la
conmutación por método de corte.
El motivo por el cual la conmutación
libre de fragmentos almacena sólo los primeros 64 bytes de la trama es que la
mayoría de los errores y las colisiones de la red se producen en esos primeros
64 bytes. El método de conmutación libre de fragmentos intenta mejorar la
conmutación por envío rápido mediante una pequeña verificación de errores en
los primeros 64 bytes de la trama, a fin de asegurar que no se hayan producido
colisiones antes de reenviar la trama. La conmutación libre de fragmentos es un
punto intermedio entre el alto nivel de latencia y la gran integridad que
ofrece la conmutación por almacenamiento y envío, y el bajo nivel de latencia y
la integridad reducida que brinda la conmutación por envío rápido.
Algunos switches se configuran
para realizar una conmutación por método de corte por puerto hasta llegar a un
umbral de error definido por el usuario y luego cambian la conmutación al modo
de almacenamiento y envío. Si el índice de error está por debajo del umbral, el
puerto vuelve automáticamente a la conmutación por método de corte.
Almacenamiento en búfer de memoria en switches:
Un switch Ethernet puede usar
una técnica de bufferes para almacenar tramas antes de enviarlas. El
almacenamiento en buffers también puede utilizarse cuando el puerto de destino
está ocupado debido a una congestión. El switch almacena la trama hasta el
momento en que pueda transmitirse.
Existen dos métodos de
almacenamiento en búfer de memoria: el método basado en puerto y el de memoria
compartida.
Búfer de memoria basada en
puerto:
En el búfer de memoria basado
en puerto, las tramas se almacenan en colas conectadas a puertos de entrada y
de salida específicos. Una trama se transmite al puerto de salida una vez que
todas las tramas que están delante de ella en la cola se hayan transmitido con éxito.
Es posible que una sola trama retarde la transmisión de todas las tramas
almacenadas en la memoria debido al tráfico del puerto de destino. Este retraso
se produce aunque las demás tramas puedan transmitirse a puertos de destino
abiertos.
Almacenamiento en búfer de
memoria compartida:
El búfer de memoria compartida
deposita todas las tramas en un búfer de memoria común que comparten todos los
puertos del switch. La cantidad de memoria de búfer que requiere un puerto se
asigna de forma dinámica. Las tramas en el búfer se vinculan de forma dinámica
al puerto de destino. Esto permite que se pueda recibir el paquete por un
puerto y se pueda transmitir por otro puerto, sin tener que colocarlo en otra
cola.
El switch conserva un mapa de
enlaces de trama a puerto que indica dónde debe transmitirse el paquete. El
enlace del mapa se elimina una vez que la trama se ha transmitido con éxito. La
cantidad de tramas almacenadas en el búfer se encuentra limitada por el tamaño
del búfer de memoria en su totalidad y no se limita a un solo búfer de puerto.
Esto permite la transmisión de tramas más amplias y que se descarte una menor
cantidad de ellas. Esto es muy importante para la conmutación asimétrica.
La conmutación asimétrica
permite diferentes velocidades de datos en diferentes puertos. Esto permite que
se dedique más ancho de banda a ciertos puertos, como un puerto conectado a un
servidor.
Comparación de conmutación de capa 2 y conmutación de capa 3
Recuerde que los switches LAN
de capa 2 llevan a cabo los procesos de conmutación y filtrado solo según la
dirección MAC de la capa de enlace de datos (capa 2) del modelo OSI y dependen
de los routers para pasar datos entre subredes IP independientes.
un switch de capa 3, como el
Catalyst 3560, funciona de manera similar a un switch de capa 2, como el
Catalyst 2960, pero en lugar de utilizar solo la información de la dirección
MAC de la capa 2 para las decisiones de reenvío, los switches de capa 3 también
pueden utilizar la información de la dirección IP. En lugar de aprender qué
direcciones MAC están vinculadas con cada uno de sus puertos, el switch de Capa
3 puede también conocer qué direcciones IP están relacionadas con sus
interfaces. Esto permite que el switch de capa 3 también dirija el tráfico a
través de la red sobre la base de la información de la dirección IP.
Los switches de Capa 3 son
también capaces de llevar a cabo funciones de enrutamiento de Capa 3, con lo
cual se reduce la necesidad de colocar routers dedicados en una LAN.
Cisco Express Forwarding
Los dispositivos Cisco que
admiten conmutación de capa 3 utilizan Cisco Express Forwarding (CEF). Este
método de reenvío es muy complejo, pero afortunadamente, como sucede con todas
las buenas tecnologías, gran parte de lo que sucede se produce “detrás de
escena”. Por lo general, CEF requiere muy poca configuración en los
dispositivos Cisco.
Los dos componentes principales
de la operación de CEF son los siguientes:
·
Base de
información de reenvío (FIB)
·
Tablas de adyacencia
La FIB es conceptualmente
similar a una tabla de enrutamiento.
Con CEF, la información que
antes se almacenaba en la caché de la ruta se almacena ahora en varias
estructuras de datos para la conmutación CEF. Las estructuras de datos
proporcionan búsquedas optimizadas para un reenvío de paquetes eficaz. Los
dispositivos de red utilizan la tabla de búsqueda de FIB para tomar decisiones
de conmutación basadas en el destino sin tener que acceder a la caché de la
ruta.
La FIB se actualiza cuando se
producen cambios en la red y contiene todas las rutas conocidas hasta ese
momento. La tabla de adyacencia mantiene las direcciones de siguiente salto de
la capa 2 para todas las entradas de FIB.
La
tabla de adyacencia se puede crear independientemente de la tabla FIB, lo que
permite que ambas se creen sin que haya paquetes en proceso de conmutación.
La reescritura del encabezado
MAC utilizada para reenviar paquetes no se almacena en las entradas de caché,
por lo tanto, los cambios en una cadena de reescritura de encabezado MAC no
requiere la invalidación de las entradas de caché.
CEF está habilitado de manera
predeterminada en la mayoría de los dispositivos Cisco que realizan conmutación
de capa 3.
Tipos de interfaces de capa 3
Las interfaces de capa 3 son
aquellas que admiten el reenvío de paquetes IP a un destino final sobre la base
de la dirección IP.
Los principales tipos de
interfaces de capa 3 son los siguientes:
·
Interfaz virtual
de switch (SVI): interfaz lógica en un switch asociado a una red de área local
virtual (VLAN).
·
Puerto enrutado:
puerto físico en un switch de capa 3 configurado para funcionar como puerto de
router.
·
EtherChannel de
capa 3: interfaz lógica en dispositivos Cisco asociada a un conjunto de puertos
enrutados.
Como se mostró anteriormente,
se debe habilitar una SVI para la VLAN predeterminada (VLAN1) a fin de
proporcionar conectividad de host IP al switch y permitir la administración
remota del switch. También se deben configurar SVI para permitir el
enrutamiento entre redes VLAN.
Como ya se mencionó, las SVI
son interfaces lógicas configuradas para VLAN específicas; para crear una ruta
entre dos o más redes VLAN, cada VLAN debe tener habilitada una SVI
independiente.
Los puertos enrutados permiten
que los switches Cisco (de capa 3) funcionen como routers de manera eficaz.
Cada puerto de un switch tal se puede configurar como puerto en una red IP
independiente.
Los EtherChannels de capa 3 se
utilizan para agrupar enlaces de Ethernet de capa 3 entre dispositivos Cisco
para agregar ancho de banda, por lo general en uplinks.
Configuración de un puerto enrutado en un switch de capa 3
Un puerto de switch se puede configurar para
que funcione como puerto enrutado de capa 3 y se comporte como una interfaz de
router normal. Las características específicas de un puerto enrutado son las
siguientes:
·
No está relacionado con una VLAN determinada.
·
Se puede configurar con un protocolo de enrutamiento de capa 3.
·
Es una interfaz de capa 3 únicamente, y no admite el protocolo de
capa 2.
Configure los puertos enrutados
colocando la interfaz en modo de capa 3 con el comando de configuración de
interfaz no switchport. A continuación, asigne una dirección IP al puerto. Eso
es todo.
Capítulo 6: Capa de Red:
Los protocolos de la capa de
red del modelo OSI especifican el direccionamiento y los procesos que permiten
empaquetar y transportar los datos de la capa de transporte. La encapsulación
de la capa de red permite transmitir los datos a un destino dentro de la red (o
de otra red) con una sobrecarga mínima.
La capa de red, o la capa 3 de
OSI, proporciona servicios que permiten que los dispositivos finales
intercambien datos a través de la red. Para lograr este transporte de extremo a
extremo, la capa de red utiliza cuatro procesos básicos:
·
Direccionamiento
de dispositivos finales: de la misma manera en que un teléfono tiene un número
telefónico único, los dispositivos finales deben configurarse con una dirección
IP única para su identificación en la red. Un dispositivo final con una
dirección IP configurada se denomina “host”.
·
Encapsulación: la
capa de red recibe una unidad de datos del protocolo (PDU) de la capa de
transporte. En un proceso denominado “encapsulación”, la capa de red agrega la
información del encabezado IP, como la dirección IP de los hosts de origen
(emisor) y de destino (receptor). Una vez que se agrega la información de
encabezado a la PDU, esta se denomina “paquete”.
·
Enrutamiento: la
capa de red proporciona servicios para dirigir los paquetes a un host de
destino en otra red. Para que el paquete se transfiera a otras redes, lo debe
procesar un router. La función del router es seleccionar las rutas para los
paquetes y dirigirlos hacia el host de destino en un proceso conocido como
“enrutamiento”.
·
Un paquete puede
cruzar muchos dispositivos intermediarios antes de llegar al host de destino.
Cada ruta que toma el paquete para llegar al host de destino se denomina
“salto”.
·
Desencapsulación:
cuando un paquete llega a la capa de red del host de destino, el host revisa el
encabezado IP del paquete. Si la dirección IP de destino en el encabezado
coincide con su propia dirección IP, se elimina el encabezado IP del paquete.
Este proceso de eliminación de encabezados de las capas inferiores se conoce
como “desencapsulación”. Una vez que la capa de red desencapsula el paquete, la
PDU de capa 4 que se obtiene como resultado se transfiere al servicio
correspondiente en la capa de transporte.
Los protocolos de la capa de
red especifican la estructura y el procesamiento de paquete que se utilizan
para transportar los datos desde un host hasta otro.
Existen varios protocolos de
capa de red; sin embargo, solo los dos que se incluyen a continuación se
implementan con frecuencia, como se muestra en la ilustración:
·
Protocolo de
Internet versión 4 (IPv4)
·
Protocolo de
Internet versión 6 (IPv6)
Características de IP:
IP se diseñó como protocolo con
baja sobrecarga. Provee sólo las funciones necesarias para enviar un paquete
desde un origen a un destino a través de un sistema interconectado de redes. El
protocolo no fue diseñado para rastrear ni administrar el flujo de paquetes. De
ser necesarias, otros protocolos en otras capas llevan a cabo estas funciones.
Las características básicas del
protocolo IP son las siguientes:
·
Sin conexión: no
se establece ninguna conexión con el destino antes de enviar los paquetes de
datos.
·
Máximo esfuerzo
(no confiable): la entrega de paquetes no está garantizada.
·
Independiente de
los medios: la operación es independiente del medio que transporta los datos.
Sin conexión:
La función de la capa de red es
transportar paquetes entre los hosts colocando la menor carga posible en la
red. La capa de red no se ocupa ni está al tanto del tipo de comunicación
contenida dentro de un paquete. IP es un protocolo sin conexión, lo que
significa que no se crea ninguna conexión dedicada de extremo a extremo antes
de enviar los datos. Conceptualmente, la comunicación sin conexión es similar a
enviar una carta a alguien sin notificar al destinatario con anticipación
IP es un protocolo sin conexión
y, por lo tanto, no requiere ningún intercambio inicial de información de
control para establecer una conexión de extremo a extremo antes de reenviar los
paquetes. Además, tampoco requiere campos adicionales en el encabezado de la
unidad de datos del protocolo (PDU) para mantener una conexión establecida.
Máximo esfuerzo de entrega:
A menudo, el protocolo IP se
describe como un protocolo no confiable o de máximo esfuerzo de entrega. Esto
no significa que IP a veces funcione bien y a veces funcione mal, ni que sea un
protocolo de comunicación de datos deficiente. “No confiable” significa
simplemente que IP no tiene la capacidad de administrar paquetes no entregados
o dañados ni de recuperar datos de estos. Esto se debe a que los paquetes IP se
envían con información sobre la ubicación de entrega, pero no contienen
información que se pueda procesar para informar al emisor si la entrega se
realizó correctamente. No se incluyen datos de sincronización en el encabezado
del paquete para realizar un seguimiento del orden de entrega de los paquetes.
Con el protocolo IP, tampoco hay acuses de recibo de la entrega de los paquetes
ni datos de control de errores que permitan realizar un seguimiento de si los
paquetes se entregaron sin daños. Los paquetes pueden llegar al destino dañado
o fuera de secuencia, o pueden no llegar en absoluto. De acuerdo con la
información proporcionada en el encabezado IP, no hay capacidad de
retransmisión de paquetes si se producen errores como estos.
Si los paquetes faltantes o que
no funcionan generan problemas para la aplicación que usa los datos, los
servicios de las capas superiores, como TCP, deben resolver estos problemas.
Esto permite que el protocolo IP funcione de forma muy eficaz. Si se incluyera
la sobrecarga de confiabilidad en IP, las comunicaciones que no requieren
conexión o confiabilidad se cargarían con el consumo de ancho de banda y la
demora producidos por esta sobrecarga. En la suite TCP/IP, la capa de
transporte puede utilizar el protocolo TCP o UDP, según la necesidad de
confiabilidad en la comunicación. Dejar que la capa de transporte decida sobre
la confiabilidad hace que el protocolo IP se adapte y se acomode mejor a los
distintos tipos de comunicación.
Independiente de los medios:
IP funciona con independencia
de los medios que transportan los datos en las capas inferiores del stack de
protocolos. Como se muestra en la figura, cualquier paquete IP individual puede
ser comunicado eléctricamente por cable, como señales ópticas por fibra, o sin
cables como señales de radio.
Es responsabilidad de la capa
de enlace de datos del modelo OSI tomar un paquete IP y prepararlo para
transmitirlo a través del medio de comunicación. Esto significa que el
transporte de paquetes IP no está limitado a un medio en particular.
Sin embargo, existe una característica
importante de los medios que la capa de red tiene en cuenta: el tamaño máximo
de la PDU que cada medio puede transportar. Esta característica se denomina
“unidad máxima de transmisión” (MTU). Parte de la comunicación de control entre
la capa de enlace de datos y la capa de red consiste en establecer el tamaño
máximo para el paquete. La capa de enlace de datos pasa el valor de MTU a la
capa de red. A continuación, la capa de red determina cuán grandes pueden ser
los paquetes.
En algunos casos, un
dispositivo intermediario, generalmente un router, debe dividir un paquete
cuando lo reenvía de un medio a otro con una MTU más pequeña. A este proceso se
lo llama fragmentación de paquetes o fragmentación.
Encapsulación de IP:
El protocolo IP encapsula o
empaqueta el segmento de la capa de transporte agregando un encabezado IP. Este
encabezado se utiliza para entregar el paquete al host de destino. El
encabezado IP permanece en su lugar desde el momento en que el paquete abandona
la capa de red del host de origen hasta que llega a la capa de red del host de
destino.
El proceso de encapsulación de
datos capa por capa permite el desarrollo y el escalamiento de los servicios de
las diferentes capas sin afectar otras capas. Esto significa que el protocolo
IPv4 o IPv6, o cualquier protocolo nuevo que se desarrolle en el futuro, pueden
empaquetar fácilmente los segmentos de la capa de transporte.
Los routers pueden implementar
estos diferentes protocolos de capa de red para operar al mismo tiempo en una
red desde y hacia el mismo host o hosts diferentes. El enrutamiento que
realizan estos dispositivos intermediarios solo tiene en cuenta el contenido
del encabezado del paquete que encapsula el segmento. En todos los casos, la
porción de datos del paquete, es decir, la PDU de la capa de transporte
encapsulada, no se modifica durante los procesos de la capa de red.
Encabezado de paquetes IPv4:
IPv4 se utiliza desde 1983,
IPv4, que continua siendo el protocolo de capa de red que más se utiliza.
Los paquetes IPV4 tienen dos
partes:
· Encabezado IP: identifica
las características del paquete.
·
Contenido: contiene la información del segmento de capa 4 y los
datos propiamente dichos.
Los campos importantes del
encabezado de IPv4 incluyen los siguientes:
·
Versión: contiene
un valor binario de 4 bits que identifica la versión del paquete IP. Para los
paquetes IPv4, este campo siempre se establece en 0100.
·
Servicios
diferenciados (DS): anteriormente denominado “Tipo de servicio” (ToS), se trata
de un campo de 8 bits que se utiliza para determinar la prioridad de cada
paquete. Los primeros 6 bits identifican el valor del Punto de código de
servicios diferenciados (DSCP), utilizado por un mecanismo de calidad de
servicio (QoS). Los últimos 2 bits identifican el valor de Notificación
explícita de congestión (ECN), que se puede utilizar para evitar que los
paquetes se descarten durante momentos de congestión de la red.
·
Tiempo de vida
(TTL): contiene un valor binario de 8 bits que se utiliza para limitar la vida
útil de un paquete. Se especifica en segundos, pero comúnmente se denomina
“conteo de saltos”.
El
emisor del paquete establece el valor inicial de tiempo de vida (TTL), el que
disminuye un punto por cada salto, es decir, cada vez que el paquete es
procesado por un router. Si el campo TTL disminuye a cero, el router descarta
el paquete y envía un mensaje del protocolo de mensajes de control de Internet
(ICMP) de Tiempo superado a la dirección IP de origen. El comando
tracerouteutiliza este campo para identificar los routers utilizados entre el
origen y el destino.
·
Protocolo: este
valor binario de 8 bits indica el tipo de contenido de datos que transporta el
paquete, lo que permite que la capa de red pase los datos al protocolo de capa
superior correspondiente. Los valores comunes incluyen ICMP (1), TCP (6) y UDP
(17).
·
Dirección IP de
origen: contiene un valor binario de 32 bits que representa la dirección IP de
origen del paquete.
·
Dirección IP de
destino: contiene un valor binario de 32 bits que representa la dirección IP de
destino del paquete.
Es posible que un router deba
fragmentar un paquete cuando lo reenvía de un medio a otro que tiene una MTU
más pequeña. Cuando esto sucede, se produce una fragmentación, y el paquete
IPV4 utiliza los siguientes campos para llevar a cabo un seguimiento de los
fragmentos:
·
Identificación: este campo de 16 bits identifica de forma
exclusiva el fragmento de un paquete IP original.
·
Indicadores: este campo de 3 bits identifica cómo se fragmenta el
paquete. Se utiliza con los campos Desplazamiento de fragmentos e
Identificación para ayudar a reconstruir el paquete original con el fragmento.
·
Desplazamiento de
fragmentos: este campo de 13 bits identifica el orden en que se debe colocar el
fragmento del paquete en la reconstrucción del paquete original sin fragmentar.
Las mejoras que proporciona IPv6 incluyen lo siguiente:
·
Mayor espacio de direcciones: las direcciones IPv6 se basan en un
direccionamiento jerárquico de 128 bits, mientras que en IPv4 es de 32 bits. El
número de direcciones IP disponibles aumenta drásticamente.
·
Mejora del manejo de los paquetes: el encabezado de IPv6 se
simplificó con menos campos. Esto mejora el manejo de paquetes por parte de los
routers intermediarios y también proporciona compatibilidad para extensiones y
opciones para aumentar la escalabilidad y la duración.
·
Eliminación de la necesidad de NAT: con tal cantidad de
direcciones IPv6 públicas, no se necesita traducción de direcciones de red
(NAT).
·
Seguridad integrada: IPv6 admite capacidades de autenticación y
privacidad de forma nativa. Con IPv4, se debían implementar características
adicionales para este fin.
El espacio de direcciones IP
versión 6 proporciona 340 282 366 920 938 463 463 374 607 431 768 211 456, o
340 sextillones de direcciones, lo que equivale a aproximadamente todos los
granos de arena de la Tierra.
El encabezado de IPv4 consta de
20 octetos (hasta 60 bytes si se utiliza el campo Opciones) y 12 campos de
encabezado básicos, sin incluir los campos Opciones y Relleno.
El encabezado de IPv6 consta de
40 octetos (en gran medida, debido a la longitud de las direcciones IPv6 de
origen y de destino) y 8 campos de encabezado (3 campos de encabezado IPv4
básicos y 5 campos de encabezado adicionales).
El encabezado de IPv6
simplificado ofrece varias ventajas respecto de IPv4:
·
Mayor eficacia de
enrutamiento para un buen rendimiento y una buena escalabilidad de velocidad de
reenvío.
·
Sin requisito de
procesamiento de checksums.
·
Mecanismos de
encabezado de extensión simplificados y más eficaces (en comparación con el
campo Opciones de IPv4).
·
Un campo
Identificador de flujo para procesamiento por flujo, sin necesidad de abrir el
paquete interno de transporte para identificar los distintos flujos de tráfico.
Los paquetes IPv6 también
pueden contener encabezados de extensión (EH), que proporcionan información
optativa de la capa de red. Los EH se utilizan para realizar la fragmentación,
aportar seguridad, admitir la movilidad, y más.
IPv6 tiene muchos menos campos
que un encabezado de IPv4. Esto hace que el encabezado de IPv6 sea más fácil y
más rápido de procesar para el router. Debido al mayor tamaño de las
direcciones IPv6, de 128 bits, se utiliza el sistema de numeración hexadecimal
para simplificar la representación de las direcciones. En las direcciones IPv6,
se utilizan dos puntos para separar las entradas en una serie de bloques
hexadecimales de 16 bits.
Otra función de la capa de red
es dirigir los paquetes entre los hosts. Un host puede enviar un paquete:
·
A sí mismo: en
este caso, se utiliza una dirección IP especial, 127.0.0.1, que se denomina
“interfaz loopback”. Esta dirección de loopback se asigna automáticamente a un
host cuando se ejecuta TCP/IP. La capacidad de un host de enviarse un paquete a
sí mismo mediante la funcionalidad de la red resulta útil para realizar pruebas.
Cualquier dirección IP dentro de la red 127.0.0.0/8 se refiere al host local.
Gateway predeterminado:
El gateway predeterminado es el
dispositivo que enruta el tráfico desde la red local hacia los dispositivos en
las redes remotas. Si el host envía un paquete a un dispositivo en otra red IP,
debe reenviar el paquete al gateway predeterminado a través del dispositivo
intermediario.
El gateway predeterminado, que
en general es un router, mantiene una tabla de enrutamiento. Una tabla de
enrutamiento es un archivo de datos que se encuentra en la RAM y que se utiliza
para almacenar información de la ruta sobre la red conectada directamente, así
como las entradas de redes remotas descubiertas por el dispositivo. El router
utiliza la información en la tabla de enrutamiento para determinar cuál es el
mejor camino para llegar a esos destinos.
¿Cómo decide un host si debe o
no debe reenviar paquetes al gateway predeterminado? Los hosts deben poseer una
tabla de enrutamiento local propia para asegurarse de que los paquetes de la
capa de red se dirijan a la red de destino correcta. La tabla local del host
generalmente contiene lo siguiente:
·
Conexión directa:
se trata de una ruta a la interfaz loopback (127.0.0.1).
·
Ruta de red
local: la red a la cual está conectado el host se completa automáticamente en
la tabla de enrutamiento del host.
·
Ruta
predeterminada local: La dirección de gateway predeterminado es la dirección IP
de la interfaz de red del router que está conectada a la red local.
Es importante observar que la
ruta predeterminada y, por lo tanto, el gateway predeterminado, se utilizan
solo cuando un host debe reenviar paquetes a una red remota. No se requieren,
ni es necesario configurarlos, si solo se envían paquetes a dispositivos en la
red local.
Tabla de enrutamiento de host IPv4:
En un host de Windows, se
pueden utilizar los comandos route print o netstat -r para ver la tabla de
enrutamiento del host. Los dos comandos provocan al mismo resultado. Al
principio, los resultados pueden parecer abrumadores, pero son bastante fáciles
de entender.
Al introducir el comando
netstat -r o su equivalente, route print, se ven tres secciones relacionadas
con las conexiones de red TCP/IP actuales:
·
Lista de
interfaces: enumera las direcciones de control de acceso al medio (MAC) y el
número de interfaz asignado de cada interfaz con capacidad de red en el host,
incluidos los adaptadores Ethernet, Wi-Fi y Bluetooth.
·
Tabla de rutas
IPv4: enumera todas las rutas IPv4 conocidas, incluidas las conexiones
directas, las rutas de red locales y las rutas predeterminadas locales.
·
Tabla de rutas
IPv6: enumera todas las rutas IPv6 conocidas, incluidas las conexiones
directas, las rutas de red locales y las rutas predeterminadas locales.
En la ilustración, se muestra
la sección de la tabla de rutas IPv4 de los resultados. Observe que los
resultados se dividen en cinco columnas que identifican lo siguiente:
·
Destino de red: enumera las redes que se pueden alcanzar.
·
Máscara de red: incluye una máscara de subred que le indica al
host cómo determinar las porciones de red y de host de la dirección IP.
·
Puerta de acceso: indica la dirección que utiliza la PC local para
llegar a un destino en una red remota. Si un destino es directamente accesible,
se muestra como “En enlace” en esta columna.
·
Interfaz: indica la dirección de la interfaz física utilizada para
enviar el paquete al gateway que se emplea para llegar al destino de red.
·
Métrica: indica el costo de cada ruta y se utiliza para determinar
la mejor ruta a un destino.
0.0.0.0 es la ruta predeterminada local. Todos los
paquetes con destinos que no coincidan con otras direcciones especificadas en
la tabla de enrutamiento se reenvían al gateway.
127.0.0.0-127.255.255.255 son las direcciones
de loopback se relacionan con la conexión directa y proporcionan servicios al
host local.
192.168.10.0 – 192.168.10.255
estas direcciones se relacionan con el host y la red local.
224.0.0.0 direcciones multicast
de clase D especiales reservadas para usar mediante la interfaz loopback
(127.0.0.1) o la dirección IP del host (192.168.10.10).
255.255.255.255 estas son las
últimas dos direcciones representan los valores de direcciones IP de broadcast
limitado para usar mediante la interfaz loopback (127.0.0.1) o la dirección IP
del host (192.168.10.10). Estas direcciones se pueden utilizar para buscar un
servidor de DHCP antes de que se determine la dirección IP local.
Tabla de enrutamiento de host IPv6 de muestra (291)
El comando netstat – r para mostrar los
siguientes destinos de red:
·
::/0: equivalente en IPv6 a la ruta predeterminada local.
·
::1/128: equivale a la dirección de loopback IPv4 y proporciona
servicios al host local.
·
2001::/32: prefijo de red unicast global.
·
2001:0:9d38:953c:2c30:3071:e718:a926/128:dirección IPv6 unicast
global de la PC local.
·
fe80::/64: dirección de la ruta de red de enlace local, que
representa todas las PC en la red IPv6 de enlace local.
·
fe80::2c30:3071:e718:a926/128: dirección IPv6 link-local de la PC
local.
·
ff00::/8: direcciones multicast de clase D especiales y reservadas
que equivalen a las direcciones IPv4 224.x.x.x.
Nota: en general, las
interfaces en IPv6 tienen dos direcciones IPv6: una dirección link-local y una
dirección unicast global.
Decisión de reenvío de paquetes del router:
¿Qué sucede cuando un paquete
llega a una interfaz del router? El router examina la tabla de enrutamiento
para determinar adónde reenviar los paquetes.
La tabla de enrutamiento de un router
almacena información sobre lo siguiente:
·
Rutas conectadas directamente: estas rutas provienen de las
interfaces del router activas. Los routers agregan una ruta conectada
directamente cuando se configura una interfaz con una dirección IP y se activa.
Cada
·
Rutas remotas: estas rutas provienen de las redes remotas
conectadas a otros routers. El administrador de red puede configurar las rutas
a estas redes de forma manual en el router local, o estas se pueden configurar
de forma dinámica habilitando al router local para que intercambie información
de enrutamiento con otros routers mediante protocolos de enrutamiento dinámico.
Nota tablas en enrutamiento:
Cuando un paquete llega a la interfaz del
router, este examina el encabezado del paquete para determinar la red de
destino. Si la red de destino coincide con una ruta de la tabla de enrutamiento,
el router reenvía el paquete utilizando la información especificada en la
tabla.
Si hay dos o más rutas posibles
hacia el mismo destino, se utiliza la métrica para decidir qué ruta aparece en
la tabla de enrutamiento.
Entradas de tabla de enrutamiento de red conectada directamente:
Origen de la ruta:
El origen de la ruta se rotula como “A” en la
ilustración. Identifica el modo en que se descubrió la ruta. Las interfaces
conectadas directamente tienen dos códigos de origen de la ruta.
·
C: identifica una red conectada directamente. Las redes conectadas
directamente se crean de forma automática cuando se configura una interfaz con
una dirección IP y se activa.
·
L: identifica que la ruta es link-local. Las redes link-local se
crean de forma automática cuando se configura una interfaz con una dirección IP
y se activa.
Red de destino:
La red de destino se rotula
como “B” en la ilustración. Identifica la dirección de la red remota.
Interfaz de salida:
La interfaz de salida se rotula
como “C” en la ilustración. Identifica la interfaz de salida que se debe
utilizar al reenviar paquetes a la red de destino.
Los códigos comunes para las
redes remotas incluyen lo siguiente:
·
S: indica que un
administrador creó la ruta manualmente para llegar a una red específica. Esto
se conoce como “ruta estática”.
·
D: indica que la
ruta se obtuvo de forma dinámica de otro router mediante el protocolo de
enrutamiento de gateway interior mejorado (EIGRP).
·
O: indica que la
ruta se obtuvo de forma dinámica de otro router mediante el protocolo de
enrutamiento Open Shortest Path First (OSPF).
Entradas de tabla de enrutamiento de red remota:
·
Origen de la ruta: identifica el modo en que se descubrió la ruta.
·
Red de destino: identifica la dirección de la red remota.
·
Distancia administrativa: identifica la confiabilidad del origen
de la ruta.
·
Métrica: identifica el valor asignado para llegar a la red remota.
Los valores más bajos indican las rutas preferidas.
·
Siguiente salto: identifica la dirección IP del router siguiente
para reenviar el paquete.
·
Marca de hora de la ruta: identifica cuándo fue la última
comunicación con la ruta.
·
Interfaz de salida: identifica la interfaz de salida que se debe
utilizar para reenviar un paquete hacia el destino final.
Dirección Next-Hop:
Un router de siguiente salto es
el gateway a las redes remotas. Las redes conectadas directamente a un router
no tienen dirección de siguiente salto, porque los routers pueden reenviar los
paquetes en forma directa a los hosts en esas redes mediante la interfaz
designada. De la misma manera en que un host puede utilizar un gateway
predeterminado para reenviar un paquete a un destino desconocido, un router
también se puede configurar para que utilice una ruta estática predeterminada
para crear un gateway de último recurso.
Tabla de enrutamiento de router IPv4 de muestra:
Suponga que la PC1 con la dirección IP
192.168.10.10 desea enviar un paquete a otro host en la misma red. La PC1
revisaría la tabla de rutas IPv4 según la dirección IP de destino. Luego, la
PC1 descubriría que el host está en la misma red y, simplemente, lo enviaría
por su interfaz (En enlace).
Nota: el R1 no participa en la
transferencia del paquete. Si la PC1 reenvía un paquete a cualquier red que no
sea su red local, debe utilizar los servicios del router R1 y reenviar el
paquete a su ruta predeterminada local (192.168.10.1)
Memoria del router:
Los routers tienen acceso a
cuatro tipos de memoria: RAM, ROM, NVRAM y flash.
·
Cisco IOS: el IOS se copia en la RAM durante el arranque.
·
Archivo de configuración en ejecución: este es el archivo de
configuración que almacena los comandos de configuración que el IOS del router
utiliza actualmente. También se conoce como “running-config”.
·
Tabla de enrutamiento IP
·
Caché ARP: esta caché contiene la asignación de direcciones IPv4 a
direcciones MAC y es similar a la caché de protocolo de resolución de
direcciones (ARP) de una PC.
·
Búfer de paquetes: los paquetes se almacenan temporalmente en un
búfer cuando se reciben en una interfaz o antes de salir por una.
ROM:
Los routers Cisco usan la
memoria ROM para almacenar lo siguiente:
·
Instrucciones de arranque: proporcionan las instrucciones de
inicio.
·
Software de diagnóstico básico: realiza el autodiagnóstico al
encender (POST) de todos los componentes.
·
IOS limitado: proporciona una versión limitada de respaldo del OS,
en caso de que el router no pueda cargar el IOS con todas las funciones.
NVRAM
·
El Cisco IOS usa la NVRAM como almacenamiento permanente para el
archivo de configuración de inicio (startup-config). Al igual que la ROM, la
NVRAM no pierde el contenido cuando se apaga el dispositivo.
Memoria
Flash
·
La memoria flash es memoria de PC no volátil que se utiliza como
almacenamiento permanente para el IOS y otros archivos relacionados con el
sistema. El IOS se copia de la memoria flash a la RAM durante el proceso de
arranque.
Archivos Bootset:
·
Archivo de imagen de IOS: el IOS facilita el funcionamiento básico
de los componentes de hardware del dispositivo. El archivo de imagen de IOS se
almacena en la memoria flash.
·
Archivo de configuración de inicio: el archivo de configuración de
inicio incluye los comandos que se utilizan para realizar la configuración
inicial de un router y crear el archivo de configuración en ejecución
almacenado en la RAM.
Cuando se realizan
cambios al archivo running-config, este se debe guardar en la NVRAM como
archivo de configuración de inicio, en caso de que el router se reinicie o se
apague.
Proceso de arranque del router;
El proceso de arranque consta de tres fases
principales:
1. Llevar a cabo el POST y cargar el programa
bootstrap.
2. Localizar y cargar el software Cisco IOS.
3. Localizar y cargar el archivo de
configuración de inicio o ingresar al modo Setup.
1. Llevar a cabo el POST y cargar el programa
bootstrap (figura 2)
La tarea principal del
programa bootstrap es ubicar al Cisco IOS y cargarlo en la RAM.
Por lo general, el IOS
se almacena en la memoria flash y se copia en la RAM para que lo ejecute la
CPU. Durante la auto descompresión del archivo de imagen de IOS, se muestra una
cadena de símbolos de almohadilla (#).
Resultado de show versión:
Este comando muestra
información sobre la versión del software Cisco IOS que se encuentra en
ejecución en el router, la versión del programa bootstrap y datos sobre la
configuración de hardware, incluida la cantidad de memoria del sistema.
Versión de IOS, Programa bootstrap en la ROM, Ubicación del
IOS, CPU y cantidad de RAM, Interfaces, Cantidad de memeoria NVRAM y Flash, la NVRAM se utiliza para almacenar
el archivo startup-config y la flash se utiliza para almacenar Cisco IOS
de forma permanente.
Notas de
configuraciones:
Si bien no es necesario, es
aconsejable configurar una descripción en cada interfaz para ayudar a registrar
la información de la red. El texto de la descripción tiene un límite de 240
caracteres. En las redes de producción, una descripción puede ser útil para la
resolución de problemas, dado que suministra información con respecto al tipo
de red a la que está conectada la interfaz y si hay otros routers en esa red.
Si la interfaz se conecta a un ISP o un proveedor de servicios de telefonía
móvil, resulta útil introducir la información de contacto y de conexión de
dichos terceros.
Puede verificar la conectividad
desde la interfaz mediante el comando ping. Los routers Cisco envían cinco
pings consecutivos y miden los tiempos de ida y vuelta mínimos, medios y
máximos. Los signos de exclamación verifican la conectividad.
show
ip route : muestra el contenido de la tabla de enrutamiento IPv4 almacenada en
la RAM.
show
interfaces - muestra estadísticas de todas las interfaces del dispositivo.
show ip interface : muestra las
estadísticas de IPv4 de todas las interfaces de un router.
Gateway predeterminado:
El gateway predeterminado se
utiliza solo cuando el host desea enviar un paquete a un dispositivo en otra
redTodos los dispositivos que requieren el uso de un router utilizan un gateway
predeterminado para precisar el mejor camino hacia un destino remoto. Sin
embargo, si dispositivos de otra red deben acceder al switch, este se debe
configurar con una dirección de gateway predeterminado, ya que los paquetes que
se originan en el switch se manejan como los paquetes que se originan en un
dispositivo host. Por lo tanto, los paquetes que se originan en el switch y
están destinados a un dispositivo en la misma red se reenvían directamente al dispositivo
apropiado.
Un concepto erróneo frecuente
es que el switch utiliza la dirección de gateway predeterminado configurada
para determinar adónde reenviar los paquetes que se originan en los hosts
conectados al switch y que están destinados a los hosts en una red remota. En
realidad, la información de dirección IP y de gateway predeterminado solo se
utiliza para los paquetes que se originan en el switch. Los paquetes que se
originan en los hosts conectados al switch ya deben tener configurada la información
de gateway predeterminado para comunicarse en redes remotas.
MiniResumen Capa de Red:
Para lograr este transporte de
extremo a extremo, la capa de red utiliza cuatro procesos básicos: el
direccionamiento IP para dispositivos finales, la encapsulación, el
enrutamiento y la desencapsulación. Las direcciones IPv6 se basan en un
direccionamiento jerárquico de 128 bits, mientras que en IPv4 es de 32 bits.
Además del direccionamiento
jerárquico, la capa de red también es responsable del enrutamiento.
Los hosts requieren una tabla
de enrutamiento local para asegurarse de que los paquetes se dirijan a la red
de destino correcta. Por lo general, la tabla local de un host contiene la
conexión directa, la ruta de red local y la ruta predeterminada local. La ruta
predeterminada local es la ruta al gateway predeterminado.
Si el router tiene una entrada
para la red de destino en la tabla de enrutamiento, reenvía el paquete. Si no
existe ninguna entrada de enrutamiento, es posible que el router reenvíe el
paquete a su propia ruta predeterminada, si hay una configurada. En caso
contrario, descartará el paquete.
Capa de Transporte:
La capa de transporte prepara
los datos para transmitirlos a través de la red. La capa de transporte incluye
también las siguientes funciones:
·
Permite que
varias aplicaciones, como el envío de correo electrónico y las redes sociales,
se puedan comunicar a través la red al mismo tiempo en un único dispositivo.
·
Asegura que, si
es necesario, la aplicación correcta reciba todos los datos con confianza y en
orden.
·
Emplea mecanismos
de manejo de errores.
La capa de transporte es responsable
de establecer una sesión de comunicación temporal entre dos aplicaciones y de
transmitir datos entre ellas. La capa de transporte permite la segmentación de
datos y proporciona el control necesario para rearmar estos segmentos en los
distintos streams de comunicación.
Rastreo de conversaciones individuales
En la capa de transporte, cada
conjunto de datos particular que fluye entre una aplicación de origen y una de
destino se conoce como “conversación”. Un host puede tener varias aplicaciones
que se comunican a través de la red de forma simultánea. Es responsabilidad de
la capa de transporte mantener y hacer un seguimiento de todas estas
conversaciones
Segmentación de datos y rearmado de segmentos
Se deben preparar los datos
para el envío a través de los medios en partes manejables. Los protocolos de la
capa de transporte tienen servicios que segmentan los datos de aplicación en
bloques de datos de un tamaño apropiado. En el destino, la capa de transporte
debe poder reconstruir las porciones de datos en un stream de datos completo
que sea útil para la capa de aplicación.
Identificación de aplicaciones
Puede haber muchas aplicaciones
o servicios que se ejecutan en cada host de la red. Para pasar streams de datos
a las aplicaciones adecuadas, la capa de transporte debe identificar la
aplicación objetivo (figura 3). Para lograr esto, la capa de transporte asigna
un identificador a cada aplicación. Este identificador se denomina “número de
puerto”.
A todos los procesos de
software que requieran acceder a la red se les asigna un número de puerto
exclusivo en ese host. La capa de transporte utiliza puertos para identificar
la aplicación o el servicio.
Multiplexación de conversaciones:
En la ilustración, se muestra
que la segmentación de los datos en partes más pequeñas permite que se
entrelacen (multiplexen) varias comunicaciones de distintos usuarios en la
misma red. Para identificar cada segmento de datos, la capa de transporte
agrega al segmento un encabezado que contiene datos binarios. Este encabezado
contiene campos de bits. Los valores de estos campos permiten que los distintos
protocolos de la capa de transporte lleven a cabo diferentes funciones de
administración de la comunicación de datos.
Confiabilidad de la capa de transporte:
Las diferentes aplicaciones
tienen diferentes requisitos de confiabilidad de transporte. Los protocolos de
transporte especifican la manera en que se transfieren los mensajes entre los
hosts. TCP/IP proporciona dos protocolos de la capa de transporte: TCP y UDP
TCP
TCP se considera un protocolo
de transporte confiable, lo que significa que incluye procesos para garantizar
la entrega confiable entre aplicaciones mediante el uso de entrega con acuse de
recibo.
Con TCP, las tres operaciones
básicas de confiabilidad son las siguientes:
·
Seguimiento de
segmentos de datos transmitidos
·
Acuse de recibo
de datos
·
Retransmisión de
cualquier dato sin acuse de recibo
TCP divide el mensaje en partes
pequeñas, conocidas como segmentos. Los segmentos se numeran en secuencia y se
pasan al proceso IP para armarse en paquetes. TCP realiza un seguimiento del
número de segmentos que se enviaron a un host específico desde una aplicación
específica. Si el emisor no recibe un acuse de recibo antes del transcurso de
un período determinado, supone que los segmentos se perdieron y los vuelve a
transmitir. Sólo se vuelve a enviar la parte del mensaje que se perdió, no todo
el mensaje. En el host receptor, TCP se encarga de rearmar los segmentos del
mensaje y de pasarlos a la aplicación.
Estos procesos de confiabilidad
generan una sobrecarga adicional en los recursos de la red debido a los
procesos de acuse de recibo, rastreo y retransmisión.
UDP
UDP proporciona solo las
funciones básicas para entregar segmentos de datos entre las aplicaciones
adecuadas, con muy poca sobrecarga y revisión de datos. El protocolo UDP se
conoce como protocolo de entrega de máximo esfuerzo. En el contexto de redes,
la entrega de máximo esfuerzo se denomina “poco confiable”, porque no hay acuse
de recibo que indique que los datos se recibieron en el destino. Con UDP, no
existen procesos de capa de transporte que informen al emisor si la entrega se
produjo correctamente.
Tanto TCP como UDP son
protocolos de transporte válidos. Según los requisitos de la aplicación, se
puede utilizar uno de estos protocolos de transporte y, en ocasiones, se pueden
utilizar ambos.
Presentación de TCP
TCP proporciona lo siguiente:
Conversaciones
orientadas a la conexión mediante el establecimiento de sesiones
·
Entrega confiable
·
Reconstrucción de
datos ordenada
·
Control del flujo
Establecimiento de una sesión
TCP es un protocolo orientado a
la conexión. Un protocolo orientado a la conexión es uno que negocia y
establece una conexión (o sesión) permanente entre los dispositivos de origen y
de destino antes de reenviar tráfico. Los dispositivos negocian la cantidad de
tráfico que se puede reenviar en un momento determinado, la sesión se termina
solo cuando se completa toda la comunicación
Entrega confiable
TCP puede asegurar que todas
las partes lleguen a destino al hacer que el dispositivo de origen retransmita
los datos perdidos o dañados.
Entrega en el mismo orden
Los datos pueden llegar en el
orden equivocado, debido a que las redes pueden proporcionar varias rutas que
pueden tener diferentes velocidades de transmisión. Al numerar y secuenciar los
segmentos, TCP puede asegurar que estos se rearmen en el orden correcto.
Control de flujo
Los hosts de la red cuentan con
recursos limitados, como memoria o ancho de banda. Cuando TCP advierte que
estos recursos están sobrecargados, puede solicitar que la aplicación emisora
reduzca la velocidad del flujo de datos. Esto lo lleva a cabo TCP, que regula
la cantidad de datos que transmite el origen. El control de flujo puede evitar
la pérdida de segmentos en la red y evitar la necesitad de la retransmisión.
Rol del TCP:
Debido a la capacidad de TCP de
hacer un seguimiento de conversaciones reales, se lo considera un protocolo con
estado. Un protocolo con estado es un protocolo que realiza el seguimiento del
estado de la sesión de comunicación. TCP genera sobrecarga adicional para
obtener estas funciones. Como se muestra en la ilustración, cada segmento TCP
tiene 20 bytes de sobrecarga en el encabezado que encapsula los datos de la
capa de aplicación.
Número
de secuencia (32 bits): se utiliza para rearmar datos.
·
Número de acuse
de recibo (32 bits): indica los datos que se recibieron.
·
Longitud del
encabezado (4 bits): conocido como “desplazamiento de datos”. Indica la
longitud del encabezado del segmento TCP.
·
Reservado (6
bits): este campo está reservado para el futuro.
·
Bits de control
(6 bits): incluye códigos de bit, o indicadores, que indican el propósito y la
función del segmento TCP.
·
Tamaño de la
ventana (16 bits): indica la cantidad de segmentos que se puedan aceptar por
vez.
·
Checksum (16
bits): se utiliza para la verificación de errores en el encabezado y los datos
del segmento.
·
Urgente (16
bits): indica si la información es urgente.
Presentación de UDP:
UDP se considera un protocolo
de transporte de máximo esfuerzo las siguientes características describen a
UDP:
Sin
conexión: UDP no establece una conexión entre los hosts antes de que se puedan
enviar y recibir datos.
·
Entrega no
confiable: UDP no proporciona servicios para asegurar que los datos se
entreguen con confianza. UDP no cuenta con procesos que hagan que el emisor
vuelva a transmitir los datos que se pierden o se dañan.
·
Reconstrucción de
datos no ordenada: Los datos simplemente se entregan a la aplicación en el
orden en que llegan.
·
Sin control del
flujo: UDP no cuenta con mecanismos para controlar la cantidad de datos que
transmite el dispositivo de origen para evitar la saturación del dispositivo de
destino. El origen envía los datos. Si los recursos en el host de destino se
sobrecargan, es probable que dicho host descarte los datos enviados hasta que los
recursos estén disponibles. A diferencia de TCP, en UDP no hay un mecanismo
para la retransmisión automática de datos descartados.
Rol del UDP
Las porciones de comunicación
en UDP se llaman datagramas. UDP es un protocolo sin estado, lo cual significa
que ni el cliente ni el servidor están obligados a hacer un seguimiento del
estado de la sesión de comunicación.
Nota: Tanto TCP como UDP
cuentan con campos de encabezado que pueden identificar de manera exclusiva
estas aplicaciones. Estos identificadores únicos son números de puertos. Una
aplicación que utiliza UDP debe tolerar el hecho de que los datos no lleguen en
el orden en el que fueron enviados.
Direccionamiento de puertos TCP y UDP:
La combinación de las
direcciones IP de origen y de destino y de los números de puerto de origen y de
destino se conoce como “socket”. El socket se utiliza para identificar el
servidor y el servicio que solicita el cliente. Miles de hosts se comunican a
diario con millones de servidores diferentes. Los sockets identifican esas
comunicaciones.
Un socket de cliente puede ser
parecido a esto, donde 1099 representa el número de puerto de origen:
192.168.1.5:1099
El socket en un servidor Web
podría ser el siguiente: 192.168.1.7:80
Juntos, estos dos sockets se
combinan para formar un par de sockets: 192.168.1.5:1099, 192.168.1.7:80
Los sockets permiten que los
procesos múltiples que se ejecutan en un cliente se distingan entre sí. También
permiten la diferenciación de múltiples conexiones a un proceso de servidor.
El puerto de origen de la
solicitud de un cliente se genera de manera aleatoria. El número de puerto
actúa como dirección de retorno para la aplicación que realiza la solicitud. La
capa de transporte hace un seguimiento de este puerto y de la aplicación que
generó la solicitud de manera que cuando se devuelva una respuesta, esta se
envíe a la aplicación correcta.
·
Puertos bien
conocidos (números del 0 al 1023):
·
Puertos bien
conocidos (números del 0 al 1023):
·
Puertos dinámicos
o privados (números 49152 a 65535)
El puerto dinámico suele
utilizarse para identificar la aplicación cliente durante la comunicación,
mientras que el cliente utiliza el puerto bien conocido para identificar el
servicio que se solicita en el servidor y conectarse a dicho servicio.
Establecimiento y finalización de la conexión TCP:
El primer enlace solicita la sincronización.
El segundo enlace acusa recibo de la solicitud de sincronización inicial y
sincroniza los parámetros de conexión en la dirección opuesta. El tercer
segmento de enlace es un acuse de recibo que se utiliza para informarle al
destino que ambos lados están de acuerdo en que se estableció una conexión.
Cuando dos hosts se comunican
utilizando TCP, se establece una conexión antes de que puedan intercambiarse
los datos. Luego de que se completa la comunicación, se cierran las sesiones y
la conexión finaliza.
Enlace de tres vías TCP
Los tres pasos en el establecimiento de una
conexión TCP son:
Paso 1. El cliente de origen solicita una
sesión de comunicación de cliente a servidor con el servidor.
Paso 2. El servidor acusa
recibo de la sesión de comunicación de cliente a servidor y solicita una sesión
de comunicación de servidor a cliente.
Paso 3. El cliente de origen
acusa recibo de la sesión de comunicación de servidor a cliente.
Dentro del encabezado del segmento TCP,
existen seis campos de 1 bit que contienen información de control utilizada
para gestionar los procesos de TCP. Estos campos son los siguientes:
·
URG: campo indicador urgente importante
·
ACK: campo de acuse de recibo importante
·
PSH: función de empuje
·
RST: restablecer la conexión
·
SYN: sincronizar números de secuencia
·
FIN: no hay más datos del emisor
Los campos ACK y SYN son
importantes para el análisis del protocolo de enlace de tres vías.
Pasos a Detalle:
1-Un cliente TCP inicia un
protocolo de enlace de tres vías al enviar un segmento con el indicador de
control de sincronizar números de secuencia (SYN) establecido. Este valor
inicial para el número de secuencia, conocido como número de secuencia inicial
(ISN), se elige de manera aleatoria y se utiliza para comenzar a rastrear el
flujo de datos de esta sesión desde el cliente hasta el servidor.
2-El servidor envía un segmento
al cliente con el indicador de acuse de recibo (ACK) establecido. El valor del
campo de número de acuse de recibo es igual al ISN más 1. Esto establece una
sesión del cliente al servidor. El indicador ACK permanece establecido para
mantener el equilibrio de la sesión. El servidor debe iniciar la respuesta al
cliente. Establece el señalizador de control SYN en el encabezado para
establecer una sesión del servidor al cliente.
3-Por último, el cliente TCP
responde con un segmento que contiene un ACK que actúa como respuesta al SYN de
TCP enviado por el servidor. Una vez que se establecen ambas sesiones entre el
cliente y el servidor, todos los segmentos adicionales que se intercambian en
esta comunicación tendrán establecido el indicador ACK.
Se puede añadir seguridad a la red de datos
de la siguiente manera:
·
Denegar el establecimiento de sesiones del TCP
·
Permitir sólo sesiones que se establezcan para servicios
específicos
·
Permitir sólo tráfico como parte de sesiones ya establecidas
Para cerrar una conexión, se
debe establecer el indicador de control finalizar (FIN) en el encabezado del
segmento. Para finalizar todas las sesiones TCP de una vía, se utiliza un
enlace de dos vías, que consta de un segmento FIN y un segmento ACK.
Paso 1: cuando el cliente no tiene más datos
para enviar en el stream, envía un segmento con el indicador FIN establecido.
Paso 2: el servidor envía un ACK para acusar
recibo del FIN y terminar la sesión de cliente a servidor.
Paso 3: el servidor envía un FIN al cliente
para terminar la sesión de servidor a cliente.
Paso 4: el cliente responde con
un ACK para dar acuse de recibo del FIN desde el servidor.
También es posible terminar la
conexión por medio de un enlace de tres vías. Cuando el cliente no posee más
datos para enviar, envía un señalizador FIN al servidor. Si el servidor tampoco
tiene más datos para enviar, puede responder con los señalizadores FIN y ACK,
combinando dos pasos en uno. A continuación, el cliente responde con un ACK.
Confiabilidad de TCP: entrega ordenada - Reordenamiento de
segmentos:
Cuando los servicios
envían datos mediante el TCP, los segmentos pueden llegar a su destino en
desorden. Para que el receptor comprenda el mensaje original, los datos en
estos segmentos se reensamblan en el orden original. Para lograr esto, se
asignan números de secuencia en el encabezado de cada paquete. (número de
secuencia inicial (ISN)). A medida que se transmiten los datos durante la
sesión, el número de secuencia se incrementa en el número de bytes que se han
transmitido. Este seguimiento de bytes de datos permite identificar y dar acuse
de recibo de cada segmento de manera exclusiva. Se pueden identificar segmentos
perdidos.
TCP: reconocimiento y tamaño de la ventana - Confirmación de recepción
de segmentos:
El número de secuencia
(SEQ) y el número de acuse de recibo (ACK) se utilizan juntos para confirmar la
recepción de los bytes de datos contenidos en los segmentos transmitidos. El
número de SEQ indica la cantidad relativa de bytes que se transmitieron en esta
sesión, incluso los bytes en el segmento actual.
Recuerde que cada conexión son realmente dos
sesiones de una vía. Los números de SEQ y ACK se intercambian en ambas
direcciones. En el ejemplo de la figura, el host de la izquierda envía datos al
host de la derecha. Envía un segmento que contiene 10 bytes de datos para esta
sesión y un número de secuencia igual a 1 en el encabezado.
El host receptor recibe el segmento en la
capa 4 y determina que el número de secuencia es 1 y que tiene 10 bytes de
datos. Luego el host envía un segmento de vuelta al host de la izquierda para
acusar recibo de estos datos. En este segmento, el host establece el número de
ACK en 11 para indicar que el siguiente byte de datos que espera recibir en
esta sesión es el byte número 11. Cuando el host emisor recibe este acuse de
recibo, puede enviar el próximo segmento que contiene datos para esta sesión a
partir del byte 11.
La cantidad de datos que
un origen puede transmitir antes de recibir un acuse de recibo se denomina
“tamaño de la ventana”, que es un campo en el encabezado TCP que permite
administrar datos perdidos y controlar el flujo.
Confiabilidad de TCP: pérdida y retransmisión de datos - Manejo de
segmentos perdidos
Un servicio de host de destino
que utiliza TCP generalmente sólo da acuse de recibo de datos para bytes de
secuencia continuos. Si faltan uno o más segmentos, solo se hace acuse de
recibo de los datos en la primera secuencia contigua de bytes. Por ejemplo, si
se reciben segmentos con números de secuencia de 1500 a 3000 y de 3400 a 3500,
el número de ACK sería 3001. Esto se debe a que hay segmentos con números de
SEQ de 3001 a 3399 que no se recibieron.
Cuando el TCP en el host
de origen no recibe un acuse de recibo después de una cantidad de tiempo
predeterminada, este vuelve al último número de ACK recibido y vuelve a
transmitir los datos desde ese punto en adelante.
Un host puede transmitir un segmento, colocar una copia del
segmento en una cola de retransmisión e iniciar un temporizador. Cuando se
recibe el acuse de recibo de los datos, se elimina el segmento de la cola. Si
no se recibe el acuse de recibo antes de que el temporizador venza, el segmento
es retransmitido. En la actualidad, los hosts pueden emplear también una
característica optativa llamada “acuses de recibo selectivos” (SACK). Si ambos
hosts admiten los SACK, es posible que el destino acuse recibo de los bytes de
segmentos discontinuos, y el host solo necesitará volver a transmitir los datos
perdidos.
Control del flujo de TCP: tamaño de la ventana y acuses de recibo - Control de
flujo
El control del flujo permite
mantener la confiabilidad de la transmisión de TCP mediante el ajuste de la
velocidad del flujo de datos entre el origen y el destino para una sesión dada.
El control del flujo se logra limitando la cantidad de segmentos de datos que
se envían al mismo tiempo y solicitando acuses de recibo antes de enviar más
segmentos.
Para lograr el control del
flujo, lo primero que determina TCP es la cantidad de segmentos de datos que
puede aceptar el dispositivo de destino. El encabezado TCP incluye un campo de
16 bits llamado “tamaño de la ventana”. Esta es la cantidad de bytes que el
dispositivo de destino de una sesión TCP puede aceptar y procesar al mismo
tiempo. El tamaño inicial de la ventana se acuerda durante el inicio de sesión
entre el origen y el destino por medio del protocolo de enlace de tres vías.
Una vez acordado el tamaño, el dispositivo de origen debe limitar la cantidad
de segmentos de datos enviados al dispositivo de destino sobre la base del
tamaño de la ventana. El dispositivo de origen puede continuar enviando más
datos para la sesión solo cuando obtiene un acuse de recibo de los segmentos de
datos recibidos.
Durante el retraso en la
recepción del acuse de recibo, el emisor no envía ningún otro segmento. La
disminución de velocidad en la transmisión de datos de cada sesión ayuda a
reducir el conflicto de recursos en la red y en el dispositivo de destino
cuando se ejecutan varias sesiones. TCP utiliza tamaños de ventana para tratar
de aumentar la velocidad de transmisión hasta el flujo máximo que la red y el
dispositivo de destino pueden admitir y, al mismo tiempo, minimizar las
pérdidas y las retransmisiones.
Control del flujo de TCP: prevención de congestiones - Reducción del
tamaño de la ventana
Otra forma de controlar el
flujo de datos es utilizar tamaños de ventana dinámicos. Esto reduce de forma
efectiva la velocidad de transmisión porque el origen espera que se de acuse de
recibo de los datos con más frecuencia. Si el destino necesita disminuir la
velocidad de comunicación debido, por ejemplo, a una memoria de búfer limitada,
puede enviar un valor más pequeño del tamaño de la ventana al origen como parte
del acuse de recibo.
Después de un período de
transmisión sin pérdidas de datos ni recursos limitados, el receptor comienza a
aumentar el campo de la ventana, lo que reduce la sobrecarga en la red, ya que
se deben enviar menos acuses de recibo. El tamaño de la ventana sigue
aumentando hasta que se produce la pérdida de datos, lo que provoca que
disminuya el tamaño de la ventana.
Comparación de baja sobrecarga y confiabilidad de UDP
Algunas aplicaciones, como los
juegos en línea o VoIP, pueden tolerar cierta pérdida de datos. Si estas
aplicaciones utilizaran TCP, experimentarían largas demoras, ya que TCP detecta
la pérdida de datos y los retransmite. Estas demoras serían más perjudiciales
para el rendimiento de la aplicación que las pequeñas pérdidas de datos. Algunas
aplicaciones, como DNS, simplemente reintentan el envío de la solicitud si no
reciben ninguna respuesta; por lo tanto, no necesitan que TCP garantice la
entrega de mensajes. La baja sobrecarga del UDP es deseada por dichas
aplicaciones.
Reensamblaje de datagramas de UDP:
Se dice que UDP está basado en las transacciones; es decir,
cuando una aplicación tiene datos para enviar, simplemente los envía. La PDU
del UDP se conoce como un “datagrama”, aunque los términos “segmento” y
“datagrama” se utilizan algunas veces de forma intercambiable para describir
una PDU de la capa de transporte. UDP simplemente reensambla los datos en el
orden en que se recibieron y los envía a la aplicación.
Procesos y solicitudes del servidor
UDP:
Cuando UDP recibe un datagrama destinado a uno de esos
puertos, envía los datos de aplicación a la aplicación adecuada en base a su
número de puerto.
Aplicaciones que utilizan TCP:
TCP maneja todas las tareas asociadas con la segmentación
del stream de datos, la confiabilidad, el control del flujo y el reordenamiento
de segmentos, este libera a la aplicación de la tarea de administrar cualquiera
de estas tareas.
algunos ejemplos de
aplicaciones bien conocidas que utilizan TCP incluyen las siguientes:
·
Protocolo de
transferencia de hipertexto (HTTP)
·
Protocolo de
transferencia de archivos (FTP)
·
Protocolo simple
de transferencia de correo (SMTP)
·
Telnet
Existen tres tipos de
aplicaciones que son las más adecuadas para UDP:
·
Aplicaciones que
pueden tolerar cierta pérdida de datos, pero requieren retrasos cortos o que no
haya retrasos
·
Aplicaciones con
transacciones de solicitud y respuesta simples
·
Comunicaciones
unidireccionales donde no se requiere confiabilidad o donde la aplicación la
pueda administrar
Algunas aplicaciones se ocupan
de la confiabilidad por sí mismas. Estas aplicaciones no necesitan los
servicios de TCP y pueden utilizar mejor UDP como protocolo de capa de
transporte. TFTP es un ejemplo de este tipo de protocolo. TFTP tiene sus propios
mecanismos para el control del flujo, la detección de errores, los acuses de
recibo y la recuperación de errores. Este protocolo no necesita depender de TCP
para esos servicios.
MiniResumen:
UDP y TCP son protocolos de la
capa de transporte comunes.
Los datagramas de UDP y los
segmentos TCP tienen encabezados que se agregan delante de los datos, los
cuales incluyen un número de puerto de origen y un número de puerto de destino.
Estos números de puerto permiten que los datos se dirijan a la aplicación correcta
que se ejecuta en la computadora de destino.
El TCP pasa datos a la red
hasta que conoce el destino y está listo para recibirlo. Luego TCP administra
el flujo de datos y reenvía todos los segmentos de datos de los que recibió
acuse a medida que se reciben en el destino. TCP utiliza mecanismos de enlace,
temporizadores, mensajes de acuse de recibo y control del flujo mediante
mecanismo ventana dinámico para lograr la confiabilidad.
El proceso de confiabilidad,
sin embargo, impone una sobrecarga en la red en términos de encabezados de
segmentos mucho más grandes y más tráfico de la red entre el origen y el
destino.
Si se deben entregar los datos
de aplicación a través de la red de manera rápida, o si el ancho de banda de la
red no admite la sobrecarga de mensajes de control que se intercambian entre
los sistemas de origen y destino, UDP es el protocolo de la capa de transporte
preferido por los desarrolladores.
Capítulo 8: Asignación de direcciones
IP
Las PC se comunican mediante datos binarios. Para traducir
esas letras, la PC utiliza el Código Estadounidense Estándar para el
Intercambio de Información (ASCII). Para la mayoría de las personas, una cadena
de 32 bits es difícil de interpretar e incluso más difícil de recordar. Por
este motivo, representamos las direcciones IPv4 mediante el formato decimal
punteado en lugar del binario. Esto significa que vemos a cada byte (octeto)
como número decimal en el rango de 0 a 255.
Sistema de
numeración binaria
En el sistema de numeración binaria la raíz
es 2. Por lo tanto, cada posición representa aumentos en potencias de 2. En
números binarios de 8 bits, las posiciones representan estas cantidades:
2^7 2^6 2^5 2^4 2^3 2^2 2^1 2^0
128
64 32 16 8 4 2 1
Porción de red y porción de host de
una dirección IPv4:
Recuerde que una dirección IP
es una dirección jerárquica que consta de dos partes: una porción de red y una
porción de host. Dentro del stream de 32
bits, una parte de los bits constituye la red y una porción de los bits
constituye el host. ¿Pero cómo saben los
hosts qué porción de los 32 bits es red y qué porción es host? Esa tarea le
corresponde a la máscara de subred.
Cuando
se configura un host IP, se asigna una máscara de subred junto con una
dirección IP. Como sucede con la dirección IP, la máscara de subred tiene una
longitud de 32 bits. La máscara de subred identifica qué parte de la dirección
IP corresponde a la red y cuál al host.
Los 1 en la máscara de subred representan la porción de red,
los 0 representan la porción de host. La máscara de subred se configura en un
dispositivo host, junto con la dirección IPv4, y es necesaria para que el host
pueda determinar a qué red pertenece.
La duración de prefijo es otra forma de expresar la máscara
de subred. La duración de prefijo es la cantidad de bits establecidos en 1 en
la máscara de subred. Se escribe en “notación con barras”, una “/” seguida de
la cantidad de bits establecidos en 1. Por ejemplo, si la máscara de subred es
255.255.255.0, hay 24 bits establecidos en 1 en la versión binaria de la
máscara de subred, de modo que la duración de prefijo es 24 bits o /24. El
prefijo y la máscara de subred son diferentes formas de representar lo mismo,
la porción de red de una dirección.
Direcciones de red, de host y de broadcast IPv4
Hay tres tipos de direcciones dentro del
rango de direcciones de cada red IPv4:
·
Dirección de red
·
Dirección de host
·
Dirección de broadcast
Dirección de
red
La
dirección de red es una manera estándar de hacer referencia a una red. Al
referirse a la dirección de red, también es posible utilizar la máscara de
subred o la duración de prefijo. Por ejemplo, la red que se muestra en la
figura 1 podría indicarse como la red 10.1.1.0, la red 10.1.1.0 255.255.255.0 o
la red 10.1.1.0/24. Todos los hosts en la red 10.1.1.0/24 tendrán los mismos
bits de porción de red.
Dirección de host
En direcciones IPv4, los valores entre la dirección de red y
la dirección de broadcast se pueden asignar a los dispositivos finales en una
red.
Dirección de
broadcast
La dirección de broadcast IPv4 es una dirección especial para
cada red que permite la comunicación a todos los host en esa red. Para enviar
datos a todos los hosts en una red a la vez, un host puede enviar un único paquete dirigido a la dirección de broadcast de la
red, y cada host en la red que recibe este paquete procesa su contenido.
La
dirección de broadcast utiliza la dirección más alta en el rango de la red.
Ésta es la dirección en la cual los bits de la porción de host son todos 1.
Primera y última dirección de host
Para
asegurarse de que a todos los hosts en una red se les asigne una dirección IP
única dentro de ese rango de red, es importante identificar la primera y la
última dirección de host. Se pueden asignar direcciones IP dentro de este rango
a los hosts dentro de una red. Esta dirección es siempre un número mayor
que la dirección de red. En este ejemplo, la primera dirección de host en la
red 10.1.1.0/24 es 10.1.1.1.
Última
dirección de host
La
porción de host de la última dirección de host contiene todos bits 1, con un
bit 0 que representa el bit de orden más bajo o el bit que está más a la
derecha. Esta dirección es siempre una menos que la dirección de broadcast..
Operación AND bit a bit
Al enviar datos de red, el dispositivo utiliza esta
información para determinar si puede enviar paquetes localmente o si debe
enviarlos a un gateway predeterminado para la entrega remota. Cuando un host
envía un paquete, compara la porción de red de su propia dirección IP con la
porción de red de la dirección IP de destino, sobre la base de las máscaras de
subred.
Si los bits de la red coinciden, tanto el
host de origen como el de destino se encuentran en la misma red, y el paquete
puede ser enviado localmente. Si no coinciden, el host emisor reenvía el
paquete al gateway predeterminado para que se envíe a otra red.
La operación
AND
AND
es una de las tres operaciones binarias básicas que se utilizan en la lógica
digital. Las otras dos son OR y NOT. AND se usa para determinar la
dirección de red.
La lógica AND es la comparación
de dos bits que produce los siguientes resultados:
1 AND 1 = 1
0 AND 1 = 0
0 AND 0 = 0
1 AND 0 = 0
Se aplica la lógica AND a la dirección de host IPv4, bit a
bit, con su máscara de subred, para determinar la dirección de red a la cual se
asocia el host. Cuando se aplica esta lógica AND bit a bit entre la dirección y
la máscara de subred, el resultado que se produce es la dirección de red.
Direccionamiento
estático y dinámico.
El direccionamiento estático tiene varias ventajas. Por
ejemplo, es útil para impresoras, servidores y otros dispositivos de red que no
suelen cambiar la ubicación y que deben ser accesibles para los clientes en la
red sobre la base de una dirección IP fija. Si los hosts normalmente acceden a
un servidor en una dirección IP en particular, esto provocaría problemas si se
cambiara esa dirección. Además, la asignación estática de información de
direccionamiento puede proporcionar un mayor control de los recursos de red.
En lugar de que el administrador de red asigne direcciones
IP para cada estación de trabajo, es más simple que las direcciones IP se
asignen automáticamente. Esto se realiza mediante un protocolo conocido como
Protocolo de configuración dinámica de host (DHCP)
La configuración del servidor de DHCP requiere que se
utilice un bloque de direcciones, denominado “conjunto de direcciones”, para la
asignación a los clientes DHCP en una red. Las direcciones asignadas a este
conjunto deben planificarse de modo que excluyan cualquier dirección estática
que utilicen otros dispositivos.
Transmisión de unidifusión
En una red IPv4, los hosts
pueden comunicarse de una de tres maneras:
·
Unicast: proceso
por el cual se envía un paquete de un host a un host individual.
·
Broadcast:
proceso por el cual se envía un paquete de un host a todos los hosts en la red.
·
Multicast:
proceso por el cual se envía un paquete de un host a un grupo seleccionado de
hosts, posiblemente en redes distintas.
En la comunicación unicast, las
direcciones asignadas a dos dispositivos finales se usan como las direcciones
IPv4 de origen y de destino. Las direcciones de host IPv4 son direcciones
unicast y se encuentran en el rango de direcciones de 0.0.0.0 a
223.255.255.255.
Transmisión de broadcast
El tráfico de broadcast se
utiliza para enviar paquetes a todos los hosts en la red usando la dirección de
broadcast para la red. Para broadcast, el paquete contiene una dirección IP de
destino con todos unos (1) en la porción de host. Esto significa que todos los
hosts de esa red local (dominio de broadcast) recibirán y verán el paquete.
Muchos protocolos de red, como DHCP, utilizan broadcasts.
Algunos ejemplos para utilizar
una transmisión de broadcast son:
·
Asignar
direcciones de capa superior a direcciones de capa inferior
·
Solicitar una
dirección
·
A diferencia de
unicast, donde los paquetes pueden ser enrutados por toda la internetwork, los
paquetes de broadcast normalmente se restringen a la red local.
Existen dos tipos de
broadcasts: broadcast dirigido y broadcast limitado.
Broadcast dirigido
Un broadcast dirigido se envía
a todos los hosts de una red específica. Este tipo de broadcast es útil para
enviar un broadcast a todos los hosts de una red local.
Broadcast limitado
El broadcast limitado se usa
para la comunicación que está limitada a los hosts en la red local. Estos
paquetes siempre utilizan la dirección IPv4 de destino 255.255.255.255.
Los routers no reenvían
broadcasts limitados. Por esta razón, también se hace referencia a una red IPv4
como un dominio de broadcast. Los routers son dispositivos fronterizos para un
dominio de broadcast.
Cuando se transmite un paquete, utiliza recursos en la red y
hace que cada host receptor en la red procese el paquete. Por lo tanto, el
tráfico de broadcast debe limitarse para que no afecte negativamente el
rendimiento de la red o de los dispositivos. Debido a que los routers separan
dominios de broadcast, subdividir las redes con tráfico de broadcast excesivo
puede mejorar el rendimiento de la red.
Transmisión de multicast
La transmisión de multicast está diseñada para conservar el
ancho de banda de las redes IPv4. Reduce el tráfico al permitir que un host
envíe un único paquete a un conjunto seleccionado de hosts que forman parte de
un grupo multicast suscrito.
Algunos ejemplos de transmisión
de multicast son:
·
Transmisiones de
video y de audio
·
Intercambio de
información de enrutamiento por medio de protocolos de enrutamiento
·
Distribución de
software
·
Juegos remooes
Direcciones multicast
IPv4 tiene un bloque de direcciones reservadas para
direccionar grupos multicast. Este rango de direcciones va de 224.0.0.0 a
239.255.255.255. El rango de direcciones multicast está subdividido en
distintos tipos de direcciones: direcciones de enlace local reservadas y
direcciones agrupadas globalmente.
Las direcciones IPv4 multicast de 224.0.0.0 a 224.0.0.255
son direcciones de enlace local reservadas. Estas direcciones se utilizarán con
grupos multicast en una red local.Un uso común de las direcciones de link-local
reservadas se da en los protocolos de enrutamiento usando transmisión multicast
para intercambiar información de enrutamiento.
Las direcciones agrupadas globalmente son de 224.0.1.0 a
238.255.255.255. Se les puede usar para transmitir datos en Internet mediante
multicast. Por ejemplo, se reservó 224.0.1.1 para que el protocolo de hora de
red (NTP) sincronice los relojes con la hora del día de los dispositivos de
red.
Clientes multicast
Cada grupo multicast está representado por una sola dirección
IPv4 de destino multicast. Cuando un host IPv4 se suscribe a un grupo
multicast, el host procesa paquetes dirigidos a esta dirección multicast y
paquetes dirigidos a su dirección unicast asignada exclusivamente.
Los routers que utilizan EIGRP envían paquetes a la
dirección multicast 224.0.0.10, que representa el grupo de routers EIGRP. Si
bien estos paquetes son recibidos por otros dispositivos, todos los
dispositivos (excepto los routers EIGRP) los descartan en la capa 3, sin
requerir otro procesamiento.
Direcciones IPv4 públicas y privadas
Privadas:
·
10.0.0.0 a
10.255.255.255 (10.0.0.0/8)
·
172.16.0.0 a 172.31.255.255 (172.16.0.0/12)
·
192.168.0.0 a 192.168.255.255 (192.168.0.0/16)
En RFC 6598, IANA reservó otro
grupo de direcciones conocidas como “espacio de dirección compartido”. Como
sucede con el espacio de dirección privado definido en RFC 1918, las
direcciones del espacio de dirección compartido no son enrutables globalmente.
Sin embargo, el propósito de
estas direcciones es solamente ser utilizadas en redes de proveedores de
servicios. El bloque de direcciones compartido es 100.64.0.0/10.
Direcciones públicas
Existen determinadas
direcciones que no pueden asignarse a los hosts. También hay direcciones
especiales que pueden asignarse a los hosts, pero con restricciones respecto de
la forma en que dichos hosts pueden interactuar dentro de la red.
Direcciones de red y de
broadcast
Como se explicó anteriormente,
no es posible asignar la primera ni la última dirección a hosts dentro de cada
red. Éstas son, respectivamente, la dirección de red y la dirección de
broadcast.
Loopback
Una de estas direcciones reservadas es la dirección de
loopback IPv4 127.0.0.1. La dirección de loopback es una dirección especial que
los hosts utilizan para dirigir el tráfico hacia ellos mismos.También es
posible hacer ping a la dirección de loopback para probar la configuración de TCP/IP
en el host local.
A pesar de que sólo se usa la dirección única 127.0.0.1, se
reservan las direcciones 127.0.0.0 a 127.255.255.255. Cualquier dirección
dentro de este bloque producirá un loop back al host local. Las direcciones
dentro de este bloque no deben figurar en ninguna red.
Direcciones link-local
Las direcciones IPv4 del bloque
de direcciones que va de 169.254.0.0 a 169.254.255.255 (169.254.0.0/16) se
designan como direcciones link-local. El sistema operativo puede asignar
automáticamente estas direcciones al host local en entornos donde no se dispone
de una configuración IP. Se pueden utilizar en una red punto a punto pequeña o
para un host que no pudo obtener una dirección de un servidor de DHCP
automáticamente.
La comunicación mediante direcciones
link-local IPv4 sólo es adecuada para comunicarse con otros dispositivos
conectados a la misma red, como se muestra en la figura. Un host no debe enviar
un paquete con una dirección de destino link-local IPv4 a ningún router para
ser reenviado, y debería establecer el tiempo de vida (TLL) de IPv4 para estos
paquetes en 1. Las direcciones link-local no proporcionan servicios fuera de la
red local. Sin embargo, muchas aplicaciones de cliente/servidor y punto a punto
funcionarán correctamente con direcciones de enlace local IPv4.
Direcciones TEST-NET
El bloque de direcciones que va de 192.0.2.0 a 192.0.2.255
(192.0.2.0/24) se reserva para fines de enseñanza y aprendizaje. Las
direcciones del bloque que va de 240.0.0.0 a 255.255.255.254 se indican como
reservadas para uso futuro (RFC 3330). En la actualidad, estas direcciones solo
se pueden utilizar para fines de investigación o experimentación, y no se
pueden utilizar en una red IPv4. Sin embargo, según RFC 3330, podrían,
técnicamente, convertirse en direcciones utilizables en el futuro.
Direccionamiento con clase antigua
Eran tamaños específicos clase A (16 millones de direcciones
host), B (65 000 hosts) y C (254 hosts) Para mas info ir a pg403 de ccna1
Direccionamiento sin
clase
El sistema que se utiliza en la actualidad se denomina
“direccionamiento sin clase”. El nombre formal es “enrutamiento entre dominios
sin clase” (CIDR, pronunciado “cider”). El IETF sabía que el CIDR era solo una
solución temporal y que sería necesario desarrollar un nuevo protocolo IP para
admitir el rápido crecimiento de la cantidad de usuarios de Internet. En 1994,
el IETF comenzó a trabajar para encontrar un sucesor de IPv4, que finalmente
fue IPv6.
Niveles del ISP
·
Nivel 1: Estos son grandes ISP a nivel nacional
o internacional que se conectan directamente al backbone de Internet. Los
clientes de ISP de nivel 1 son ISP de menor nivel o grandes compañías y
organizaciones.
·
Nivel 2: Estos
ISP de nivel 2 suelen tener recursos de TI para ofrecer sus propios servicios,
como DNS, servidores de correo electrónico y servidores Web. Otros servicios
ofrecidos por los ISP de nivel 2 pueden incluir desarrollo y mantenimiento de
sitios web, e-commerce/e-business y VoIP. La principal desventaja de los
ISP de nivel 2, comparados con los ISP de nivel 1, es el acceso más lento a
Internet.
·
Nivel 3: Como se
muestra en la figura 3, los ISP de nivel 3 adquieren su servicio de Internet de
los ISP de nivel 2. El objetivo de estos ISP son los mercados minoristas y del
hogar en una ubicación específica. Su necesidad principal es conectividad y
soporte.
Pv6
IPv6 tiene un mayor espacio de
direcciones de 128 bits, lo que proporciona 340 sextillones de direcciones.
Cuando el IETF comenzó el desarrollo de una sucesora de IPv4, utilizó esta
oportunidad para corregir las limitaciones de IPv4 e incluir mejoras
adicionales. Un ejemplo es el protocolo de mensajes de control de Internet
versión 6 (ICPMv6), que incluye la resolución de direcciones y la configuración
automática de direcciones.
El agotamiento del espacio de
direcciones IPv4 fue el factor que motivó la migración a IPv6. El lunes 31 de
enero de 2011, la IANA asignó los últimos dos bloques de direcciones IPv4 /8 a
los registros regionales de Internet (RIR). La NAT tiene limitaciones que
obstaculizan gravemente las comunicaciones punto a punto.
Las técnicas de migración pueden dividirse en
tres categorías:
·
Dual-stack: como se muestra en la figura 1, la técnica dual-stack
permite que IPv4 e IPv6 coexistan en la misma red. Los dispositivos dual-stack
ejecutan stacks de protocolos IPv4 e IPv6 de manera simultánea.
·
Tunneling: es un método para transportar
paquetes IPv6 a través de redes IPv4. El paquete IPv6 se encapsula dentro de un
paquete IPV4, de manera similar a lo que sucede con otros tipos de datos.
·
Traducción: la traducción de direcciones de red
64 (NAT64) permite que los dispositivos con IPv6 habilitado se comuniquen con
dispositivos con IPv4 habilitado mediante una técnica de traducción similar a
la NAT para IPv4. Un paquete IPv6 se traduce en un paquete IPV4, y viceversa.
Así como el sistema de
numeración decimal es un sistema de base diez y el binario es un sistema de
base dos, el sistema hexadecimal es un sistema de base dieciséis. El sistema de
numeración de base 16 utiliza los números del 0 al 9 y las letras de la A a la
F. Existen 16 combinaciones únicas de cuatro bits, de 0000 a 1111. Los binarios
00000000 hasta 11111111 pueden representarse en valores hexadecimales como el
intervalo 00 a FF.
Nota: en lo que respecta a los
caracteres del 0 al 9, es importante distinguir los valores hexadecimales de
los decimales. Por lo general, los valores hexadecimales se representan en
forma de texto mediante el valor precedido por 0x (por ejemplo, 0x73) Sin
embargo, y debido a que el texto en subíndice no es reconocido en entornos de
línea de comando o de programación, la representación técnica de un valor
hexadecimal es precedida de "0x" (cero X).
Las direcciones IPv6 tienen una
longitud de 128 bits y se escriben como una cadena de valores hexadecimales.
Cuatro bits se representan mediante un único dígito hexadecimal, con un total
de 32 valores hexadecimales. Las direcciones IPv6 no distinguen mayúsculas de
minúsculas y pueden escribirse en minúscula o en mayúscula.
IPv6 es que se puede omitir cualquier 0
(cero) inicial en cualquier sección de 16 bits o hexteto. Por ejemplo:
·
01AB puede representarse como 1AB.
·
09F0 puede representarse como 9F0.
·
0A00 puede representarse como A00.
·
00AB puede representarse como AB.
Esta regla solo es válida para
los ceros iniciales, y NO para los ceros finales.
La segunda regla que permite reducir la
notación de direcciones IPv6 es que los dos puntos dobles (::) pueden
reemplazar cualquier cadena única y contigua de uno o más segmentos de 16 bits
(hextetos) compuestos solo por ceros. Los dos puntos dobles (::) se
pueden utilizar solamente una vez dentro de una dirección Esto se suele conocer
como “formato comprimido”.
Existen tres tipos de direcciones IPv6:
·
Unicast: las direcciones IPv6 unicast identifican de forma
exclusiva una interfaz en un dispositivo con IPv6 habilitado.
·
Multicast: las direcciones IPv6 multicast se utilizan para enviar
un único paquete IPv6 a varios destinos.
·
Anycast: Los paquetes enviados a una dirección
anycast se enrutan al dispositivo más cercano que tenga esa dirección. En este
curso, no se analizan las direcciones anycast.
·
A diferencia de IPv4, IPv6 no tiene una dirección de broadcast.
Sin embargo, existe una dirección IPv6 multicast de todos los nodos que brinda
básicamente el mismo resultado.
·
IPv6 no utiliza la
notación decimal punteada de máscara de subred. La duración de prefijo puede ir
de 0 a 128. Una duración de prefijo IPv6 típica para LAN y la mayoría de los
demás tipos de redes es /64.
Direcciones IPv6 unicast
Como sucede con IPv4, las direcciones IPv6 de
origen deben ser direcciones unicast. Las direcciones IPv6 de destino pueden
ser direcciones unicast o multicast.
Existen seis tipos de direcciones IPv6
unicast.
Unicast
global
·
Las direcciones unicast globales pueden configurarse estáticamente
o asignarse de forma dinámica. Existen algunas diferencias importantes con
respecto a la forma en que un dispositivo recibe su dirección IPv6
dinámicamente en comparación con DHCP para IPv4.
·
Las direcciones IPv6 unicast globales son
globalmente únicas y enrutables en Internet IPv6. Estas direcciones son
equivalentes a las direcciones IPv4 públicas.
·
Una dirección unicast global consta de tres partes:
Ø Prefijo de enrutamiento
global: es la porción de prefijo, o de red, de la dirección que asigna
el proveedor ISP a un cliente.
Ø ID de subred: Se usa para identificar
una subred dentro de su ubicación
Ø ID de interfaz : equivale
a la porción de host de una dirección IPv4. Se utiliza el término “ID de
interfaz” debido a que un único host puede tener varias interfaces, cada una
con una o más direcciones IPv6
Los
dispositivos pueden obtener automáticamente una dirección IPv6 unicast global
de dos maneras: Configuración automática de dirección sin estado (SLAAC)
y DHCPv6
Link-local
·
Las direcciones link-local se utilizan para comunicarse con otros
dispositivos en el mismo enlace local. Con IPv6, el término “enlace” hace
referencia a una subred. Las direcciones link-local se limitan a un único
enlace. Su exclusividad se debe confirmar solo para ese enlace, ya que no se
pueden enrutar más allá del enlace. En otras palabras, los routers no reenvían
paquetes con una dirección de origen o de destino link-local.
·
Los protocolos de enrutamiento IPv6 también
utilizan direcciones IPv6 link-local para intercambiar mensajes y como la
dirección del siguiente salto en la tabla de enrutamiento IPv6. Nota: por lo
general, la dirección que se utiliza como gateway predeterminado para los otros
dispositivos en el enlace es la dirección link-local del router, y no la
dirección unicast global
·
La dirección link-local se crea dinámicamente mediante el prefijo
FE80::/10 y la ID de interfaz.
·
De manera predeterminada, los routers en los que se utiliza Cisco
IOS utilizan EUI-64 para generar la ID de interfaz para todas las direcciones
link-local en las interfaces IPv6. Para las interfaces seriales, el router
utiliza la dirección MAC de una interfaz Ethernet.
Loopback
·
Los hosts utilizan la dirección de loopback para enviarse paquetes
a sí mismos, y esta dirección no se puede asignar a una interfaz física. Al
igual que en el caso de una dirección IPv4 de loopback, se puede hacer ping a
una dirección IPv6 de loopback para probar la configuración de TCP/IP en el
host local.
Dirección
sin especificar
·
Una dirección sin especificar es una dirección compuesta solo por
ceros representada como ::/128 o, simplemente, :: en formato comprimido. No
puede asignarse a una interfaz y solo se utiliza como dirección de origen en un
paquete IPv6. Las direcciones sin especificar se utilizan como direcciones de
origen cuando el dispositivo aún no tiene una dirección IPv6 permanente o
cuando el origen del paquete es irrelevante para el destino.
Local única
·
Las direcciones locales únicas se utilizan para
el direccionamiento local dentro de un sitio o entre una cantidad limitada de
sitios. Estas direcciones no deben ser enrutables en la IPv6 global. Las
direcciones locales únicas están en el rango de FC00::/7 a FDFF::/7. Si bien
IPv6 proporciona direccionamiento de sitio específico, no tiene por propósito
ser utilizado para contribuir a ocultar dispositivos internos con IPv6
habilitado de Internet IPv6. El IETF recomienda que la limitación del acceso a
los dispositivos se logre implementando medidas de seguridad adecuadas y
recomendadas.
IPv4
integrada
·
El último tipo de dirección unicast es la dirección IPv4
integrada. Estas direcciones se utilizan para facilitar la transición de IPv4 a
IPv6. En este curso, no se analizan las direcciones IPv4 integradas.
Direcciones IPv6 multicast asignadas
Las direcciones multicast se utilizan para
enviar un único paquete a uno o más destinos (grupo multicast). Las direcciones
IPv6 multicast tienen el prefijo FF00::/8.
Nota: las direcciones multicast solo pueden
ser direcciones de destino, no de origen.
Existen dos tipos de direcciones IPv6
multicast:
·
Dirección multicast asignada
·
Dirección multicast de nodo solicitado
Dirección
multicast asignada
Las direcciones multicast asignadas son
direcciones multicast reservadas para grupos predefinidos de dispositivos. Una
dirección multicast asignada es una única dirección que se utiliza para llegar
a un grupo de dispositivos que ejecutan un protocolo o servicio común. Las
direcciones multicast asignadas se utilizan en contexto con protocolos
específicos, como DHCPv6
.
Dos grupos comunes de direcciones multicast
IPv6 asignadas incluyen los siguientes:
·
Grupo multicast de todos los nodos FF02::1: grupo multicast al que
se unen todos los dispositivos con IPv6 habilitado. Los paquetes que se envían
a este grupo son recibidos y procesados por todas las interfaces IPv6 en el
enlace o en la red. Esto tiene el mismo efecto que una dirección de broadcast
en IPv4.
·
Grupo multicast de todos los routers
FF02::2:grupo multicast al que se unen todos los routers con IPv6 habilitado.
Los paquetes que se envían a este grupo son recibidos y procesados por todos
los routers IPv6 en el enlace o en la red.
Los dispositivos con IPv6
habilitado envían mensajes de solicitud de router (RS) de ICMPv6 a la dirección
multicast de todos los routers. El mensaje de RS solicita un mensaje de RA del
router IPv6 para contribuir a la configuración de direcciones del dispositivo.
Recuerde que la dirección
multicast de todos los nodos es esencialmente lo mismo que una dirección IPv4
de broadcast. Todos los dispositivos en la red deben procesar el tráfico
enviado a la dirección de todos los nodos. Para reducir el número de
dispositivos que deben procesar tráfico, utilice una dirección multicast de
nodo solicitado.
Una dirección multicast de nodo
solicitado es una dirección que coincide solo con los últimos 24 bits de la
dirección IPv6 unicast global de un dispositivo. Los únicos dispositivos que
deben procesar estos paquetes son aquellos que tienen estos mismos 24 bits en
la porción menos significativa que se encuentra más hacia la derecha de la ID
de interfaz.
Una dirección IPv6 multicast de
nodo solicitado se crea de forma automática cuando se asigna la dirección
unicast global o la dirección unicast link-local. La dirección IPv6 multicast
de nodo solicitado se crea combinando un prefijo especial
FF02:0:0:0:0:1:FF00::/104 con los 24 bits de su dirección unicast que se
encuentran en el extremo derecho.
La dirección multicast de nodo
solicitado consta de dos partes:
·
Prefijo multicast
FF02:0:0:0:0:1:FF00::/104: los primeros 104 bits de la dirección multicast de
todos los nodos solicitados.
·
24 bits menos
significativos: los 24 bits finales o que se encuentran más hacia la derecha de
la dirección multicast de nodo solicitado. Estos bits se copian de los 24 bits
del extremo derecho de la dirección unicast global o unicast link-local del
dispositivo.
Es posible que varios
dispositivos tengan la misma dirección multicast de nodo solicitado. Si bien es
poco común, esto no genera ningún problema, ya que el dispositivo aún procesa
el mensaje encapsulado, el cual incluye la dirección IPv6 completa del
dispositivo en cuestión
Mensajes de ICMPv4 y ICMPv6
El objetivo de estos mensajes
es proporcionar respuestas acerca de temas relacionados con el procesamiento de
paquetes IP bajo determinadas condiciones, no es hacer que el IP sea confiable.
Los mensajes de ICMP no son obligatorios y, a menudo, no se permiten dentro de
una red por razones de seguridad. El protocolo ICMP está disponible tanto para
IPv4 como para IPv6.
Los mensajes ICMP comunes a
ICMPv4 y a ICMPv6 incluyen lo siguiente:
·
Confirmación de host
·
Destino o servicio inaccesible
·
Tiempo superado
·
Redireccionamiento de ruta
ICMPv6 incluye cuatro nuevos
protocolos como parte del protocolo ND o NDP (Neighbor Discovery Protocol,
protocolo de descubrimiento de vecinos):
·
Mensaje de
solicitud de router
·
Mensaje de
anuncio de router
·
Mensaje de
solicitud de vecino
·
Mensaje de
anuncio de vecino
Capítulo 9: División de redes IP en subredes
Este tipo de configuración se
conoce como “diseño de red plana”. En una red pequeña, con una cantidad limitada
de dispositivos, el diseño de red plana no presenta inconvenientes. Sin
embargo, a medida que la red crece, este tipo de configuración puede generar
problemas importantes. Este tipo de configuración se conoce como “diseño de red
plana”. En una red pequeña, con una cantidad limitada de dispositivos, el
diseño de red plana no presenta inconvenientes. Sin embargo, a medida que la
red crece, este tipo de configuración puede generar problemas importantes.
Si un dispositivo debe procesar
una cantidad significativa de broadcasts, esto podría incluso llegar a
disminuir la velocidad de las operaciones del dispositivo. Por motivos tales
como los mencionados, las redes más grandes se deben segmentar en subredes más
pequeñas, de modo que permanezcan localizadas en grupos más reducidos de
dispositivos y servicios.
El tráfico no puede reenviarse
entre subredes sin un router. Cada interfaz en el router debe tener una
dirección de host IPv4 que pertenezca a la red o a la subred a la cual se
conecta la interfaz del router.
Cree estándares para la
asignación de direcciones IP dentro de cada rango de subred. Por ejemplo:
Se asignarán direcciones IP estáticas a las impresoras
y los servidores.
El usuario recibirá direcciones IP de los servidores
de DHCP con subredes /24.
A los routers se les asignan las primeras direcciones
de host disponibles en el rango.
Para más información de este
capítulo ver Pag451
Capítulo 10: Capa de aplicación 10.1.1.3 Capas de presentación y sesión
La capa de presentación tiene tres
funciones principales:
·
Dar formato a los
datos del dispositivo de origen, o presentarlos, en una forma compatible para
que lo reciba el dispositivo de destino.
·
Comprimir los
datos de forma tal que los pueda descomprimir el dispositivo de destino.
·
Encriptar los
datos para su transmisión y posterior descifrado al llegar al dispositivo de
destino.
Capa de sesión
·
Como su nombre lo
indica, las funciones de la capa de sesión crean y mantienen diálogos entre las
aplicaciones de origen y destino. La capa de sesión maneja el intercambio de
información para iniciar los diálogos y mantenerlos activos y para reiniciar
sesiones que se interrumpieron o que estuvieron inactivas durante un período
prolongado.
P2P Networks
·
En una red P2P,
hay dos o más PC que están conectadas por medio de una red y pueden compartir
recursos (como impresoras y archivos) sin tener un servidor dedicado. Todo
dispositivo final conectado (conocido como “punto”) puede funcionar como
servidor y como cliente. Una computadora puede asumir la función de servidor
para una transacción mientras funciona en forma simultánea como cliente para
otra transacción. Las funciones de cliente y servidor se establecen por
solicitud.
Aplicaciones P2P comunes
Con las aplicaciones P2P, cada
PC de la red que ejecuta la aplicación puede funcionar como cliente o como
servidor para las otras PC en la red que ejecutan la aplicación. Las
aplicaciones P2P comunes incluyen las siguientes:
·
eDonkey
·
eMule
·
Shareaza
·
BitTorrent
·
Bitcoin
·
LionShare
Algunas aplicaciones P2P se
basan en el protocolo Gnutella. Estas aplicaciones permiten compartir archivos
en discos duros con otras personas. Como se muestra en la ilustración, el
software de cliente compatible con Gnutella permite a los usuarios conectarse a
los servicios Gnutella a través de Internet, además de ubicar los recursos
compartidos por otros puntos Gnutella y acceder a dichos recursos.
Muchas de las aplicaciones P2P
no utilizan una base de datos central para registrar todos los archivos
disponibles en los puntos. Por el contrario, los dispositivos en la red se
indican mutuamente qué archivos están disponibles cuando hay una consulta, y
utilizan el protocolo y los servicios de intercambio de archivos para dar
soporte a la búsqueda de recursos.
HTTP se utiliza a través de la
World Wide Web para transferencia de datos y es uno de los protocolos de
aplicación más utilizados hoy en día. Originalmente, este protocolo se
desarrolló solo para publicar y recuperar páginas HTML. Sin embargo, la
flexibilidad de HTTP lo convirtió en una aplicación fundamental de los sistemas
de información distribuidos y cooperativos.
HTTP es un protocolo de
solicitud/respuesta. Cuando un cliente, por lo general un explorador Web, envía
una solicitud a un servidor Web, HTTP especifica los tipos de mensaje que se
utilizan para esa comunicación. Los tres tipos de mensajes comunes son GET,
POST y PUT (consulte la ilustración).
GET es una solicitud de datos
por parte del cliente y los mensajes POST y PUT se utilizan para subir datos al
servidor Web.
El protocolo simple de
transferencia de correo (SMTP) transfiere correo electrónico con confianza y
eficacia. Para que las aplicaciones del SMTP funcionen bien, se debe formatear
correctamente el mensaje de correo electrónico y los procesos SMTP deben estar
en ejecución en el cliente y en el servidor.
El protocolo de oficina de
correos (POP) permite que una estación de trabajo pueda recuperar correos de un
servidor de correo. Con POP, el correo se descarga desde el servidor al cliente
y después se elimina en el servidor.
El servidor DNS almacena
diferentes tipos de registros de recursos utilizados para resolver nombres.
Estos registros contienen el nombre, la dirección y el tipo de registro.
Algunos de estos tipos de
registros son:
·
A: una dirección
de dispositivo final
·
NS: un servidor
de nombre autoritativo
·
CNAME: el nombre
canónico (o el nombre de dominio completamente calificado) para un alias; se
utiliza cuando varios servicios tienen una dirección de red única, pero cada
servicio tiene su propia entrada en el DNS.
·
MX: registro de
intercambio de correos; asigna un nombre de dominio a una lista de servidores
de intercambio de correo para ese dominio.
Protocolo CDP:
CDP es un protocolo exclusivo
de Cisco que se ejecuta en la capa de enlace de datos. Debido a que el
protocolo CDP funciona en la capa de enlace de datos, es posible que dos o más
dispositivos de red Cisco (como routers que admiten distintos protocolos de la
capa de red) obtengan información de los demás incluso si no hay conectividad
de capa 3.
Por razones obvias, CDP puede
suponer un riesgo para la seguridad. Debido a que algunas versiones de IOS
envían publicaciones CDP de manera predeterminada, es importante que sepa cómo
deshabilitar el CDP.
Para desactivar CDP
globalmente, utilice el comando de configuración global no cdp run. Para
desactivar CDP en una interfaz, utilice el comando de interfaz no cdp enable.
Creación de copias de seguridad y restauración mediante TFTP
Para guardar la configuración
en ejecución o la configuración de inicio en un servidor TFTP, utilice el
comandocopy running-config tftp o copy startup-config tftp, como se muestra en
la ilustración. Siga estos pasos para realizar una copia de seguridad de la
configuración en ejecución en un servidor TFTP:
·
Paso 1.
Introduzca el comando copy running-config tftp.
·
Paso 2. Ingrese
la dirección IP del host en el cual se almacenará el archivo de configuración.
·
Paso 3. Ingrese
el nombre que se asignará al archivo de configuración.
·
Paso 4. Presione
Intro para confirmar cada elección.
Para restaurar la configuración
en ejecución o la configuración de inicio desde un servidor TFTP, utilice el
comando copy tftp running-config o copy tftp startup-config. Siga estos pasos
para restaurar la configuración en ejecución desde un servidor TFTP:
·
Paso 1.
Introduzca el comando copy tftp running-config.
·
Paso 2.
Introduzca la dirección IP del host en el que está almacenado el archivo de
configuración.
·
Paso 3. Ingrese
el nombre que se asignará al archivo de configuración.
·
Paso 4. Presione
Intro para confirmar cada elección.
Los módulos de memoria flash
USB Cisco están disponibles en versiones de 64 MB, 128 MB y 256 MB. Para ser
compatible con un router Cisco, una unidad flash USB debe tener formato FAT16.
De lo contrario, el comando show file systems muestra un error que indica que
el sistema de archivos es incompatible.
FIN –Hecho por Sergio Ledezma Castro
No hay comentarios. :
Publicar un comentario