Edición de «Práctica 1: Fundamentos, Direct Links y LAN Switching (Teoría de las Comunicaciones)»

De Cuba-Wiki
Advertencia: no has iniciado sesión. Tu dirección IP se hará pública si haces cualquier edición. Si inicias sesión o creas una cuenta, tus ediciones se atribuirán a tu nombre de usuario, además de otros beneficios.

Puedes deshacer la edición. Antes de deshacer la edición, comprueba la siguiente comparación para verificar que realmente es lo que quieres hacer, y entonces publica los cambios para así efectuar la reversión.

Revisión actual Tu texto
Línea 1: Línea 1:
{{Back|Teoría de las Comunicaciones}}
__NOTOC__
==Fundamentos==
<div style="border: 1px solid #CECEFF; padding: 5px; background-color: #EEEEFF; margin: 0px 0px 15px 0px;">[[Image:Back.png|14px|]] [[Teoría de las Comunicaciones|Volver a la página de la materia]]</div>
===Ejercicio 01===
[[Image:RedesP2Ej1.png|right|thumb|Layered communication.]]


<b>Los Ministros de Relaciones Exteriores frecuentemente intercambian información relativa al desarrollo de las relaciones diplomáticas entre los países que representan. El Canciller de Argentina desea entregarle cierta información a su par de Francia. El Canciller argentino confecciona el mensaje en castellano y lo entrega a la Oficina de Traducciones del Consulado donde el mismo es transcripto a un idioma común de intercambio entre traductores, para el caso, el idioma inglés. Luego de traducido el mensaje es entregado por la OT a la Oficina Criptográfica, la cual se encarga de codificar el mensaje para evitar filtraciones de seguridad. La OC a su turno entrega el mensaje ya encriptado a la Oficina de Comunicaciones la que se encarga de la transmisión del mensaje, que es recibido por una dependencia similar en la Cancillería Francesa. Una vez recibido en Francia por la Oficina de Comunicaciones, el mensaje es entregado a la Oficina Criptográfica la cual luego de descifrarlo lo entrega a la Oficina de Traducciones desde donde, luego de traducido al idioma nativo, es recibido por el Canciller francés. </b>
==Ejercicio 01==
''Los Ministros de Relaciones Exteriores frecuentemente intercambian información relativa al desarrollo de las relaciones diplomáticas entre los países que representan. El Canciller de Argentina desea entregarle cierta información a su par de Francia. El Canciller argentino confecciona el mensaje en castellano y lo entrega a la Oficina de Traducciones del Consulado donde el mismo es transcripto a un idioma común de intercambio entre traductores, para el caso, el idioma inglés. Luego de traducido el mensaje es entregado por la OT a la Oficina Criptográfica, la cual se encarga de codificar el mensaje para evitar filtraciones de seguridad. La OC a su turno entrega el mensaje ya encriptado a la Oficina de Comunicaciones la que se encarga de la transmisión del mensaje, que es recibido por una dependencia similar en la Cancillería Francesa. Una vez recibido en Francia por la Oficina de Comunicaciones, el mensaje es entregado a la Oficina Criptográfica la cual luego de descifrarlo lo entrega a la Oficina de Traducciones desde donde, luego de traducido al idioma nativo, es recibido por el Canciller francés. ''
''¿Es este un ejemplo de un protocolo multicapa en el sentido del modelo OSI? En caso afirmativo
determinar distintos niveles de comunicación. Para cada nivel indicar el servicio genérico que
brinda y los protocolos utilizados. ''


<b>¿Es este un ejemplo de un protocolo multicapa en el sentido del modelo OSI? En caso afirmativo
Si, lo es. La explicación está en un apunte de la cátedra llamado ''OSIModel.pdf'' en la página 2.
determinar distintos niveles de comunicación. Para cada nivel indicar el servicio genérico que
brinda y los protocolos utilizados. </b>


<br><b>Rta:</b>
==Ejercicio 02==


Si, lo es. La explicación está en un apunte de la cátedra llamado <b>OSIModel.pdf</b> en la página 2 (y ahora como PNG acá al costado).
''Para un modelo de software de red organizado en capas (ej. OSI, TCP/IP), indicar si las siguientes afirmaciones son verdaderas o falsas:''
# Si la capa n ofrece servicio orientado a conexión, entonces la capa n+1 debe ofrecer necesariamente servicio orientado a conexión.
# Si la capa n ofrece servicio orientado a conexión, entonces la capa n-1 puede ofrecer servicio sin conexión.
# Si la capa n ofrece servicio sin conexión, entonces la capa n+1 no puede ofrecer servicio orientado a conexión.


===Ejercicio 02===
''Respuestas:''
<b>Se tiene un multiplexor por división de tiempo (TDM) que conecta un canal de salida común de 512 kbps con 4 terminales a 64 kbps y N a 32 kbps. ¿Cuál es el valor de N? Dibuje un gráfico representando el uso compartido del canal por todas las terminales.</b>


<br><b>Rta:</b>
# Falso, la capa superior puede introducir nuevos problemas que hagan imposible la conexión.
# Verdadero, la capa superior puede utilizar a la inferior para generar una conexión, solucionando los problemas que tuviese.
# Falso, la capa superior puede generar la conexión.


Leo en http://en.wikipedia.org/wiki/Time-division_multiplexing que:
Las capas son independientes unas de las otras.
*El tamaño de cada slot es <b>fijo</b>.
 
*TDM takes frames of the voice signals and multiplexes them into a TDM frame which runs at a higher bandwidth. So if the TDM frame consists of n voice frames, the bandwidth will be n*64 kbit/s.
==Ejercicio 03==
''El utilitario ping puede ser utilizado para encontrar el Round Trip Time (RTT) a varios hosts de Internet. Lea la página del manual del ping, y úselo para encontrar el RTT a www.w3.org y www.uba.ar''
 
Que ejercicio sin sentido, pero voy a hacerlo porque no hay que pensar:
PING www.uba.ar (157.92.44.2): 56 data bytes
64 bytes from 157.92.44.2: icmp_seq=0 ttl=55 time=30.822 ms
64 bytes from 157.92.44.2: icmp_seq=1 ttl=55 time=23.599 ms
64 bytes from 157.92.44.2: icmp_seq=2 ttl=55 time=22.151 ms
64 bytes from 157.92.44.2: icmp_seq=3 ttl=55 time=14.299 ms
64 bytes from 157.92.44.2: icmp_seq=4 ttl=55 time=21.889 ms
64 bytes from 157.92.44.2: icmp_seq=5 ttl=55 time=55.129 ms
64 bytes from 157.92.44.2: icmp_seq=6 ttl=55 time=36.559 ms
64 bytes from 157.92.44.2: icmp_seq=7 ttl=55 time=11.771 ms
64 bytes from 157.92.44.2: icmp_seq=8 ttl=55 time=16.614 ms
--- www.uba.ar ping statistics ---
9 packets transmitted, 9 packets received, 0% packet loss
round-trip min/avg/max/stddev = 11.771/25.870/55.129/12.684 ms
 
==Ejercicio 04==
 
''Suponga que se instala un enlace punto-a-punto de 100Mbps entre la Tierra y una nueva colonia en la Luna. La distancia entre la Luna y la Tierra es de aproximadamente 386243 kilómetros, y los datos atraviesan el enlace a la velocidad de la luz (299338 kilómetros por segundo).''
# Calcule el mínimo RTT del enlace.
# Usando el RTT como delay, calcule el producto delay x bandwith para el enlace.
# ¿Cuál es el significado del producto delay x bandwith calculado en el punto anterior?
# Una cámara en la base lunar toma fotografías de la Tierra y las guarda en formato digital en un disco. Suponga que el Control de Misión en la Tierra desea descargar la última imagen que es de 25 MB. ¿ Cuál es el tiempo mínimo que puede transcurrir entre el momento en que se inicia el pedido del dato y finaliza la transferencia ?
 
''Respuestas:''
 
Ver pp 40-50 del Peterson
 
1. El roundtrip time es el tiempo que toma a un único bit ir de un extremo a otro del enlace y volver.
Es el doble de la latencia, la cual se calcula como:
 
Latency = Propagation + Transmit + Queue
Propagation = Distance / c
Transmit = Size / Bandwidth
 
Entonces el RTT vale:
 
RTT = 2 * Latency =
    = 2 * Distance / c + 2 * Size / Bandwidth + 2 * Queue =
    = 2 * 386243 km / 299338 km/s + 2 * 1bit / 100Mbps + 0 =
    = 2.58s + 2E-8 = 2.58s
 
 
2. El producto delay x bandwidth vale
Delay * BW = 2.58s * 100Mbps = 258 000 000 bits
 
3. El producto delay x bandwidth representa la cantidad de data "en vuelo" que puede haber simultáneamente en el enlace, es decir, cuánta data se necesita para saturar el enlace. Al utilizar el RTT en lugar de la one way latency, indica la data necesaria para llenarlo en ambos sentidos.
 
4. El tiempo de transferencia se calcula como
TransferTime = RTT + 1 / BW * TransferSize
 
El RTT resume los tiempos de delay para el envio del pedido y la recepcion del paquete, mientras que el segundo sumando se refiere al ancho de banda y el tamaño del paquete.
 
TransferTime = 2.58s + 1 / 100Mbps * 200Mb = 4.58s
 
Otra fórmula útil es la del throughput, que indica la performance de un enlace
Throughput = TransferSize / TransferTime
 
==Ejercicio 05==
''Identifique al menos tres organizaciones diferentes que definan estándares relacionados con
networking y mencione algunos de ellos.''
 
==Ejercicio 06==
''Diversos medios de transmisión pueden ser utilizados para transmitir información entre nodos de red. Por ejemplo, la comunicación puede ser realizada vía láser, microonda, onda de radio, infrarrojo, etc. Seleccione dos o tres de esos medios de transmisión e investigue las ventajas,  desventajas y capacidades de cada uno. Indique las situaciones y condiciones donde sea más apropiado el uso de cada uno de los medios que ha estudiado. ''
 
Hay información en las páginas '''67-72''' del Peterson.


Con eso supongo que tendria que fijar el slot al tamaño máximo (64kbps) y en total en 512kbps me entrarían 8, como ya puse 4, <b>N sería igual a 4</b>.
==Ejercicio 07==
''Dado el siguiente string 0100110100 dibujar las formas de ondas correspondientes a:''
# Codificación NRZ
# Codificación NRZI
# Codificación 4B/5B
# Codificación Manchester


En el apunte <b>N1-Fisico</b> hay un poco sobre este tema.
''Respuestas:''


<b>Ernesto dice en un mail (1c2010):</b>
Ver páginas '''75-79''' del Peterson.
No, serían 8 equipos a 32kbps. Podés pensar que cada equipo usa el
canal durante una cantidad de quantums en un esquema round robin. El
quantum lo definís vos. En este caso se puede pensar que el quantum es
de 32kbps, cada equipo de 64kbps usa dos quantums por round y cada uno
de 32kbps usa uno por round. El canal está dividido en 512/32=16 slots
y si los de 32 usan 1 y los de 64 usan 2, tenes N*1+4*2=16 (o lo que
es lo mismo N*32+4*64=512). De ahi que N puede ser menor o igual a 8
para poder transmitir sin que se congestione el canal.


===Ejercicio 03===
Un cero indica una onda baja, y un uno una alta
<b>Un sistema de TV por cable tiene mas de 100 canales alternando programas con propagandas. ¿Es esto mas parecido a TDM o FDM?</b>


<b>Respuesta:</b>
Bits      0  1  0  0  1  1  0  1  0  0
NRZ        0  1  0  0  1  1  0  1  0  0
Clock      01 01 01 01 01 01 01 01 01 01
NRZI      00 01 11 11 10 01 11 10 00 00
Manchester 01 10 01 01 10 10 01 10 01 01


FDM. Ver pags. 11-13 Peterson
Para 4B/5B, la codificacion se hace convirtiendo de a 4 en 5. Luego se codifica usando NRZI.


<b>Respuesta de Ernesto en un mail:</b>
0100 = 01010
1101 = 11011
0000 = 11110
Bits  0  1  0  1  0  1  1  0  1  1  1  1  1  1  0
NRZI  00 01 11 10 00 01 10 00 01 10 01 10 01 10 00


En parte es FDM, porque sintonizas uno de los 100 canales que querés
Resumiendo,
ver. Por otra parte, dentro de cada canal hay un TDM, que alterna entre
propaganda y programa.


Es una mezcla.
* El NRZ codifica un 1 como una señal alta y un cero como baja; tiene el problema de que si hay muchos ceros o unos consecutivos es dificil mantener los relojes sincronizados. También hace que se dificulte distinguir las señanles altas de bajas, ya que el receptor usa el promedio de la diferencia entre las recibidas.
* El NRZI resuelve las tandas de 1s haciendo que el cero mantenga la señal, y el uno provoque un cambio. No resuelve las de ceros.
* El Manchester hace un XOR entre la codificación NRZ y el reloj, el problema es que la eficiencia es del 50%, ya que necesita dos cambios de señal para codificar un único bit.
* El 4B/5B convierte 4 bits en 5 tales que nunca sea posible que haya más de tres ceros consecutivos. Luego usa NRZI para resolver los 1s consecutivos. El aprovechamiento es del 80%.


===Ejercicio 04===
==Ejercicio 08==
<b>Suponga que la siguiente secuencia de bits llegan por un enlace: 01111110110101111101011111001011111011001111110. Muestre el frame resultante luego que todos los bits insertados fueron removidos. Indique cualquier error que haya podido ser introducido dentro del frame. Dato: delimitador = 01111110. </b>
''La principal causa de errores en comunicaciones de datos se debe a:''
*ruido impulsivo
*variaciones de fase
*ruido blanco


Ver Peterson p84
'''Respuesta:'''


<b>Respuesta:</b>
Variaciones de fase no hay que tenerlo en cuenta.
Ruido blanco es un ruido que siempre esta porque se refiere al ruido propio del medio y por lo tanto los modelos de comunicación estan pensados sabiendo que ese ruido existe.
Es por eso que el que mas errores de comunicaciones causa es el ruido impulsivo.


Cada cinco 1s consecutivos, se quita el cero subsiguiente. Si hay seis 1s, se chequea el siguiente. Si es cero, es delimitador. Si es uno, es error.
''¿Qué tipo de ruido es considerado en las formulas de Nyquist y Shannon?''


01111110 1101011111010111110010111110110 01111110
Segun lei de la siguiente pagina: http://www.eveliux.com/mx/index.php?option=content&task=view&id=126 el ruido impulsivo no es tomado en cuenta en las fórmula de Shannon. Por descarte diría que se refieren al ruido blanco.
01111110 1101011111-1011111-01011111-110 01111110


==Direct Links: Framing - Detección/Corrección de Errores - Ventana Deslizante==
==Ejercicio 09==
===Ejercicio 05===
''Se tiene un multiplexor por división de tiempo (TDM) que conecta un canal de salida común de 512 kbps con 4 terminales a 64 kbps y N a 32 kbps. ¿ Cuál es el valor de N ? Dibuje un gráfico representando el uso compartido del canal por todas las terminales.''
<b>Para proveer más confiabilidad que la que puede dar un simple bit de paridad, una técnica de codificación para detección de errores usa un bit de paridad para chequear todos los bits en posiciones impares y un segundo bit de paridad para todos los bits en posiciones pares. ¿Cuál es la distancia de Hamming de este código? ¿Ofrece alguna mejora con respecto al que utiliza un único bit de paridad? Si es así, ¿En qué consisten esas mejoras?</b>


<b>Respuesta:</b>
Leo en http://en.wikipedia.org/wiki/Time-division_multiplexing que:
*El tamaño de cada slot es '''fijo'''.
*TDM takes frames of the voice signals and multiplexes them into a TDM frame which runs at a higher bandwidth. So if the TDM frame consists of n voice frames, the bandwidth will be n*64 kbit/s.


La distancia de Hamming de un código se define como la cantidad mínima de bits erróneos que debe haber para engañar un código.
Con eso supongo que tendria que fijar el slot al tamaño máximo (64kbps) y en total en 512kbps me entrarían 8, como ya puse 4, '''N sería igual a 4'''.


Vale que si d = n+1, es posible detectar todos los errores de hasta n bits, y si vale d = 2m+1, es posible corregir todos los de hasta m bits.
En el apunte '''N1-Fisico''' hay un poco sobre este tema.


En el código propuesto la distancia es de 2, ya que teniendo dos bits cambiados en las posiciones pares, es posible engañar al código.
==Ejercicio 10==
''Se tienen 2 cables de 300Km ambos transportando información a una tasa de 1544 Mbps. La velocidad de propagación de uno de ellos es de 2/3 de la velocidad de la luz mientras que en el otro es 1/2 de la velocidad de la luz. ¿Cuántos bits entran en cada cable?''


Sin embargo, es mejor que el código que utiliza un único bit, ya que, aunque tienen la misma distancia de Hamming, un byte con los dos primeros bits cambiados será detectado como erróneo por el nuevo código y no por el original.
Busquemos el producto Bandwidth x Delay:


===Ejercicio 06===
Bandwidth = 1544 Mbps
<b>Una manera de detectar errores es transmitir datos como bloques de n filas de k bits por fila y adicionar bits de paridad para cada fila y cada columna. ¿Detectará esta política todos los errores simples? ¿Los errores dobles? ¿Los errores triples? ¿Qué hay de las correcciones?</b>
Longitud = 3x10^5 m
c = 3x10^8 m/s


Ver Peterson pp 89-90
Calculemos el delay (one-way) para cada cable:


<b>Respuesta:</b>
Prop1 = 3x10^5 / (3c/2) = 1.5x10^(-3) s
Prop1 = 3x10^5 / (c/2) = 2x10^(-3) s


Si se utilizan bits de paridad solamente para las filas y columnas de la data, la distancia de Hamming será de 3. De acuerdo al Peterson, si se agrega un bit de paridad para la columna que contiene la paridad de las filas, la distancia será de 4.
Ahora hacemos Delay x Bandwidth:


En ambos casos la mejor corrección realizable es de un único bit.
DxB1 = 1.5x10^(-3) s x 1544 Mbps = 2316 Kb
DxB2 = 2x10^(-3) s x 1544 Mbps = 3088 Kb


===Ejercicio 07===
==Ejercicio 11==
<b>El término piggybacking aplicado a un protocolo se refiere a:
==Ejercicio 12==
# la transmisión de datos en forma full-dúplex.
==Ejercicio 13==
# la incorporación de un reconocimiento o control en el mensaje de datos.
# la utilización de un buffer de ventana deslizante.
# la habilidad de concatenar múltiples datos en un mensaje.
# ninguno de los anteriores.
¿Cuál es la ventaja de utilizar piggybacking?
</b>
<b>Respuesta:</b>


Ver p 98 del Peterson
''Si una señal binaria es enviada en un canal de 3kHz. cuya relación señal-ruido es de 20dB; ¿Cuál es la máxima velocidad de transferencia?''


Piggybacking implica enviar un mensaje de ACK en un mensaje de datos que se envía como respuesta.
''Respuesta:''


===Ejercicio 08===
Ver pp 72-74 del Peterson
<b>Suponga que está diseñando un protocolo con sliding windows para un enlace punto-a-punto de 1Mbps a la Luna con una latencia de 1.25 segundos por tramo. Asumiendo que cada frame lleva 1KB de datos; ¿Cuál es el mínimo numero de bits necesarios para secuenciar los frames?</b>


Ver pp 100-105 Peterson
Se debe aplicar el teorema de Shannon:


Primero hay que calcular cual es la cantidad máxima de paquetes que puede haber en vuelo en base al producto Delay x BW del enlace y al tamaño de frame. Para delay hay que usar el RTT, ya que importa el tiempo que demora desde que sale hasta que llega el ACK.
C = B log2 (1 + S/N)


    RTT x BW = 2.5Mb
Donde C es la capacidad máxima del canal medida en Hz, B es el ancho de banda en Hz, y S/N es la relación señal-ruido medida en decibeles, donde ''db = 10 log10 (S/N)''.
    2.5Mb = 2.5 * 10^6 b = 2500000b
    1KB = 8192b
    2.5Mb / 1KB = 2500000b / 8192b = 305.175


Redondeando para abajo, puede haber hasta 305 paquetes en vuelo. Suponiendo que las ventanas del emisor y el receptor coinciden, entonces en base a la fórmula
Entonces, para calcular primero S/N,


    RWS + SWS <= Max+1 = 2^n
20db = 10 log10(S/N)
    610 <= 2^n
2db  = log10 (S/N)
    n >= 9.25
100  = S/N


Se necesitan 10 bits.
Luego se calcula C con el teorema


Observacion : creo que si se usa SWS=305 se cae en el mismo problema de stop-and-wait. Por lo que creo que hay que usar SWS=305/2. ver pagina 104 de peterson. En ese caso se requieren 8bits.
C = 3kHz * log2(101) = 3k * 6.66 = 20Kbps


===Ejercicio 09===
==Ejercicio 14==
<b>En un protocolo de ventana deslizante; ¿Porqué no tiene sentido que la ventana de recepción sea más grande que la ventana de transmisión?</b>
''Un sistema de TV por cable tiene mas de 100 canales alternando programas con propagandas. ¿ Es esto mas parecido a TDM o FDM?''


Ver Peterson p104
''Respuesta:''


<b>Respuesta:</b>
FDM. Ver pags. 11-13 Peterson


La ventana del emisor indica el número máximo de paquetes que pueden estar en vuelo simultáneamente sin esperar un ACK (es decir, pueden llegar desordenados por errores de transimisión), con lo que no tiene sentido tener más buffers que los necesarios.
==Ejercicio 15==


===Ejercicio 10===
''Asumiendo que se utiliza bit stuffing, muestre la secuencia de bits transmitidos sobre el enlace cuando el frame contiene la siguiente secuencia de bits:
<b>Para un protocolo con sliding windows de un enlace punto-a-punto, indique si las siguientes afirmaciones son verdaderas o falsas:</b>
0111111011010111110101111110101111111001111110
*<b>Si aumenta la tasa de errores del medio físico, mejora la eficiencia del protocolo si se aumenta el tamaño de la ventana de transmisión.</b>
Indique los bits insertados. Dato: delimitador = 01111110.''
*<b>Si aumenta la velocidad de propagación del medio físico, mejora la eficiencia del protocolo si se aumenta el tamaño de la ventana de transmisión.</b>
*<b>Si aumenta la capacidad de medio físico (bandwith), mejora la eficiencia del protocolo si se aumenta el tamaño de la ventana de transmisión.</b>


Dado que el tamaño óptimo de la ventana es 2*delay*bandwidth, CREO que las dós últimas son VERDADERAS.
Ver Peterson p84


Duda= Siguiendo la cuenta que pusieron arriba, en realidad si aumenta la velocidad de propagacion, disminuye el delay, por lo que el resultado de 2*delay*bandwidth es mas chico, por lo que "entran menos bits" en el medio. Por lo tanto no tiene sentido aumentar el tamaño de la ventana, de hecho hasta quizas es necesario achicarla ¿FALSO?
''Respuesta:''


Según las fotocopias el primer ítem:
Bit stuffing se utiliza cuando los mensajes son terminados por un delimitador y es necesario transmitir el delimitador como parte del mensaje. Siendo que el delimitador son seis 1s entre un par de ceros, cuando se quieren transmitir más de cinco 1s consecutivos, se agrega un 0 cada cinco unos. Si el receptor encuentra 6 unos consecutivos, chequea el siguiente bit. Si es cero, es el delimitador. Si es uno, es un error de transmisión.
falso, son dos controles distintos.


Las fotocopias respaldan los dos verdaderos del final, pero no dice por qué.
El delimitador se transmite constantemente mientras el enlace está libre para mantener los relojes sincronizados.


===Ejercicio 11===
'''01111110'''110101111101011111'''0'''101011111'''0'''110011111'''0'''10'''01111110'''
<b>Un protocolo de nivel de enlace usado para conexiones punto a punto que trabaja con ventana deslizante, usa 4 bits para secuenciar frames. En este protocolo no existe NAK y los únicos frames de control son para establecer la conexión y liberarla.</b>
*<b>¿Cómo se puede realizar el control de errores?</b>
*<b>¿Cuáles son los tamaños óptimos de ventanas de transmisión y recepción?</b>
*<b>¿Cómo se puede realizar el control de flujo?</b>


Según fotocopias:
==Ejercicio 16==
*Igual que en otros, dependiendo del método que se use para esto
*2^n = 2*tam. como n es 4 => 2^4 = 2*tam <=> 16 = 2*tam <=> tam = 8. tam es el tamaño de la ventanda del emisor y del receptor.
*Con la liberación y establecimiento de la conexión


===Ejercicio 12===
''Suponga que la siguiente secuencia de bits llegan por un enlace: 01111110110101111101011111001011111011001111110. Muestre el frame resultante luego que todos los bits insertados fueron removidos. Indique cualquier error que haya podido ser introducido dentro del frame. Dato: delimitador = 01111110. ''
<b>Una conexión de capa de enlace entre dos hosts usa ventana deslizante de 3 bits de secuenciamiento. En un momento dado de esa conexión, el emisor envía los frames 4, 5 y 6 seguidos, arribando con errores de CRC el frame 4.
Explicar qué sucede hasta recuperarse de ese error tanto usando acknowledge acumulativo como acknowledge selectivo.</b>


<b> Respuesta: </b>
Ver Peterson p84


Caso ACK Acumulativo:
''Respuesta:''


Como no llega el 4 pero sí llega el 5, entonces el receptor no envía ACK. El emisor, luego de los time-outs de no recibir los ACK, vuelve a enviar 4,5 y 6.
Cada cinco 1s consecutivos, se quita el cero subsiguiente. Si hay seis 1s, se chequea el siguiente. Si es cero, es delimitador. Si es uno, es error.


Caso ACK Selectivo:
01111110 1101011111010111110010111110110 01111110
01111110 1101011111-1011111-01011111-110 01111110


El receptor envía SACK del 5 y 6. El emisor, después del time-out del 4, lo reenvía.
==Ejercicio 17==
==Ejercicio 18==


===Ejercicio 13===
''¿Cuáles son las ventajas del CRC sobre el algoritmo de checksum de IP? ¿Cuáles son las desventajas?''
<b>Un protocolo de nivel de enlace punto a punto, orientado a conexión y confiable, utiliza ventana deslizante con 3 bits de secuenciamiento para transportar frames sobre un enlace satelital con una tasa de errores relativamente alta. Mencionar cuáles son los valores óptimos de tamaño de ventana de transmisión y recepción si el protocolo utiliza NAKs.</b>


Ver Peterson pp 101-105
Ver Peterson pp 90-97


<b>Respuesta:</b>
''Respuesta:''


Suponiendo que 2^n >= E + R <b>(en desacuerdo con el Peterson, que indica desigualdad estricta, pero según lo vimos en clase)</b>, y tomando E = R, resulta
Ventajas de CRC:


    8 >= 2E
* CRC tiende a detectar más errores que checksum.
    E = 4
* CRC permite elegir distintos polinomios divisores según el ambiente que detectan distintos tipos de errores.
* CRC se puede implementar muy fácil por hardware.


Puesto que el protocola soporta NAKs, conviene que la ventana de recepcion sea igual a la de emision, ya que ante un error (que en este caso son frecuentes) se puede retransmitir solamente el paquete fallido, y no es necesario reenviar toda la ventana.
Desventajas:


==Direct Links: LAN - Ethernet - Wireless==
* Checksum se implementa más fácil por software
===Ejercicio 14===
<b>¿Por qué es importante para los protocolos configurados sobre Ethernet tener un campo de longitud en su encabezado indicando cuán largo es el mensaje?</b>


<b>Respuesta:</b>
==Ejercicio 19==


Esto es debido a que los mensajes pueden tener longitud variable. Deben tener un mínimo de 46 bytes (así esta definido en el standard de ethernet) para poder detectar colisiones y un máximo de 1500. Por ejemplo si el mensaje del protocolo fuera de menos de 46 bytes el driver Ethernet agregaría ceros para completar 46 bytes, si el protocolo de la capa de arriba no tiene un campo de longitud podría confundir los ceros con datos.
''Para proveer más confiabilidad que la que puede dar un simple bit de paridad, una técnica de codificación para detección de errores usa un bit de paridad para chequear todos los bits en posiciones impares y un segundo bit de paridad para todos los bits en posiciones pares. ¿Cuál es la distancia de Hamming de este código? ¿Ofrece alguna mejora con respecto al que utiliza un único bit de paridad? Si es así, ¿En qué consisten esas mejoras?''


===Ejercicio 15===
''Respuesta:''
<b>
La norma IEEE 802.3 especifica los niveles OSI:
* 1 y 3
* mitad del 2
* 1
* 1 y mitad del 2
* 1 y 2
* 2
* ninguna de las anteriores
</b>
<b>Respuesta:</b>


Niveles 1 y mitad del 2
La distancia de Hamming de un código se define como la cantidad mínima de bits erróneos que debe haber para engañar un código.


Comentado en clase : "802.3 cubre la capa física y la mitad de abajo de la de enlace (MAC). LLC cubre el resto de la capa de enlace."
Vale que si d = n+1, es posible detectar todos los errores de hasta n bits, y si vale d = 2m+1, es posible corregir todos los de hasta m bits.


===Ejercicio 16===
En el código propuesto la distancia es de 2, ya que teniendo dos bits cambiados en las posiciones pares, es posible engañar al código.
<b>¿Para qué se utiliza el preámbulo en Ethernet (IEEE 802.3)?</b>


<b>Respuesta:</b>
Sin embargo, es mejor que el código que utiliza un único bit, ya que, aunque tienen la misma distancia de Hamming, un byte con los dos primeros bits cambiados será detectado como erróneo por el nuevo código y no por el original.


Se utiliza para sincronización del receptor.
==Ejercicio 20==


===Ejercicio 17===
''Una manera de detectar errores es transmitir datos como bloques de n filas de k bits por fila y adicionar bits de paridad para cada fila y cada columna. ¿Detectará esta política todos los errores simples? ¿Los errores dobles? ¿Los errores triples? ¿Qué hay de las correcciones?''
<b>¿Qué pasaría si en una red Ethernet Half-Duplex las estaciones esperan un tiempo fijo T antes de intentar transmitir un dato en buffer? Asuma que el tiempo fijo T cuenta a partir del momento en que el dato está listo para ser enviado.</b>


<b>Respuesta:</b>
Ver Peterson pp 89-90


En este caso habrá una alta probabilidad de que se produzcan colisiones.
''Respuesta:''
Esto es debido a que si varias estaciones quieren enviar algun dato en el mismo momento (mientras el canal esta ocupado) esperarán ambas un tiempo T. Si el canal se desocupó las 2 estaciones mandarán el dato y producirán colision.


En caso que no se haya desocupado, entonces esperarán nuevamente un tiempo T y se fijarán nuevamente, y esperaran sucesivamente de a T unidades de tiempo hasta que este desocupado y luego cuando se desocupe intentarán de mandar al mismo tiempo y colisionaran.
Si se utilizan bits de paridad solamente para las filas y columnas de la data, la distancia de Hamming será de 3. De acuerdo al Peterson, si se agrega un bit de paridad para la columna que contiene la paridad de las filas, la distancia será de 4.


Y es probable que (aunque de esto no estoy seguro) que sigan colisionando en forma indefinida.
En ambos casos la mejor corrección realizable es de un único bit.


===Ejercicio 18===
==Ejercicio 21==
<b>"Un repetidor/hub es un dispositivo que puede instalarse en redes locales del tipo 802.3 (CSMA/CD). Su función consiste en retransmitir las secuencias de bits que le van llegando. La necesidad de su uso aparece esencialmente porque las señales eléctricas en un medio de TX sufren atenuaciones y distorsiones que son mayores cuanto mayor es la distancia recorrida por ellas. A causa de esto, dependiendo del medio utilizado, existe una distancia d tal que para distancias mayores que d, una estación receptora no puede reconocer la señal original enviada por el emisor". Determinar si la afirmación anterior es verdadera.</b>


<b>Respuesta:</b>
''Para corregir todos los errores de orden n, la distancia de Hamming de un código debe ser:''
Esta afirmación es verdadera.
# D >= 2n
# D >= 2n+1
# D = 2n+n
# no existe restricción alguna.
# D >= n+2
# D > 2n+1
# D <= 2n


===Ejercicio 19===
''Respuesta:''
<b>Sea P el tiempo de propagación en una LAN usando el protocolo MAC 802.3 (CSMA/CD). ¿Cuál es el período de tiempo máximo que deberá transcurrir para que las estaciones que enviaron un paquete se aseguren de que no ocurrió una colisión? ¿Qué relación guarda este con el tamaño mínimo de la trama de la norma? ¿Qué pasa si un emisor desea transmitir una trama de datos de tamaño menor al mínimo especificado?</b>


<b>Respuesta:</b>
Debe ser 2), D >= 2n+1


Ver páginas 117-119 del Peterson.
==Ejercicio 22==


*Deben esperar 2P. Esto ocurre ya que para dos hosts A, B, si A transmite puede tardar P (tiempo) en llegar a B. Si B comienza a transmitir justo antes de que llegue el paquete de A entonces la colisión tardará P (tiempo) en volver a llegar a A y este ver la colisión.
''El término piggybacking aplicado a un protocolo se refiere a:''
*El tamaño mínimo de la trama está elegido a proposito ya que, como Ethernet especifica que hay una distancia (fisica) D máxima entre dos hosts entonces a la velocidad que transmite el medio alcanza con esa cantidad de bytes para inundar el medio y poder detectar una colisión.
# la transmisión de datos en forma full-dúplex.
*Si se tratara de enviar algo menor al minimo tamaño, suponiendo que nada lo impidiera, se podria llegar a transmitir todo el frame antes de que se determine si hubo o no colision. En ese caso, la estacion transmisora dejaria de analizar el cable cuando termina, y es posible que piense que el frame salio bien cuando realmente hubo colision y deberia haber hecho otro intento.
# la incorporación de un reconocimiento o control en el mensaje de datos.
# la utilización de un buffer de ventana deslizante.
# la habilidad de concatenar múltiples datos en un mensaje.
# ninguno de los anteriores.
¿Cuál es la ventaja de utilizar piggybacking?


===Ejercicio 20===
''Respuesta:''
<b>¿Por qué existe un tamaño mínimo de trama para Ethernet 802.3?</b>


<br><b>Rta:</b>
Ver p 98 del Peterson
La razón de tener un tamaño mínimo en la trama es para prever que las estaciones completen la trasmisión de una trama antes de que el primer bit sea detectado al final del cable, donde este puede chocar con otra trama. Sin embargo, el tiempo mínimo de detección de colisión es el tiempo que toma una señal en propagarse por desde un extremo a otro del cable. Este tiempo mínimo es llamado Slot Time or Time Slot, que es el número de bytes que pueden ser trasmitidos en un Time Slot, en Ethernet el Slot Time es de 64 bytes, la longitud mínima de trama.


===Ejercicio 21===
Piggybacking implica enviar un mensaje de ACK en un mensaje de datos que se envía como respuesta.
<b>Dentro de un segmento de LAN 802.3 un host envía a otro un mensaje de nivel de aplicación. Si uno de los frames Ethernet llega al destino y luego del chequeo del CRC es descartado. ¿Qué sucede con el frame? ¿Y con el mensaje de nivel de aplicación?</b>


<br><b>Rta:</b>
==Ejercicio 23==
El frame se descarta y se pierde ya q es no confiable, y el nivel de aplicacion si es confiable debera retransmitir (El nivel de arriba tiene que tomar medidas porque ethernet lo descarta y no hace nada).


Según fotocopias: Se tira. Será responsabilidad del LLC avisar o no, dependiendo del servicio
''En un protocolo stop-and-wait al aumentar la velocidad de propagación (espacio/tiempo), el ancho de banda desperdiciado para la transmisión de datos:''
# aumenta.
# disminuye.
# permanece constante.
# ninguna de las anteriores.


===Ejercicio 22===
Ver Peterson pp 98-101
La práctica se lo saltea.


===Ejercicio 23===
''Respuesta: (no muy seguro)''
<b>En una LAN FastEthernet (IEEE 802.3u) se pueden usar conexiones full-duplex tanto sobre UTP como sobre fibra óptica. ¿Porqué es posible esto? ¿Qué significa full-duplex cuando se trata de Ethernet?</b>


<br><b>Rta:</b>
El bandwidth desperdiciado disminuye, ya que el aumentar el delay, los mensajes ACK son recibidos antes por el emisor que espera menos tiempo en transmitir el siguiente frame.


'''Ernesto 1:'''
==Ejercicio 24==
Full duplex = transmitir y recibir a la vez. Es posible porque en ambos sistemas hay un par/fibra para transmitir y otro para recibir, entonces la transmision de un dato no interfiere con la recepcion (a menos que haya un hub que este mandando de vuelta los datos de un par de cables a otro).


'''Ernesto 2:'''
''Suponga que está diseñando un protocolo con sliding windows para un enlace punto-a-punto de 1Mbps a la Luna con una latencia de 1.25 segundos por tramo. Asumiendo que cada frame lleva 1KB de datos; ¿Cuál es el mínimo numero de bits necesarios para secuenciar los frames?''
En fibra se podrian usar dos fibras o dos long. de onda distintas, en Ethernet hay uno de los cables del UTP para mandar y otro para recibir, a esto se refiere con el full duplex para mandar y recibir. En coaxil no es posible.


===Ejercicio 24===
Ver pp 100-105 Peterson
<b>El algoritmo para el cálculo del retardo para la transmisión en CSMA/CD es el siguiente:</b>
    if intentos <= 16 then
    begin
        k:= min(intentos,10);
        r:= random(0,2^k-1);
        retardo:= r * ranura_de_tiempo;
        intentos:= intentos+1;
    end;
<b>donde r es un número entero generado de manera aleatoria a partir de una función de distribución uniforme.</b>
*<b>¿Qué relación encuentra entre el número de colisiones que sufre un transmisor y el tiempo que deberá esperar para intentar retransmitir una trama?</b>
*<b>¿Qué tipo de prioridad implícita genera esto?</b>
*<b>¿Porqué el tiempo de retardo es múltiplo de un número entero de ranuras de tiempo?</b>
*<b>¿Qué ocurre en el protocolo si intentos es mayor que 16? ¿Porqué existe esta cota superior?</b>


<b>Respuesta:</b>
Primero hay que calcular cual es la cantidad máxima de paquetes que puede haber en vuelo en base al producto Delay x BW del enlace y al tamaño de frame. Para delay hay que usar el RTT, ya que importa el tiempo que demora desde que sale hasta que llega el ACK.


Ver página 119 del Peterson.
RTT x BW = 2.5Mb
2.5Mb / 1KB = 320


* La relacion entre el numero de colisiones y el tiempo de espera es exponencial, de hecho el algoritmo se llama de <b>exponential backoff</b>.
Entonces puede haber hasta 320 paquetes en vuelo. Suponiendo que las ventanas del emisor y el receptor coinciden, entonces en base a la fórmula ''(ojo: esta fórmula está copiada del Peterson, en clase la dieron con menor o igual en lugar de estricto)''
* Mayor prioridad a quien menos colisiones sufrio.
* Para facilitar las colisiones? Por felicidad del algoritmo?
Creo que de este modo se reducen las superposiciones entre frames de distintos hosts y se reducen las colisiones. Por ejemplo: un frame enviado en el slot 1,5 colisiona con el slot 1 y con el slot 2. [Si alguien esta seguro borre el "Creo que" y las preguntas del editor anterior]
* Se da por vencido y reporta error; asi evita entrar en loop infinito.


===Ejercicio 25===
RWS + SWS < Max+1 = 2^n
Se tiene el siguiente enlace Ethernet coaxil (half-duplex):
640 < 2^n
[[Image:RedesP2Ej43.png|right|thumb|Enunciado del Ejercicio 25]]
n > 9.32
<b>En el momento <math>T_i</math>, el host "Kun" recibe en su buffer un dato para ser enviado por el cable coaxil grueso (10Base5). Luego de sensar el canal lo encuentra vacío y envía un paquete, ocupando el medio por 10 ms.</b>
*<b>Indique qué sucedería si en los momentos <math>T_i+5ms</math> y <math>T_i+7ms</math> los hosts "Messi" y "Tevez" reciben en sus buffers datos para ser enviados por el enlace. Los hosts "Messi" y "Tevez" están en el mismo segmento de 500 metros de cable.</b>
*<b>Indique qué sucedería si en el momento <math>T_i+2</math>µs el host "Riquelme" recibe en su buffer datos para ser enviados por el enlace. El host "Riquelme" esta a 2500 metros pasando por 4 hubs/repeaters.</b>


Según fotocopias:
Se necesitan 10 bits.
*No lo envían, porque al censarlo detectan colisión.
*Provoca colisión


===Ejercicio 26===
==Ejercicio 25==
<b>¿Qué problemas puede presentar usar CSMA/CD en una red wireless? Detallar.</b>


<b>Respuesta:</b>
''En un protocolo de ventana deslizante; ¿Porqué no tiene sentido que la ventana de recepción sea más grande que la ventana de transmisión?''


El problema de la estación oculta - estación expuesta. Supongamos B ve a A y a C, pero A y C no se ven. Si A le envía algo a B, C no se va a dar cuenta de que B está recibiendo algo de A y va haber colisión.
Ver Peterson p104


===Ejercicio 27===
''Respuesta:''
<b>Se tiene el siguiente esquema de una WLAN (IEEE 802.11b, 11 Mbps) cuyos AP (Access Point) están interconectados mediante una LAN IEEE 802.3, 10 Mbps:</b>
[[Image:RedesP2Ej53.png|thumb|right|Enunciado del Ejercicio 27]]
<b>¿Cuál es la velocidad de transferencia a nivel 3 (IP) entre dos nootebooks, una de ellas con la dirección MAC registrada en el AP configurado en el canal uno y la otra con dirección MAC registrada en el AP configurado en el canal 6?</b>
*<b>11 Mbps</b>
*<b>10 Mbps</b>
*<b>Menor a 9 Mbps</b>
*<b>Mayor a 11 Mbps</b>
*<b>7 Mbps</b>
*<b>Ninguna de las anteriores</b>
*<b>Cualquiera de las anteriores</b>
<b>En las denominadas redes ad-hoc uno de los problemas es el de la terminal oculta. Por ello se implementó un mecanismo de Detección Virtual de Portadora utilizando tramas RTS/CTS. ¿En redes con AP es necesario este mecanismo?</b>
<b>¿Cuáles son los campos de direcciones MAC que deben intervenir para la transferencia entre una notebook cuya dirección MAC está registrada en el AP del canal 1 y otra notebook cuya dirección MAC está registrada en el AP del canal 6?</b>


Según fotocopias:
La ventana del emisor indica el número máximo de paquetes que pueden estar en vuelo simultáneamente sin esperar un ACK (es decir, pueden llegar desordenados por errores de transimisión), con lo que no tiene sentido tener más buffers que los necesarios.
*Menor a 9 Mbps o 7 Mbps, ya que las otras no son posibles pues no entran los paquetes.
*Si es necesario porque puede haber transmisiones de terceros que interfieran las de nuestra red.
*Se utilizan los 4 campos: dir1 es el destino final, dir2 es el emisor inmediato (el último que forwardeó), dir3 es la dirección inmediata, y dir4 es emisor original


==Direct Links: LAN Switching - STP - VLANs - Troncales - EtherChannel==
==Ejercicio 26==
===Ejercicio 28===
''¿Qué empresa fabrica el adaptador Ethernet de la computadora que usted usa normalmente? Determine cuál es el prefijo (OUI) de la dirección asignado a este fabricante.''
<b>Dada la siguiente topología de LAN:</b>
[[Image:RedesP2Ej42.PNG|thumb|right|Enunciado del Ejercicio 28]]
<b>donde los dispositivos que conectan los dos segmentos ethernet son LAN switches. ¿Qué problema se puede presentar si alguna de las PCs envía un mensaje broadcast? ¿Cómo se soluciona?</b>


<b>Respuesta:</b>
==Ejercicio 27==
''¿Por qué es importante para los protocolos configurados sobre Ethernet tener un campo de longitud en su encabezado indicando cuán largo es el mensaje?''


El problema es que como hay ciclos se quedarian los mensajes broadcast dando vueltas indefinidamente.
'''Respuesta:'''
Se soluciona utilizando el STP.Es decir, haciendo el algoritmo de Spanning Tree para que no hayan ciclos.


===Ejercicio 29===
Esto es debido a que los mensajes pueden tener longitud variable. Deben tener un mínimo de 46 bytes (así esta definido en el standard de ethernet) para poder detectar colisiones y un máximo de 1500. Por ejemplo si el mensaje del protocolo fuera de menos de 46 bytes el driver Ethernet agregaría ceros para completar 46 bytes, si el protocolo de la capa de arriba no tiene un campo de longitud podría confundir los ceros con datos.
*<b>En una red LAN que conecta 10 switches a través de trunks IEEE 802.1Q se implementan 50 VLANs, donde el árbol de STP (Spanning Tree Protocol - IEEE 802.1d) se arma para cada VLAN. ¿Cómo se diferencian los BPDU (Bridge Packet Data Unit) para el armado de cada árbol si en el contenido del BPDU no hay campo para indicar a que VLAN pertenece?</b>
*<b>Suponga que dos LAN switches tienen el mismo Bridge Priority y la misma dirección MAC. Indicar dos posibles problemas.</b>


Según fotocopias:
==Ejercicio 28==
*El paquete que pasa por el trunk tiene un id y éste lleva encapsulado BPDU
==Ejercicio 29==
*Va a haber 2 trunks y pueden duplicarse paquetes


===Ejercicio 30===
''Un protocolo de nivel de enlace punto a punto, orientado a conexión y confiable, utiliza ventana deslizante con 3 bits de secuenciamiento para transportar frames sobre un enlace satelital con una tasa de errores relativamente alta. Mencionar cuáles son los valores óptimos de tamaño de ventana de transmisión y recepción si el protocolo utiliza NAKs.''
<b>Para resolver ciclos en una red Ethernet (IEEE 802.3) se utiliza el Spanning Tree (IEEE 802.1d). Suponga que se trabaja con una red de 5 LAN switches dividida por 10 VLANs implementadas en todos los switches. ¿Cómo conviene utilizar Spanning Tree? ¿Un único árbol para todas las VLANS? ¿O un árbol por cada VLAN? Analice ventajas y desventajas.</b>


Según fotocopias:
Ver Peterson pp 101-105
Un árbol para cada VLAN, ni idea por qué.


CST: Common Spanning Tree, un mismo árbol para todas las VLAN -> Sencillo y barato / No es óptimo para algunas o todas las VLAN
''Respuesta:''


PVST: Per VLAN Spanning Tree, un árbol por VLAN -> Óptimo para todas las VLAN / Muy Costoso
Suponiendo que 2^n >= E + R ''(en desacuerdo con el Peterson, que indica desigualdad estricta, pero según lo vimos en clase)'', y tomando E = R, resulta


MST: Multiple Spanning Tree, varios árboles cada uno para un conjunto de VLAN seteadas administrativamente -> A mano parte del seteo, no todos lo implementan
8 >= 2E
E = 4


===Ejercicio 31===
Puesto que el protocola soporta NAKs, conviene que la ventana de recepcion sea igual a la de emision, ya que ante un error (que en este caso son frecuentes) se puede retransmitir solamente el paquete fallido, y no es necesario reenviar toda la ventana.
<b>Se tiene el siguiente diagrama de conectividad con EtherChannel que muestra su funcionamiento:</b>
[[Image:RedesP2Ej51.png|thumb|right|Enunciado del Ejercicio 31]]
<b>¿Por qué las tramas que salen del host A dirigidos al host D siguen el mismo camino y no se envían por otros enlaces integrantes del EtherChannel? ¿Por qué no se puede hacer un balance de carga por bytes en EtherChannel?</b>


<br><b>Rta:</b>
==Ejercicio 30==
NO HAY QUE HACERLO.


Siempre siguen el mismo camino porque el camino es elegido basándose en un hash propietario que toma en cuenta el origen y el destino. Hay que tener en cuenta que siempre van por el mismo canal porque al estar en el nivel 2 los paquetes <b>no deben desordenarse</b>. Si se multiplexara por byte u otro medio podría llegar alguna parte enviada por un enlace rápido antes que una enviada por un enlace lento anteriormente.
==Ejercicio 31==
==Ejercicio 32==
''La norma IEEE 802.3 especifica los nivles OSI:


===Ejercicio 32===
..opciones''
<b>*Dos LAN switches se comunican entre sí por un EtherChannel de 4 enlaces FastEthernet. A uno de los switches se conectan 3 PCs a 100Mbps cada una. Al otro dos PCs a 10Mbps cada una ¿Cuál es el ancho de banda máximo que se puede aprovechar del EtherChannel en cada sentido?</b>
<b>*Entre dos LAN switches existe un Etherchannel, compuesto por 4 enlaces 10 Gigabit Ethernet. A un switch se conectan 3 PCs y 2 routers a 1 Gigabit Ethernet. Al otro sólo dos routers a 1 Gigabit Ethernet. ¿Cuál sería el máximo BW utilizado del Etherchannel?</b>


<br><b>Rta a la primera pregunta:</b>
''Respuesta:''


[[Image:RedesP2Ej54.png|thumb|Resolución del Ejercicio 32a]]
niveles 1 y 2
300 Mbps para un lado y 20 Mbps para el otro. Esto se debe a que cada host sólo puede transmitir a otro host por medio de UN enlace.


Notar que lo realmente aprovechable es el mínimo procesable el cual es 20Mbps en ambos sentidos.
==Ejercicio 33==
''¿Para qué se utiliza el preámbulo de Ethernet (802.3)?''


<br><b>Rta a la segunda pregunta:</b>
''Respuesta:''


Suponiendo que los switches hacen store-and-forward vamos a calcular el uso de ancho de banda maximo para cada lado.
Se utiliza para sincronización.
*Para la derecha: en el mejor de los casos 5 hosts/routers envian al mismo tiempo, eso haría que usen un máximo de <b>5 Gbps</b> siempre y cuando manden hacia ambos routers y el algoritmo de hashing haga que todos los canales del Etherchannel se ocupen. Esto puede darse porque no importa la combinación nunca van a superar la capacidad de ni siquiera uno de los canales del Etherchannel, sin embargo como no hay ancho de banda suficiente para recibir (en los routers de la derecha) los mensajes finalmente serán descartados si se congestiona el switch.
*Para la izquierda: solo hay, en cambio, dos posibles orígenes. Si ambos envían al mismo tiempo y dos canales distintos son ocupados entonces la máxima transferencia es de <b>2 Gbps</b>.


<b>Ernesto dice:</b>
==Ejercicio 34==
Está bien.
''¿Qué pasa si en una red Ethernet las estaciones esperan un tiempo fijo T antes de intentar transmitir un dato en buffer? Asuma que el tiempo fijo T cuenta a partir del momento en que el dato está libre.''


===Ejercicio 33===
''Respuesta:''
<b>Se tiene una conexión entre un par de LAN Switches con un EtherChannel compuesto de 4 enlaces. ¿Cómo piensa que debería tratar STP (Spanning Tree Protocol) al EtherChannel para el cálculo del árbol de caminos?</b>


<br><b>Rta:</b>
En este caso habrá una alta probabilidad de que se produzcan colisiones.
Esto es debido a que si varias estaciones quieren enviar algun dato en el mismo momento (mientras el canal esta ocupado) esperarán ambas un tiempo T. Si el canal se desocupó las 2 estaciones mandarán el dato y producirán colision.


El Etherchannel siempre es tratado como un <b>único</b> enlace de la suma de las capacidades de sus subenlaces.
En caso que no se haya desocupado, entonces esperarán nuevamente un tiempo T y se fijarán nuevamente, y esperaran sucesivamente de a T unidades de tiempo hasta que este desocupado y luego cuando se desocupe intentarán de mandar al mismo tiempo y colisionaran.  


===Ejercicio 34===
Y es probable que (aunque de esto no estoy seguro) que sigan colisionando en forma indefinida.
<b>En una LAN existen dos switches L2 que se conectan vía un enlace EtherChannel compuesto de 4 enlaces GigabitEthernet. Sobre el mismo se configuró IEEE 802.1Q para etiquetar a los frames indicando a que VLAN pertenecen. Indicar dos formas válidas distintas de distribuir la carga sobre los 4 enlaces.</b>


<b>Respuesta:</b>
==Ejercicio 35==
==Ejercicio 36==
''Sea P el tiempo de propagación en una LAN usando el protocolo MAC 802.3 (CSMA/CD). ¿Cuál es el período de tiempo máximo que deberá transcurrir para que las estaciones que enviaron un paquete se aseguren de que no ocurrió una colisión? ¿Qué relación guarda este con el tamaño mínimo de la trama de la norma? ¿Qué pasa si un emisor desea transmitir una trama de datos de tamaño menor al mínimo especificado?''


Cualquier función de hash (modulo 4) que tome como entrada el origen, el destino y la VLAN correspondiente. Usar directamente el nro de VLAN puede no ser válido pues si hay solamente dos VLANs quedan dos enlaces sin uso.
'''Respuesta:'''


===Ejercicio 35===
Ver páginas 117-119 del Peterson.
<b>Entre dos LAN switches L2 denominados A y B existe una conexión IEEE 802.1Q. Físicamente están conectados por un tercer switch L2, denominado C, que solo se usa para esa conexión. El switch C no sabe nada de 802.1Q ni de VLANs. ¿En base a qué criterio decide forwardear tráfico el switch C? Entre los switches A y B no hay ningún protocolo estableciendo o manteniendo el trunk,
ambos lo tienen configurado estáticamente.</b>


Según fotocopias:
Deben esperar 2P. Esto ocurre ya que para dos hosts A, B, si A transmite puede tardar P (tiempo) en llegar a B. Si B comienza a transmitir justo antes de que llegue el paquete de A entonces la colisión tardará P (tiempo) en volver a llegar a A y este ver la colisión.
Por la dirección destino y la dirección origen.


===Ejercicio 36===
El tamaño mínimo de la trama está elegido a propostito ya que, como Ethernet especifica que hay una distancia (fisica) D máxima entre dos hosts entonces a la velocidad que transmite el medio alcanza con esa cantidad de bytes para inundar el medio y poder detectar una colisión.
<b>Se tiene la siguiente LAN con un switch L2 que une 4 hosts (H1 a H4). Se envían los siguientes frames, en este orden:
H1 a H2
H4 a H3
H2 a H1
H1 a H3
H3 a H1


Sabiendo que la tabla de MAC address del switch se encuentra vacía, diga si los siguientes frames son enviados directamente a destino por el switch o son transmitidos por todos los puertos (broadcast). Indique también los cambios en la tabla de MAC address del switch, asumiendo que las entradas no expiran a lo largo del ejercicio.</b>
==Ejercicio 37==
''El algoritmo para el cálculo del retardo para la transmisión en CSMA/CD es el siguiente:''
if intentos <= 16 then
begin
    k:= min(intentos,10);
    r:= random(0,2k-1);
    retardo:= r * ranura_de_tiempo;
    intentos:= intentos+1;
end;
''donde r es un número entero generado de manera aleatoria a partir de una función de distribución uniforme.''
*''¿Qué relación encuentra entre el número de colisiones que sufre un transmisor y el tiempo que deberá esperar para intentar retransmitir una trama?''
*''¿Qué tipo de prioridad implícita genera esto?''
*''¿Porqué el tiempo de retardo es múltiplo de un número entero de ranuras de tiempo?''
*''¿Qué ocurre en el protocolo si intentos es mayor que 16? ¿Porqué existe esta cota superior?''


En orden:
'''Respuesta:'''


<table border="1">
Ver página 119 del Peterson.
<tr>
<th>ACCION </th><th> TODOS/DESTINO </th><th> CAMBIO EN TABLA</th>
</tr>
<tr>
<td> H1 a H2 </td><td>  A TODOS </td><td>    Aprende donde esta H1  </td>
</tr> <tr>
<td> H4 a H3 </td><td>  A TODOS</td><td>    Aprende donde esta H4  </td>
</tr> <tr>
<td> H2 a H1</td><td>  DESTINO</td><td>    Aprende donde esta H1  </td>
</tr> <tr>
<td> H1 a H3</td><td>  A TODOS</td><td>    No aprende nada pq ya sabe todo de H1  </td>
</tr> <tr>
<td> H3 a H1 </td><td>  DESTINO  </td><td>  Aprende donde esta H3  </td>
</tr>
</table>


===Ejercicio 37===
==Ejercicio 38==
<b>Si a un switch se le presenta un mensaje con dirección MAC unicast de origen desconocida, ¿Qué hace? ¿Y con dirección MAC unicast de destino desconocida?</b>
<i>
¿ Por qué en LANs se divide la capa de enlace de datos en dos subcapas ? ¿ Se ocupan ambas de
controlar errores en los datos ? ¿ Qué tipos de servicios ofrece cada una de ellas ?
</i>
<br><br>'''Rta:'''<br>
Cada sub-capa tiene una tarea especifica, en particular la sub-capa de LLC es la que se podria encargar de manejar el protocolo de forma que sea orientado a conexion y/o confiable dandole un servicio extra a la capa de arria, mientras que la sub-capa MAC esta mas relacionada con el medio fisico y depende del medio tambien, sin embargo la LLC puede trabajar con cualquier tipo de sub-capa MAC. Es decir, LLC es como un "nivelador" que tapa las diferencias entre las capas MAC.


Según fotocopias:
==Ejercicio 39==
*con origen desconocido se agrega la dirección a su tabla
<i>
*con destino desconocido se hace broadcast
Analizar la veracidad de la siguiente afirmación:
"En MAC 802.3 (CSMA/CD), si una trama es transmitida al medio físico sin colisiones puede asegurarse que la subcapa receptora la entrega correctamente a su capa superior"
</i>
<br><br>'''Rta:'''<br>
Es falsa, debido a que pueden habar errores en el transmisor o el receptor a nivel fisico o enlace. Cualquier error que altere los bits en el cable (que no sea detectado como colision) causa que el paquete se pase con errores a la capa superior o no (si el CRC matchea o no respectivamente)


===Ejercicio 38===
==Ejercicio 40==
<b>En la tabla de forwarding de un switch Ethernet se tiene las siguientes dos entradas:</b>
<i>
{| border="1" cellspacing="0" cellpadding="5"
Se tiene una red con 10 terminales, que transmiten grandes volúmenes de datos a una tasa mas o menos constante, y comparten un canal físico en común. Se proponen las siguientes estrategias de multiplexación para dicho canal:
!Dirección de destino !! Port de salida !! VLAN
* TDM con intervalos equitativos de tiempo para cada una de las 10 terminales.
|-
* FDM con 10 intervalos equitativos de frecuencia uno para cada terminal.
|00:00:0c:12:34:56 || e0 || 1
Decidir cuál es la estrategia mas apropiada para dicha red. ¿ Cuál de las 2 estrategias tiene menor desperdicio de ancho de banda?
|-
</i>
|00:00:0c:12:34:56 || e1 || 2
<br><br>'''Rta:'''<br>
|}
Ambos son mas o menos parejos, TDM aprovecha que la tasa es constante para estar listo a transmitir datos a casa terminal en el instante que lo necesite, y en FDM los canales estan siempre transmitiendo, asi que tampoco hay desperdicio.
<b>¿Es esto posible?</b>


Hay dos PC con la misma MAC en dos VLAN distintas, como poder ser posible es posible (modificaron por soft el numero) pero no sabemos si el ejercicio apunta a eso.
==Ejercicio 41==
<i>
# Por qué en LLC (IEEE 802.2) no se realiza detección de errores en los frames ?
# ¿ Por qué en general en los frames de cualquier protocolo de nivel de enlace los códigos de redundancia se ubican al final de los mismos ?
# Describir una ventaja y dos desventajas de usar Cut-Through con respecto a Store&Forward como modo de switching en LAN Switches.
</i>
<br><br>'''Rta:'''<br>
# De esto se encarga la sub-capa MAC
# Generalmente hay un chip que calcula el CRC en paralelo mientras el frame esta saliendo al cable, entonces el ponerlo al final permite hacer ambas cosas a la vez
# S&F almacena los frames para luego reenviarlos pudiendo manejar distinto dominios de colision y sin transmitir una a otros dominios, y evita que todas las estaciones de la LAN vean los frames enviados a otros destinos. CT, una vez que averigua el destino, pasa directamente los bits al puerto de salida a medida que entran por el puerto de entrada; la idea es ahorrar tiempo, en vez de esperar que llegue todo el frame para enviarlo.


<b>El ejercicio justamente apunta a eso. Es perfectamente posible, especialmente si hay multiples spanning tree. Ni siquiera es necesario que haya dos placas distintas con la misma MAC address. Podria ser la misma placa que pertenece a la vez a dos VLANs. Verificado por Ernesto.</b>
==Ejercicio 42==
==Ejercicio 43==
==Ejercicio 44==
==Ejercicio 45==
==Ejercicio 46==
==Ejercicio 47==
==Ejercicio 48==
==Ejercicio 49==
==Ejercicio 50==
==Ejercicio 51==
==Ejercicio 52==
==Ejercicio 53==
==Ejercicio 54==
==Ejercicio 55==
==Ejercicio 56==
==Ejercicio 57==
==Ejercicio 58==
==Ejercicio 59==
==Ejercicio 60==
==Ejercicio 61==
<i>
Sea C un canal físico de comunicaciones. Al aumentar el ancho de banda disponible de C, la velocidad de propagación de la señal:
* Aumenta
* Disminuye
* Permanece constante
* Ninguna de las anteriores
</i>
<br><br>'''Rta:'''<br>
Permanece constante (siempre y cuando los otros parametros del canal permanezcan ctes)


===Ejercicio 39===
==Ejercicio 62==
<b>En una red con 2 LAN switches que están interconectados por 4 enlaces GigabitEthernet. ¿Se pueden usar los 4 enlaces al mismo tiempo?</b>
<i>
Sea C un canal físico de comunicaciones. Al aumentar la longitud de C, el ancho de banda disponible:
* Aumenta
* Disminuye
* Permanece constante
* Ninguna de las anteriores
</i>
<br><br>'''Rta:'''<br>
Permanece constante


No, pues el camino es único.
==Ejercicio 63==
<i>
Sea C un canal físico de comunicaciones. Al aumentar la longitud de C, el tiempo de propagación de la señal:
* Aumenta
* Disminuye
* Permanece constante
* Ninguna de las anteriores
</i>
<br><br>'''Rta:'''<br>
Aumenta


==Ejercicios adicionales de la práctica vieja==
==Ejercicio 64==
[[Práctica 1: Ejercicios adicionales|Entrar aquí]]
==Ejercicio 65==
==Ejercicio 66==
==Ejercicio 67==
==Ejercicio 68==
==Ejercicio 69==
==Ejercicio 70==
==Ejercicio 71==
==Ejercicio 72==
==Ejercicio 73==
==Ejercicio 74==
==Ejercicio 75==
==Ejercicio 76==
==Ejercicio 77==
==Ejercicio 78==
==Ejercicio 79==
==Ejercicio 80==
==Ejercicio 81==
==Ejercicio 82==
==Ejercicio 83==
==Ejercicio 84==
==Ejercicio 85==
==Ejercicio 86==
==Ejercicio 87==
==Ejercicio 88==
==Ejercicio 89==
==Ejercicio 90==
==Ejercicio 91==
==Ejercicio 92==
==Ejercicio 93==
==Ejercicio 94==
==Ejercicio 95==
==Ejercicio 96==
==Ejercicio 97==
==Ejercicio 98==
==Ejercicio 99==
==Ejercicio 100==


[[Category:Prácticas]]
[[Category:Prácticas]]
[[Category:Teoría de las Comunicaciones]]
Ten en cuenta que todas las contribuciones a Cuba-Wiki pueden ser editadas, modificadas o eliminadas por otros colaboradores. Si no deseas que las modifiquen sin limitaciones, no las publiques aquí.
Al mismo tiempo, asumimos que eres el autor de lo que escribiste, o lo copiaste de una fuente en el dominio público o con licencia libre (véase Cuba-Wiki:Derechos de autor para más detalles). ¡No uses textos con copyright sin permiso!

Para editar esta página, responde la pregunta que aparece abajo (más información):

Cancelar Ayuda de edición (se abre en una ventana nueva)

Plantilla usada en esta página: