Final del 10/04/2001 (Teoría de las Comunicaciones)

De Cuba-Wiki
Saltar a: navegación, buscar
Back.png Volver a la página de la materia

Ejercicio 1[editar]

Describa el mecanismo de control de congestión en TCP.

Ver final del 07/08/2001.

Ejercicio 2[editar]

Qué diferencia existe entre el control de errores de N4 y N2.

  • En n2 es CRC y en n4 es Checksum, la de n2 es mucho mejor que n4 porque bla bla bla.
  • N2 es fácilmente implementable en hardware, por requerir solo XOR y shift, en gran parte por eso está implementado en n2 (en los adaptadores).
  • Checksum es más facil de implementar en software, y si bien es mucho más débil que CRC, los resultados empíricos mostraron que era suficiente como para agarrar aquellos errores no detectados por n2 o que no existían en ese nivel (porque se introdujeron en los routers, por ej).

Ejercicio 3[editar]

Describa el mecanismo para implementar el proceso de no repudiación.

No repudiación implica el asegurar que cada parte cumplió su rol en la transmisión de un mensaje, es decir, no repudiación de origen implica que el sender no puede negar el haber emitido un mensaje, y de destino el equivalente para el receptor.

Para el caso del emisor se utilizan firmas digitales de los mensajes. Como solamente el emisor (supuestamente) conoce la clave privada utilizada para encriptar los mensajes, es el único quien puede producirlos.

Para el receptor ya es más complicado, es necesario un árbitro en el medio de la transmisión que reciba los ACKs del receptor (firmados o encriptados) y los valide.

Ejercicio 4[editar]

Describa el mecanismo de fragmentación en IP.

Si un paquete IP llega a un router que tiene que reenviarlo por un enlace cuyo MTU es menor al tamaño del paquete, se lo fragmenta para que entre. El destino es el encargado de rearmar el paquete en base al contenido de los campos id, length, offset y more fragments. Si se pierde un fragmento se descarta el paquete entero.

Ejercicio 5[editar]

Relación entre información y entropía de una fuente de información.

La entropía de una fuente de información indica la cantidad media de información por cada símbolo de esa fuente. Se calcula como un promedio ponderado de la cantidad de información de cada símbolo i (la ponderación es en base a la probabilidad de ocurrir).

A mayor entropía, mayor cantidad de información por símbolo proporcionada por la fuente. La entropía máxima se logra cuando todos los símbolos son equiprobables.