Diferencia entre revisiones de «Fórmulas Primer parcial (Teoría de las Comunicaciones)»

De Cuba-Wiki
(un poco de teoria de la informacion)
 
(No se muestran 7 ediciones intermedias del mismo usuario)
Línea 1: Línea 1:
<div style="border: 1px solid #CECEFF; padding: 5px; background-color: #EEEEFF; margin: 0px 0px 15px 0px;">[[Image:Back.png|14px|]] [[Teoría de las Comunicaciones|Volver a la página de la materia]]</div>
{{Back|Teoría de las Comunicaciones}}


== Bandwidth and latency ==
== Performance ==
*Latency = Propagation + Transmit + Queue
 
*Propagation = Distance/SpeedOfMedium
'''Nota: Throughput = Bandwidth'''
*Transmit = Size/Bandwidth
 
==== Latency/Throughput ====
 
* Latency = RTT/2 = PropagationDelay + TransmitDelay + QueueDelay
* PropagationDelay = Distance/SpeedOfMedium
* TransmitDelay = TransmitSize/Bandwidth


== Teoría de la Información ==
== Teoría de la Información ==
==== Shannon's Theorem ====
==== Shannon's Theorem ====
<math>C = B \times log_2 (1 + S/N)</math>
<math>C = B \times log_2 (1 + S/N)</math>
*B es el ancho de banda
* B es el ancho de banda
*C es la capacidad
* C es la capacidad
*S/N es la relacion señal ruido en dB
* S/N es la relacion señal ruido, generalmente dada en db
* Vale 1db = 10 log10 (S/N)


==== Información de un evento ====
==== Información de un evento ====
<math>I(e) = -log_2(P(e))</math>
<math>I(e) = -log_2(P(e))</math>


==== Entropía ====
==== Entropía ====
Cantidad media de información por símbolo
Cantidad media de información por símbolo


<math>H(s) = -\sum_{e \in s} P(e)log_2(P(e))</math>
<math>H(s) = -\sum_{e \in s} P(e)log_2(P(e)) = \sum_{e \in s} P(e) I(e) </math>
 
==== Inecuacion de Kraft ====
 
Condicion necesaria y suficiente para la existencia de un codigo instantaneo
 
<math>\sum_{e \in s} 2^{-l_e} \leq 1</math>
 
==== Longitud media ====
 
<math>L(s) = \sum_{e \in s} P(e) l_e </math>
 
==== Condicion necesaria para univoco ====
 
<math>H(s) \leq L(S)</math>
 
* La igualdad se verifica cuando los logaritmos de las inversas de las probabilidades (los ''I(e)'') son nros enteros.
 
==== Tasa de informacion ====
 
<math>R = r * H(s)</math>
* R se mide en bits/tiempo
* r es cantidad de simbolos/tiempo
* r se calcula en funcion de la longitud media y el tiempo por pulso binario
 
== Hamming ==
La distancia de Hamming indica cuantos bits es necesario como minimo que sean erroneos para lograr engañar al codigo.
* Si <math>d = n+1</math>, es posible detectar errores de hasta ''n'' bits.
* Si <math>d \geq 2m + 1</math>, es posible corregir errores de hasta ''m'' bits.


== Sliding window ==
== Sliding window ==
Debe cumplirse que <math>2^{seqbits} \ge E+R</math> donde E y R son las ventanas de emisor y receptor. Si se verifica la formula se elimina el solapamiento.
* Debe cumplirse que <math>2^{seqbits} \ge E+R</math> donde E y R son las ventanas de emisor y receptor. Si se verifica la formula se elimina el solapamiento.
* El tamaño de la ventana de emision se calcula como RTT * Vtx / FrameSize


== Internetworking ==
== Internetworking ==

Revisión actual - 06:01 30 sep 2013

Plantilla:Back

Performance[editar]

Nota: Throughput = Bandwidth

Latency/Throughput[editar]

  • Latency = RTT/2 = PropagationDelay + TransmitDelay + QueueDelay
  • PropagationDelay = Distance/SpeedOfMedium
  • TransmitDelay = TransmitSize/Bandwidth

Teoría de la Información[editar]

Shannon's Theorem[editar]

  • B es el ancho de banda
  • C es la capacidad
  • S/N es la relacion señal ruido, generalmente dada en db
  • Vale 1db = 10 log10 (S/N)

Información de un evento[editar]

Entropía[editar]

Cantidad media de información por símbolo

Inecuacion de Kraft[editar]

Condicion necesaria y suficiente para la existencia de un codigo instantaneo

Longitud media[editar]

Condicion necesaria para univoco[editar]

  • La igualdad se verifica cuando los logaritmos de las inversas de las probabilidades (los I(e)) son nros enteros.

Tasa de informacion[editar]

  • R se mide en bits/tiempo
  • r es cantidad de simbolos/tiempo
  • r se calcula en funcion de la longitud media y el tiempo por pulso binario

Hamming[editar]

La distancia de Hamming indica cuantos bits es necesario como minimo que sean erroneos para lograr engañar al codigo.

  • Si , es posible detectar errores de hasta n bits.
  • Si , es posible corregir errores de hasta m bits.

Sliding window[editar]

  • Debe cumplirse que donde E y R son las ventanas de emisor y receptor. Si se verifica la formula se elimina el solapamiento.
  • El tamaño de la ventana de emision se calcula como RTT * Vtx / FrameSize

Internetworking[editar]

  • Tamaño del header IP: 20 bytes
  • El offset de un paquete fragmentado se mide en multiplos de 8 bytes.