Edición de «Fórmulas Primer parcial (Teoría de las Comunicaciones)»
De Cuba-Wiki
Puedes deshacer la edición. Antes de deshacer la edición, comprueba la siguiente comparación para verificar que realmente es lo que quieres hacer, y entonces publica los cambios para así efectuar la reversión.
Revisión actual | Tu texto | ||
Línea 1: | Línea 1: | ||
<div style="border: 1px solid #CECEFF; padding: 5px; background-color: #EEEEFF; margin: 0px 0px 15px 0px;">[[Image:Back.png|14px|]] [[Teoría de las Comunicaciones|Volver a la página de la materia]]</div> | |||
= | == Bandwidth and latency == | ||
*Latency = Propagation + Transmit + Queue | |||
*Propagation = Distance/SpeedOfMedium | |||
*Transmit = Size/Bandwidth | |||
* Latency = | |||
* | |||
* | |||
== Teoría de la Información == | == Teoría de la Información == | ||
==== Shannon's Theorem ==== | ==== Shannon's Theorem ==== | ||
<math>C = B \times log_2 (1 + S/N)</math> | <math>C = B \times log_2 (1 + S/N)</math> | ||
* B es el ancho de banda | *B es el ancho de banda | ||
* C es la capacidad | *C es la capacidad | ||
* S/N es la relacion señal ruido | *S/N es la relacion señal ruido en dB | ||
==== Información de un evento ==== | ==== Información de un evento ==== | ||
<math>I(e) = -log_2(P(e))</math> | <math>I(e) = -log_2(P(e))</math> | ||
==== Entropía ==== | ==== Entropía ==== | ||
Cantidad media de información por símbolo | Cantidad media de información por símbolo | ||
<math>H(s) = -\sum_{e \in s} P(e)log_2(P(e) | <math>H(s) = -\sum_{e \in s} P(e)log_2(P(e))</math> | ||
== Sliding window == | == Sliding window == | ||
Debe cumplirse que <math>2^{seqbits} \ge E+R</math> donde E y R son las ventanas de emisor y receptor. Si se verifica la formula se elimina el solapamiento. | |||
== Internetworking == | == Internetworking == |