Diferencia entre revisiones de «Práctica 1: Transmisión de información (Teoría de las Comunicaciones)»

De Cuba-Wiki
(redes p1 ej5 ic)
(redes p1 ej6)
Línea 191: Línea 191:


B[Hz] = 60/log2(1+ 10^(30db/10)) = 6.02
B[Hz] = 60/log2(1+ 10^(30db/10)) = 6.02
===Ejercicio 6===
<b>Calcule la Capacidad de Volumen (cantidad de bits que entran simultáneamente) en cada uno de los
siguientes medios físicos de transmisión, asumiendo que se los utiliza a su máxima Capacidad de Transmisión
(es decir, sin pérdida de información):</b>
<b>a. D = 100km, Vprop = 200000km/s, SNR = 100dB, B = 400Hz</b>
<b>b. D = 100km, Vprop = 200000km/s, SNR = 10dB, B = 400kHz</b>
<b>c. D = 100km, Vprop = 300000km/s, SNR = 10dB, B = 400kHz</b>
<b>d. D = 100m, Vprop = 300000km/s, SNR = 10dB, B = 400kHz</b>
<b>Rta:</b>
<b>Capacidad de Volumen de un canal (también "Producto Delay por Velocidad de Transimisión" o "Producto Delay por Ancho de Banda")
Cvol[bits] = Delay * Vtx
</b>
<b>Delay
Delay[Seg] = Ttx + Tprop
</b>
<b>Tiempo de Transmisión de un bit
Ttx[Seg] = 1/Vtx
</b>
<b>Velocidad de transmisión sin pérdida de información
Vtx[bps]  <= C[bps] -> Vtx max [bps] = C[bps]
</b>
<b>Capacidad de un canal (limitado en potencia, en acho de banda y con ruido)
C[bps] = B[Hz] * log2(1 + SNR[Veces])
con SNR[veces] = 10^(SNR[dB]/10) y B el ancho de banda disponible.</b>
<b>Tiempo de Propagación de un bit:
Tprop[Seg] = D/V
con D la distancia del enlace y V la velocidad de propagación de la forma de onda en el medio físico.</b>
Cvol[bits] = ( 1/C[bps] + D/V  ) * C[bps] = 1 + (D*C[bps])/Vprop
<b>a.</b>
C[bps] = 400Hz * log2(1 + 10^(100dB/10) = 13288 bps
D = 100km
V = Vprop = 200000km/s
Cvol[bits] = 1 + (13288 bps * 100Km)/200000km/s = 7 bits
<b>b.</b>
C[bps] = 400KHz * log2(1 + 10^(10dB/10) = 1383 kbps = 1383000 bps
D = 100km
V = Vprop = 200000km/s
Cvol[bits] = 1 + (100km*1383000 bps)/200000km/s = 692 bits
<b>c.</b>
C[bps] = 400KHz * log2(1 + 10^(10dB/10) = 1383 kbps = 1383000 bps
D = 100km
V = Vprop = 300000km/s
Cvol[bits] = 1 + (100km*1383000 bps)/300000km/s = 462 bits
<b>d.</b>
D = 100m = 0.1km
V = Vprop = 300000km/s
Cvol[bits] = 1 + (0.1km*1383000 bps)/300000km/s = 1 bit

Revisión del 19:54 25 jun 2016

Ejercicio 01

¿Qué cantidad de información se obtiene de la observación de los siguientes experimentos u objetos?

a. La tirada de una moneda equilibrada.

b. La tirada de un dado equilibrado.

c. Un codón (triplete de bases de ADN) en un genoma, donde cada base puede tomar 4 valores: A,T,C,G.

d. Una letra en un libro de Borges.

Rta:

Información de un evento: I(s) = -log2(P(s)) con P(s) la probabilidad del evento s

a. I(1/2) = -log2(1/2) = 1 bit

b. I(1/6) = -log2(1/6) = 2,58 bits

c. I( (1/4)^3 ) = -log2( (1/4)^3 ) = -log2(1/64) = 6 bits

d. I(#Cantidad Aparicion de letra "?"/ #Cantidad total de letras del libro)

Ejercicio 02

Una fuente de información binaria con memoria nula produce el símbolo s0 con probabilidad p0 y el símbolo s1 con probabilidad p1 = 1 - p0.

a. Formular la entropía de la fuente como función de p0.

b. Graficar H(p0).

c. Dar una interpretación de los puntos de la gráfica que considere interesantes.

Rta:

Entropía de una fuente: H(S) = SUMATORIAseS P(s) I(s)

a. H(S) = p0 * I(s0) + (1 - p0) * I(s1) = p0 * -log2(p0) + (1 - p0) * -log2(1 - p0)

b.Entropia-grafica.jpg

c. 0<=H<=log2 2

Ejercicio 03

Para la siguiente fuente

S = [P(A) = 0:4; P(B) = 0:3; P(C) = 0:2; P(D) = 0:1]

se proponen 3 códigos posibles

1. A = 00 ; B = 01 ; C = 11 ; D = 010

2. A = 0 ; B = 01 ; C = 011; D = 111

3. A = 1 ; B = 01 ; C = 001 ; D = 0001

a. ¿Cuáles son instantáneos?

b. ¿Cuáles son unívocamente decodificables?

c. ¿Cuál es más eficiente (H/L)?

d. ¿Alguno presenta pérdida de información?

Rta:

a. Un código es instantáneo o libre de prefijos si no codifica ningún símbolo como prefijo de otro.

1.No, B es prefijo de D.

2.No, A es prefijo de B.

3.Si, bit 1 sirve como limitador.

b. Un código es unívocamente decodificable si ninguna tira de símbolos del alfabeto código admite más de una única decodificación.

1.Si.

2.Si.

3.Si. Instantaneo --> Unívocamente decodificable.

c. Largo promedio de un código: L(C) = SUMATORIAseS P(s) l(C(s)) con l(C(s)) el largo de la codificación del símbolo s

L(C1) = P(A) * l(C(A)) + P(B) * l(C(B)) + P(C) * l(C(C)) + P(D) * l(C(D)) = 0.4 * 2 + 0.3 * 2 + 0.2 * 2 + 0.1 * 3 = 2.1

L(C2) = 1.9

L(C3) = 2

Dado que las probabilidades no cambian, la entropía de S es siempre igual (puntualmente, su valor es H(S) = 1,85). Luego, ofrecerá mejor rendimiento aquél código que minimice su longitud media. A simple vista queda claro que el código buscado es C2, cuya longitud media es L(C2) = 1,9.

d. Un código C sobre una fuente S codifica sin pérdida de información sii H(S) <= L(C)

Tenemos que H(S) < L(C2) < L(C3) < L(C1). Luego, ninguna de las tres longitudes medias es menor que la entropía de la fuente, lo cual garantiza que las tres codificaciones son sin pérdida de información.

Ejercicio 04

¿Cuánto vale la entropía y la longitud de la codificación de cada símbolo para las fuentes de información de los siguientes casos? Asumir que la codificación se da bajo el código óptimo.

a. 2 símbolos equiprobables

b. 4 símbolos equiprobables

c. 6 símbolos equiprobables

d. 8 símbolos equiprobables

e. 10 símbolos equiprobables

f. N símbolos equiprobables

Rta:

H(S) = SUMATORIA seS P(p0) * I(s0) = #S * (1/#S) * -log2(1/#S) = log2(#S)

C es óptimo sii L(C) es mínima (i.e., todo otro código sobre S tiene mayor o igual longitud promedio). --> H(S) = L(C). Siempre que H(S) sea potencia de 2, sino el próximo valor entero.

a. H(S) = L(C) = log2(2) = 1

b. H(S) = L(C) = log2(4) = 2

c. H(S) = log2(6) L(C) = [log2(6)] = 3

d. H(S) = L(C) = log2(8) = 3

e. H(S) = log2(10) L(C) = [log2(10)] = 4

f. H(S) = log2(N) L(C) = [log2(N)]

Ejercicio 05

Considere una señal de video en escala de grises que transmite imágenes a una resolución 640 x 480 píxeles, de los cuales cada uno puede asumir 10 niveles diferentes de brillo. Supongamos que la tasa de transmisión es de 30 imágenes por segundo y que la relación señal a ruido es de 30 dB.

a. Calcular la entropía de la fuente si todas las imágenes fueran equiprobables.

b. ¿Cuántos bits son necesarios para codificar cada imagen de manera óptima e instantánea con un código que asigne el mismo largo a todas las imágenes?

c. Calcular el ancho de banda mínimo requerido para soportar la transmisión de la señal resultante.

Rta:

a.log2(#S) (fuente equiprobables), Donde #S = 10^(640 x 480), entonces log2(10^(640 x 480)) = (640 x 480) * log2(10) = 1,02

b. En esta fuente equiprobable, tenemos que H(S) = log2(n), no siendo n una potencia de 2. Esto implica que no podemos pensar en recurrir a un código (óptimo) que asigne log2(n) bits por imagen, pues por supuesto estos valores deben ser números enteros. No obstante, la aproximación más cercana a este valor es tomar exactamente [log2(n)](próximo número entero) bits por imagen. De esta forma podremos armar un código que sea instantáneo (cada imagen recibe una tira de bits distinta) y “localmente óptimo”, entendiendo por esto que todo otro código que mapee cada imagen a una tira de bits de igual largo debe necesariamente poseer una longitud media igual o mayor.

L(C) = 2

c.

Teorema de Shannon: C[bps] = B[Hz] * log2(1 + SNR[veces]) con SNR[veces] = 10SNR[dB]=10 y B el ancho de banda disponible. Velocidad de transmisión sin pérdida de información: Vtx[bps] <= C[bps], con V max tx = C

Para responder este ítem, hay que usar el teorema de Shannon: C = B * log2(1 + SNR). Primero, la relación señal-ruido hay que pasarla de decibeles a veces: SNR = 1030/10 = 1000. Luego, como se necesitan 30 imágenes por segundo, la capacidad de canal debe ser mayor o igual que L(C) * 30 bps. Entonces, B = 60 / log2(1001) = 6.02 Hz.

Vtx[bps] = 30 (imagenes x segundo) * 2 (L(C)) = 60 bps

Vtx[bps] <= C[bps]

B[Hz] = 60/log2(1+ 10^(30db/10)) = 6.02

Ejercicio 6

Calcule la Capacidad de Volumen (cantidad de bits que entran simultáneamente) en cada uno de los siguientes medios físicos de transmisión, asumiendo que se los utiliza a su máxima Capacidad de Transmisión (es decir, sin pérdida de información):

a. D = 100km, Vprop = 200000km/s, SNR = 100dB, B = 400Hz

b. D = 100km, Vprop = 200000km/s, SNR = 10dB, B = 400kHz

c. D = 100km, Vprop = 300000km/s, SNR = 10dB, B = 400kHz

d. D = 100m, Vprop = 300000km/s, SNR = 10dB, B = 400kHz

Rta:

Capacidad de Volumen de un canal (también "Producto Delay por Velocidad de Transimisión" o "Producto Delay por Ancho de Banda") Cvol[bits] = Delay * Vtx

Delay Delay[Seg] = Ttx + Tprop

Tiempo de Transmisión de un bit Ttx[Seg] = 1/Vtx

Velocidad de transmisión sin pérdida de información Vtx[bps] <= C[bps] -> Vtx max [bps] = C[bps]

Capacidad de un canal (limitado en potencia, en acho de banda y con ruido) C[bps] = B[Hz] * log2(1 + SNR[Veces]) con SNR[veces] = 10^(SNR[dB]/10) y B el ancho de banda disponible.

Tiempo de Propagación de un bit: Tprop[Seg] = D/V con D la distancia del enlace y V la velocidad de propagación de la forma de onda en el medio físico.

Cvol[bits] = ( 1/C[bps] + D/V ) * C[bps] = 1 + (D*C[bps])/Vprop

a.

C[bps] = 400Hz * log2(1 + 10^(100dB/10) = 13288 bps

D = 100km

V = Vprop = 200000km/s

Cvol[bits] = 1 + (13288 bps * 100Km)/200000km/s = 7 bits

b.

C[bps] = 400KHz * log2(1 + 10^(10dB/10) = 1383 kbps = 1383000 bps

D = 100km

V = Vprop = 200000km/s

Cvol[bits] = 1 + (100km*1383000 bps)/200000km/s = 692 bits

c.

C[bps] = 400KHz * log2(1 + 10^(10dB/10) = 1383 kbps = 1383000 bps

D = 100km

V = Vprop = 300000km/s

Cvol[bits] = 1 + (100km*1383000 bps)/300000km/s = 462 bits

d.

D = 100m = 0.1km

V = Vprop = 300000km/s

Cvol[bits] = 1 + (0.1km*1383000 bps)/300000km/s = 1 bit