Final 16/10/2015 (Probabilidad y Estadística)

De Cuba-Wiki

Tomado por Pablo Groisman - Matthieu Jonckheere: Comentarios:

  • Durante el final NO se podía tener ninguna tabla (no eran necesarias) o apunte (hay que saber todas las distribuciones de memoria).
  • Los resultados debían quedar expresados en función de las variables, parámetros o términos que involucraran. No era necesario llegar al resultado numérico.
  • El final duro 3 horas.


1) (30 puntos)

  1. Enunciar y demostrar la desigualdad de Tchebychev.
  2. Enunciar y demostrar la Ley de los Grandes Números.
  3. Sea X1, …, Xn una muestra aleatoria de variables Bernoulli tales que P(Xi = 1) = p y P(Xi = 0) = 1-p, siendo p є (0, 1) desconocido. Sean Sn = Σ Xi (desde i=1 hasta n) y t > 0. ¿Cuan grande debe ser n para que P(| (Sn / n) - p | ≥ t) ≤ 0.001, independientemente del valor de p (desconocido)?.


2) (25 puntos)

Sean X1, …, Xn variables aleatorias iid (independientes e idénticamente distribuidas) con distribución P(λ) (poisson de parámetro lamda):

  1. Hallar el EMV (estimador de máxima verosimilitud) de λ.
  2. Hallar el EMV de P(Xi = 0).


3) (15 puntos)

Sea (x,y) un vector aleatorio tal que fXY(x,y) = λ2 * e(-1)*λ*y, 0 < x < y. ¿Que distribución tiene X|Y = y para y > 0?.


4) (30 puntos)

Sean X1, …, Xn variables aleatorias iid con distribución N(μ, σ2) (normal de parámetros mu y sigma cuadrado), siendo σ2 = σ20 conocida.

  1. Hallar el EMV de μ. Llamemos μMV al EMV de μ. Hallar la distribución de μMV. Justificar.
  2. H0: μ = μ0 vs H1: μ > μ0. Dar un test de nivel exacto α (alfa) y mostrar que el test propuesto tiene el nivel deseado.
  3. Sea μ1 > μ0 fijo. Hallar P(No rechazar H0 | μ = μ1) en términos de alguna función de distribución conocida.
  4. Hallar el limite de la probabilidad calculada en el inciso anterior cuando μ1 → ∞.


Pistas para resolver los ejercicios:

1)

  1. Leer el apunte de la materia con todas las demostraciones.
  2. Leer el apunte de la materia con todas las demostraciones.
  3. Sale aplicando la desigualdad de Tchebychev a la probabilidad. OJO!, es necesario utilizar la LGN (nos dice la distribución de (Sn / n), su esperanza y su varianza) para justificar adecuadamente el porque se puede utilizar Tchebychev. Luego, a p se lo podía acotar de muchas formas: p < 1 (la cota mas grosera), p * (1-p) ≤ 1/4.

2)

  1. Es un ejercicio típico de parcial/final y esta en la practica de estimadores de la materia. El resultado es el promedio de las Xi.
  2. Hay que plantear esa probabilidad y, en lo que queda, reemplazar a λ por el EMV de λ (calculado en el punto anterior). Se debe justificar utilizando el Principio de invarianza del EMV (importante!).

3)

  1. Es casi trivial (por eso vale tan pocos puntos). Solo hay que aplicar las definiciones una atrás de la otra. Se llega a una distribución uniforme en [0, y] (por eso dice y > 0).

4)

  1. Para hallar el EMV de μ hay hacer muchas cuentas, nada mas (en el apunte de la materia esta la demo hecha). Para hallar la distribución del EMV de μ, primero hay que calcular la FGM (función generadora de momentos) de una normal (si!, hay que calcularla para poder usarla). Luego, utilizando que FGMX+Y(z) = FGMX(z) * FGMY(z) si X e Y son independientes, podemos dar la FGM del EMV de μ y por unicidad de la FGM podemos dar la distribución. Era una N(μ, σ2/n).
  2. Es el test mas común y sencillo. El estadístico tiene distribución N(0, 1) bajo H0.
  3. La probabilidad que piden calcular es la P(Error tipo 2), solo que lo ponen en otras palabras. La probabilidad queda expresada en función de Φ (phi, la función de distribución acumulada de la N(0,1)).
  4. Simplemente recordar que cuando k → -∞, la función de distribución acumulada tiende a cero (es decir, F(k) → 0) y cuando X → ∞, la función de distribución acumulada tiende a 1 (es decir, F(k) → 1). En este caso, F = Φ.