Edición de «Final 14/06/2019 (Probabilidad y Estadística)»

De Cuba-Wiki
Advertencia: no has iniciado sesión. Tu dirección IP se hará pública si haces cualquier edición. Si inicias sesión o creas una cuenta, tus ediciones se atribuirán a tu nombre de usuario, además de otros beneficios.

Puedes deshacer la edición. Antes de deshacer la edición, comprueba la siguiente comparación para verificar que realmente es lo que quieres hacer, y entonces publica los cambios para así efectuar la reversión.

Revisión actual Tu texto
Línea 6: Línea 6:


=== Ejercicio 1 ===
=== Ejercicio 1 ===
Se tiene una urna con cuatro pelotitas negras y tres rojas. Se quitan tres sin reposición.
Se tiene una urna con cuatro pelotitas negras y tres rojas. Se quitan tres sin reposicion.
# Dar la probabilidad de que la primera haya sido negra y la tercera roja.
# Dar la probabilidad de que la primera halla sido negra y la tercera roja.
# Si se sabe que la tercera fue roja. Cual es la probabilidad de que la segunda haya sido negra?.
# Si se sabe que la tercera fue roja. Cual es la probabilidad de que la segunda halla sido negra?.


=== Ejercicio 2 ===
=== Ejercicio 2 ===
Sean <math>X</math>, <math>Y</math> dos variables aleatorias independientes con distribuciones <math>X \sim \mathcal{P}(\lambda)</math>, <math>Y \sim \mathcal{P}(\mu)</math>. Demostrar que <math>X+Y \sim \mathcal{P}(\lambda + \mu)</math>
Sean <math>X</math>, <math>Y</math> dos variables aleatorias independientes con distribuciones <math>X \sim \mathcal{P}(\lambda)</math>, <math>Y \sim \mathcal{P}(\mu)</math>. Demostrar que <math>X+Y \sim \mathcal{P}(\lambda + \mu)</math>
<div class="toccolours mw-collapsible mw-collapsed">
Posible resolución
<div class="mw-collapsible-content" style="overflow-x:scroll">
<math> P(X+Y = k)=P(X=k-Y) \overset{\overset{\text{Proba total}}{\downarrow}}{=} 
\sum\limits_{i=0}^k P(X=k-Y | Y=i)P(Y=i) =
\sum\limits_{i=0}^k P(X=k-i | Y=i)P(Y=i) \overset{\overset{\perp\!\!\!\perp}{\downarrow}}{=}
\sum\limits_{i=0}^k P(X=k-i)P(Y=i) =
\sum\limits_{i=0}^k \left(\frac{\lambda^{k-i}}{(k-i)!} e^{-\lambda} \right) \left(\frac{\mu^{i}}{(i)!} e^{-\mu}\right) =
e^{-(\lambda+\mu)}\sum\limits_{i=0}^k \frac{\lambda^{k-i}}{(k-i)!} \frac{\mu^{i}}{(i)!} =
e^{-(\lambda+\mu)}\sum\limits_{i=0}^k \frac{\lambda^{k-i}}{(k-i)!} \frac{\mu^{i}}{(i)!} \frac{k!}{k!} =
\frac{1}{k!} e^{-(\lambda+\mu)}\sum\limits_{i=0}^k \frac{k!}{(k-i)! i!} \lambda^{k-i}\mu^i =
\frac{1}{k!} e^{-(\lambda+\mu)}\sum\limits_{i=0}^k \binom k i \lambda^{k-i}\mu^i =
\frac{(\lambda+\mu)^k}{k!} e^{-(\lambda+\mu)} \sim \mathcal{P}(\lambda+\mu)</math>
</div>
</div>


=== Ejercicio 3 ===
=== Ejercicio 3 ===
Línea 33: Línea 17:


<math>\frac{1}{n}\sum\limits_{i=0}^n X_i\ \mathbb{I}_{\{Y_i>0\}}</math>
<math>\frac{1}{n}\sum\limits_{i=0}^n X_i\ \mathbb{I}_{\{Y_i>0\}}</math>
<div class="toccolours mw-collapsible mw-collapsed">
Posible resolución
<div class="mw-collapsible-content" style="overflow-x:scroll">
Sea <math>Z_i = X_i \mathbb{I}_{\{Y_i>0\}}</math>
Yo se que si <math>\frac{1}{n}\sum\limits_{i=0}^n</math> converge en probabilidad, lo hace a su esperanza por la Ley de Grandes Numeros:
<math>\frac{1}{n}\sum\limits_{i=0}^n \overset{p}{\longrightarrow} E[Z]</math>
Si se cumple que <math>V[Z] < \infty</math>. Primero encuentro la esperanza y despues me preocupo por eso.
<math> E[Z]=E[X\ \mathbb{I}_{\{Y>0\}}] \overset{\overset{\perp\!\!\!\perp}{\downarrow}}{=} E[X]E[\mathbb{I}_{\{Y>0\}}]=\frac{1}{p}E[\mathbb{I}_{\{Y>0\}}]=\frac{1}{p}P(Y>0)\overset{\overset{Y\sim\mathcal{N}(0,1)}{\downarrow}}{=}\frac{1}{2p}</math>
Para ver que la varianza es finita tengo que estudiar <math>E[Z^2]=E[X^2\ \cdot\ \left(\mathbb{I}_{\{Y>0\}}\right)^2]=E[X^2]\ E[\left(\mathbb{I}_{\{Y>0\}}\right)^2]</math>
Yo se que la varianza de una geometrica es finita asi que el primer termino se puede calcular facil y es finito (Da <math>(2-p)/p^2</math>). Para el otro termino notemos que
<math>\left(\mathbb{I}_{\{Y>0\}}\right)^2 = \mathbb{I}_{\{Y>0\}} \cdot \mathbb{I}_{\{Y>0\}} = \mathbb{I}_{\{Y>0\}} </math>
Porque multiplicar dos veces la misma indicadora no aporta nada, entonces ya esta calculada la <math>E[Z^2]</math> y entonces la <math>V[Z]=E[Z^2]-E^2[Z]</math> se puede calcular y da finita. Entoces puedo usar LGN, y el limite da lo que ya calcule arriba.
</div>
</div>


=== Ejercicio 4 ===
=== Ejercicio 4 ===
Sea <math>\{S_n\}_{n\ge 1}</math> una sucesion de variables aleatorias tal que <math>S_n \sim \Gamma(n, \lambda)</math>. Demuestre que  
Sea <math>{S_n}_{n\ge 1}</math> una sucesion de variables aleatorias tal que <math>S_n \sim \Gamma(n, \lambda)</math>. Demuestre que  


<math>\frac{S_n - n/\lambda}{\sqrt{n}/\lambda}</math>
<math>\frac{S_n - n/\lambda}{\sqrt{n}/\lambda}</math>


Converge en distribucion a una normal e indique con que parametros.
Converge en distribucion a una normal e indique con que parametros.
<div class="toccolours mw-collapsible mw-collapsed">
Posible resolución
<div class="mw-collapsible-content" style="overflow-x:scroll">
Primero hay que saber que decir que algo converge en distribucion es lo mismo a decir que <math>\lim_{n\to\infty} F_{X_n} = F_X</math> en todo punto donde la acumulada es buena. Es lo mismo que decir que las generadoras de momentos convergen (i.e. <math>\lim_{n\to\infty} M_{X_n} = M_X</math>).
Con esto voy a usar la generadora de momentos de la distribucion <math>\Gamma(n, \lambda)</math> que es <math>M_X(t)=\left(\frac{\lambda}{\lambda-t}\right)^n</math>
<math> M_{\frac{S_n-n/\lambda}{\sqrt{n}/\lambda}} (t) = </math>
<math> e^{-\sqrt{n}} M_{\frac{S_n}{\sqrt{n}/\lambda}}(t) = </math>
<math> e^{-\sqrt{n}} M_{S_n}(t\lambda/\sqrt{n}) = </math>
<math> e^{-\sqrt{n}} \left(\frac{\lambda}{\lambda-\frac{t\lambda}{\sqrt{n}}}\right)^n = </math>
<math> e^{-\sqrt{n}} \left(\frac{1}{1-\frac{t}{\sqrt{n}}}\right)^n = </math>
Si <math>\lim_{n\to\infty} M_{X_n} = M_X</math> entonces  <math>\lim_{n\to\infty} \log(M_{X_n}) = \log(M_X)</math> pues es una funcion biyectiva en su dominio, entonces le tomo logaritmo a lo anterior
<math>\log\left(e^{-\sqrt{n}} \left(\frac{1}{1-\frac{t}{\sqrt{n}}}\right)^n \right) = </math>
<math> -\sqrt{n} + n\log\left(\frac{1}{1-\frac{t}{\sqrt{n}}}\right) = </math>
<math> -\sqrt{n} + n\left[-\log\left(1-\frac{t}{\sqrt{n}}\right)\right] = </math>
<math> -\sqrt{n} - n\log\left(1-\frac{t}{\sqrt{n}}\right) = </math>
Aqui hay que recordar (O saber hacer...) la expansion de Taylor para x<<1 <math>\log(1+x) = x - \frac{x^2}{2} + \mathcal{O}(x^3)</math>
<math> -\sqrt{n} - n\log\left(1-\frac{t}{\sqrt{n}}\right) \approx -\sqrt{n} - n\left(\frac{t}{\sqrt{n}} - \frac{t^2}{2n}\right) </math>
Entonces queda que
<math> \lim_{n\to\infty} M_{S_n} =\lim_{n\to\infty}\exp\left(-\sqrt{n}(1+t) + \frac{t^2}{2}\right) = \exp\left(\frac{t^2}{2}\right) = M_Z(t), Z\sim\mathcal{N}(0,1)</math>
Quedo demostrado entonces la convergencia en distribucion de la funcion original a una normal con media cero y varianza uno.
<hr/>
Edit: Solución alternativa.
Desconozco si durante el examen se informó que no se podía usar TCL, pero en caso de que se pueda una solución alternativa y directa sería:
Notar que como <math>S_n \sim \Gamma(n, \lambda)</math>:
<math>E(S_n) = \frac{n}{\lambda}, SD(S_n) = \frac{\sqrt{n}}{\lambda}</math>
Entonces, <math>\frac{S_n - n/\lambda}{\sqrt{n}/\lambda}</math> es una estandarización de <math>S_n</math> y por Teorema Central del Límite <math>\frac{S_n - n/\lambda}{\sqrt{n}/\lambda}\overset{d}{\longrightarrow}Z \sim\mathcal{N}(0,1)</math>
</div>
</div>


=== Ejercicio 5 ===
=== Ejercicio 5 ===
Ten en cuenta que todas las contribuciones a Cuba-Wiki pueden ser editadas, modificadas o eliminadas por otros colaboradores. Si no deseas que las modifiquen sin limitaciones, no las publiques aquí.
Al mismo tiempo, asumimos que eres el autor de lo que escribiste, o lo copiaste de una fuente en el dominio público o con licencia libre (véase Cuba-Wiki:Derechos de autor para más detalles). ¡No uses textos con copyright sin permiso!

Para editar esta página, responde la pregunta que aparece abajo (más información):

Cancelar Ayuda de edición (se abre en una ventana nueva)

Plantilla usada en esta página: