El examen se deberá enviar por correo a las 7 de la noche. Sólo deberá responder 4 de las primeras 5 preguntas. La pregunta 6 es opcional y tiene valor de medio punto adicional en el examen.

1.

Sea \(X_{1},...,X_{n}\) una m.a. de la distribución \(U(0,\theta)\), es decir:

\[f(x_i|\theta)=\frac{1}{\theta}, \;\; 0 \le x \le \theta, \;\; \theta>0.\] Sea \(X_{(n)}=max\{X_1, ..., X_n\}\) y dé por hecho que \(X_{(n)}\) es un estadística suficiente y completa para \(\theta\).

  1. Encuentre el estimador por el método de momentos de \(\theta\). ¿Es insesgado?
  2. Encuentre el estimador por el método de máxima verosimilitud de \(\theta\). ¿Es insesgado?
  3. Encuentre el mejor estimador insesgado (UMVUE) de \(\theta\). Argumente su respuesta.
  4. Encuentre el estimador máximo verosímil de la varianza de una variable \(X\) con distribución \(U(0,\theta)\). ¿Es el mejor estimador insesgado? En caso contrario, indique cuál sería el mejor estimador insesgado.

2.

Sea \(X_{1},...,X_{n}\) una m.a. de la distribución \(Pareto(k,\theta)\), esto es:

\[f(x_i|k,\theta)=\dfrac{\theta k^{\theta}}{x^{\theta+1}}, \;\; k\le x, \;\; \theta>0.\]

  1. Suponga \(k\) conocida.

    1. Dé una estadística suficiente, minimal y completa para \(\theta\).
    2. Encuentre el UMVUE de \(\frac{1}{\theta}\).
    3. ¿Para qué función de \(\theta\) se alcanza la CICR?
  2. Suponga \(\theta\) conocida.

    1. Encuentre el estimador máximo verosímil de \(k\). ¿Es insesgado? En caso negativo, dar un estimador insesgado a partir del estimador máximo verosímil.
    2. Encuentre el estimador por el método de momentos para \(k\). ¿Es insesgado? En caso negativo, dar un estimador insesgado a partir del estimador obtenido por el método de momentos.

3.

Sea \(X_{1},...,X_{n}\) una m.a. de la distribución \(N(\mu,1)\) y \(Y_{1},...,Y_{n}\) una m.a. de la distribución \(N(\mu,2)\), ambas muestras aleatorias son independientes entre sí.

  1. Considere que \((X_{1}, Y_{1}),...,(X_{n}, Y_{n})\) son una m.a. de \(n\) vectores aleatorios, donde la distribución conjunta de \((X_{i}, Y_{i})\) se obtiene al considerar la independencia entre \(X_{i}\) y \(Y_{i}\). Demuestre que la distribución de \((X_{i}, Y_{i})\) pertenece a la familia exponencial de un parámetro.
  2. Usando i) dé una estadística suficiente y completa para \(\mu\).
  3. Obtenga el estimador máximo verosímil de \(\mu\) y demuestre que es insesgado.
  4. Dé el UMVUE para \(\mu\) y \(\mu^2\).

4.

Sea \(X_{1},...,X_{n}\) una m.a. de la distribución \(Poisson(\theta)\).

  1. Dé una estadística suficiente, minimal y completa para \(\theta\).
  2. Encuentre el estimador máximo verosímil de \(\theta\).
  3. Calcule la varianza asintótica del estimador máximo verosímil de \(\theta\), también dé un estimador para ésta.
  4. Obtenga el UMVUE de \((1+\theta)e^{-\theta}\).

5.

Sea \(X_{1},...,X_{n}\) una m.a. de la distribución \(exp(1/\theta)\). Es decir \[f(x_i|\theta)=\dfrac{e^{-\frac{1}{\theta}x_i}}{\theta}, \;\; 0< x_i, \;\;\;\; 0 < \theta.\]

  1. Dé una estadística suficiente, completa y minimal para \(\theta\).
  2. Encuentre la CICR para los estimadores insesgados de \(\theta^2\).
  3. Considere la estadística \(h(X_1)= X_1^2/2\) ¿para qué función de \(\theta\) es un estimador insesgado?
  4. Encuentre el UMVUE de \(\theta^2\).

6.

Sea \(X_{1},...,X_{n}\) una m.a. de la distribución \(Geométrica(\theta)\). Es decir \[f(x|\theta)=\theta(1-\theta)^x, \;\; x=\{0, 1, \dots\}, \;\;\;\; 0 < \theta < 1.\]

Considere que la distribución a priori de \(\theta\) es una \(Beta(\alpha, \beta)\).