Sección : Estimación paramétrica
Previo : Normalidad asintótica
Siguiente : Índice

Ejercicios


NB: En los ejercicios que siguen, los valores propuestos para los tamaños de las muestras así como para los parámetros de las leyes, son solamente indicativos. Pueden ser variados en función de la potencia de cálculo disponible.

Ejercicio 1   Sea $ (X_1,\ldots,X_n)$ una muestra de la ley uniforme $ {\cal U}(0,\theta)$, donde $ \theta$ es un parámetro desconocido. Se consideran los siguientes estimadores del parámetro $ \theta$.
$ \bullet$
$ T_{1,n} = \displaystyle{\frac{2}{n}(X_1+\cdots+X_n)}$
$ \bullet$
$ T_{2,n} = \displaystyle{\left(\frac{3}{n}(X_1^2+\cdots+X_n^2)
\right)^{\frac{1}{2}}}$
$ \bullet$
$ T_{3,n} = \displaystyle{\left(\frac{4}{n}(X_1^3+\cdots+X_n^3)
\right)^{\frac{1}{3}}}$
$ \bullet$
$ T_{4,n} = \displaystyle{\left(\frac{3}{2n}(\sqrt{X_1}+\cdots+\sqrt{X_n})
\right)^{2}}$
$ \bullet$
$ T_{5,n} = \displaystyle{e(X_1\cdots X_n)^{\frac{1}{n}}}$
$ \bullet$
$ T_{6,n} = 2 X_{(\lceil\frac{n}{2}\rceil)}$
$ \bullet$
$ T_{7,n} = 4 X_{(\lceil\frac{n}{4}\rceil)}$
$ \bullet$
$ T_{8,n} = \displaystyle{\frac{4}{3} X_{(\lceil\frac{3n}{4}\rceil)}}$
$ \bullet$
$ T_{9,n} = \max\{X_1,\ldots,X_n\}$
$ \bullet$
$ T_{10,n} = \displaystyle{\frac{n+1}{n}\max\{X_1,\ldots,X_n\}}$
(Para $ u\in]0,1[$, $ \lceil nu\rceil$ denota el entero $ i$ tal que $ i\!-\!1<nu\leq i$, y $ X_{(i)}$ es el $ i$-ésimo estadígrafo de orden de la muestra.)
  1. Demostrar que todos son estimadores consistentes del parámetro $ \theta$. Calcular, cuando sea posible, sus sesgos y sus errores cuadráticos con respecto a $ \theta$.
  2. Seleccionar un valor de $ \theta$ y simular 1000 muestras de tamaño 100 de la ley $ {\cal U}(0,\theta)$. Calcular para cada una de estas muestras el valor que toman los 10 estimadores. Calcular la media empírica, y la varianza empírica de las 10 muestras de tamaño 1000 que se obtuvieron. A partir de esto deducir una estimación del sesgo y del error cuadrático de cada uno de los 10 estimadores.
  3. A partir de las muestras del inciso precedente, trazar histogramas para los 10 estimadores y proponer intervalos de dispersión de nivel $ 0.9$.
  4. Proponer un escalafón de los 10 estimadores.

Ejercicio 2   Sea $ (X_1,\ldots,X_n)$ una muestra de la ley exponencial $ {\cal
E}(\lambda)$, donde $ \lambda$ es un parámetro desconocido. Se consideran los siguientes estimadores del parámetro $ \lambda$.
$ \bullet$
$ T_{1,n} = \displaystyle{\left(\frac{1}{n}(X_1+\cdots+X_n)\right)^{-1}}$
$ \bullet$
$ T_{2,n} = \displaystyle{\left(\frac{1}{2n}(X_1^2+\cdots+X_n^2)
\right)^{-1/2}}$
$ \bullet$
$ T_{3,n} = \displaystyle{\frac{e^{-X_1}+\cdots+e^{-X_n}}
{n-e^{-X_1}-\cdots-e^{-X_n}}}$
$ \bullet$
$ T_{4,n} = \displaystyle{\frac{\log(2)}{X_{(\lceil\frac{n}{2}\rceil)}}}$
$ \bullet$
$ T_{5,n} = \displaystyle{\frac{\log(4/3)}{X_{(\lceil\frac{n}{4}\rceil)}}}$
$ \bullet$
$ T_{6,n} = \displaystyle{\frac{\log(4)}{X_{(\lceil\frac{3n}{4}\rceil)}}}$
(Para $ u\in]0,1[$, $ \lceil nu\rceil$ denota el entero $ i$ tal que $ i\!-\!1<nu\leq i$, y $ X_{(i)}$ es el $ i$-ésimo estadígrafo de orden de la muestra.)
  1. Demostrar que todos son estimadores consistentes del parámetro $ \lambda$. Calcular, cuando sea posible, sus sesgos y sus errores cuadráticos con respecto a $ \lambda$.
  2. Seleccionar un valor de $ \lambda$ y simular 1000 muestras de tamaño 100 de la ley $ {\cal
E}(\lambda)$. Calcular para cada una de estas muestras el valor que toman los 6 estimadores. Calcular la media empírica, y la varianza empírica de las 6 muestras de tamaño 1000 que se obtuvieron. A partir de esto deducir una estimación del sesgo y del error cuadrático de cada uno de los 6 estimadores.
  3. A partir de las muestras del inciso precedente, trazar histogramas para los 6 estimadores y proponer intervalos de dispersión de nivel $ 0.9$.
  4. Proponer un escalafón de los 6 estimadores.

Ejercicio 3   Para cada una de las leyes siguientes ($ P$):
$ \bullet$
Leyes exponenciales $ {\cal E}(0.1)\,,\,{\cal
E}(10)\,.$
$ \bullet$
Leyes gamma $ {\cal G}(0.1,1)\,,\,{\cal
G}(10,1)\,.$
$ \bullet$
Leyes de chi-cuadrado $ {\cal
X}^2(1)\,,\,{\cal X}^2(100)\,.$
$ \bullet$
Leyes beta $ {\cal
B}(0.1,0.1)\,,\,{\cal B}(1,10)\,,\,{\cal B}(10,1)\,.$
  1. Representar gráficamente la función de distribución y la función cuantil de $ P$.
  2. Calcular los intervalos de dispersión simétricos de nivel $ 0.95$ y $ 0.99$.
  3. Calcular los intervalos de dispersión optimales de nivel $ 0.95$ y $ 0.99$.

Ejercicio 4   Para cada una de las leyes siguientes ($ P$):
$ \bullet$
Leyes binomiales $ {\cal B}(10,0.5)\,,\,{\cal
B}(100,0.5)\,,\,{\cal B}(10,0.1) \,,\,{\cal B}(10,0.9)\,.$
$ \bullet$
Leyes geométricas $ {\cal G}(0.1)\,,\,{\cal
G}(0.5)\,,\,{\cal G}(0.9)\,.$
$ \bullet$
Leyes de Poisson $ {\cal P}(0.1)\,,\,{\cal P}(10)\,.$
$ \bullet$
Leyes hipergeométricas $ {\cal H}(100,50,10)\,,\,{\cal H}(100,10,10)\,.$
$ \bullet$
Leyes binomiales negativas $ {\cal
BN}(10,0.1)\,,\,{\cal B}(10,0.5)\,,\,{\cal B}(10,0.9)\,.$
  1. Representar gráficamente la función de distribución y la función cuantil de $ P$.
  2. Determinar el conjunto de los pares de números enteros $ (k_1,k_2)$ tales que la probabilidad del intervalo $ [k_1,k_2]$ para la ley $ P$ sea superior o igual a $ 0.95$.
  3. Entre estos intervalos determinar aquel cuya longitud sea la más pequeña y la probabilidad sea la más alta.

Ejercicio 5   Para cada una de las leyes siguientes ($ P$):
$ \bullet$
Leyes binomiales $ {\cal B}(10,0.5)\,,\,{\cal
B}(10,0.1)\,.$
$ \bullet$
Leyes geométricas $ {\cal
G}(0.1)\,,\,{\cal G}(0.9)\,.$
$ \bullet$
Leyes de Poisson $ {\cal P}(0.1)\,,\,{\cal P}(10)\,.$
$ \bullet$
Leyes uniformes $ {\cal U}(0,0.1)\,,\,{\cal U}(0,10)\,.$
$ \bullet$
Leyes exponenciales $ {\cal E}(0.1)\,,\,{\cal
E}(10)\,.$
$ \bullet$
Leyes normales $ {\cal N}(0,0.1)\,,\,{\cal
N}(0,100)\,.$
  1. Dar el valor de la esperanza $ \mu$, de la varianza $ \sigma^2$ y de la desviación estándar $ \sigma$ de la ley $ P$.
  2. Simular 1000 muestras de tamaño 20 de la ley $ P$ y calcular para cada uno de ellos el valor que toman la media empírica $ \overline{X}$, la varianza empírica $ S^2$, la varianza empírica insesgada $ V$, así como $ \sqrt{S^2}$ y $ \sqrt{V}$. Se obtienen así $ 5$ muestras de tamaño 1000 de estos estimadores. Utilizar estas $ 5$ muestras para estimar el sesgo y el error cuadrático medio de $ \overline{X}$ con respecto a $ \mu$, de $ S^2$ y $ V$ con respecto a $ \sigma^2$, y de $ \sqrt{S^2}$ y $ \sqrt{V}$ con respecto a $ \sigma$.

Ejercicio 6   Se quiere estimar el tamaño ($ N$) de una población por captura-recaptura. Para esto, se marcan previamente $ m$ individuos. Se consideran dos enfoques.
(a)
Captura con reposición. Se realizan $ n$ capturas sucesivas e independientes de un individuo en la población. El número $ X$ de individuos marcados que se han capturado sigue la ley binomial $ {\cal B}(n,\frac{m}{N})$.
(b)
Captura sin reposición. Se captura un grupo de $ n$ individuos (diferentes) en la población. El número $ X$ de individuos marcados en este grupo sigue la ley hipergeométrica $ {\cal H}(N,m,n)$.
Para los dos casos escribiremos:

$\displaystyle T= \frac{mn}{X+1}\;.
$

Se procesarán sucesivamente los dos enfoques y los valores siguientes para $ N$, $ m$ y $ n$:

N
20
50
100
100
100
m
10
10
10
50
10
n
10
10
10
10
50
  1. Calcular la ley de $ T$ y representarla por un diagrama de barras.
  2. Calcular la esperanza de $ T$, su desviación estándar y su error cuadrático con respecto a $ N$.
  3. Determinar el intervalo de dispersión optimal de nivel $ 0.9$ para $ T$.
  4. Simular la experiencia 1000 veces y calcular para cada una de las 1000 repeticiones el valor tomado por $ T$. Representar en un diagrama de barras los 1000 valores obtenidos, calcular su media y su desviación estándar empíricas. Compararlos con los valores teóricos.

Ejercicio 7   Se considera la ley de Poisson $ {\cal P}(\lambda)$, de función generatriz $ e^{-\lambda+\lambda z}$.
  1. Sea $ X$ una variable aleatoria de ley $ {\cal P}(\lambda)$ y $ k\geq 1$ un número entero. Demostrar que:

    $\displaystyle \mathbb {E}[X(X-1)\cdots(X-k+1)] = \lambda^k\;.
$

  2. Sea $ (X_1,\ldots,X_n)$ una muestra de la ley $ {\cal P}(\lambda)$, y $ k\geq 1$ número entero fijo. Escribimos:

    $\displaystyle T_{k,n} = \frac{1}{n} \sum_{i=1}^n X_i(X_i-1)\cdots(X_i-k+1)\;.
$

    Mostrar que $ (T_{k,n}^{1/k})$ es un estimador consistente de $ \lambda$.
  3. Seleccionar un valor de $ \lambda$. Simular 1000 muestras de tamaño 100 de la ley $ {\cal P}(\lambda)$. Para cada una de las 1000 muestras, calcular el valor que toman los estimadores $ (T_{k,n}^{1/k})$, para $ k=1,2,3,4$. Se obtiene así una muestra de tamaño 1000 para cada uno de los 4 estimadores.
  4. Para cada una de las 4 muestras del inciso precedente, hacer un histograma, calcular la media empírica y la varianza empírica. Deducir una estimación del sesgo y del error cuadrático de los 4 estimadores con respecto a $ \lambda$.
  5. Proponer un escalafón de los 4 estimadores.

Ejercicio 8   El objetivo de este ejercicio es comparar los estimadores de los parámetros $ n$ y $ p$ de la ley binomial $ {\cal B}(n,p)$, obtenidos por el método de los momentos y por ajuste con la ayuda de la distancia de chi-cuadrado.
  1. Expresar $ n$ y $ p$ en función de la esperanza y de la varianza de la ley $ {\cal B}(n,p)$. De aquí deducir estimadores de $ n$ y $ p$ por el método de los momentos.
  2. Seleccionar dos valores para $ n$ y $ p$. Simular 1000 muestras de tamaño 100 de la ley $ {\cal B}(n,p)$.
  3. Para cada una de las 1000 muestras, calcular la media empírica, la varianza empírica y deducir a partir de estos una estimación de $ n$ y $ p$ por el método de los momentos. Se obtiene así una muestra de tamaño 1000 para cada uno de los 2 estimadores: hacer un histograma, calcular la media empírica y la varianza empírica. Deducir una estimación del sesgo y del error cuadrático de los 2 estimadores con respecto a $ n$ y $ p$ respectivamente.
  4. Para cada una de las 1000 muestras, determinar los valores de $ n$ y $ p$ para los cuales la distancia de chi-cuadrado entre la distribución empírica de la muestra y la ley $ {\cal B}(n,p)$ es míinima. Retomar los cálculos del inciso precedente para estas 1000 nuevas estimaciones de los dos parámetros.
  5. ¿Cuál de los dos métodos conduce a los mejores estimadores?

Ejercicio 9   El objetivo de este ejercicio es comparar los estimadores de los parámetros $ a$ y $ \lambda$ de la ley gamma $ {\cal G}(a,\lambda)$, obtenidos por el método de los momentos y por ajuste con la ayuda de la distancia de Kolmogorov-Smirnov.
  1. Seleccionar dos valores para $ a$ y $ \lambda$. Simular 1000 muestras de tamaño 100 de la ley $ {\cal G}(a,\lambda)$.
  2. Para cada una de las 1000 muestras, calcular la media empírica, la varianza empírica y deducir a partir de estos una estimación de $ a$ y $ \lambda$ por el método de los momentos. Se obtiene así una muestra de tamaño 1000 para cada uno de los 2 estimadores: hacer un histograma, calcular la media empírica y la varianza empírica. Deducir una estimación del sesgo y del error cuadrático de los 2 estimadores con respecto a $ a$ y $ \lambda$ respectivamente.
  3. Para cada una de las 1000 muestras, determinar los valores de $ a$ y $ \lambda$ para los cuales la distancia de Kolmogorov-Smirnov entre la función de distribución empírica de la muestra y la de la ley $ {\cal G}(a,\lambda)$ es míinima. Retomar los cálculos del inciso precedente para estas 1000 nuevas estimaciones de los dos parámetros.
  4. ¿Cuál de los dos métodos conduce a los mejores estimadores?

Ejercicio 10   El objetivo de este ejercicio es comparar los estimadores de los parámetros $ a$ y $ \lambda$ de la ley de Weibull $ {\cal W}(a,\lambda)$, obtenidos por ajuste con la ayuda de la distancia de Kolmogorov-Smirnov, y por regresión en el sentido de los mínimos cuadrados.
  1. Seleccionar dos valores para $ a$ y $ \lambda$. Simular 1000 muestras de tamaño 100 de la ley $ {\cal W}(a,\lambda)$.
  2. Para cada una de las 1000 muestras, determinar los valores de $ a$ y $ \lambda$ para los cuales la distancia de Kolmogorov-Smirnov entre la función de distribución empírica de la muestra y la de la ley $ {\cal W}(a,\lambda)$ es minimal. Se obtiene así una muestra de tamaño 1000 para cada uno de los 2 estimadores: hacer un histograma, calcular la media empírica y la varianza empírica. Deducir una estimación del sesgo y del error cuadrático de los 2 estimadores con respecto a $ a$ y $ \lambda$ respectivamente.
  3. Para cada una de las 1000 muestras, calcular los estadígrafos de orden y determinar los valores de $ a$ y $ \lambda$ que se deducen de la regresión en el sentido de los mínimos cuadrados de los logaritmos de estos estadígrafos de orden. Retomar los cálculos del inciso precedente para estas 1000 nuevas estimaciones de los dos parámetros.
  4. ¿Cuál de los dos métodos conduce a los mejores estimadores?

Ejercicio 11   El objetivo de este ejercicio es comparar los estimadores de los parámetros $ \mu$ y $ \sigma^2$ de la ley normal $ {\cal N}(\mu,\sigma^2)$, obtenidos por la media y la varianza empíricas, y por regresión en el sentido de mínimos cuadrados.
  1. Seleccionar dos valores para $ \mu$ y $ \sigma^2$. Simular 1000 muestras de tamaño 100 de la ley $ {\cal N}(\mu,\sigma^2)$.
  2. Para cada una de las 1000 muestras, determinar la media empírica y la varianza empírica insesgada. Se obtiene así una muestra de tamaño 1000 para cada uno de los 2 estimadores: hacer un histograma.
  3. Para cada una de las 1000 muestras, calcular la serie de los estadígrafos de orden y determinar los valores de $ \mu$ y $ \sigma^2$ que se deducen de la regresión en el sentido de los mínimos cuadrados de estos estadígrafos de orden. Para estas 1000 nuevas estimaciones de los dos parámetros, representar los histogramas, calcular las medias y las varianzas empíricas. Deducir de aquí una estimación del sesgo y del error cuadrático de los dos estimadores con respecto a $ \mu$ y $ \sigma^2$ respectivamente.
  4. ¿Cuál de los dos métodos conduce a los mejores estimadores?

Ejercicio 12   Cada una de las siguientes leyes ($ P$) depende de un parámetro $ p\in]0,1[$.
$ \bullet$
Leyes binomiales $ {\cal B}(1,p)$, $ {\cal B}(10,p)$, $ {\cal B}(100,p)$.
$ \bullet$
Ley geométrica $ {\cal G}(p)$.
$ \bullet$
Leyes binomiales negativas $ {\cal
BN}(1,p)$, $ {\cal BN}(10,p)$, $ {\cal BN}(100,p)$.
Para cada una de estas 7 leyes:
  1. Escribir la función de verosimilitud asociada a una muestra de tamaño $ n$.
  2. Determinar el estimador del máximo de verosimilitud del parámetro $ p$.
  3. Simular una muestra de tamaño 10 de la ley $ P$. Representar gráficamente, en función de $ p$, la función de verosimilitud para los valores simulados. Repetir la representación gráfica para una muestra simulada de tamaño 20, después de tamaño 100.
  4. Seleccionar un valor de $ p$. Simular 1000 muestras de tamaño 100 de la ley $ P$. Calcular para cada una de estas muestras el valor que toma el estimador del máximo de verosimilitud. Calcular la media empírica y la varianza empírica de la muestra de tamaño 1000 que así se obtiene. Deducir a partir de esto una estimación del sesgo y del error cuadrático del estimador del máximo de verosimilitud con respecto a $ p$. Representar un histograma, y proponer un intervalo de dispersión simétrico de nivel $ 0.9$.
  5. Proponer un escalafón de los 7 estimadores de $ p$.

Ejercicio 13   Cada una de las siguientes leyes ($ P$) depende de un parámetro $ \lambda>0$.
$ \bullet$
Ley de Poisson $ {\cal P}(\lambda)$.
$ \bullet$
Ley exponencial $ {\cal
E}(\lambda)$.
$ \bullet$
Leyes gamma $ {\cal G}(0.1,\lambda)$, $ {\cal
G}(10,\lambda)$.
$ \bullet$
Leyes de Weibull $ {\cal
W}(0.1,\lambda)$, $ {\cal W}(10,\lambda)$.
Para cada una de estas 6 leyes:
  1. Escribir la función de verosimilitud asociada a una muestra de tamaño $ n$.
  2. Determinar el estimador del máximo de verosimilitud del parámetro $ \lambda$.
  3. Simular una muestra de tamaño 10 de la ley $ P$. Representar gráficamente, en función de $ \lambda$, la función de verosimilitud para los valores simulados. Repetir la representación gráfica para una muestra simulada de tamaño 20, después de tamaño 100.
  4. Seleccionar un valor de $ \lambda$. Simular 1000 muestras de tamaño 100 de la ley $ P$. Calcular para cada una de estas muestras el valor que toma el estimador del máximo de verosimilitud. Calcular la media empírica y la varianza empírica de la muestra de tamaño 1000 que así se obtiene. Deducir a partir de esto una estimación del sesgo y del error cuadrático del estimador del máximo de verosimilitud con respecto a $ \lambda$. Representar un histograma, y proponer un intervalo de dispersión simétrico de nivel $ 0.9$.
  5. Proponer un escalafón de los 7 estimadores de $ \lambda$.

Ejercicio 14   Se considera una muestra $ (X_1,\ldots,X_n)$ de la ley de Bernoulli de parámetro $ p$ y se denota por $ \overline{X}$ su media empírica (frecuencia experimental). Recordamos que $ n\overline{X}$ sigue la ley binomial $ {\cal B}(n,p)$.
  1. Escribir un programa que tenga como entrada los valores de $ n$, $ p$ y $ \alpha$, y que dé como salida los extremos $ \underline{q}(p)$ y $ \overline{q}(p)$ del intervalo de dispersión optimal para $ \overline{X}$, de nivel $ 1\!-\!\alpha$.
  2. Representar gráficamente $ \underline{q}(p)$ y $ \overline{q}(p)$ en función de $ p$, para $ n=10, 100$ y $ \alpha=0.05, 0.01$.
  3. Escribir un programa que tenga como entrada los valores de $ n$ y $ \alpha$, así como un valor $ \overline{x}$ que toma $ \overline{X}$, y que dé como salida el intervalo de confianza optimal $ [t_1(\overline{x}),t_2(\overline{x})]$ para $ p$, de nivel $ 1\!-\!\alpha$.
  4. Representar gráficamente $ t_1(\overline{x})$ y $ t_2(\overline{x})$ en función de $ \overline{x}\in ]0,1[$, para $ n=10, 100$ y $ \alpha=0.05, 0.01$.

Ejercicio 15   Se considera una muestra $ (X_1,\ldots,X_n)$ de la ley de Poisson $ {\cal P}(\lambda)$ y se denota por $ \overline{X}$ su media empírica. Recordamos que $ n\overline{X}$ sigue la ley $ {\cal
P}(n\lambda)$.
  1. Escribir un programa que tenga como entrada los valores de $ \lambda$ y $ \alpha$, y que dé como salida los extremos $ \underline{q}(\lambda)$ y $ \overline{q}(\lambda)$ del intervalo de dispersión optimal para $ \overline{X}$, de nivel $ 1\!-\!\alpha$.
  2. Representar gráficamente $ \underline{q}(\lambda)$ y $ \overline{q}(\lambda)$ en función de $ \lambda\in [0,10]$, parar $ n=10, 100$ y $ \alpha=0.05, 0.01$.
  3. Escribir un programa que tenga como entrada un valor de $ \alpha$, así como un valor $ \overline{x}$ que toma $ \overline{X}$, y que dé como salida el intervalo de confianza optimal $ [t_1(\overline{x}),t_2(\overline{x})]$ para $ \lambda$, de nivel $ 1\!-\!\alpha$.
  4. Representar gráficamente $ t_1(\overline{x})$ y $ t_2(\overline{x})$ en función de $ \overline{x}\in ]0,10[$, parar $ n=10, 100$ y $ \alpha=0.05, 0.01$.

Ejercicio 16   Se considera una muestra $ (X_1,\ldots,X_n)$ de la ley geométrica de parámetro $ p$. Denotamos por $ T$ al estimador del máximo de verosimilitud de $ p$. Recordamos que $ n(1/T-1)$ sigue la ley binomial negativa $ {\cal BN}(n,p)$.
  1. Escribir un programa que tenga como entrada los valores de $ p$ y $ \alpha$, y que dé como salida los extremos $ \underline{q}(p)$ y $ \overline{q}(p)$ del intervalo de dispersión optimal para $ T$, de nivel $ 1\!-\!\alpha$.
  2. Representar gráficamente $ \underline{q}(p)$ y $ \overline{q}(p)$ en función de $ p$, para $ n=10, 100$ y $ \alpha=0.05, 0.01$.
  3. Escribir un programa que tenga como entrada el valor de $ \alpha$, así como un valor $ t$ que toma $ T$, y que dé como salida el intervalo de confianza optimal $ [t_1(t),t_2(t)]$ para $ p$, de nivel $ 1\!-\!\alpha$.
  4. Representar gráficamente $ t_1(t)$ y $ t_2(t)$ en función de $ t\in ]0,1[$, para $ n=10, 100$ y $ \alpha=0.05, 0.01$.

Ejercicio 17   Se considera una muestra $ (X_1,\ldots,X_n)$ de la ley exponencial $ {\cal
E}(\lambda)$. Denotamos por $ T$ al estimador del máximo de verosimilitud de $ \lambda$. Recordamos que $ n/T$ sigue la ley gamma $ {\cal
G}(n,\lambda)$.
  1. Escribir un programa que tenga como entrada los valores de $ \lambda$ y $ \alpha$, y que dé como salida los extremos $ \underline{q}(\lambda)$ y $ \overline{q}(\lambda)$ del intervalo de dispersión optimal para $ T$, de nivel $ 1\!-\!\alpha$.
  2. Representar gráficamente $ \underline{q}(\lambda)$ y $ \overline{q}(\lambda)$ en función de $ \lambda\in [0,10]$, para $ n=10, 100$ y $ \alpha=0.05, 0.01$.
  3. Escribir un programa que tenga como entrada un valor de $ \alpha$, así como un valor $ t$ que toma $ T$, y que dé como salida el intervalo de confianza optimal $ [t_1(t),t_2(t)]$ para $ \lambda$, de nivel $ 1\!-\!\alpha$.
  4. Representar gráficamente $ t_1(t)$ y $ t_2(t)$ en función de $ t\in ]0,10[$, para $ n=10, 100$ y $ \alpha=0.05, 0.01$.

Ejercicio 18    
  1. En un número $ n$ desconocido de lanzamientos de una moneda equilibrada se obtuvieron 6 caras. Proponer un intervalo de confianza de nivel $ 0.95$ para $ n$.
  2. En una muestra de tamaño $ n$ desconocido de la ley de Poisson $ {\cal P}(0.5)$, la suma de los valores es $ 6$. Proponer un un intervalo de confianza de nivel $ 0.95$ para $ n$.

Ejercicio 19   Se considera el modelo lineal $ Y=ax+b+E$, donde $ E$ sigue la ley normal $ {\cal
N}(0,\sigma^2)$. Escribir un programa que toma como entrada un vector $ x=(x_i)$, valores de $ a$, $ b$, $ \sigma^2$, $ \alpha$ y $ m$, y realiza las operaciones siguientes.
  1. Simular una muestra $ e=(e_i)$, del mismo tamaño que $ x$, de la ley $ {\cal
N}(0,\sigma^2)$.
  2. Calcular el vector $ y=ax+b+e$.
  3. Calcular los coeficientes $ \widehat{a}$ y $ \widehat{b}$ de la recta de regresión lineal de $ y$ sobre $ x$, así como el error cuadrático minimal $ EQ( \widehat{a},
\widehat{b})$.
  4. Calcular los intervalos de confianza de nivel $ 1\!-\!\alpha$ para $ a$, $ b$ y $ \sigma^2$.
  5. Calcular, para un vector $ x_*=(x_{*,j})$ de valores regularmente distribuidos entre $ \min\{x_i\}-m$ y $ \max\{x_i\}+m$, los vectores $ \underline{y}=(\underline{y}_j)$ y $ \overline{y}=(\overline{y}_j)$ de los extremos de los intervalos de predicción de nivel $ 1\!-\!\alpha$ para $ Y_j=ax_{*,j}+b+E$.
  6. Representar en un mismo gráfico los puntos de coordenadas $ (x_i,y_i)$, la recta de regresión lineal de $ y$ sobre $ x$, los puntos de coordenadas $ (x_{*,j},\underline{y}_j)$ y $ (x_{*,j},\overline{y}_j)$.
Ejecutar el programa para $ a=1$, $ b=2$, $ \sigma^2=1$, $ \alpha =0.05$, $ m=1$, y los vectores $ x$ de longitud 100 definidos a continuación.
$ \bullet$
Valores distribuidos regularmente entre 0 y 10.
$ \bullet$
Valores distribuidos regularmente entre 0 y 1.
$ \bullet$
Valores simulados a partir de la ley normal $ {\cal N}(0,100)$.
$ \bullet$
Valores simulados a partir de la ley normal $ {\cal
N}(0,1)$.
$ \bullet$
Valores simulados a partir de la ley exponencial $ {\cal E}(1)$.

Ejercicio 20   Se considera una muestra $ (X_1,\ldots,X_n)$ de la ley de Bernoulli de parámetro $ p$. Para $ n=30$ después 100, después 200:
  1. Para los valores de la frecuencia empírica observada $ \overline{x}$ que van de $ 0.01$ a $ 0.99$ con paso de $ 0.01$, calcular los intervalos de confianza optimales para $ p$ de nivel $ 0.95$ y $ 0.99$.
  2. Para los mismos valores de $ \overline{x}$, calcular los intervalos de confianza aproximados para $ p$ empleando la normalidad asintótica.
  3. Representar gráficamente en función de $ \overline{x}$ las diferencias entre los extremos inferiores, y después entre los extremos superiores de los intervalos exactos y los intervalos aproximados.

Ejercicio 21    
  1. Para $ n=10, 20,\ldots,100$, simular una muestra de tamaño $ n$ de la ley normal $ {\cal N}(10,100)$.
  2. Suponiendo desconocida la varianza, calcular el intervalo de confianza exacto de nivel $ 0.95$ para la esperanza. Calcular el intervalo de confianza de nivel asintótico $ 0.95$. Comparar los dos intervalos.
  3. Calcular el intervalo de confianza optimal de nivel $ 0.95$ para la varianza. Calcular el intervalo de confianza de nivel asintótico $ 0.95$, obtenido al reemplazar la ley de chi-cuadrado por la ley normal de la misma esperanza y la misma varianza. Comparar los dos intervalos.

Ejercicio 22   Se desea estimar la productividad de una nueva especie de manzano. Se supone que la producción de un manzano de esta especie sigue una ley normal de esperanza $ \mu$ y de desviación estándar $ \sigma$ desconocidos.
  1. En una muestra de 15 árboles, se observa una cosecha promedia de $ 52$ Kg, con una desviación estándar de $ 5$ Kg. Dar un intervalo de confianza para la producción media de los manzanos de esta especie, de nivel $ 0.95$, y el de nivel $ 0.99$.
  2. Dar un intervalo de confianza para la desviación estándar $ \sigma$, de nivel $ 0.95$.
  3. En una muestra de 80 manzanos, se observa una cosecha promedio de $ 51.5$ Kg, con una desviación estándar de $ 4.5$ Kg. Dar un intervalo de confianza para la producción media de los manzanos de esta especie, de nivel $ 0.95$, y el de nivel $ 0.99$.

Ejercicio 23   Se dispone de 10 extracciones de sangre tomadas en las mismas condiciones a una misma persona. Se mide en cada una la tasa de colesterol. Se observa una media empírica de 247.3 y una varianza empírica de 2.01. Se acepta que las mediciones diferentes son las realizaciones de una variable aleatoria $ X$ que sigue una ley normal de esperanza $ \mu$ y de varianza $ \sigma^2$ desconocidas.
  1. Determinar un intervalo de confianza para $ \mu$ al nivel $ 0.95$ y otro al nivel $ 0.99$.
  2. Se acepta que la varianza de $ X$ está relacionada solamente con la del método de dosificación, y se supone conocida ( $ \sigma^2 = 1.5$). Retomar el inciso anterior.
  3. ¿Cuál es la probabilidad que la varianza empírica observada sobrepase el valor de $ 3.3$?
  4. ¿Qué valor de la varianza empírica tiene la probabilidad $ 0.05$ de ser sobrepasado?

Ejercicio 24   Se considera una muestra $ (X_1,\ldots,X_n)$ de la ley uniforme $ {\cal U}(0,\theta)$, donde $ \theta$ es un parámetro desconocido.
  1. Sea $ u\in]0,1[$ un número real fijo. Se considera el cuantil empírico $ X_{(i)}$, donde $ i$ es el número entero tal que $ i\!-\!1<nu\leq i$. Demostrar que $ X_{(i)}/\theta$ sigue la ley beta $ {\cal B}(i,n\!-\!i\!+\!1)$.
  2. Se denota por $ [\underline{q},\overline{q}]$ el intervalo de dispersión optimal de nivel $ 1\!-\!\alpha$ de la ley beta $ {\cal B}(i,n\!-\!i\!+\!1)$. ¿Qué intervalo de confianza basado en $ X_{(i)}$ se puede proponer para $ \theta$ ?
  3. Calcular los valores que toman estos intervalos de confianza, simulando una muestra de tamaño $ n$ de la ley $ {\cal U}(0,\theta)$, para $ n=20,
100$ ; $ \theta=2, 10$ ; $ u=0.1, 0.5$ ; $ \alpha=0.05, 0.01$.
  4. Utilizar la normalidad asintótica de los cuantiles para determinar en función de $ n$, $ u$, y $ X_{(i)}$, los extremos de un intervalo de confianza de nivel asintótico $ 1\!-\!\alpha$ para $ \theta$.
  5. Calcular los valores que toman esos limites para las muestras del inciso 3.

Ejercicio 25   Se considera una muestra $ (X_1,\ldots,X_n)$ de la ley exponencial $ {\cal
E}(\lambda)$. Sea $ T$ el estimador del máximo de verosimilitud para $ \lambda$. Recordamos que $ n/T$ sigue la ley gamma $ {\cal
G}(n,\lambda)$.
  1. Para $ \lambda=0.1,1,10$, y $ n=10, 20,\ldots,100$, simular una muestra de tamaño $ n$ de la ley $ {\cal
E}(\lambda)$.
  2. Calcular el intervalo de confianza optimal de nivel $ 0.95$ para $ \lambda$.
  3. Calcular el intervalo de confianza de nivel asintótico $ 0.95$, obtenido al reemplazar la ley gamma par la ley normal con la misma esperanza y la misma varianza.
  4. Comparar los dos intervalos.



Sección : Estimación paramétrica
Previo : Normalidad asintótica
Siguiente : Índice