Sección : Búsqueda de estimadores
Previo : Búsqueda de estimadores
Siguiente : Estimación por ajuste


Método de los momentos


Consideremos una vez más una ley de probabilidad $ P_\theta$, dependiente de un parámetro desconocido $ \theta$, y una muestra $ (X_1,\ldots,X_n)$ de esta ley.

Sea $ f$ una función de $ \mathbb {R}$ en $ \mathbb {R}$. Si $ X$ es una variable aleatoria de ley $ P_\theta$, la ley de $ f(X)$ depende también, en general, de $ \theta$ y lo mismo sucede con su esperanza. Pero $ \mathbb {E}[f(X)]$ puede ser estimada por la media empírica de $ (f(X_1),\ldots,f(X_n))$. Si $ \theta$ se expresa en función de $ \mathbb {E}[f(X)]$, de aquí deduciremos un estimador de $ \theta$. Ya hemos empleado esta técnica varias veces en los dos parrafos anteriores. En la mayor parte de los casos, $ f(X)$ es una potencia de $ X$ o de $ X-\mathbb {E}[X]$. Las cantidades $ \mathbb {E}[X^k]$ y $ \mathbb {E}[(X-\mathbb {E}[X])^k]$ se llaman los momentos de $ X$, de ahí el nombre del método. Daremos tres ejemplos de aplicación, a las leyes gamma, beta y binomial negativa.

Leyes gamma: Si $ X$ sigue una ley gamma de parámetros $ a$ y $ \lambda$, su esperanza y su varianza valen:

$\displaystyle \mathbb {E}[X] = \frac{a}{\lambda}$   y$\displaystyle \quad Var[X] =
\frac{a}{\lambda^2}\;.
$

Por tanto podemos expresar $ a$ y $ \lambda$ en función de $ \mathbb {E}[X]$ y $ Var[X]$:

$\displaystyle a=\frac{\mathbb {E}[X]^2}{Var[X]}$   y$\displaystyle \quad
\lambda=\frac{\mathbb {E}[X]}{Var[X]}\;.
$


Si se dispone de una muestra $ (X_1,\ldots,X_n)$ de la ley gamma de parámetros $ a$ y $ \lambda$, la media empírica $ \overline{X}$ y la varianza empírica $ S^2$ son estimadores consistentes de $ \mathbb {E}[X]$ y $ Var[X]$ respectivamente. De aquí obtenemos dos estimadores consistentes de $ a$ y $ \lambda$:

$\displaystyle A=\frac{\overline{X}^2}{S^2}$   y$\displaystyle \quad
\Lambda=\frac{\overline{X}}{S^2}\;.
$



Leyes beta: La misma técnica permite estimar los parámetros de una ley beta. Si $ X$ sigue la ley beta de parámetros $ a$ y $ b$, su esperanza y su varianza valen:

$\displaystyle \mathbb {E}[X] = \frac{a}{a+b}$   y$\displaystyle \quad Var[X] = \frac{a
b}{(a+b)^2(a+b+1)}\;.
$

Podemos expresar $ a$ y $ b$ en función de $ \mathbb {E}[X]=E$ y $ Var[X]=V$:

$\displaystyle a=\frac{E(E-E^2-V)}{V}$   y$\displaystyle \quad
b=\frac{E-2E^2+E^3-V+EV}{V}\;.
$


Si se dispone de una muestra de la ley beta de parámetros $ a$ y $ b$, la media empírica $ \overline{X}$ y la varianza empírica $ S^2$ son estimadores consistentes de $ \mathbb {E}[X]$ y $ Var[X]$ respectivamente. Se obtienen dos estimadores consistentes de $ a$ y $ b$ reemplazando $ E$ y $ V$ por sus estimadores $ \overline{X}$ y $ S^2$ en la expresión de arriba.

Leyes binomiales negativas:

Apliquemos de nuevo la técnica a una ley binomial negativa. Si $ X$ sigue una ley binomial negativa de parámetros $ n$ y $ p$, su esperanza y su varianza valen:

$\displaystyle \mathbb {E}[X] = \frac{n(1-p)}{p}$   y$\displaystyle \quad Var[X] =
\frac{n(1-p)}{p^2}\;.
$

Podemos expresar $ n$ y $ p$ en función de $ \mathbb {E}[X]$ y $ Var[X]$:

$\displaystyle n=\frac{(\mathbb {E}[X])^2}{Var[X]-\mathbb {E}[X]}$   y$\displaystyle \quad
p=\frac{\mathbb {E}[X]}{Var[X]}\;.
$


Se deducen dos estimadores consistentes de $ n$ y $ p$ reemplazando $ \mathbb {E}[X]$ y $ Var[X]$ por sus estimadores $ \overline{X}$ y $ S^2$ en estas expresiones.

El inconveniente principal del método de los momentos es que los estimadores que él da son en general bastante poco precisos y que es difícil estudiar sus leyes por otra vía que no sea la simulación.



Sección : Búsqueda de estimadores
Previo : Búsqueda de estimadores
Siguiente : Estimación por ajuste