Consideremos una vez más una
ley de probabilidad , dependiente de un parámetro
desconocido
, y una muestra
de esta
ley.
Sea una función de
en
. Si
es una variable
aleatoria de ley
, la ley de
depende también, en
general, de
y lo mismo sucede con su
esperanza. Pero
puede ser estimada por la
media empírica de
. Si
se
expresa en función de
, de aquí deduciremos un
estimador de
. Ya hemos empleado esta técnica varias veces
en los dos parrafos anteriores. En la mayor parte de los casos,
es una potencia de
o de
. Las cantidades
y
se
llaman los momentos de
, de ahí el nombre del método. Daremos tres ejemplos de
aplicación, a las
leyes
gamma,
beta y
binomial negativa.
Leyes gamma:
Si sigue una ley gamma de parámetros
y
, su esperanza y su varianza valen:
Si se dispone de una muestra
de la ley gamma de
parámetros
y
, la media empírica
y la
varianza empírica
son
estimadores consistentes de
y
respectivamente. De aquí obtenemos dos
estimadores
consistentes de
y
:
Leyes beta:
La misma técnica permite estimar los parámetros
de una ley beta. Si sigue la ley beta de parámetros
y
,
su esperanza y su varianza valen:
Si se dispone de una muestra de la ley beta de parámetros y
, la media empírica
y la varianza empírica
son
estimadores consistentes de
y
respectivamente. Se obtienen dos
estimadores consistentes de
y
reemplazando
y
por sus estimadores
y
en la expresión de arriba.
Apliquemos de nuevo la técnica a una ley binomial
negativa. Si sigue una ley binomial negativa de parámetros
y
, su esperanza y su varianza valen:
Se deducen dos
estimadores consistentes de y
reemplazando
y
por sus estimadores
y
en
estas expresiones.
El inconveniente principal del método de los momentos es que los estimadores que él da son en general bastante poco precisos y que es difícil estudiar sus leyes por otra vía que no sea la simulación.