Para una
muestra de tamaño de la
ley de
Bernoulli de parámetro desconocido
, la
frecuencia empírica es
un
estimador de
. Además es una variable aleatoria que toma sus
valores en
. Si
es grande, de acuerdo con la
Ley de los
Grandes Números, ella toma, con una probabilidad fuerte, valores
cercanos a
. Cualesquiera que sean el modelo y el parámetro a
estimar, que el estimador tome
valores cercanos al parámetro, al menos para muestras grandes,
es la calidad principal que
esperamos del estimador. Con todo rigor, debemos considerar
una sucesión de estimadores
, donde para todo
es
una variable aleatoria que depende de la muestra
. Por abuso del lenguaje, llamamos ''estimador''
a esta sucesión.
En consecuencia un
estimador
consistente
se aleja del parámetro con una probabilidad débil, si
el tamaño de la muestra es lo suficientemente grande.
El ejemplo básico de un
estimador
consistente es la
media
empírica. Denotaremos por
la media empírica de la
muestra
:
La
Ley de los Grandes Números afirma que
es
un
estimador
consistente de la
esperanza de
.
Si el parámetro
se expresa como una función continua de
, entonces la imagen de
por esta
función es un
estimador consistente de
, según afirma la
siguiente proposición.
Consideremos por ejemplo como modelo la
ley uniforme sobre
, donde el parámetro
es
desconocido. La media empírica
es un estimador
consistente de la esperanza de la ley, que es
. Por
tanto
es un estimador consistente de
.
Pero hay otras esperanzas que se pueden calcular. Por ejemplo si
sigue la ley uniforme sobre
, entonces
vale
. Según la
Ley de los Grandes Números,
es un
estimador consistente de
. Por lo tanto el estimador
que damos a continuación, es también un estimador
consistente de
:
La noción de consistencia no da ninguna seguridad práctica de que los valores que toma un estimador estarán efectivamente en un radio fijo alrededor del verdadero valor del parámetro, para un tamaño de muestra dado. La calidad de los estimadores se cuantifica con la noción de error cuadrático.
El error cuadrático está ligado a la consistencia por la siguiente proposición.
Demostración:
Si
, entonces
. Por lo tanto:
Si se dispone de dos estimadores para el mismo parámetro ,
diremos que uno es mejor que el otro si su error cuadrático
con respecto a
es menor. En el ejemplo de más arriba, el
error cuadrático de
vale
, el error
cuadrático de
es equivalente a
cuando
tiende a infinito. Por lo tanto
es mejor que
.
Aún para un estimador consistente, puede suceder que los valores que toma estén desplazados, en promedio, con respecto al verdadero valor del parámetro. Decimos entonces que el estimador es sesgado.
Demostración:
Por la linealidad de la esperanza tenemos:
![]() |
![]() |
![]() |
|
![]() |
![]() |
||
![]() |
![]() |
||
![]() |
![]() |
Cuando un estimador es insesgado, el error cuadrático es igual a la varianza. El criterio siguiente, consecuencia inmediata de la proposiciones 1.5 y 1.7, es frecuentemente utilizado para demostrar que un estimador es consistente.
Cuando el sesgo puede ser calculado explícitamente, evidentemente
tendremos interés en usarlo para corregir y mejorar al estimador.
Retomemos el ejemplo de la
ley uniforme sobre
. Un
estimador natural de
es el valor más grande de la
muestra:
Como todos los valores son inferiores a
, el
estimador
subestima sistemáticamente a
. Se
demuestra que su
esperanza es
y por tanto su
sesgo vale
. Podemos corregir el sesgo
introduciendo:
En la tabla que sigue, agrupamos los 4 ejemplos de estimadores del
parámetro para la ley uniforme
que
hemos introducido hasta ahora. El mejor entre los cuatro es
.
![]() |
![]() |
|
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |