Sección : Hipótesis alternativas
Previo : Riesgo y potencia
Siguiente : Test del cociente de verosimilitud

Tests paramétricos

Nos situamos en el caso más frecuente, donde las variables son modeladas por una muestra de una cierta ley desconocida. Hasta ahora, hemos considerado hipótesis que tienen que ver con una sola ley $ P$, lo que permitía determinar la ley de un estadígrafo de test en función de la muestra, y por tanto calcular las probabilidades de error (umbral o riesgo). Cuando una hipótesis tiene que ver con una sola ley se dice que es simple. En el caso contrario, decimos que es compuesta.

Frecuentemente, el modelo presupone que la ley desconocida pertenece a una cierta familia de leyes prefijada, que dependen de uno o más parámetros (leyes binomiales, leyes normales...). Denotaremos por $ \theta$ al parámetro y por $ P_\theta$ a la ley desconocida. Un test sobre los valores de $ \theta$ se llama paramétrico. Una hipótesis simple será del tipo $ \theta=\theta_0$, donde $ \theta_0$ es un valor prefijado. Las hipótesis compuestas serán del tipo $ \theta<\theta_0$, $ \theta>\theta_0$ o $ \theta\neq\theta_0$.
 

Para hacer un test sobre el valor del parámetro, lo más lógico consiste en emplear como estadígrafo de test a un estimador convergente de este parámetro. Un estimador convergente es un estadígrafo (función de la muestra), que toma valores que estarán más cercanos a $ \theta$ mientras más grande sea el tamaño de la muestra. Si $ T$ es un estimador convergente de $ \theta$, entonces bajo la hipótesis $ {\cal H}_0\,:\,\theta=\theta_0$, $ T$ debe tomar valores cercanos a $ \theta_0$. Se rechazará $ {\cal H}_0$ cuando $ T$ toma valores muy alejados de $ \theta_0$.

Veamos el caso de dos hipótesis simples :

$\displaystyle {\cal H}_0\;:\;\theta=\theta_0$   contra$\displaystyle \quad {\cal
H}_1\;:\;\theta=\theta_1\;.
$

Si $ \theta_0<\theta_1$, el test será unilateral a la derecha (rechazo de los valores de $ T$ muy grandes). Pero la definición del test no tiene en cuenta a $ \theta_1$ : será la misma para cualquier valor $ \theta_1>\theta_0$, y también para:

$\displaystyle {\cal H}_0\;:\;\theta=\theta_0$   contra$\displaystyle \quad {\cal
H}_1\;:\;\theta>\theta_0\;,
$

igual en el caso:

$\displaystyle {\cal H}_0\;:\;\theta\leq\theta_0$   contra$\displaystyle \quad {\cal
H}_1\;:\;\theta>\theta_0\;.
$

En este último caso, como la hipótesis $ {\cal H}_0$ es compuesta, el umbral será definido como la probabilidad maximal de rechazar $ {\cal H}_0$ erróneamente.

Se empleará un test bilateral para probar :

$\displaystyle {\cal H}_0\;:\;\theta=\theta_0$   contra$\displaystyle \quad {\cal
H}_1\;:\;\theta\neq\theta_0\;.
$


 

Una manera frecuentemente empleada para definir un test paramétrico a partir de una estimación de $ \theta$ es de utilizar un intervalo de confianza.

Definición 4.1   Sea $ (X_1,\ldots,X_n)$ una muestra de la ley $ P_\theta$. Se llama intervalo de confianza de nivel $ 1\!-\!\alpha$ a un intervalo aleatorio $ [T_1,T_2]$, donde $ T_1\leq T_2$ son dos estadígrafos, funciones de la muestra, tales que:

$\displaystyle \mathbb {P}[\, \theta\in[T_1\,,\, T_2]\,]= 1-\alpha\;.
$

Por tanto un intervalo de confianza contiene al valor del parámetro con una fuerte probabilidad. Si la hipótesis $ {\cal H}_0\,:\,\theta=\theta_0$ es verdadera, el intervalo de confianza debe contener a $ \theta_0$.

Proposición 4.2   Sea $ [T_1,T_2]$ un intervalo de confianza de nivel $ 1\!-\!\alpha$ para $ \theta$. Se define un test de umbral $ \alpha$ para la hipótesis $ {\cal H}_0\,:\,\theta=\theta_0$ por la regla de decisión :

   Rechazo de $\displaystyle {\cal H}_0\;\Longleftrightarrow\;
\theta_0\notin[T_1,T_2]\;.
$

Consideremos el caso de una muestra de la ley exponencial $ {\cal E}(\lambda)$. Queremos un test bilateral de la hipótesis $ {\cal H}_0\,:\,\lambda=1$. El estimador natural de $ \lambda $ es el inverso de la media empírica $ T=1/\overline{X}$. Para una muestra de la ley $ {\cal E}(\lambda)$, la media empírica $ \overline{X}$ sigue la ley gamma $ {\cal G}(n,n\lambda)$, por tanto la variable aleatoria $ \lambda/T$ sigue la ley gamma $ {\cal G}(n,n)$. Se deduce que el siguiente intervalo es un intervalo de confianza de nivel $ 1\!-\!\alpha$ para $ \lambda $ :

$\displaystyle [\,T\,Q_{{\cal G}(n,n)}(\alpha/2)\,,\,T\,Q_{{\cal G}(n,n)}(1-\alpha/2)\,]\;.
$

La regla de decisión para el test de umbral $ \alpha$ que se deduce de este intervalo de confianza será:

Rechazo de $\displaystyle {\cal H}_0$ $\displaystyle \Longleftrightarrow$ $\displaystyle 1\notin
[\,T\,Q_{{\cal G}(n,n)}(\alpha/2)\,,\,T\,Q_{{\cal G}(n,n)}(1-\alpha/2)\,]$  
  $\displaystyle \Longleftrightarrow$ $\displaystyle T\notin
[1/Q_{{\cal G}(n,n)}(1-\alpha/2)\,,\,1/Q_{{\cal G}(n,n)}(\alpha/2)\,]
\;.$  

En este caso, el test basado en el intervalo de confianza es equivalente al test basado en el intervalo de dispersión simétrico de la ley de $ T$ bajo $ {\cal H}_0$ (pero no siempre es así).



Sección : Hipótesis alternativas
Previo : Riesgo y potencia
Siguiente : Test del cociente de verosimilitud