Sección : Hipótesis alternativas
Previo : Tests paramétricos
Siguiente : Función potencia


Test del cociente de verosimilitud

Retomamos el problema de contrastar o hacer un test entre dos hipótesis simples cuando el modelo es el de una muestra $ (X_1,\ldots,X_n)$ de una ley de probabilidad desconocida $ P$ :

$\displaystyle {\cal H}_0\;:\;P=P_0$   contra$\displaystyle \quad {\cal
H}_1\;:\;P=P_1\;.
$

Los tests que tienen que ver con dos valores fijos de un parámetro son un caso particular de estos. Consideremos por ejemplo la serie de 10 datos binarios siguiente:

$\displaystyle 0\;,\;1\;,\;1\;,\;0\;,\;1\;,\;1\;,\;1\;,\;0\;,\;0\;,\;1\;.
$

El modelo es una muestra de tamaño $ 10$ de la ley de Bernoulli de parámetro $ p$, para la cual queremos hacer un test:

$\displaystyle {\cal H}_0\;:\;p=0.5$   contra$\displaystyle \quad {\cal
H}_1\;:\;p=0.8\;.
$

La idea consiste en comparar las probabilidades de la observación bajo cada una de las dos hipótesis. Para la ley de Bernoulli de parámetro $ p$, la probabilidad que una observación contenga $ 6$ ``$ 1$'' y $ 4$ ``0'' es $ p^6(1-p)^4$ o sea $ 9.8\,10^{-4}$ para $ p=0.5$ y $ 4.2\,10^{-4}$ para $ p=0.8$. Las dos son débiles, pero el cociente está a favor de $ {\cal H}_0$.

Definición 4.3   Sea $ P$ une ley de probabilidad discreta, y $ (X_1,\ldots,X_n)$ una muestra de la ley $ P$. Se llama verosimilitud al estadígrafo:

$\displaystyle L(X_1,\ldots,X_n) = \prod_{i=1}^n P(X_i)\;.
$

La interpretación es la siguiente. Por definición, las variables aleatorias $ X_1,\ldots,X_n$ son independientes y de misma ley $ P$. Por tanto la probabilidad que la muestra teórica $ (X_1,\ldots,X_n)$ tenga por realización la muestra observada $ (x_1,\ldots,x_n)$ es el producto de las probabilidades para que $ X_i$ tome el valor $ x_i$, es decir:

$\displaystyle \mathbb {P}[(X_1,\ldots,X_n)=(x_1,\ldots,x_n)] = L(x_1,\ldots,x_n)\;.
$

En el caso de un modelo continuo, la ley $ P$ tiene una densidad con valores en $ \mathbb {R}$, y la probabilidad de que la muestra tome un valor particular es siempre nula. Por tanto hay que sustituir la probabilidad $ P$ por su densidad en la definición de la verosimilitud.

Definición 4.4   Sea $ P$ una ley de probabilidad continua con valores en $ \mathbb {R}$ y
$ (X_1,\ldots,X_n)$ una muestra de la ley $ P$. Denotemos por $ f$ la densidad de probabilidad de la ley $ P$. Se llama verosimilitud al estadígrafo:

$\displaystyle L(X_1,\ldots,X_n) = \prod_{i=1}^n f(X_i)\;.
$

La interpretación es la siguiente. Sea $ \varepsilon$ un número real estrictamente positivo (pequeño). La probabilidad que la muestra $ (X_1,\ldots,X_n)$ tenga una realización ``tan cerca como $ \varepsilon$'' de la muestra observada $ (x_1,\ldots,x_n)$ puede escribirse:

$\displaystyle \mathbb {P}\Big[X_1\in
[x_1\!-\!\frac{\varepsilon}{2},x_1\!+\!\frac{\varepsilon}{2}]$    y $\displaystyle \ldots$ y $\displaystyle X_n\in
[x_n-\frac{\varepsilon}{2},x_n+\frac{\varepsilon}{2}]\Big]$ $\displaystyle =$ $\displaystyle \prod_{i=1}^n
\int_{x_i-\frac{\varepsilon}{2}}^{x_i+\frac{\varepsilon}{2}} f(x)\,dx$  
  $\displaystyle \simeq$ $\displaystyle \prod_{i=1}^n \varepsilon f(x_i)$  
  $\displaystyle =$ $\displaystyle \varepsilon^n\,L(x_1,\ldots,x_n)\;.$  

Definición 4.5   Sea $ (X_1,\ldots,X_n)$ una muestra de la ley $ P$. Se desea hacer un test de las hipótesis

$\displaystyle {\cal H}_0\;:\;P=P_0$   contra$\displaystyle \quad {\cal
H}_1\;:\;P=P_1\;.
$

Sea $ L_0(X_1,\ldots,X_n)$ la verosimilitud de la muestra bajo $ {\cal H}_0$ y $ L_1(X_1,\ldots,X_n)$ la verosimilitud bajo $ {\cal H}_1$. Pongamos:

$\displaystyle T = \frac{L_1(X_1,\ldots,X_n)}{L_0(X_1,\ldots,X_n)}\;.
$

Se llama test del cociente de verosimilitud de umbral $ \alpha$, al test definido por la regla de decisión:

   Rechazo de $\displaystyle {\cal H}_0\;\Longleftrightarrow\; T >
Q_0(1-\alpha)\;,
$

donde $ Q_0$ es la función cuantil de $ T$ bajo la hipótesis $ {\cal H}_0$.

En el caso en que la ley $ P$ es discreta, la ley del estadígrafo de test $ T$ lo es también, y la definición de la región de rechazo para un valor fijado del umbral $ \alpha$ plantea los problemas habituales. En la práctica, es mejor calcular el p-valor.
 

Retomemos el ejemplo de una muestra de la ley de Bernoulli, con las dos hipótesis:

$\displaystyle {\cal H}_0\;:\;p=p_0$   contra$\displaystyle \quad {\cal
H}_1\;:\;p=p_1\;,
$

donde $ p_0<p_1$. La regla de decisión es del tipo:

   Rechazo de $\displaystyle {\cal H}_0\;\Longleftrightarrow\;
\frac{p_1^{\sum X_i}(1-p_1)^{n-\sum X_i}} {p_0^{\sum
X_i}(1-p_0)^{n-\sum X_i}} > l_0\;.
$

Como siempre, se va a transformar la regla de decisión por equivalencias, para llegar a un estadígrafo de test del cual sepamos calcular la ley :
Rechazo de $\displaystyle {\cal H}_0$
$\displaystyle \Longleftrightarrow$ $\displaystyle \left(\frac{p_1(1-p_0)}{p_0(1-p_1)}\right)^{\sum X_i} >l_1$  
  $\displaystyle \Longleftrightarrow$ $\displaystyle \sum X_i > l_2\;.$  

El valor $ l_2$ deberá ser tal que $ \mathbb {P}_{{\cal H}_0}[\sum
X_i>l_2] = \alpha$. Pero bajo $ {\cal H}_0$, $ \sum X_i$ sigue la ley binomial $ {\cal
B}(n,p_0)$. Reencontramos el test unilateral a la derecha clásico para el valor de una probabilidad. Como una aplicación numérica, si $ p_0=0.5$ y $ p_1=0.8$, $ \sum X_i$ toma el valor 6, el p-valor es :

$\displaystyle 1-F_{{\cal B}(10,0.5)}(5) = 0.377\;.
$

Por tanto no se rechazará $ {\cal H}_0$.
 

Veamos otro ejemplo, con dos leyes continuas.

$\displaystyle {\cal H}_0\;:\;P={\cal U}(0,1)$   contra$\displaystyle \quad {\cal
H}_1\;:\;P={\cal B}(2,1)\;.
$

Las leyes $ {\cal U}(0,1)$ y $ {\cal B}(2,1)$ tienen por densidades respectivas :

$\displaystyle f_0(x) = \mathbb {I}_{[0\,,1]}(x)$   y$\displaystyle \quad f_1(x) =
2x\mathbb {I}_{[0\,,1]}(x)\;.
$

La regla de decisión del test del cociente de verosimilitud será:

Rechazo de $\displaystyle {\cal H}_0$
$\displaystyle \Longleftrightarrow$ $\displaystyle \frac{L_1(X_1,\ldots,X_n)}{L_0(X_1,\ldots,X_n)} >l_0$  
  $\displaystyle \Longleftrightarrow$ $\displaystyle 2^n\prod_{i=1}^n X_i > l_0$  
  $\displaystyle \Longleftrightarrow$ $\displaystyle \prod_{i=1}^n X_i > l_1$  
  $\displaystyle \Longleftrightarrow$ $\displaystyle \sum_{i=1}^n \log(X_i) > l_2$  
  $\displaystyle \Longleftrightarrow$ $\displaystyle \sum_{i=1}^n -\log(X_i) < l_3\;.$  

Pero si $ X_i$ sigue la ley $ {\cal U}(0,1)$ (hipótesis $ {\cal H}_0$), entonces $ -\log(X_i)$ sigue la ley exponencial $ {\cal
E}(1)$, y como las $ X_i$ son independientes, $ \sum -\log(X_i)$ sigue la ley gamma $ {\cal G}(n,1)$. La regla de decisión para el test de umbral $ \alpha$ es por tanto:

   Rechazo de $\displaystyle {\cal H}_0\;\Longleftrightarrow\; \sum_{i=1}^n
-\log(X_i) < Q_{{\cal G}(n,1)}(\alpha)\;.
$

La ventaja del test del cociente de verosimilitud (cuando se puede construir explícitamente), es que él garantiza la mejor potencia posible, según el teorema de Neyman-Pearson :

Teorema 4.6   El test del cociente de verosimilitud de umbral $ \alpha$ es más potente que cualquier otro test de umbral $ \alpha'\leq \alpha$, para las dos hipótesis simples $ {\cal
H}_0\,:\,P=P_0$ contra $ {\cal H}_1\,:\,P=P_1$.

Si $ \beta$ denota el riesgo de segunda especie del test del cociente de verosimilitud, y $ \beta'$ el de cualquier otro test de las mismas hipótesis, decir que el test del cociente de verosimilitud es más potente que el otro quiere decir que $ \beta$ es menor que $ \beta'$.



Sección : Hipótesis alternativas
Previo : Tests paramétricos
Siguiente : Función potencia