En la mayor parte de los casos de interés práctico, la ley
y por tanto también la
verosimilitud, tienen una
expresión calculable en función de . Para calcular el
máximo de la verosimilitud, es necesario determinar los valores
para los cuales la derivada de la verosimilitud se anula, pero por
definición la verosimilitud es un producto de probabilidades o de
densidades, lo cual puede ser bastante complicado de derivar. Es
preferible derivar una suma, y es por esto que comenzamos por
substituir la verosimilitud
por su logaritmo. Al ser el logaritmo una función creciente, es
equivalente maximizar
o
. Una vez determinado el valor de
para el cual la derivada se anula, hay que asegurarse con
la ayuda de la segunda derivada que el punto en cuestión es
realmente un máximo. Trataremos a continuación los casos de
algunas familias clásicas.
Leyes de Bernoulli: El conjunto de los valores posibles es . El parámetro desconocido es . Si es una muestra, la verosimilitud vale:
Ella es estrictamente negativa, el valor es efectivamente un máximo. Si es una muestra de la ley de Bernoulli de parámetro , el estimador de máxima verosimilitud de es:
Leyes geométricas:
El
conjunto de valores posibles es
, el parámetro desconocido
es .
Si
es una muestra entera, la verosimilitud
vale:
Ella es estrictamente negativa, el valor es efectivamente un máximo. Si es una muestra de la ley geométrica de parámetro , el estimador de máxima verosimilitud de es:
es decir el inverso de la media empírica, lo que es coherente con
el hecho que el parámetro es el inverso de la esperanza.
Leyes exponenciales: El parámetro desconocido es . Se trata en este caso de leyes continuas, la verosimilitud es por tanto un producto de valores de la densidad. Para una -tupla de números reales positivos ella vale:
Ella es estrictamente negativa, el valor es efectivamente un máximo. Si es una muestra de la ley exponencial de parámetro , el estimador de máxima verosimilitud de es:
Leyes normales: Para un parámetro multidimensional el principio es el mismo, pero los cálculos de optimización son más complicados. Para las leyes normales hay dos parámetros desconocidos. Para evitar confusiones en las notaciones de las derivadas, denotaremos por al parámetro de la varianza, usualmente denotado por . Para una -tupla de números reales la verosimilitud vale:
Por tanto la matriz hessiana (matriz de las segundas derivadas parciales) en el punto es:
Sus valores propios son negativos, el punto es efectivamente un máximo. Si es una muestra de la ley normal de parámetros y , los estimadores de máxima verosimilitud de y son respectivamente la media y la varianza empíricas de la muestra, tal como era de esperar.