Virtual Laboratories > Point Estimation > 1 2 3 4 [5] 6

5. Mejores Estimadores Imparciales (no sesgados)


El Modelo Básico

Considere nuevamente el modelo estadístico básico, en el cual tenemos un experimento aleatorio que resulta en una  variable aleatoria observable X que toma valores en un conjunto S. Como ya se estudió anteriormente, el experimento consiste en muestrear n objetos provenientes de una población y registrar un vector de medidas para cada item. En este caso, X tiene la forma

X = (X1, X2, ..., Xn).

donde Xi es el  i-ésimo item en el vector de medidas.

Suponga que a es un parámetro real de la distribución de X, tomando valores en un espacio del parámetro A subset R. Sea  f(· | a) la función densidad de probabilidad de X para a in A. Note que los operadores valor esperado, varianza, y covarianza también dependen de a, aunque no lo tendremos en cuenta en la notación para que ésta no se vuelva demasiado complicada. Finalmente, sea Da el operador derivada respecto de a.

Suponga ahora que b = b(a) es un parámetro de interés. En esta sección consideraremos el problema general de encontrar el mejor estimador de b(a) de entre una determinada clase de estimadores no sesgados. Recuerde que si U es un estimador no sesgado de b(a), entonces la var(U) es el error cuadrático medio. De esta manera, si U y V son estimadores no sesgados de b(a) y

var(U ) <= var(V) para todo a in A.

entonces U es un estimador uniformemente mejor que V. Por otro lado, puede suceder que U tenga una varianza menor para algunos valores de a mientras que V tiene una menor varianza para otros valores de a. Si U es uniformemente mejor que cualquier otro estimador no sesgado de b(a), entonces U es un  Estimador Uniformemente Imparcial (o no sesgado) de Varianza Mínima (UMVUE, según sus siglas en inglés).

La Cota Inferior de Cramer-Rao 

En esta sección, demostraremos que bajo condiciones normales, existe una cota inferior en la varianza de cualquier estimador no sesgado del parámetro b(a). De esta forma, si podemos encontrar un estimador que logre superar esta cota inferior para todo a in A, entonces éste estimador debe ser uno del tipo UMVUE.

La supocición que debemos hacer es que para cualquier función  h de S R con E[|h(X)|] < infinity,

Da E[h(X)] = E{h(X) Da ln[f(X | a)]}.

Mathematical Exercise 1. Demuestre que esta condición es equivalente a la supocición de que el operador derivada Da puede ser intercambiado con el operador valor esperado E.

Generalmente hablando, la supocición fundamental se satisfacerá si f(x | a) es diferenciable como una función de a, con una derivada que es conjuntamente contínua en  x y a, y si el conjunto de soporte {x: f(x | a) > 0} no depende de a.

Mathematical Exercise 2. Demuestre que E{Da ln[f(X | a)]} = 0. Ayuda: Use la condición básica con h(x) = 1 para x perteneciente a S.

Ahora sea h una función que satisface la condición básica.

Mathematical Exercise 3. Demuestre que cov{h(X), Da ln[f(X | a)]} = Da E[h(X)]. Ayuda: Primeramente fíjese que la covarianza es simplemente el valor esperado del producto de las variables, puesto que por el ejercicio anterior sabemos que la segunda variable tiene media 0. Entonces simplemente use la condición básica.

Mathematical Exercise 4. Demuestre que var{Da ln[f(X | a)]} = E{[Da ln[f(X | a)]]2}. Ayuda: La variable tiene media 0.

Mathematical Exercise 5. Finalmente, use la desigualdad de Cauchy-Scharwtz para encontrar la Cota Inferior de Cramer-Rao:

var[h(X)] >= {Da E[h(X)]}2 / E{[Da ln[f(X | a)]]2}.

Mathematical Exercise 6. Suponga que X = (X1, X2, ..., Xn) es una muestra aleatoria de longitud n proveniente de la distribución de la variable aleatoria  X que tiene una función densidad g. Demuestre que

var[h(X)] >= {Da E[h(X)]}2 / n E{[Da ln[g(X | a)]]2}.

Ayuda: La densidad conjunta es el producto de las densidades marginales. Use las propiedades de los logaritmos, la propiedad de independencia, y el Ejercicio 2.

Ahora suponga que b(a) es un parámetro de interés y que h(X) es un estimador no sesgado de b(a).

Mathematical Exercise 7. Use la cota inferior de Cramer-Rao general para demostrar que

var[h(X)] >= {Da b(a)}2 / E{[Da ln[f(X | a)]]2}.

Mathematical Exercise 8. Demuestre que se cumple la igualdad en el Ejercicio 7 si y solo si

h(x) - b(a) = u(a)Da ln[f(x | a)] para todo x

y para alguna función u(a). Ayuda: Recuerde que se cumple la igualdad en la desigualdad de Cauchy-Schwartz si y solo si las variables aleatorias son transformaciones lineales entre si. Recuerde también que Da ln[f(X | a)] tiene media 0.

Mathematical Exercise 9. Suponga que X = (X1, X2, ..., Xn) es una muestra aleatoria de longitud n proveniente de la distribución de la variable aleatoria  X que tiene una función densidad g. Demuestre que

var[h(X)] >= {Da b(a)}2 / n E{[Da ln[g(X | a)]]2}.

La cantidad E{[Da ln[f(X | a)]]2} que se halla en el denominador de las cotas inferiores de los Ejercicios 5 y 7 se llama el Número de Información de Fisher de X, llamado asi por Sir Ronald Fisher.

Los siguientes ejercicios dan una versión alternativa para la expresión de los Ejercicios 7 y 8, computacionalmente más eficiente.

Mathematical Exercise 10. Demuestre que si las derivadas apropiadas existen y si los intercambios adecuados son permisibles entonces

E{[Da ln[g(X | a)]]2} = -E{Da2 ln[g(X | a)]}.

La Distribución de Bernoulli 

Suponga que (I1, I2, ..., In) es una muestra aleatoria de longitud n con una distribución de Bernoulli con parámetro p. La suposición básica es satisfecha.

Mathematical Exercise 11. Demuestre que p(1 - p) / n es la cota inferior de CR para la varianza de los estimadores no sesgados de p.

Mathematical Exercise 12. Demuestre que la media muestral (o equivalentemente la proporción muestral) Mn alcanza la cota de CR y por lo tanto es un UMVUE de p.

La Distribución de Poisson 

Suponga que (X1, X2, ..., Xn) es una muestra aleatoria de longitud n con una distribución de Poisson con parámetro a. La suposición básica es satisfecha.

Mathematical Exercise 13. Demuestre que a / n es la cota inferior de CR para la varianza de los estimadores no sesgados de a.

Mathematical Exercise 14. Demuestre que la media muestral Mn alcanza la cota de CR y por lo tanto es un UMVUE de a.

La Distribución Normal 

Suponga que (X1, X2, ..., Xn) es un a muestra aleatoria de longitud n con una distribución normal con media µ y varianza d2. La suposición básica es satisfecha con respecto a µ y a d2. Recuerde también que E[(X - µ)4] = 3d4.

Mathematical Exercise 15. Demuestre que d2 / n es la cota inferior de CR para la varianza de estimadores no sesgados de µ.

Mathematical Exercise 16. Demuestre que la media muestral Mn alcanza la cota de CR y por lo tanto es un UMVUE de µ.

Mathematical Exercise 17. Demuestre que 2d4 / n es la cota inferior de CR para la varianza de cualquier estimador no sesgado d2.

Mathematical Exercise 18. Demuestre (o recuerde) que la varianza muestral S2 tiene varianza 2d4 / (n - 1) y por lo tanto no alcanza la cota inferior de CR en el Ejercicio 17.

Mathematical Exercise 19. Demuestre que si µ es conocida, entonces la estadística de abajo alcanza la cota inferior de CR y por lo tanto es un UMVUE de d2:

W2 = (1 / n)sumi = 1, ..., n (Xi - µ)2.

Mathematical Exercise 20. Demuestre que si µ es desconocida, ningún estimador de d2 alcanza la cota inferior de CR.

La Distribución Gamma 

Suponga que (X1, X2, ..., Xn) es un a muestra aleatoria de longitud n con una distribución gamma con parámetro de escala  b y parámetro de forma  k. La suposición básica es satisfecha con respecto a b.

Mathematical Exercise 21. Demuestre que b2 / nk es la cota inferior de CR para la varianza de estimadores no sesgados de b.

Mathematical Exercise 22. Demuestre que si  k es conocido, entonces Mn / k alcanza la cota inferior de CR y por lo tanto es un UMVUE de b.

The Distribución Uniforme 

Suponga que (X1, X2, ..., Xn) es un a muestra aleatoria de longitud n con una distribución uniforme entre (0, a).

Mathematical Exercise 23. Demuestre que no se satisface la suposición fundamental.

Mathematical Exercise 24. Demuestre que la cota inferior de CR para la varianza de estimadores no sesgados de a es a2 / n.

Mathematical Exercise 25. Demuestre (o recuerde) que [(n + 1) / n]X(n) es no sesgado y tiene varianza a2 / n(n + 2), la cual es menor que la cota CR del ejercicio anterior.

La razón por la cual la suposición básica no se satisface es que el conjunto de soporte {x: f(x | a) > 0} depende del parámetro a.

Mejores Estimadores No Sesgados Lineales

Consideraremos ahora un problema en alguna manera especializado, pero que entra dentro del tema general de esta sección. Suponga que  X1, X2, ..., Xn son variables aleatorias observables reales las cuales son no correlacionadas y tienen la misma media desconocida µ, pero posiblemente diferentes desviaciones estándard. Sea di = sd(Xi) para i = 1, 2, ..., n. Consideraremos estimadores de µ que son funciones lineales de las variables de resultado o de salida:

Y =sumi = 1, ..., n ciXi donde c1, ..., cn deben determinarse.

Mathematical Exercise 26. Demuestre que Y es no sesgado si y solo si sumi = 1, ..., n ci = 1.

Mathematical Exercise 27. Calcule la varianza de Y en términos de  c1, c2, ..., cn y d1, d2, ..., dn.

Mathematical Exercise 28. Use los multiplicadores de Lagrange para demostar que la varianza se minimiza, sujeta a la restricción de no sesgo o imparcialidad, cuando 

cj = (1 / dj2) /sumi = 1, ..., n (1 / di2) for j = 1, 2, ..., n.

Este ejercicio muestra como construir los Mejores Estimadores No Sesgados Lineales (BLUE,según su sigla en inglés) de µ, suponiendo que d1, d2, ..., dn son conocidos.

Suponga ahora que di = d para cada i, de manera que las variables de salida tienen la misma desviación estándard. En particular, éste sería el caso si las variables de salida provenientes de una muestra aleatoria de longitud n con una distribución con media µ y desviación estándard d.

Mathematical Exercise 29. Demuestre que en este caso la varianza se minimiza  cuando, ci = 1 / n para cada i y por lo tanto Y es la media muestral.

Este ejercicio muestra que la media muestral Mn es el mejor estimador no sesgado lineal de µ cuando las desviaciones estándard son las mismas y, más aún, que no nececitamos conocer el valor de la desviación estándard.