Los estimadores entendidos como funcionales

Los estimadores se pueden entender como funcionales aplicados a la función de distribución empírica de la muestra.  Por ejemplo si consideramos la media muestral \bar{x} y el funcional T(F)=\int x dF(x), es claro que \bar{x} = T(F_n), donde F_n es la función de distribución empírica. Este enfoque se puede usar para analizar las propiedades del estimador. La idea es que muchas propiedades del funcional (continuidad, diferenciabilidad, etc.) se traducen en propiedades estadísticas del estimador correspondiente.

Tal vez, los dos campos en los que este punto de vista es más útil son, primero, la teoría de métodos estadísticos robustos que se elaboró en los años 60 y 70 del siglo XX a raíz del artículo de Huber de 1964 y, segundo, el análisis de las propiedades de los métodos bootstrap introducidos por Efron en 1979 y que fueron extensamente estudiados durante los años 80 y 90.

¿Cuándo se utilizó por primera vez, y a quién se debe,  esta forma de analizar los estimadores? Nos tenemos que remontar a uno de los estadísticos más importantes del siglo XX, R. A. Fisher, y a su idea de consistencia, introducida en un famoso artículo de 1922. La historia la cuenta Rao (el único estudiante de doctorado que tuvo Fisher) en este artículo.

En 1922, Fisher definió la consistencia de un estimador de la forma siguiente:

A statistics satisfies the criterion of consistency, if, when it is calculated from the whole population, it is equal to the required parameter.

Esta definición es ciertamente ambigua y, en cualquier caso, diferente del actual concepto de consistencia en términos de la convergencia (en probabilidad o casi segura) de un estimador al valor del parámetro.

Rao preguntó en 1954 a Fisher lo que entendía exactamente por consistencia. Fisher se refirió en su respuesta a la distribución multinomial, en la que las probabilidades de k valores son \pi_1(\theta),\ldots,\pi_k(\theta) como función del parámetro de interés \theta. Si un estimador T_n es función de las frecuencias relativas observadas en la muestra f_1,\ldots,f_k, es decir, T_n=T(f_1,\ldots,f_k), entonces el estimador es consistente si T(\pi_1(\theta),\ldots,\pi_k(\theta))=\theta.

La definición anterior es  mucho más precisa y prácticamente incluye la consideración del estimador como un funcional. Sin embargo, tiene el inconveniente de no poder aplicarse a distribuciones continuas. La extensión a este caso fue llevada a cabo por Kallianpur y Rao (1955). En este artículo se consideran datos procedentes de una distribución dependiente del parámetro,  F_\theta, y se define el estimador como un funcional aplicado a la función de distribución empírica de la muestra, T_n=T(F_n).  Se dice entonces que el estimador es consistente si T(F_\theta)=\theta.

Actualmente, este concepto se llama Fisher-consistencia, para distinguirlo del habitual en términos de convergencia del estimador al parámetro. Como la función de distribución empírica converge a la distribución de la que proceden los datos (teorema de Glivenko-Cantelli), las propiedades de continuidad del funcional T(\cdot) son las que permiten pasar de la Fisher-consistencia a la consistencia en el sentido actual del término.

Este es el párrafo de Kallianpur y Rao (1955) en el que se introduce la Fisher-consistencia y se relaciona con la convergencia del estimador (la notación es diferente de la que he usado yo):

KallianpurRao

Anuncios
Esta entrada fue publicada en estadística y etiquetada . Guarda el enlace permanente.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s