Propiedades de los estimadores

Los estimadores pueden tener las siguientes propiedades:

  • Insesgadez
  • Eficiencia
  • Consistencia
  • Suficiencia
  • Invariabilidad
  • Robustez

Insesgadez

Se dice que un estimador es insesgado cuando la esperanza matemática de su distribución en el muestreo coincide con el valor del parámetro.

Generalmente la esperanza matemática de un estimador se puede expresar como:Insesgadez

Siendo b(θ) el sesgo del estimador. Este sesgo es un error sistemático no aleatorio, ya que lo cometeremos en todas las estimaciones que puede ser positivo o negativo y se calcula como:

Insesgadez2

  • Si el sesgo es positivo (b(θ)>0)  —> El estimador sobreestima el valor del parámetro.
  • Si el sesgo es negativo (b(θ)<0 ) —>El estimador subestimará el valor del parámetro.
  • Si el sesgo es cero (b(θ)=0) —> El estimador es insesgado

Si el un estimador es insesgado diremos que
Insesgadez3

Diremos que un estimador es asintóticamente insesgado siInsesgadez4

Eficiencia

Se dice que un estimador es eficiente u óptimo cuando su varianza es mínima.

Se puede calcular la varianza mínima de un estimador calculando la denominada Cota de Cramér-Rao, a partir de la siguiente expresión:

cota_de_cramer_rao

Siendo f(X; θ) la función de probabilidad que depende del parámetro desconocido θ, X la muestra aleatoria y n el tamaño muestral.

Un estimador es eficiente u óptimo cuando su varianza coincide con la Cota de Cramér-Rao.

Consistencia

Diremos que un estimador es consistente cuando, si el tamaño muestral “n” tiende a infinito el estimador es insesgado y de varianza cero, es decir

Consistencia

La última condición equivale a decir que el estimador es asintóticamente insesgado o consistencia2

Suficiencia

Un estimador es suficiente cuando incluye toda la información relevante de la muestra, de forma que ningún otro estimador puede considerar información adicional.

Invariabilidad

Un estimador es innvariable cuando si transformamos el parámetro a estimar mediante una función g(θ), dicha función puede ser estimada por la función del estimador g(θ^).

Tendríamos un ejemplo en la relación entre la varianza y la desviación típica. Si suponemos que la varianza muestral es un buen estimador de la varianza poblacional, la desviación típica muestral debería serlo de la desviación típica poblacional.

Robustez

Un estimador es robusto cuando si se vulnera alguno de los supuestos en los que se basa el proceso de estimación, la estimación no cambia significativamente y sigue ofreciendo resultados fiables.

Bibliografía Recomendada