Normalidad, inferencia y bondad de ajuste (parte 1)

Contraste de normalidad

Antes de comenzar a analizar los contrastes de hipótesis asociados al modelo de regresión lineal múltiple es importante comprobar si se cumple la hipótesis de normalidad del error (H9)

Recordemos que la hipótesis 9 decía: El término error es un término completamente aleatorio que sigue una distribución normal, de esperanza 0 (E[\epsilon_i]=0).”

Los contrastes de hipótesis asociados al modelo de regresión múltiple son todos contrastes paramétricos, por lo que no serán aplicables si no se cumple esta hipótesis de normalidad del error.

Para comprobar la normalidad del error, podemos aplicar el contraste Jarque-Bera a los residuos del modelo. Podemos hacerlo en Eviews de varias formas:

1. Abriendo la serie residuos y accediendo

View -> Descriptives statistics and test -> Histogram and stats
En este caso, si estamos trabajando con varios modelos a la vez debemos tener cuidado de que los residuos guardados en resid sean los que realmente nos interesan. Podemos comprobarlo observando la fecha y hora en que fueron calculados

2. Desde el objeto ecuación accediendo a:

View -> Residual diagnosis – Histogram and normality test

En ambos casos obtendremos:

Jarque_Bera_estres

Donde aparece el contraste de normalidad Jarque-Bera.

Recordemos que el test Jarque-Bera contrasta la hipótesis nula de normalidad.

En este caso, con un p-valor de 0,8768 debemos decir que, a nivel de significación 0,05 no tenemos evidencias suficientes para rechazar que la muestra provenga de una distribución normal.

Error estándar

Volviendo a la estimación del modelo, junto a la columna de coeficientes tenemos la columna STD Error que muestra el error estándar de la estimación.

El error estándar es la desviación típica de los estimadores de los parámetros del modelo y mide la precisión con la que dichos estimadores estiman los parámetros del modelo.

Nos indican por tanto, el grado de confianza que podemos tener en la estimación.

Sabemos que, siempre que se cumplan las hipótesis básicas del modelo, los estimadores de mínimos cuadrados ordinarios son eficientes, es decir, que tienen la menor varianza (y en consecuencia desviación típica) que pueden tener.

Contraste de significatividad individual

La siguiente columna incluye el t-statistic, el estadístico del contraste de significatividad individual.

Este test contrasta la hipótesis nula de que la variable considerada no es individualmente significativa para explicar el comportamiento de la variable dependiente, es decir:

H_0: \beta_i = 0

H_1: \beta_i \neq 0

El estadístico de contraste de este test es:

t-statistic = \frac{\hat{\beta_i}}{\hat{\sigma}_{\hat{\beta_i}}}

Sabemos que bajo H_0 el estadístico t sigue una distribución t de student con n-k-1 grados de libertad.

La región crítica será por tanto: |t|\geq t_{n-k-1, \alpha/2}

La siguiente columna, probability nos indica la probabilidad de cometer el error de rechazar la hipótesis nula siendo cierta (error de tipo I), en el contraste de significatividad individual. No da por tanto el p-valor.

Este p-valor está considerando que bajo la hipótesis nula, el estadístico de contraste sigue una distribución t de student con n-k-1 grados de libertad, siendo k el número de variables represoras del modelo.

En el modelo planteado debemos rechazar la hipótesis nula de no significatividad de las variables en el caso de la edad, el tamaño de la empresa y el salario, concluyendo por tanto que estas variables sí son significativas a la hora de explicar el estrés de los trabajadores.

Para la variable antigüedad, por el contrario, a nivel de significación 0,05 no podemos rechazar la hipótesis nula de no significatividad, con lo que debemos considerar que no es significativa para explicar el estrés de los trabajadores.