Ejemplo completo de análisis de multicolinealidad (Parte 1)

El fichero ahorro.wf1 recoge datos para la economía española en el periodo 1980-2014 de las variables:

Ahorro_familiar: Ahorro neto familiar.
Renta_familiar: Renta neta disponible por familia.
Impuestos: Impuestos directos pagados por las familias.
Tamaño_familiar: Número medio de personas que conviven en el entorno familiar.

Si generamos el modelo que explica el ahorro neto familiar en función de la renta neta disponible de las familias, de los impuestos directos y del tamaño familiar. Obtenemos la siguiente salida de Eviews:

estimación_modelo_ahorro

Para estudiar la multicolinealidad tenemos las siguiente herramientas:

  1. Observar la matriz de correlaciones entre las variables explicativas y su determinante.
  2. Analizar la significación individual y conjunta de los regresores.

Matriz de correlaciones de las variable explicativas

La matriz de correlaciones  entre las variables explicativas nos permite observar el grado de relación lineal existente entre cada par de regresores.

Cuando alguno de los coeficientes de correlación es elevado (próximo a ±1) tendremos un indicio de la existencia de multicolinealidad imperfecta en el modelo.

En Eviews la matriz de correlaciones se obtiene abriendo las variables explicativas como grupo, y dentro de las vistas del grupo seleccionando:

view -> covariance analysis

Por defecto nos sacará la matriz de varianzas-covarianzas ya que viene seleccionada esta opción. Debemos deseleccionarla y seleccionar la opción “correlations”. En este caso, la matriz de correlación es:

matriz de correlaciones_ahorro

A la vista de la matriz de correlaciones podemos observar que todas las variables explicativas están fuertemente relacionadas entre si, presentado coeficientes de correlación lineal superiores en todo caso a 0,7 en valor absoluto. Esto es un indicio claro de presencia de multicolinealidad en el modelo.

Pero incluso si los coeficientes de correlación lineal no fueran tan elevados, podría ocurrir que existiese una fuerte multicolinealidad, como consecuencia de la relación entre más de 2 variables. Recordemos que el coeficiente de correlación lineal solo será capaz de detectar relaciones entre dos variables. En este sentido, debemos observar también el determinante de la matriz de correlaciones para detectarla la presencia de multicolinealidad derivada de relaciones que involucren a más de dos variables explicativas. El determinante de la matriz de correlaciones nos dará una medida de la relación de las variables en su conjunto.

Un determinante muy bajo (cercano a cero) indicará altas intercorrelaciones entre las variables. Si el determinante llegase a cero indicaría la existencia de relaciones lineales perfectas entre las variables explicativas y por tanto multicolinealidad perfecta en el modelo. Debemos comprobar por tanto, que el determinante la matriz de correlaciones de los regresores sea cercano a cero, para descartar un problema de multicolinealidad en el modelo.

Para calcular el determinante de la matriz de correlaciones debemos seguir los siguiente pasos:

  1. Abrir las variables explicativas como grupo y guardar el grupo. Recordemos que para guardar el grupo bastará con darle un nombre, por ejemplo “grupo_explicativas”.
  2. Guardar como matriz, la matriz de correlaciones del grupo creado. Para ello debemos escribir en la ventana de comandos:
    Sym Matriz_correlaciones=@cor(grupo_explicativas)
  3. Calcular el determinante de la matriz generada, escribiendo en la ventana de comandos:
    Scalar determinante=@det(Matriz_correlaciones)

Como resultado nos aparecerán los objetos “grupo_explicativas”, “matriz_correlaciones” y “determinante” en el wworkfile_ahorroorfile, tal y como podemos observar en la imagen.

En este caso, el determinante de nuestra matriz de correlaciones es igual a 0,002761. Este valor es muy próximo a cero, lo que indica de nuevo la presencia de multicolinealidad en el modelo.