Concepto de multicolinealidad

Para analizar adecuadamente los resultados de un modelo de regresión lineal múltiple, es importante estudiar el grado de relación lineal existente entre las variables explicativas que lo componen.

Encontramos en este sentido 3 posibles situaciones:

  • Ortogonalidad.
  • Multicolinealidad perfecta.
  • Multicolinealidad imperfecta.

Ortogonalidad

La ortogonalidad surge cuando la relación lineal entre los regresores incluidos en el modelo es nula. Implica por tanto que no existen relaciones lineales entre los regresores del modelo.

La ortogonalidad no supone el incumplimiento de ninguna de las hipótesis de nuestro modelo. De hecho una de las hipótesis del modelo es que las variables explicativas sean independientes entre sí.

Multicolinealidad perfecta

Un modelo de regresión lineal presenta multicolinealidad perfecta cuando existe una relación lineal exacta entre algunos regresores del modelo.

Si consideramos el modelo:

y_i = \beta_0 + \beta_1 \cdot x_1 + \beta_2 \cdot x_2 + ... \beta_k \cdot x_k +\epsilon_i

existirá multicolinealidad perfecta si ocurre por ejemplo que:

X_{4i} =  X_{1i}+ 5 \cdot X_{3i}   o   X_{3i} =  X_{2i} - 1

En ambos casos se observa que podemos obtener exactamente los valores de las variables regresoras implicadas a partir de una combinación lineal de otras regresoras.

La multicolinealidad perfecta supone el incumplimiento de una de las hipótesis en la que se basa el modelo de regresión lineal clásico, que es la inexistencia de combinaciones lineales exactas entre los regresores del modelo.

Esta hipótesis garantiza la existencia de la matriz (X^t \cdot X)^{-1}, de modo que si no se cumple no se podrán calcular los estimadores de los parámetros del modelo, por no existir el determinante de X^t \cdot X.

En esta situación, Eviews muestra el siguiente mensaje de error ante la imposibilidad de estimar el modelo:

Muticolinealidad perfecta

La multicolinealidad perfecta surge cuando varias variables explicativas contienen exactamente la misma información, de modo que el modo más sencillo de resolverla es eliminar alguna de las variables explicativas que la generan.

Al tratarse de un problema muestral, cambiando o ampliando la muestra se puede resolver.

En la práctica los modelos no suelen presentar multicolinealidad perfecta, ya que las relaciones entre las distintas variables económicas no suele ser exacta.

El problema suele surgir cuando generamos variables de forma artificial como combinación de otras (variables dummies mal construidas u otro tipo de transformaciones).

Multicolinealidad Imperfecta

Decimos que un modelo de regresión múltiple presenta multicolinealidad imperfecta cuando existen relaciones lineales fuertes entre algunas de sus variables explicativas.

Ejemplo.- Si tratamos de explicar el número de tarjetas de crédito que tienen las familias y utilizamos como variables explicativas:

  • El número de miembros de la unidad familiar
  • La renta
  • El número de vehículos

Fácilmente nos encontraremos con un problema de multicolinealidad, pues es de esperar que en nuestros datos existan altas correlaciones  entre variables como la renta y el número de vehículos, o el número de vehículos y el número de miembros de la familia.

La multicolinealidad imperfecta o simplemente multicolinealidad es un problema muy común en los modelos econométricos que incumple la hipótesis básica de independencia entre las variables explicativas.

Si un modelo presenta multicolinealidad, los estimadores de mínimos cuadrados ordinarios siguen siendo los mejores estimadores que pueden  obtenerse y cumpliendo muchas de las propiedades deseadas para un estimador como la insesgadez.

De la multicolinealidad imperfecta se derivan las siguientes consecuencias:

  1. Errores estándar de estimación elevados o varianzas grandes en los estimadores.
  2. Inestabilidad de los estimadores ante pequeñas variaciones muestrales. Este problema es consecuencia directa del anterior, ya que si las varianzas de los estimadores son grandes, los estimadores resultan más inestables.
  3. Dificultad para interpretar los coeficientes y por tanto sus estimaciones. Los coeficientes de regresión (\beta_i) se interpretan como el cambio que se produce en la variable dependiente (y) ante variaciones de la variable independiente (X_i) de una unidad, siempre que el resto de las variables explicativas permanezca constante. 
    Cuando existe multicolinealidad imperfecta es imposible suponer que el resto de las variables permanecen constantes cuando una cambia, ya que si están altamente relacionadas cambios en una implicarán cambios en el resto.   Por este motivo los parámetros pierden significado.