21.7 Diagnosis del modelo
Las conclusiones obtenidas con este método se basan en las hipótesis básicas del modelo:
Linealidad.
Normalidad (y homogeneidad).
Homocedasticidad.
Independencia.
Ninguna de las variables explicativas es combinación lineal de las demás.
Si alguna de estas hipótesis no es cierta, las conclusiones obtenidas pueden no ser fiables, o incluso totalmente erróneas. En el caso de regresión múltiple es de especial interés el fenómeno de la multicolinealidad (o colinearidad) relacionado con la última de estas hipótesis.
En esta sección consideraremos como ejemplo el modelo:
<- lm(salario ~ salini + expprev, data = empleados)
modelo summary(modelo)
##
## Call:
## lm(formula = salario ~ salini + expprev, data = empleados)
##
## Residuals:
## Min 1Q Median 3Q Max
## -32263 -4219 -1332 2673 48571
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 3850.71760 900.63287 4.276 2.31e-05 ***
## salini 1.92291 0.04548 42.283 < 2e-16 ***
## expprev -22.44482 3.42240 -6.558 1.44e-10 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 7777 on 471 degrees of freedom
## Multiple R-squared: 0.7935, Adjusted R-squared: 0.7926
## F-statistic: 904.8 on 2 and 471 DF, p-value: < 2.2e-16
21.7.1 Gráficas básicas de diagnóstico
Con la función plot
se pueden generar gráficos de interés para la diagnosis del modelo:
<- par( mfrow=c(2,2))
oldpar plot(modelo)
par(oldpar)
Por defecto se muestran cuatro gráficos (ver help(plot.lm)
para más detalles). El primero (residuos frente a predicciones) permite detectar falta de
linealidad o heterocedasticidad (o el efecto de un factor omitido: mala
especificación del modelo), lo ideal sería no observar ningún patrón.
El segundo gráfico (gráfico QQ), permite diagnosticar la normalidad, los puntos del deberían estar cerca de la diagonal.
El tercer gráfico de dispersión-nivel permite detectar heterocedasticidad y ayudar a seleccionar una transformación para corregirla (más adelante, en la sección Alternativas, se tratará este tema), la pendiente de los datos debería ser nula.
El último gráfico permite detectar valores atípicos o influyentes. Representa los residuos estandarizados en función del valor de influencia (a priori) o leverage (\(hii\) que depende de los valores de las variables explicativas, debería ser \(< 2(p+1)/2\)) y señala las observaciones atípicas (residuos fuera de [-2,2]) e influyentes a posteriori (estadístico de Cook >0.5 y >1).
Si las conclusiones obtenidas dependen en gran medida de una observación (normalmente atípica), esta se denomina influyente (a posteriori) y debe ser examinada con cuidado por el experimentador. Para recalcular el modelo sin una de las observaciones puede ser útil la función update:
# which.max(cooks.distance(modelo))
<- update(modelo, data = empleados[-29, ]) modelo2
Si hay datos atípicos o influyentes, puede ser recomendable emplear regresión lineal robusta, por ejemplo mediante la función rlm
del paquete MASS
.
En el ejemplo anterior, se observa claramente heterogeneidad de varianzas y falta de normalidad. Aparentemente no hay observaciones influyentes (a posteriori) aunque si algún dato atípico.
21.7.2 Gráficos parciales de residuos
En regresión lineal múltiple, en lugar de generar gráficos de dispersión simple (p.e. gráficos de dispersión matriciales) para detectar problemas (falta de linealidad, …) y analizar los efectos de las variables explicativas, se pueden generar gráficos parciales de residuos, por ejemplo con el comando:
termplot(modelo, partial.resid = TRUE)
Aunque puede ser preferible emplear las funciones crPlots
ó avPlots
del paquete car
:
library(car)
crPlots(modelo)
# avPlots(modelo)
Estas funciones permitirían además detectar puntos atípicos o influyentes
(mediante los argumentos id.method
e id.n
).
21.7.3 Estadísticos
Para obtener medidas de diagnosis o resúmenes numéricos de interés se pueden emplear las siguientes funciones:
Función | Descripción |
---|---|
rstandard | residuos estandarizados |
rstudent | residuos estudentizados (eliminados) |
cooks.distance | valores del estadístico de Cook |
influence | valores de influencia, cambios en coeficientes y varianza residual al eliminar cada dato. |
Ejecutar help(influence.measures)
para ver un listado de medidas de diagnóstico adicionales.
Hay muchas herramientas adicionales disponibles en otros paquetes.
Por ejemplo, para la detección de multicolinealidad, se puede emplear la función
vif
del paquete car
para calcular los factores de inflación de varianza para
las variables del modelo:
# library(car)
vif(modelo)
## salini expprev
## 1.002041 1.002041
Valores grandes, por ejemplo > 10, indican la posible presencia de multicolinealidad.
Nota: Las tolerancias (proporciones de variabilidad no explicada por las demás covariables) se pueden calcular con 1/vif(modelo)
.
21.7.4 Contrastes
21.7.4.1 Normalidad
Para realizar el contraste de normalidad de Shapiro-Wilk se puede emplear:
shapiro.test(residuals(modelo))
##
## Shapiro-Wilk normality test
##
## data: residuals(modelo)
## W = 0.85533, p-value < 2.2e-16
hist(residuals(modelo))
21.7.4.2 Homocedasticidad
La librería lmtest
proporciona herramientas adicionales para la diagnosis de modelos lineales, por ejemplo el test de Breusch-Pagan para heterocedasticidad:
library(lmtest)
bptest(modelo, studentize = FALSE)
##
## Breusch-Pagan test
##
## data: modelo
## BP = 290.37, df = 2, p-value < 2.2e-16
Si el p-valor es grande aceptaríamos que hay igualdad de varianzas.
21.7.4.3 Autocorrelación
Contraste de Durbin-Watson para detectar si hay correlación serial entre los errores:
dwtest(modelo, alternative= "two.sided")
##
## Durbin-Watson test
##
## data: modelo
## DW = 1.8331, p-value = 0.06702
## alternative hypothesis: true autocorrelation is not 0
Si el p-valor es pequeño rechazaríamos la hipótesis de independencia.