Essays.club - Ensayos gratis, notas de cursos, notas de libros, tareas, monografías y trabajos de investigación
Buscar

Detección de los multicolinealidad

Enviado por   •  6 de Noviembre de 2018  •  1.207 Palabras (5 Páginas)  •  292 Visitas

Página 1 de 5

...

Si F calculada excede a la crítica en el nivel de significancia seleccionado, se dice que la particular es colineal con las demás X, si no excede a la crítica, se dice que ésta no es colineal con las demás X, en cuyo caso se puede mantener la variable en el modelo. Si es estadísticamente significativa, aún hay que decidir si la debe eliminarse del modelo. [pic 22][pic 23][pic 24][pic 25][pic 26]

Sin embargo este modele tiene desventajas, pues, si existen diversas asociaciones lineales complejas, este ejercicio de ajuste de curva puede no tener gran valor porque será difícil identificar las interrelaciones por separado.

En lugar de probar todos los valores auxiliares, se puede adoptar la regla práctica de Klein y lo que propone es que la multicolinealidad puede ser un problema complicado solamente si la obtenida de una regresión auxiliar es mayor que la global. Por cierto, al igual que todas las demás reglas prácticas, ésta debe utilizarse con buen criterio.[pic 27][pic 28][pic 29]

- Valores propios e índice de condición. Mediante EViews y Stata se puede calcular los valores propios y el índice para diagnosticar la multicolinealidad.

Podemos observar que a partir de estos valores propios puede derivarse lo que se conoce como número de condición k, definido como:

K= [pic 30]

Y también el índice de condición (IQ), definido como:

IC= = [pic 31][pic 32]

Entonces la regla practica es: Si K esta entre 100 y 1000, existe multicolinealidad que va de moderada a fuerte, mientras que si excede de 1000, existe multicolinealidad grave. De otro modo, si IC (=) entre 10 y 30, hay multicolinealidad entre moderada y fuerte, y si excede de 30, una multicolinealidad grave.Para el ejemplo ilustrativo del apéndice 7A.5, el valor propio más pequeño es 3.786 y el valor propio más grande es 187.5269, por lo que k =187.5269/3.786, o alrededor de 49.53. Por tanto, IC = = 7.0377. Tanto k como IC indican que no existe un problema grave de colinealidad. Por cierto, observe que un valor propio bajo (en relación con el valor propio máximo) es, por lo general, indicativo de dependencias casi lineales en los datos.

Algunos autores consideran que el índice de condición es el mejor diagnóstico de multicolinealidad que existe. Sin embargo, esta opinión no es muy aceptada. Así́, el IC es sólo una regla práctica, que talvez puede un poco más compleja. [pic 33][pic 34]

- Tolerancia y factor de inflación de la varianza. Conforme el coeficiente de regresión en la regresión de la regresora sobre las regresiones restantes del modelo, es decir, conforme su aumenta la colinealidad de con las demás regresoras, FIV también aumenta, y el limite puede ser infinito.[pic 35][pic 36][pic 37]

Por lo tanto algunos autores utilizan FIV como indicador de multicolinealidad, entre mayor es el valor de , mayor es el problema. Pero ¿Cuánto debe ascender FIV antes de que una regresora se convierta en un problema? Como regla prctica si el FIV de una variable es superior a 10 esto sucede si excede de 0.90), se dice que esa variable es muy colineal.[pic 38][pic 39]

Desde luego, puede utilizarse como medida de la multicolinealidad, en vista de su estrecha conexión con. Mientras más cerca esté de cero, mayor será́ el grado de colinealidad de esa variable respecto de las demás regresoras. Por otra parte, mientras más cerca esté de 1, mayor será́ la evidencia de que no es colineal con las demás regresoras.[pic 40][pic 41][pic 42][pic 43][pic 44]

...

Descargar como  txt (7.3 Kb)   pdf (50.3 Kb)   docx (13.5 Kb)  
Leer 4 páginas más »
Disponible sólo en Essays.club