Essays.club - Ensayos gratis, notas de cursos, notas de libros, tareas, monografías y trabajos de investigación
Buscar

Conocer el peso o influencia que ejerce cada variable independiente o predictora a la hora de explicar la variabilidad de la variable dependiente o criterio.

Enviado por   •  16 de Mayo de 2018  •  9.323 Palabras (38 Páginas)  •  459 Visitas

Página 1 de 38

...

De este modo, este coeficiente mide la correlación “pura” entre Xi e Y, es decir, expresa la correlación entre la parte de Y no asociada linealmente con el resto predictoras y la porción de Xi, no asociada linealmente con el resto de predictoras.

Dicho coeficiente, sirve además para determinar cuál es la primera variable que se incorporará al modelo cuando se realiza variable a variable.

Si elevamos dicho coeficiente al cuadrado pri2 obtenemos la proporción de varianza de Y no asociadas al resto de X que sí está asociada con Xi

Coeficiente de correlación semiparcial (Análisis de regresión múltiple)

Presentado como sri este coeficiente, utilizado en el análisis de regresión múltiple, mide la correlación existente entre cada variable independiente y la variable dependiente, habiendo eliminado el influjo del resto de variables independientes sobre la variable independiente.

Si elevamos dicho coeficiente al cuadrado sri2 obtenemos la proporción de varianza de Y asociada únicamente a la varianza de Xi lo que expresa el incremento en R2 cuando la variable Xi entra en el modelo.

Coeficiente de determinación (Análsis de regresión)

Representado como R2, en el caso del análisis de regresión simple (también R2xy), su valor es el cuadrado del coeficiente de correlación de Pearson: rxy o r, mientras que en el análisis de regresión múltiple (también R2y.12) equivale al cuadrado del coeficiente de correlación múltiple R.

Su valor oscila entre 0 y 1 esta medida nos indica la bondad de ajuste del modelo al cuantificar la proporción de variabilidad de la variable dependiente que es explicada por la variabilidad de la/s variable/s independiente/s.

De este modo en la medida que su valor se aproxime a 1 será mayor el porcentaje de varianza explicada por el modelo, disminuyendo dicha proporción en la medida que dicho valor se aproxima a 0.

Por otra parte, R2 también representa la proporción en que se reduce el error de la variable dependiente cuando empleamos la recta de regresión para estimarla.

Coeficientes de la Regresión lineal múltiple

Dado un modelo de regresión lineal formado por dos variables independientes:

Y=B0+B1X1+ B2X2+e

Tenemos los siguientes coeficientes:

- B0 denominado constante, origen o intercepto, será el valor estimado de la variable dependiente (Y´ ) cuando las dos variables dependiente X1 y X2 valgan 0.

- B1 será el coeficientes de regresión parcial de de X1 y cuantifica el incremento que se produce en la variable dependiente estimada (Y´) cuando se produce el incremento en una unidad en X1 -permaneciendo la otra variable independiente contante (X2)-.

- B2 será el coeficientes de regresión parcial de de X2 y cuantifica el incremento que se produce en la variable dependiente estimada (Y´) cuando se produce el incremento en una unidad en X2 -permaneciendo la otra variable independiente contante (X1)-.

- Por último, dentro del modelo e representa el error de predicción o residuo, que equivale a la distancia entre el valor observado de Y y su valor estimado (Y´) para cada valor dado de X

Coeficientes de la Regresión lineal simple

Dada la recta de regresión (o recta de estimación, predicción o ajuste) para la regresión lineal simple:

Y=B0+BX+e

Tenemos los siguientes coeficientes:

- B0 denominado constante, origen o intercepto, señala el punto en el que la recta de regresión corta el eje de ordenadas, es decir, es el valor estimado de Y (Y´) cuando X es igual a 0. Dicho coeficiente no suele ser objeto de interpretación

- B, también denominado como pendiente de la recta, es el coeficiente protagonista de la recta de regresión, y cuantifica el incremento que se produce en la variable dependiente estimada (Y´) cuando la variable independiente (X) se incrementa en una unidad.

Por último, dentro de la recta, e representa el error de predicción o residuo, que equivale a la distancia entre el valor observado de Y y su valor estimado (Y´) para cada valor dado de X

Comparaciones múltiples

En el contexto de Diseños con más de dos grupos las comparaciones múltiples proporcionan información más específica que el ANOVA.

En el ANOVA la Hipótesis alternativa se plantea como que, al menos, entre dos medias, hay diferencias que no son debidas al azar. Sin embargo, si se confirma dicha hipótesis, el contraste no proporciona mayor información sobre entre qué pares específicos se producen las diferencias significativas.

Dicha información sí es proporcionada, en cambio, por los análisis de comparaciones múltiples, que permiten identificar entre qué pares de medias existen diferencias significativas no debidas al azar. De este modo, este tipo de análisis proporcionan una información más exacta sobre la importancia de cada uno de los niveles de la variable independiente.

Dos son los tipos fundamentales de análisis de comparaciones múltiples existentes:

- Comparaciones no planificadas, a posteriori o post hoc. Son los más utilizados, aplicándose una vez realizado el ANOVA y rechazada la Hipótesis nula, por lo que, a continuación, se desea conocer entre qué pares de medias existen diferencias no debidas al azar. Mediante dicho análisis se comparan sistemáticamente todos los posibles pares de medias formados a partir de los lo n niveles del factor. Entre los contrastes más utilizados dentro de esta familia hemos de destacar: la prueba de comparaciones múltiples de Tukey, así como la prueba de comparaciones múltiples de Scheffé.

- Comparaciones planificadas o a priori. En este caso el investigador no está interesado en realizar el ANOVA ni en comparar sistemáticamente todos los posibles pares de medias formados a partir de los lo n niveles del factor, tan sólo está interesado en algunas comparaciones específicas entre ciertos pares, que son las que realimente le interesan.

Condición experimental

En el Análisis de Varianza (ANOVA) cada condición experimental equivale a cada uno de los niveles o categorías

...

Descargar como  txt (60.8 Kb)   pdf (118.8 Kb)   docx (44.7 Kb)  
Leer 37 páginas más »
Disponible sólo en Essays.club