Regresion multiple. Aplicación de la regresión múltiple
Enviado por mondoro • 4 de Septiembre de 2018 • 4.651 Palabras (19 Páginas) • 355 Visitas
...
El encontrar una asociación significativa no indica que una variable sea la causa y que la otra el efecto. La correlación nunca mide una relación causa-efecto. Además, no distingue entre variable dependiente e independiente y por tanto la correlación de la variable "x" frente a la variable "y" es la misma que la de la variable "y" frente a "x" 1. Esto no sucede así en la regresión.
Siempre se debe tener mucha precaución con la interpretación de un coeficiente de correlación puesto que otras variables, llamadas de confusión, pueden ser las verdaderas causantes de la asociación. Esto se produce cuando dos variables independientes entre sí dependen ambas de una tercera. Por ejemplo está demostrado que en los niños, existe una correlación positiva entre el tamaño del pie y su capacidad para sumar. Sin embargo lo que en realidad sucede es que los niños con mayor pie, son también los de mayor edad y por tanto los que mejor suman. Este tipo de correlaciones se denominan espúreas o engañosas y nos pueden llevar a conclusiones erróneas.
También hay que advertir a aquellos investigadores que tengan la tentación de correlacionar un número grande de variables cuantitativas con el único objetivo de "a ver si encuentro algo". Aparte de tener una difícil justificación este modo de actuar, si cruzáramos solo 20 variables todas ellas independientes, tendríamos hasta 190 pares de variables en los que estudiar la correlación, y sólo por azar, es de esperar aproximadamente unas 9 ó 10 como significativas. Es decir, el 5% de las correlaciones realizadas serian significativas con una p
La correlación no debe ser utilizada para la realización de la evaluación de la concordancia entre dos medidas cuantitativas, lo recomendable es seleccionar otros índices como el coeficiente de correlación intraclase o analizar otra serie de técnicas.
- CLASES DE REGRESION:
Las clases de regresión se pueden clasificar mediante diversos criterios, principalmente en función de:
- El número de variables independientes:
- Regresión simple: Cuando la variable Y depende únicamente de una única variable X.
- Regresión múltiple: Cuando la variable Y depende de varias variables (X1, X2, ..., Xr).
- El tipo de función f(X):
- Regresión lineal: Cuando f(X) es una función lineal.
- Regresión no lineal: Cuando f(X) no es una función lineal.
- La naturaleza de la relación que exista entre las dos variables:
- La variable X puede ser la causa del valor de la variable Y.
Cuadro1-Tipos de regresión
CAPITULO 2
2.1-REGRESIÓN SIMPLE:
EL análisis de la regresión simple, por lo general, siempre permite obtener una función lineal de una o más variables independientes o predictorias (X1, X2,... XK), de tal manera que a partir esta se puede explicar o predecir el valor de una variable dependiente o criterio (Y). En la parte del análisis de la regresión simple, logramos diferenciar entre el análisis de regresión lineal simple y análisis de regresión lineal múltiple. En el primero, regresión lineal simple, se quiere lograr explicar o predecir la variable dependiente (Y), a partir de una única variable independiente, (X1); mientras que en el segundo, regresión lineal múltiple, se requiere contar con un conjunto de variables independientes(X1, X2,... XK), para estimar la variable dependiente (Y). En ambos casos, tanto como para la regresión lineal simple y regresión lineal múltiple, la variable dependiente como las independientesestá medidas en una escala de intervalo o de razón (RUA, 2008).
2.1.1. Objetivo principales:
La regresión lineal simple as utilizada mayormente para:
- Predecir un dato desconocido de una variable partiendo de los datos conocidos de otra variable.
- Ajustar la distribución de frecuencias de una línea, es decir, determinar la forma de la línea de regresión.
- Determinar la relación de dependencia que tiene una variable respecto a otra.
2.1.2.Coeficiente de Regresión y sus respectivas clases:
El coeficiente de regresión nos permite Indicar el número de unidades en que se modifica la variable dependiente (Y) que se da por el efecto del cambio de la variable independiente (X) o viceversa en una determinada unidad de medida.
Las clases de coeficiente de Regresiónson:
- El coeficiente de regresión puede ser de carácter: Positivo, Negativo o Nulo.
- Es positivo cuando las variaciones de la variable independiente (X)son directamente proporcionales a las variaciones de la variable dependiente (Y)
- Es negativo, cuando las variaciones de la variable independiente "X" son inversamente proporcionales a las variaciones de las variables dependientes "Y"
- Es nulo o cero, cuando entre las variables dependientes "Y" e independientes "X" no existen relación alguna.
2.1.3. Procedimiento para hallar el Coeficiente de Regresión:
Para poder determinar correctamente el valor del coeficiente de regresión de una manera más sencilla y de manera precisa se debe utilizar el método de los Mínimos Cuadrados ,el cual cosiste en que es una técnica de análisis numérico la cual esta denotada por la optimización matemática, dadas por conjunto de pares ordenados: variable independiente, variable dependiente, y una serie de funciones, las cuales se intentan encontrar la función continua dentro de una determinada serie, en si el análisis del método de mínimos cuadrados intenta minimizar la suma de cuadrados de las diferencias en las ordenadas(conocidas como residuos) entre los puntos que se han generado por la función seleccionada y sus valores correspondientes en los datos.
Esencialmente, se llama mínimos cuadrados promedio (LMS) cuando el número de datos medidos es 1 y se utiliza el método de descenso por gradiente
...