Las funciones del Software Estadístico SPSS
Enviado por eruinjzc • 28 de Octubre de 2020 • Síntesis • 1.043 Palabras (5 Páginas) • 533 Visitas
Las funciones del Software Estadístico SPSS
No. | NOMBRE | CONDICIONES | FUNCION DEL SPSS |
Cómo formar una matriz de datos | Se tiene que haber aplicado un instrumento de recolección de información a uno o más grupos de personas, separando a los de padecimientos y los que no lo poseen (grupo de control); así mismo a los que se les aplica algún tratamiento con respecto a los que no. | Explica cómo alimentar datos y los tres tipos de pantalla del software (vista de datos, vista de variables y resultados) | |
Cómo describir una variable categórica | Se tiene que saber diferenciar los diversos tipos de variables, según su naturaleza y las escalas para su medición. | Explica cómo alimentar los datos de una variable categórica que se ha descrito como tal y también como numérica. | |
Cómo describir una variable numérica | Se tiene que saber diferenciar los diversos tipos de variables, según su naturaleza y las escalas para su medición. | Explica cómo alimentar los datos de una variable categórica que se ha descrito como tal y también como numérica | |
Cómo construir una tabla de contingencias | Refleja la relación entre dos o más variables, categóricas, ya sean dicotómicas o politómicas. | Comprueba hipótesis de carácter relacional. Sirve para delimitar grupo estudiado (con padecimiento) diferenciado del grupo de control (sano) | |
Cómo calcular y recodificar variables | Se tiene que conocer la fórmula para el cálculo de los valores de una variable, a partir de otra (u otras) ya conocida cuyo conjunto de valores ya se han alimentado. | Explica cómo calcular una nueva variable a partir de otras o bien, a darle otro nombre u otra escala de medición. | |
Cálculo del Chi Cuadrado | Se tienen que haber alimentado los valores de las dos variables cuyo grado de asociación se desea evaluar. Tienen que ser variables categóricas, ya sean dicotómicas o politómicas. La H1 dice que sí hay asociación y la H0 la niega. No tiene que ser una tabla de n x n pueden ser tres valores de una variable con respecto a dos de otra, | Refleja el grado de asociación entre dos variables. Comprueba hipótesis de asociación. El resultado lo muestra el software como tabla de contingencias. | |
Test de McNemar | Se tienen que realizar mínimamente dos medidas de una variable categórica y dicotómica. Estudios longitudinales. Sirve para estudios experimentales y para los observacionales. | Detección de cambios en una variable categórica a través del tiempo. Comprueba hipótesis referentes a un antes y un después. |
No. | NOMBRE | CONDICIONES | FUNCION DEL SPSS |
Índice Kappa de Cohen | Se tienen que realizar mínimamente dos medidas de una variable simultáneamente (dos evaluadores distintos o dos métodos diferentes). Variable dicotómica. La H1 dice que ambas mediciones son concordantes. El resultado se da en tablas de contingencia donde las concordancias están en dos casillas arriba izquierda y abajo derecha. Las diferencias están en las casillas de arriba derecha y abajo izquierda. | Sirve para la medición del grado de acuerdo entre dos evaluadores de un mismo caso. O dos instrumentos usados por un mismo evaluador. Comprueba hipótesis de asociación. Hay una escala de los valores de Kappa de C. De 0.0 a 0.2 Ínfima Con. De 0.2 a 0.4 Escasa Conc. De 0.4 a 0.6 Moderada Conc. De 0.6 a 0.8 Buena Conc. De 0.8 a 1.0 Muy buena Conc. | |
Corrección de Yates | Cuando se aplica Chi cuadrado pero resultan frecuencias esperadas muy bajas. Puede cambiar la decisión de rechazo de una hipótesis. | Corrige Chi cuadrado cuando da la leyenda de frecuencias muy bajas aunque sea solo en una casilla. | |
Test exacto de Fisher | Para dos variables cuyos valores finales no se pueden modificar. El número de casos deben ser pocos. (Menos de 50). Se hace la corrida de Chi cuadrado. | Comprueba hipótesis probabilística entre dos variables categóricas. Se hace la corrida del Chi Cuadrado. | |
T de Student para muestras independientes. | Cuando se quieren comparar dos grupos y la variable es numérica. | Comprueba hipótesis referente a que sí existen diferencias entre grupos independientes | |
T de Student para muestras relacionadas | Se tienen que realizar mínimamente dos medidas de una misma variable numérica que puede ser dicotómica o politómica. Estudios longitudinales. | Detección de cambios en una variable numérica a través del tiempo. Comprueba hipótesis referentes a un aumento en los valores del después con respecto al antes. | |
ANOVA (Análisis de la varianza con un factor o de una vía) | Cuando se quieren comparar más de dos grupos y la variable es numérica. Si se comprueba que si hay diferencias y se quiere calcular entre un grupo y otro, se solicita al software prueba post hoc (prueba de Tukey) y dará comparaciones entre ambos. | Para comprobar hipótesis en las que el investigador afirma que sí hay diferencias de un grupo a otro. | |
Correlación de Pearson | Analiza relación de correlación ya sea entre dos variables numéricas (correlación bivariada), o más, aleatorias. Se elije correlación de Pearson. Si fuera ordinal se elije Kendall o la de Sperman para no paramétricas. Prueba hipótesis de correlación Y mide qué tan alta es dicha correlación. | Comprueba hipótesis alternativas que afirman que sí hay correlación entre dos variables numéricas. Si el P valor es menor que 0.05 se rechaza la H0, pero si es menor que 0.01 se dice que las correlación es altamente significativa. Pero el índice R de Pearson dice qué tipo de correlación es. |
No. | NOMBRE | CONDICIONES | FUNCION DEL SPSS |
Regresión lineal simple | Se busca la fórmula de relación entre dos variables numéricas. Antes se debe demostrar que hay una relación no aleatoria, causal entre las dos variables o más variables, de las cuales varias pueden ser independientes (causas) y solo una dependiente (efecto). Para la constante dada y para el coeficiente debe haber un Pvalor <0.05 | Da como resultado una ecuación que representa la forma en que se relacionan dos o más variables numéricas. Es decir se aplica cuando se busca un modelo predictivo. Si el valor de significancia de la ANOVA es <0.05 se dice que sí es posible construir un modelo lineal cuya fórmula general es Y= aX + b a es el coeficiente y b una constante. | |
Prueba de normalidad ( de Kolmogorov Smirnof) | Para comparar en dos grupos una variable numérica dicotómica o politómica y primeramente se demuestra que hay una distribución normal, tomando en cuenta que Si P valor <0.05 se acepta H1 que afirma que hay diferencias entre la distribución normal y la distribución de la variable analizada. | Para determinar si dos grupos son iguales o diferentes, con una distribución normal. |
Fuente: elaboración propia, a partir del material tutorial en videos, editado por Supo, José (2012). Lima, Perú
...