Essays.club - Ensayos gratis, notas de cursos, notas de libros, tareas, monografías y trabajos de investigación
Buscar

Las funciones del Software Estadístico SPSS

Enviado por   •  28 de Octubre de 2020  •  Síntesis  •  1.043 Palabras (5 Páginas)  •  526 Visitas

Página 1 de 5

Las funciones del  Software Estadístico SPSS

No.

NOMBRE

CONDICIONES

FUNCION DEL SPSS

Cómo formar una matriz de datos

Se tiene que haber aplicado un instrumento de recolección de información a uno o más grupos de personas, separando a los de padecimientos y los que no lo poseen (grupo de control); así mismo a los que se les aplica algún tratamiento con respecto a los que no.

Explica cómo alimentar datos y los tres tipos de pantalla del software (vista de datos, vista de variables y resultados)

Cómo describir una variable categórica

Se tiene que saber diferenciar los diversos tipos de variables, según su naturaleza y las escalas para su medición.

Explica cómo alimentar los datos de una variable categórica que se ha descrito como tal y también como numérica.

Cómo describir una variable numérica

Se tiene que saber diferenciar los diversos tipos de variables, según su naturaleza y las escalas para su medición.

Explica cómo alimentar los datos de una variable categórica que se ha descrito como tal y también como numérica

Cómo construir una tabla de contingencias

Refleja la relación entre dos o más variables, categóricas, ya sean dicotómicas o politómicas.

Comprueba hipótesis de carácter relacional. Sirve para delimitar grupo estudiado (con padecimiento) diferenciado del grupo de control (sano)

Cómo calcular y recodificar variables

Se tiene que conocer la fórmula para el cálculo de los valores de una variable, a partir de otra (u otras) ya conocida cuyo conjunto de valores ya se han alimentado.

Explica cómo calcular una nueva variable a partir de otras o bien, a darle otro nombre u otra escala de medición.

Cálculo del Chi Cuadrado

Se tienen que haber alimentado los valores de las dos variables cuyo grado de asociación se desea evaluar. Tienen que ser variables categóricas, ya sean dicotómicas o politómicas. La H1 dice que sí hay asociación y la H0 la niega.

No tiene que ser una tabla de n x n pueden ser tres valores de una variable con respecto a dos de otra,

Refleja el grado de asociación  entre dos variables. Comprueba hipótesis de asociación.

El resultado lo muestra el software como tabla de contingencias.

Test de McNemar

Se tienen que realizar mínimamente dos medidas de una variable categórica y dicotómica. Estudios longitudinales.

Sirve para estudios experimentales y para los observacionales.

Detección de cambios en una variable categórica a través del tiempo. Comprueba hipótesis referentes a un antes y un después.


No.

NOMBRE

CONDICIONES

FUNCION DEL SPSS

Índice Kappa de Cohen

Se tienen que realizar mínimamente dos medidas de una variable simultáneamente (dos evaluadores distintos o dos métodos diferentes). Variable dicotómica.

La H1 dice que ambas mediciones son concordantes. El resultado se da en tablas de contingencia donde las concordancias están en dos casillas arriba izquierda y abajo derecha. Las diferencias están en las casillas de arriba derecha y abajo izquierda.

Sirve para la medición del grado de acuerdo entre dos evaluadores de un mismo caso. O dos instrumentos usados por un mismo evaluador.

Comprueba hipótesis de asociación.

Hay una escala de los valores de Kappa de C.

De 0.0 a 0.2  Ínfima Con.

De 0.2 a 0.4 Escasa Conc.

De 0.4 a 0.6 Moderada Conc.

De 0.6 a 0.8 Buena Conc.

De 0.8 a 1.0 Muy buena Conc.

Corrección de Yates

Cuando se aplica Chi cuadrado pero resultan frecuencias esperadas muy bajas.

Puede cambiar la decisión de rechazo de una hipótesis.

Corrige Chi cuadrado cuando da la leyenda de frecuencias muy bajas aunque sea solo en una casilla.

Test exacto de Fisher

Para dos variables cuyos valores finales no se pueden modificar. El número de casos deben ser pocos. (Menos de 50). Se hace la corrida de Chi cuadrado.

Comprueba hipótesis probabilística entre dos variables categóricas. Se hace la corrida del Chi Cuadrado.

T de Student para muestras independientes.

Cuando se quieren comparar dos grupos y la variable es numérica.

Comprueba hipótesis referente a que sí existen diferencias entre grupos independientes

T de Student para muestras relacionadas

Se tienen que realizar mínimamente dos medidas de una misma variable numérica que puede ser  dicotómica o politómica. Estudios longitudinales.

Detección de cambios en una variable numérica a través del tiempo. Comprueba hipótesis referentes a un aumento en los valores del después con respecto al antes.

ANOVA (Análisis de la varianza con un factor o de una vía)

Cuando se quieren comparar más de dos grupos y la variable es numérica.

Si se comprueba que si hay diferencias y se quiere calcular entre un grupo y otro, se solicita al software prueba post hoc (prueba de Tukey) y dará comparaciones entre ambos.

Para comprobar hipótesis en las que el investigador afirma que sí hay diferencias de un grupo a otro.

Correlación de Pearson

Analiza relación de correlación ya sea entre dos variables numéricas (correlación bivariada), o más, aleatorias.

Se elije correlación de Pearson. Si fuera ordinal se elije Kendall o la de Sperman para no paramétricas.

Prueba hipótesis de correlación

Y mide qué tan alta es dicha correlación.

Comprueba hipótesis alternativas que afirman que sí hay correlación entre dos variables numéricas. Si el P valor es menor que 0.05 se rechaza la H0, pero si es menor que 0.01 se dice que las correlación es altamente significativa.

Pero el índice R de Pearson dice qué tipo de correlación es.  


No.

NOMBRE

CONDICIONES

FUNCION DEL SPSS

Regresión lineal simple

Se busca la fórmula de relación entre dos variables numéricas. Antes se debe demostrar que hay una relación no aleatoria, causal entre las dos variables o más variables, de las cuales varias pueden ser independientes (causas) y solo una dependiente (efecto).

Para la constante dada y para el coeficiente debe haber un Pvalor <0.05

Da como resultado una ecuación que representa la forma en que se relacionan dos o más variables numéricas. Es decir se aplica cuando se busca un modelo predictivo.

Si el valor de significancia de la ANOVA es <0.05 se dice que sí es posible construir un modelo lineal cuya fórmula general es Y=  aX + b

a es el coeficiente y b una constante.

Prueba de normalidad (  de Kolmogorov Smirnof)

Para comparar en dos grupos una variable numérica dicotómica o politómica y primeramente se demuestra que hay una distribución normal, tomando en cuenta que Si P valor <0.05 se acepta H1 que afirma que hay diferencias entre la distribución normal y la distribución de la variable analizada.

Para determinar si dos grupos son iguales o diferentes, con una distribución normal.

Fuente: elaboración propia, a partir del material tutorial en videos, editado por Supo, José (2012). Lima, Perú

...

Descargar como  txt (6.9 Kb)   pdf (82.9 Kb)   docx (320.6 Kb)  
Leer 4 páginas más »
Disponible sólo en Essays.club