El análisis estadístico significa investigar tendencias, patrones y relaciones utilizando datos cuantitativos. Es una importante herramienta de investigación utilizada por científicos, gobiernos, empresas y otras organizaciones.

Para sacar conclusiones válidas, el análisis estadístico requiere una planificación cuidadosa desde el inicio del proceso de investigación. Debe especificar sus hipótesis y tomar decisiones sobre el diseño de su investigación, el tamaño de la muestra y el procedimiento de muestreo.

Después de recopilar datos de su muestra, puede organizar y resumir los datos utilizando estadísticas descriptivas. Luego, puede usar estadísticas inferenciales para probar formalmente hipótesis y hacer estimaciones sobre la población. Finalmente, puede interpretar y generalizar sus hallazgos.

Este artículo es una introducción práctica al análisis estadístico para estudiantes e investigadores. Le guiaremos a través de los pasos utilizando dos ejemplos de investigación. El primero investiga una posible relación de causa y efecto, mientras que el segundo investiga una posible correlación entre variables.

Ejemplo: Pregunta de investigación causal
¿Puede la meditación mejorar el rendimiento de los exámenes en adolescentes?
Ejemplo: Pregunta de investigación correlacional
¿Existe una relación entre los ingresos de los padres y el promedio de calificaciones universitarias (GPA)?

Paso 1: Escriba sus hipótesis y planifique su diseño de investigación

Para recopilar datos válidos para el análisis estadístico, primero debe especificar sus hipótesis y planificar su diseño de investigación.

Escribir hipótesis estadísticas

El objetivo de la investigación es a menudo investigar una relación entre variables dentro de una población. Se empieza con una predicción y se utiliza el análisis estadístico para probar esa predicción.

Una hipótesis estadística es una forma formal de escribir una predicción sobre una población. Cada predicción de investigación se reformula en hipótesis nulas y alternativas que se pueden probar utilizando datos de muestra.

Mientras que la hipótesis nula siempre predice ningún efecto o ninguna relación entre variables, la hipótesis alternativa establece la predicción de su investigación de un efecto o relación.

Ejemplo: Hipótesis estadísticas para probar un efecto
  • Hipótesis nula: Un ejercicio de meditación de 5 minutos no tendrá efecto en los resultados de las pruebas de matemáticas en adolescentes.
  • Hipótesis alternativa: Un ejercicio de meditación de 5 minutos mejorará los resultados de los exámenes de matemáticas en adolescentes.

Ejemplo: Hipótesis estadísticas para probar una correlación
  • Hipótesis nula: Los ingresos de los padres y el GPA no tienen relación entre sí en estudiantes universitarios.
  • Hipótesis alternativa: Los ingresos de los padres y el GPA están correlacionados positivamente en los estudiantes universitarios.

Planificación de su diseño de investigación

Un diseño de investigación es su estrategia general para la recopilación y el análisis de datos. Determina las pruebas estadísticas que puede usar para probar su hipótesis más adelante.

En primer lugar, decida si su investigación utilizará un diseño descriptivo, correlacional o experimental. Los experimentos influyen directamente en las variables, mientras que los estudios descriptivos y correlacionales solo miden variables.

  • En un diseño experimental, puede evaluar una relación de causa y efecto (por ejemplo, el efecto de la meditación en los resultados de las pruebas) utilizando pruebas estadísticas de comparación o regresión.
  • En un diseño correlacional, puede explorar las relaciones entre variables (p. ej., ingresos parentales y GPA) sin ninguna suposición de causalidad utilizando coeficientes de correlación y pruebas de significación.
  • En un diseño descriptivo, puede estudiar las características de una población o fenómeno (por ejemplo, la prevalencia de ansiedad en estudiantes universitarios estadounidenses) utilizando pruebas estadísticas para extraer inferencias de datos de muestra.

El diseño de tu investigación también se refiere a si compararás a los participantes a nivel de grupo o individual, o a ambos.

  • En un diseño entre sujetos, se comparan los resultados a nivel de grupo de los participantes que han estado expuestos a diferentes tratamientos (por ejemplo, los que realizaron un ejercicio de meditación frente a los que no lo hicieron).
  • En un diseño dentro de los sujetos, se comparan medidas repetidas de participantes que han participado en todos los tratamientos de un estudio (por ejemplo, puntuaciones de antes y después de realizar un ejercicio de meditación).
  • Experimental
  • Correlacional
Ejemplo: Diseño de investigación experimental
Diseñas un experimento dentro de los sujetos para estudiar si un ejercicio de meditación de 5 minutos puede mejorar los resultados de los exámenes de matemáticas. Su estudio toma medidas repetidas de un grupo de participantes.

En primer lugar, tomará los resultados de las pruebas de referencia de los participantes. Luego, sus participantes se someterán a un ejercicio de meditación de 5 minutos. Finalmente, registrarás las puntuaciones de los participantes de una segunda prueba de matemáticas.

En este experimento, la variable independiente es el ejercicio de meditación de 5 minutos, y la variable dependiente es el cambio en los puntajes de los exámenes de matemáticas antes y después de la intervención.

Ejemplo: Diseño de investigación correlacional
En un estudio correlacional, se evalúa si existe una relación entre los ingresos de los padres y el promedio de calificaciones de los estudiantes universitarios que se gradúan. Para recopilar sus datos, pedirá a los participantes que completen una encuesta y que informen por sí mismos los ingresos de sus padres y su propio promedio de calificaciones.

No hay variables dependientes o independientes en este estudio, porque solo se quieren medir variables sin influenciarlas de ninguna manera.

Variables de medición

Al planificar un diseño de investigación, debe operacionalizar sus variables y decidir exactamente cómo las medirá.

Para el análisis estadístico, es importante considerar el nivel de medición de sus variables, que le indica qué tipo de datos contienen:

  • Los datos categóricos representan agrupaciones. Estos pueden ser nominales (p. ej. género) u ordinal (por ejemplo, nivel de habilidad lingüística).
  • Los datos cuantitativos representan cantidades. Estos pueden ser en una escala de intervalos (por ejemplo, puntuación de la prueba) o una escala de proporciones (por ejemplo, edad).

Muchas variables se pueden medir con diferentes niveles de precisión. Por ejemplo, los datos de edad pueden ser cuantitativos (8 años) o categóricos (jóvenes). Si una variable está codificada numéricamente (por ejemplo, nivel de acuerdo de 1 a 5), no significa automáticamente que sea cuantitativa en lugar de categórica.

Identificar el nivel de medición es importante para elegir las estadísticas y pruebas de hipótesis adecuadas. Por ejemplo, puede calcular una puntuación media con datos cuantitativos, pero no con datos categóricos.

En un estudio de investigación, junto con las medidas de sus variables de interés, a menudo recopilará datos sobre las características relevantes de los participantes.

  • Experimental
  • Correlacional
Ejemplo: Variables (experimento)
Puede realizar muchos cálculos con datos cuantitativos de edad o puntuación de pruebas, mientras que las variables categóricas se pueden usar para decidir agrupaciones para pruebas de comparación.

Variable Tipo de datos
Edad Cuantitativo (proporción)
Género Categórico (nominal)
Raza u origen étnico Categórico (nominal)
Puntuación inicial de las pruebas Cuantitativa (intervalo)
Resultados finales de las pruebas Cuantitativo (intervalo)
Ejemplo: Variables (estudio correlacional)
Los tipos de variables en un estudio correlacional determinan la prueba que usará para un coeficiente de correlación. Se puede utilizar una prueba de correlación paramétrica para los datos cuantitativos, mientras que se debe utilizar una prueba de correlación no paramétrica si una de las variables es ordinal.

Variable Tipo de datos
ingresos de los Padres Cuantitativos (relación)
GPA Cuantitativos (intervalo de)

Paso 2: Recopilar datos de una muestra

 Población vs muestra

Población vs muestra

En la mayoría de los casos, es demasiado difícil o costoso recopilar datos de cada miembro de la población que te interesa estudiar. En su lugar, recopilará datos de una muestra.

El análisis estadístico le permite aplicar sus hallazgos más allá de su propia muestra, siempre y cuando utilice procedimientos de muestreo adecuados. Debe apuntar a una muestra que sea representativa de la población.

Muestreo para análisis estadístico

Hay dos enfoques principales para seleccionar una muestra.

  • Muestreo probabilístico: cada miembro de la población tiene la posibilidad de ser seleccionado para el estudio mediante selección aleatoria.
  • Muestreo no probabilístico: algunos miembros de la población tienen más probabilidades que otros de ser seleccionados para el estudio debido a criterios como la conveniencia o la autoelección voluntaria.

En teoría, para hallazgos altamente generalizables, debe usar un método de muestreo probabilístico. La selección aleatoria reduce el sesgo de muestreo y garantiza que los datos de su muestra sean realmente típicos de la población. Las pruebas paramétricas se pueden utilizar para hacer inferencias estadísticas sólidas cuando los datos se recopilan mediante muestreo probabilístico.

Pero en la práctica, rara vez es posible reunir la muestra ideal. Si bien es más probable que las muestras no probabilísticas estén sesgadas, son mucho más fáciles de reclutar y recopilar datos. Las pruebas no paramétricas son más apropiadas para muestras no probabilísticas, pero resultan en inferencias más débiles sobre la población.

Si desea utilizar pruebas paramétricas para muestras no probabilísticas, debe argumentar que:

  • su muestra es representativa de la población a la que está generalizando sus hallazgos.
  • su muestra carece de sesgo sistemático.

Tenga en cuenta que la validez externa significa que solo puede generalizar sus conclusiones a otras personas que comparten las características de su muestra. Por ejemplo, los resultados de muestras occidentales, Educadas, Industrializadas, Ricas y Democráticas (p. ej. UU.) no son aplicables automáticamente a todas las poblaciones no EXTRAÑAS.

Si aplica pruebas paramétricas a datos de muestras no probabilísticas, asegúrese de detallar las limitaciones de hasta qué punto se pueden generalizar sus resultados en la sección de discusión.

Cree un procedimiento de muestreo adecuado

En función de los recursos disponibles para su investigación, decida cómo reclutará a los participantes.

  • ¿Tendrá recursos para publicitar su estudio ampliamente, incluso fuera de su entorno universitario?
  • ¿Tendrá los medios para reclutar una muestra diversa que represente a una amplia población?
  • ¿Tiene tiempo para ponerse en contacto y hacer un seguimiento con miembros de grupos de difícil acceso?

  • Experimental
  • Correlacional
Ejemplo: Muestreo (experimento)
La población en la que estás interesado son estudiantes de secundaria de tu ciudad. Se comunica con tres escuelas privadas y siete escuelas públicas en varios distritos de la ciudad para ver si puede administrar su experimento a estudiantes en el grado 11.

Sus participantes son seleccionados por sus escuelas. Aunque está utilizando una muestra no probabilística, aspira a una muestra diversa y representativa.

Ejemplo: Muestreo (estudio correlacional)
Su población principal de interés son estudiantes universitarios masculinos en los EE. Usando publicidad en las redes sociales, reclutas estudiantes universitarios masculinos de último año de una subpoblación más pequeña: siete universidades en el área de Boston.

Sus participantes se ofrecen como voluntarios para la encuesta, por lo que esta es una muestra no probabilística.

Calcule un tamaño de muestra suficiente

Antes de reclutar participantes, decida el tamaño de su muestra mirando otros estudios en su campo o utilizando estadísticas. Una muestra demasiado pequeña puede no ser representativa de la muestra, mientras que una muestra demasiado grande será más costosa de lo necesario.

Hay muchas calculadoras de tamaño de muestra en línea. Se utilizan diferentes fórmulas dependiendo de si tiene subgrupos o de qué tan riguroso debe ser su estudio (por ejemplo, en la investigación clínica). Como regla general, se necesita un mínimo de 30 unidades o más por subgrupo.

Para usar estas calculadoras, debe comprender e ingresar estos componentes clave:

  • Nivel de significación (alfa): el riesgo de rechazar una hipótesis nula verdadera que está dispuesto a aceptar, generalmente establecido en el 5%.
  • Poder estadístico: la probabilidad de que su estudio detecte un efecto de cierto tamaño si lo hay, generalmente 80% o más.
  • Tamaño esperado del efecto: una indicación estandarizada de cuán grande será el resultado esperado de su estudio, generalmente basada en otros estudios similares.
  • Desviación estándar de la población: estimación del parámetro de la población basada en un estudio previo o en un estudio piloto propio.

¿Cuál es su resultado de plagio?

Compare su artículo con más de 60 mil millones de páginas web y 30 millones de publicaciones.

  • El mejor comprobador de plagio de 2021
  • Informe de plagio & porcentaje
  • La mayor base de datos de plagio

Comprobador de plagio de Scribbr

Paso 3: Resume tus datos con estadísticas descriptivas

Una vez que hayas recopilado todos tus datos, puedes inspeccionarlos y calcular estadísticas descriptivas que los resuman.

Inspeccione sus datos

Hay varias formas de inspeccionar sus datos, incluidas las siguientes:

  • Organizar los datos de cada variable en tablas de distribución de frecuencias.
  • Mostrar datos de una variable clave en un gráfico de barras para ver la distribución de las respuestas.
  • Visualizar la relación entre dos variables utilizando un gráfico de dispersión.

Al visualizar los datos en tablas y gráficos, puede evaluar si los datos siguen una distribución sesgada o normal y si hay valores atípicos o datos faltantes.

Una distribución normal significa que sus datos están distribuidos simétricamente alrededor de un centro donde se encuentran la mayoría de los valores, con los valores disminuyendo en los extremos de la cola.

 Media, mediana, modo y desviación estándar en una distribución normal

Media, mediana, modo y desviación estándar en una distribución normal

En contraste, una distribución sesgada es asimétrica y tiene más valores en un extremo que en el otro. Es importante tener en cuenta la forma de la distribución porque solo se deben usar algunas estadísticas descriptivas con distribuciones sesgadas.

Los valores atípicos extremos también pueden producir estadísticas engañosas, por lo que es posible que necesite un enfoque sistemático para tratar con estos valores.

Calcular medidas de tendencia central

Las medidas de tendencia central describen dónde se encuentran la mayoría de los valores de un conjunto de datos. A menudo se notifican tres medidas principales de tendencia central:

  • Modo: la respuesta o valor más popular en el conjunto de datos.
  • Mediana: el valor en el centro exacto del conjunto de datos cuando se ordena de bajo a alto.
  • Media: la suma de todos los valores dividida por el número de valores.

Sin embargo, dependiendo de la forma de la distribución y del nivel de medición, solo una o dos de estas medidas pueden ser adecuadas. Por ejemplo, muchas características demográficas solo se pueden describir usando el modo o las proporciones, mientras que una variable como el tiempo de reacción puede no tener modo en absoluto.

Calcular medidas de variabilidad

Las medidas de variabilidad indican la distribución de los valores en un conjunto de datos. A menudo se notifican cuatro medidas principales de variabilidad:

  • Rango: el valor más alto menos el valor más bajo del conjunto de datos.
  • Rango intercuartílico: el rango de la mitad media del conjunto de datos.
  • Desviación estándar: la distancia media entre cada valor de su conjunto de datos y la media.Varianza
  • : el cuadrado de la desviación estándar.

Una vez más, la forma de la distribución y el nivel de medición deben guiar su elección de estadísticas de variabilidad. El rango intercuartílico es la mejor medida para distribuciones sesgadas, mientras que la desviación estándar y la varianza proporcionan la mejor información para distribuciones normales.

  • Experimental
  • Correlacional
Ejemplo: Estadística descriptiva (experimento)
Después de recopilar datos previos y posteriores a la prueba de 30 estudiantes de toda la ciudad, se calculan estadísticas descriptivas. Debido a que tiene datos distribuidos normales en una escala de intervalos, tabula la media, la desviación estándar, la varianza y el rango.

Usando su tabla, debe verificar si las unidades de las estadísticas descriptivas son comparables para las puntuaciones antes y después de la prueba. Por ejemplo, ¿los niveles de varianza son similares entre los grupos? Hay valores extremos? Si los hay, es posible que deba identificar y eliminar valores atípicos extremos en su conjunto de datos o transformarlos antes de realizar una prueba estadística.

las puntuaciones Pretest calificaciones en las pruebas Posteriores
la Media de 68.44 75.25
desviación Estándar 9.43 9.88
Diferencia 88.96 97.96
Intervalo 36.25 45.12
N 30

De esta tabla, podemos ver que la puntuación media aumentó después del ejercicio de meditación, y las variaciones de las dos puntuaciones son comparables. A continuación, podemos realizar una prueba estadística para averiguar si esta mejora en los puntajes de las pruebas es estadísticamente significativa en la población.

Ejemplo: Estadísticas descriptivas (estudio correlacional)
Después de recopilar datos de 653 estudiantes, tabula estadísticas descriptivas para el ingreso anual de los padres y el promedio de calificaciones.

Es importante comprobar si tiene una amplia gama de puntos de datos. Si no lo hace, sus datos pueden estar sesgados hacia algunos grupos más que hacia otros (por ejemplo, personas de alto rendimiento académico), y solo se pueden hacer inferencias limitadas sobre una relación.

Ingresos parentales (USD) GPA
Media 62,100 3.12
desviación Estándar 15,000 0.45
Varianza 225,000,000 0.16
Rango de 8,000–378,000 2.64–4.00
N 653

a continuación, podemos calcular un coeficiente de correlación y realizar una prueba estadística para entender la importancia de la relación entre las variables en la población.

Paso 4: Pruebe hipótesis o haga estimaciones con estadísticas inferenciales

Un número que describe una muestra se llama estadística, mientras que un número que describe una población se llama parámetro. Utilizando estadísticas inferenciales, puede sacar conclusiones sobre los parámetros de la población basándose en estadísticas de muestra.

Los investigadores a menudo usan dos métodos principales (simultáneamente) para hacer inferencias en estadísticas.Estimación

  • : cálculo de parámetros poblacionales basados en estadísticas de muestra.
  • Prueba de hipótesis: un proceso formal para probar predicciones de investigación sobre la población usando muestras.

Estimación

Puede hacer dos tipos de estimaciones de parámetros de población a partir de estadísticas de muestra:

  • Una estimación puntual: un valor que representa su mejor estimación del parámetro exacto.
  • Una estimación de intervalo: un rango de valores que representan su mejor suposición de dónde se encuentra el parámetro.

Si su objetivo es inferir y reportar características de población a partir de datos de muestra, es mejor usar estimaciones de puntos e intervalos en su trabajo.

Puede considerar una estadística de muestra una estimación puntual para el parámetro de población cuando tiene una muestra representativa (por ejemplo, en una amplia encuesta de opinión pública, la proporción de una muestra que apoya al gobierno actual se toma como la proporción de población de partidarios del gobierno).

Siempre hay errores involucrados en la estimación, por lo que también debe proporcionar un intervalo de confianza como estimación de intervalo para mostrar la variabilidad alrededor de una estimación puntual.

Un intervalo de confianza utiliza el error estándar y la puntuación z de la distribución normal estándar para indicar dónde se espera encontrar el parámetro de población la mayor parte del tiempo.

Prueba de hipótesis

Utilizando datos de una muestra, puede probar hipótesis sobre las relaciones entre variables de la población. La prueba de hipótesis comienza con la suposición de que la hipótesis nula es verdadera en la población, y se utilizan pruebas estadísticas para evaluar si la hipótesis nula se puede rechazar o no.

Las pruebas estadísticas determinan dónde se encontrarían los datos de muestra en una distribución esperada de datos de muestra si la hipótesis nula fuera verdadera. Estas pruebas dan dos resultados principales:

  • Una estadística de prueba le indica cuánto difieren sus datos de la hipótesis nula de la prueba.
  • Un valor p le indica la probabilidad de obtener sus resultados si la hipótesis nula es realmente verdadera en la población.

Las pruebas estadísticas se presentan en tres variedades principales:

  • Las pruebas de comparación evalúan las diferencias de grupo en los resultados.
  • Las pruebas de regresión evalúan las relaciones de causa y efecto entre las variables.
  • Las pruebas de correlación evalúan las relaciones entre variables sin asumir causalidad.

Su elección de prueba estadística depende de sus preguntas de investigación, diseño de investigación, método de muestreo y características de los datos.

Pruebas paramétricas

Las pruebas paramétricas hacen inferencias poderosas sobre la población basadas en datos de muestra. Pero para usarlos, se deben cumplir algunas suposiciones, y solo se pueden usar algunos tipos de variables. Si sus datos violan estas suposiciones, puede realizar transformaciones de datos adecuadas o utilizar pruebas alternativas no paramétricas en su lugar.

A Modelos de regresión la medida en que los cambios en una variable predictora dan lugar a cambios en la variable o variables de resultado.

  • Una regresión lineal simple incluye una variable predictora y una variable de resultado.
  • Una regresión lineal múltiple incluye dos o más variables predictoras y una variable de resultado.

Las pruebas de comparación generalmente comparan las medias de los grupos. Estos pueden ser los medios de diferentes grupos dentro de una muestra (por ejemplo, un grupo de tratamiento y control), los medios de un grupo de muestra tomado en diferentes momentos (por ejemplo, puntajes antes y después de la prueba), o una media de la muestra y una media de la población.

  • Una prueba t es para exactamente 1 o 2 grupos cuando la muestra es pequeña (30 o menos).
  • Una prueba z es para exactamente 1 o 2 grupos cuando la muestra es grande.
  • Un ANOVA es para 3 o más grupos.

Las pruebas z y t tienen subtipos basados en el número y los tipos de muestras y las hipótesis:

  • Si solo tiene una muestra que desea comparar con una media de población, utilice una prueba de una sola muestra.
  • Si tiene mediciones emparejadas (diseño dentro de los sujetos), utilice una prueba de muestras dependientes (emparejadas).
  • Si tiene mediciones completamente separadas de dos grupos sin igual (diseño entre sujetos), utilice una prueba de muestras independiente.
  • Si espera una diferencia entre grupos en una dirección específica, use una prueba de una sola cola.
  • Si no tiene expectativas sobre la dirección de una diferencia entre grupos, use una prueba de dos colas.

La única prueba de correlación paramétrica es la r de Pearson. El coeficiente de correlación (r) le indica la fuerza de una relación lineal entre dos variables cuantitativas.

Sin embargo, para probar si la correlación en la muestra es lo suficientemente fuerte como para ser importante en la población, también es necesario realizar una prueba de significancia del coeficiente de correlación, generalmente una prueba t, para obtener un valor p. Esta prueba utiliza el tamaño de la muestra para calcular cuánto difiere el coeficiente de correlación de cero en la población.

  • Experimental
  • Correlacional
Ejemplo: Prueba t emparejada para investigación experimental
Debido a que el diseño de su investigación es un experimento dentro de los sujetos, las mediciones previas y posteriores a la prueba provienen del mismo grupo, por lo que requiere una prueba t dependiente (emparejada). Dado que predice un cambio en una dirección específica (una mejora en los resultados de las pruebas), necesita una prueba de una sola cola.

Se utiliza una prueba de t de una cola con muestras dependientes para evaluar si el ejercicio de meditación mejoró significativamente los puntajes de los exámenes de matemáticas. La prueba te da:

  • un valor t (estadístico de prueba) de 3,00
  • un valor p de 0.0028
Ejemplo: Coeficiente de correlación y prueba de significación
Se utiliza la r de Pearson para calcular la fuerza de la relación lineal entre el ingreso de los padres y el promedio de calificaciones en la muestra. El valor de r de Pearson es 0,12, lo que indica una pequeña correlación en la muestra.

Aunque la r de Pearson es una estadística de prueba, no dice nada sobre cuán significativa es la correlación en la población. También debe probar si este coeficiente de correlación de muestra es lo suficientemente grande como para demostrar una correlación en la población.

Una prueba t también puede determinar cuán significativamente difiere un coeficiente de correlación de cero en función del tamaño de la muestra. Dado que espera una correlación positiva entre los ingresos de los padres y el promedio general, utiliza una prueba de t de una muestra y una cola. La prueba de la t da:

  • un valor t de 3.08
  • un valor de p de 0.001

Paso 5: Interpretar los resultados

El paso final del análisis estadístico es interpretar los resultados.

Significación estadística

En las pruebas de hipótesis, la significación estadística es el criterio principal para la formación de conclusiones. Compare su valor de p con un nivel de significación establecido (generalmente 0.05) para decidir si sus resultados son estadísticamente significativos o no significativos.

Se considera poco probable que se hayan obtenido resultados estadísticamente significativos únicamente por casualidad. Solo hay una probabilidad muy baja de que tal resultado ocurra si la hipótesis nula es cierta en la población.

  • Experimental
  • Correlacional
Ejemplo: Interpreta tus resultados (experimento)
Comparas tu valor de p de 0,0027 con tu umbral de significación de 0,05. Dado que su valor de p es menor, decide rechazar la hipótesis nula y considera que sus resultados son estadísticamente significativos.

Esto significa que usted cree que la intervención de meditación, en lugar de factores aleatorios, causó directamente el aumento en los resultados de las pruebas.

Ejemplo: Interpreta tus resultados (estudio correlacional)
Comparas tu valor de p de 0,001 con tu umbral de significación de 0,05. Con un valor de p por debajo de este umbral, puede rechazar la hipótesis nula. Esto indica una correlación estadísticamente significativa entre los ingresos de los padres y el GPA en estudiantes universitarios varones.

Tenga en cuenta que la correlación no siempre significa causalidad, porque a menudo hay muchos factores subyacentes que contribuyen a una variable compleja como el GPA. Incluso si una variable está relacionada con otra, esto puede deberse a que una tercera variable influye en ambas, o a vínculos indirectos entre las dos variables.

Un tamaño de muestra grande también puede influir fuertemente en la significación estadística de un coeficiente de correlación al hacer que los coeficientes de correlación muy pequeños parezcan significativos.

Tamaño del efecto

Un resultado estadísticamente significativo no significa necesariamente que haya aplicaciones importantes en la vida real o resultados clínicos para un hallazgo.

Por el contrario, el tamaño del efecto indica la importancia práctica de sus resultados. Es importante informar el tamaño de los efectos junto con las estadísticas inferenciales para obtener una imagen completa de los resultados. También debes informar estimaciones de intervalos de tamaños de efectos si estás escribiendo un artículo de estilo APA.

  • Experimental
  • Correlacional
Ejemplo: Tamaño del efecto (experimento)
Se calcula la d de Cohen para encontrar el tamaño de la diferencia entre las puntuaciones antes y después de la prueba.

Con una d de Cohen de 0.72, su descubrimiento de que el ejercicio de meditación mejoró los resultados de las pruebas tiene un significado práctico de medio a alto.

Ejemplo: Tamaño del efecto (estudio correlacional)
Para determinar el tamaño del efecto del coeficiente de correlación, compare el valor r de Pearson con los criterios de tamaño del efecto de Cohen.

Debido a que su valor está entre 0.1 y 0.3, su hallazgo de una relación entre los ingresos de los padres y el promedio de promedio representa un efecto muy pequeño y tiene un significado práctico limitado.

Errores de decisión

Los errores de tipo I y Tipo II son errores cometidos en las conclusiones de la investigación. Un error de tipo I significa rechazar la hipótesis nula cuando es realmente verdadera, mientras que un error de tipo II significa no rechazar la hipótesis nula cuando es falsa.

Puede intentar minimizar el riesgo de estos errores seleccionando un nivel de significación óptimo y garantizando una alta potencia. Sin embargo, hay un equilibrio entre los dos errores, por lo que es necesario un equilibrio fino.

Estadística de frecuentistas versus bayesianas

Tradicionalmente, la estadística de frecuentistas enfatiza la prueba de significancia de hipótesis nula y siempre comienza con la suposición de una hipótesis nula verdadera.

Sin embargo, las estadísticas bayesianas han crecido en popularidad como un enfoque alternativo en las últimas décadas. En este enfoque, utiliza investigaciones anteriores para actualizar continuamente sus hipótesis en función de sus expectativas y observaciones.

El factor de Bayes compara la fuerza relativa de la evidencia para la hipótesis nula versus la hipótesis alternativa en lugar de hacer una conclusión sobre rechazar la hipótesis nula o no.

Preguntas frecuentes sobre análisis estadístico

¿Qué es el análisis estadístico?

El análisis estadístico es el principal método para analizar datos cuantitativos de investigación. Utiliza probabilidades y modelos para probar predicciones sobre una población a partir de datos de muestra.

¿Cuál es la diferencia entre estadísticas descriptivas e inferenciales?

Las estadísticas descriptivas resumen las características de un conjunto de datos. Las estadísticas inferenciales le permiten probar una hipótesis o evaluar si sus datos son generalizables a la población en general.

¿Qué es la prueba de hipótesis?

La prueba de hipótesis es un procedimiento formal para investigar nuestras ideas sobre el mundo utilizando estadísticas. Es utilizado por los científicos para probar predicciones específicas, llamadas hipótesis, calculando la probabilidad de que un patrón o relación entre variables pudiera haber surgido por casualidad.

¿Qué son hipótesis nulas y alternativas?

En las pruebas de hipótesis estadísticas, la hipótesis nula de una prueba siempre predice ningún efecto o ninguna relación entre variables, mientras que la hipótesis alternativa establece la predicción de investigación de un efecto o relación.

¿Qué es la significación estadística?

Significación estadística es un término utilizado por los investigadores para afirmar que es poco probable que sus observaciones pudieran haber ocurrido bajo la hipótesis nula de una prueba estadística. La significación se denota generalmente por un valor de p, o valor de probabilidad.

La significancia estadística es arbitraria-depende del umbral, o valor alfa, elegido por el investigador. El umbral más común es p < 0,05, lo que significa que es probable que los datos ocurran menos del 5% del tiempo bajo la hipótesis nula.

Cuando el valor de p cae por debajo del valor alfa elegido, entonces decimos que el resultado de la prueba es estadísticamente significativo.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.