50 términos estadísticos que hay que conocer (con definiciones)

La estadística es una parte integral de la investigación eficaz. Tanto si es un estudiante de estadística como si utiliza habitualmente el lenguaje estadístico en su trabajo, conocer y refrescar sus conocimientos de terminología puede ser beneficioso. Gracias a estos conocimientos puede mejorar su capacidad de investigación y facilitar la colaboración en proyectos de investigación.

En este artículo, definimos algunos de los términos estadísticos más comunes.

Lista de 50 términos estadísticos

A continuación se ofrece una lista de los términos estadísticos más comunes y sus definiciones:

1. Hipótesis alternativa

Una hipótesis alternativa también se conoce como hipótesis nula. La hipótesis nula es la afirmación opuesta a la tesis. Si los datos que recoges demuestran que tu hipótesis original era correcta, entonces puedes rechazar la hipótesis alternativa.

Relacionado: Hipótesis alternativa: Definición y cuándo usarla

2. Análisis de covarianza

Un análisis de covarianza se refiere a una técnica que evalúa si una variable dependiente produce resultados iguales en numerosas situaciones de variables independientes. En concreto, examina las diferencias entre los valores medios de las variables dependientes que se relacionan entre sí.

Relacionado: Covarianza vs. Varianza: Qué son y en qué se diferencian

3. Análisis de la varianza

Un análisis de la varianza es un método para evaluar las diferencias entre las variables de un estudio. También incluye un estudio de dos vías, que es una forma de dividir la variabilidad en dos partes, incluyendo factores sistemáticos y aleatorios.

4. Media

El promedio se refiere a la media de los datos. Puedes calcular la media sumando el total de los datos y dividiéndolo por el número de puntos de datos.

Relacionado: Cómo calcular la media

5. Curva de campana

La curva de campana, también llamada distribución normal, muestra la media, la mediana y la moda de los datos que se recogen. Suele tener la forma de una campana con una pendiente a cada lado.

6. Nivel beta

El nivel beta se refiere a la probabilidad de aceptar la hipótesis nula o alternativa. El nivel beta también significa que la hipótesis es incorrecta.

Relacionado: ¿Qué es una correlación positiva en finanzas?

7. Prueba del binomio

Puedes utilizar una prueba binomial cuando estés estudiando una hipótesis con dos resultados potenciales y creas que uno de ellos tiene más probabilidades de ser cierto. Su teoría se basa en el cálculo de probabilidades y en el estudio de muestras pequeñas.

8. Punto de ruptura

El punto de ruptura es el punto en el que un estimador deja de ser útil. Un punto de ruptura más bajo significa que la información puede no ser útil, mientras que un número más alto significa que hay menos posibilidades de resistencia.

9. Causa

La causalidad es una relación directa entre dos variables. Dos variables tienen una relación directa si un cambio en un valor provoca un cambio en la otra variable.

10. Coeficiente

Un coeficiente mide una variable mediante un multiplicador. Cuando se realizan investigaciones y se calculan ecuaciones, el coeficiente suele ser un valor numérico que se multiplica por una variable, dándole un coeficiente de la misma. Si una variable no tiene un número, el coeficiente es siempre uno.

11. Intervalos de confianza

Un intervalo de confianza mide el nivel de incertidumbre de una colección de datos. También es el nivel de probabilidad de que los datos caigan dentro de un conjunto de valores preasignados.

12. Coeficiente de correlación

El coeficiente de correlación describe el nivel de correlación o dependencia entre dos variables. Este valor es un número entre uno negativo y uno positivo y puede sugerir cuándo dos variables pueden tener una relación identificable.

13. Coeficiente alfa de Cronbach's

El coeficiente alfa de Cronbach es una medida de consistencia interna. Muestra la naturaleza de la relación entre múltiples variables en un subconjunto de datos. Además, el coeficiente alfa de Cronbach's se mantiene consistente en el número de ítems que mide y puede aumentar cuando aumenta la correlación media entre los ítems.

14. Variable dependiente

Una variable dependiente es un valor que depende de otra variable para mostrar un cambio. Cuando se computa en el análisis estadístico, se pueden utilizar las variables dependientes para sacar conclusiones sobre las causas de los acontecimientos, los cambios y otras traducciones en la investigación estadística.

15. Estadística descriptiva

Las estadísticas descriptivas son los resultados que describen los datos de su estudio. Puede incluir la media o la mediana de los datos, así como cualquier otra información que describa una tendencia entre la población.

16. Tamaño del efecto

El tamaño del efecto es una forma de cuantificar las diferencias significativas entre dos poblaciones o conjuntos de datos. El tamaño del efecto tiene en cuenta el tamaño de la población en lugar de centrarse únicamente en los datos que se recogen.

17. Prueba F

Una prueba F es cualquier prueba que utilice la distribución F. La distribución F se refiere al proceso de comparar diferentes modelos estadísticos para determinar qué modelo funciona mejor para el estudio específico.

18. Análisis de los factores

El análisis factorial se refiere a un proceso de enumerar los datos como una función más pequeña para organizar e interpretar mejor los resultados. Un factor es también un conjunto de variables con respuestas similares que puedes aplicar a una colección más amplia de datos.

19. Distribución de la frecuencia

La distribución de frecuencias es la frecuencia con la que se produce una variable. Le proporciona datos sobre la frecuencia con la que se repite algo.

20. Análisis de varianza de dos vías de Friedman

El análisis de varianza de dos vías de Friedman es una prueba estadística que busca diferencias entre numerosos estudios. Esta prueba no paramétrica se centra en las diferencias de un estudio de investigación cuando la medición de la variable dependiente no es tan necesaria.

21. Pruebas de hipótesis

Un test de hipótesis es un método de comprobación de resultados. Antes de realizar una investigación, el investigador crea una hipótesis o una teoría sobre lo que cree que demostrarán los resultados. A continuación, un estudio pone a prueba esa teoría.

22. Prueba t independiente

Una prueba t independiente es una comparación de dos variables independientes. Su objetivo principal es determinar si los datos que recoge son suficientes para interpretar que dos variables son significativamente diferentes entre sí.

23. Variable independiente

Una variable independiente es un valor que no depende de otro factor para mostrar cambios. Las variables independientes son necesarias para llevar a cabo investigaciones que se centran en las relaciones causales. Además, las variables independientes son necesarias en las pruebas de regresión, donde los analistas pueden medir las correlaciones entre una o más variables independientes y las variables dependientes.

24. Estadística inferencial

La estadística inferencial es una prueba que se utiliza para comparar un determinado conjunto de datos dentro de una población de diversas maneras. La estadística inferencial incluye pruebas paramétricas y no paramétricas. Cuando se realiza una prueba estadística inferencial, se toman datos de una población pequeña y se hacen inferencias sobre si proporcionará resultados similares en una población más grande.

25. Probabilidad marginal

La probabilidad marginal es la probabilidad de marginar una variable. Se trata de un método que consiste en asignar un valor de probabilidad a cada variable y multiplicar la probabilidad de que ocurra.

26. Medidas de variabilidad

Las medidas de variabilidad, a veces denominadas medidas de dispersión, se refieren a una explicación de las variaciones significativas entre las puntuaciones. Puede incluir el rango intercuartil, el rango, la desviación estándar y la varianza de dos o más variables con resultados muy alejados entre sí.

27. Mediana

La mediana se refiere al punto medio de los datos. Normalmente, si tiene un conjunto de datos con un número impar de elementos, la mediana aparece directamente en el medio de los números. Cuando se calcula la mediana de un conjunto de datos con un número par de elementos, se puede calcular la media simple entre los dos valores más medios para obtener la mediana.

28. Prueba de la mediana

La prueba de la mediana es una prueba no paramétrica que pone a prueba dos grupos independientes que tienen la misma mediana. Sigue la hipótesis nula de que cada uno de los dos grupos mantiene la misma mediana.

29. Modo

El modo se refiere a la frecuencia con la que se repite un número en una colección de datos. Si dos o más números se repiten, la moda se convierte en el valor que más se repite.

30. Correlaciones múltiples

Las correlaciones múltiples son una estimación de lo bien que se puede predecir una variable utilizando una función lineal de otras variables. Utiliza variables predecibles para llegar a una conclusión.

31. Análisis multivariante de la covarianza

Un análisis multivariante de covarianza es una técnica que evalúa las diferencias estadísticas entre múltiples variables dependientes. El análisis controla una tercera variable, la covariable, y puede utilizar variables adicionales en función del tamaño de la muestra.

32. Distribución normal

La distribución normal es un método de representación de variables aleatorias en un gráfico en forma de campana. La mayoría de los datos forman naturalmente una curva de campana, que es una distribución normal.

33. Parámetro

Un parámetro es una medida cuantitativa que se utiliza para medir la población. Es el valor desconocido de una población sobre el que se investiga para saber más.

34. Coeficiente de correlación de Pearson

El coeficiente de correlación de Pearson mide la fuerza de la correlación lineal entre dos variables. Se diferencia del coeficiente de correlación en que el coeficiente de correlación sólo mide una única correlación.

35. Población

La población se refiere al grupo que está estudiando. Esto podría incluir un determinado grupo demográfico o una muestra del grupo, que es un subconjunto de la población.

36. Prueba post hoc

Una prueba post hoc analiza los resultados de un estudio. Identifica ciertas diferencias entre un mínimo de tres grupos de muestra.

37. Densidad de probabilidad

La densidad de probabilidad es una medida estadística que mide el resultado probable de un cálculo. Se puede representar en un gráfico con la probabilidad fuera de la curva normal.

38. Cuartilidad y quintilidad

El cuartil se refiere a uno de un total de cuatro grupos de datos. El quintil se refiere a uno de un total de cinco grupos de datos.

39. Variable aleatoria

Una variable aleatoria es una variable cuyo valor es desconocido. Puede ser discreta o continua con valores específicos para medir. A la inversa, también puede ser un valor de un rango.

40. Gama

El rango es la diferencia entre los valores más bajos y más altos de una colección de datos. Proporciona una guía para saber dónde se pueden asignar los números en una curva de campana.

41. Análisis de regresión

El análisis de regresión se refiere al proceso estadístico de estimar una relación entre dos variables aleatorias diferentes. Se puede utilizar el análisis de regresión para predecir la correlación entre una variable dependiente y una serie de variables independientes. El análisis de regresión también puede ser una regresión lineal o un análisis de regresión múltiple, en el que el número de variables a evaluar puede cambiar.

42. Desviación estándar

La desviación estándar se refiere a la distancia que hay entre un resultado y la media. Informa de cuánto se desvía un resultado individual o de grupo de la media.

43. Error estándar de la media

El error estándar de la media se refiere al nivel de error estándar en un estudio. Puede encontrar el error estándar de la media si divide la desviación estándar por la raíz cuadrada del tamaño de la muestra.

44. Inferencia estadística

La inferencia estadística se produce cuando se utilizan datos para llegar a una inferencia o conclusión. La inferencia estadística puede incluir la regresión, los intervalos de confianza o las pruebas de hipótesis.

45. Poder estadístico

La potencia estadística es la probabilidad de encontrar un efecto en una prueba. El análisis de la potencia estadística estima el tamaño mínimo de la población que se necesita para realizar un estudio eficaz.

46. Prueba t de estudiantes

Una prueba t de estudiante es una hipótesis que pone a prueba una muestra pequeña cuando no se conoce la desviación estándar. Puede incluir medias correlacionadas, correlación, proporciones independientes o medias independientes.

47. Distribución en T

La distribución T se refiere a un método de distribución de las medidas de probabilidad que se relacionan con los patrones de distribución normal. Le da una línea de base para la distancia estándar entre una muestra y una población real.

48. Puntuación T

Una puntuación T se refiere al número de desviaciones estándar que una muestra se aleja de la media. Se puede utilizar en las pruebas T y de regresión.

49. Puntuación Z

Una puntuación Z, también conocida como puntuación estándar, es una medida de la distancia entre la media y el punto de datos de una variable. Se puede medir en unidades de desviación estándar.

50. Prueba Z

Una prueba Z es una prueba que determina si dos poblaciones' medias son iguales. Para utilizar una prueba Z, es necesario conocer las diferencias en las varianzas y tener un tamaño de muestra grande.