Skip to content

Ciencia sin miedo

José A. Martínez

Menu
  • Sobre mí
  • Blog
  • Papers
  • Impacto
  • Libros
  • CONGRESOS
  • Dirección
  • Apariciones en podcast
  • Proyectos
  • Revisor
  • Productividad en baloncesto
  • CALIDAD AIRE
  • STARS FOR WORKERS
  • PROMETEO GRID
  • MUSEO 1980-2011
Menu

ENTENDER LA NATURALEZA DE LOS DATOS Y DE LOS TEST ESTADÍSTICOS

Publicada el 23 de julio de 201621 de marzo de 2025 por martinezjose

Los investigadores escriben un interesante ensayo donde discuten el papel de la probabilidad y algunos conceptos clásicos de la teoría estadística.

Papel de la probabilidad

Probabilidad como representación de la variabilidad empírica

Los autores distinguen entre varias aproximaciones en la conexión entre los datos y el objeto de estudio. La primera de ellas toma los datos como una muestra aleatoria de una población hipotéticamente infinita. La segunda como una parte de un proceso hipotético de repetición bajo condiciones constantes. La tercera hace referencia a cualquiera de las dos anteriores combinada con una explícita descripción del proceso que genera los datos. Y la cuarta representa cualquiera de las dos primeras aproximaciones para describir la aleatorización usada en un experimento o en el muestreo sobre una población existente.

Probabilidad como conocimiento incierto

En este caso hablamos de, por ejemplo, la afirmación de que un parámetro desconocido está en un rango especificado. La inferencia está basada en una hipotética repetición y los autores defienden esta aproximación por encima de la visión bayesiana, la cual critican por la forma de establecer los priors.

Inferencia aleatorizada

Aquí el papel de la probabilidad no se basa en un modelo que describe la variabilidad natural de los datos, sino sobre la aleatorización empleada en el diseño de un estudio. Los autores destacan las ventajas de la aleatorización para realizar inferencias válidas (insesgadas, cálculo de errores estándar e intervalos de confianza). Sin embargo, no entran discusión sobre dos preguntas cruciales en este tipo de diseños experimentales: la generalizabilidad de los resultados (extrapolación para otras poblaciones), y la especificidad (resultados aplicables para un caso particular).

Test de significación

Los autores explican de manera sencilla el concepto de test de significación a partir de la hipótesis inicial sobre los datos (su distribución), a través de un estadístico elegido que sigue una distribución determinada cuyo probabilidad para la muestra dada tiene un valor. Si ese valor es mayor que el cualitativamente prefijado como umbral, entonces existe una desviación de la hipótesis de partida y se considera que no se puede confirmar. Ese valor de probabilidad, o p-valor, es la proporción de veces que la hipótesis de partida será falsamente rechazada siendo verdad, es decir, la probabilidad de cometer un error tipo I.

Principios clásicos de inferencia

Los autores comentan brevemente los principios de suficiencia, condicionalidad y verosimilitud cuando se asume un modelo probabilístico en la forma de una función de densidad o de distribución para los datos y un parámetro desconocido.

El primero hace referencia a la simplificación del modelo a través de la factorización, empleando un estadístico con una distribución conocida. Esto es lo que ocurre en los test de significación estadística más sencillos, como cuando se usa la prueba t para testar una diferencia de medias.

El segundo hace referencia a que ese estadístico suficiente puede ser dividido en dos componentes de tal manera que las inferencias sobre el parámetro desconocido puede basarse en la distribución condicionada de uno de esos componentes sobre otro.

El tercero se basa en la función de verosimilitud, que se construye a través de los datos observados (que se toman como fijos) y de la distribución del parámetro dados los datos.

Conclusión

Los autores describen de manera sencilla y simple varios aspectos cruciales de la inferencia estadística. Es muy importante lo que señalan al final del artículo: «el papel de la estadística es resumir la evidencia en una forma clara, más que tomar decisiones irrevocables». Esta afirmación muestra una vez más que la santificación del p-valor para tomar decisiones sobre estudios individuales no debe hacerse, al menos es más prudente contar con una gran cantidad de evidencias y tomar la decisión más congruente con toda la evidencia acumulada.

Los autores también comentan que las predicciones con nuevos datos basadas en modelos estimados asumen que esos nuevos datos están generados por el mismo procedimiento aleatorio de los primeros, lo que a menudo es una «asunción formidable».

En definitiva, es un artículo recomendable para conocer la postura de estos prestigiosos investigadores sobre aspectos clave de la inferencia estadística, y para tomar con cautela (aunque no descartar su utilidad) las aproximaciones bayesianas y de minería de datos más enfocadas en la predicción o clasificación que en entender la naturaleza de los datos.

Reid, N. & Cox, D. R. (2015). On some principles of statistical inference. International Statistical Review, 83 (2), 293–308

Category: METODOLOGÍA DE INVESTIGACIÓN

Navegación de entradas

← ACTIVIDAD GEOMAGNÉTICA ASOCIADA A LA VARIABILIDAD EN EL LATIDO DEL CORAZÓN
MORTALIDAD EN EL FÚTBOL AUSTRALIANO →

ENTRADAS RECIENTES

  • DESCLASIFICACIÓN DE LA CIA: EFECTO DE LA RADIOFRECUENCIA SOBRE LA HORMONA DE CRECIMIENTO EN RATAS
  • MEDIACIÓN Y MODERACIÓN: PROCESS VS MODELOS DE ECUACIONES ESTRUCTURALES
  • COLORES MENOS SATURADOS PARA QUE EL PRODUCTO PAREZCA MÁS SOSTENIBLE
  • LA REGULACIÓN SOBRE ETIQUETADO Y PUBLICIDAD DE PRODUCTOS AZUCARADOS FUNCIONA EN CHILE
  • ANTENAS DE TELEFONÍA MÓVIL Y ELA

Temáticas del blog

  • BALONCESTO Y RENDIMIENTO DEPORTIVO
  • FÍSICA Y BIOLOGÍA
  • FRAUDE Y EXPLOTACIÓN LABORAL
  • MARKETING Y MANAGEMENT
  • METODOLOGÍA DE INVESTIGACIÓN
  • SALUD Y MEDIO AMBIENTE
  • BALONCESTO Y RENDIMIENTO DEPORTIVO
  • FÍSICA Y BIOLOGÍA
  • FRAUDE Y EXPLOTACIÓN LABORAL
  • MARKETING Y MANAGEMENT
  • METODOLOGÍA DE INVESTIGACIÓN
  • SALUD Y MEDIO AMBIENTE

  • Países al servicio de empresas: 30/06/2019
  • Contaminación electromagnética: efectos sobre la salud e intereses económicos: 19/06/2018
  • Historia de la empresa Alta Gracia Apparel: 08/01/2018
  • Gobiernos contra personas. Los agentes 2,4-D, 2,4,5-T: The Poison Papers: 05/10/2017
  • Disulfuro de carbono: Viscosa, el silencio de la industria: 26/09/2017
  • El efecto placebo: 24/07/2017
  • Glifosato: El veneno mortal de Monsanto: 27/06/2017
  • La historia no contada de Nike. El verdadero rostro de la globalización: 16/05/2017
  • El informe (2016/2140(INI)): El oscuro silencio de las marcas: 02/05/2017
  • La pérdida de identidad: Naming Rights; ¿se puede vender todo?: 07/03/2017
  • Sugargate: El imperio del oro blanco: 30/01/2017
  • Control social y manipulación de masas: 19/12/2016
  • Lo que la industria textil esconde: 23/11/2016

© 2025 Ciencia sin miedo | Funciona con Minimalist Blog Tema para WordPress