Los investigadores escriben un interesante ensayo donde discuten el papel de la probabilidad y algunos conceptos clásicos de la teoría estadística.
Papel de la probabilidad
Probabilidad como representación de la variabilidad empírica
Los autores distinguen entre varias aproximaciones en la conexión entre los datos y el objeto de estudio. La primera de ellas toma los datos como una muestra aleatoria de una población hipotéticamente infinita. La segunda como una parte de un proceso hipotético de repetición bajo condiciones constantes. La tercera hace referencia a cualquiera de las dos anteriores combinada con una explícita descripción del proceso que genera los datos. Y la cuarta representa cualquiera de las dos primeras aproximaciones para describir la aleatorización usada en un experimento o en el muestreo sobre una población existente.
Probabilidad como conocimiento incierto
En este caso hablamos de, por ejemplo, la afirmación de que un parámetro desconocido está en un rango especificado. La inferencia está basada en una hipotética repetición y los autores defienden esta aproximación por encima de la visión bayesiana, la cual critican por la forma de establecer los priors.
Inferencia aleatorizada
Aquí el papel de la probabilidad no se basa en un modelo que describe la variabilidad natural de los datos, sino sobre la aleatorización empleada en el diseño de un estudio. Los autores destacan las ventajas de la aleatorización para realizar inferencias válidas (insesgadas, cálculo de errores estándar e intervalos de confianza). Sin embargo, no entran discusión sobre dos preguntas cruciales en este tipo de diseños experimentales: la generalizabilidad de los resultados (extrapolación para otras poblaciones), y la especificidad (resultados aplicables para un caso particular).
Test de significación
Los autores explican de manera sencilla el concepto de test de significación a partir de la hipótesis inicial sobre los datos (su distribución), a través de un estadístico elegido que sigue una distribución determinada cuyo probabilidad para la muestra dada tiene un valor. Si ese valor es mayor que el cualitativamente prefijado como umbral, entonces existe una desviación de la hipótesis de partida y se considera que no se puede confirmar. Ese valor de probabilidad, o p-valor, es la proporción de veces que la hipótesis de partida será falsamente rechazada siendo verdad, es decir, la probabilidad de cometer un error tipo I.
Principios clásicos de inferencia
Los autores comentan brevemente los principios de suficiencia, condicionalidad y verosimilitud cuando se asume un modelo probabilístico en la forma de una función de densidad o de distribución para los datos y un parámetro desconocido.
El primero hace referencia a la simplificación del modelo a través de la factorización, empleando un estadístico con una distribución conocida. Esto es lo que ocurre en los test de significación estadística más sencillos, como cuando se usa la prueba t para testar una diferencia de medias.
El segundo hace referencia a que ese estadístico suficiente puede ser dividido en dos componentes de tal manera que las inferencias sobre el parámetro desconocido puede basarse en la distribución condicionada de uno de esos componentes sobre otro.
El tercero se basa en la función de verosimilitud, que se construye a través de los datos observados (que se toman como fijos) y de la distribución del parámetro dados los datos.
Conclusión
Los autores describen de manera sencilla y simple varios aspectos cruciales de la inferencia estadística. Es muy importante lo que señalan al final del artículo: «el papel de la estadística es resumir la evidencia en una forma clara, más que tomar decisiones irrevocables». Esta afirmación muestra una vez más que la santificación del p-valor para tomar decisiones sobre estudios individuales no debe hacerse, al menos es más prudente contar con una gran cantidad de evidencias y tomar la decisión más congruente con toda la evidencia acumulada.
Los autores también comentan que las predicciones con nuevos datos basadas en modelos estimados asumen que esos nuevos datos están generados por el mismo procedimiento aleatorio de los primeros, lo que a menudo es una «asunción formidable».
En definitiva, es un artículo recomendable para conocer la postura de estos prestigiosos investigadores sobre aspectos clave de la inferencia estadística, y para tomar con cautela (aunque no descartar su utilidad) las aproximaciones bayesianas y de minería de datos más enfocadas en la predicción o clasificación que en entender la naturaleza de los datos.
Reid, N. & Cox, D. R. (2015). On some principles of statistical inference. International Statistical Review, 83 (2), 293–308