En este artículo publicado en el libro online de Wiley: Wiley StatsRef: Statistics Reference Online, uno de los investigadores punteros en el ámbito de la filosofía de la estadística frecuentista en la actualidad – Aris Spanos – nos recuerda la importancia del modelo estadístico en la interpretación de la probabilidad.
Para los investigadores aplicados como yo, a veces nos es complicado entender la base matemática y filosófica de las herramientas que empleamos, pero siempre es una labor recomendable tratar de profundizar en ellas.
La aproximación de Fisher
La clave de la propuesta de Fisher es pre-especificar un modelo estadístico paramétrico que provea el contexto adecuado para asignar probabilidades a eventos relevantes asociados con datos. Para ello, se requiere el establecimiento de unas asunciones probabilísticas sobre los datos.
Spanos recuerda el tratamiento axiomático de la probabilidad de Kolmogorov y su definición del espacio probabilístico . Básicamente, esto quiere decir que existe un conjunto
de todos los posibles resultados. Esos resultados pueden agruparse en subconjuntos de eventos A de interés, siendo esos eventos mutuamente excluyentes. El conjunto de todos esos subconjuntos es
, que tiene la estructura matemática de un
-álgebra. Esto significa que están definidos el conjunto vacío, los eventos complementarios
, y la unión de esos eventos. En la práctica, podemos tomar
, y definimos
, es decir, es una función sobre F de tal manera que a cada evento
se le asigna una probabilidad.
De este modo, se puede definir (en la práctica) una variable aleatoria X como una función del conjunto de todos los posibles resultados de en
, de forma que a cada evento se le asigna una probabilidad. Esto es, a cada evento se le asigna un número, y ese número tiene asignado una probabilidad.
Spanos ejemplifica de manera sencilla todo el planteamiento anterior para una variable de Bernouilli, donde y donde
.
El modelo estadístico
Según Spanos, el papel crucial de la variable aleatoria es transformar el espacio abstracto de probabilidad en un modelo estadístico definido sobre la recta real. Para ello es necesario asumir que el experimento se repite bajo condiciones idénticas por lo que los eventos observados son independientes. Esa repetición provee una secuencia de variables aleatorias independientes e idénticamente distribuidas (IID). Bajo esta visión, el modelo estadístico es una parametrización del proceso estocástico que rige la obtención de los resultados. El modelo de Bernuilli (Ber) comentado quedaría entonces:
Lo que nos dice esta ecuación es que el modelo estadístico permite reflejar el proceso estocástico a partir de unos parámetros (que en este caso son la media y la varianza de una variable dicotómica). En otras palabras, se puede interpretar que sobre una población (k se sucede N veces siendo
) podemos computar la probabilidad de ocurrencia de los eventos a través de la parametrización del proceso. Pero como no observamos casi nunca la población, sino una muestra
, entonces consideramos esa muestra como una realización típica de ese proceso.
Spanos recuerda que, tal y como postulaba Kolmogorov, se debe distinguir entre aleatoriedad pura (ausencia de cualquier regularidad) y regularidad estocástica (donde existen regularidades, y que es el campo de la teoría de la probabilidad). En la probabilidad estocástica hay un mecanismo que produce las frecuencias observables. Ese mecanismo es hipotético y es, precisamente, el modelo propuesto.
La intepretación frecuentista se basa en la Ley de los Grandes Números (en sus versiones fuerte y débil, como apunta Spanos), por el cual a medida que la muestra crece se converge a la probabildad verdadera, es decir, cuando la muestra tiende a infinito entonces , lo que es llamado por el autor «the long-run metaphor».
Las asunciones del modelo estadístico son testables con los datos empíricos, y es ahí donde reside una de las claves de la visión de Spanos sobre la aplicación de la estadística; hay que especificar el modelo y testar las asunciones antes de interpretarlo. El cumplimiento de esas asunciones apoyará la aseveración de que los datos son una realización típica del proceso subyacente. Sin embargo, esta adecuación estadística no tiene porqué ser «sustantiva» en el sentido en que es simplemente correlacional y no causal. Para el establecimiento de relaciones causales se deben añadir ciertas restricciones en los parámetros que son también testables.
Comentarios finales
Aris Spanos vuelve a incidir en la necesidad de un purismo metodológico para aplicar la estadística de manera correcta. La visión frecuentista, promovida por Fisher, se puede enmarcar en un proceso de modelización en el cual el investigador tiene herramientas para testar la propia idoneidad de su especificación.
De este modo, podríamos decir de manera coloquial, que cuando un investigador se enfrenta al problema de tratar de aprender de los datos, debe especificar un mecanismo hipotético de generación de esos datos con sus respectivas restricciones (asunciones). Esas asunciones son testables con los propios datos, y deben ser validadas antes de cualquier interpretación posterior. Finalmente, esa idoneidad estadística no significa idoneidad sustantiva, en el sentido de que el modelo real puede requerir de restricciones adicionales en términos de causalidad que, de nuevo, deben testarse.
En este último punto Spanos no entra a profundizar (tampoco era el objetivo del artículo), pero para discutir cómo testar esas restricciones añadidas del modelo sustantivo entraríamos en disquisiciones más complejas sobre causalidad.
Como comentario final, obsérvese la diferencia que existe entre los investigadores que se preocupan por intentar (con mayor o menor acierto) preocuparse por todo este proceso descrito al interpretar el p-valor, y aquellos que «le dan al botón» del programa estadístico y ven si está por encima o por debajo de 0.05.
Spanos, A. (2017). Frequentist Probability. Wiley StatsRef: Statistics Reference Online. 1–11