(#436). TEORÍA DE PROBABILIDAD E INFERENCIA ESTADÍSTICA SEGÚN ARIS SPANOS (IIIc)

[MONOTEMA]  Continuamos con el tercer apartado del tercer capítulo de Probability Theory and Statistical Inference, de Aris Spanos.

Si vemos  como sólo una función del punto final del intervalo , entonces podemos definir la distribución acumulada (cdf):

Ahora sí hemos generado una función que relaciona el número real asignado a cada posible evento con su probabilidad de ocurrencia. Pero en este caso es la probabilidad acumulada.

Para el caso simple (discreto) tenemos la función de densidad:

Por tanto, los espacios probabilísticos pueden simplificarse en el caso de variables aleatorias discretas y continuas a los siguientes:

Spanos se plantea en este punto si se pueden definir funciones de densidad para variables continuas y funciones de distribución para variables discretas, y la respuesta es que sí.

La estatura de los jugadores de la NBA se puede considerar como una variable continua. Desde el inicio de la NBA hasta el año 2015, hay 3984 jugadores cuya estatura se muestra en este archivo.

El histograma de la distribución es el siguiente:

data:read_list(file_search("RUTADELARCHIVO.txt "));
datatranspose:transpose(data);
estatura:datatranspose;
histogram (
estatura,
nclasses=15,
frequency=density,
xlabel="Espacio muestral. Estatura jugadores NBA (cm)",
ylabel="Densidad de probabilidad",
fill_color=green,
fill_density=0.5);

Es una distribución que se aproxima a una Normal, pero que no sabemos realmente si lo es. Recordemos que una distribución Normal tiene como función de densidad:

De este modo, podemos tomar como media y desviación típica la de la muestra, como una estimación de los parámetros poblacionales.

El resultado, tras emplear Stata 13.0, es el mostrado en el gráfico siguiente:

Sin embargo, otras distribuciones también podrían ajustarse a los datos. Por ejemplo, la distribución Weibull:

En Maxima podemos representar las 3 distribuciones, Normal, Weibull y logística, de la siguiente forma:

load(distrib);
plot2d([pdf_weibull(x,18,198.2),pdf_logistic(x,198.2,5.5),
pdf_normal (x, 198.2, 9.32)],
[x,160,230],[y,0,0.05],
[xlabel, "Espacio muestral. Estatura jugadores NBA (cm)"],
[ylabel, "Densidad de probabilidad"],
[legend, "Weibull", "Logistica", "Normal"]);

Las 3 distribuciones consideradas, estipulan que . Esto es un elemento a tener en cuenta porque en este caso tenemos  una distribución de estatura cuyos valores no pueden ser nunca cero o menor que cero. Por tanto, . Desde el punto de vista práctico quizá para este ejemplo no tenga demasiada importancia, pero a nivel didáctico nos sirve para justifica la búsqueda de otra función de densidad que sólo permita valores positivos.

Una opción es emplear la función chi-cuadrado:

 es la función Gamma.

Así, para r=198, y con la ayuda de Stata 13.0, vemos la distribución chi-cuadrado en azul.

Como se puede apreciar, el ajuste no es tan bueno como la distribución Normal, aunque pese a que la Normal tenga un rango de valores teórico fuera del permitido por este caso.

En definitiva, hemos visto que podemos simplificar los espacios probabilísticos empleando funciones de densidad y de distribución. Así, con la adecuada elección de la función de densidad podemos relacionar los eventos con su probabilidad de ocurrencia, teniendo en cuenta que en distribuciones continuas lo pertinente es analizar la probabilidad entre 2 puntos de la distribución.

Todos los posts relacionados




(#435).TEORÍA DE PROBABILIDAD E INFERENCIA ESTADÍSTICA SEGÚN ARIS SPANOS (IIIb)

[MONOTEMA] Avanzamos en el tercer capítulo de Probability Theory and Statistical Inference, de Aris Spanos, dando una noción general de variable aleatoria:

La variable aleatoria simple es un caso particular contenido en esta definición general. El espacio de eventos discreto está contenido en este continuo.

Spanos define la pre-imagen  de la variable aleatoria  como  una función que mapea números reales en el espacio de eventos:

De este modo, si , entonces:

En la definición general de variable aleatoria:

  

El conjunto de todos esos intervalos es un Borel-field :

De este modo: 

Y así Spanos realiza una metamorfosis del espacio probabilístico gracias a la función variable aleatoria:

que es el espacio inducido por la variable aleatoria.

Todos los posts relacionados




(#434).TEORÍA DE PROBABILIDAD E INFERENCIA ESTADÍSTICA SEGÚN ARIS SPANOS (IIIa)

[MONOTEMA] Continuamos con el tercer capítulo de: Probability Theory and Statistical Inference, de Aris Spanos. 

Capítulo III. La noción de un modelo probabilístico

Comencemos con una visión simple del concepto de variable aleatoria.

El autor divide en 3 pasos el objetivo de mapear el espacio probabilístico   sobre la recta real :

Paso 1:

 

donde se preserva la estructura del espacio de eventos , tal que   para cada .

Este es el concepto simple de variable aleatoria.

Paso 2: 

 es una función de probabilidad

 es una función de distribución

Paso 3:

 es una función de densidad

 para todo 

Es decir, para cada valor de X, o lo que es lo mismo, para cada , la función de densidad  especifica la probabilidad. Y esto hace que no sea necesario conocer las probabilidades a priori, sino que simplemente estén en función de algún parámetro .

Así podemos obtener una familia de funciones de densidad determinada por , lo que va a ser esencial para el modelado estadístico. Es decir, en función de las características del experimento se pueden proponer diferentes funciones de densidad con divergentes valores de 

Lanzar tiros libres en baloncesto

Podemos definir diferentes experimentos sobre el lanzamiento de tiros libres en baloncesto. Por ejemplo:

1)  Al lanzar un tiro libre podemos definir la variable aleatoria:

: acertar

Según este experimento podemos definir  la distribución de Bernuilli:

2) Al lanzar varios tiros libres, podemos definir la variable aleatoria:

: número de aciertos total en n lanzamientos

Como bien indica Spanos, la repetición de n ensayos de Bernouilli nos da la distribución binomial cuya función de densidad es:

donde:

Tanto el caso 1) como el 2) lo comentamos en el Capítulo IIa.

3) Pero consideremos de nuevo el experimento de lanzar varios tiros libres, pero ahora definamos la siguiente variable aleatoria:

: lanzar tiros libres hasta anotar

Ahora la elección de la función de densidad ya no es la de una distribución binomial, sino geométrica:

Si seguimos con el ejemplo de Luka Doncic y su 71.3% de efectividad en los lanzamientos libres en 2018/19, entonces:

que obviamente coincide con su probabilidad, es decir, que cuando lanza un sólo tiro libre el valor es el de la probabilidad de anotar. Pero. ¿cuál sería la probabilidad de que tuviera que lanzar 3 tiros libres para anotar? O lo que es lo mismo, que fallara los dos primeros y anotara el tercero:

Es decir, que un poco más del 5% de las ocasiones en las que Doncic lance tres tiros libres seguidos, fallará los dos primeros y anotará el tercero.

En el siguiente código de Maxima se especifica la distribución geométrica para n=5, con las probabilidades correspondientes:

kill (all);
tiroslibres(n,x,fi):=fi*(1-fi)^(x-1);
funcion(x):=tiroslibres(5,x,0.713);
unlanzamiento:funcion(1);
doslanzamientos:funcion(2);
treslanzamientos:funcion(3);
cuatrolanzamientos:funcion(4);
cincolanzamientos:funcion(5);
plot2d([funcion(x),[discrete,[[1,unlanzamiento],
[2,doslanzamientos],[3,treslanzamientos],
[4,cuatrolanzamientos], [5,cincolanzamientos]]]], [x,1,5],
[y,0,1], [style, lines, points],[color, green, red],
[xlabel, "Tiros libres lanzados hasta anotar el primero"],
[ylabel, "Función de densidad"], [legend, false]);

En el siguiente post, avanzaremos con una noción más general de variable aleatoria.

Todos los posts relacionados




(#433). ETIOPÍA, LA NUEVA CANTERA DE EXPLOTACIÓN PARA LAS MARCAS DE ROPA

[MONOTEMA] Esclarecedor reportaje de la televisión alemana Das Erste, sobre la nueva “moda” de producir textil en Etiopía.

Tras la catástrofe del Rana Plaza en Bangladesh, ocurrida en 2013, la industria busca nuevos lugares donde seguir con su dinámica de explotación al menor coste posible. Pese a que, incluso desde el gobierno alemán, se ha vendido que es una nueva oportunidad para comenzar de cero y hacer las cosas mejor en el sector, lo que muestra esta investigación es todo lo contrario, es decir, se siguen reproduciendo los mismos dramas y la misma situación de esclavitud moderna, pero ahora a un coste base de $26 al mes.

El reportaje muestra fábricas modernas, visitadas por políticos alemanes, y que dan una primera sensación de condiciones dignas. Pero, al rascar un poco, se ve que no es así.

Los investigadores se dan cuenta que la presión por conseguir cuotas de producción, los salarios de miseria, y la forma de tratar a los trabajadores como si fueran esclavos siguen siendo una característica de este modo de producción.

Tras visitar a algunas trabajadores que viven en condiciones infra humanas, ellas cuentan que eso no es lo que esperaban cuando comenzaron en la fábrica. Ganan entre $23 y $35 al mes y no les da para nada, sólo para apenas subsistir. No se sienten humanas.

Cuando los reporteros les enseñan a las trabajadores lo que dice H&M en relación a su objetivo de pagar salarios dignos, y lo mucho que están trabajando en este sentido, las empleadas contestan atónitas que ojalá la marca sueca cumpliera la mitad de lo que dice, que con eso sería incluso suficiente.

El propio gobierno de Etiopía está tratando de “vender” su país como el más barato para producir, “la mitad de lo que se paga en Bangladesh”. Es una dinámica terrible, porque ya es difícil imaginar cuál será el próximo país que quiera “ganar” a Etiopía en salarios de miseria.

Cuando se le pregunta al responsable de la fábrica al respecto, dice que entiende que el salario que ganan los empleados no les permita llevar una vida digna, y ofrece la solución de incrementar la productividad. Vaya, incrementar todavía más la presión por las cuotas de producción, que conllevan desmayos, no poder ir al servicio, no cobrar si enfermas, insultarles, acoso sexual, prohibición de hablar entre ellos, trabajar horas extra permanentemente, etc.

Claro, los trabajadores, en este nuevo infierno disfrazado de fábricas de bonita apariencia, poco pueden hacer, más allá de quejarse a investigadores como estos. No tienen la capacidad de organizarse correctamente, en un casi inexistente movimiento sindical.

Tanto el Gobierno alemán, como H$M y Kik (las marca afectadas) dicen que investigarán lo que ocurre. Es la “respuesta tipo”,  la que ya tristemente conocemos tras décadas de explotación laboral

Todos los posts relacionados




(#432). BIG CHICKEN; EL PELIGRO DE LOS ANTIBIÓTICOS

[MONOTEMA] En Big Chicken, Maryn Mckenna cuenta con detalle la historia de cómo los antibióticos se introdujeron en la alimentación a finales de los años 40 del siglo pasado, primero en Estados Unidos, y luego en el resto del mundo, y han sido (y son) una de las principales causas de la que es probablemente la mayor amenaza para salud pública en la actualidad: la resistencia microbiana a estos medicamentos.

La autora comienza al libro hablando de un brote de Salmonella fuera de lo común en 2013 en el oeste de Estados Unidos, una bacteria cuyo origen estaba en un matadero de pollos y que además era resistente a una gran variedad de antibióticos: ampicilina, cloranfenicol, gentamicina, kanamicina, estreptomicina, sulfamidas y tetraciclina

La resistencia a los antibióticos es responsable de al menos 700000 muertes al año en todo el mundo, 25000 en Europa. En 2050 se predice que mueran 10 millones de personas al año. Las bacterias han evolucionado rápido, desarrollando defensas contra los antibióticos. La penicilina llegó en los años 40 y la resistencia en los 50, la tetraciclina en 1948 y la resistencia apenas 10 años más tarde, la eritromicina fue descubierta en 1952 y su resistencia llegó en 1955.  Es decir, la resistencia fue desarrollada desde el comienzo, pero ahora parece que lo hacen incluso más rápido.

No sólo el mal empleo de los antibióticos en humanos puede ser la causa de ello, sino su uso en animales, especialmente en países como Estados Unidos, donde hasta 2013 no había ninguna regulación, y se permitía dárselo a los pollos para hacerlos más grandes y musculosos en menor tiempo, además de protegerlos contra las enfermedades. Hoy un pollo de matadero pesa el doble que hace 70 años y llega a ese peso en la mitad de tiempo.

Los antibióticos comenzaron a añadirse a la comida animal a finales de los años 40, en el contexto del boom científico de la época, en el que parecía que todo lo que tenía un componente nuevo tecnológico era un signo del progreso que no se podía cuestionar. Pero muy pronto se alzaron voces en contra: primero algunos científicos aislados quienes fueron objeto de burla por dar la voz de alarma, luego pequeños comités, después importantes sociedades médicas, y finalmente los gobiernos. En Estados Unidos ese proceso duró más de 60 años.

Al comienzo, la penicilina se vendía sin regulación, no fue hasta 1951 cuando sólo se haría por prescripción médica. En aquella época se llegaron a vender pasta de dientes, lápices de labios, chicles…que llevaban este antibiótico.

En 1945, pocos meses antes de recibir el Nobel, Fleming decía lo siguiente:

La mayor posibilidad de mal en la auto medicación es usar dosis demasiado pequeñas, tal que, en lugar de acabar con la infección, los microbios son educados para resistir a la penicilina.

Entonces seguía advirtiendo que ese organismo adaptado podía pasar a otros individuos y expandirse:

En tal caso, la persona irresponsable que ha jugado con el tratamiento de penicilina es moralmente responsable de la muerte del hombre que finalmente sucumbe a la infección con el organismo resistente a la penicilina.

Pese a esas advertencias se seguía alimentando con antibióticos a millones de pollos en Estados Unidos, para promover su crecimiento. Se hicieron experimentos poco éticos con niños prematuros en Kenia, Guatemala, e incluso en Estados Unidos, y no mostraron efectos secundarios; es más, los promotores de crecimiento funcionaron, lo que fue un empujón más para su uso en animales.

En 1953 la FDA aprobó también el uso de antibióticos para proteger a los animales de enfermedades, es decir como uso preventivo. Si la dosis para hacerles crecer como promotores era de unos 10 g/kg, la dosis como preventores de enfermedades era de unos 200 g/kg. En 1955 la FDA aprobó el uso de antibióticos también como conservantes de la comida.

El empleo en todo tipo de animales se generalizó. En 1956, un estudio mostró que el 11% de las muestras de leche de los supermercados tenía penicilina, en cantidades que podrían servir incluso como medicina en humanos. Pese a que había un norma que estipulaba que los primeros litros de leche de las vacas se tiraran, la realidad es que no era así en muchos casos. Las máquinas para ordeñar habían hecho que se diera antibióticos a las vacas para evitar infecciones que no se producían cuando se les sacaba la leche de forma manual.

No sólo las infecciones por Salmonella se han incrementado en Estados Unidos, sino que esta bacteria es cada vez más resistente a los antibióticos. Las personas que pasan por esta enfermedad son luego más vulnerables a otras patologías, tienen más probabilidad de sufrir otros problemas de salud.  Las bacterias resistentes que se encuentran en las heces de los animales de granja se expanden sin control, por las aguas subterráneas, por las carreteras a través del transporte de esos animales, etc.

En 1999 la Unión Europea prohibió parcialmente varios promotores del crecimiento, y en 2006 prohibió todo uso antibiótico como promotor. Pero un estudio mostró que el total de antibióticos vendidos en Holanda no había cambiado en ese periodo, es decir, los productores habían renombrado los antibióticos que fabricaban, combiando las etiquetas de promotores de crecimiento a preventivos. Pero luego también se prohibió como uso preventivo, y en la actualidad sólo se pueden emplear por prescripción veterinaria. Esa prescripción se registra en una base de datos nacional, y no se pueden prescribir antibióticos que se emplean en humanos. En Estados Unidos, todavía hoy, se permite el uso preventivo con algunas limitaciones, aunque en países emergentes, como China, es está todavía muy lejos de las regulaciones que existen en Europa.

En conclusión, un libro muy esclarecedor sobre cómo se ha convertido un alimento en un producto industrial regido por las leyes del mercadeo, en lugar de por la lógica de la biología y de la salud. Una obra en la que también se pueden encontrar lecciones sobre alertas tempranas que no fueron escuchadas, y sobre acciones que se han tomado quizá demasiado tarde, desoyendo a científicos que sufrieron la mofa y el descrédito por ir en contra de la rueda aplastante del “más rápido y más barato”.

Todos los posts relacionados




(#431). ASTROFÍSICA PARA GENTE CON PRISAS

[MONOTEMA]  Esta obra del conocido físico Neil deGrasse Tyson es una lectura introductoria sobre algunos conceptos básicos de la astrofísica y la cosmología, que presenta de modo muy ameno y sencillo la belleza del cosmos, aunque esa fascinación por el universo vaya aparejada del reconocimiento de lo inhóspito que es para la vida humana.

En este mundo de alta velocidad, de 140 caracteres, de minutos contados en los debates, de la inmediatez de las redes sociales, de poca profundidad y mucha superficie, realizar una obra de este tipo tiene un éxito casi asegurado, porque casa muy bien con el perfil de las personas que viven en esa dinámica, como el hámster en la rueda, con consumidores voraces del “uso y tiro”.

Sin embargo, en mi opinión, deGrasse Tyson ofrece una pieza muy útil para motivar a niños (incluso a adolescentes), a adentrarse en el mundo de la ciencia. De este modo, para mí el título ideal hubiera sido “Astrofísica para niños sin prisas”.

Para los adultos, y ahí incluimos a los estudiantes universitarios, el libro muestra algunos detalles ciertamente interesantes que permiten a los lectores interesados en la ciencia en general sacar jugo, y disfrutar con una media sonrisa en la boca. Entre ellas, destacaría los siguientes:

1. Reconocimiento de nuestra ignorancia en ciertos aspectos fundamentales que relacionan la relatividad y la cuántica, como sobre qué ocurrió en los primeros instantes del universo, por debajo de la escala de Planck.

Tony Stark ya se lo advirtió al Capitán América en Vengadores Endgame cuando Rogers fue a convencerlo de que se podía viajar en el tiempo a través del mundo cuántico. Luego los guionistas estropearon el resto de la historia al hacerlo posible.

2. La incertidumbre que todavía tenemos para explicar qué es la materia y la energía oscura, lo que hace que dudemos del origen del 95% de la masa-energía del universo. DeGrass Tyson ofrece algunas respuestas, sí, refleja las posturas mayoritarias a nivel científico, pero reconoce que la respuesta definitiva está todavía lejos.

Personalmente, me resulta extremadamente curioso como los físicos abordan este tema; parten de la observación de unos efectos que se producen en el universo, que son ciertamente mensurables, y sobre ello postulan explicaciones (brillantes) que podrían concordar con los hechos. No obstante, ignoran el “mecanismo” causal exacto que los produce.

Sin embargo, algunos científicos que admiten esta forma de entender la ciencia, no actúan igual en otros ámbitos, como en la epidemiología, cuando hay un cuerpo de evidencia sólido que muestra efectos (desarrollo de enfermedades), pero no se conocen todavía con exactitud los mecanismos causales (algo habitual en enfermedades con etiología compleja). Entonces aquí, incluso a veces se atreven a hablar de pseudociencia, porque no se conocen completamente las causas. A primera vista parece, cuanto menos, incauto obrar así, a fin de cuentas (y salvando las distancias derivadas de las diferencias entre disciplinas), el procedimiento es el mismo, se parte de la observación de ciertos fenómenos, y luego se tratan de plantear las teorías que los pueden explicar, reconociendo todavía que faltan muchas piezas para completar el puzle.

3. La asombrosa interacción entre los elementos químicos, que deGrasse Tyson ilustra así:

¿De qué otra forma podríamos creer que el sodio es un metal venenoso y reactivo que puede cortarse con un cuchillo de mantequilla y que el cloro puro es un maloliente gas mortal, pero que mezclados producen cloruro de sodio, un inofensivo compuesto biológicamente esencial, mejora conocido como sal de mesa? ¿O qué tal el hidrógeno y el oxígeno? Uno es un gas explosivo y el otro favorece la combustión violenta, pero los dos combinados producen agua líquida que apaga incendios.

A mis estudiantes de marketing siempre intento hacerles ver lo importante que es este pensamiento acerca de la complejidad del mundo en el que tiene que trabajar (y vivir). La interacción que produce efectos “inesperados” en relación a los producidos por las variables a nivel individual es una característica más de los sistemas complejos, junto a la no linealidad, el retraso entre causa y efecto, la dependencia sensible, y tantas otras.

4. La humildad con la que hay que enfrentarse y valorar el conocimiento científico. El caso de la constante cosmológica propuesta por Albert Einstein, y que deGrasse Tyson explica con acierto, es un buen reflejo de ello. En algo menos de 100 años la constante cosmológica ha pasado de ser una propuesta de Einstein a la que él mismo renunció (tras no concordar con las observaciones sobre la expansión del universo que posteriormente reportaron otros físicos), a volver a resultar preceptiva para nuevos modelos del cosmos propuestos en la actualidad:

La energía oscura no está a la deriva, sin ninguna teoría que la ancle. La energía oscura habita uno de los puertos más seguros que podríamos imagina: las ecuaciones de la relatividad general de Einstein. Es la constante cosmológica. Es lambda. Sin importar lo que la energía oscura resulte ser, ya sabemos como medirla y cómo calcular sus efectos sobre el pasado, el presente y el futuro del cosmos.

5. El papel de la suerte en los descubrimientos científicos. Bueno, en realidad, no tanta suerte, sino que a veces ocurren hallazgos gracias al tesón, preparación y perspicacia de investigadores que, siguiendo el método científico, consiguen un resultado inesperado. Así, deGrass Tyson comenta el descubrimiento de la luz infrarroja por el astrónomo William Herschel, quien se preguntó qué temperatura tendrían los siete colores conocidos del espectro visible. Herschel, hábilmente, estableció un grupo de control (esencial para la realización de cualquier experimento), poniendo un termómetro fuera del espectro visible, adyacente al rojo, creyendo que no registraría una temperatura mayor a la del ambiente. Pero se equivocó (afortunadamente) y la temperatura registrada por ese termómetro era mayor incluso a la reportada por el colocado en el color rojo. Así, se empezó a descubrir una nueva parte del espectro electromagnético, la luz no visible, para darnos cuenta de nuevo de la cantidad de fenómenos físicos que nuestros sentidos no pueden percibir, pero que son reales.

En conclusión, un libro que merece la pena ser leído casi “en familia”, compartirlo con los hijos, animándoles a adentrarse en el mundo de la ciencia. Y también recomendable para profesores de primaria, para cuando les digan a sus alumnos que “somos polvo de estrellas”, no lo dejen ahí (como tristemente ocurre a veces), y les expliquen exactamente la razón de esa afirmación.

Todos los posts relacionados




(#430). ASOCIACIÓN ENTRE DISTANCIA A ANTENAS DE TELEFONÍA Y ELA

[REVISIÓN DE ARTÍCULO] En este estudio publicado en Environmental Research, los autores analizan la relación existente entre la distancia de exposición a antenas de telefonía móvil y el desarrollo de esclerosis lateral amiotrófica (ELA).

La ELA es una enfermedad rara neurodegenerativa que suele llevar a un desenlace fatal tan sólo 15-20 meses después del diagnóstico. Su etiología es desconocida, aunque se han propuesto varios factores ambientales como posibles causas, entre ellos los campos electromagnéticos artificiales.

El objetivo de esta investigación es evaluar la relación entre la exposición residencial a radiofrecuencia generada por las antenas GSM de telefonía y el riesgo de desarrollo de ELA.

Metodología

El estudio fue realizado en la región de Limusin, en la zona central de Francia, cubriendo 747 localidades, con un área de 16942 km2. Durante el periodo del estudio (2000-2012), la población total creció de 714012 a 738766 personas.

La incidencia de ELA en la región estudiada se estimó en 3.19/100000 personas/año de seguimiento, con una exhaustividad del registro del 98.4%. A esos casos de ELA se les identificó con una serie de variables añadidas: edad en el momento del diagnóstico, sexo, fecha del diagnóstico, fecha de inicio de los síntomas, dirección residencial en el momento del diagnóstico y año de muerte, entre otras.

Se registraron, asimismo, los datos sobre las antenas GSM, proveídos por la Agencia Nacional Francesa de Radio Frecuencias (ANFR): año de instalación, periodo operativo, geo-localización, orientación, frecuencia, e información técnica. Esas antenas emiten entre 900 y 2600 MHz. La exposición es inversamente proporcional a la distancia de la fuente, y proporcional a la potencia de la antena, que es evaluada en términos de la potencia isotrópica radiada equivalente (EIRP – PIRE, en español). Este valor de EIRP es calculado por el producto de la potencia proveída por la antena y el máximo de la ganancia de la antena relativa a una antena isotrópica.

Los parámetros técnicos usados en el modelo estuvieron basados en la guía técnica de la AFNR. Dependiendo de la distribución de antenas, el EIRP se estimó en 250 W en áreas urbanas y 500 W en áreas rurales. La máxima exposición se estimó en lugares situados a 300 m de la antena, con coberturas máximas de 1000 y 4000 m para áreas urbanas y rurales, respectivamente.

Se dividió la geografía en celdas de 50×50 m representadas por píxeles, cuya exposición se calcula usando la distancia del píxel a la antena y el ángulo de emisión (azimut), con una apertura de 120º. La emisión superpuesta de varias antenas se calculó usando una suma cuadrática. Los posibles clusters de ELA fueron analizados empleando el estadístico de Kulldorff.

Se analizaron dos modelos teóricos, uno acumulativo y otro no acumulativo. En el primero de ellos se computó la exposición acumulada censurando 3 años antes del diagnóstico. En el segundo de ellos se midió la exposición en periodo específico de tiempo independientemente de la exposición pasada.

Resultados

No se encontraron clusters espaciales de ELA. La exposición estimada tuvo un rango entre 0.00 y 2.81 V/m en el modelo de exposición no acumulada, y entre 0.00 y 6.75 V/m al año en el modelo de exposición acumulada. Para el 90% de la población, la exposición estuvo por debajo de 1.72 y 1.23 V/m en áreas urbanas y rurales, respectivamente, para el 90% de la población.

Tanto para el modelo de exposición acumulada como para el de exposición no acumulada existe un gradiente de riesgo, un patrón claro de incremento con la exposición a la intensidad de los campos electromagnéticos.

Limitaciones y comentarios

Los autores reconocen adecuadamente que su modelo teórico asume que las antenas GSM transmiten al mismo tiempo, continuamente y al máximo de potencia, lo que claramente sobre estima la exposición, lo que en realidad es una muestra de que esa asociación con la ELA se ha podido producir con intensidades menores aún de las reportadas. Es más, los investigadores sólo consideraron antenas unidireccionales, pero no omnidireccionales En Francia, los límites legales para GSM 900 MHz es de 41 V/m y para GSM de 1800 MHz es de 58 V/m, lo que indica lo alejado que esta la ley de la evidencia epidemiológica sobre riesgos.

También los autores admiten que, aunque por un lado sobre estiman la exposición a las antenas GSM, no tienen en cuenta la exposición individual a otras fuentes de radiofrecuencia, especialmente los propios teléfonos móviles de los individuos y el Wi-Fi. Esta es una limitación importante, porque es probable que haya gran variabilidad en la exposición, y no tenemos forma de saber si se ha distribuido aleatoriamente entre los grupos de casos estudiados.

Los autores son prudentes a la hora de hablar de causalidad, y hacen bien en ser cautos. Admiten que este tipo de estudios en los que los factores de confusión pueden ser muy variados son más útiles para generar hipótesis que para dar una respuesta definitiva sobre la asociación. Sin embargo, la evidencia encontrada en algunos estudios sobre exposición a campos electromagnéticos de baja frecuencia, el patrón de respuesta a la dosis, y la tendencia en el incremento de riesgo son factores importantes a considerar para llegar a una de las conclusiones que comentan los autores, y es que en personas con susceptibilidad, los campos electromagnéticos en la banda usada para las comunicaciones inalámbricas podrían estimular la neurodegeneración.

LEE EL ARTÍCULO ORIGINAL AQUÍ:

Luna, J. (2019). Residential exposure to ultra high frequency electromagnetic fields emitted by Global System for Mobile (GSM) antennas and amyotrophic lateral sclerosis incidence: A geo-epidemiological population-based study. Environmental Research, doi: 10.1016/j.envres.2019.108525

Indicadores de calidad de la revista*

Impact Factor (2017) Cuartil Categoría
Thomson-Reuters (JCR) 5.026 Q1 ENVIRONMENTAL SCIENCES
Scimago (SJR) 1.567 Q1 ENVIRONMENTAL SCIENCES (MISCELLANEOUS)

*Es simplemente un indicador aproximado de la calidad de la publicación

Todos los posts relacionados




(#429). LA UNIVERSIDAD PÚBLICA EN VENTA

[MONOTEMA] En este nuevo episodio de Doble Cara he tenido la oportunidad de exponer la problemática de la progresiva mercantilización de la educación en las universidades públicas.

Partiendo de las causas de esta tendencia, cuyos orígenes en Estados Unidos tienen un punto de inflexión a comienzos de los años 90, he realizado un paralelismo con el caso español, que tristemente está copiando ese modelo que prima la participación de corporaciones privadas.

De la mano de Antonio J. Mayor, hemos hablado de la deuda millonaria de los estudiantes norteamericanos, por un sistema en el que los precios de la educación universitaria se han incrementado en más del 1000% en los últimos 40 años, y donde las corporaciones y millonarios mecenas financian unos servicios que deberían ser cubiertos por el Estado. Obviamente, mostramos ejemplos de cómo esa financiación no es gratis, y esos agentes privados intentan interferir en la autonomía de las universidades, convirtiendo estas en un mero instrumento de relaciones públicas más. De especial interés es el caso de Nike en la Universidad de Oregón, del cual hemos mostrado ejemplos concretos de cómo ha ejercido su poder e influencia.

En España, la situación se va pareciendo cada vez más al modelo norteamericano: reducción de la financiación pública, incremento de las tasas, empleo precario, aumento de la participación de corporaciones privadas. Así, las universidades públicas compiten por la obtención de donaciones privadas, que en muchas ocasiones se edulcoran con el concepto de mecenazgo (como las cátedras), pero que no son más que patrocinios encubiertos, por los cuales la universidad pública se convierte en una plataforma de comunicación de marketing para las corporaciones privadas, a la vez que adquiere un estatus de “producto de lujo” para la mayoría de los bolsillos de los ciudadanos.

Todos los posts relacionados  




(#428) TEORÍA DE PROBABILIDAD E INFERENCIA ESTADÍSTICA SEGÚN ARIS SPANOS (IIc)

[MONOTEMA] Seguimos con la tercera parte del segundo capítulo de: Probability Theory and Statistical Inference, de Aris Spanos. Tras explicar la estructura básica de un modelo estadístico simple, y lo que es una muestra aleatoria, continuamos avanzando en el desarrollo de conceptos fundamentales.

Experimento aleatorio

Un experimento aleatorio  se define como el mecanismo de incertidumbre que satisface las siguientes condiciones:

a) Todos los posibles distintos resultados son conocidos a priori.

b) En cualquier ensayo el resultado no se conoce a priori, pero existe una discernible regularidad de ocurrencia asociada con esos resultados.

c) Puede ser repetido en idénticas condiciones.

Sobre esta definición vemos que, por ejemplo, cualquier dato que obtengamos de un jugador de baloncesto no es un experimento aleatorio, porque falla en la condición c), es decir, no puede ser repetido en idénticas condiciones, como cuando tiramos una moneda o lanzar un dado. Cuando contamos con los llamados “datos observacionales”, no tenemos un experimento aleatorio, pero eso no indica que no se pueda proponer un modelo estadístico. La distinción con un experimento aleatorio es, sin embargo, preceptiva.

Evento

Un evento es una afirmación en relación a un experimento aleatorio por la cual lo único que importa es su valor de ocurrencia, es decir, si en un particular ensayo ha ocurrido o no. En general, los eventos se forman combinando resultados elementales. Por ejemplo, al tirar 2 monedas el conjunto de resultados es:

donde H es una cara y T es una cruz.

Un evento A podría ser, por ejemplo, obtener al menos una cara:

Como puede apreciarse, un evento es un subconjunto del conjunto de resultados posibles del experimento.

Field

Definimos como “field” (campo) – seguiremos empleando por conveniencia el vocablo inglés-, a una colección  de subconjuntos de S, cuando se satisfacen las siguientes condiciones:

(i)

(ii) Si

(iii) Si  

Esto indica que el campo no está vacío y que es un conjunto cerrado bajo complementación, unión e intersección finitas. Es decir, si A, B son eventos, cualquier evento que surja de la combinación de ambos será un elemento del mismo espacio.

σ-field

Una colección  de subconjuntos de S es un σ-field si satisface:

(i)

(ii) Si

(iii) Si

Que es una generalización de la definición anterior de campo. Cuando un σ-field se define en la recta real se llama un σ-field de Borel.

En consecuencia, hemos definido un espacio de eventos, un concepto fundamental dentro del hilo conductor del desarrollo de Spanos.

Concepto de función

Una función es una relación entre los conjuntos A y B, que satisface la restricción de que para cada  existe un único elemento  tal que . Los conjuntos A y B son, respectivamente, el dominio y el co-dominio de la función .

El conjunto es el grafo de la función.

Una relación R entre los conjuntos A y B es cualquier subconjunto del producto cartesiano , donde es el conjunto de todos los pares ordenados .

Recordemos que Spanos definía una variable aleatoria como una función entre un conjunto de todos los posibles resultados y un conjunto de números de la recta real.

Noción matemática de probabilidad

Es una función  del espacio de eventos hacia números reales entre 0 y 1.

si se satisfacen los siguientes axiomas:

[1]

[2] 

[3]

Espacio probabilístico

Un espacio probabilístico es el compendio de donde e sun conjunto de resultados, e sun espacio de eventos asociados a , y es una función de probabilidad que cumple los axiomas [1]-[3].

Espacio muestral

Un espacio muestral  es una secuencia de n ensayos denotados por  donde  representa el iésimo ensayo del experimento asociado con el espacio de probabilidad producto .

Al conjunto se le llama espacio estadístico simple, un caso particular del más general espacio estadístico .

Este esfuerzo inicial por definir conceptos esenciales, nos ayudará a entender mejor  el Capítulo III.

Todos los posts relacionados




(#427) TEORÍA DE PROBABILIDAD E INFERENCIA ESTADÍSTICA SEGÚN ARIS SPANOS (IIb)

[MONOTEMA] Expondremos aquí la segunda parte del segundo capítulo de: Probability Theory and Statistical Inference, de Aris Spanos. Tras explicar la estructura básica de un modelo estadístico simple, continuamos avanzando en el desarrollo de conceptos fundamentales.

Muestra aleatoria

Una  muestra aleatoria asume dos características fundamentales: independencia e idéntica distribución.

Las variables aleatorias son independientes si la probabilidad de ocurrencia de cualquiera de ellas no influye y no ha sido influida por la ocurrencia de cualquier otra del conjunto.

La idéntica distribución se da cuando sus funciones de densidad son iguales, es decir:

Spanos va muy despacio introduciendo todos estos conceptos, que posteriormente serán desarrollados con más detalle.  Por eso, nosotros vamos a ir también de la mano del autor, comentando ejemplos sencillos.

Cojamos de nuevo a Kemba Walker y sus puntos por minutos en los 82 partidos jugados en 2018/19, y vamos a generar 4 muestras aleatorias de 60 observaciones cada una. Para ello hemos empleado el generador de números aleatorios de XLStat, que se puede integrar en Excel. Una vez que se han generado las 4 muestras, las llevamos a Maxima para su gestión gráfica:

kill (all);
data:read_matrix(file_search("RUTADELARCHIVO.txt"));
datatranspose:transpose(data);
walker1:datatranspose[1];
histogram (
walker1,
nclasses=11,
frequency=density,
xlabel="Espacio muestral",
ylabel="Densidad de probabilidad",
fill_color=green,
fill_density=0.5);
kill (all);
data:read_matrix(file_search("RUTADELARCHIVO.txt"));
datatranspose:transpose(data);
walker2:datatranspose[2];
histogram (
walker2,
nclasses=11,
frequency=density,
xlabel="Espacio muestral",
ylabel="Densidad de probabilidad",
fill_color=green,
fill_density=0.5);
kill (all);
data:read_matrix(file_search("RUTADELARCHIVO.txt"));
datatranspose:transpose(data);
walker3:datatranspose[3];
histogram (
walker3,
nclasses=11,
frequency=density,
xlabel="Espacio muestral",
ylabel="Densidad de probabilidad",
fill_color=green,
fill_density=0.5);
kill (all);
data:read_matrix(file_search("RUTADELARCHIVO.txt "));
datatranspose:transpose(data);
walker4:datatranspose[4];
histogram (
walker4,
nclasses=11,
frequency=density,
xlabel="Espacio muestral",
ylabel="Densidad de probabilidad",
fill_color=green,
fill_density=0.5);

Como se puede apreciar, las distribuciones son prácticamente idénticas. Pero, ¿qué sucedería ahora si escogemos una muestra no aleatoria? Lo comprobamos a continuación seleccionando los primeros y últimos 60 partidos.

Y aquí podemos ver dos fenómenos curiosos. En primer lugar, que la selección no aleatoria de los primero 60 partidos se distribuye de forma similar a las muestras aleatorias anteriores. Y en segundo lugar, que la selección no aleatoria de los últimos 60 partidos refleja un cambio ostensible en la forma de la distribución de datos.

Las consecuencias que tienen las dos últimas figuras las iremos comentando más adelante. Pero ya advertimos un corolario preliminar: Una muestra no aleatoria puede distribuirse igual que una aleatoria o no.

Sin embargo, además, hemos de ser conscientes de que muestras aleatorias de tamaños diferentes pueden diferir en su apariencia. Por ejemplo, si ahora seleccionamos 2 muestras aleatorias de 30 observaciones, obtenemos lo siguiente:

Esa apariencia es diferente de la mostrada cuando se escogían 60 observaciones.

Hay que tener en cuenta de que estamos hablando de distribuciones muestrales, y que en la definición de Spanos no se pretende ir más allá de los conceptos de independencia e idéntica distribución de las variables aleatorias.

Y es aquí donde quizá aparezca la confusión, porque Spanos en la página 33 habla sobre una única variable aleatoria X, mientras que en la página 38 especifica un conjunto de variables aleatorias. En realidad, en el ejemplo del rendimiento del jugador de baloncesto, los puntos por minuto es una única variable aleatoria que se distribuye de una determinada forma. Una muestra aleatoria de esa varibale requiere que todas las observaciones tengan la misma probabilidad de ser seleccionadas. Las diferentes muestras aleatorias que se puedan recoger deberán ser también independientes, y esas muestras serán a su vez variables aleatorias que idealmente se distribuirán de forma equivalente.

Sí, quizá estamos adelantando conceptos, pero es necesario hacerlo para manejarnos en esta complejidad técnica.

Seguiremos con la tercera parte de este segundo capítulo en posteriores posts.

Todos los posts relacionados