(#4). MANZANAS CANCERÍGENAS

[MONOTEMA] Hace unas semanas, repasando una de mis webs favoritas sobre entrenamiento y nutrición, www.bayesianbodybuilding.com, tropecé con esta historia que el bueno de Menno Henselmans, reputado entrenador y al que tengo cierto aprecio, comentaba.

Se trata del célebre caso de las manzanas tóxicas en Estados Unidos, conocido como “The Alar Scare”, en referencia al temor que sufrió la sociedad norteamericana en 1989 cuando en un programa de televisión de la CBS se anunciaba que las manzanas tenían un aditivo tóxico, denominado “Alar”, que las hacía cancerígenas.

Henselmans, brevemente explica cómo se creó una alarma nacional basada en una mentira; que ese componente de las manzanas provocaba cáncer, siendo los niños el grupo de mayor riesgo. Incluso la actriz Meryl Streep públicamente se posicionó al respecto. Las pérdidas para los productores de manzanas fueron millonarias, y ese producto químico dejó de ser utilizado por la presión social. Muchas voces en ese momento y años más tarde se alzaron para denunciar que esa campaña de miedo había sido injustificada. Henselmans concluye su artículo enlazando este texto, bajo la etiqueta de “Full history” (historia completa). El problema, es que esa no es, realmente, la historia completa:

La versión de Rosen

Rosen (1990) explica de esta manera los hechos: Ese producto se empleaba habitualmente en la industria para hacer que las manzanas no se cayeran tan pronto del árbol, y así  que su color fuera más rojizo y, por ende, más atractivo para la gente. Además, según Rosen, también alargaba la conservación de la fruta. Realmente, el peligro del Alar viene del 1% de UDMH (unysimmetrical dimethylhydrazine), que ya en la década de los 70 había sido relacionada con cáncer en ratones. Como el calor acelera la hidrólisis del Alar a UDMH, aproximadamente un 5% de residuo de Alar se convierte en UDMH en zumos de manzana, es decir, los zumos contenían 5 veces más tóxico que las propias manzanas. LaEnvironmental Protection Agency (EPA), que es la Agencia de Protección del Medio Ambiente en Estados Unidos y cuya misión es “proteger la salud de los seres humanos y el medio ambiente” se preocupó por esos resultados, y pidió nuevos estudios para revisar el riesgo de ese tóxico. Sin embargo, un panel de expertos del Federal Insecticide, Fungicide and Rodenticide Act (FIFRA) dictaminó que había fallos en ese estudio al que la EPA aludía para profundizar más sobre este tema, por lo que no había evidencia suficiente para cuestionar el uso del Alar tal y como se estaba haciendo hasta ese momento. Se argumentaba que se había dado tanta dosis de tóxico a los ratones (29 miligramos por kilogramo de peso corporal) que es probable que fuera esa intoxicación por “cantidad” lo que hubiera provocado los tumores, por lo que no se podía inferir que una dosis menor produjera enfermedades. Aunque la FIFRA dependía de la EPA, curiosamente prevaleció su criterio, aunque bien es cierto que la EPA pidió a cambio a la empresa propietaria (Uniroyal) que se hicieran controles periódicos y nuevos estudios. Según Rosen, ninguna de las subsiguientes investigaciones realizados en ratas y ratones arrojó resultados significativos: Los ratones no desarrollaron tumores a la máxima dosis estimada que podían tolerar sin que se volviera intrínsecamente tóxica (2.9 mg/kg/día), que Rosen indica que es 35000 veces mayor que lo que un niño ingeriría diariamente al comer manzanas.

Pero la EPA tomó los datos de la incidencia de cáncer en ratones en dosis más elevadas (23 mg/kg/día), que generaban tumores, pero que los responsables de esos estudios consideraban que era una cantidad inadmisible a nivel toxicológico, y que ello era la causa, además, de la muerte prematura de 80% de los ratones. La EPA concluyó que, dados esos resultados en ratones, en humanos habría un riesgo de 45 cánceres producidos por 1 millón de personas expuestas. Como la EPA prohíbe cualquier uso de un químico en la agricultura que exceda el riesgo de 1 cáncer por millón de individuos expuestos, decidió que en poco más de un año a partir de ese momento (febrero de 1989) el Alar tenía que desaparecer de las manzanas.

Para añadir más fuego al asunto, el Natural Resources Defence Council (NRDC), que es una ONG en defensa del medio ambiente, de cierta influencia en Estados Unidos, indicó que el riesgo era mayor que el que había estimado la EPA, hasta 240 cánceres por millón de niños consumidores medios de manzanas. Según Rosen (1990), la NRDC empleó los datos del estudio que la FIFRA había anteriormente criticado. Además, cambio el modelo matemático de análisis (pasó de un modelo independiente del tiempo a uno dependiente del tiempo, es decir, que suponía que la exposición tóxica en los primeros años de vida es proporcionalmente más importante que en los siguientes), y no estimó correctamente el consumo de manzanas en Estados Unidos. Esas eran las causas de las diferencias en la estimación de riesgo entre NRDC y EPA. Para más inri, otro estudio del California Department of Food and Agriculture (CDFA), analizó de nuevo los datos de las investigaciones de Uniroyal, pero con supuestos menos restrictivos que la FDA, concluyendo que existía un riesgo en el peor de los casos de 2.6 casos de cáncer por millón, un riesgo que, según Rosen (1990), podría reducirse fácilmente a los niveles permitidos de 1 por millón tan sólo eliminando el uso del Alar en las manzanas destinadas al zumo.

La campaña mediática
La NRDC contrató a la agencia de relaciones públicas Fenton Communications, que además estaba (y está todavía) especializada en casos de este tipo, es decir, de alta sensibilidad social que contribuyan a hacer “el mundo mejor”. La agencia ofreció una exclusiva al programa de la CBS 60 minutes, y el 26 de febrero de 1989 el periodista Ed Bradley encendió la mecha de una hoguera de temor, que se prolongó con posteriores ruedas de prensa y eventos organizados por Fenton Communications. El congresista Jerry Sikorski y la actriz Meryl Streep contribuyeron decisivamente a que el mensaje se diseminara de forma contundente: Las manzanas están envenenado a los niños americanos. Apenas 3 meses después, Uniroyal dejó de emplear Alar, ante la caída de las ventas de manzanas y la presión social.

 
Joseph D. Rosen es actualmente (desde 2011) profesor emérito de ciencia de la alimentación en la Universidad de Rutgers, en el Estado de Nueva Jersey. Es conocida su postura “escéptica” sobre los beneficios de la comida ecológica. Rosen, en 1990, y cuando todavía desempeñaba sus labores regulares en Rutgers, publicó el siguiente artículo, el cual se toma como referencia por los que defienden que el caso Alar fue algo así como una escándalo desproporcionado no justificado por la evidencia científica.

Rosen, J. (1990). Much Ado about Alar.  Issues in Science and Technology, 8 (1), 85-90.

 
La otra parte de la historia
Hasta aquí la versión que podíamos llamar “aceptada” de los hechos. Sin embargo, indagando un poco más nos encontramos que se pueden hacer ciertos matices.

En 1996, el periodista Elliott Negin, escribió este artículo en el revista Columbia Journalism Review. Negin, además de resumir de nuevo los hechos, indica que, por ejemplo, en 1990 un grupo de productores de manzanas de Washington demandó al programa de la CBS por 250 millones de dólares por falsedad en la información, y los consiguientes perjuicios económicos provocados. Sin embargo, en 1994, los juzgados dictaminaron que la demanda no prosperaba porque no habían podido demostrar la falsedad de la información dada en el programa de televisión. Los productores de manzanas apelaron, pero al año siguiente la respuesta de la corte fue la misma. 

Elisabeth M. Whelan, presidenta por aquel entonces del American Council on Science and Health (ACSH), escribió una carta a Negin arremetiendo contra su postura, ya que según Whelan sólo la EPA había defendido que el Alar fuera un peligro para la salud pública.

Negin, respondió que, además de la EPA, otras organizaciones habían indicado que el UDMH era cancerígeno, como la National Toxicology Program of the U.S. Publich Health Service, y la American Academy of Pediatrics. También la Organización Mundial de la Salud. Negin, además, acusó a Whelan de ser poco objetiva, ya que la ACSH, organización que ella presidía, estaba financiada por Uniroyal, entre otras empresas de la industria química.

Siendo justos, lo que tampoco dice Negin, es que él es un  activista por la defensa del medio ambiente. Obviamente esto no es nada deshonroso, ni por supuesto tiene porqué poner en duda sus postulados, pero es preceptivo indicar que el periodista pertenece actualmente a la Union of Concerned Scientist, una entidad no lucrativa en defensa del medio ambiente formada, entre otros, por varios científicos norteamericanos.

Pero Negin estaba en lo cierto. Y si nos remitimos a este informe de la National Toxicology Program (NTP), el UDMH es un “razonablemente anticipado cancerígeno para los humanos”,  siendo la primera evidencia sobre ello de 1985, es decir, cuatro años antes de que el escándalo mediático se produjera. Los estudios experimentales realizados con animales, han mostrado suficiente evidencia de ello, según la NTP.

Conflictos de intereses
La comentadas recriminaciones de Negin a Whelan, sobre la parcialidad de la ACSH debido a los conflictos de intereses derivados de su financiación no fueron gratuitos. Años más tarde, en 2013, la revista Mother Jones, por medio de Andy Kroll y Jeremy Schluman, hacía público el informe de financiación de ACSH, el cual se puede ver en su totalidad.

Empresas como McDonald’s, Coca-Cola, Chevron, Dr. Pepper, Procter & Gamble, Texmark Chemicals o American Petroleum, estaban entre los benefactores de ACSH. Por otro lado, el artículo comenta que Gilbert Ross, el actual director ejecutivo de ACSH fue anteriormente condenado a 46 meses de cárcel, de los que cumplió 23, por fraude al programa Medicaid en el Estado de Nueva York. Aquí está la respuesta de la ACSH ante el fraude de Ross.

El artículo aparecido en Mother Jones sobre la financiación de ACSH, desde luego, no tiene desperdicio, y es totalmente esclarecedor acerca de donde proviene gran parte de los fondos sobre los que la ACSH se sustenta.

La contra-campaña mediática
Si, como hemos dicho, la NRDC contrató a la agencia Fenton Commuications, poco tiempo después la ASCH hizo lo propio con la agencia Hill & Knowlton, con el fin de realizar anuncios con el mensaje de que los niños tenían que comerse algo así como un camión lleno de manzanas para que estuvieran en peligro, tal y como explica este informe de la Environmental Working Group, realizado en 1999, y que, por cierto, está en línea con la “otra parte de la historia” que acabamos de relatar.

En su labor de contrarrestar la información aparecida contra sus intereses, la ASCH lleva desde entonces enviando mensajes sobre la injusticia que se cometió con el Alar ante la falta de evidencia científica. El vídeo que enlazo debajo es una buena muestra de ello.

 
 
Y ciertamente, han hecho bien su trabajo, porque el caso Alar es percibido desde muchos estamentos como  el triunfo de la pseudociencia y el marketing sobre la ciencia seria y objetiva. Pero la otra cara de la historia existe, aunque muchas personas no se hayan percatado de ello.
Problemas metodológicos

El manuscrito de la Environmental Working Group hace énfasis en los problemas metodológicos que se derivan de intentar encontrar un efecto tan pequeño en muestras que son, a su vez, pequeñas. Obviamente, los investigadores no emplean decenas de miles de ratones para sus experimentos, sino muchos menos. El concepto de tamaño de efecto es bien conocido en estadística, y está ligado a la potencia del contraste, a la variabilidad de los datos y al tamaño de la muestra.

Por ejemplo, podemos simular con Stata el tamaño de muestra necesario para descartar estadísticamente que no existe un caso de cáncer entre 1 millón de exposiciones en la población. Esa muestra debería ascender a alrededor de 3.8 millones de ratones, con un intervalo de confianza de una cola del 97.5%. Es decir, si con 3.8 millones de ratones no tenemos ningún caso de cáncer, entonces podremos decir que sobre una hipotética población infinita de ratones no habrá 1 cáncer entre 1 millón de ellos. Eso sí, “sólo” hasta un máximo de unos 25000 ratones y un caso de cáncer podríamos decir al 95% de confianza que habrá  más de 1 cáncer en la población. Dicho de otro modo, si en una muestra de 25000 ratones o menos sale un caso de cáncer, entonces al 95% de confianza podríamos decir que no se descarta que haya más de 1 entre 1 millón en la población. Pero si no obtenemos ninguno en esa muestra de 25000, no tendríamos potencia estadística suficiente para decir que no hay peligro de que haya 1 caso entre 1 millón en la población. Para poder decir eso, como he explicado, harían falta varios millones de ratones como muestra. Estas números podrían variar ligeramente dependiendo del procedimiento empleado para su cálculo y de la potencia requerida, pero a grandes rasgos las cifras irían por ahí.

Como esto es, obviamente, irrealizable en la práctica, se estudian muchos menos ratones y se les incrementa la dosis. Muchas veces esas dosis están muy por encima de lo que un humano ingeriría en un día, pero es la única forma práctica de inferir cuál sería el efecto de dosis más pequeñas. No es objetivo de esto post discutir acerca de la idoneidad de este procedimiento, podríamos dejarlo para el futuro, si os parece.

La cuestión de fondo
No debe olvidarse que estamos hablando de un producto químico que, en definitiva, pretende que las manzanas tengan un color más atractivo para que parezcan más apetecibles. Ni aporta valor nutritivo, ni lucha contra las plagas. Sin pretender ser demagógico una cuestión es ineludible: ¿Merece la pena tener el riesgo de que aunque sólo sea 1 niño entre 1 millón padezca cáncer por añadir un producto de este tipo a las manzanas?

 
Conclusión
Desde hace muchos años la industria química se ha esforzado por ser nuestra amiga. Cierto es que gran parte de sus avances nos han mejorado ostensiblemente la calidad de vida. Pero también lo es que, a veces, alguno de sus productos ha resultado ser un pésimo compañero de viaje.

appleseed-shell-100
Para acercarse a nosotros ha empleado las herramientas de marketing. Al fin y al cabo, como reza este antiguo anuncio de Shell, sus productos permiten que la manzana se recolecte sólo donde “Juanito Manzanas” (Johnny Appleseed) las dejó. Y quién mejor para hablar de manzanas que este pionero americano que diseminó semillas por medio país entre finales del siglo XVIII y la primera parte del siglo XIX.

El “caso Alar” es un excelente ejemplo de cómo la industria química interacciona con la sociedad, a nivel de consumidores, agencias  gubernamentales, organizaciones no lucrativas en defensa del medio ambiente, organizaciones que defienden los intereses de la industria, científicos, periodistas, agencias de publicidad y medios de comunicación.

Este caso es complejo, porque tiene derivaciones éticas, económicas, estadísticas, y de salud pública. Y merece la pena reflexionar sobre él de la manera más aséptica posible.

Todos los posts relacionados




(#3). HEZONJA Y LAS PREDICCIONES ESTADÍSTICAS

[MONOTEMA] Pues llegó el siguiente partido de Hezonja tras su actuación extraordinaria, cuatro días después, y frente al Real Madrid en Euroliga, con triunfo del equipo blanco por 97-73.

Como dije en el pertinente post, hiciera lo que hiciera Hezonja hoy no entraría en contradicción con los resultados de los análisis agregados. Para cuestionar esos resultados harían falta tomar una muestra de decenas o centenares de partidos más y hacer una comparación. Por eso las predicciones de eventos específicos son tan “ambiguas”.  Merece la pena detenerse brevemente en esto para que quede claro:

Por ejemplo, cuando Goldman Sachs predijo que Brasil tenía un 48.5 % de probabilidad de ganar el Mundial de Fútbol de 2014 y Alemana un 11.4%, su predicción debe interpretarse de la siguiente manera: Si el Mundial 2014 se repitiera cientos de veces, y si el modelo estadístico es válido y la predicción es buena, entonces Brasil ganaría alrededor del 48.5% de las ocasiones y Alemania alrededor del 11,4%. Como el Mundial, obviamente, sólo se puede jugar 1 vez, no tenemos información suficiente para valorar correctamente la predicción de Goldman Sachs. Algunos más atrevidos podrían concluir que no era una buena predicción, pero desde luego yo no llegaría nunca a esa conclusión con sólo estos datos. Tal vez habría que valorar decenas de predicciones de Goldman Sachs y ver en cuántas de ellas ha acertado. Con esto tendríamos un mejor criterio para valorar sus próximos modelos.

 
Volviendo al baloncesto y a Hezonja, y teniendo en cuenta lo que acabo de comentar sobre lo poco apropiado que es ir valorando los modelos predictivos con sólo una predicción particular, dejo por curiosidad la comparación entre el partido del 1 de febrero (el de los 8 triples sin fallo) y el de hoy. La diferencia de calidad entre los equipos rivales era innegable, aún así, Hezonja ha hecho hoy un muy buen partido, pero desde luego no al nivel del partido del domingo.

Como se derivaba de las conclusiones de mi artículo, Hezonja ha jugado un 23% más que el otro día y ha acaparado un 20% más de juego. Era lo esperable (lo que los datos nos decían) después de haber jugado tan extraordinariamente bien el partido anterior. Y aunque ha anotado casi los mismos puntos  (22 frente a 24), conviene siempre normalizar esas variables de rendimiento, es decir, pasarlas a una misma escala. Recordemos que en el artículo se analizaban los Ptos/min y el WinScore/min. Al realizar esta operación vemos claramente como el rendimiento hoy ha sido sensiblemente peor: Los puntos por minuto han bajado un 25%, la valoración un 64% y el WinScore un 80%.
Aún así, siguen siendo unos números muy buenos para el jugador en comparación con los que había obtenido hasta ahora en ACB y Euroliga, y hemos de esperar al final de la temporada para calcular los percentiles y hacer los análisis correctamente. De esta manera, valoraríamos si este partido está o no en un percentil alto (lo más probable es que sí).

Por tanto, y aunque aparentemente las conclusiones de mi artículo parecen concordar en buena medida con el partido que ha hecho hoy Hezonja, no es preceptivo ni adecuado evaluarlas ahora. Dicho de otro modo: Las predicciones basados en mi investigación podrían ser muy malas y hoy  particularmente haber acertado, o ser muy buenas y hoy particularmente haber fallado.  Sólo a largo plazo y tras muchas predicciones se puede valorar con mayor propiedad si un modelo es mejor que otro. Si nos acostumbramos a pensar siempre en estos términos cuando está la estadística de por medio, entenderemos mejor el mundo de la investigación.

Todos los posts relacionados




(#2). REVISIÓN DE LIBRO: OVERPOWERED

[MONOTEMA]No está científicamente demostrado que la radiación de los teléfonos móviles, antenas, o líneas eléctricas sea perjudicial para la salud”.

Esta frase es una especie de mantra que hemos escuchado muchísimas veces, ya sea por parte de la industria, por parte de parte de la comunidad científica, o por parte de muchos móvil-adictos, y apasionados de la tecnología que no pueden pasar ni dos minutos seguidos sin consultar  el “wasap”.

Pero cualquiera que haya indagado un poco en la literatura académica sobre este tema, se habrá dado cuenta de que esa frase con la que comienzo este post es una falacia.

En esta entrada de hoy voy a hacer una breve revisión del reciente libro del Dr. Martin Blank: Overpowered: The Dangers of Electromagnetic Radiation (EMF) and What You Can Do About It., publicado en 2014, y que trata este tema con una gran claridad y sencillez. Para ello,  primeramente, realizaré una pequeña introducción sobre el autor y sobre las características esenciales de la radiación electromagnética.

El autor: Martin Blank

 
Este veterano investigador, que se retiró en 2011 como profesor de la Universidad de Columbia, posee dos doctorados, uno en química física (1957) y otro en ciencia coloidal (1960), por la Universidad de Cambridge. Ha publicado más de 200 artículos en revistas académicas, y 12 libros sobre las propiedades eléctricas de los sistemas biológicos. Además ha sido presidente de la Sociedad Biolectroquímica y de la Sociedad Bioletromagnética. entre otros cargos.

Un resumen de su curriculum puede consultarse aquí. Blank es todo un experto en los efectos de la radiación electromagnética sobre la salud,  y desde luego es una voz autorizada en esta materia que conviene, al menos, escuchar.

 
La radiación electromagnética (explicación no técnica)
 En palabras muy llanas, podríamos definir la radiación electromagnética como una fuerza de acción a distancia que proviene de la emisión de fotones (partículas sin carga y sin masa), por parte de una fuente radiante, que puede ser un cable por el que circula una corriente eléctrica, un imán, el sol, una bombilla, una antena de radio, un radar, el Uranio, un electrón desacelerado (caso de los Rayos X), un horno microondas, un ser humano, etc. Todo cuerpo por encima de los 0 grados Kelvin emite radiación. La materia oscura, sin embargo, no. La luz visible es una forma de radiación electromagnética; la luz se compone de fotones, y esos fotones tienen una naturaleza dual: onda-partícula. Es por ello que no conviene separar ambos términos, siendo ésta una de las bases, por ejemplo, de la física cuántica (como la dualidad también del electrón, demostrada en el célebre experimento de la doble rendija).

Esos fotones viajan en forma de ondas (aunque no siempre), que pueden tener distinta frecuencia-longitud de onda. A mayor frecuencia, menor longitud de onda, y viceversa, ya que el producto de ambas variables es constante. Esas ondas no necesitan ningún medio para propagarse, a diferencia de las ondas mecánicas, como por ejemplo una ola de mar o el sonido. La unidad en la que se mide la frecuencia en el Sistema Internacional es el Hercio (Hz).

Gracias al físico Max Plank y su famosa ecuación, sabemos que la energía asociada a un fotón es proporcional a la frecuencia de la onda, por lo que a mayor frecuencia mayor va a ser la energía, es decir, esa radiación va a poder realizar un mayor trabajo. Ese “trabajo” de la radiación electromagnética puede hacer que un electrón salte de un átomo (como en el efecto fotoeléctrico), por lo que puede ionizar, es decir, ir dejando átomos y moléculas por el cuerpo con carga negativa. Esos átomos y moléculas quedarían entonces “con muchas ganas” de estabilizarse, es decir, de pegarse a otros átomos y moléculas para volver a un estado eléctricamente neutro. Además, esa radiación, si es lo suficientemente energética puede romper las moléculas de ADN, por lo que puede matar a las células.

Las radiaciones que tienen energía suficiente para ionizar tienen frecuencias muy altas, y van desde los rayos UV del Sol, pasando por los rayos X y los rayos Gamma. Existen otras fuentes de radiactividad que no fotones, sino partículas con masa, como las Alfa (núcleos de Helio), las Beta o los neutrones.

 
La radiación no ionizante, que tiene su límite precisamente en los rayos UV es la que ocupa a la mayoría de objetos radiantes con los que interactuamos diariamente.
Las frecuencias más altas las ocupan los rayos UV, seguida por la luz visible y los infrarrojos. Después, tenemos toda la gama de frecuencias en las que emiten los radares antenas de radio, antenas de telefonía móvil, teléfonos móviles, Wi-Fi, microondas, teléfonos inalámbricos, vigila bebés,  monitores de ordenador, electrodomésticos y cables eléctricos. Así, por ejemplo, los cables de las líneas de alta tensión y los que tenemos en las paredes, suelos y techos de nuestras casas emiten radiación a 50 Hz. Es precisamente a esa frecuencia a la que circula la corriente alterna en España. Por tanto, esa fuerza de acción a distancia se produce por el movimiento de electrones dentro de los conductores eléctricos, es decir, la electricidad.

De este modo, la radiación de una línea de alta tensión es mucho menos energética que la de un teléfono móvil, por ejemplo. En ambos casos su efecto sería no ionizante, admitiendo que se produce un efecto térmico (calentamiento corporal) a medida que se incrementa la energía de la radiación y el tiempo de exposición a ella. Este efecto térmico es el que tradicionalmente se ha regulado y algunos reconocen como único efecto negativo sobre la salud.

 
La evidencia que muestra Overpowered
A través de poco más de 250 páginas, y con lenguaje sencillo, Blank nos comenta cientos, repito, cientos de investigaciones que han mostrado que la radiación electromagnética es perjudicial para la salud. 

Dos de los mecanismos por los que la exposición a la radiación provoca enfermedades son:

– (1) Melatonina: Es una hormona que regula los ciclos biológicos, y que se produce principalmente mientras dormimos. La melatonina regula el sistema inmune y ayuda a la eliminación de los radicales libres. El viejo consejo de “duerme bien y las horas necesarias” está justificado por la función de esta hormona. Por ello, seguir ese consejo te mantiene más fuerte, más joven y más sano. El problema es que la radiación electromagnética perturba la secreción de melatonina, por lo que estar expuestos sobre todo mientras dormimos a esa radiación hace que, básicamente, estemos continuamente segregando menos melatonina de la que deberíamos, con las consecuencias que ello tiene para el sistema inmune y la lucha contra la oxidación celular. Se podría hacer una analogía con la exposición a la luz solar; dormir expuestos a la radiación de una antena de teléfono móvil sería parecido a dormir con las persianas subidas a plena luz del día. Es cierto que en esas circunstancias se duerme, pero ese “efecto reparador” del sueño no es el mismo. Esta es una de las razones por las que los trabajadores que están a turnos y que duermen más de día que de noche tienen peor salud, y más incidencia de cáncer.

– (2) Proteínas de estrés: Las proteínas de estrés regulan la respuesta celular al estrés, y hacen que el cuerpo sea más fuerte ante nuevas exposiciones a agentes estresantes, fortaleciendo las células para que resistan mejor en la siguiente exposición. Pero esto tiene un límite. Goldman & Blank (1998) mostraron que los campos electromagnéticos crean esas proteínas de estrés. Sin embargo, como comenta Blank, esa exposición prolongada al estrés crea el efecto contrario al fortalecimiento, llegando a una depresión del sistema inmune. Podríamos pensar en un ejemplo de efecto dehormesis. El problema no es entonces la exposición puntual a la radiación electromagnética no ionizante, sino la continua exposición. Blank no lo comenta específicamente en el libro pero hay ya investigadores que defienden que  puntuales exposiciones a radiactividad podrían ser incluso buenas como factor de protección frente al cáncer, por el efecto de hormesis. Sin embargo, cuando alguien está expuesto a una antena de telefonía móvil o a unos cables de alta tensión a unos metros de su casa, tiene un teléfono inalámbrico al lado de la cama, utiliza el móvil varias horas al día, etc. tiene una exposición prolongada a agentes estresantes, que acaban por debilitar al organismo y generar enfermedades, entre ellas el cáncer.

Un ejemplo de las cientos de investigaciones que comenta Blank en Overpowered sobre los perjuicios de las radiaciones electromagnéticas es el de Ruediger (2009), quien realizó una revisión de los estudios sobre los efectos de los campos electromagnéticos de radiofrecuencia (por encima de los 300 MHz) sobre el ADN. De los 101 estudios que revisó 49 reportaban un efecto genotóxico, 42 no, y 8 no encontraron influencia sobre el material genético pero encontraron que se incrementaba la acción genotóxica de otros agentes físicos y químicos. Aunque evidentemente hay estudios contradictorios, parece claro que hay soporte suficiente para desterrar la tesis de que la exposición a este tipo de radiaciones es inocua.

 
Estudios con conflictos de intereses

Uno de los puntos fuertes de este libro es, sin duda, las historias que  Blank cuenta acerca de las presiones de la industria y su postura ante los estudios sobre esta temática. Por ejemplo, en 1993, un hombre llamado David Reynard apareció en el conocido programa de televisión de la CNN Larry King Livepara anunciar una demanda (que posteriormente no ganó) contra la industria de la telefonía móvil por lo que él creía que era la causa de un cáncer mortal (tumor cerebral) que asoló a su mujer. Al día siguiente, todos los medios se hicieron eco de esa noticia, y cundió la alarma en la población. Las acciones de Motorola bajaron un 20% y las de McCaw Cellular Communication un 15%. La preocupación llegó incluso a congresistas como Edward Markey, quien preguntó a la US General Accounting Office que investigara si realmente esas radiaciones producían efectos perjudiciales para la salud. La FDA (Agencia del Medicamento de Estados Unidos), se apresuró a afirmar que no había pruebas de que los teléfonos móviles fueran peligrosos, pero que había que limitar su uso. Uno de los hombres poderosos de la industria, Thomas Wheeler, presidente de The Wireless Association, prometió 25 millones de dólares para implementar un programa de investigación dirigido por George Carlo, un prestigioso médico y epidemiólogo. Pero los resultados de los estudios de Carlo, presentados en 1999 no fueron los que esperaba la industria. Carlo había encontrado la presencia de micronucleidos (fragmentos de ADN) en la sangre, indicando que la radiación de los móviles causaba daños irreparables en el ADN. La respuesta de los responsables del programa fue sencilla; le retiraron todos los fondos e intentaron desacreditarlo. 
 
Algo parecido sucedió con el investigador Jerry Phillips, quien fue contratado por Motorola para ver si ponía en cuestión otros resultados que habían aparecido relacionando la radiación electromagnética (concretamente la de las líneas eléctricas) con la ruptura del ADN. Pero los resultados de Phillips, en este caso relacionados con  los efectos de las microondas y el cáncer, no fueron los que sus promotores esperaban, y empezaron los problemas: Le presionaron e incluso cambiaron el lenguaje del artículo publicado en Biolectromagnetics para que pareciera menos ofensivo para sus intereses, sin el consentimiento de Phillips. En este vídeo, el propio Phillips explica cómo ocurrieron los hechos.
 
 
 
Blank, asimismo, realiza interesantes críticas a los que son probablemente los dos estudios más importantes sobre los que los “escépticos” sobre este tema (valga la expresión), se aferran: el estudio de 2006 en Dinamarca sobre 420095 individuos y el estudio INTERPHONE, cuyos resultados se publicaron en 2012. En ambos estudios se concluye que no existe asociación entre el uso de teléfono móvil y el cáncer. Sin embargo, Blank destaca varios problemas metodológicos y éticos de esos estudios, donde de nuevo la sombra de la financiación de la industria vuelve a aparecer.
 
La dificultad de obtener una conclusón clara
Blank no esconde el hecho de que hay estudios que muestran que no existe asociación con el cáncer, y que hay críticas a los estudios que sí la muestran. Es decir, un “escéptico” tiene mucho material sobre el que trabajar sus argumentos. Sin embargo, Blank da cumplida contra réplica a esas críticas y, a su vez, provee coherentes explicaciones sobre el porqué duda de ciertos estudios, como los mencionados antes de Dinamarca o INTERPHONE.

En cualquier caso, sigue habiendo múltiples disputas dentro de la comunidad científica sobre este tema, que no conviene pasar por alto. Un ejemplo de ellas es el artículo publicado en el New York Times en 2011 por Siddharta Mukherjee, un conocido médico y ganador del prestigioso premio Pulitzer por su libroThe Emperor of All Maladies: A Biography of Cancer. Poco tiempo más tarde, el ingeniero L. Lloyd Morgan, del Environmental Health Trust, daba esta respuesta al artículo de Mukherjee. Algunas de laspublicaciones de Morgan pueden consultarse aquí.

 
 
Puntos débiles de Overpowered
Aunque es un libro muy completo, hay varios aspectos en los que particularmente creo que Blank debería haber prestado más atención.

– (1) El primero de ellos es hablar del fenómeno de vibración de las moléculas polares, como las de agua, que es el fundamento del horno microondas que tenemos en casa, que opera a una frecuencia de 2.45 GHz. Existe cierta creencia extendida en el “grupo no escéptico” sobre que esa es la frecuencia de resonancia del agua y que nuestro cuerpo tiene otras moléculas o elementos que resuenan también a otras frecuencias del espectro electromagnético. Recordemos que el ADN es también una molécula polar, un dipolo eléctrico. Y las células nerviosas. A este respecto, el libro de Becker & Selden (1985) The body electric, es bastante ilustrativo. Pero, desde el punto de vista físico, el agua puede vibrar a otras frecuencias diferentes a las del horno microondas y se puede calentar de manera similar debido a esa vibración. Bajo esta interpretación, lo de la frecuencia de resonancia del agua a 2.45 MHz es inexacto.  En presencia de un campo eléctrico los dipolos se alinean con él, hay movimiento y por lo tanto calentamiento. Blank podría haber discutido si realmente hay frecuencias de resonancia diferentes para distintas moléculas del cuerpo, y en qué medida afecta al ADN y a otras células las distintas frecuencias a las que se ven expuestas.

– (2) El segundo de ellos es la omisión de que la búsqueda del lucro por encima de la verdad científica y los conflictos de intereses también pueden existir en “el otro bando”, es decir, el de las organizaciones que dicen velar por la salud, el respeto del medio ambiente, etc. Bien es cierto que muchas de esas organizaciones declaran públicamente de dónde provienen sus fondos y no hay sospecha sobre ellas, pero también es verdad que hay otras que combinan esa labor de denuncia y divulgación con la venta de productos para medir o “defenderse” de las radiaciones. Sería una inmenso error poner en equilibrio los intereses de unos y otros, ya que los fraudes, el patrocinio de estudios y la ocultación de información relevante está más que demostrada por las grandes industrias. Un ejemplo aquí. No obstante, ello no es óbice para creer que todo lo que viene de ese bando está manipulado y que lo que proviene del otro está “limpio”.

– (3) El tercero de ellos se refiere a explicar mejor qué es un daño biológico y en qué medida nos debemos de alarmar por la radiación. Por ejemplo, es conocido que el deporte provoca la oxidación celular y la creación de proteínas de estrés. A pesar de ello,  a estas alturas hay suficiente evidencia para decir que la práctica deportiva es un hábito muy saludable. Sin embargo, la práctica exagerada de ejercicio sin los correspondientes periodos de descanso y recuperación lleva al sobre entrenamiento,siendo una de sus características el decrecimiento de la creación de proteínas de estrés. Por tanto, no deberíamos alarmarnos ante la palabra “daño biológico”. El cuerpo puede reparar daños, incluso en el ADN. El problema viene cuando tenemos estresantes continuados, no hay manera de que el cuerpo se adapte y recupere, y cuando se producen efectos sinérgicos, como estar expuestos constantemente y a la vez a varios tipos de radiación de diferente frecuencia (wifi, inalámbricos, cables eléctricos, móviles, etc.). Es como si alguien levantara pesas por la mañana, saliera en bici por la tarde, y nadara varios kilómetros durante la noche. Al cabo de un tiempo, su salud se vería afectada negativamente.

– (4) Las estimaciones de riesgo hay que ponerlas en su contexto. En este tipo de libros que van dirigidos tanto a un público académico como no académico es aconsejable explicar qué significa un incremento de riesgo. Por ejemplo, no es lo mismo decir que el riesgo de padecer cáncer se incrementa un 40% al exponerse al factor de riesgo cuando la probabilidad de tenerlo es del 1% que cuando es del 20%. En el primer caso, el riesgo absoluto sería del 1.4%, y en el segundo del 28%, es decir, subiría 4 decimas en el primero frente a 80 décimas en el segundo. Blank no entra en discutir cifras de los estudios en base a Riesgo Relativo (RR) y Odds Ratio (OR), algo que, bajo mi punto de vista, sería necesario para interpretar bien el tamaño de efecto encontrado de los estudios. Más aún, se agradecería, no sólo en este libro, sino en general en este tipo de investigaciones que se discutieran más los modelos en términos de cumplimiento de las asunciones (test de mala especificación), ajuste, intervalo de confianza de los parámetros y efectos marginales. En otras áreas de conocimiento, como la economía o el marketing, estamos más familiarizados con una interpretación a mi juicio más esclarecedora del efecto a estudiar: Si se incrementa en una unidad esa variable de interés, ¿cómo cambiaría la probabilidad de desarrollar cáncer?. Si hablamos claramente en estos términos sabremos; (a) si el modelo es válido bajo los test de mala especificación; (2) si el modelo tiene un buen ajuste en términos de clasificación, varianza explicada, residuos, etc.; (3) la probabilidad estimada para diferentes combinaciones de las variables independientes; (4) los parámetros estimados y sus intervalos de confianza; (5) el cambio de probabilidad ante la variación/intervención en uno de las variables del modelo. Con esto no pongo en duda la validez de los estudios, ni mucho menos, pero sí que demando una mayor claridad en la interpretación de los resultados.

– (5) Como último punto mejorable destaca la poca atención que Blank presenta a los estudios que relacionan la exposición a campos electromagnéticos de baja frecuencia con cáncer, sobre todo con cáncer infantil. Blank, ciertamente, se centra mucho más en los estudios de frecuencias más elevadas. Y cuando nombra algún estudio en frecuencias bajas, como el de Lai & Singh (2004), lo hace sin contextualizar adecuadamente la importancia de los resultados. Así, estos autores encontraron que con exposiciones de sólo 2 horas a este tipo de campos electromagnéticos con valores entre 0.1 y 0.5 mili Teslas, se destruía el ADN en el cerebro de ratas. Lo que no discute Blank es que esos valores están unas 1000 veces por encima de lo que normalmente estamos expuestos en casa. Existe, sin embargo, evidencia destacada acerca de la asociación entre cables eléctricos o líneas de alta tensión y cáncer infantil en la banda a partir de los 200-300 nano Teslas, unos valores que se acercan mucho más a lo que podemos tener en nuestros hogares. Los estudios de Ahlbom et al. (2000), Greenland et al. (2000),Schutz et al. (2000), o Kabuto et al. (2006) son una muestra de ello.

Conclusión
Pese a las críticas comentadas, Overpowered es un libro altamente recomendable para conocer el estado de la cuestión en referencia a la asociación entre la radiación electromagnética no ionizante y las enfermedades. Blank, además, presenta evidencias de estudios realizados con animales y plantas, donde también se pueden detectar esos efectos negativos. El autor hace una buena crítica sobre los niveles de seguridad que las legislaciones de los diferentes países defienden, que son absurdos, insultantes, y para nada acordes con la evidencia científica acerca de los efectos nocivos sobre la salud. Blank, concluye el libro con consejos prácticos sobre cómo minimizar el riesgo de exposición a la radiación y comentando el informe de Bioinitiative.

Ese informe de Bioinitiative, puede consultarse aquí, y presenta una revisión de cientos de estudios que dejan bien a las claras que, desde luego, hay motivos para la preocupación.

Ese informe es de 2012, y en la actualidad, se siguen publicando artículos que ligan la exposición a este tipo de radiación con enfermedades como el cáncer.

El libro no trata de dar un mensaje apocalíptico ni radical contra la tecnología. De hecho, ningún investigador ni cualquier otra persona sensata lo hace. Simplemente se trata de:

– (1) Informar a los ciudadanos del peligro real de las radiaciones no ionizantes.
– (2) Cambiar la legislación para ser coherentes con la evidencia científica sobre niveles máximos permitidos.
– (3) Que el ciudadano tenga más libertad para elegir en qué medida quiere someterse a más o menos exposición.

Estos tres sencillos puntos que acabo de mencionar conllevan unas implicaciones de información, de educación,  de inversión económica y de legislación que los gobiernos deberían aplicar inmediatamente.

En un futuro post, daré consejos prácticos para minimizar la exposición a la radiación electromagnética, sobre todo con la población más sensible: los niños.

Todos los posts relacionados




(#1) ¿CÓMO JUGARÁ MARIO HEZONJA SU PRÓXIMO PARTIDO?

[MONOTEMA] Nada mejor para inaugurar este blog multidisciplinar que comenzar con baloncesto. El joven jugador del Barcelona Mario Hezonja acaba de realizar su mejor partido de la temporada, con 8 triples sin fallo, 24 puntos y 29 de ese “mejunje” que es la Valoración ACB. Aquí se pueden consultar todos sus partidos en la ACB de este curso.

Hace tres años decidí investigar el rendimiento de los jugadores de baloncesto tras un partido extraordinariamente bueno o extraordinariamente malo. Esta es la referencia del artículo, el cual podéis leer en su totalidad pinchando sobre él:

Martínez, J. A. (2013). Rendimiento de un jugador de baloncesto tras un partido extraordinario. Revista Internacional de Medicina y Ciencias de la Actividad Física y el Deporte, 13 (50), 345-365.

El estudio lo realicé con jugadores NBA, empleando varios filtros para intentar minimizar las posibles variables contaminantes. Aunque la parte metodológica del artículo pueda resultar un poco densa, lo que hice fue tratar de analizar cómo se desempeñarían los jugadores tras ese evento extraordinario, controlando además por variables importantes como los minutos de juego, el acaparamiento de jugadas (usage percentage), y otras variables relevantes.

Un extracto de las conclusiones e implicaciones del estudio es el siguiente:

Esta investigación ha demostrado que, globalmente, cuando un jugador realiza partidos muy buenos o muy malos desde el punto de vista de su rendimiento anotador y global, su actuación en el siguiente partido se puede considerar prácticamente independiente del anterior. Por tanto, la creencia en los efectos contraste o tendencia en baloncesto no tiene una base empírica fuerte, al menos en lo que se refiere a rendimiento tras partidos extraordinarios.Es cierto que los análisis de las distribuciones de frecuencias en los percentiles pueden invitar a pensar en la existencia de un efecto muy pequeño, siempre en dirección a un efecto tendencia, tanto positivo como negativo, y nunca a un efecto contraste. Es decir, que tras un partido muy malo o muy bueno, el siguiente tendrá más probabilidad de ser más parecido que distinto al anterior. No obstante, los efectos, de existir, son muy pequeños y serían más indicativos de un efecto tendencia muy moderado, o lo que es lo mismo, que el siguiente partido iría en la misma dirección del anterior, pero no al nivel de rendimiento extraordinario (malo o bueno) del anterior. Los tamaños de muestra manejados son grandes, pero los análisis de potencia indican que se necesitarían analizar datos de entre 15 y 20 temporadas más para poder detectar esos pequeñísimos efectos como significativos.

Hay que tener en cuenta, además, que de existir ese efecto tendencia en el caso de “tras jugar un partido muy bueno” podría ser atribuible a la diferencia en minutos y porcentaje de uso de los jugadores. Aunque estas diferencias también son muy pequeñas, podrían ser causa de divergencias. Así, una unidad de cambio en el porcentaje de uso produciría una variación de 0,26 percentiles, mientras que un minuto de cambio produciría una variación de 0,06. Son variaciones muy pequeñas, pero que podrían precisamente producir un efecto tendencia pequeño.

Con la prudencia que siempre marca los análisis estadísticos, este estudio demuestra que la actuación de un jugador tras un partido muy malo o muy bueno no está asociada a efectos psicológicos de contraste o tendencia, También se podría etiquetar este término como asimilación, aunque su significado puede dar lugar a equívocos con el término asimilación de expectativas (Ariely, 2008), tan recurrente en psicología del consumidor, que no es más que una motivación extra que haría rendir al jugador por encima de su rendimiento mediano. Las evidencias muestran que no es así, al menos de una forma medianamente palpable, lo que indica que se puede producir un fenómeno de regresión hacia la media (Berry, 2006), tan común en ciencias del deporte y en muchos ámbitos de la ciencia. En este caso, esta investigación muestra como la probabilidad de ir hacia la media es relativamente muy similar con respecto a ir hacia cualquier otro lugar de la distribución, debido a la forma artificial de dividir la distribución en percentiles. Por tanto, se podría decir que lo más probable es que el próximo partido de Hezonja no sea extraordinario (es decir, que su rendimiento no esté en el último de sus nueve percentiles). No obstante, los análisis estadísticos muestran un pequeño efecto tendencia, que podría hacer que el jugador rindiera también a un nivel relativamente alto. Asimismo, es probable que juegue un poco más que si hubiera realizado hoy un mal partido, y que también acapare un poco más de juego. Si tuviera que apostar, en base al artículo, diría que la probabilidad de que Hezonja haga un buen partido la próxima jornada es un poquito mayor que si hoy hubiera jugado extraordinariamente mal. Pero como el efecto es tan pequeño, tal vez lo más prudente sea no arriesgar mucho en esa predicción.

Quizá esto no sea decir demasiado, pero si confiamos en lo que nos dice la estadística, hasta aquí podemos llegar. Recordad que siempre estamos hablando de efectos medios, y que realmente lo que haga Hezonja en el próximo partido (juegue bien o mal) no entraría en contradicción con los resultados de este estudio (los casos particulares respetan los resultados agregados de los análisis estadísticos).

Entender las predicciones estadísticas a veces no es fácil, pero en este blog trataremos de ir explicando poco a poco cómo interpretarlas. Hablaremos siempre con el lenguaje de la probabilidad en la mano.

Todos los posts relacionados