(#17). RADICALES DE LAS VACUNAS

En los últimos días han surgido varias noticias que me han hecho decidir escribir este post:

La primera de ellas hace referencia a un fraude con medicamentos depresivos para adolescentes; Un reanálisis de un estudio financiado por GlaxoSmithKline y publicado en 2001 en la revista Journal of the American Academy of Child & Adolescent Psychiatry muestra que sus resultados son más que cuestionables. El estudio original, un ensayo clínico, indicaba que la paroxetina y la imipramina eran eficaces para tratar la depresión en adolescentes. Sin embargo, este nuevo estudio no sólo pone de manifiesto que esa mejora respecto al placebo es no significativa, sino que existen efectos secundarios importantes como las tendencias suicidas. Parece, por tanto, un nuevo caso más de perversión en la industria farmacéutica y en algunos investigadores.

La segunda de ellas es la continua aparición de efectos secundarios de la vacuna del papiloma humano. Varias asociaciones europeas de afectados han notificado a la Agencia Europea de Medicamentos 352 muertes y miles de casos de niñas dañadas (más de 45000). Esta vacuna es muy polémica desde su implantación por la cantidad de profesionales sanitarios que pidieron un retraso en su diseminación por el sistema sanitario debido a las múltiples dudas que generaba sus ensayos y la poca prevalencia de este tipo de cáncer. Aún así, hay determinados sectores sanitarios que niegan este problema evidente.

La tercera de ellas es la aparición de un brote de tos ferina en un pueblo de Navarra, afectando a 13 personas, de ellas 5 no vacunados. Como indica este otro artículo del Doctor Juan Gervás, parece que los brotes de tos ferina son una realidad en muchos países desarrollados donde la población está vacunada casi en su totalidad, lo que lleva a planteamientos relacionados con el todavía poco entendimiento de esta bacteria, su capacidad para mutar, y el cuestionamiento de la efectividad de la presentación acelular de la vacuna. Como indica este nuevo estudio, la tos ferina se está transmitiendo principalmente a través de las personas que han sido vacunadas.

Y la cuarta de ellas se refiere a la descripción de varios casos de mujeres en algunas ciudades de Estados Unidos que han sido apartadas de sus hijos por tomar drogas “no legales”, como las metanfetaminas, durante el embarazo, dado que en ese país existen leyes que protegen a los niños desde que están en el vientre de la madre (aunque no en todos los estados por igual). De este modo, si se demuestra al nacer que el niño ha estado expuesto a ese tipo de sustancias, la ley actúa sobre los padres.

Estas cuatro noticias, aparecidas en apenas una semana, ponen sobre la mesa varios temas importantes: (1) que hay numerosos estudios científicos manipulados y que la presión de las farmacéuticas y la poca ética de algunos investigadores está causando, literalmente, muertes en la población medicada que podrían ser evitables; (2) que parte de la opinión pública y de estamentos ligados a la ciencia no está considerando los cuantiosos efectos adversos de vacunas como la del papiloma humano (con centenares de muertes que podrían estar ligadas a esa vacuna); (3) que, pese a que hay vacunas que son necesarias y eficaces, nos estamos dando cuenta de que hay otras que deben mejorar; (4) que se debe responsabilizar a los padres del daño ocasionado a la salud de sus hijos cuando cometen voluntariamente acciones como consumir drogas, pero también que hay que discutir en qué medida debe el Estado o las farmacéuticas asumir también esa responsabilidad cuando hay enfermedades atribuibles a la vacunación.

Pese a que esta temática es muy compleja y enseguida algunos tienden a “calentar” demasiado el debate, la intención de este post es comentar mi caso personal cuando traté de plantear estos mismos argumentos a varios científicos durante el pasado mes de junio.

El foro de ecuaciones estructurales (SEMNET)
Soy participante de este foro desde hace unos 10 años, y puedo decir que he aprendido mucho discutiendo con algunos de los mejores científicos sociales, matemáticos y metodólogos del mundo. Desde luego que me queda todavía muchísimo más por aprender de estos grandes personajes de la ciencia, que tienen la deferencia de dedicar parte de su valioso tiempo a resolver dudas metodológicas de investigadores más modestos como yo. El foro trata, esencialmente, sobre ecuaciones estructurales, filosofía de la ciencia, causalidad y modelización, pero de vez en cuando las discusiones derivan hacia algún tema off-topic, que casi siempre se difumina rápidamente.

Como he dicho, la causalidad es uno de los temas centrales del foro, y a comienzos de junio de 2015,Emil Coman, investigador en las universidades de Connecticut y Yale, lanzaba un llamamiento en el foro a los “popes” de la investigación causal para ayudar a dilucidar un caso relacionados con un posible efecto adverso de la vacuna triple vírica (sarampión, paperas y rubeola).

El caso de Nicholas Wildman
Emil Coman enlazaba esta noticia, que comentaba el caso del niño Nicholas Wildman, que en 1997, y tras recibir la vacuna de la triple vírica con 1 año de edad, empezó enseguida a tener síntomas preocupantes. Unas pocas horas después del acuciante y violento llanto del niño, su estado ya no era como antes, ya no jugaba con su hermano, no se comunicaba con sus padres…y un año después le fue diagnosticada una discapacidad intelectual severa, que le hace ir todavía con pañales. Varios médicos muestran en ese artículo su negativa a relacionar la vacuna con esa discapacidad, incluso la OMS indica la inexistencia de pruebas, aunque médicos como Juan Gervás indican que 1 entre 1 millón de niños pueden desarrollar encefalitis tras la vacuna y, por tanto, derivar en problemas de retraso mental.

Los padres de Nicholas llevaron el caso a la Office of Special Masters of the U.S. Court of Federal Claims, una especie de juzgado alternativo a los tribunales civiles para hacer más ágiles ciertos contenciosos como, por ejemplo, las reclamaciones por daños de las vacunas. Hay que destacar que en Estados Unidos existe un fondo compensatorio para los afectados por efectos no deseados de las vacunas que se financia con 0.75 $ de cada vacuna comprada. Sin embargo, no todas las reclamaciones finalizan con una indemnización, porque se debe probar una preponderancia de evidencia de que efectivamente ese problema denunciado se debe a la vacunación. En cualquier caso, y tal y como relata la noticia, algunos piensan que el tribunal prefiere errar siempre para el lado del dañado, porque admite que la ciencia no siempre proporciona resultados claros, pero aún así, otros piensan que ponen el listón demasiado alto. Sin embargo, desde el propio Departamento de Salud de Estados Unidos, se tiene a la encefalitis y a otros problemas más graves como posible efecto secundario de la vacuna triple vírica.

Lamentablemente, para el niño Nicholas Wildman, los jueces no encontraron evidencia suficiente para relacionar su discapacidad con la vacunación. Probablemente uno de los motivos para tomar esta decisión es que el niño empezó a mostrar síntomas inmediatamente después, cuando el Departamento de Sanidad establece un periodo mínimo de 5 días.

En cualquier caso, este informe de IOM (Institute of Medicine), por encargo del Departamento de Sanidad de Estados Unidos, apoya la evidencia causal entre la vacunación de la triple vírica y la encefalitis, incluso dentro de una ventana temporal de 1 año. Para realizar ese informe se revisaron estudios epidemiológicos y de laboratorio, y se estudiaron 158 efectos adversos reportados al Departamento de Sanidad. Uno de los resultados más importantes del estudio es que la gran mayoría de efectos adversos (135) no pueden aceptarse o descartarse como causales, es decir, existe una gran incertidumbre todavía sobre muchos de los daños en la salud reportados y que se atribuyen a las vacunas.

Reacciones en el foro
Fui uno de los primeros en contestar a Emil, una vez que Paul Thompson, del Instituto de Investigación de Sanford, respondiera que la vacunación era, literalmente, “un problema resuelto”, que aunque reconoce que hay efectos secundarios, las vacunas son incuestionables, incluso la de la gripe.

Ante esa respuesta, mi intervención fue advertir que la vacuna del virus del papiloma humano está siendo cuestionada en España desde su implantación, que varios miles de profesionales de la salud en España pidieron su moratoria, que había múltiples casos de efectos adversos en nuestro país, y que había médicos e investigadores que no consideraban todas las vacunas iguales, siendo precisamente la del papiloma humano y la de la gripe las más polémicas. En este caso mi postura era clara, yo no soy un anti-vacunas, pero conociendo cómo se las gasta la industria farmacéutica, los conflictos de intereses de algunos gobernantes y médicos, la evidencia defendida por diversos investigadores, y el anormal número de casos reportados sobre efectos colaterales graves, mi decisión a día de hoy era no vacunar a mis hijos contra el virus del papiloma ni contra la gripe.

Enseguida varios miembros del foro me acusaron de ser un anti-vacunas. Investigadores de la talla intelectual de Stas Kolesnikov se burlaron, y de nuevo Paul Thompson contestó usando un lenguaje totalmente fuera de tono y radical diciéndome literalmente que me callara (“shut up”).  Obviamente respondí de nuevo argumentando que ese tono fascistoide era un insulto, y que lo único que hacía era aportar esa información y tomar una decisión en base a ella, en este caso no vacunar a mis hijos y cuestionar la eficacia de esas vacunas. Ciertamente algún otro miembro del foro se atrevió a darme la razón, como Joshua Pritikin, de la Universidad de Virginia, pero los “palos” que me llevé fueron mucho más grandes que las muestras de apoyo.  Jeremy Miles, que entre otras ha estado en la Universidad de York, me dijo que estar en contra de una vacuna me convertía automáticamente en un anti-vacunas.Johannes Textor, de la Universidad de Utretch, y uno de los investigadores más prometedores en algoritmos causales, me dijo que “no sabía si era verdad lo de los miles de profesionales sanitarios que firmaron ese manifiesto para la moratoria de la vacuna del virus del papiloma”, lo que me indignó profundamente, ya que no tenía por qué dudar de mi palabra y, de todos modos, una simple visión de la web que hablaba sobre ello habría bastado (pero claro, leer en español no es muy popular).

Enseguida salió también a colación lo de la muerte del niño español por difteria (como esta noticia era en inglés entonces sí era fácil de leer), lo que también se interpretó como una muestra de la “cruzada contra los anti-vacunas” que es necesaria según varios de los miembros del foro.

Como contrapunto a estos ataques hubo aportaciones interesantes. Una de ellas fue del propio Johannes Textor, quien aportó un detalle que desconocía, y es que dos de los investigadores que normalmente se citan al hablar de efectos perversos de las vacunas, Lucija Tomljenovic y Christopher A. Shaw son sospechosos de ser financiados por los grupos anti-vacunas, y de publicar estudios en revistas con prácticas predatorias (favorecen publicación a cambio de pagos sin tener un proceso adecuado de revisión por pares). Otros “foreros” enlazaron artículos interesantes sobre causalidad que abordaban precisamente la problemática de estudiar los “efectos de las causas” en contraposición a las “causas de los efectos”. La primera concepción es más fácil dilucidarla a través de estudios de laboratorio y epidemiológicos, pero la segunda (que es en realidad en la que principalmente están interesados los jueces cuando hay casos de efectos dañinos como los relatados aquí) es mucho más complejo determinarla.

No hay vacuna 100% segura
Ciertamente es una realidad,  pero hay que luchar por exigir el 100%. Este artículo retrata muy bien esa afirmación. La autora comenta el caso de un niño que en 1990 recibió la vacuna de la polio, y desarrolló la enfermedad. Era un caso conocido de riesgo, ya que esa vacuna producía 1 caso de polio por 2.4 millones de dosis, a menudo en personas con un sistema inmunológico débil. Luego llegó una versión de la vacuna más segura. Los ensayos con las vacunas no tienen una muestra suficiente para detecta el riesgo de un caso por 10000 o 100000 personas, por lo que la única forma de ver esos riesgos es a través de su puesta en circulación con la población real. Este tema de la necesidad de muestras extremadamente grandes, y la imposibilidad de obtenerlas en pruebas de laboratorio, ya lo comenté cuando hablé del caso de las manzanas cancerígenas, el famoso Alar scare.

La autora indica también que durante la vacunación de la epidemia de gripe A de 2009-10, se dieron 60 casos de narcolepsia entre niños de 4 a 19 años. Habían recibido la H1N1 vacuna Pandemrix, hecha por GlaxoSmithKline. Otro cluster de narcolepsia fue encontrado en Suecia. La vacuna del rotavirus en 1999 fue suspendida en Estados Unidos después de 15 casos de problemas intestinales en niños.  Se estima que ocasionó 1 caso entre 10000 vacunados. La autora dice que la actual vacuna del rotavirus puede ocasionar esa enfermedad en 1 de cada 100000 a 1 millón de niños. Concluye que en otros casos de enfermedades como el síndrome de Guillain-Barré la evidencia es inconclusa, y que hay pocos datos todavía para establecer una relación causal. En definitiva, hay que reconocer varios episodios preocupantes en las últimas décadas, y reconocer humildemente que hay, como he comentado antes, muchos daños colaterales que se atribuyen a las vacunas que no están probados, pero tampoco se ha podido probar lo contrario.

Conclusión
En este post he querido relatar el radicalismo de personas que son extremadamente inteligentes, reconocidos investigadores que, sin embargo, no son capaces de aceptar que otras personas cuestionen algunos tópicos científicos, cuando hay una evidencia sólida de que tienen que ser, como mínimo, efectivamente sujetos a debate. Un radicalismo impropio de lo que debe ser la ciencia, dogmático y talibán, que creo que en ocasiones tiene que ver con ese concepto de: “Se es más científico cuando menos se tengan en cuenta otras  posibles explicaciones alternativas”. Es un falso escepticismo, que en lugar de dudar de todo, se vincula a dogmatismos, donde cualquier voz discordante es sinónimo de brujería, superstición, parapsicología, etc. Es una nueva forma de totalitarismo intelectual que merecerá la pena comentar tranquilamente en un futuro post. Si algo nos ha enseñado la historia de la ciencia es, precisamente, que lo contrario a ese dogmatismo es la postura más sabia. Y, desde luego, eso no es impedimento para luchar contra la charlatanería y la mala ciencia, pero esa “mala ciencia” no está solo en el lado de los llamados perniciosamente “magufos” y otros términos despectivos (los dos protagonistas del reportaje son un ejemplo de ese radicalismo científico, hacen muy bien en luchar contra los charlatanes y su trabajo es meritorio, pero a menudo son incapaces de reconocer posturas y evidencias contrarias a sus tesis, cayendo además en el desprecio hacia sus oponentes).

He vacunado a mis hijos con TODAS las vacunas del calendario, pero no lo voy a hacer (con la evidencia que conozco a día de hoy – puede que cambie en el futuro) del virus del papiloma humano. Tampoco de la gripe. De la varicela no me hace falta porque la pasaron con 3 y 1 año, pero también me plantearía hacerlo si tuviera que tomar esa decisión. Y si volviera atrás, me replantearía vacunarlos de alguna otra (quizás del neumococo). Pero seguiría vacunándolos de las demás enfermedades. ¿Me convierte eso en un anti-vacunas?, ¿tengo un comportamiento anti-social?, ¿soy menos científico por tomar esa decisión? Para algunos sí que lo soy. Repito que con base a las evidencias que he encontrado y a toda la información manejada, me parece prudente hacerlo, y evidentemente asumo el riesgo de equivocarme.

Y termino haciendo referencia a la cuarta noticia que comentaba al principio. Los hijos sufren por las decisiones (malas) de sus padres, y en algunos lugares de EEUU se condena a los padres por tomar drogas ilegales en el embarazo. En el caso  que he contado de Nicholas Wildman, ¿de quién es la responsabilidad de su discapacidad? El tribunal no ha contemplado que fuera causa de la vacuna, pero ¿y si lo fuera? ¿bastaría sólo una remuneración económica o sería exigible castigos para las farmacéuticas o el Estado equivalentes a los impuestos a una madre que se le quita la custodia de un hijo y se la encarcela por tomarse un Valium? No pretendo hacer demagogia con esto, pero he querido plantear esa pregunta (probablemente exagerada) para estimular la reflexión sobre la completa indefensión de los niños ante las decisiones de los padres; unos padres que, en su mayoría, suelen confiar en el “sistema”. Pero las evidencias “científicas” en las que se apoya el sistema no son incuestionables, al menos no todas lo son, y es nuestro deber como padres luchar de buena fe para que esas decisiones que tomamos sobre la salud de nuestros hijos tengan el menor riesgo posible (incluso un riesgo cero). Y eso no nos convierte en proscritos.

Todos los posts relacionados




(#13). 24755 CACAS EN EL PARQUE

En la Edad Media uno sabía cuando entraba a una ciudad no por el jolgorio de sus gentes, ni la grandeza de sus edificaciones, sino por el terrible hedor que desprendían sus calles, sobre las cuales las personas caminaban sorteando heces, y manteniendo el oído muy atento para tratar de escuchar cualquier grito de “agua va”, que significaba un nuevo torrente de excrementos que podía llenarte de mierda de arriba a abajo.

Si una de las principales razones por las que la esperanza de vida ha aumentado y muchas enfermedades infecciosas han disminuido es la adecuada separación de las heces de las actividades cotidianas del ser humano, hay lugares donde todavía existe una ley no escrita por la cual parece perfectamente adecuado que los niños y adultos convivamos con mierdas de perro. Uno de esos lugares es el “Parque de Santa Ana”, en el Polígono Residencial Santa Ana de Cartagena, lugar donde yo resido.

Ese parque, que también se llama “Parque de los Exploradores de la Región de Murcia” tiene unos 250000 metros cuadrados y es uno de los más grandes de la Región. No es un lugar salvaje, sino una zona ajardinada para el uso y disfrute de los ciudadanos, los cuales, particularmente los del barrio en el que habito, pagamos una cuota periódica para su mantenimiento. Ese parque tiene unas 24755 cacas de perro. Sí, habéis leído bien. Si queréis saber cómo he llegado a ese dato, os lo explicaré a continuación.

El problema
Tengo 2 niños muy pequeños con los que me encanta ir a los parques para divertirnos. Mi casa linda con el parque de Santa Ana, por lo que en apenas unos segundos mis hijos y yo nos podemos adentrar en él. Sin embargo, yo casi no llevo a mis hijos a ese parque. Lamentablemente, tengo que coger muchas veces el coche y los llevo a otros parques de Cartagena donde las condiciones de salubridad son algo mejores. Y es que, obviando otra serie de problemas que tiene este parque (instalaciones deficientes para niños, cristales rotos, etc.), hay un factor que sobresale de manera evidente; está infestado de excrementos de perro.

La investigación

Harto de esta situación y dándole vueltas a este problema se me ocurrió realizar una curiosa investigación. ¿Cómo estimar el número de mierdas de perro en el parque? ¿Cuántos metros cuadrados ocuparían todas las cacas juntas? Estas fueron algunas preguntas que se me ocurrieron como modo, no lo voy a negar, de que mi estudio sirviera como denuncia pública sobre esta situación vergonzosa y lamentable de tener uno de los principales parques de la Región de Murcia como cagadero de perros.

Para realizar esta investigación no he inventado nada nuevo, simplemente he empleado una herramienta que cualquier alumno universitario con algo de formación en estadística está capacitado para manejar, como es el muestreo aleatorio por conglomerados. Defino seguidamente las fases de mi estudio:

1. Delimitación de la superficie del parque
Lo primero que hice fue demandar a la Entidad de Conservación de mi barrio un plano del parque, obviamente sin decirles el motivo de mi petición. Amablemente me enviaron el plano, el cual comprendía una superficie de unos 250000 metros cuadrados, que es más o menos la superficie equivalente a 40 campos de fútbol.

2. Elección del método de estimación
Decidí tomar cada metro cuadrado como unidad muestral, por tanto el problema se reducía a obtener una muestra aleatoria de metros cuadrados en el que se midiera la característica a estudiar, en este caso el número y tamaño de las cacas de perro. Un muestreo aleatorio simple habría sido muy costoso para mí, porque habría supuesto ir inspeccionando metro cuadrado a metro cuadrado de la muestra seleccionada, cuyo tamaño habría sido de al menos 200 o 300 unidades con el fin de tener un error medianamente admisible.

La opción del muestreo aleatorio por conglomerados era menos costosa, e igualmente interesante, aunque sacrificaba un poco de precisión en la estimación. Este método consiste en dividir la población por zonas, y estudiar todas las unidades de cada una de esas zonas. De este modo dividí “artesanalmente” el plano del parque en 1239 cuadraditos de 200 metros cuadrados cada uno, lo que suponía unos 247800 metros cuadrados, que prácticamente cubrían la totalidad de la geometría del parque. Obviamente, al no ser una superficie regular, cometía un pequeño error, en este caso por defecto, ya que poco más de un 1% de la superficie del parque quedaba fuera de esa división, pero lo consideré poco relevante en aras de facilitar el trabajo de recogida de datos.

3. Identificación de los clusters                    
Idealmente un investigador debería tratar de determinar a priori el tamaño de muestra necesario para realizar una estimación con un error máximo admisible. Pero, en este caso,  se me hacía muy complejo ese cálculo porque no disponía de datos sobre la varianza de la distribución de la característica a estudiar entre todos los clusters. Por tanto, lo que hice fue generar una gran cantidad de números aleatorios entre 1 y 1239, y escoger al azar 51 de ellos. Dado que, según mi experiencia, había en el parque lugares con muchas más cacas que otros, la varianza de la distribución sería bastante grande, por lo que escoger menos de 30 o 40 clusters probablemente producirían excesivos errores estándar, afectando a la fiabilidad de la estimación. Finalmente me decidí por 51, admitiendo que podía haber elegido un número mayor, pero que el arduo trabajo de contabilización y medición de las cacas habría hecho este estudio casi interminable.

 
4. Inspección de cada cluster
Me preparé concienzudamente para esta “misión”. Con mi inseparable mochila a cuestas, llevé unas picas de hierro que me servirían para delimitar los vértices de cada cuadrado, un metro para medir el largo y ancho de cada caca, y una libreta y un bolígrafo para ir registrando cada caca. Ese “cuaderno de campo” luego era transferido a una hoja de cálculo.

Como os podéis imaginar tardé varios días en hacerlo. Las primeras veces fueron las más “duras”, pero una vez que fui cogiendo práctica el tiempo que tardaba en inspeccionar cada cluster rondaba los 15-20 minutos. Como he dicho anteriormente, cada cluster tenía una superficie de 200 metros cuadrados, que no es más que un cuadrado de poco más de 14×14 metros.

5. Codificación
Identificar lo que era una caca de perro fue fácil. Aunque algunos elementos de árboles o plantas caídos al suelo podían confundirse con una caca, una inspección visual adecuada solucionaba las dudas. El tamaño mínimo para que la caca fuera registrada era de 1×1 centímetros. Cuando había varias cacas juntas (seguramente porque un perro había cagado varios truños en una misma deposición), entonces tomaba ese conjunto como una sola mierda.

6. Estimación
Para realizar las estimaciones seguí los consejos de Levy & Lemeshow (1999), quienes proveen unas sencillas fórmulas que pueden reproducirse sin problemas en una hoja de cálculo. Básicamente, se trataba de estimar el error estándar del número de cacas totales del parque y de la superficie de cacas totales. Para ello había que, primeramente, calcular la desviación típica entre-clusters de ambas características, y corregirlas por el factor de finitud poblacional (la población es finita, recordemos). Una vez calculado el error estándar, se puede construir un intervalo aproximado al 95% de confianza. Esto significa lo siguiente: 95 de cada 100 veces que se realice este experimento el intervalo de confianza generado (que será diferente para cada experimento) contendrá el valor poblacional. Los investigadores aplicados solemos admitir esta frase como una cierta garantía de que nuestros resultados son confiables, siempre que la amplitud del intervalo no sea excesivamente grande.

Dejo aquí también la hoja Excel con los datos brutos, por si alguien quiere supervisar mis cálculos (meter la pata es más fácil de lo que parece). En esa base de datos puede verse la distribución de cacas por cluster, por lo que podéis hacer los análisis descriptivos que estiméis oportunos.

7. Resultados
Llegados a este punto estamos ya en disposición de calcular los principales resultados de la investigación, que son los siguientes:

– Hay 24755 cacas en el parque, con un intervalo de confianza al 95% de (18287 ; 31224).

– En cada cuadradito de 200 metros cuadrados hay un promedio de 20 cacas, con un intervalo de confianza al 95% de (14,8 ; 25,2)

– Hay 23,2 metros cuadrados de mierda en todo el parque, con un intervalo de confianza al 95% de (16,7 ; 29,7)

8. Discusión de resultados y limitaciones
El parque de Santa Ana tiene casi 25000 cacas equivalentes a una superficie total de más de 23 metros cuadrados, lo que retrata perfectamente cuál es la situación que quería denunciar. Ciertamente hay lugares con menos cacas que otros, pero en todos los clusters (excepto en uno de ellos) he conseguido identificar al menos una caca. En 13 de esos 51 clusters había más de 30 cacas, lo que indica también que hay muchas zonas con un nivel de mierda extremadamente alto.

Probablemente la estimación que he realizado esté un poco sesgada a la baja. El parque tiene zonas de árboles de difícil acceso a la parte del tronco, con muchas ramas y hojas caídas al suelo que dificultan la inspección visual, por lo que es posible que en determinadas zonas haya dejado escapar alguna caca.

Es preceptivo indicar, asimismo, que el error en la estimación es grande (un 26% sobre el valor estimado), pero como he dicho anteriormente esto es debido por la alta variabilidad de cacas en los clusters y el tamaño de muestra pequeño. Si hubiera elegido 100 clusters en lugar de 51, el error hubiese sido menor. No obstante, a efectos de denunciar esta situación, creo que el resultado es lo suficiente esclarecedor, admitiendo que la estimación podría ser más precisa (intervalos de confianza más pequeños).

Conclusión
He pasado varios días caminando entre mierdas de perro, acercándome a ellas para medirlas, lo que me ha llevado a desarrollar una extraña habilidad para identificar cacas en cualquier parte. Ha sido una labor ingrata, pero que a veces ha resultado divertida (mis hijos me acompañaron en alguna ocasión y me ayudaron a identificarlas: “¡Papá, otra caca aquí!”). Muchos vecinos que paseaban por el parque me observaban con curiosidad preguntándose qué hacía un tipo con una mochila y una libreta en la mano mirando al suelo y apuntando cosas, incluso una vez varios cuidadores del parque me “persiguieron” en su camión para ver qué es lo que estaba haciendo, aunque finalmente no se atrevieron a preguntarme.

Tener miles de cacas de perro repartidas de esa forma en el parque hace que no haya zonas libres de cacas, y que los niños no puedan jugar en ninguna parte sin interactuar con ellas. Tampoco los adultos podemos sentarnos a tomar el sol, o pasear tranquilamente sin tener el peligro de pisar una mierda o comer un bocadillo al lado de un gran zurullo.

Es una situación lamentable que deseo que se solucione pronto. Supongo que habrá alguna manera de hacerlo, y espero que los vecinos se conciencien acerca de que el parque no es un descampado, y que tienen que recoger las cacas de sus perros y tirarlas a la basura. Las autoridades también podrían poner de su parte, adecuando alguna zona específica para que los perros hagan sus necesidades e incrementando la inspección y las sanciones para aquellos dueños que no recojan sus cacas. Otra opción es admitir abiertamente que el parque es un cagadero de perros, y así todos tendríamos claro a lo que nos enfrentamos si llevamos a nuestros niños allí. Al fin y al cabo, en el resto de las zonas ajardinadas de Santa Ana, la situación es similar a nivel de cacas (dejaré para algún valiente la labor de la estimación de cacas en otras zonas pequeñas ajardinadas del barrio). Las aceras no son una excepción, y también es habitual ir paseando sorteando mierdas.

Pero cedo las posibles soluciones para la creatividad de otras personas. Mi labor aquí era la de denunciar una situación tristísima a través del uso del método científico, haciendo una investigación novedosa, y demostrando que las herramientas estadísticas se pueden emplear para responder a preguntas cotidianas.

Algunos pensarán que esta investigación es estúpida, o que no hacía falta tanta sofisticación para denunciar la cantidad de mierdas que hay en el parque. Mi opinión es que este estudio sí que tiene valor, porque le da un sustento científico a una situación que estaría sujeta a la diversidad de opiniones. Tras este estudio hay poca discusión posible sobre el número de mierdas y superficie de excrementos que hay en el parque; aquí están mis estimaciones, e invito a cualquier otra persona a que replique mis resultados.

Todos hemos orinado alguna vez en un árbol, o hemos escupido en el suelo, o incluso cuando éramos pequeños hemos hecho caca en algún descampado ante la imposibilidad de encontrar un wáter cerca. Pero esto no tiene nada que ver con utilizar un parque público sistemáticamente como cagadero  de perros. Repito, es una situación lamentable, despreciable y denunciable.

24755 cacas y 23,2 metros cuadrados de mierda repartidos por el suelo. Eso es el parque público de Santa Ana en Cartagena. Creo que algunos se han quedado todavía en el Medievo.

Todos los posts relacionados




(#8). ELÉCTRICAS, MARKETING, FRAUDE Y CÁNCER

[MONOTEMA] Fijaos que después de “eléctricas” pongo una coma y no dos puntos; no quiero realizar un titular demagógico por el que defina las compañías eléctricas por esos tres elementos: marketing, fraude y cáncer. Sin embargo, son precisamente esos tres factores los que sustentan esta crítica a ciertas prácticas de estas empresas, algunas de ellas situadas entre las compañías  más poderosas de este país (ej. Iberdrola, Endesa, Gas Natural), que nos proveen un producto vital para nuestra vida diaria: la energía eléctrica.

En este post voy a revisar algunas de las operaciones de estas empresas desde el punto de vista de marketing, difundiré varias de sus prácticas que pueden estar asociadas a fraude, y finalmente contextualizaré el problema de la exposición a las radiaciones que emite la electricidad y el desarrollo de cánceres como la leucemia infantil.

Marketing
En muchos libros de conocidos autores de marketing encontrarnos que el marketing se define como un proceso social y administrativo, mediante el cual grupos e individuos obtienen lo que necesitan y desean a través de generar, ofrecer e intercambiar productos de valor con sus semejantes. La identificación de las necesidades y los deseos de los individuos es un aspecto crítico del marketing. Las estrategias de marketing deben basarse en conocer lo que los consumidores necesitan. El marketing es una filosofía, un modo de entender la relación de intercambio que busca la satisfacción de todas las partes que intervienen en ese intercambio, a través de un proceso de análisis estratégico, que desemboca en la implementación de determinadas operaciones comerciales.

En la misma línea, autores como Doyle (2002) defienden que el marketing busca la formación de redes de intercambio, creando valor para las partes que interactúan, y está principalmente enfocado en una visión relacional, es decir, se buscan relaciones satisfactorias a largo plazo. El enfoque de marketing tiene que superar la perspectiva de que la empresa debe enfocarse únicamente en el consumidor. La empresa está sumergida en una red de relaciones con diferentes stakeholders (grupos de interés), a los que debe de satisfacer en mayor o menor medida, pero siempre dentro de una zona de tolerancia.

 
Esta visión del marketing es infantil y alejada de la realidad. Ver el marketing como una especie de “práctica virtuosa” que busca la satisfacción de todos los que se relacionan con la empresa, especialmente del consumidor al que hay que complacer dándole lo que necesita y haciéndolo feliz, parece un cuento de hadas. Ciertamente podríamos definir así el marketing, pero entonces tendremos que admitir que prácticamente ninguna empresa hace marketing.

Si reconocemos, sin embargo, que las empresas utilizan una herramienta llamada “marketing”, entonces tenemos que irnos a definiciones más del estilo de Iacobucci (2001): “crear y reforzar la red cognitiva de asociaciones, con atributos positivos ligados a su marca, y asociaciones negativas o débiles ligadas a marcas alternativas”. Esto ya está más en consonancia con la práctica real de las empresas, y viene a ser algo así como que el público perciba la imagen de mí que quiero que perciba, lo entretengo con cosas fútiles, mientras consigo llenar mis arcas de diversas maneras que el consumidor medio ignora, aprovechándome de la ingeniería financiera, los resquicios legales y, a veces, cometiendo fraude.

Esta definición de marketing me gusta bastante más, porque es más acorde con la realidad. Obviamente generalizar siempre es injusto, pero si alguien piensa que las empresas privadas nacen y viven con la vocación de satisfacer al consumidor es que aún no se han percatado de que el objetivo de las empresas es ganar dinero, no satisfacer al cliente. A veces, satisfacer al cliente ayuda a ganar dinero, es cierto, y sin clientes no hay negocio, es verdad; pero hay empresas son una especie de trileros que te embaucan para hacerte creer una cosa que no es. Sí, trileros, en lugar de hadas que con su varita mágica te convierten en Cenicienta y hacen feliz a todo el “reino”.

Las compañías eléctricas como Iberdrola, Endesa, Gas Natural…¿hacen marketing?, ¿qué tipo de marketing hacen, el de los trileros o el del hada madrina?, ¿satisfacen al consumidor?, ¿ganan dinero gracias a la satisfacción del consumidor? Espero que al final de este post, os queden más claras las respuestas a estas preguntas.

Fraude

1. Paraísos fiscales:
Los paraísos fiscales son territorios donde el impuesto sobre los beneficios es muchísimo más bajo que en España. Es decir, las empresas que se localizan allí tienen una fiscalidad distinta con respecto a si estuvieran localizadas en nuestro país (o en otro similar fiscalmente a España). Si en España se paga un 30% al fisco, en esos países se pueden pagar cifras del 1% o incluso menos.

De este modo, las grandes empresas sitúan filiales en esos territorios y emplean artimañas contables para que una parte importante de los beneficios se desvíe de la empresa en España hacia la filial en el paraíso fiscal,  con lo que buena parte de los impuestos que se debían recaudar en España sencillamente no llegan a las arcas públicas. Google es un ejemplo claro de este tipo de prácticas.

Aunque estas prácticas son legales, desde luego son muy poco éticas y solidarias. Es un “fraude legal” que beneficia precisamente a los que más tienen (y más deben aportar) en perjuicio de las empresas y personas físicas que pagan cumplidamente sus impuestos.

Como se deriva el último informe de Intermon Oxfam, el IBEX 35, el “motor” económico de España y el modelo de empresas, empresarios y ejecutivos en el que muchos de mis alumnos de Administración de Empresas admiran está “infestado” de fraude a través de paraísos fiscales.

Las grandes eléctricas españolas no evitan estas prácticas, especialmente Iberdrola, con 66 filiales. Casi 60000 millones de Euros se escapan de España por estas prácticas. Para poner una referencia a esas cifras de fraude millonarias, en 2012, por ejemplo, el Gobierno anunció que recortaría 10000 millones en Sanidad y Educación. Es decir, con sólo una parte de ese dinero escabullido en los paraísos fiscales se podría haber cubierto ese tijeretazo al estado del bienestar que los españoles llevamos sufriendo varios años.

Por tanto, esas grandes empresas, con beneficios multimillonarios (Iberdrola tuvo un beneficio neto en 2014 de 2326.5 millones de Euros), se amparan en la legalidad de los paraísos fiscales para incrementar aún más su nutrida cuenta de beneficios a costa de evitar el pago de impuestos en nuestro país. Es una práctica legal, sí, y es lícito buscar la maximización de beneficios, aunque no debería serlo de esta forma; es un fraude a la ciudadanía española y un desprecio total al cliente de a pie, que tiene que pagar religiosamente su factura mensual, además de cumplir fielmente con sus obligaciones con Hacienda.

Es de resaltar que esas empresas eléctricas tienen entre sus propietarios a bancos (caso de Caixabank en Gas Natural) y constructoras (caso de ACS en Iberdrola), empresas que a su vez tienen multitud de filiales en paraísos fiscales. Todo un universo de telarañas financieras.

142555468530292. Pacto de precios
Sabemos que las prácticas de oligopolio deben censurarse. Las 5 grandes empresas eléctricas de España están emparentadas en UNESA, y controlan prácticamente la totalidad del mercado de producción y comercialización (alrededor del 80 y 90% respectivamente). Como los precios de la energía se fijan en subasta, existen unos productores que venden y unos comercializadores que compran. El problema es que son las mismas empresas. Es como si las fábricas de  Nike, Adidas, Puma, Asics y Under Armour hicieran una subasta de su producción de zapatillas deportivas y los compradores de ese producto (comercializadores) fueran las  tiendas de zapatillas propiedad de esas empresas, y no distribuidores como El Corte Inglés, Decathlon o Forum Sport.

La Comisión Nacional de Competencia (CNC) es la que vela por defender los intereses de los ciudadanos frente a las prácticas de oligopolio y ha sancionado a las eléctricas en alguna ocasión por cometer irregularidades. Una de esas irregularidades llevó a la CNC a sancionar en 2012 a Iberdrola con 10.6 millones de Euros por cambiar de contrato a cientos de consumidores, pasando de la tarifa regulada (TUR) al mercado libre. Curiosamente esta sanción fue el resultado de una denuncia interpuesta por Gas Natural, lo que nos lleva a la siempre interesante tensión entre cooperación y competición (algunos lo etiquetan con el “palabro” coopetición), característico de los mercados oligopolísticos. Es decir, a veces ellos mismos se ponen la zancadilla, pero al final del día casi siempre quedan en el mismo bar para tomarse unas copas juntos.

Obviamente la coopetición no es mala per se, ni mucho menos. Es deseable en muchos contextos; por ejemplo dos bases en un equipo de baloncesto están compitiendo por el mismo puesto y a la vez están cooperando para que el equipo gane, o las diferentes sucursales bancarias compiten por objetivos mientras a la vez cooperan entre sí. El problema viene cuando en esa cooperación el consumidor queda seriamente perjudicado por una situación de inferioridad debido a, por ejemplo, el desconocimiento de información relevante o abuso de poder de la empresa que provee el servicio. Es entonces cuando la colusión entre empresas se convierte en indeseable.

3. Lectura de contadores
Cientos de hogares/empresas en los últimos años en España han recibido facturas de luz de miles de Euros, totalmente erróneas, por supuesto. La compañía eléctrica obliga al consumidor a pagarlas porque por defecto asume que el consumidor ha realizado efectivamente ese consumo o porque ha manipulado deliberadamente el contador, lo que conlleva una multa. Las denuncias, como no podían ser de otra forma, se han multiplicado, y hay sentencias judiciales que están dando la razón a los consumidores en detrimento de este tipo de prácticas fraudulentas de las eléctricas.

Desde luego que tampoco se puede descartar el fraude del consumidor en algunos casos, como ya se ha demostrado, pero la evidencia del gran número de casos denunciado sin pruebas de peso hace pensar que las eléctricas no están articulando el mejor procedimiento posible para garantizar en buena medida que efectivamente se ha producido una manipulación por parte del consumidor.

El gran número de contadores con más de 15 años de vida que aún siguen activos propicia también que las lecturas no sean lo precisas que debieran. Ya en 2001 la OCU emitió un informe donde afirmaba que el 80% de los 209 contadores que había supervisado facturaban más de lo debido. Aunque ese estudio fue realizado con una muestra pequeña y bajo mi punto de vista hay que ser prudente a la hora de sacar conclusiones, es un indicador más que ilustra de nuevo esa suposición de que las compañías eléctricas obtienen beneficios estafando al consumidor.

4. Supervisión de contadores
El fraude de la supervisión de contadores es conocido gracias al extraordinario trabajo del ingeniero sevillano Antonio Moreno, quien en 1994 fue despedido de Landis & Gyr Española mediante una denuncia falsa, en represalia por haberse negado a participar en el grupo clandestino Contact, formado por representantes de fabricantes de contadores de la luz, con el fin de urdir un fraude que todavía estamos pagando. Desde entonces, Antonio Moreno ha estado luchando para que toda España conozca los entresijos de ese engaño. En su web www.estafaluz.com,  Antonio explica minuciosamente toda la historia de esta ingente impostura. Un resumen del fraude puede encontrarse aquí, que básicamente se esquematiza como:

(a) Imposición de restricciones a la libre competencia en el mercado nacional de contadores de la luz:Los fabricantes se unieron para repartirse el mercado y establecer unos precios que hacían muy difícil que el consumidor adquiriera el contador en propiedad, obligando a alquilarlo a la compañía eléctrica.

(b) Cobro por un servicio inexistente: Al consumidor se le está cobrando por la supervisión de los contadores (actualización y renovación), sin que exista un protocolo establecido por el Gobierno para tal tarea, el cual, pese a ser obligatorio por Ley, lleva 30 años sin regularse. Es decir, no existe una norma que obligue a las eléctricas a la supervisión de esos aparatos que alquilan a los usuarios, por lo que en aras de reducir costes de supervisión, y dado que esos aparatos probablemente marcan de más, las empresas deciden no efectuar ese supervisión periódica.

(c) Precios de alquiler de los contadores de luz: Los consumidores hemos estado pagando durante mucho años unos precios de alquiler que han subido desde mitad de los 80 hasta mitad de los 90 en consonancia con los precios de la tarifa eléctrica, en lugar de tener como referencia los precios medios de mercado, que se han ido estabilizando para después disminuir.

Es decir, según Antonio Moreno nos han estafado más de 10000 millones de euros por “obligarnos” a alquilar unos contadores a un precio medio superior al precio medio de mercado, y cuyo precio incluye un servicio de supervisión que no han realizado pese a ser obligatorio por Ley desde 1988, pero que no fue publicado en el BOE, ni lo está a día de hoy.

La cantidad de documentación que muestra Antonio Moreno en su web para sustentar su denuncia es simplemente apabullante, y la lucha que dirime en los juzgados continúa.

5. Otras prácticas sospechosas
Aunque las siguientes prácticas quizá no puedan etiquetarse como un supuesto fraude, sí que retratan bien a las claras varios de los comportamientos de estas compañías:

(a) Déficit tarifario: Les debemos dinero a las compañías eléctricas. Al menos eso es lo que ellos dicen. En 2008 este déficit rondaba los 16000 millones de euros. El déficit tarifario hace referencia a la diferencia entre lo que las compañías obtienen por comercializar la energía y los costes de producción. Es decir, prácticamente estarían vendiendo por debajo de coste. Para paliar este hecho, una parte de nuestra factura de la luz va a cubrir ese déficit, que no es más que una deuda que el Estado ha contraído con las eléctricas y que pagamos como un impuesto más. Este es uno de los motivos por los que pagamos la electricidad tan cara (una de las más caras de Europa), y por el que probablemente estemos “obligados” a seguir pagando durante muchos años más. Aunque algunos economistas ven este problema en parte causado por la inversión en energías renovables, lo cierto es que desde la propia Comisión Nacional de la Energía se reconoció en 2001 una sobrevaloración de los costes de producción de la energía por parte de las compañías eléctricas. Por tanto, estamos pagando un sobreprecio en la factura de la luz destinado a cubrir unas expectativas de ingresos de las eléctricas prometidas por el Gobierno. Recordemos que los beneficios de las eléctricas españolas están por encima de muchas de las enérgéticas europeas. Una explicación igualmente contundente sobre este tema puede consultarse aquí.

(b) Impuesto sobre electricidad: Es un impuesto que ronda el 5% de la suma entre la facturación de la potencia contratada y el consumo realizado. Es decir, no sólo estamos pagando una especie de “impuesto” por el mero hecho de contratar un servicio sin hacer uso de él (lo que sería la cantidad fija que pagamos por contratar la electricidad aunque no consumamos nada), sino que a esa cantidad fija hay que sumarle este impuesto. Es una doble imposición que pagamos mensualmente. Dicho de otro modo, por el mero hecho de darnos de alta en este servicio básico que es el tener acceso a la electricidad no pagamos una cuota de alta y nada más, sino una cuota fija mensual independiente del consumo realizado que tiene además un impuesto asociado.

(c) Cambio de potencia: Muchos consumidores tenemos una potencia contratada superior a la que realmente necesitamos. Cuando queremos bajarnos la potencia tenemos que hacer un pago derivado del cambio del interruptor de potencia (ICP), que suele ser de alrededor de 11 euros. El problema está si queremos volver a contratar la misma potencia de nuevo porque nos hemos equivocado en nuestra estimación, es decir, por las razones que sean queremos dar marcha atrás en los meses siguientes.  Entonces es cuando empiezan los problemas, porque por ejemplo Endesa advierte que el coste superará los 50 euros, o Iberdrola le dice al usuario que tendrá que permanecer durante un año con esa potencia sin posibilidad de volver a subirla. Es decir, aunque los usuarios quieran pagar menos bajándose la potencia contratada, muchos no se arriesgan a hacerlo, porque si en los meses subsiguientes se arrepienten de esa decisión el coste para ellos sería elevado en proporción al supuesto ahorro.

(d) Desinformación: Aunque es cierto que las webs de las eléctricas ofrecen mucha información que ayuda al consumidor a entender la factura de la luz y a gestionar los cambios que crea necesarios, también es verdad que a veces las propias personas que atienden tus dudas telefónicamente siembran el desconcierto (probablemente de manera involuntaria). Por ejemplo, en una de mis llamadas a Iberdrola me han llegado a decir reiteradamente que el precio que se fija diariamente por hora a través de subasta lo impone el Estado, cuando se fija en el mercado mayorista de electricidad.

(e) Puertas giratorias:  Felipe González, Jose María Aznar, Pío Cabanillas, Ángel Acebes, Elena Salgado, Pedro Solbes…, y así podríamos continuar un buen rato con otros nombres de la primera fila de la política que han pasado (o siguen pasando) por el sillón de las eléctricas españolas. Desde luego que esas empresas tienen derecho a contratar primeras figuras públicas para que les ayuden en el cumplimiento de los objetivos, y esas personas tienen también derecho de trabajar fuera de la política. Pero, francamente, la sospecha del carácter lobbista de este tipo de contrataciones es evidente. Muchos de esos políticos continúan teniendo una gran influencia dentro de sus partidos (sobre todo los expresidentes González y Aznar) aún cuando ya no ostentan cargo público. Como Antonio Moreno muestra en www.estafaluz.com, tanto los gobiernos del PSOE como del PP se han visto salpicados en varios de los fraudes que este hombre denuncia.

Cáncer
El último peldaño de este repaso a prácticas cuestionables de las compañías eléctricas es el efecto sobre la salud que tienen las radiaciones electromagnéticas provocadas por la electricidad. En uno de mis posts anteriores realicé una revisión del libro del Dr. Martin Blank: “Overpowered”, donde comentaba los peligros para la salud de este tipo de radiación.

En el caso de la energía eléctrica nos estamos moviendo en el espectro de frecuencias muy bajas, concretamente de 50 Hz. Esa corriente alterna llega a nuestras casas a través de las derivaciones que la compañía eléctrica saca de sus transformadores, con una tensión de 230 Voltios.  Para cubrir nuestras necesidades de potencia de consumo necesitamos que esa corriente tenga una Intensidad determinada. Por tanto, cuando hay mayor demanda de electricidad (mayor consumo) la Intensidad de la corriente se incrementa, y con ésta la energía que desprende en forma de radiación, que es una fuerza que ejerce una influencia a distancia, dentro un “Campo” que tiene una componente eléctrica (Campo Eléctrico) y una magenética (Campo Magnético). Así, la fuerza electromagnética se debe a la interacción entre cargas eléctricas, y se manifiesta a través de los campos eléctrico y magnético, que no es más que la acción a distancia de esa carga. Si la gravedad es una fuerza de acción a distancia provocada por la presencia de una masa en el espacio, el electromagnetismo es exactamente lo mismo pero provocado por una carga en el espacio. Una carga eléctrica produce un campo eléctrico (E) y magnético (B). Ambas magnitudes son vectoriales, es decir, tiene un módulo, dirección y sentido.  La intensidad de campo eléctrico (E) se mide en voltios por metro (V/m), la intensidad de campo magnético (H) en amperios por metro (A/m) y la densidad de flujo magnético (B) en tesla (T). Sobre el campo magnético es sobre el que se pone más atención porque es el más difícil de apantallar que el eléctrico.

El peligro potencial para los ciudadanos proviene de dos fuentes fundamentales: la cercanía a una línea de alta tensión y las derivaciones que alimentan una casa (casi siempre soterradas). Este es el caso más abundante.

Límites de exposición a la radiación (lo que dicen los legisladores y las empresas)

Existen diversas normativas nacionales e internacionales a las que las compañías se aferran. Los niveles de radiación. Por ejemplo:

– España: 100000 nanoTeslas
– ICNIRP (Comisión Internacional sobre Protección Frente a Radiaciones No Ionizantes): 200000 nantoTeslas
– IRPA (Asociación Internacional de Protección contra la Radiación): 100000 nanoTeslas (sugerencia de 1990)

Según Iberdrola, y cito textualemente en una carta que me enviaron en relación a mi consulta sobre este tema: “Esta recomendación ha sido acogida en nuestro país por el Ministerio de Sanidad y Consumo, en su Informe de 12 de Mayo de 2011; por el Real Decreto 1066/2001, de 28 de septiembre, que aprueba el Reglamento que establece las condiciones d eprotección del dominio público radioeléctrico, restirciones a la emisiones radioeléctrias y medidas de protección sanitaria frente a ellas y por el Dictamen de la Real Academia de Ciencias Exactas Española de 8 de Octubre de 2001, los cuales ratifican, de forma unánime, quepor debajo del límite, establecido en 100000 nanoTeslas, no existe perjuicio ni riesgo alguno para la salud de las personas”.

Niveles sospechosos de asociación con cáncer (lo que dicen los investigadores)

Diversos estudios epidemiológicos han mostrado una realidad diferente, muy alejada de los niveles máximos de que los legisladores y las compañías eléctricas defienden:

– 200 nanoTeslas –> Asociado con leucemia en el análisis agregado realizado por  Greenland et al. (2000), sobre varios estudios epidemiológicos entre 1979 y 1999.
– 200 nanoTeslas –>  Asociado con leucemia, pero sólo en exposiciones por la noche (Schüz et al., 2001). Por encima de 200 nanoTeslas no había asociación OR=1.55 (0.65-3.67), pero cuando sólo se tenía en cuenta esa medición durante la noche, entonces OR=3.21 (1.33-7.80). El problema de este estudio es que sólo el 1.5% de los casos estaba por encima de 200 nanoTeslas.
– 400 nanoTeslas –> Asociado con leucemia limfoblástica (Kabuto et al. 2006), hecho sobre niños entre 0 y 15 años con mediciones en su cama RR=4.7 (1.15 -19.0). Los resultados juntando la leucemia linfoblástica y la leucemia mieloide fueron no significativos: RR=2.6 (0.76-8.6)
– 400 nanoTeslas –> Asociado con leucemia en el análisis agregado realizado por Ahlbom et al. (2000), sobre varios estudios epidemiológicos entre 1979 y 1999.

Giorgi et al. (2011) nos dicen que en algunas circunstancias el campo magnético actúa como estresor de las células, produciendo una respuesta fisiológica.Los campos magnéticos de baja frecuencia afectan a las células, produciéndoles estrés, e induciendo la sobreproducción de proteínas y la alteración de la proliferación de la células bacterianas. Sin embargo, reconocen que hay estudios contradictorios en relación a las mutaciones que pueden provocar esos campos magnéticos de baja frecuencia, produciendo efectos genotóxicos y modificaciones del ADN.

Kheifets et al. (2010) por su parte, indican que la Oganización Mundial de la Salud, < en su informe de 2007, dados los pocos resultados positivos de los estudios correlaciones, y los muchos negativos de los estudios experimentales de laboratorio, hace que no se considere peligroso. Sin embargo, la International Agency for Research of Cancer ha clasificado a este tipo de radiación como cancerígena del tipo 2B. Los resultados de su análisis de 7 estudios publicados desde el año 2000 arroja que no existe asociación significativa, pero sí una tendencia positiva entre la exposición a campos electromagnéticos en casa y la leucemia infantil.

Por tanto, sigue habiendo mucha confusión en cuanto a la evidencia científica que asocia la exposición a campos electromagnéticos de baja frecuencia y el desarrollo de leucemia infantil. Tomando en perspectiva esos resultados, parece prudente pensar que en el umbral entre los 300 y 400 nanoTeslas puede haber un incremento de la probabilidad de cáncer. Los demasiado altos intervalos de confianza de los riesgos relativos y la cantidad de factores de confundido que puede haber en esos estudios (algunos no toman mediciones directamente en casa, o en 24 horas, o en diferentes momentos del día) no ayudan a esclarecer el estado de la cuestión.

No obsante, como comentan Calvente et al. (2014), hay un pequeño porcentaje de población (entre el 1 y el 10%) que está expuesta a niveles de radiación de campo magnético por encima de ese umbral de los 300-400 nanoTeslas habitualmente en sus casas.

Como cualquier ávido lector habrá deducido ya, esos 400 nanoTeslas distan mucho del límite de 100000 nanoTeslas de la legislación española, y al que Iberdrola se agarra. Ese límite “legal” es 250 veces superior al que los estudios científicos están considerando como potencialmente peligroso.

Por tanto, existe un pequeño número de ciudadanos que están expuestos continuamente a unos niveles de radiación de campo magnético por encima de lo que algunas investigaciones asocian al incremento de la probabilidad de desarrollar cáncer. Aunque faltan más investigaciones al respecto, hay suficiente evidencia para, al menos, aplicar el principio de precaución.

Declaraciones y resoluciones internacionales  
Ese tremendo desfase entre los límites que la legislación española y las empresas dicen que son peligrosos y los umbrales que la evidencia científica señala como preocupantes han hecho que diversos grupos de científicos y expertos hayan realizado diversos llamamientos públicos para que ciudadanos y, sobre todo, legisladores tomen conciencia de este problema. Raúl de la Rosa, en su recomendable libro “La enfermedad silenciada”, comenta algunos de ellos. Sin embargo, esas sugerencias se centran básicamente en altas frecuencias, y no en bajas frecuencias. No obstante, hay una coincidencia en que se necesita una urgente revisión a la baja de los umbrales que la Ley identifica como seguros.

¿Que podemos hacer?
Ante las situaciones comentadas de fraude, abuso de poder y efectos sobre la salud, podemos tomar diversas medidas, algunas de ellas requieren esfuerzo y coste económico, por lo que cada personas en función de su situación y prioridades podrá plantearse si llevarlas a cabo.

1. Hablar con la compañía eléctrica: El primer paso es hablar con la empresa que suministra electricidad para que explique claramente cuáles son las condiciones del contrato y resuelva todas las dudas del consumidor.  La Organización de Consumidores y Usuarios (OCU) puede ayudarnos.

2.  Consumir en base al precio por hora: Ya que las empresas eléctricas son opacas en cuanto a proveernos de información sobre el consumo por hora, podemos consultar webs como energia.guru, que nos indican cuándo es más económico gastar energía.

3. Visitar www.estafaluz.com: En este magnífica web se nos muestra cómo recuperar nuestro dinero si hemos sufrido alguna de las estafas que allí se explican.

4. Denunciar valores de radiación por encima de 300 nanoTeslas: Independientemente de lo absurdo e insultante de la legislación española en relación a esta materia, hay afortunadamente sentencias judiciales que están dando la razón a los estudios epidemiológicos que sugieren el umbral de 300-400 nanoTeslas como peligroso para la salud. En una de las secciones más interesantes de su  libro, Raúl de la Rosa nos comenta varias de ellas. Concretamente hay dos sentencias judiciales de la Audiencia Provincial de Castellón y de la Audiencia Provincial de Murcia que han obligado a Iberdrola a retirar los transformadores que propiciaban campos magnéticos por encima de ese umbral de 300 nanoTeslas. Hay que recordar que, sobre todo en viviendas de planta baja o dúplex, los cables que alimentan a la urbanización suelen estar soterrados y pasan muy cerca de salones, domitorios y sótanos, pudiendo llegar las mediciones perfectamente a los 1500 nanoTeslas. Las compañías eléctricas podrían mejorar esta situación modificando las instalaciones o apantallándolas.

5. Escoger compañías de energía 100% verde: En la medida de lo posible podemos intentar dejar a Iberdrola, Endesa, Gas Natural, etc. y pasarnos a compañías mucho más pequeñas y productoras de energía verde.

6. Votar a una opción política que luche realmente contra este tipo de prácticas: Con todas la prudencia que requiere esta opción, no debo obviarla, porque el instrumento más poderoso que tenemos los ciudadanos para intentar cambiar esta situación (si es que estamos en desacuerdo con ella, claro está) es a través del voto a una fuerza política que otorgue un papel más importante a preservar los derechos de los ciudadanos en contraposición a la defensa de los intereses económicos de estas grandes compañías.
 
Conclusión
Iberdrola, en su código ético nos indica lo siguiente: “Queremos ser la compañía energética global preferida por nuestro compromiso con la creación de valor, la calidad de vida, la seguridad de las personas y del suministro, el cuidado del medio ambiente y la orientación al cliente”. 

Si los lectores de este blog, tras este largo post, aún piensan que esa declaración de intenciones tiene algún atisbo de realidad entonces seguramente identificarán a esas grandes empresas como adalides del marketing del “hada madrina” que comentábamos al principio, donde la satisfacción del cliente es el objetivo primordial.

Sin embargo, probablemente otros lectores piensen que realmente el marketing que realizan se acerca más a un “trilero” que a una “hada madrina”. Mi opinión personal, basado en toda esta evidencia, es que es así. El primer objetivo de la empresa es satisfacer a sus accionistas y mantener el status quo económico de sus dueños y ejecutivos. Esto es una perversión de la zona de tolerancia que Doyle defendía, y que comentábamos al principio de este artículo.

Desde luego que hay que reconocer también que estas empresas aportan cosas muy positivas a la sociedad. Generan muchos puestos de trabajo y, por tanto, mucho dinero en seguros sociales e impuestos. Están cumpliendo con su deber, nada más. Colaboran con diferentes iniciativas interesantes; por ejemplo, Endesa está patrocinando la Liga ACB de baloncesto, dándole un impulso económico relevante. Son grandes empresas que pueden ayudar de diferentes maneras a la sociedad. Pero no hay que olvidar que este tipo de empresas no dudan en hacer despidos masivos para mantener sus beneficios, es decir, primero los accionistas, y después (mucho después) los trabajadores…y también los consumidores.

Muchos de mis alumnos tienen como modelos de empresarios y de empresas a este tipo de personas y entidades. Cuando les explico casos como este alguno todavía reacciona con la manida tintinela de que todos cometemos errores y que nadie es un santo. Y en parte tienen razón, todas las personas y organizaciones se equivocan alguna vez; el problema viene cuando se cometen errores de manera sistemática, consciente y sostenida con el fin de beneficiar a unos pocos y perjudicar a muchos.  Es entonces cuando pienso que, si pese a todas estas evidencias,  hay alumnos que todavía defienden las prácticas de estos empresarios y empresas, probablemente serán sus sucesores en el futuro.

 
Todos los posts relacionados




(#7). EL EFECTO PLACEBO

[MONOTEMA] Hemos oído hablar muchas veces sobre este “efecto”, pero quizá no somos del todo conscientes de la importancia que tiene para nuestra vida diaria. La eficacia de los medicamentos que tomamos, la evaluación de productos que compramos, nuestras actitudes, emociones y decisiones están condicionadas por la presencia del placebo.

Medicina, psicología y marketing son probablemente las principales ramas de la ciencia que han puesto su foco en este curioso fenómeno. De hecho, es reconocido como un efecto psicológico, que tiene consecuencias no sólo emocionales, sino también fisiológicas, si es que se pueden separar ambas cosas (algo que algunos investigadores dudamos).

He tenido la fortuna de investigar sobre este efecto en marketing, lo que me ha permitido bucear por diferentes disciplinas en pos de entender  por qué se produce, sus límites y sus consecuencias. Buena parte del contenido de esta entrada está tomada de uno de mis últimos artículos, donde estudio la presencia de este efecto en la valoración de productos artísticos. Os remito a él si querés consultar referencias al respecto. En este post, por tanto, nos adentraremos de manera ineludible en una mixtura de expectativas, credibilidad y sesgos cognitivos.

Una amplia exposición sobre este tema la realicé en uno de los programas de Doble Cara:
Programas de Doble Cara

¿Qué es el efecto placebo?
En el ámbito sanitario, el placebo se define como una sustancia o procedimiento que no tiene poder por sí mismo de producir el efecto que es buscado o esperado (Stewar-Williams & Podd, 2004). Pero aunque no tenga ese poder, la cuestión es que, como bien repasan Shiv et al. (2005), existe una amplia evidencia en la literatura médica sobre la efectividad de los tratamientos con placebo, como la mejora (y en ocasiones cura) de enfermedades físicas y mentales: dolor, problemas cardiovasculares, depresión…Son los cuadros que poseen un importante componente psicológico, como el dolor, la ansiedad o la depresión donde las respuestas al placebo son considerablemente elevadas. Como indican Macedo, Farre & Banos (2003), hay evidencias del uso del placebo en el Antiguo Egipto, aunque no ha sido hasta la segunda mitad del siglo XX cuando se ha convertido en un elemento fundamental para los ensayos clínicos.

El efecto placebo en marketing se refiere a que las experiencias de consumo de los individuos dependen de las expectativas formadas sobre los productos. De este modo, altas expectativas sobre los productos tenderán a producir mejores evaluaciones de estos, en contraposición a la situación de bajas expectativas, aunque en ambos casos el producto sea objetivamente idéntico. Por lo tanto, y empleando un lenguaje muy simple, si un consumidor espera que un producto le satisfaga, entonces muy probablemente resultará satisfecho, independientemente de que el producto ofrezca realmente lo que esa persona está buscando.

Tanto en el ámbito de la medicina como en el del marketing, el efecto placebo ocurre cuando ese tratamiento inocuo (medicina) o ese estímulo neutro (marketing) son percibidos de tal manera que sus efectos ni son inocuos ni son neutros.

Causas del efecto placebo
Existen varios factores que los investigadores han identificado como determinantes de la ocurrencia de este efecto:

1. Expectativas y credibilidad
Las expectativas y la credibilidad son dos variables importantes para que se produzca ese efecto; la primera de ellas está importantemente condicionada por la última. De este modo, si el individuo espera que un tratamiento funcione (ya sea por su experiencia anterior con tratamientos similares, o por el propio atractivo de este), y además confía tanto en quien prescribe el tratamiento como en el producto en sí, entonces las condiciones para que ese efecto se produzca serán muy favorables. Y desde luego la literatura muestra ejemplos extremos a este respecto, como las intervenciones quirúrgicas realizadas con anestésicos placebo (Lau, 2011).

2. Condicionamiento clásico
Además de las expectativas y la credibilidad, el efecto placebo se ha explicado por el aprendizaje del individuo basado en el condicionamiento clásico, es decir, si un individuo ha reaccionado favorablemente hacia un estímulo que esperaba que le produjera un efecto positivo (como un medicamento), entonces ante estímulos similares (placebo) los efectos volverán a producirse al evocarse una respuesta condicionada.

3. Sistemas nervioso y hormonal
Desde el punto de vista químico se producen una serie de reacciones en los sistemas nervioso y hormonal que explicarían efectos tales como, por ejemplo, la disminución o supresión del dolor.

Enck & Klosterhalfen (2009), sostienen que la oxitocina es un mediador de la respuesta al placebo. Montgomery &  Kirsch (1996), centran su explicación en las endorfinas. Ambas moléculas son hormonas que actúan también como neurotransmisores, y al ser segregadas nos hacen sentirnos mejor, disminuyen el dolor y  aumentan la sensación de felicidad. Espai et al. (2015), por su parte, añaden la dopamina como otra hormona que se libera en este proceso cuando se espera conseguir una recompensa satisfactoria, y que produce placer, aunque de un modo distinto a la serotonina, esta vez activando el sistema nervioso y la frecuencia cardiaca.

Por tanto, el esquema básico de funcionamiento del efecto placebo vendría dado de la siguiente manera: Cuando al recibir un estímulo que es en sí neutro pero que desconocemos que lo sea, entonces generamos expectativas sobre su efecto, que están a su vez determinadas por la credibilidad de la fuente que nos proporciona el estímulo o de lo que rodea al estímulo en sí (sus características extrínsecas). Esas expectativas también pueden generarse simplemenente por condicionamiento clásico, es decir, por un aprendizaje repetitivo. En ambos casos, las expectativas (que son un mecanismo psicológico) producen cambios químicos en el organismo a través de la secreción hormonal de oxitocina,  endorfinas y dopamina que hacen, básicamente, que nos sintamos mejor. Entonces atribuimos esa sensación de mejora y de bienestar al estímulo, cuando ha sido generada de manera autónoma por el propio individuo.

Efecto nocebo
Es preceptivo señalar, asimismo, que el efecto contrario al placebo se puede producir cuando las expectativas son negativas, es decir, y en el caso del ámbito sanitario, cuando el paciente cree que el tratamiento no va a funcionar o le va a perjudicar. Ello se conoce como efecto nocebo. De este modo, placebo y nocebo son dos efectos que dependen de la naturaleza de las expectativas generadas (positivas o negativas, respectivamente) sobre el producto consumido, es decir, dos caras de la misma moneda.

Algunos ejemplos de efecto placebo
–  Las investigaciones de Irmak, Block & Fitzsimons (2005), Shiv, Carmon & Ariely (2005), o Wright, da Costa, Sundar, Dinsmore & Kardes (2013) encuentran ese efecto en bebidas energéticas, mostrando en los participantes cambios en su experiencia con esos productos, tanto a nivel fisiológico (presión arterial, reflejos, alerta mental, activación percibida), como psicológico-conductual (expectativa sobre el efecto producido, solución de tareas que implicaban un esfuerzo mental). El efecto placebo era suscitado simplemente manipulando variables de marketing como el precio, el sabor, el envase, la cantidad de información suministrada o la disponibilidad del producto.

Blanco, Barberia & Matute (2014) muestran que si un medicamento no tiene efectos secundarios, parece que funciona aunque no sea efectivo en absoluto. Los investigadores realizaron un experimento en el que unos participantes reclutados a través de Internet podían decidir si le administraban o no una nueva medicina a una serie de pacientes ‘virtuales’ aquejados de una enfermedad. El experimento estaba programado para que un número elevado de pacientes se curara espontáneamente, independientemente de si había tomado la medicina o no. Los investigadores observaron cómo el falso medicamento era utilizado en el experimento mucho más a menudo si se presentaba como ‘libre de efectos secundarios’, tal como ocurre en muchas ocasiones también en la vida real. Cuanto más se usaba el supuesto medicamento, más sobreestimaban su eficacia. En definitiva, muchos participantes acababan creyendo que un producto sin valor terapéutico alguno era de hecho muy eficaz para tratar esa enfermedad.

– Espai et al. (2015), por su parte, muestran que el precio de un medicamento para tratar el Parkinson  condiciona las respuestas motoras (un 28 % mejor) de los participantes en el experimento. Concretamente estudiaron a 12 pacientes a los que administraron dos dosis de placebo haciéndoles creer que era un medicamento para su enfermedad. Uno valía 90 Euros y el otro 1300 Euros.

– Otro ejemplo ilustrativo sobre cómo funciona el placebo lo tenemos en la reciente investigación de Fritz et al. (2014) sobre la percepción de sonido de los violines Stradivarius por músicos profesionales. En esta ocasión, los violinistas debían escoger qué instrumento llevarían a una supuesta gira de conciertos entre doce violines, seis nuevos y seis antiguos –de ellos cinco Stradivarius–. Así, los músicos probaron los instrumentos a ciegas durante algo más de una hora en un aula de ensayo y en una sala de conciertos con 300 butacas. Varios de los participantes escogieron uno de los nuevos violines y lo preferieron sobre aquellos que eran Stradivarius. Es decir, cuando no se sabe que un violín es Stradivarius la percepción sobre su sonido es diferente que cuando sí se sabe su “marca”.

Placebo en productos artísticos
En mi investigación sobre valoración de una obra poética muestro claramente cómo el nombre del autor condiciona la valoración de la misma. Ante dos poemas idénticos, la valoración que se realiza no es la misma si el poema es anónimo o supuestamente está firmado por un gran autor, como Gustavo Adolfo Bécquer o Pablo Neruda.  Los resultados de mi estudio son robustos ante diferentes métodos de recogida de datos y poemas analizados. Podéis consultar mi investigación completa aquí.

Esto prueba algo que, aunque quizá ya sea muy aceptado,  hasta ahora no se había plasmado científicamente en obras literarias: La valoración de un producto artístico depende de las circunstancias extrínsecas al producto, es decir, no depende sólo de su calidad en sí, sino de lo que rodea a esa obra, como el autor de la misma.

Históricamente, además, el mundo de la literatura se ha visto salpicado de sospechas sobre los efectos placebo y nocebo relacionados con la identidad de género del autor. De este modo, durante varios siglos y en países diferentes, muchas escritoras han preferido firmar sus obras con el pseudónimo de un nombre masculino, en aras de que no se produjera el efecto nocebo, ni por parte de la entidad que tenía que valorar sus obras, ni por parte del público que hipotéticamente las leería. Incluso hasta bien entrado el siglo XX se pueden encontrar célebres ejemplos de ello, como el de la escritora española María de la O Lejárraga, quien firmó sus primeras obras con el nombre de su marido, Gregorio Martínez Sierra, también escritor. Otros casos, anteriores al siglo XX, los podemos encontrar en Cecilia Böhl de Faber (firmaba como Fernán Caballero), Mary Ann Evans (George Elliot) o Amandine Aurore Lucile Dupin (George Sand). En esa época se debatía acerca de la pretendida inferioridad intelectual de la mujer con respecto al hombre (Gómez, 2002). Por tanto, los prejuicios culturales relacionados con la discriminación por género podrían producir expectativas negativas sobre la valía de un producto, en este caso una obra artística, por lo que algunas autoras optaban por tratar de evitar ese posible efecto nocebo.

No obstante, un caso paradigmático que refleja el efecto placebo ocurrió hace unas pocas décadas. Como bien indica Zurro (2013), la famosa escritora inglesa Doris Lessing, intentó publicar a comienzos de los 80 dos novelas bajo el seudónimo de Jane Summers. Sus propios editores rechazaron los originales, y aunque consiguió finalmente publicarlos, fueron ignorados totalmente por la prensa. Más tarde la escritora comentaría que quería demostrar que a veces el rechazo no tiene nada que ver con la calidad del libro ni con el talento del autor, sino que responde a una especie de mecanismo automático; como el nombre no es conocido nadie le hace caso. Lessing ganaría el premio Nobel de Literatura en 2007.

Límites al placebo
Pero el efecto placebo no se produce siempre, sino que se manifiesta cuando se dan ciertas condiciones. Así, Marín & Marín (2013) nos remiten a una referencia demasiado lejana en el tiempo,  Delay & Pichot (1966), para decirnos que sólo un 34% de la población es susceptible de experimentar el efecto placebo, confluyendo características de personalidad como la extraversión, ansiedad, capacidad de sugestión, etc. Ciertamente sería conveniente disponer de datos más actuales sobre la propensión personal al placebo.

Lo que sí muestran otros estudios más recientes es que las expectativas no se pueden “inflar” indefinidamente para obtener ese proceso de sugestión que es parecido a lo que en marketing y psicología se denomina asimilación de expectativas. Así, los individuos asimilarán cualquier discrepancia entre lo que esperan y lo que reciben, con objeto de reducir el conflicto psicológico derivado de su experiencia. La asimilación de efectos hace que los consumidores ajusten sus ratios de satisfacción más aproximados a sus expectativas iniciales. Los consumidores no suelen admitir que sus expectativas iniciales estaban equivocadas, y tienden a proteger su ego. Esta asimilación tiene relación con el sesgo de confirmación, sesgo de evidencia o confirmación de expectativas, diferentes denominaciones para ilustrar un concepto simple: tendemos a autoproteger nuestras creencias y prejuicios. Así, la resistencia de los individuos a cambiar sus esquemas mentales y a buscar explicaciones que concuerden con sus creencias, obviando la información no concordante, es un fenómeno también conocido como correlación ilusoria (Kunda, 1999), desatención ciega (Punset, 2010), o simplemente autoengaño (Von Hippel & Trivers, 2011).

Sin embargo cuando esas expectativas se inflan demasiado aparece el efecto contraste, que invalida cualquier manifestación del placebo. Cuando se produce una discrepancia negativa entre las expectativas y el desempeño percibido, se produce un efecto contraste que afecta negativamente y de forma importante a los juicios de satisfacción. Por tanto, existe un umbral donde la persona pone en una balanza lo que esperaba del producto/tratamiento y lo que realmente está percibiendo y ve que hay mucha diferencia. En ese momento surge el contraste psicológico y ya es muy complicado que el efecto placebo aparezca.

Como muestro también en mi estudio, la experiencia de la persona que recibe el tratamiento o que evalúa ese producto condiciona significativamente la intensidad del efecto placebo. Cuando el estímulo es evaluado por personas muy experimentadas el efecto se debilita. Así, es más débil el efecto encontrado en la valoración de un producto artístico por las personas más egregias en esa especialidad artística. Aunque no tengo evidencias de ello, tal vez podría trasladarse el mismo razonamiento para pensar que un médico, un biólogo o un enfermero serán mucho menos proclives a tratamientos sanitarios con placebo por precisamente tener gran experiencia en ese campo.

Placebo y pseudociencia
No tengo nada claro donde acaba la ciencia y dónde empieza la pseudociencia, y si hay que entender la segunda  como algo peyorativo. Haremos una valoración de este tema en un futuro post.

Pero si hablamos de conceptos como homeopatía o clarividencia, términos asociados frecuentemente a la pseudociencia, es indudable pensar en el placebo como mecanismo de actuación para entender el supuesto efecto de ciertos productos terapéuticos y de las predicciones de algunos adivinos. En el primer caso, el placebo actuaría principalmente por el mismo proceso que lo hace cuando en los ensayos clínicos se compara un nuevo fármaco con una pastilla inocua (placebo). La pastilla inocua sería el medicamento homeopático. En el segundo caso el placebo actuaría fundamentalmente por un mecanismo de autoengaño, por el cual, por ejemplo, de 10 tratamientos con placebo (predicciones de un adivino) sólo “funciona” 1 (sólo acierta 1 vez), ya sea por puro azar o porque lo hemos “provocado” nosotros con nuestras expectativas. Sin embargo, el mecanismo psicológico de la consistencia cognitiva comentado anteriormente,  hace que demos mucho más valor a ese único acierto que a los 9 fallos restantes. Esa es la explicación de que algunos piensen que siempre que lavan el coche llueve. Si ello ocurre 1 de 10 veces que lavan el coche le otorgarán más peso a esa única vez que a las demás, empleando lo que también se denomina sesgo de confirmación.

 
Conclusión
El efecto placebo es un proceso psicológico de respuesta a un estímulo que está condicionado por factores extrínsecos al estímulo, y que hace que éste produzca efectos  psicológicos y fisiológicos en la persona que lo recibe, que no se producirían se se eliminan esas características extrínsecas. Es una forma de cambiar comportamientos y actitudes por el mero hecho de que las personas crean que con ese estímulo se pueden cambiar. Eso es, sin lugar a dudas, fascinante desde todos los puntos de vista.

El hecho de poder inducir sólo con nuestra mente reacciones hormonales que nos ayuden a ser felices es extraordinario, aunque también tiene varias lecturas negativas, como que podemos autoengañarnos fácilmente para proteger nuestras creencias y prejuicios.

El efecto placebo hace que la vida sea más dura e injusta para muchos. Por ejemplo, ser músico, pintor, escritor, etc. se convierte en una profesión ingrata para los que comienzan y no tienen un nombre. Por muy buenas que sean sus obras, su valoración depende en gran medida del nombre de quien las firma. Si las de los artistas famosos son compartivamente peores, no serán tan mal valoradas por ser precisamente personas prestigiosas. Por eso en marketing son tan importantes conceptos como la imagen de marca o el precio psicológico, porque condicionan las expectativas de los consumidores y sus valoraciones, decisiones y experiencias con los productos.

En enero de 2003, el colectivo Mike Nedo consiguió colgar durante varias horas un cuadro “falso” en el museo Guggenheim de Bilbao, una obra simple que representaba una espiral alrededor de un corazón. Ninguno de los asistentes al museo se dio cuenta de que la obra era espuria, hasta que un vigilante de seguridad apreció que había un cuadro más de la cuenta. Mike Nedo quería denunciar con esta acción el falso valor del arte moderno, argumentando que cualquier obra podría ser respetada y considerada como arte si se difunde de manera adecuada. En 2011, además, un hecho curioso pareció darles la razón, ya que la famosa diseñadora Agatha Ruiz de la Prada creó un trofeo para la Vuelta Ciclista a España con un sorprendente parecido al cuadro impostor de Mike Nedo. ¿Los responsables de la Vuelta Ciclista a España hubieran valorado de igual manera el mismo diseño del premio si en vez de estar firmado por Ruiz de la Prada hubiera estado firmado por Mike Nedo? Juzgad vosotros mismos…




(#6). ¿VIVIMOS MÁS Y CON MEJOR SALUD?

[MONOTEMA] En numerosas ocasiones nos dicen que sí, que vivimos mucho más y mucho mejor que antes. El entrañable Eduard Punset nos lo cuenta en sus libros y en su web, y diversos expertos nos dicen que ya no existe el envejecimiento; ahora vivimos efectivamente más y mejor.

Pero, como siempre, hay que profundizar un poco para ver los claroscuros de este tipo de afirmaciones. Si se lanza el mensaje a la población de que hace 100 años se vivía de media 40 años y ahora 80, y que estamos cada vez más sanos, quizá muchos ciudadanos se quedarán con la superficie de estas afirmaciones, sin cuestionarse cuál es el dibujo que se esconde tras esas cifras.

Hace unas pocas semanas, la Revista Española de Investigaciones Sociológicas publicaba este artículo, firmado por Juan Manuel García González, en el que se realiza un análisis para el caso español de las causas de esperanza de vida desde 1980 a 2009. Empezaremos por este interesante artículo para después ir aderezando este post con otros datos no menos esclarecedores.

Vivimos más…con matices
La esperanza de vida se ha doblado en España desde 1910. Esto es innegable. La principal causa de ello es la disminución de la mortalidad infantil. Este hecho ya nos da una de las claves de esta cuestión. No vivimos 40 años más, sino que hay muchos menos fallecimientos de niños (afortunadamente), lo que hace que la media de edad al morir ya no se vea tan condicionada por ello. Aunque parezca una obviedad, hay que resaltarlo igualmente; el extraordinario incremento de la esperanza de vida le debe mucho a la bajada de la mortalidad en niños.

En 2009, la esperanza de vida al nacer en España para los hombres era de 78.5 años y para las mujeres de 84.5.  Y ciertamente hemos mejorado, porque al margen de los datos sobre mortalidad infantil, las personas adultas viven más que antes. Así, como dice el artículo,  a los 35 años las ganancias de esperanza de vida son de 18,6 y 14,6 años para mujeres y hombres, respectivamente. A los 65, 11,6 y 8,3 años. A los 80, 4,5 y 3,3 años. Y a los 90, 0,9 años para ambos sexos. Por tanto, es verdad, vivimos más, pero la ganancia de años disminuye ostensiblemente con el incremento de la edad. Esto quiere decir que por, ejemplo, una persona de 65 años tiene una considerable ganancia de esperanza de vida con respecto a hace 100 años (alrededor de una década más de vida), pero un anciano de 90 años prácticamente se morirá a la misma edad que lo hacían los ancianos de 90 años en 1910.

Y, aunque esto sea también obvio, conviene recordar que la vida no se ha alargado significativamente. Hay un límite biológico que no conseguimos mejorar de manera relevante, al menos por el momento, pese a que cada vez más comprendemos mejor las causas del envejecimiento, con el acortamiento de los telómeros y la metilación del ADN como elementos esenciales.  Antes también las personas llegaban a sobrepasar los 90 años. Recordemos, por ejemplo, al filósofo inglés Thomas Hobbes, quien nació en 1588 y murió en 1679, es decir,  vivió 91 años.  Por tanto vivir casi 100 años no es una cuestión sólo del siglo XXI. No obstante, el mensaje subyacente es optimista, y como bien relata el artículo, es un logro que en sólo 100 años haya ocurrido esto, siendo más patente la mejora de la esperanza de vida en adultos desde 1970 con repecto al periodo anterior.

Premios Nobel mejor que jugadores de béisbol
Estudiar una población tan heterogénea como la de un país tiene pequeños inconvenientes derivados de la cantidad de subpoblaciones que existen. Por ejemplo, el incremento de la esperanza de vida adulta podría darse de manera muy alta en cierto grupo social y de manera inapreciable en otro, pero al final el valor promedio sería positivo.

Por eso a veces conviene también poner a prueba la hipótesis de que vivimos más con grupos de población menores, pero con un mayor nivel de homogeneidad, en el sentido de que los estilos de vida son generalmente más homogéneos que los de la extensa y divergente población de un país.

 
Para ello hay que tener bases de datos de ese tipo de poblaciones, y yo, afortunadamente, dispongo de dos de ellas.

De este modo, he analizado a los jugadores de béisbol que han jugado las ligas mayores de Estados Unidos a lo largo de la historia (más de 18000) y a los hombres que ha recibido un Premio Nobel (más de 800). Ambas poblaciones constituyen grupos medianamente homogéneos de hombres, con estilos de vida que son más similares entre sí (admitiendo divergencias, por supuesto), que los que podrían tener una población tan diversa como la de un país.

En primer lugar he estudiado la vida media en función del nacimiento en diferentes periodos de tiempo desde 1800, y en segundo lugar he descrito las muertes década a década desde 1950. Ambos análisis son pertinentes para analizar la evolución de la esperanza de vida.

 
En relación al análisis desde el punto de vista de nacimientos, es claro que ha habido una evolución positiva de la esperanza de vida, que es mucho más patente en los jugadores de béisbol. Los científicos han aumentado relativamente menos su vida, pero es que ya partían de unas medida de tendencia central (media y mediana) muy altas. Lo que han mejorado ostensiblemente los científicos es su “longevidad”, siendo el porcentaje de ellos que sobrepasa los 90 años realmente extraordinario (37.6% para los nacidos entre 1911 y 1920).

Si analizamos ahora las muertes en las últimas décadas, llegamos a conclusiones similares; existe una evolución creciente de la esperanza de vida y de los mayores de 90 años, que vuelve a ser más patente entre los científicos que entre los deportistas.

Globalmente, estos datos nos están diciendo que el estatus social es un condicionante muy importante de la esperanza de vida de subpolaciones, y que la vida nos es igual de extensa para todos, ni mucho menos. En la década 2001-2010 hay unas diferencias muy notables entre la esperanza de vida de deportistas profesionales  (como los jugadores de beisbol) y los científicos y diferentes personalidades (escritores, políticos, etc.) que reciben el Nobel. Eso es patente, tanto en la vida media, en la vida mediana y en el porcentaje de personas que sobrepasan los 90 años.

De este modo, sí, vivimos más, pero no todos por igual. En dos poblaciones de hombres con raza prevalentemente blanca y con una situación económica generalmente “acomodada”,  el estilo de vida (y aquí podriamos englobar la educación, hábitos de vida,  etc.) condiciona la esperanza de vida y la probabilidad de llegar a vivir más de 90 años. Y como he dicho anteriormente, vivir muchos años no es algo del siglo XXI, ya durante todo el siglo XIX los Premios Nobel llegaban en promedio a los 80 años de vida.

 
Claroscuros
Volviendo al artículo de J. M. García, el autor apunta varias claves sobre aspectos de la salud que condicionan la esperanza de vida.

(a) Mejora cardiovascular: Existe una evolución positiva desde 1980 en cuanto al decrecimiento de la mortalidad por enfermedades cerebrovasculares.

(b) Incremento de las enfermedades degenerativas: Sin embargo, desde 1980,  los trastornos mentales se han multiplicado por cuatro en el grupo de 65-79 años, por doce en el de 80-89 y por veintidós en el de 90 o más años. En el caso de las nerviosas, los factores de multiplicación han sido dos, cinco y ocho, respectivamente.

(c) Cáncer: En los últimos años, la incidencia de algunos cánceres ha aumentado (como el de pulmón para las mujeres) y otros han disminuido (como el de estómago). El incremento de la esperanza de vida aumenta a su vez el riesgo de padecer cáncer, aunque los tratamientos médicos y la mejora de ciertos hábitos de salud (como la disminución del consumo de tabaco en hombres) juegan a favor de la salud.

Algunos de estos aspectos y otros más merecen ser comentados, con el fin de tener una visión más completa sobre la realidad de nuestra salud en las últimas décadas y las perspectivas futuras. Emplearé datos de otros países y estadísticas más globales.

1. Cáncer
Si tomamos datos de Estados Unidos entre 1975 y 2011, vemos que la incidencia de cáncer es prácticamente la misma hoy que hace más de 30 años, con un ligero descenso para los hombres y ascenso para las mujeres. Estos datos no son muy esperanzadores. Bien es cierto que se podría decir que, dado que la población ha envejecido y ello incrementa per se la probabilidad de cáncer, esa estabilidad de cifras es un signo positivo. Lo que sucede es que hay otros datos que no invitan al optimismo. Por ejemplo, la incidencia de cáncer infantil ha aumentado, y ciertos procedimientos de cribado (como el del cáncer de mama) están seriamente cuestionados por su eficacia. Si a esto unimosel artículo de The Lancet que prevee para 2030 se incrementen las enfermedades oncológicas en un 75%, entonces el panorama se convierte en realmente preocupante.

Si no hemos sido capaces de reducir la incidencia de cáncer en un contexto de descenso en el consumo de tabaco, tenemos que estar doblemente insatisfechos.
lungcancercaComo muestra este gráfico, el consumo de cigarrillos ha caído prácticamente a la mitad desde los años 70. Obviamente esto se relaciona con las curvas de incidencia de cánceres y su periodo de latencia, destacando el ascenso en las mujeres.

Por tanto, el consumo de tabaco cae a la mitad mientras la incidencia de cáncer de otros tipos diferente al de pulmón crece.

mail-general-incidence
femal-general-incidence

2. Alergias
Si la disminución de muertes por enfermedades infecciosas ha sido un innegable avance en las últimas décadas, sobre todo en los niños, uno de los precios que se está pagando por ello es el incremento de las alergias, cuyo aumento es en parte (sólo en parte) explicado por esta “hipótesis de la higiene”.  Desde 1997 hasta 2011 las alergias de la piel y a la comida se han incrementado en niños, manteniéndose estable las respiratorias, como muestra el siguiente gráfico:

db121_fig01Más de un tercio de los niños de este reciente estudio en Estados Unidos era sensible a uno o más alérgenos. Y según ciertas previsiones, se espera que la incidencia de alergias en la población occidental se duplique en 2025.

3. Resistencia a los antimicrobianos
Si bien es cierto que las vacunas y los anitbióticos supusieron una revolución en el ámbito de la salud que han tirado de la esperanza de vida hacia arriba, no es menos cierto que la situación lentamente está comenzando a cambiar. La resistencia a los antimicrobianos es una realidad en los países desarrolladosdonde muchas personas consumen de forma inadecuada antibióticos, otros lo hacen de manera abusiva, y la gran mayoría no sabemos realmente cuánta cantidad de éstos ingerimos a través de la comida (lacteos y carnes).

Según este informe de la Organización Mundial de la Salud, este tema es de gran preocupación en todo el mundo, pudiendo volver a la situación que teníamos hace décadas donde no existían antibióticos que pudieran curar unas anginas, una neumonía o una tubercolsis, enfermedades que se volvían en muchos casos fatales. De hecho, en 2011 hubo 630000 casos de tuberculosis multi-resistente.

4. Obesidad y diabetes
La obesidad y la diabetes están creciendo en todo el mundo. En esta web puede encontrarse centenares de referencias bibliográficas sobre diabetes y las posibles causas de su incremento y algunos datos interesantes sobre obesidad. Como puede apreciarse en el siguiente gráfico la prevalencia de diabetes ha crecido no linealmente en las últimas décadas, coincidiendo con el incremento en la fabricación de productos químicos. Como bien sabemos, la asociación no implica causalidad, pero tanto el incremento de la exposición a tóxicos medioambientales, como a la contaminación electromagnética ha crecido exponencialmente desde los años 50 del siglo pasado. Esta es una de las hipótesis sobre las que el doctor Sam Milham sustenta su afirmación de que la obesidad y diabetes (al margen de otro tipo de enfermedades) están relacionadas con la electrificación.

t2dchems Y desde luego, la tendencia en la incidencia de la obesidad sigue un patrón similar, como puede verse en la figura siguiente. Tanto para diabetes como para obesidad, el incremento de su incidencia en niños es altamente preucupante.
nhanes-fig55. Enfermedades neurodegenerativas
Las esclerosis lateral amiotrófica (ELA), y las enfermedades de Parkinson y Alzheimer, son algunas de las patologías neurodegenerativas más importantes. Como he indicado anteriormente, de esto se hacía eco el artículo de J. M. García para el caso de España.

Así, por ejemplo, los datos sobre incidencia de Parkinson y Alzheimer son muy reveladores. He aquí la evolución en las últimas décadas de las muertes por Parkinson en Estados Unidos y del Alzheimer en Finlandia, respectivamente.

m6436qsf
ksyyt_2011_2012-12-21_kat_003_en_001
Conclusión
Es innegable el incremento de la esperanza de vida en los países occidentales en los últimos 100 años. La mejora de la higiene, los avances médicos, las vacunas, los antibióticos, entre otros factores, han disminuido la mortalidad infantil y han mejorado las expectativas de vida de los mayores de 65 años. Sin embargo, la vida tiene  un límite biológico que se mantiene prácticamente constante a lo largo de los siglos, estando su último (o penúltimo) peldaño en la escalera de los 90 años. Por tanto, no vivimos más, sino que muchos de los que morían antes de lo debido  lo hacen ahora después. Y desde luego la probabilidad de llegar “tan lejos” no es para todas las subpoblaciones igual; los estilos de vida condicionan claramente el paisaje de la longevidad, tal y como he comentado al comparar los jugadores de béisbol frente a los ganadore del Premio Nobel.

Si este incremento de la vida ha venido de la mano de una mejor salud es otro cantar.  Es cierto que hay disminución en las enfermedades del aparato circulatorio (en el caso visto de España),  y también que el consumo de tabaco ha decrecido ostensiblemente (no en todos los países por igual, por cierto). Sin embargo, este último hecho no ha afectado a la incidencia global de cáncer (sí sobre algunos en concreto, como el de pulmón para el hombre), lo que indica que hay otros factores ambientales que están enfermando a la sociedad.

Obesidad, diabetes, alergias, cáncer, enfermedades neurodegenerativas y resistencia a los antibióticos son serias amenazas a la salud de los occidentales, con consecuencias muy graves económicas (una sociedad enferma es menos productiva y necesita mayores costes médicos), y sociales. Y aunque el envejecimiento de la población pueda explicar parte de la incidencia de casos de cáncer y enfermedades neurodegenerativas, los datos en niños sobre cáncer, alergias, obesidad y diabetes muestran claramente que hay otros muchos elementos a tener en cuenta.

La continua exposición a los tóxicos medioambientales (alimentación, polución, radiación electromagnética, etc.) afecta, entre otros,  al sistema inmune y al ADN, y están contribuyendo a construir una  sociedad enferma que vive más, es cierto, pero a un precio que muchos quizá no hubieran deseado pagar.

En cualquier caso el mensaje debe ser positivo en el sentido de que, siendo conscientes de esta información, en nuestra mano está seguir manteniendo este nivel tecnológico, pero legislando adecuadamente para proteger al ciudadano de los hórridos intereses de  algunas industrias y gobernantes. El progreso tecnológico y económico no debe ser paradójico, y puede convivir con los intereses de la salud. Sólo hace falta que el ciudadano esté informado, despierte de ese letargo inducido, y emprenda las acciones pertinentes para cambiar esta situación.

Todos los posts relacionados




(#4). MANZANAS CANCERÍGENAS

[MONOTEMA] Hace unas semanas, repasando una de mis webs favoritas sobre entrenamiento y nutrición, www.bayesianbodybuilding.com, tropecé con esta historia que el bueno de Menno Henselmans, reputado entrenador y al que tengo cierto aprecio, comentaba.

Se trata del célebre caso de las manzanas tóxicas en Estados Unidos, conocido como “The Alar Scare”, en referencia al temor que sufrió la sociedad norteamericana en 1989 cuando en un programa de televisión de la CBS se anunciaba que las manzanas tenían un aditivo tóxico, denominado “Alar”, que las hacía cancerígenas.

Henselmans, brevemente explica cómo se creó una alarma nacional basada en una mentira; que ese componente de las manzanas provocaba cáncer, siendo los niños el grupo de mayor riesgo. Incluso la actriz Meryl Streep públicamente se posicionó al respecto. Las pérdidas para los productores de manzanas fueron millonarias, y ese producto químico dejó de ser utilizado por la presión social. Muchas voces en ese momento y años más tarde se alzaron para denunciar que esa campaña de miedo había sido injustificada. Henselmans concluye su artículo enlazando este texto, bajo la etiqueta de “Full history” (historia completa). El problema, es que esa no es, realmente, la historia completa:

La versión de Rosen

Rosen (1990) explica de esta manera los hechos: Ese producto se empleaba habitualmente en la industria para hacer que las manzanas no se cayeran tan pronto del árbol, y así  que su color fuera más rojizo y, por ende, más atractivo para la gente. Además, según Rosen, también alargaba la conservación de la fruta. Realmente, el peligro del Alar viene del 1% de UDMH (unysimmetrical dimethylhydrazine), que ya en la década de los 70 había sido relacionada con cáncer en ratones. Como el calor acelera la hidrólisis del Alar a UDMH, aproximadamente un 5% de residuo de Alar se convierte en UDMH en zumos de manzana, es decir, los zumos contenían 5 veces más tóxico que las propias manzanas. LaEnvironmental Protection Agency (EPA), que es la Agencia de Protección del Medio Ambiente en Estados Unidos y cuya misión es “proteger la salud de los seres humanos y el medio ambiente” se preocupó por esos resultados, y pidió nuevos estudios para revisar el riesgo de ese tóxico. Sin embargo, un panel de expertos del Federal Insecticide, Fungicide and Rodenticide Act (FIFRA) dictaminó que había fallos en ese estudio al que la EPA aludía para profundizar más sobre este tema, por lo que no había evidencia suficiente para cuestionar el uso del Alar tal y como se estaba haciendo hasta ese momento. Se argumentaba que se había dado tanta dosis de tóxico a los ratones (29 miligramos por kilogramo de peso corporal) que es probable que fuera esa intoxicación por “cantidad” lo que hubiera provocado los tumores, por lo que no se podía inferir que una dosis menor produjera enfermedades. Aunque la FIFRA dependía de la EPA, curiosamente prevaleció su criterio, aunque bien es cierto que la EPA pidió a cambio a la empresa propietaria (Uniroyal) que se hicieran controles periódicos y nuevos estudios. Según Rosen, ninguna de las subsiguientes investigaciones realizados en ratas y ratones arrojó resultados significativos: Los ratones no desarrollaron tumores a la máxima dosis estimada que podían tolerar sin que se volviera intrínsecamente tóxica (2.9 mg/kg/día), que Rosen indica que es 35000 veces mayor que lo que un niño ingeriría diariamente al comer manzanas.

Pero la EPA tomó los datos de la incidencia de cáncer en ratones en dosis más elevadas (23 mg/kg/día), que generaban tumores, pero que los responsables de esos estudios consideraban que era una cantidad inadmisible a nivel toxicológico, y que ello era la causa, además, de la muerte prematura de 80% de los ratones. La EPA concluyó que, dados esos resultados en ratones, en humanos habría un riesgo de 45 cánceres producidos por 1 millón de personas expuestas. Como la EPA prohíbe cualquier uso de un químico en la agricultura que exceda el riesgo de 1 cáncer por millón de individuos expuestos, decidió que en poco más de un año a partir de ese momento (febrero de 1989) el Alar tenía que desaparecer de las manzanas.

Para añadir más fuego al asunto, el Natural Resources Defence Council (NRDC), que es una ONG en defensa del medio ambiente, de cierta influencia en Estados Unidos, indicó que el riesgo era mayor que el que había estimado la EPA, hasta 240 cánceres por millón de niños consumidores medios de manzanas. Según Rosen (1990), la NRDC empleó los datos del estudio que la FIFRA había anteriormente criticado. Además, cambio el modelo matemático de análisis (pasó de un modelo independiente del tiempo a uno dependiente del tiempo, es decir, que suponía que la exposición tóxica en los primeros años de vida es proporcionalmente más importante que en los siguientes), y no estimó correctamente el consumo de manzanas en Estados Unidos. Esas eran las causas de las diferencias en la estimación de riesgo entre NRDC y EPA. Para más inri, otro estudio del California Department of Food and Agriculture (CDFA), analizó de nuevo los datos de las investigaciones de Uniroyal, pero con supuestos menos restrictivos que la FDA, concluyendo que existía un riesgo en el peor de los casos de 2.6 casos de cáncer por millón, un riesgo que, según Rosen (1990), podría reducirse fácilmente a los niveles permitidos de 1 por millón tan sólo eliminando el uso del Alar en las manzanas destinadas al zumo.

La campaña mediática
La NRDC contrató a la agencia de relaciones públicas Fenton Communications, que además estaba (y está todavía) especializada en casos de este tipo, es decir, de alta sensibilidad social que contribuyan a hacer “el mundo mejor”. La agencia ofreció una exclusiva al programa de la CBS 60 minutes, y el 26 de febrero de 1989 el periodista Ed Bradley encendió la mecha de una hoguera de temor, que se prolongó con posteriores ruedas de prensa y eventos organizados por Fenton Communications. El congresista Jerry Sikorski y la actriz Meryl Streep contribuyeron decisivamente a que el mensaje se diseminara de forma contundente: Las manzanas están envenenado a los niños americanos. Apenas 3 meses después, Uniroyal dejó de emplear Alar, ante la caída de las ventas de manzanas y la presión social.

 
Joseph D. Rosen es actualmente (desde 2011) profesor emérito de ciencia de la alimentación en la Universidad de Rutgers, en el Estado de Nueva Jersey. Es conocida su postura “escéptica” sobre los beneficios de la comida ecológica. Rosen, en 1990, y cuando todavía desempeñaba sus labores regulares en Rutgers, publicó el siguiente artículo, el cual se toma como referencia por los que defienden que el caso Alar fue algo así como una escándalo desproporcionado no justificado por la evidencia científica.

Rosen, J. (1990). Much Ado about Alar.  Issues in Science and Technology, 8 (1), 85-90.

 
La otra parte de la historia
Hasta aquí la versión que podíamos llamar “aceptada” de los hechos. Sin embargo, indagando un poco más nos encontramos que se pueden hacer ciertos matices.

En 1996, el periodista Elliott Negin, escribió este artículo en el revista Columbia Journalism Review. Negin, además de resumir de nuevo los hechos, indica que, por ejemplo, en 1990 un grupo de productores de manzanas de Washington demandó al programa de la CBS por 250 millones de dólares por falsedad en la información, y los consiguientes perjuicios económicos provocados. Sin embargo, en 1994, los juzgados dictaminaron que la demanda no prosperaba porque no habían podido demostrar la falsedad de la información dada en el programa de televisión. Los productores de manzanas apelaron, pero al año siguiente la respuesta de la corte fue la misma. 

Elisabeth M. Whelan, presidenta por aquel entonces del American Council on Science and Health (ACSH), escribió una carta a Negin arremetiendo contra su postura, ya que según Whelan sólo la EPA había defendido que el Alar fuera un peligro para la salud pública.

Negin, respondió que, además de la EPA, otras organizaciones habían indicado que el UDMH era cancerígeno, como la National Toxicology Program of the U.S. Publich Health Service, y la American Academy of Pediatrics. También la Organización Mundial de la Salud. Negin, además, acusó a Whelan de ser poco objetiva, ya que la ACSH, organización que ella presidía, estaba financiada por Uniroyal, entre otras empresas de la industria química.

Siendo justos, lo que tampoco dice Negin, es que él es un  activista por la defensa del medio ambiente. Obviamente esto no es nada deshonroso, ni por supuesto tiene porqué poner en duda sus postulados, pero es preceptivo indicar que el periodista pertenece actualmente a la Union of Concerned Scientist, una entidad no lucrativa en defensa del medio ambiente formada, entre otros, por varios científicos norteamericanos.

Pero Negin estaba en lo cierto. Y si nos remitimos a este informe de la National Toxicology Program (NTP), el UDMH es un “razonablemente anticipado cancerígeno para los humanos”,  siendo la primera evidencia sobre ello de 1985, es decir, cuatro años antes de que el escándalo mediático se produjera. Los estudios experimentales realizados con animales, han mostrado suficiente evidencia de ello, según la NTP.

Conflictos de intereses
La comentadas recriminaciones de Negin a Whelan, sobre la parcialidad de la ACSH debido a los conflictos de intereses derivados de su financiación no fueron gratuitos. Años más tarde, en 2013, la revista Mother Jones, por medio de Andy Kroll y Jeremy Schluman, hacía público el informe de financiación de ACSH, el cual se puede ver en su totalidad.

Empresas como McDonald’s, Coca-Cola, Chevron, Dr. Pepper, Procter & Gamble, Texmark Chemicals o American Petroleum, estaban entre los benefactores de ACSH. Por otro lado, el artículo comenta que Gilbert Ross, el actual director ejecutivo de ACSH fue anteriormente condenado a 46 meses de cárcel, de los que cumplió 23, por fraude al programa Medicaid en el Estado de Nueva York. Aquí está la respuesta de la ACSH ante el fraude de Ross.

El artículo aparecido en Mother Jones sobre la financiación de ACSH, desde luego, no tiene desperdicio, y es totalmente esclarecedor acerca de donde proviene gran parte de los fondos sobre los que la ACSH se sustenta.

La contra-campaña mediática
Si, como hemos dicho, la NRDC contrató a la agencia Fenton Commuications, poco tiempo después la ASCH hizo lo propio con la agencia Hill & Knowlton, con el fin de realizar anuncios con el mensaje de que los niños tenían que comerse algo así como un camión lleno de manzanas para que estuvieran en peligro, tal y como explica este informe de la Environmental Working Group, realizado en 1999, y que, por cierto, está en línea con la “otra parte de la historia” que acabamos de relatar.

En su labor de contrarrestar la información aparecida contra sus intereses, la ASCH lleva desde entonces enviando mensajes sobre la injusticia que se cometió con el Alar ante la falta de evidencia científica. El vídeo que enlazo debajo es una buena muestra de ello.

 
 
Y ciertamente, han hecho bien su trabajo, porque el caso Alar es percibido desde muchos estamentos como  el triunfo de la pseudociencia y el marketing sobre la ciencia seria y objetiva. Pero la otra cara de la historia existe, aunque muchas personas no se hayan percatado de ello.
Problemas metodológicos

El manuscrito de la Environmental Working Group hace énfasis en los problemas metodológicos que se derivan de intentar encontrar un efecto tan pequeño en muestras que son, a su vez, pequeñas. Obviamente, los investigadores no emplean decenas de miles de ratones para sus experimentos, sino muchos menos. El concepto de tamaño de efecto es bien conocido en estadística, y está ligado a la potencia del contraste, a la variabilidad de los datos y al tamaño de la muestra.

Por ejemplo, podemos simular con Stata el tamaño de muestra necesario para descartar estadísticamente que no existe un caso de cáncer entre 1 millón de exposiciones en la población. Esa muestra debería ascender a alrededor de 3.8 millones de ratones, con un intervalo de confianza de una cola del 97.5%. Es decir, si con 3.8 millones de ratones no tenemos ningún caso de cáncer, entonces podremos decir que sobre una hipotética población infinita de ratones no habrá 1 cáncer entre 1 millón de ellos. Eso sí, “sólo” hasta un máximo de unos 25000 ratones y un caso de cáncer podríamos decir al 95% de confianza que habrá  más de 1 cáncer en la población. Dicho de otro modo, si en una muestra de 25000 ratones o menos sale un caso de cáncer, entonces al 95% de confianza podríamos decir que no se descarta que haya más de 1 entre 1 millón en la población. Pero si no obtenemos ninguno en esa muestra de 25000, no tendríamos potencia estadística suficiente para decir que no hay peligro de que haya 1 caso entre 1 millón en la población. Para poder decir eso, como he explicado, harían falta varios millones de ratones como muestra. Estas números podrían variar ligeramente dependiendo del procedimiento empleado para su cálculo y de la potencia requerida, pero a grandes rasgos las cifras irían por ahí.

Como esto es, obviamente, irrealizable en la práctica, se estudian muchos menos ratones y se les incrementa la dosis. Muchas veces esas dosis están muy por encima de lo que un humano ingeriría en un día, pero es la única forma práctica de inferir cuál sería el efecto de dosis más pequeñas. No es objetivo de esto post discutir acerca de la idoneidad de este procedimiento, podríamos dejarlo para el futuro, si os parece.

La cuestión de fondo
No debe olvidarse que estamos hablando de un producto químico que, en definitiva, pretende que las manzanas tengan un color más atractivo para que parezcan más apetecibles. Ni aporta valor nutritivo, ni lucha contra las plagas. Sin pretender ser demagógico una cuestión es ineludible: ¿Merece la pena tener el riesgo de que aunque sólo sea 1 niño entre 1 millón padezca cáncer por añadir un producto de este tipo a las manzanas?

 
Conclusión
Desde hace muchos años la industria química se ha esforzado por ser nuestra amiga. Cierto es que gran parte de sus avances nos han mejorado ostensiblemente la calidad de vida. Pero también lo es que, a veces, alguno de sus productos ha resultado ser un pésimo compañero de viaje.

appleseed-shell-100
Para acercarse a nosotros ha empleado las herramientas de marketing. Al fin y al cabo, como reza este antiguo anuncio de Shell, sus productos permiten que la manzana se recolecte sólo donde “Juanito Manzanas” (Johnny Appleseed) las dejó. Y quién mejor para hablar de manzanas que este pionero americano que diseminó semillas por medio país entre finales del siglo XVIII y la primera parte del siglo XIX.

El “caso Alar” es un excelente ejemplo de cómo la industria química interacciona con la sociedad, a nivel de consumidores, agencias  gubernamentales, organizaciones no lucrativas en defensa del medio ambiente, organizaciones que defienden los intereses de la industria, científicos, periodistas, agencias de publicidad y medios de comunicación.

Este caso es complejo, porque tiene derivaciones éticas, económicas, estadísticas, y de salud pública. Y merece la pena reflexionar sobre él de la manera más aséptica posible.

Todos los posts relacionados




(#2). REVISIÓN DE LIBRO: OVERPOWERED

[MONOTEMA]No está científicamente demostrado que la radiación de los teléfonos móviles, antenas, o líneas eléctricas sea perjudicial para la salud”.

Esta frase es una especie de mantra que hemos escuchado muchísimas veces, ya sea por parte de la industria, por parte de parte de la comunidad científica, o por parte de muchos móvil-adictos, y apasionados de la tecnología que no pueden pasar ni dos minutos seguidos sin consultar  el “wasap”.

Pero cualquiera que haya indagado un poco en la literatura académica sobre este tema, se habrá dado cuenta de que esa frase con la que comienzo este post es una falacia.

En esta entrada de hoy voy a hacer una breve revisión del reciente libro del Dr. Martin Blank: Overpowered: The Dangers of Electromagnetic Radiation (EMF) and What You Can Do About It., publicado en 2014, y que trata este tema con una gran claridad y sencillez. Para ello,  primeramente, realizaré una pequeña introducción sobre el autor y sobre las características esenciales de la radiación electromagnética.

El autor: Martin Blank

 
Este veterano investigador, que se retiró en 2011 como profesor de la Universidad de Columbia, posee dos doctorados, uno en química física (1957) y otro en ciencia coloidal (1960), por la Universidad de Cambridge. Ha publicado más de 200 artículos en revistas académicas, y 12 libros sobre las propiedades eléctricas de los sistemas biológicos. Además ha sido presidente de la Sociedad Biolectroquímica y de la Sociedad Bioletromagnética. entre otros cargos.

Un resumen de su curriculum puede consultarse aquí. Blank es todo un experto en los efectos de la radiación electromagnética sobre la salud,  y desde luego es una voz autorizada en esta materia que conviene, al menos, escuchar.

 
La radiación electromagnética (explicación no técnica)
 En palabras muy llanas, podríamos definir la radiación electromagnética como una fuerza de acción a distancia que proviene de la emisión de fotones (partículas sin carga y sin masa), por parte de una fuente radiante, que puede ser un cable por el que circula una corriente eléctrica, un imán, el sol, una bombilla, una antena de radio, un radar, el Uranio, un electrón desacelerado (caso de los Rayos X), un horno microondas, un ser humano, etc. Todo cuerpo por encima de los 0 grados Kelvin emite radiación. La materia oscura, sin embargo, no. La luz visible es una forma de radiación electromagnética; la luz se compone de fotones, y esos fotones tienen una naturaleza dual: onda-partícula. Es por ello que no conviene separar ambos términos, siendo ésta una de las bases, por ejemplo, de la física cuántica (como la dualidad también del electrón, demostrada en el célebre experimento de la doble rendija).

Esos fotones viajan en forma de ondas (aunque no siempre), que pueden tener distinta frecuencia-longitud de onda. A mayor frecuencia, menor longitud de onda, y viceversa, ya que el producto de ambas variables es constante. Esas ondas no necesitan ningún medio para propagarse, a diferencia de las ondas mecánicas, como por ejemplo una ola de mar o el sonido. La unidad en la que se mide la frecuencia en el Sistema Internacional es el Hercio (Hz).

Gracias al físico Max Plank y su famosa ecuación, sabemos que la energía asociada a un fotón es proporcional a la frecuencia de la onda, por lo que a mayor frecuencia mayor va a ser la energía, es decir, esa radiación va a poder realizar un mayor trabajo. Ese “trabajo” de la radiación electromagnética puede hacer que un electrón salte de un átomo (como en el efecto fotoeléctrico), por lo que puede ionizar, es decir, ir dejando átomos y moléculas por el cuerpo con carga negativa. Esos átomos y moléculas quedarían entonces “con muchas ganas” de estabilizarse, es decir, de pegarse a otros átomos y moléculas para volver a un estado eléctricamente neutro. Además, esa radiación, si es lo suficientemente energética puede romper las moléculas de ADN, por lo que puede matar a las células.

Las radiaciones que tienen energía suficiente para ionizar tienen frecuencias muy altas, y van desde los rayos UV del Sol, pasando por los rayos X y los rayos Gamma. Existen otras fuentes de radiactividad que no fotones, sino partículas con masa, como las Alfa (núcleos de Helio), las Beta o los neutrones.

 
La radiación no ionizante, que tiene su límite precisamente en los rayos UV es la que ocupa a la mayoría de objetos radiantes con los que interactuamos diariamente.
Las frecuencias más altas las ocupan los rayos UV, seguida por la luz visible y los infrarrojos. Después, tenemos toda la gama de frecuencias en las que emiten los radares antenas de radio, antenas de telefonía móvil, teléfonos móviles, Wi-Fi, microondas, teléfonos inalámbricos, vigila bebés,  monitores de ordenador, electrodomésticos y cables eléctricos. Así, por ejemplo, los cables de las líneas de alta tensión y los que tenemos en las paredes, suelos y techos de nuestras casas emiten radiación a 50 Hz. Es precisamente a esa frecuencia a la que circula la corriente alterna en España. Por tanto, esa fuerza de acción a distancia se produce por el movimiento de electrones dentro de los conductores eléctricos, es decir, la electricidad.

De este modo, la radiación de una línea de alta tensión es mucho menos energética que la de un teléfono móvil, por ejemplo. En ambos casos su efecto sería no ionizante, admitiendo que se produce un efecto térmico (calentamiento corporal) a medida que se incrementa la energía de la radiación y el tiempo de exposición a ella. Este efecto térmico es el que tradicionalmente se ha regulado y algunos reconocen como único efecto negativo sobre la salud.

 
La evidencia que muestra Overpowered
A través de poco más de 250 páginas, y con lenguaje sencillo, Blank nos comenta cientos, repito, cientos de investigaciones que han mostrado que la radiación electromagnética es perjudicial para la salud. 

Dos de los mecanismos por los que la exposición a la radiación provoca enfermedades son:

– (1) Melatonina: Es una hormona que regula los ciclos biológicos, y que se produce principalmente mientras dormimos. La melatonina regula el sistema inmune y ayuda a la eliminación de los radicales libres. El viejo consejo de “duerme bien y las horas necesarias” está justificado por la función de esta hormona. Por ello, seguir ese consejo te mantiene más fuerte, más joven y más sano. El problema es que la radiación electromagnética perturba la secreción de melatonina, por lo que estar expuestos sobre todo mientras dormimos a esa radiación hace que, básicamente, estemos continuamente segregando menos melatonina de la que deberíamos, con las consecuencias que ello tiene para el sistema inmune y la lucha contra la oxidación celular. Se podría hacer una analogía con la exposición a la luz solar; dormir expuestos a la radiación de una antena de teléfono móvil sería parecido a dormir con las persianas subidas a plena luz del día. Es cierto que en esas circunstancias se duerme, pero ese “efecto reparador” del sueño no es el mismo. Esta es una de las razones por las que los trabajadores que están a turnos y que duermen más de día que de noche tienen peor salud, y más incidencia de cáncer.

– (2) Proteínas de estrés: Las proteínas de estrés regulan la respuesta celular al estrés, y hacen que el cuerpo sea más fuerte ante nuevas exposiciones a agentes estresantes, fortaleciendo las células para que resistan mejor en la siguiente exposición. Pero esto tiene un límite. Goldman & Blank (1998) mostraron que los campos electromagnéticos crean esas proteínas de estrés. Sin embargo, como comenta Blank, esa exposición prolongada al estrés crea el efecto contrario al fortalecimiento, llegando a una depresión del sistema inmune. Podríamos pensar en un ejemplo de efecto dehormesis. El problema no es entonces la exposición puntual a la radiación electromagnética no ionizante, sino la continua exposición. Blank no lo comenta específicamente en el libro pero hay ya investigadores que defienden que  puntuales exposiciones a radiactividad podrían ser incluso buenas como factor de protección frente al cáncer, por el efecto de hormesis. Sin embargo, cuando alguien está expuesto a una antena de telefonía móvil o a unos cables de alta tensión a unos metros de su casa, tiene un teléfono inalámbrico al lado de la cama, utiliza el móvil varias horas al día, etc. tiene una exposición prolongada a agentes estresantes, que acaban por debilitar al organismo y generar enfermedades, entre ellas el cáncer.

Un ejemplo de las cientos de investigaciones que comenta Blank en Overpowered sobre los perjuicios de las radiaciones electromagnéticas es el de Ruediger (2009), quien realizó una revisión de los estudios sobre los efectos de los campos electromagnéticos de radiofrecuencia (por encima de los 300 MHz) sobre el ADN. De los 101 estudios que revisó 49 reportaban un efecto genotóxico, 42 no, y 8 no encontraron influencia sobre el material genético pero encontraron que se incrementaba la acción genotóxica de otros agentes físicos y químicos. Aunque evidentemente hay estudios contradictorios, parece claro que hay soporte suficiente para desterrar la tesis de que la exposición a este tipo de radiaciones es inocua.

 
Estudios con conflictos de intereses

Uno de los puntos fuertes de este libro es, sin duda, las historias que  Blank cuenta acerca de las presiones de la industria y su postura ante los estudios sobre esta temática. Por ejemplo, en 1993, un hombre llamado David Reynard apareció en el conocido programa de televisión de la CNN Larry King Livepara anunciar una demanda (que posteriormente no ganó) contra la industria de la telefonía móvil por lo que él creía que era la causa de un cáncer mortal (tumor cerebral) que asoló a su mujer. Al día siguiente, todos los medios se hicieron eco de esa noticia, y cundió la alarma en la población. Las acciones de Motorola bajaron un 20% y las de McCaw Cellular Communication un 15%. La preocupación llegó incluso a congresistas como Edward Markey, quien preguntó a la US General Accounting Office que investigara si realmente esas radiaciones producían efectos perjudiciales para la salud. La FDA (Agencia del Medicamento de Estados Unidos), se apresuró a afirmar que no había pruebas de que los teléfonos móviles fueran peligrosos, pero que había que limitar su uso. Uno de los hombres poderosos de la industria, Thomas Wheeler, presidente de The Wireless Association, prometió 25 millones de dólares para implementar un programa de investigación dirigido por George Carlo, un prestigioso médico y epidemiólogo. Pero los resultados de los estudios de Carlo, presentados en 1999 no fueron los que esperaba la industria. Carlo había encontrado la presencia de micronucleidos (fragmentos de ADN) en la sangre, indicando que la radiación de los móviles causaba daños irreparables en el ADN. La respuesta de los responsables del programa fue sencilla; le retiraron todos los fondos e intentaron desacreditarlo. 
 
Algo parecido sucedió con el investigador Jerry Phillips, quien fue contratado por Motorola para ver si ponía en cuestión otros resultados que habían aparecido relacionando la radiación electromagnética (concretamente la de las líneas eléctricas) con la ruptura del ADN. Pero los resultados de Phillips, en este caso relacionados con  los efectos de las microondas y el cáncer, no fueron los que sus promotores esperaban, y empezaron los problemas: Le presionaron e incluso cambiaron el lenguaje del artículo publicado en Biolectromagnetics para que pareciera menos ofensivo para sus intereses, sin el consentimiento de Phillips. En este vídeo, el propio Phillips explica cómo ocurrieron los hechos.
 
 
 
Blank, asimismo, realiza interesantes críticas a los que son probablemente los dos estudios más importantes sobre los que los “escépticos” sobre este tema (valga la expresión), se aferran: el estudio de 2006 en Dinamarca sobre 420095 individuos y el estudio INTERPHONE, cuyos resultados se publicaron en 2012. En ambos estudios se concluye que no existe asociación entre el uso de teléfono móvil y el cáncer. Sin embargo, Blank destaca varios problemas metodológicos y éticos de esos estudios, donde de nuevo la sombra de la financiación de la industria vuelve a aparecer.
 
La dificultad de obtener una conclusón clara
Blank no esconde el hecho de que hay estudios que muestran que no existe asociación con el cáncer, y que hay críticas a los estudios que sí la muestran. Es decir, un “escéptico” tiene mucho material sobre el que trabajar sus argumentos. Sin embargo, Blank da cumplida contra réplica a esas críticas y, a su vez, provee coherentes explicaciones sobre el porqué duda de ciertos estudios, como los mencionados antes de Dinamarca o INTERPHONE.

En cualquier caso, sigue habiendo múltiples disputas dentro de la comunidad científica sobre este tema, que no conviene pasar por alto. Un ejemplo de ellas es el artículo publicado en el New York Times en 2011 por Siddharta Mukherjee, un conocido médico y ganador del prestigioso premio Pulitzer por su libroThe Emperor of All Maladies: A Biography of Cancer. Poco tiempo más tarde, el ingeniero L. Lloyd Morgan, del Environmental Health Trust, daba esta respuesta al artículo de Mukherjee. Algunas de laspublicaciones de Morgan pueden consultarse aquí.

 
 
Puntos débiles de Overpowered
Aunque es un libro muy completo, hay varios aspectos en los que particularmente creo que Blank debería haber prestado más atención.

– (1) El primero de ellos es hablar del fenómeno de vibración de las moléculas polares, como las de agua, que es el fundamento del horno microondas que tenemos en casa, que opera a una frecuencia de 2.45 GHz. Existe cierta creencia extendida en el “grupo no escéptico” sobre que esa es la frecuencia de resonancia del agua y que nuestro cuerpo tiene otras moléculas o elementos que resuenan también a otras frecuencias del espectro electromagnético. Recordemos que el ADN es también una molécula polar, un dipolo eléctrico. Y las células nerviosas. A este respecto, el libro de Becker & Selden (1985) The body electric, es bastante ilustrativo. Pero, desde el punto de vista físico, el agua puede vibrar a otras frecuencias diferentes a las del horno microondas y se puede calentar de manera similar debido a esa vibración. Bajo esta interpretación, lo de la frecuencia de resonancia del agua a 2.45 MHz es inexacto.  En presencia de un campo eléctrico los dipolos se alinean con él, hay movimiento y por lo tanto calentamiento. Blank podría haber discutido si realmente hay frecuencias de resonancia diferentes para distintas moléculas del cuerpo, y en qué medida afecta al ADN y a otras células las distintas frecuencias a las que se ven expuestas.

– (2) El segundo de ellos es la omisión de que la búsqueda del lucro por encima de la verdad científica y los conflictos de intereses también pueden existir en “el otro bando”, es decir, el de las organizaciones que dicen velar por la salud, el respeto del medio ambiente, etc. Bien es cierto que muchas de esas organizaciones declaran públicamente de dónde provienen sus fondos y no hay sospecha sobre ellas, pero también es verdad que hay otras que combinan esa labor de denuncia y divulgación con la venta de productos para medir o “defenderse” de las radiaciones. Sería una inmenso error poner en equilibrio los intereses de unos y otros, ya que los fraudes, el patrocinio de estudios y la ocultación de información relevante está más que demostrada por las grandes industrias. Un ejemplo aquí. No obstante, ello no es óbice para creer que todo lo que viene de ese bando está manipulado y que lo que proviene del otro está “limpio”.

– (3) El tercero de ellos se refiere a explicar mejor qué es un daño biológico y en qué medida nos debemos de alarmar por la radiación. Por ejemplo, es conocido que el deporte provoca la oxidación celular y la creación de proteínas de estrés. A pesar de ello,  a estas alturas hay suficiente evidencia para decir que la práctica deportiva es un hábito muy saludable. Sin embargo, la práctica exagerada de ejercicio sin los correspondientes periodos de descanso y recuperación lleva al sobre entrenamiento,siendo una de sus características el decrecimiento de la creación de proteínas de estrés. Por tanto, no deberíamos alarmarnos ante la palabra “daño biológico”. El cuerpo puede reparar daños, incluso en el ADN. El problema viene cuando tenemos estresantes continuados, no hay manera de que el cuerpo se adapte y recupere, y cuando se producen efectos sinérgicos, como estar expuestos constantemente y a la vez a varios tipos de radiación de diferente frecuencia (wifi, inalámbricos, cables eléctricos, móviles, etc.). Es como si alguien levantara pesas por la mañana, saliera en bici por la tarde, y nadara varios kilómetros durante la noche. Al cabo de un tiempo, su salud se vería afectada negativamente.

– (4) Las estimaciones de riesgo hay que ponerlas en su contexto. En este tipo de libros que van dirigidos tanto a un público académico como no académico es aconsejable explicar qué significa un incremento de riesgo. Por ejemplo, no es lo mismo decir que el riesgo de padecer cáncer se incrementa un 40% al exponerse al factor de riesgo cuando la probabilidad de tenerlo es del 1% que cuando es del 20%. En el primer caso, el riesgo absoluto sería del 1.4%, y en el segundo del 28%, es decir, subiría 4 decimas en el primero frente a 80 décimas en el segundo. Blank no entra en discutir cifras de los estudios en base a Riesgo Relativo (RR) y Odds Ratio (OR), algo que, bajo mi punto de vista, sería necesario para interpretar bien el tamaño de efecto encontrado de los estudios. Más aún, se agradecería, no sólo en este libro, sino en general en este tipo de investigaciones que se discutieran más los modelos en términos de cumplimiento de las asunciones (test de mala especificación), ajuste, intervalo de confianza de los parámetros y efectos marginales. En otras áreas de conocimiento, como la economía o el marketing, estamos más familiarizados con una interpretación a mi juicio más esclarecedora del efecto a estudiar: Si se incrementa en una unidad esa variable de interés, ¿cómo cambiaría la probabilidad de desarrollar cáncer?. Si hablamos claramente en estos términos sabremos; (a) si el modelo es válido bajo los test de mala especificación; (2) si el modelo tiene un buen ajuste en términos de clasificación, varianza explicada, residuos, etc.; (3) la probabilidad estimada para diferentes combinaciones de las variables independientes; (4) los parámetros estimados y sus intervalos de confianza; (5) el cambio de probabilidad ante la variación/intervención en uno de las variables del modelo. Con esto no pongo en duda la validez de los estudios, ni mucho menos, pero sí que demando una mayor claridad en la interpretación de los resultados.

– (5) Como último punto mejorable destaca la poca atención que Blank presenta a los estudios que relacionan la exposición a campos electromagnéticos de baja frecuencia con cáncer, sobre todo con cáncer infantil. Blank, ciertamente, se centra mucho más en los estudios de frecuencias más elevadas. Y cuando nombra algún estudio en frecuencias bajas, como el de Lai & Singh (2004), lo hace sin contextualizar adecuadamente la importancia de los resultados. Así, estos autores encontraron que con exposiciones de sólo 2 horas a este tipo de campos electromagnéticos con valores entre 0.1 y 0.5 mili Teslas, se destruía el ADN en el cerebro de ratas. Lo que no discute Blank es que esos valores están unas 1000 veces por encima de lo que normalmente estamos expuestos en casa. Existe, sin embargo, evidencia destacada acerca de la asociación entre cables eléctricos o líneas de alta tensión y cáncer infantil en la banda a partir de los 200-300 nano Teslas, unos valores que se acercan mucho más a lo que podemos tener en nuestros hogares. Los estudios de Ahlbom et al. (2000), Greenland et al. (2000),Schutz et al. (2000), o Kabuto et al. (2006) son una muestra de ello.

Conclusión
Pese a las críticas comentadas, Overpowered es un libro altamente recomendable para conocer el estado de la cuestión en referencia a la asociación entre la radiación electromagnética no ionizante y las enfermedades. Blank, además, presenta evidencias de estudios realizados con animales y plantas, donde también se pueden detectar esos efectos negativos. El autor hace una buena crítica sobre los niveles de seguridad que las legislaciones de los diferentes países defienden, que son absurdos, insultantes, y para nada acordes con la evidencia científica acerca de los efectos nocivos sobre la salud. Blank, concluye el libro con consejos prácticos sobre cómo minimizar el riesgo de exposición a la radiación y comentando el informe de Bioinitiative.

Ese informe de Bioinitiative, puede consultarse aquí, y presenta una revisión de cientos de estudios que dejan bien a las claras que, desde luego, hay motivos para la preocupación.

Ese informe es de 2012, y en la actualidad, se siguen publicando artículos que ligan la exposición a este tipo de radiación con enfermedades como el cáncer.

El libro no trata de dar un mensaje apocalíptico ni radical contra la tecnología. De hecho, ningún investigador ni cualquier otra persona sensata lo hace. Simplemente se trata de:

– (1) Informar a los ciudadanos del peligro real de las radiaciones no ionizantes.
– (2) Cambiar la legislación para ser coherentes con la evidencia científica sobre niveles máximos permitidos.
– (3) Que el ciudadano tenga más libertad para elegir en qué medida quiere someterse a más o menos exposición.

Estos tres sencillos puntos que acabo de mencionar conllevan unas implicaciones de información, de educación,  de inversión económica y de legislación que los gobiernos deberían aplicar inmediatamente.

En un futuro post, daré consejos prácticos para minimizar la exposición a la radiación electromagnética, sobre todo con la población más sensible: los niños.

Todos los posts relacionados