(#456). LUKA DONCIC DEBIÓ SER EL JUGADOR MÁS MEJORADO (MIP)

[MONOTEMA]  Brandon Ingram ha sido elegido el jugador más mejorado (MIP) de la NBA en la temporada 2019/20, por encima de Bam Adebayo y de Luka Doncic. Y lo ha hecho, además, con una victoria amplia.

Sin embargo, la sensación que tienen muchos especialistas y aficionados al baloncesto es que esa distinción claramente debió ser para Doncic. El jugador de los Mavs ha realizado una excelente temporada, y antes del parón por la crisis sanitaria sonaba incluso entre los candidatos a MVP.

Desde el punto de vista meramente cuantitativo, según lo que indica el índice Player Total Contribution (PTC), la cuestión no ofrece discusión; el esloveno ha sido, de largo, el jugador más mejorado de la NBA.

Curva de dificultad no lineal

Mi propuesta de análisis para evaluar la mejora de un jugador se basa en el índice PTC por minuto jugado (PTC/MP), que provee una comparativa ajustada al tiempo en la cancha.

La explicación técnica la publiqué en este artículo, donde construyo una curva de dificultad no lineal basada en el histograma de productividades de la liga. A partir de esa curva se calcula un área de dificultad (DA), que es el indicador final que permite comparar la mejora entre jugadores.

La idea, de forma muy general, es considerar que las mejoras sobre rendimientos altos son más meritorias que las mejoras sobre rendimientos bajos. En un rango de [0,1], es mucho más sencillo mejorar de 0.2 a 0.6 que de 0.5 a 0.9. En ambos casos, la diferencia bruta es la misma (0.4), incluso en el primer caso la diferencia relativa es mayor (200% frente a 80%). Sin embargo, en el primer caso el jugador mejora desde un nivel de rendimiento muy bajo hasta llegar a la parte media de la liga, mientras que en el segundo caso mejora desde la parte media hasta ser una super estrella. Es evidente que es mucho más complejo (y por ende más meritorio) ese segundo caso.

Bajo estas premisas, y de nuevo remitiendo a la explicación técnica del artículo se puede realizar ese análisis, como se muestra en la siguiente figura, donde incluyo algunos de los nombres que durante toda la temporada han sonado como jugadores que han avanzado notablemente en su rendimiento.

Como puede observarse Doncic, con mucha ventaja, lidera el ranking de mejora, seguido por Trae Young. Ingram, por su parte, ocupa el tercer puesto. Destaca también la mejora de Antetokounmpo, con unos números de PTC/MP auténticamente siderales, nunca visto antes en la historia de la liga. La siguiente tabla muestra los datos de la figura:

Tabla 1. Productividad por minuto (PTC/MP) en ambas temporadas e indicador de mejora (DA)

  2018/19 2019/20 DA Incremento
Luka Doncic 0,573 0,780 0,193 36,13%
Trae Young 0,492 0,669 0,151 35,98%
Brandon Ingram 0,439 0,583 0,107 32,80%
Johnathan Isaac 0,368 0,495 0,066 34,51%
Giannis Antetokounmpo 0,937 1,000 0,063 6,72%
Andrew Wiggins 0,372 0,488 0,059 31,18%
Jaylen Brown 0,413 0,498 0,051 20,58%
Bam Adebayo 0,533 0,594 0,051 11,44%
Devonte Graham 0,260 0,401 0,043 54,23%
Davis Bertans 0,363 0,453 0,040 24,76%
Aron Baynes 0,448 0,493 0,030 10,04%
Fred VanVleet 0,351 0,429 0,030 22,22%
Spencer Dinwiddie 0,459 0,499 0,027 8,64%

Luka Doncic tiena un DA de 0.193, muy superior al del resto de jugadores, y casi el doble que el de Ingram. El jugador esloveno declaró que debía ser Devonte Graham el que optara también al premio, pero el exterior de los Hornets, pese a haber mejorado un 54.23%, lo ha hecho desde unos niveles muy bajos, por lo que el “mérito” de su mejora no es comparable al de Doncic, Young o Ingram, por ejemplo.

He escrito, además, un código sencillo en Maxima para computar el índice de mejora (DA), dependiendo de los valores del año anterior (a) y corriente (b). Lo único que hay que hacer es poner el valor de PTC/MP donde se indica “INSERTAR VALOR”, y el programa calcula automáticamente el resultado de las integrales.

 f1:1-0.9325*x; f2:%e^(2.95-8.55*x);
 a: INSERTAR VALOR;
 b: INSERTAR VALOR;
 DA1: integrate(1-f1,x,a,b), numer;
 DA2: integrate(1-f1,x,a,0.4)+
 integrate(1-f2,x,0.4,b),numer;
 DA3: integrate(1-f2,x,a,b),
 numer;
 resultados: if a<0.4 and b<0.4 then DA1  elseif a<0.4 and b>=0.4  then DA2
 else DA3;
 print: "La mejora es" (resultados);

Quizá se vea más claro si normalizados el DA para que su rango sea del 0% al 100% (es simplemente dividir el DA calculado anteriormente por el área máxima bajo la curva. No obstante se podrían dar teóricamente valores mayores del 100% si se parte de rendimiento negativo – hiere más que ayuda al equipo-). La siguiente figura muestra esos valores normalizados.

Conclusión

Desde el punto de vista cuantitativo, y admitiendo las debilidades de cualquier métrica basada únicamente en box-score (aunque también considerando las potencialidades del índice PTC), Doncic debió ser elegido, claramente, jugador más mejorado de la NBA en la temporada 2019/20.

Post relacionados




(#455). PERDIDOS EN LAS MATEMÁTICAS

[MONOTEMA]  Esta obra de Sabine Hossenfelder orbita alrededor de una idea principal: la belleza de una ecuación, de un modelo, de una idea, no tiene por qué ser un criterio válido para evaluar su validez.

Hossenfelder argumenta con solidez que este es un sesgo importante que afecta a la Física, sobre todo a las disciplinas donde la experimentación es mucho más difícil de llevar a cabo (y a veces es, de hecho, prácticamente imposible).

Para la autora, la ciencia es una empresa organizada para superar las limitaciones de la cognición humana y evitar las falacias de la intuición. Para ello es indispensable el uso de las matemáticas, las cuales pueden errar, pero no pueden mentir.

La supersimetría (SUSY) postula que las leyes de la naturaleza permanecen inalterables cuando los bosones se intercambian por fermiones. Cada bosón conocido tiene que tener un compañero fermiónico, y viceversa, y deben ser idénticos. Sin embargo, y pese a la belleza de esta teoría, no hay todavía evidencias que la sustenten. Y esa misma carencia de evidencias, como explica Hossenfelder, sucede con la teoría de cuerdas.

Sin embargo, la mecánica cuántica es fea…pero funciona. La conclusión principal de la cuántica es que en realidad no hay ondas y no hay partículas. En cambio, todo en el universo subatómico se describe por una función de onda que tiene propiedades tanto de partícula como de onda. En ocasiones se asemeja más a una onda, y en otras a una partícula, pero como señala la autora, no es ninguna de las dos, sino una categoría en sí misma.

La función de onda, en sí misma, no corresponde a una cantidad observable pero a partir de su valor absoluto podemos calcular la probabilidad para la medición de observables físicos. Hossenfelder no se cansa de recordarnos que nadie entiende la mecánica cuántica, pero aún así es empíricamente robusta. La aparición de la mecánica cuántica es un fracaso de la belleza en la física.

La belleza y la divinidad

Esta relación que plantea la autora entre la belleza y la divinidad es uno de los puntos más interesantes del libro para mis estudiantes de marketing, donde hablamos largo y tendido sobre la importancia de la belleza como proporción y simetría, con el fin de incrementar la preferencia por el producto en cuestión.

A finales del siglo XIX era habitual que los científicos consideraran la belleza de la naturaleza como un signo de divinidad. Pero, como describe Hossenfelder, en el siglo XX la ciencia se separó de la religión y los científicos dejaron de atribuir la belleza de la ley natural a la influencia divina. Sin embargo, después el concepto de belleza parece que resistió, no ya por su relación con la divinidad sino como una especie de máxima a cumplir.

La autora repasa la cercanía de algunos de los más grandes científicos a la religión. Así, la obra de Kepler estuvo influida por su fe religiosa:

Es absolutamente necesario que la obra de un creador perfecto sea de la máxima belleza

Pero cuando modificó su modelo circular a uno elíptico esa idea fue recibida con desaprobación porque no se ajustaba a los cánones estéticos de la época. Incluso, comenta la autora, recibió las críticas de Galileo.

Newton, por su parte, creía en la existencia de un dios cuya influencia apreciaba en las leyes que cumplía la naturaleza:

Este sistema tan hermoso del Sol, los planetas y los cometas, sólo puede proceder del consejo y el dominio de un ser inteligente. […] Cada nueva verdad descubierta, cada experimento o teorema es un espejo de la belleza de Dios.

Sin embargo, los físicos, todavía hoy, suelen prestar más atención a las teorías que consideran bonitas. Como afirmaba Dirac, las leyes físicas deberían tener belleza matemática.

Teorías sin contraste con los datos empíricos

La autora, con un tono muy crítico, comenta que algunos físicos afirman que determinados criterios no basados en observaciones también son filosóficamente sólidos, y que el método científico debe corregirse de modo que las hipótesis puedan evaluarse sobre una base puramente teórica.

Esto, según Hossenfelder, puede hacer retroceder cientos de años a la ciencia. Parece que algunos teóricos de cuerdas consideran que es suficiente la belleza de sus postulados y que, de tan ideales y bellos que son no deberían siquiera cuestionarse desde el punto de vista empírico.

Esas reflexiones de Hossenfelder me hacen recordar a un investigador cercano con un centenar de publicaciones JCR que me comentó una vez que para él lo importante de un artículo de investigación es plantear una buena teoría, y que eso de que los análisis estadísticos dieran un resultado u otro era lo de menos. Tal cual.

Psicólogos y economistas

La autora no llega al nivel de desprecio que Nassim Taleb muestra por estos colectivos y sus disciplinas, de hecho, incluso considera útil conocer ciertos aspectos de la psicología relacionados con los sesgos cognitivos para intentar ser un mejor investigador. Pero sí que subyace una crítica a la forma de hacer ciencia, si es que se puede llamar así, de investigadores cuyos trabajos son matemáticamente deficientes y que no consiguen replicarse.

Sin embargo, Hossenfelder también dispara hacia el grupo de físicos que, pese a su sofisticación matemática, defienden sus teorías sujetos a sesgos cognitivos. En realidad, la autora da la sensación de querer realizar una crítica más profunda a todo el sistema académico y de publicaciones. Y en esto vuelve a coincidir con Taleb.

Conclusión

Perdidos en las matemáticas es un libro sin fórmulas matemáticas, y desde luego no creo que “revolucione” la física, como se indica en la portada. Es curioso que Hossenfelder, que se queja del marketing en la ciencia como algo peligroso, acceda a que se ponga esa frase pretenciosa en el libro. Quizá haya sido una decisión editorial. 

Sin embargo esta obra es interesante, no sólo para introducirse en el mundo de la física de partículas y la cosmología, sino para comprobar la cantidad de posturas contrapuestas que se pueden encontrar entre los físicos actuales. Además, realiza una crítica coherente del concepto de belleza como criterio para elegir o desarrollar teorías y modelos, lo cual es de agradecer.

Posts relacionados




(#454). NO LINEALIDAD Y MASCARILLAS

Uno de los objetivos de los primeros días de clase en mis asignaturas de toma de decisiones en marketing es que los alumnos entiendan la dificultad de los escenarios no lineales, tan característicos de la gran mayoría de fenómenos que se dan en la realidad. En general, los humanos tenemos muchos problemas para manejar nuestro pensamiento en este tipo de escenarios, por eso los estudiantes deben poner especial énfasis en comprenderlos.

En este artículo vamos a realizar varias simulaciones relacionadas con la desgracia que nos ha tocado vivir, el coronavirus que provoca la COVID-19, para mostrar con fines meramente didácticos la importancia de aplicar las herramientas del pensamiento y análisis no lineal. Es importante resaltar que el ejemplo que vamos a comentar es simplemente eso, un ejemplo, y que no tiene la entidad de un estudio científico, ya que es demasiado simple e incompleto. Sin embargo, ofrece unos resultados que, al menos, estimulan el pensamiento crítico.

Infectados en España

En la siguiente figura se muestran los infectados en España hasta el 26 de marzo, intervalo de tiempo donde el crecimiento era exponencial .

Como se puede ver, podemos ajustar la curva a través de un polinomio de orden 3 donde y representa la población de infectados y t el tiempo en días. Sin embargo, en aras de facilitar nuestro razonamiento y el análisis posterior, podemos realizar una aproximación más burda a la curva usando el siguiente razonamiento:

Lo que nos dice la expresión anterior es que el cambio temporal en el número infectados  es proporcional a la población que hay en el momento anterior al diferencial de tiempo, con un factor de 33.55%. Esto es algo que se aproxima bastantea la realidad, ya que en esos primeros 33 días el crecimiento del número de infectados estaba en torno al 42% en promedio.

No nos debemos preocupar demasiado por perder algo de exactitud porque los datos tampoco son perfectos, y hay retrasos en los reportes y otros factores que afectan. Por ejemplo, entre los días 12 y 13 el crecimiento fue solo del 6%, mientras que entre los días 14 y 15 fue del 91%.

Si discretizamos el tiempo, la expresión anterior es equivalente a esta (para cambios en t muy pequeños):

Es decir:

No obstante, seguiremos manteniendo el enfoque de continuidad para los análisis. De este modo, hay que resolverla ecuación diferencial para conocer la trayectoria del número de infectados. Resolviendo esa ecuación diferencial (ver este post como ayuda), obtenemos que:

El número de personas infectadas el día 33 era de 64059, mientras que la aproximación exponencial nos reporta una cifra de 64312.

Mascarillas

Durante muchas semanas, tanto la OMS como algunos responsables gubernamentales no consideraron pertinente recomendar el uso de mascarillas, desoyendo las indicaciones de científicos como, por ejemplo, Eric Feigl-Ding.

Las mascarillas no son perfectas, no proveen una protección total, pero incluso las más sencillas pueden tener porcentajes de efectividad en la contención. Si estipulamos un rango de efectividad entre el 0 ya el 100%, entonces si el 100% de la población no lleva habitualmente mascarilla (aquí se excluye obviamente el personal sanitario en el trato de enfermos), su protección es del 0%.

De este modo, podemos simular varios escenarios en los cuales se pasa de que nadie lleve mascarilla, a que diferentes porcentajes de la población las lleven (10%, 20% y 30%, respectivamente). Para aquellos que llevan mascarilla hemos estipulado dos niveles de protección (20% y 50%), en función del tipo de mascarilla y su comportamiento de riesgo. Los datos se muestran en la siguiente figura.

El siguiente paso ahora es modificar la ecuación diferencial para tener en cuenta una nueva variables que considere el uso de mascarillas.

donde es el valor promedio que describe el uso de mascarillas y el riesgo asociado a ellas.

donde es la frecuencia relativa de personas que llevan mascarilla normalizada en la escala [0,1], lo que quiere decir que si el 100% no lleva mascarilla le correspondería un 1. Por su parte, es el nivel de protección de cada mascarilla, también normalizado en una escala [0,1].

Hay que tener cuidado en este punto, porque ahora la ecuación de la trayectoria es una exponencial modificada con la nueva especificación:

De este modo si el 100% de personas no lleva mascarilla:

que es nuestra ecuación anterior de partida.

Y si el 100% de personas llevara mascarilla con un nivel de protección del 100% (algo imposible), entonces:

con lo que el número de infectados sería constante, es decir, no habría nuevos infectados.

Primer análisis de escenarios

Podemos comenzar un primer análisis con los 4 escenarios descritos en la figura que representa la distribución de las mascarillas. El primero de ellos, donde el 100% no las lleva (excepto el personal sanitario), ya lo tenemos. El objetivo es ahora estimar el número de infectados cuando una parte pequeña de la población lleva mascarilla. Los resultados se muestran a continuación. 

Como se puede apreciar, pequeños cambios en la distribución de uso de mascarillas producen enormes cambios en el número de infectados. Fijémonos en el escenario en que 90% no lleva mascarilla, un 5% lleva mascarillas que protegen un 20%, y un 5% lleva mascarillas que protegen un 50%. Tan sólo ese pequeño cambio produce un descenso del 37.8% en el número de infectados pasando a ser 40018. El descenso es del 75% en el último escenario, en el que el 70% de la gente sigue sin llevar mascarillas, pero el 15% lleva mascarillas de protección 20% y el 15% restante lleva mascarillas de protección 50%.

Riesgo simétrico

Hasta ahora hemos asumido que el riesgo de contagiarse o contagiar es constante para cada nivel de protección. Sin embargo, esta situación puede no ser correcta.

Imaginemos que el 100% de la población lleva mascarillas que protegen el 50%, entonces:

Pero ahora imaginemos que el 50% no lleva mascarilla y el otro 50% lleva mascarillas con la máxima protección (100%), entonces: 

El valor promedio es el mismo cuando la situación en cuanto a contagios podría ser muy diferente. Otras formas de riesgo simétrico podrían ser no lineales, por ejemplo, en modo de U-invertida. Así, esa función no lineal actuaría como una función de pesos para ponderar:

Como función de pesos podemos proponer la siguiente:

que da el máximo peso a los casos extremos, es decir, la máxima influencia sobre los contagios se produce cuando ninguno lleva mascarilla o cuando todos la llevan.

Dejamos como ejercicio para los estudiantes más curiosos el calcular ahora la trayectoria ante los 4 escenarios propuestos.

Riesgo asimétrico

El desafío ahora es concebir que el riesgo es asimétrico, una función convexa en forma de J que otorgue mayor peso a los casos en los que la protección es mayor a partir de cierto umbral. Podemos proponer la siguiente función:

Y ahora podemos a volver a realizar el análisis de escenarios, obteniendo que para el caso del escenario 2 (10% usan mascarilla), los infectados se habrían reducido un 23.4%; para el escenario 3 (20% usan mascarilla), los infectados se habrían reducido un 40.3%; y para el escenario 4 (30% usan mascarilla), lo infectados se habrían reducido un 53.5%.

Evidentemente, podemos simular un escenario que reflejara mucho más el compromiso de gobernantes y ciudadanos con el uso de mascarillas, haciendo que el 50% llevara mascarilla con una protección del 50%. Esto habría reducido los infectados un 83%.

Conclusión

Este artículo tiene que interpretarse como un mero ejercicio con fines de didácticos para estudiantes universitarios, y nunca como un estudio científico cuyas conclusiones sean robustas, ya que lo que se plantea es una gran simplificación de la situación, y se dejan muchas variables fuera.

La idea es hacer ver a los estudiantes que cuando se manejan ecuaciones no lineales nuestra mente tiene dificultades en inferir qué va a suceder, a no ser que nos ayudemos de herramientas matemáticas.

Lo que hemos visto es que incluso con pequeñas acciones como el incremento débil del uso de mascarillas justo cuando aparecieron los primeros casos, se podría haber reducido considerablemente el número de infectados, siempre dentro de las aproximaciones y asunciones que hemos realizado.

Sin embargo, insistimos en que lo importante de este artículo es motivar a los estudiantes a que profundicen en las dinámicas no lineales de los fenómenos que nos rodean, y cómo las asimetrías pueden afectar a los resultados.

Posts relacionados




(#453). RADIOISÓTOPOS MÉDICOS Y BREXIT

El artículo de Villarreal (2019) explica una de las posibles consecuencias de la salida del Reino Unido de la Unión Europea, como es el problema de abastecimiento de radioisótopos de vida media corta necesarios para realizar diferentes pruebas de diagnóstico y tratamientos de enfermedades (como el cáncer). En las siguientes líneas, vamos a realizar un breve comentario al respecto.

¿Qué es un radioisótopo?

Como indican Del Pilar, Calvino & López (2018), los radioisótopos son núclidos que tienen el mismo número de protones, pero distinto número de neutrones, y que son radiactivos, es decir, que son inestables y se transforman espontáneamente en otros núcleos, emitiendo partículas y/o radiación electromagnética. Sin embargo, hay núcleos estables que se pueden transformar en núcleos radiactivos mediante el bombardeo con neutrones, protones y otros núcleos, produciéndose radiactividad artificial.

Este es el caso del primer radioisótopo nombrado por Villarreal (2019), el tecnecio-99m (99mTc), que se puede producir por el bombardeo de neutrones al molibdeno-98 (98Mo), uno de los isótopos naturales estables del molibdeno (Lenntech.es). En realidad, el proceso no es directo, sino que primero se obtiene 99Mo, que es otro isótopo del molibdeno, pero en este caso artificial y no estable, del cual se obtiene 99mTc, a través de diferentes métodos de separación (Boyd, 1982). Una explicación más extensa puede consultarse en Solanes (2016). Tal y como comenta Villarreal (2019), el 99Mo se extrae tras fisionar uranio enriquecido.

El subíndice “m” del isótopo indica que se encuentra en un estado metaestable o isómero, lo que significa que se mantiene un determinado tiempo excitado (varios órdenes de magnitud por encima de los 10-13s), para luego emitir radiación gamma y pasar al estado fundamental. Como explican Del Pilar, Calvino & López (2018), este proceso se conoce como transición isomérica

La vida media

Villarreal (2019) expone el problema de las cortas vidas medias del 99mTc, así como de otros radioisótopos. La vida media se define como el tiempo que transcurre para que se desintegre la mitad de átomos de una muestra.  Está regida por la curva de decaimiento:

siendo:

: Número de átomos desintegrados

: Número de átomos desintegrados en el instante inicial

: Constante de desintegración

: Tiempo

Para calcular la vida media, simplemente hay que tomar y despejar el tiempo, llegando a esta expresión:

: Tiempo de vida medio

Es importante no confundir el tiempo “largo” que el 99mTc tarda en emitir la radiación gamma (por su característica metaestable ya comentada) con el tiempo “corto” de su vida media en relación a la vida media de otros isótopos radiactivos. En Del Pilar, Calvino & López (2018) se pueden encontrar las vidas medias de múltiples radionúclidos (ver páginas 281-282), que pueden ir desde años hasta horas o minutos. Estos últimos radionúclidos suelen emplearse en aplicaciones de diagnóstico médico, dada su rápida desintegración.

Así, el artículo de Villarreal (2019) comenta no sólo el caso del 99mTc, sino de otros radioisótopos de semiperíodo de desintegración corta, como el 82Rb o el 18F.

Es preceptivo destacar, además, que el semiperiodo de vida media difiere del semiperíodo de vida biológico, que caracteriza la excreción de un radioisótopo de un ser vivo. Como indica Hyperphysics (2020), la tasa de disminución de la exposición a la radiación está afectada por el semiperiodo físico y el semiperiodo biológico , donde se puede definir un semiperiodo de vida efectiva  de la siguiente forma (3):

Para el caso del 99mTc, horas , horas, por lo que horas.

Aplicaciones médicas

La medicina nuclear es una especialidad médica en la que se utilizan radionúclidos para el diagnóstico y tratamiento de enfermedades. El elemento radiactivo empleado se suele inyectar vía intravenosa, para distribuirse por el organismo y generar imágenes de los órganos y tejidos de interés (aplicación de diagnóstico), o se irradia al tejido canceroso (aplicación de terapia), normalmente con rayos gamma y rayos X (aunque también se emplean neutrones y protones), ya sea de forma externa o interna (braquiterapia). Del Pilar, Calvino & López (2018) explican con claridad estas diferentes aplicaciones.

El problema que plantea Villarreal (2019) está fundamentalmente relacionado con las aplicaciones de diagnóstico, ya que estas emplean radionúclidos de vida media (física) corta, y cuyo semiperiodo de vida efectiva es de horas o a veces de días. Así, Villarreal (2019) nombra la tomografía por emisión de positrones (PET), pero también es común emplear la tomografía computerizada por fotón único (SPECT). La diferencia entre ambas técnicas se explica en NIBIB (2016); mientras que en la segunda se miden los rayos gamma de los trazadores, en la primera se miden los fotones generados tras la aniquilación de positrones provenientes de la desintegración del radionúclido y electrones del cuerpo humano.

Otra técnica importante es la gammagrafía, que además aplica el 99mTc. Tal y como indica Solanes (2016), la gammagrafía es una técnica de diagnóstico por imagen que utiliza la radiación gamma con una cámara sensible a este tipo de radiación.

Conclusión

Pese a que el texto de Villarreal (2019) identifica un potencial problema de salud pública en el Reino Unido ante el posible desabastecimiento de radioisótopos de vida corta, el autor reconoce que la gran mayoría de radionúclidos empleados para diagnóstico se producen en las inmediaciones de los hospitales en el Reino Unido e Irlanda. El problema principal, por tanto, se centra en el abastecimiento de 99mTc que, en realidad, como hemos comentado, se produce a partir del 99Mo, cuya producción está muy localizada en unos pocos reactores nucleares. Sin embargo, la amenaza de carencia de este radioisótopo no está sólo dirigida a los británicos ante el escenario de un brexit sin acuerdo, sino, como indica Zubiarrain (2011), a toda la comunidad internacional debido a las varias crisis de suministro de 99Mo que en los últimos años se han producido.

Referencias

Boyd, R. E. (1982). Technetium-99m generators—The available options. The International Journal of Applied Radiation and Isotopes, 33 (10), 801-809.

Del Pilar, M. J., Calvino, V. & López, A. J. (2018). Introducción a la radioquímica. Madrid: Editorial UNED.

Hyperphysics (2020). Semi Vida Biológica. Descargado desde: http://hyperphysics.phy-astr.gsu.edu/hbasees/Nuclear/biohalf.html#c1

Lentech.es (2020, enero 7). Propiedades químicas del Tecnecio – Efectos del Tecnecio sobre la salud – Efectos ambientales del Tecnecio. Descargado desde: https://www.lenntech.es/periodica/elementos/tc.htm

NIBIB (2016). Medicina nuclear. Descargado desde: https://www.nibib.nih.gov/espanol/temas-cientificos/medicina-nuclear

Solanes, S. (2016). Tecnecio 99m: Radiofármaco de diagnóstico utilizado en la actualidad. Trabajo fin de grado. Facultad de Farmacia. Universidad Complutense de Madrid.

Villarreal, A. (2019, septiembre 17). El gran riesgo radiactivo de un Brexit duro: quedarse sin isótopos médicos en seis horas. Descargado desde: https://www.elconfidencial.com/mundo/europa/2019-09-17/brexit-radioisotopos-nucleares-medicina_2227875/?utm_source=emailsharing&utm_medium=email&utm_campaign=BotoneraWeb

Zubiarrain. A. (2011). Problemas en la producción en reactores de isótopos con fines médicos y la crisis mundial de suministro de molibdeno 99Mo. Nuclear España, 316, 19-22.

Posts relacionados




(#452). AMIANTO EN COLEGIOS; TAMBIÉN LOS PROFESORES DEBERÍAN PROTESTAR

En diciembre de 2019 había 34 centros escolares en Cartagena (la mayoría públicos) con amianto. Esta insostenible situación ha suscitado tímidas protestas de los padres, y una denuncia ante la fiscalía por inacción de la administración en el desamiantado de colegios

La vida útil de esos materiales está en torno a los 30-35 años desde que fueron fabricados, por lo que su deterioro esparce microfibras que son respiradas por niños y profesores. Todos esos centros escolares tienen más de 30 años de existencia, por lo que puede decirse que todos los niños y profesores están en una situación de exposición.

Un exposición donde no hay dosis segura, y donde existe una asociación con el desarrollo de asbestosis, mesotelioma y cáncer de pulmón. Los periodos de latencia pueden ser de hasta 40-50 años, por lo que la relación entre causa y efecto es compleja de dilucidar una vez que se manifiesta la enfermedad.

El calendario de desamiantado de colegios propuesto por la Consejería de Educación para los próximos años es totalmente insuficiente, incluso insultante, porque sigue dilatando los tiempos de ejecución (no todos los colegios se desamiantarán al mismo tiempo), por lo que el riesgo de exposición se incrementa todavía más a medida que los meses transcurren sin las acciones oportunas.

Protestas de profesores

Pese a que diversas asociaciones de padres se han movilizado en los últimos meses, las protestas han sido tímidas y sin efecto real para la acción política (la denuncia ante la fiscalía ha sido posiblemente lo más determinante para que se empiece a abordar el problema).

Los profesores, sin embargo, siguen pasivos ante esta amenaza, cuando ellos podrían contribuir decisivamente a acelerar el proceso de quitar el amianto. Bien es cierto que varios sindicatos se han sumado a la denuncia interpuesta contra la Consejería, pero los profesores, al menos hasta el momento, parecen estar manteniendo una posición inmóvil a nivel individual.

En otros países, podemos encontrar movilizaciones del profesorado, que no se muestra impasible ante este problema. Por ejemplo, en Filadelfia (Estados Unidos) profesores están protestando estas últimas semanas para que se les asegure que sus escuelas están libres de riesgos. Profesores, acompañados de padres y alumnos, unidos para un propósito común, el cual se ha extendido a todo ese distrito escolar.

Precisamente en 2018 en 11 escuelas del distrito de Filadelfia una investigación realizada por The Philadelphia Inquirer reveló que en 9 de ellas había elevadas cantidades de fibra de amianto en áreas accesibles a los estudiantes. La mitad de las muestras estaba por encima de las 5000 fibras por centímetro cuadrado, el nivel umbral que la EPA estableció para la limpieza de dependencias cerca de la Zona Cero (Torres Gemelas).

No hay dosis aceptable

La EPA advierte que el único nivel seguro de exposición a estas microfibras es cero. Como indica van Dorn (2019), el amianto es un material muy peligroso; incluso exposiciones a dosis bajas pueden incrementar el riesgo de cáncer años o décadas después.  The Lancet Oncology (2019) cifra en más de 80% los casos de mesotelioma incurable atribuidos a la exposición al amianto.

Hay seis tipos de mineral de amianto en la naturaleza, aunque los mas comercializados son el amianto blanco (crisolito), amianto marrón (amosita), y amianto azul (crocidolita). En España, la mayoría de las instalaciones que contienen amianto (como los colegios), están hechas con amianto blanco en conjunción con cemento (fibrocementos).

Como indican Algranti et al. (2019), investigaciones recientes confirman la relación de la exposición a fibras de crisolito con el cáncer de pulmón, a niveles tan bajos como 1.5 fibras-año/ml. Pero no sólo el amianto blanco, sino el resto de tipos son cancerígenos seguros para la OMS. Y es que la exposición al amianto se liga, además de a enfermedades del aparato respiratorio,  a otros tipos de cáncer, como el colorrectal.

Conclusión

Decenas de centros escolares en Cartagena (casi todos públicos) tienen materiales de amianto que están en el borde o han sobrepasado su vida útil. El deterioro de estos materiales es evidente incluso a simple vista en algunos colegios. El riesgo de desarrollar una enfermedad mortal en el futuro para los niños y para el profesorado se incrementa cada día que los colegios siguen sin ser desamiantados. La ciencia, de nuevo, sigue sucumbiendo ante la ineptitud de los políticos de turno, y la complicidad de aquellos (profesores) que no hacen nada por evitarlo.

Referencias

Algranti, E. et al. (2019). Prevention of Asbestos Exposure in Latin America within a Global Public Health Perspective. Annals of Global Health, 85 (1), 49. doi: 10.5334/aogh.2341

Denuncia por inacción de la Administración en el desamiantado de colegios de Cartagena (2019, septiembre 19).

Hangley Jr, B. (2020, enero 27). Fearing unsafe asbestos levels after cleanup, Elkin teachers walk out. Descargado desde: https://thenotebook.org/articles/2020/01/27/fearing-unsafe-asbestos-levels-after-cleanup-elkin-teachers-walk-out/

The Lancet Oncology (2019). Asbestos exposure: the dust cloud lingers. The Lancet, 20 (5), p1035, https://doi.org/10.1016/S1470-2045(19)30462-0

Ruderman, W. et al. (2018, mayo 10). Hidden peril. Descargado desde: https://www.inquirer.com/news/inq/asbestos-testing-mesothelioma-cancer-philadelphia-schools-toxic-city-20180510.html#loaded

Van Dorn, A. (2019). Is there an acceptable level of asbestos use? The Lancet, 7 (2), 112-113. https://doi.org/10.1016/S2213-2600(19)30003-7

Posts relacionados




(#451) DESCLASIFICACIÓN DE LA CIA: PRESIÓN ARTERIAL Y MICROONDAS DE BAJA INTENSIDAD

En 2012 la CIA aprobó desclasificar un documento realizado en 1977 sobre la traducción de diferentes investigaciones que la URSS había realizado en el campo de la radiación no ionizante. Estas investigaciones son interesantes porque nos aportan una visión más completa de este campo del conocimiento, al provenir de un país que en aquella época era pionero en el este tipo de estudios.

En la primera de ellas, Sadchikova et al. (1977) analizaron la constricción vascular de individuos expuestos en sus lugares de trabajo a microondas de baja intensidad.

Metodología

Un total de 885 trabajadores de las industrias de la radio y la electrónica fueron examinados. De ellos 353 estaban en contacto con fuentes de microondas, mientras que 532 actuaron como grupo de control.

De esos 353 sujetos experimentales los investigadores formaron dos grupos; uno de 182 hombres que trabajaban en estaciones de radar; y otro de 171 individuos que trabajaban en otras áreas con exposición menor. Para el primer grupo, la exposición media era del orden de cientos de , es decir, del orden de 0.1 mW/cm2 , durante 2-3 horas al día. Además, para la mayoría de esos sujetos la exposición se había producido hasta 10 años, en condiciones de alta temperatura del aire (entre 37-39ºC) y ruido. Para el segundo grupo, el nivel de exposición era de un orden de magnitud inferior (0.01 mW/cm2), con una antigüedad en el puesto que oscilaba entre lo 3 y 20 años.

Resultados e implicaciones

El examen clínico general mostró unos niveles de salud aceptables para el 72%, 80% y 87.6% de los individuos en los grupos 1, 2 y control, respectivamente. Cuatro trabajadores del grupo más expuesto, y que tenían alta antigüedad presentaban desórdenes neurocirculatorios que fueron evaluados como enfermedad ocupacional.

En relación a la presión arterial, los resultados se muestran en las siguiente tablas:

Hombres (sistólica mm Hg) Control Alta exposición (grupo 1) Baja exposición (grupo 2)
20-29 años 113.9 120.8 (p<0.01) 114.5
30-39 años 115.8 124.8 (p<0.001) 115.5
40-49 años 121.0 135.5 (p<0.001) 118.4

Hombres (diastólica mm Hg) Control Alta exposición (grupo 1) Baja exposición (grupo 2)
20-29 años 69.8 76.1 (p<0.001) 68.9
30-39 años 70.8 79.6 (p<0.001) 72.4
40-49 años 71.1 87.0 (p<0.001) 76.1

Para las mujeres no había diferencias entre el grupo 2 (menos expuesto) y el grupo de control (no había mujeres en el grupo 1).

Los autores reconocieron que se vieron “impresionados” por la estadísticamente significativa diferencia encontrada en los hombres más expuestos con respecto al grupo de control, incremento que era consistente en todos los grupos de edad analizados.

Esas diferencias también se mostraban en función del número de años en el puesto:

Hombres (sistólica mm Hg) Control Alta exposición (grupo 1) Baja exposición (grupo 2)
Menos de 5 años 116.5 121.1 114.0
Entre 5 y 9 años 116.5 125.4 (p<0.001) 114.0
Entre 10 y 14 años 116.5 134.7 (p<0.001) 116.2

Hombres (diastólica mm Hg) Control Alta exposición (grupo 1) Baja exposición (grupo 2)
Menos de 5 años 70.8 75.8 (p<0.001) 69.3
Entre 5 y 9 años 70.8 78.7 (p<0.001) 70.0
Entre 10 y 14 años 70.8 84.7 (p<0.001) 74.7

Los autores descartaron el efecto del ruido tras un posterior análisis, por lo que las conclusiones se circunscriben a los efectos combinados de las microondas y la alta temperatura ambiente sobre la presión arterial.

Comentarios personales

El artículo debería mejorar estadísticamente planteando un model lineal general que permitiera un mejor control de las variables. No obstante, los resultados muestran una clara tendencia, con un patrón de respuesta a la dosis, y también un patrón temporal.

Para contextualizar esa exposición en el grupo 1 podemos decir que dos órdenes de magnitud menor que la actualmente está permitida como nivel de referencia en Estados Unidos. No obstante, es mayor que la podemos encontrar en algunas situaciones cotidianas hoy día, como apuntábamos en un post anterior:

Para hacernos una idea con respecto a qué significarían esos niveles de potencia en la actualidad, a 10 cm de un router Wi-Fi de 300 mW puede haber una intensidad de 0.0001 mW/cm2 (Liptai et al., 2017). En un colegio con 30 portátiles y con un router a 0.5 metros puede haber unos 0.0016 mW/cm2 (Hedendahl et al., 2017).

En cualquier caso, debería ser una evidencia a tener en cuenta a la hora de evaluar la inocuidad de la radiación no ionizante a niveles por debajo de los legales.

Referencia

Sadchikova, M. N., et al. (1977). Arterial pressure as related to exposure to low-intensity microwaves and high temperature. Institute of Industrial Hygiene and Occupational Diseases, USSR Academy of Medical Sciences, submitted 25 Feb 76.




(#450). LA REGULACIÓN SOBRE ETIQUETADO Y PUBLICIDAD DE PRODUCTOS AZUCARADOS FUNCIONA EN CHILE

En un estudio publicado en Plos Medicine, los autores evaluaron la nueva ley sobre etiquetado y publicidad alimentaria en relación a su efecto sobre el consumo de bebidas azucaradas.

Debido al prevelante problema de obesidad, se están implementando medidas de regulación en diversas localizaciones geográficas, la mayoría con efectividad manifiesta, como hemos comentado en otros posts. Los autores identificaron 42 países y 6 ciudades de Estados Unidos que han utilizado medidas impositivas para tal fin.

En este caso, en 2016 Chile comenzó a ejecutar una serie de políticas reguladoras enfocadas a informar mejor al consumidor sobre el contenido en azúcar, energía, sodio y grasas saturadas de los alimentados (en un sistema de etiquetado diseñado para tal fin), limitando la publicidad de estos productos, y prohibiendo su venta en las escuelas.

Previamente, en 2014, este país implementó un incremento de la tasa impositiva a las bebidas con alto contenido en azúcares, es decir, más de 6.25 g/mL (del 13 al 18%) y una reducción para las de bajo contenido (del 13 al 10%). Después del primer año las ventas habían bajado en un 3.4% para las de alto contenido en azúcar, y se incrementaron en 10.7% para las de bajo contenido.

La regulación chilena, a partir de 2016, consistió en la implementación de forma progresiva de obligatoriedad de etiquetado y restricción de publicidad dirigida a niños (menores de 14) años, además de la prohibición de venta en las escuelas. Esa progresión en las medidas se muestra en la siguiente tabla:

Sólidos Junio 2016 Junio 2018 Junio 2019
Energía (kcal/100g) 350 300 275
Sodio (mg/100g) 800 500 400
Azúcares totales (g/100g) 22.5 15 10
Grasas saturadas (g/100g) 6 5 4
Líquidos
Energía (kcal/100g) 100 80 70
Sodio (mg/100g) 100 100 100
Azúcares totales (g/100g) 6 5 5
Grasas saturadas (g/100g) 3 3 3

El etiquetado obligatorio se ilustra a continuación:

Metodología

Los autores emplearon datos mensuales sobre compras de bebidas sacados de un panel de compras de 2383 participantes, en el periodo comprendido entre el 1 de enero de 2015 y el 31 de diciembre de 2017. 

Resultados e implicaciones

El volumen de compra de bebidas con alto contenido en azúcares decreció en 22.8 mL/per cápita/día. También disminuyó el consumo de calorías en 11.9 kcal/per cápita/día (un 27.5%). El nivel educacional de los hogares no tuvo un efecto relevante en las reducciones absolutas de compra, aunque los hogares con mayor nivel educativo tuvieron una reducción porcentualmente mayor.

Estos resultados indican que mediante este tipo de regulación no impositiva se han producido resultados con un tamaño de efecto mayor que la (débil) regulación impositiva que precedió a estas medidas.  En cualquier caso, parece evidente que la literatura muestra que la adopción de medidas de este tipo es necesaria para reducir el consumo de este tipo de productos:

Referencia

Taillie LS, Reyes M, Colchero MA, Popkin B, Corvalán C (2020) An evaluation of Chile’s Law of Food Labeling and Advertising on sugar-sweetened beverage purchases from 2015 to 2017: A before-and-after study. PLoS Med 17(2): e1003015. https://doi.org/10.1371/journal.pmed.1003015

Posts relacionados




(#449). AUMENTO DE CASOS DE GLIOBLASTOMA TAMBIÉN EN FRANCIA

[MONOTEMA] Como explicamos en el post anterior, la incidencia de glioblastoma creció significativamente en Inglaterra, Canadá y Estados Unidos en el periodo 1995-2015.

Hace escasos meses, en julio de 2019, la agencia pública francesa “Santé Publique France”, que actúa bajo la supervisión del Ministerio de Sanidad, publicó este informe donde se estima la incidencia y mortalidad por cáncer en la Francia metropolitana entre los años 1990 y 2015, con proyecciones hasta 2018.

Los número de casos histológicamente confirmados se han multiplicado por 4 en el periodo considerado, tal y como puede contemplarse en la figura siguiente:

Los autores del estudio hacen referencia también a la investigación realizada en Australia por Dobes et al. (2011), donde la incidencia de glioblastoma creció significativamente de 3.2 a 3.96 casos por 100000 personas/año en el periodo 2000-2008.

Los investigadores franceses plantean varias hipótesis para justificar el incremento importante de casos de este tipo de cáncer cerebral, entre ellas la de exposición a radiación electromagnética no ionizante que, como ya sabemos, incluye la radiación de los teléfonos móviles.

Todos los posts relacionados




(#448). INCREMENTO DE LA INCIDENCIA DE GLIOBLASTOMA

[REVISIÓN DE ARTÍCULO] En esta investigación publicada en Neuro-Oncology, los autores reportan la incidencia de glioblastoma, un tumor de las células de la glía, y que en otros estudios se ha planteado que pueda estar relacionado con diversos factores ambientales (como las radiaciones no inonizantes, y entre ellas el uso del teléfono móvil).

Tras estandarizar por edad, muestran los datos en el periodo 1995-2015 para Inglaterra, Canadá y Estados Unidos.

En los 3 países es evidente que la incidencia ha aumentado en el periodo considerado, siendo más moderada en Canadá y Estados Unidos con respecto a Inglaterra.

Los investigadores tratan de justificar que ese incremento de más del 100% de incidencia en Inglaterra puede ser debido a malas clasificaciones y confusión en cómo se codifica el tumor o se recogen los datos.

Así, son prudentes al concluir que ese incremento de incidencia sea debido a factores ambientales, demandando más estudios epidemiológicos al respecto.

Comentarios

Pese a que los autores sostienen que el gran incremento de incidencia de glioblastoma en Inglaterra pueda ser debido principalmente a factores de registro, y son muy prudentes a la hora de posicionarse por cualquier explicación ambiental, lo cierto es que estos datos muestran claramente que la incidencia de este tumor ha subido en los 3 países analizados.

Dado que es un tipo de tumor cerebral (aunque también puede desarrollarse en la médula espinal), y que se ha asociado al uso del teléfono móvil, aquí tenemos una evidencia importante de que sí que hay datos que indican un incremento de cáncer desde los años 90.

Ir más allá en la asociación requiere de futuras investigaciones y de prudencia, lo que es mucho más científico que decir que no hay datos que muestren que ciertos tumores cerebrales hayan aumentado desde la diseminación de los teléfonos móviles.

LEE EL ARTÍCULO ORIGINAL AQUÍ:

Davis, F. G. et al.  (2019). Glioblastoma incidence rate trends in Canada and the United States compared with England, 1995-2015. Neuro-Oncology, doi: 10.1093/neuonc/noz203

 
Indicadores de calidad de la revista*
  Impact Factor (2018) Cuartil Categoría
Thomson-Reuters (JCR) 10.091 Q1
ONCOLOGY
Scimago (SJR) 4.098
Q1 ONCOLOGY

* Es simplemente un indicador aproximado para valorar la calidad de la publicación

Todos los posts relacionados




(#447). EDUCACIÓN TÓXICA. EL IMPERIO DE LAS PANTALLAS Y LA MÚSICA DOMINANTE EN NIÑOS Y ADOLESCENTES

[MONOTEMA] En Educación Tóxica, Jon Illescas explica la importancia y el efecto que tienen los contenidos audiovisuales, en especial la música,  para la educación de niños y adolescentes. Lo hace apoyado en un profundo trabajo de investigación y análisis sociológico, que nos muestra evidencias suficientes para concluir que el dominio de la industria cultural es esencial para que la oligarquía empresarial y los propietarios del capital puedan mantener su posición de privilegio con respecto a la clase trabajadora, mediante un premeditado sistema de control social.

Jon Illescas, es profesor de enseñanza secundaria y bachillerato. Licenciado en Bellas Artes por la Universidad Miguel Hernández con Premio Extraordinario de Licenciatura, posteriormente se doctoró en Sociología y Comunicación por la Universidad de Alicante, consiguiendo también el Premio Extraordinario de Doctorado.  Jon es un artista plástico, que además ha publicado un centenar de trabajos sobre cultura, comunicación y economía. Entre ellos destaca el libro que precede a este, titulado “La dictadura del videoclip”, publicado en 2015 y que ha recibido excelentes críticas y ya va por la tercera edición.

Desde hace muchos años doy clase de marketing a los alumnos de segundo curso de GADE en la UPCT, estudiantes de 18, 19, 20 años que son prácticamente adolescentes, y lo que observado en los últimos tiempos en ellos concuerda perfectamente con las tesis de este libro.

Muchos de estos estudiantes (no todos), además de una dependencia de las pantallas (especialmente del teléfono móvil) cada vez más enfermiza, vienen con dos ideas preconcebidas y equivocadas, fruto de la brutal propaganda del sistema capitalista neoliberal:

La primera de ellas es la búsqueda de la satisfacción inmediata y el éxito fácil como leitmotiv; evitan los análisis sosegados de problemas complejos y creen que todo se puede resolver con frases simples, argumentar con un “zasca” o explicar una idea con un mensaje de 140 caracteres. Todo rápido y fácil, y por eso buscan que los profesores les den herramientas para la acción, pero no, y esto es importante, herramientas para el pensamiento. Para ellos las nuevas tecnologías son una especie de bendición divina , y no se puede criticar ningún aspecto de ellas sin ser etiquetado como retrógrado, porque para ellos todo es blanco o negro, todo es dualismo, no hay matices.

La segunda de ellas es que son libres para elegir lo que quieren, porque viven en el mejor sistema económico posible, donde quien triunfa es porque se lo ha ganado, y donde el libre mercado es sinónimo de democracia. Están convencidos de que la demanda es quien dirige la oferta, es decir, son ellos los que con sus gustos y preferencias eligen lo que el mercado debe producir.

Estas dos ideas son desmontadas por Jon en el libro de forma brillante, mostrando la necesidad de realizar análisis sociológicos bien elaborados para entender las causas de los problemas complejos, en este caso, los relacionados con la educación y nuevas tecnologías. Además, muestra evidencias incontestables de que no es la demanda la que determina la oferta, todo lo contrario, somos manipulados para que pensemos y nos comportemos como quiere el poder hegemónico. En este sentido su tesis es similar a las conclusiones de Baudrillard sobre la función del marketing en el sistema capitalista, como medio de propaganda del poder, que nos dice qué debemos consumir para ser felices.

El libro desarrolla todos estos temas usando como principal hilo conductor  la industria musical, desnudando su funcionamiento como sistema de control de masas. Sin embargo, no se queda sólo en el diagnóstico del problema, sino que también plantea alternativas y formas de luchar contrahegemónicas, que son muy interesantes, tanto para educadores (profesores y padres), como para aquellos políticos que las quieran escuchar.

Es evidente que no es un libro contra el uso de las las nuevas tecnologías en la educación, ni tampoco emplea una visión excesivamente moralista. Hay que profundizar en su lectura para darse cuenta de los matices sobre la necesidad de control y limitación de ciertas prácticas educativas que, en definitiva, no son más que la reproducción de los intereses del capital privado. Frente a ello, independencia de lo público, enseñanza libre de toda injerencia empresarial, y fomento de la inversión estatal en crear una industria cultural alternativa, basada en algo que,  desafortunadamente, suena anacrónico a muchos, y es la defensa de los Derechos Humanos.

En definitiva, un libro que probablemente hará reflexionar a aquellos padres que llevan a sus hijos a colegios con iPad desde primaria, a los que les regalan un móvil para su comunión, a los que permiten que sus hijos de 7-8 años se pasen las tardes conectados jugando a videojuegos, a los profesores de colegio que eligen ciertas canciones para las funciones de los niños, a los docentes que piensan que están haciendo la revolución digital en sus colegios porque los profesores llevan el móvil a todas horas y sus alumnos hacen Power Points, o a los políticos que se venden a los intereses privados, fomentando la educación concertada mientras mantienen en la miseria a los centros públicos.

Todos los posts relacionados