(#455). PERDIDOS EN LAS MATEMÁTICAS

[MONOTEMA]  Esta obra de Sabine Hossenfelder orbita alrededor de una idea principal: la belleza de una ecuación, de un modelo, de una idea, no tiene por qué ser un criterio válido para evaluar su validez.

Hossenfelder argumenta con solidez que este es un sesgo importante que afecta a la Física, sobre todo a las disciplinas donde la experimentación es mucho más difícil de llevar a cabo (y a veces es, de hecho, prácticamente imposible).

Para la autora, la ciencia es una empresa organizada para superar las limitaciones de la cognición humana y evitar las falacias de la intuición. Para ello es indispensable el uso de las matemáticas, las cuales pueden errar, pero no pueden mentir.

La supersimetría (SUSY) postula que las leyes de la naturaleza permanecen inalterables cuando los bosones se intercambian por fermiones. Cada bosón conocido tiene que tener un compañero fermiónico, y viceversa, y deben ser idénticos. Sin embargo, y pese a la belleza de esta teoría, no hay todavía evidencias que la sustenten. Y esa misma carencia de evidencias, como explica Hossenfelder, sucede con la teoría de cuerdas.

Sin embargo, la mecánica cuántica es fea…pero funciona. La conclusión principal de la cuántica es que en realidad no hay ondas y no hay partículas. En cambio, todo en el universo subatómico se describe por una función de onda que tiene propiedades tanto de partícula como de onda. En ocasiones se asemeja más a una onda, y en otras a una partícula, pero como señala la autora, no es ninguna de las dos, sino una categoría en sí misma.

La función de onda, en sí misma, no corresponde a una cantidad observable pero a partir de su valor absoluto podemos calcular la probabilidad para la medición de observables físicos. Hossenfelder no se cansa de recordarnos que nadie entiende la mecánica cuántica, pero aún así es empíricamente robusta. La aparición de la mecánica cuántica es un fracaso de la belleza en la física.

La belleza y la divinidad

Esta relación que plantea la autora entre la belleza y la divinidad es uno de los puntos más interesantes del libro para mis estudiantes de marketing, donde hablamos largo y tendido sobre la importancia de la belleza como proporción y simetría, con el fin de incrementar la preferencia por el producto en cuestión.

A finales del siglo XIX era habitual que los científicos consideraran la belleza de la naturaleza como un signo de divinidad. Pero, como describe Hossenfelder, en el siglo XX la ciencia se separó de la religión y los científicos dejaron de atribuir la belleza de la ley natural a la influencia divina. Sin embargo, después el concepto de belleza parece que resistió, no ya por su relación con la divinidad sino como una especie de máxima a cumplir.

La autora repasa la cercanía de algunos de los más grandes científicos a la religión. Así, la obra de Kepler estuvo influida por su fe religiosa:

Es absolutamente necesario que la obra de un creador perfecto sea de la máxima belleza

Pero cuando modificó su modelo circular a uno elíptico esa idea fue recibida con desaprobación porque no se ajustaba a los cánones estéticos de la época. Incluso, comenta la autora, recibió las críticas de Galileo.

Newton, por su parte, creía en la existencia de un dios cuya influencia apreciaba en las leyes que cumplía la naturaleza:

Este sistema tan hermoso del Sol, los planetas y los cometas, sólo puede proceder del consejo y el dominio de un ser inteligente. […] Cada nueva verdad descubierta, cada experimento o teorema es un espejo de la belleza de Dios.

Sin embargo, los físicos, todavía hoy, suelen prestar más atención a las teorías que consideran bonitas. Como afirmaba Dirac, las leyes físicas deberían tener belleza matemática.

Teorías sin contraste con los datos empíricos

La autora, con un tono muy crítico, comenta que algunos físicos afirman que determinados criterios no basados en observaciones también son filosóficamente sólidos, y que el método científico debe corregirse de modo que las hipótesis puedan evaluarse sobre una base puramente teórica.

Esto, según Hossenfelder, puede hacer retroceder cientos de años a la ciencia. Parece que algunos teóricos de cuerdas consideran que es suficiente la belleza de sus postulados y que, de tan ideales y bellos que son no deberían siquiera cuestionarse desde el punto de vista empírico.

Esas reflexiones de Hossenfelder me hacen recordar a un investigador cercano con un centenar de publicaciones JCR que me comentó una vez que para él lo importante de un artículo de investigación es plantear una buena teoría, y que eso de que los análisis estadísticos dieran un resultado u otro era lo de menos. Tal cual.

Psicólogos y economistas

La autora no llega al nivel de desprecio que Nassim Taleb muestra por estos colectivos y sus disciplinas, de hecho, incluso considera útil conocer ciertos aspectos de la psicología relacionados con los sesgos cognitivos para intentar ser un mejor investigador. Pero sí que subyace una crítica a la forma de hacer ciencia, si es que se puede llamar así, de investigadores cuyos trabajos son matemáticamente deficientes y que no consiguen replicarse.

Sin embargo, Hossenfelder también dispara hacia el grupo de físicos que, pese a su sofisticación matemática, defienden sus teorías sujetos a sesgos cognitivos. En realidad, la autora da la sensación de querer realizar una crítica más profunda a todo el sistema académico y de publicaciones. Y en esto vuelve a coincidir con Taleb.

Conclusión

Perdidos en las matemáticas es un libro sin fórmulas matemáticas, y desde luego no creo que “revolucione” la física, como se indica en la portada. Es curioso que Hossenfelder, que se queja del marketing en la ciencia como algo peligroso, acceda a que se ponga esa frase pretenciosa en el libro. Quizá haya sido una decisión editorial. 

Sin embargo esta obra es interesante, no sólo para introducirse en el mundo de la física de partículas y la cosmología, sino para comprobar la cantidad de posturas contrapuestas que se pueden encontrar entre los físicos actuales. Además, realiza una crítica coherente del concepto de belleza como criterio para elegir o desarrollar teorías y modelos, lo cual es de agradecer.

Posts relacionados




(#453). RADIOISÓTOPOS MÉDICOS Y BREXIT

El artículo de Villarreal (2019) explica una de las posibles consecuencias de la salida del Reino Unido de la Unión Europea, como es el problema de abastecimiento de radioisótopos de vida media corta necesarios para realizar diferentes pruebas de diagnóstico y tratamientos de enfermedades (como el cáncer). En las siguientes líneas, vamos a realizar un breve comentario al respecto.

¿Qué es un radioisótopo?

Como indican Del Pilar, Calvino & López (2018), los radioisótopos son núclidos que tienen el mismo número de protones, pero distinto número de neutrones, y que son radiactivos, es decir, que son inestables y se transforman espontáneamente en otros núcleos, emitiendo partículas y/o radiación electromagnética. Sin embargo, hay núcleos estables que se pueden transformar en núcleos radiactivos mediante el bombardeo con neutrones, protones y otros núcleos, produciéndose radiactividad artificial.

Este es el caso del primer radioisótopo nombrado por Villarreal (2019), el tecnecio-99m (99mTc), que se puede producir por el bombardeo de neutrones al molibdeno-98 (98Mo), uno de los isótopos naturales estables del molibdeno (Lenntech.es). En realidad, el proceso no es directo, sino que primero se obtiene 99Mo, que es otro isótopo del molibdeno, pero en este caso artificial y no estable, del cual se obtiene 99mTc, a través de diferentes métodos de separación (Boyd, 1982). Una explicación más extensa puede consultarse en Solanes (2016). Tal y como comenta Villarreal (2019), el 99Mo se extrae tras fisionar uranio enriquecido.

El subíndice “m” del isótopo indica que se encuentra en un estado metaestable o isómero, lo que significa que se mantiene un determinado tiempo excitado (varios órdenes de magnitud por encima de los 10-13s), para luego emitir radiación gamma y pasar al estado fundamental. Como explican Del Pilar, Calvino & López (2018), este proceso se conoce como transición isomérica

La vida media

Villarreal (2019) expone el problema de las cortas vidas medias del 99mTc, así como de otros radioisótopos. La vida media se define como el tiempo que transcurre para que se desintegre la mitad de átomos de una muestra.  Está regida por la curva de decaimiento:

siendo:

: Número de átomos desintegrados

: Número de átomos desintegrados en el instante inicial

: Constante de desintegración

: Tiempo

Para calcular la vida media, simplemente hay que tomar y despejar el tiempo, llegando a esta expresión:

: Tiempo de vida medio

Es importante no confundir el tiempo “largo” que el 99mTc tarda en emitir la radiación gamma (por su característica metaestable ya comentada) con el tiempo “corto” de su vida media en relación a la vida media de otros isótopos radiactivos. En Del Pilar, Calvino & López (2018) se pueden encontrar las vidas medias de múltiples radionúclidos (ver páginas 281-282), que pueden ir desde años hasta horas o minutos. Estos últimos radionúclidos suelen emplearse en aplicaciones de diagnóstico médico, dada su rápida desintegración.

Así, el artículo de Villarreal (2019) comenta no sólo el caso del 99mTc, sino de otros radioisótopos de semiperíodo de desintegración corta, como el 82Rb o el 18F.

Es preceptivo destacar, además, que el semiperiodo de vida media difiere del semiperíodo de vida biológico, que caracteriza la excreción de un radioisótopo de un ser vivo. Como indica Hyperphysics (2020), la tasa de disminución de la exposición a la radiación está afectada por el semiperiodo físico y el semiperiodo biológico , donde se puede definir un semiperiodo de vida efectiva  de la siguiente forma (3):

Para el caso del 99mTc, horas , horas, por lo que horas.

Aplicaciones médicas

La medicina nuclear es una especialidad médica en la que se utilizan radionúclidos para el diagnóstico y tratamiento de enfermedades. El elemento radiactivo empleado se suele inyectar vía intravenosa, para distribuirse por el organismo y generar imágenes de los órganos y tejidos de interés (aplicación de diagnóstico), o se irradia al tejido canceroso (aplicación de terapia), normalmente con rayos gamma y rayos X (aunque también se emplean neutrones y protones), ya sea de forma externa o interna (braquiterapia). Del Pilar, Calvino & López (2018) explican con claridad estas diferentes aplicaciones.

El problema que plantea Villarreal (2019) está fundamentalmente relacionado con las aplicaciones de diagnóstico, ya que estas emplean radionúclidos de vida media (física) corta, y cuyo semiperiodo de vida efectiva es de horas o a veces de días. Así, Villarreal (2019) nombra la tomografía por emisión de positrones (PET), pero también es común emplear la tomografía computerizada por fotón único (SPECT). La diferencia entre ambas técnicas se explica en NIBIB (2016); mientras que en la segunda se miden los rayos gamma de los trazadores, en la primera se miden los fotones generados tras la aniquilación de positrones provenientes de la desintegración del radionúclido y electrones del cuerpo humano.

Otra técnica importante es la gammagrafía, que además aplica el 99mTc. Tal y como indica Solanes (2016), la gammagrafía es una técnica de diagnóstico por imagen que utiliza la radiación gamma con una cámara sensible a este tipo de radiación.

Conclusión

Pese a que el texto de Villarreal (2019) identifica un potencial problema de salud pública en el Reino Unido ante el posible desabastecimiento de radioisótopos de vida corta, el autor reconoce que la gran mayoría de radionúclidos empleados para diagnóstico se producen en las inmediaciones de los hospitales en el Reino Unido e Irlanda. El problema principal, por tanto, se centra en el abastecimiento de 99mTc que, en realidad, como hemos comentado, se produce a partir del 99Mo, cuya producción está muy localizada en unos pocos reactores nucleares. Sin embargo, la amenaza de carencia de este radioisótopo no está sólo dirigida a los británicos ante el escenario de un brexit sin acuerdo, sino, como indica Zubiarrain (2011), a toda la comunidad internacional debido a las varias crisis de suministro de 99Mo que en los últimos años se han producido.

Referencias

Boyd, R. E. (1982). Technetium-99m generators—The available options. The International Journal of Applied Radiation and Isotopes, 33 (10), 801-809.

Del Pilar, M. J., Calvino, V. & López, A. J. (2018). Introducción a la radioquímica. Madrid: Editorial UNED.

Hyperphysics (2020). Semi Vida Biológica. Descargado desde: http://hyperphysics.phy-astr.gsu.edu/hbasees/Nuclear/biohalf.html#c1

Lentech.es (2020, enero 7). Propiedades químicas del Tecnecio – Efectos del Tecnecio sobre la salud – Efectos ambientales del Tecnecio. Descargado desde: https://www.lenntech.es/periodica/elementos/tc.htm

NIBIB (2016). Medicina nuclear. Descargado desde: https://www.nibib.nih.gov/espanol/temas-cientificos/medicina-nuclear

Solanes, S. (2016). Tecnecio 99m: Radiofármaco de diagnóstico utilizado en la actualidad. Trabajo fin de grado. Facultad de Farmacia. Universidad Complutense de Madrid.

Villarreal, A. (2019, septiembre 17). El gran riesgo radiactivo de un Brexit duro: quedarse sin isótopos médicos en seis horas. Descargado desde: https://www.elconfidencial.com/mundo/europa/2019-09-17/brexit-radioisotopos-nucleares-medicina_2227875/?utm_source=emailsharing&utm_medium=email&utm_campaign=BotoneraWeb

Zubiarrain. A. (2011). Problemas en la producción en reactores de isótopos con fines médicos y la crisis mundial de suministro de molibdeno 99Mo. Nuclear España, 316, 19-22.

Posts relacionados




(#431). ASTROFÍSICA PARA GENTE CON PRISAS

[MONOTEMA]  Esta obra del conocido físico Neil deGrasse Tyson es una lectura introductoria sobre algunos conceptos básicos de la astrofísica y la cosmología, que presenta de modo muy ameno y sencillo la belleza del cosmos, aunque esa fascinación por el universo vaya aparejada del reconocimiento de lo inhóspito que es para la vida humana.

En este mundo de alta velocidad, de 140 caracteres, de minutos contados en los debates, de la inmediatez de las redes sociales, de poca profundidad y mucha superficie, realizar una obra de este tipo tiene un éxito casi asegurado, porque casa muy bien con el perfil de las personas que viven en esa dinámica, como el hámster en la rueda, con consumidores voraces del “uso y tiro”.

Sin embargo, en mi opinión, deGrasse Tyson ofrece una pieza muy útil para motivar a niños (incluso a adolescentes), a adentrarse en el mundo de la ciencia. De este modo, para mí el título ideal hubiera sido “Astrofísica para niños sin prisas”.

Para los adultos, y ahí incluimos a los estudiantes universitarios, el libro muestra algunos detalles ciertamente interesantes que permiten a los lectores interesados en la ciencia en general sacar jugo, y disfrutar con una media sonrisa en la boca. Entre ellas, destacaría los siguientes:

1. Reconocimiento de nuestra ignorancia en ciertos aspectos fundamentales que relacionan la relatividad y la cuántica, como sobre qué ocurrió en los primeros instantes del universo, por debajo de la escala de Planck.

Tony Stark ya se lo advirtió al Capitán América en Vengadores Endgame cuando Rogers fue a convencerlo de que se podía viajar en el tiempo a través del mundo cuántico. Luego los guionistas estropearon el resto de la historia al hacerlo posible.

2. La incertidumbre que todavía tenemos para explicar qué es la materia y la energía oscura, lo que hace que dudemos del origen del 95% de la masa-energía del universo. DeGrass Tyson ofrece algunas respuestas, sí, refleja las posturas mayoritarias a nivel científico, pero reconoce que la respuesta definitiva está todavía lejos.

Personalmente, me resulta extremadamente curioso como los físicos abordan este tema; parten de la observación de unos efectos que se producen en el universo, que son ciertamente mensurables, y sobre ello postulan explicaciones (brillantes) que podrían concordar con los hechos. No obstante, ignoran el “mecanismo” causal exacto que los produce.

Sin embargo, algunos científicos que admiten esta forma de entender la ciencia, no actúan igual en otros ámbitos, como en la epidemiología, cuando hay un cuerpo de evidencia sólido que muestra efectos (desarrollo de enfermedades), pero no se conocen todavía con exactitud los mecanismos causales (algo habitual en enfermedades con etiología compleja). Entonces aquí, incluso a veces se atreven a hablar de pseudociencia, porque no se conocen completamente las causas. A primera vista parece, cuanto menos, incauto obrar así, a fin de cuentas (y salvando las distancias derivadas de las diferencias entre disciplinas), el procedimiento es el mismo, se parte de la observación de ciertos fenómenos, y luego se tratan de plantear las teorías que los pueden explicar, reconociendo todavía que faltan muchas piezas para completar el puzle.

3. La asombrosa interacción entre los elementos químicos, que deGrasse Tyson ilustra así:

¿De qué otra forma podríamos creer que el sodio es un metal venenoso y reactivo que puede cortarse con un cuchillo de mantequilla y que el cloro puro es un maloliente gas mortal, pero que mezclados producen cloruro de sodio, un inofensivo compuesto biológicamente esencial, mejora conocido como sal de mesa? ¿O qué tal el hidrógeno y el oxígeno? Uno es un gas explosivo y el otro favorece la combustión violenta, pero los dos combinados producen agua líquida que apaga incendios.

A mis estudiantes de marketing siempre intento hacerles ver lo importante que es este pensamiento acerca de la complejidad del mundo en el que tiene que trabajar (y vivir). La interacción que produce efectos “inesperados” en relación a los producidos por las variables a nivel individual es una característica más de los sistemas complejos, junto a la no linealidad, el retraso entre causa y efecto, la dependencia sensible, y tantas otras.

4. La humildad con la que hay que enfrentarse y valorar el conocimiento científico. El caso de la constante cosmológica propuesta por Albert Einstein, y que deGrasse Tyson explica con acierto, es un buen reflejo de ello. En algo menos de 100 años la constante cosmológica ha pasado de ser una propuesta de Einstein a la que él mismo renunció (tras no concordar con las observaciones sobre la expansión del universo que posteriormente reportaron otros físicos), a volver a resultar preceptiva para nuevos modelos del cosmos propuestos en la actualidad:

La energía oscura no está a la deriva, sin ninguna teoría que la ancle. La energía oscura habita uno de los puertos más seguros que podríamos imagina: las ecuaciones de la relatividad general de Einstein. Es la constante cosmológica. Es lambda. Sin importar lo que la energía oscura resulte ser, ya sabemos como medirla y cómo calcular sus efectos sobre el pasado, el presente y el futuro del cosmos.

5. El papel de la suerte en los descubrimientos científicos. Bueno, en realidad, no tanta suerte, sino que a veces ocurren hallazgos gracias al tesón, preparación y perspicacia de investigadores que, siguiendo el método científico, consiguen un resultado inesperado. Así, deGrass Tyson comenta el descubrimiento de la luz infrarroja por el astrónomo William Herschel, quien se preguntó qué temperatura tendrían los siete colores conocidos del espectro visible. Herschel, hábilmente, estableció un grupo de control (esencial para la realización de cualquier experimento), poniendo un termómetro fuera del espectro visible, adyacente al rojo, creyendo que no registraría una temperatura mayor a la del ambiente. Pero se equivocó (afortunadamente) y la temperatura registrada por ese termómetro era mayor incluso a la reportada por el colocado en el color rojo. Así, se empezó a descubrir una nueva parte del espectro electromagnético, la luz no visible, para darnos cuenta de nuevo de la cantidad de fenómenos físicos que nuestros sentidos no pueden percibir, pero que son reales.

En conclusión, un libro que merece la pena ser leído casi “en familia”, compartirlo con los hijos, animándoles a adentrarse en el mundo de la ciencia. Y también recomendable para profesores de primaria, para cuando les digan a sus alumnos que “somos polvo de estrellas”, no lo dejen ahí (como tristemente ocurre a veces), y les expliquen exactamente la razón de esa afirmación.

Todos los posts relacionados




(#335). EXPLORANDO EL COMPORTAMIENTO CAÓTICO CON MAXIMA

[MONOTEMA] Continuamos analizando las relaciones no lineales entre variables en esta serie de posts para facilitar la comprensión acerca de la complejidad de los fenómenos sociales.

Hoy vamos comentar (sin entrar en detalles profundos) el comportamiento caótico de un sistema. La idea es ver que, incluso en sistemas muy sencillos, con ecuaciones simples, hacer predicciones puede ser una tarea muy complicada.

Vamos a servirnos parcialmente del artículo de Morante & Vallejo (2013), que de manera bastante amigable explican cómo poder simular este tipo de comportamientos en Maxima.

La ecuación lógistica

Emplearemos la ecuación logística (o aplicación logística) para ilustrar ese comportamiento:

donde x es una variable que está entre 0 y 1 y r está entre 0 y 4. En el contexto de los estudios poblacionales, x representa el porcentaje de población sobre el máximo posible, y r una tasa entre la reproducción y la mortandad. Así, si r<1, la mortandad es mayor que la reproducción, y el sistema acabará evolucionando hacia un valor de x=0 en un determinado tiempo t.

Evolución del sistema en función de r

En primer lugar, vamos a realizar varias simulaciones sobre la evolución temporal del sistema en función de varios valores de r: 0.8, 1.8, 2.8, 3.8. Para ello tomamos como valor fijo x=0.9, es decir, el valor de partida es que la población está casi al máximo de lo posible.

Para ello, escribimos el siguiente código en una sesión con wxMaxima:

F(r,x):=r*x*(1-x)$    /* Ecuación logística*/
load(dynamics)$    /* Carga del paquete para la simulación*/
x_0:0.9$    /* Condición inicial del sistema*/
dominio_x:[y,0,1]$   /* Rango del eje y*/
tiempo:30$    /* Intervalos de tiempo discreto */
r:0.8$   /* Valor asignado a r */
evolution(F(r,x),x_0,tiempo,dominio_x,[color, red],[xlabel, “tiempo”],[ylabel, “x_t_+_1”], [legend, “r=0.8”]);

r_08

Como era previsible, la población decae hasta que desaparece. Ahora, podemos probar el mismo código de Maxima pero con los valores r=1.8 y r=2.8:

r_18
r_28

En ambos casos se tiende a un punto de equilibiro en (r-1)/r. Sin embargo, cuando r=2.8, la respuesta del sistema comienza a oscilar entre ese punto, suavizándose progresivamente.

Pero cuando r=3.8, el resultado es el siguiente:

r_38

Como puede apreciarse, el sistema se vuelve mucho más oscilante, y no se adivina ninguna tendencia a la estabilidad.

Programación “a mano” de la evolución del sistema

Hemos empleado la función “evolution” de Maxima, que facilita mucho el trabajo. Sin embargo, podemos programar “a mano” el comportamiento del sistema, y así tratar de entenderlo mejor.

Para ello, escribimos el siguiente código en una sesión con wxMaxima:

x[t]:=r*(x[t-1])*(1-(x[t-1]))$        /* ecuación logistica*/
r:2.8$      /* fijamos el valor de r*/
x[1]:0.9$      /* fijamos la condición inicial para t=1*/
datos: makelist([t,x[t]],t,1,30)$     /* hacemos una lista con el resultado de 30 pasos de tiempo*/
matriz:apply(matrix,datos)$    /* convertimos esa lista en una matriz para poder emplearla luego*/
matriz_t: transpose(matriz)$  /* transponemos la matriz anterior para poder usarla en las gráficas*/
t_list: matriz_t[1]$  /* esa matriz traspuesta tiene 2 filas y 30 columnas. La primera fila es la correspondiente a los pasos de tiempo, y es la extraemos aquí */
x_list: matriz_t[2]$  /* extraemos la segunda fila de la matriz, que es la correspondiente al resultado de la función en cada paso de tiempo */
g[t]:=(r-1)/r$  /* creamos una nueva función que representa el punto de equilibrio del sistema, que obviamente depende del valor de r que hayamos fijado. Este valor es una constante, ya que no depende de t */
punto_eq:makelist([t,g[t]],t,1,30)$  /* seguimos el mismo proceso anterior y hacemos la lista de 30 pasos de tiempo */
matriz2:apply(matrix,punto_eq)$  /* convertimos esa lista en una matriz para poder emplearla luego*/
matriz2_t:transpose(matriz2)$  /* transponemos la matriz anterior para poder usarla en las gráficas*/
r_list:matriz2_t[2]$ /* extraemos la segunda fila de la matriz, que es la correspondiente al resultado de la función en cada paso de tiempo */
plot2d([[discrete, t_list,x_list],
[discrete,t_list, r_list]], [style,points,lines],
[xlabel, “tiempo”],[ylabel, “x_t_+_1”],
[x,0,30],[y,0,1],[color,red,blue],
[legend, “Evolución del sistema para r=2.8”, “Punto de equilibrio”]);

Lo que hemos hecho es simplemente reescribir la ecuación logística de esta forma:

Y además hemos añadido la línea que representa el punto de equilibrio. Cualquier lector puede hacer probaturas con otros valores de r y de condición inicial para ver gráficamente cómo evoluciona el sistema.

Dependencia sensible

Una de las características de los procesos caóticos (probablemente la más conocida, y quizá la más inquietante) es la extrema dependencia de las condiciones iniciales. Así, cambios ínfimos en el valor de la variable que inicia el ciclo de evolución hace evolucionar al sistema de forma totalmente diferente.

Para realizar una prueba visual, hemos tomado dos valores de inicio: 0.900 y 0.899, es decir, una milésima de diferencia entre ambos valores.

Para ello, escribimos el siguiente código en una sesión con wxMaxima:

x[t]:=r*(x[t-1])*(1-(x[t-1]))$
r:3.8$
x[1]:0.900$
datos: makelist([t,x[t]],t,1,30)$
matriz:apply(matrix,datos)$
matriz_t: transpose(matriz)$
t_list: matriz_t[1]$
x_list: matriz_t[2]$
g[t]:=r*(g[t-1])*(1-(g[t-1]))$
g[1]:0.899$
datos2:makelist([t,g[t]],t,1,30)$
matriz2:apply(matrix,datos2)$
matriz2_t:transpose(matriz2)$
g_list:matriz2_t[2]$
plot2d([[discrete, t_list,x_list],
[discrete,t_list, g_list]], [style,lines,lines],
[xlabel, “tiempo”],[ylabel, “x_t_+_1”],
[x,0,30],[y,0,1],[color,red,blue],
[legend, “Condición inicial=0.900”, “Condición inicial=0.899”]);

El código simplemente refleja la programación de dos funcions “x[t]” y “g[t]”, ambas idénticas, con la única diferencia de esa milésima en las condiciones iniciales. Los resultados para 30 pasos temporales se muestran en el siguiente gráfico:

caosComo se puede apreciar, ambos sistemas comienzan de manera muy parecida su evolución, pero a partir de 10 pasos temporales empiezan a diverger hasta que el comportamiento de uno hace imposible la predicción del comportamiento del otro.

Conclusión

Los sistemas caóticos pueden tener ecuaciones muy simples, pero pese a esa simplicidad los hacen puntualmente impredecibles, aunque para determinados sistemas las órbitas pueden encontrarse en un espacio delimitado, llamado atractor.

Para las ciencias sociales, y especialmente para el marketing, lo mostrado en este post debe hacer reflexionar a los estudiantes sobre qué es la impredecibilidad y cómo entenderla y afrontarla.

Todos los posts relacionados




(#334). EXPLORANDO LA NO LINEALIDAD CON MAXIMA

[MONOTEMA] Hemos explicado que los fenómenos sociales son complejos y que la relación entre las variables a menudo es no lineal, con diferentes formas de curva: rendimientos decrecientes, histéresis, hormesis o efectos acumulativos. También hemos hecho mención a los procesos caóticos.

Para tratar de entender bien esos conceptos en el ámbito de un curso de introducción al marketing voy a proveer de diferentes códigos en Máxima para realizar simulaciones, y explorar gráficamente cómo se pueden comportar esos fenómenos. Máxima es un software gratuito de análisis matemático (descargar aquí).

Decaimiento exponencial

Vamos a representar la siguiente función:

Para ello, escribimos el siguiente código en una sesión con wxMaxima:

f1(x):=block([y1],
y1:400*exp(-x),
return (y1))$
plot2d(f1,[x,0,40],[y,0,400],[color, blue]);

Básicamente se trata de crear una variable local y1 que contenga la expresión de la función que queremos. El uso de variables locales es siempre adecuado para llevar los cálculos ordenados y evitar problemas en códigos largos. Por tanto, definimos la función f1(x) a través de la variable local y1. Después empleamos la función “plot2d” para llamar a la función que hemos especificado (f1) y decirle el rango en el que queremos que se represente en el eje X y en el eje Y, y también el color (en este caso azul). Es importante señalar que el rango de valores de los ejes es meramente ilustrativo y no tiene ningún significado específico en este y en los siguientes ejemplos.

decaimiento_exponencialComo puede verse, la función decae muy rápidamente con los primeros valores de x y se va suavizando a medida que x se incrementa. En marketing hay fenómenos que pueden asemejarse a este tipo de curvas, como por ejemplo los relacionados con los de la fluencia (facilidad con la que la información proviene a la mente). Así, la información más fuertemente asociada con el estímulo que estamos valorando llega con mucha más intensidad, pero a medida que seguimos intentando nombrar más asociaciones esa fluencia decae y nos cuesta mucho más trabajo hacerlo.

Esta también es una de las razones por las cuales la comunicación de marketing puede ser importante. Si conseguimos que la marca tenga notoriedad y una alta fluencia, siempre estará en los primeros puestos del conjunto evocado.

Este tipo de curvas pueden reflejar también el aprendizaje. Por ejemplo pueden representar la caída de la inversión necesaria en publicidad para conseguir los mismos resultados de marketing. Al comienzo del tiempo, una marca necesita una gran inversión para adquirir notoriedad y tratar de persuadir. Sin embargo, con el paso del tiempo, puede seguir manteniendo esos niveles de notoriedad y persuasión con una menor inversión, debido al aprendizaje del consumidor:

decaimiento_exponencial_2Efectos acumulativos

Vamos a representar la siguiente función:

Para ello, escribimos el siguiente código en una sesión con wxMaxima:

f2(x):=block([y2],
y2:exp(x),
return (y2))$
plot2d(f2,[x,0,40],[y,0,400],[color, magenta]);

efectos_acumulativos

Lo que tenemos aquí es una función que se mueve de manera opuesta al decaimiento, es decir,  para los primeros valores de x la función está “dormida”, avanza muy poco, pero a partir de un determinado umbral crece rápidamente.

Como comentamos en el post correspondiente, este tipo de relaciones entre variables se da en biología cuando hablamos de tóxicos que se acumulan en nuestro cuerpo, donde hasta un determinado nivel no producen efectos adversos importantes, pero que cuando sobreprasan un punto producen enfermedades u otro tipo de efectos no deseados.

En marketing, estas curvas pueden darse en los procesos de enamoramiento de marcas. Al comienzo, durante las primeras exposiciones la emoción que siente el consumidor crece casi imperceptiblemente, pero después de ir conociendo más cosas sobre la marca, experimentarla, llega un momento en que la pasión se dispara y la persona se vuelve un verdadero fan y defensor de la marca.

efectos_acumulativos_2Hormesis

Vamos a representar la siguiente función:

Para ello, escribimos el siguiente código en una sesión con wxMaxima:

f3(x):=block([y3],
y3:40*x-x^2,
return (y3))$
plot2d(f32,[x,0,40],[y,0,400],[color, green]);

hormesisRecordemos que la hormesis es un fenómeno de respuesta a la dosis por la cual existe una dosis adecuada para obtener el máximo efecto, mientras que por encima y por debajo de esa dosis el efecto es más pequeño.

En marketing este tipo de curvas pueden reflejar la relación entre la intensidad de la emisión de publicidad y el efecto sobre la atracción a la marca. Puede que haya un punto donde se maximiza esa atracción, pero si la empresa sigue intensificando sus campañas el consumidor puede empezar a cansarse e incluso comenzar a sentir rechazo por la marca.

Puede también ocurrir en la relación entre la apelación al miedo en publicidad y la capacidad de persuasión de una campaña de marketing social (lucha contra la droga, tabaquismo, accidentes de tráfico, etc.). El miedo funciona, pero a partir de un determinado umbral de intensidad de apelación al terror, la persona puede sentir que es algo irreal, exagerado, o incluso ser tan terrible que trata de distanciarse de ese mensaje que le hace daño.  Todo ello disminuye el efecto de la campaña:

hormesis_2Histéresis

Vamos a representar la siguientes funciones:

Para ello, escribimos el siguiente código en una sesión con wxMaxima:

f4_ida(x):=block([y4],
y4:96*log(x)-x,
return (y4))$
f5_vuelta(x):=block([y5],
y5:100+5*log(x)+200*x/(1+x),
return (y5))$
plot2d([f4_ida,f5_vuelta],[x,0,40],[y,0,400],[color, red, red],[legend,false]);

histeresis

Lo que hemos hecho ahora es crear dos funciones, una para el “camino de ida” y otra para el “camino de vuelta”, simulando algo parecido a lo que ocurre en los procesos de histéresis. La primera función comienza creciendo no linealmente hasta que va suavizándose (rendimientos decrecientes), acercándose a un punto de saturación. Refleja, por tanto, una respuesta intensa a los primeros niveles del estímulo. Sin embargo, a medida que la intensidad del estímulo crece la respuesta ya no es tan efectiva, hasta llegar a un punto en el que se necesita una gran variación en el estímulo para conseguir un mínimo de variación en la respuesta.

Cuando cesa el estímulo, podemos imaginar que la curva sigue un camino de vuelta que no va por el mismo lugar a medida que el tiempo avanza. Debido a un efecto aprendizaje, aunque el estímulo no exista la respuesta se mantiene o decae hasta un nivel por encima de cero. Esa diferencia entre el origen de las dos curvas (100 en el gráfico) es lo que se llama impregnación, y nos da una idea de cómo permanece el efecto aunque la causa no esté.

En marketing, este tipo de curvas puede reflejar la respueta de los individuos a las campañas publicitarias. Al comienzo, existe una respuesta muy intensa, pero a medida  que la campaña se intensifica el consumidor puede cansarse o llegar a un umbral máximo de emoción o persuasión que no crece más aunque sí que lo haga el presupuesto publicitario. Cuando termina la campaña, el consumidor no borra esa respuesta de su mente, la mantiene a un determinado nivel (impregnación), que puede permanecer por un tiempo variable (desde horas hasta años), e influir en futuros comportamientos de compra:

histeresis_2

Una visión conjunta

Vamos a representar ahora todas las funciones generadas en el mismo gráfico. Para ello, escribimos el siguiente código en una sesión con wxMaxima:

f1(x):=block([y1],
y1:400*exp(-x),
return (y1))$
f2(x):=block([y2],
y2:exp(x),
return (y2))$
f3(x):=block([y3],
y3:40*x-x^2,
return (y3))$
f4_ida(x):=block([y4],
y4:96*log(x)-x,
return (y4))$
f5_vuelta(x):=block([y5],
y5:100+5*log(x)+200*x/(1+x),
return (y5))$
plot2d([f1,f2,f3,f4_ida,f5_vuelta],[x,0,40],[y,0,400],[color, blue,magenta, green,red, red],[legend,false],[xlabel,”Estímulo”], [ylabel, “Respuesta”]);

nolineal

Con este gráfico final observamos la complejidad de las relaciones entre los estímulos de marketing y las respuestas de los consumidores, lo que dificulta mucho la capacidad para hacer predicciones. En marketing, no solemos conocer en detalle las ecuaciones que rigen esas relaciones, sólo podemos tratar de estimarlas con estudios empíricos o realizar aproximaciones teóricas. Es más, en algunas situaciones se podrían dar varios tipos de fenómenos no lineales. Por ejemplo, en la relación entre intensidad de la publicidad y efecto sobre la actitud del consumidor, se pueden dar fenómenos de hormesis, de histéresis, acumulativos, o incluso decaimientos. Depende de muchos factores, y de ahí la extrema complejidad de realizar.

Por tanto, la incertidumbre es alta, pero existen herramientas estadísticas y heurísticas que nos pueden ayudar. Pero recordad (especialmente mis alumnos) que no hay ni varitas mágicas, ni bolas de cristal, ni genios del marketing.

Todos los posts relacionados




(#313). EL SISTEMA PLANETARIO DE TRAPPIST-1

[MONOTEMA] El descubrimiento del sistema TRAPPIST-1 ha generado gran interés debido, fundamentalmente, a que los siete planetas detectados tienen características similares a la Tierra y podrían albergar vida. Esos planetas orbitan alrededor de una estrella enana tipo M, y además lo hacen de manera resonante y con acoplamiento por fuerzas de marea. En este post describo los detalles más relevantes de este hallazgo, y explico de forma breve los principales métodos de detección empleados en este campo de la física, así como también analizo la posible habitabilidad de los planetas encontrados. Muestro, por tanto, de manera didáctica, la complejidad de obtener resultados concluyentes cuando todavía existe incertidumbre importante en los datos, pero al mismo tiempo ilustro que a través de la observación, simulación numérica y análisis estadísticos, se puede obtener un dibujo aproximado de una parte de la galaxia que está a unos 39 años luz de nosotros.

Introducción

El descubrimiento de tres exoplanetas en la zona habitable de la estrella TRAPPIST-1A por Gillon et al. (2016), ha sido uno de los eventos más destacados en el campo de la astrofísica en los últimos años. Tan sólo unos meses más tarde, Gillon et al. (2017) publicaron que habían detectado hasta 7 planetas orbitando esa estrella, los cuales podrían contener agua líquida.

De este modo, el hallazgo de los exoplanetas de TRAPPIST-1 constituye un caso muy atractivo para ilustrar algunas de las actividades fundamentales de la investigación en astrofísica, así como para explicar conceptos clave asociados a la búsqueda de lugares en el espacio con el potencial de albergar vida.

En este artículo voy a describir los detalles de ese descubrimiento, definiendo los términos más importantes que se emplean para su correcto entendimiento, y discutiendo algunas de las contradicciones que muestran los estudios. Lo haré además, de manera didáctica, con el fin de facilitar su conocimiento.

El objetivo de esta investigación es, por tanto, hacer comprensible el significado de este hallazgo científico, analizando brevemente las múltiples implicaciones que de él se derivan.

Descripción del sistema planetario de TRAPPIST-1

Gillon et al. (2016) monitorizaron el brillo de la estrella TRAPPIST-1A durante 245 horas en 62 noches desde el 17 de septiembre al 28 de diciembre de 2015. Esa estrella se encuentra a una distancia estimada de la Tierra de 39.46 años-luz, y es una enana ultra fría tipo M situada en la constelación de Acuario. Su edad se estima en 7.6 ± 2.2 Gyr (Burgasser & Mamajek, 2017), es decir, de varios miles de millones de años, y es ciertamente más pequeña y menos brillante que el Sol. Así, Gillon et al. (2016) describieron su luminosidad, masa y radio como 0.05%, 8% y 11.5% en relación al Sol, respectivamente (los datos actualizados sobre todos los parámetros se encuentran en www.trappist.one).

Como indica Sholkmann (2017), este descubrimiento ha sido posible gracias al trabajo conjunto de varios telescopios terrestres y espaciales: TRAPPIST (TRansiting Planets and PlanestIsimals Small Telescope) North system (Chile), el telescopio TRAPPIST-North (Marruecos), el Himalayan Chandra Telescope (India), el Very Large Telescope (Chile), el UK Infrared Telescope (Hawaii), el Spitzer Space Telescope, los telescopios William Herschel y Liverpool (La Palma, España), y el telescopio del South African Astronomical Observatory.

A través del método de tránsito primario, Gillon et al. (2016) detectaron inicialmente 3 exoplanetas orbitando la estrella: TRAPPIST-1b, TRAPPIST-1c y TRAPPIST-1d.  

Posteriormente, Gillon et al. (2017) reportaban la detección de 4 exoplanetas más: TRAPPIST-1e, TRAPPIST-1f, TRAPPIST-1g, y TRAPPIST-1h, completando un sistema de 7 planetas que, al menos en número, es similar al Sistema Solar. La cadencia temporal del proceso de descubrimiento y la publicación de los estudios en revistas científicas puede consultarse en www.trappist.one, así como las características actualizadas de esos planetas (en las Tablas 1 y 2 mostramos algunas de ellas).

Tabla 1. Características de la estrella TRAPPIST-1A

Ascensión recta

α = 23h 06m 29.28s

Radio

0.117 ± 0.004 R

Declinación

δ = -05º 02′ 28.5”

Densidad

50.7 (-2.2, +1.2) ρ

Constelación

Acuario

Temperatura efectiva

2559 ± 50 K

Distancia

12.1 ± 0.4 pc

Luminosidad

0.000525 ± 0.000036 L

Masa

0.080 ± 0.007 M

Edad

7.6 ± 2.2 Gyr

1 Gyr = 1000 millones de años; 1 pc (Parsec) = 3.26156 años/luz; El subíndice ☉ se refiere al equivalente del Sol de la medida empleada.

Fuente: www.trappist.one/#system

Tabla 2. Características de los planetas de la estrella TRAPPIST-1A

 

1b

1c

1d

1e

1f

1g

1h

Periodo orbital

1.51087081 ± 0.00000060 días

2.4218233 ± 0.0000017 días

4.049610 ± 0.000063días

6.099615 ± 0.000011días

9.206690 ± 0.000015 días

12.35294 ± 0.00012 días

18.767 ± 0.004 días

Duración del tránsito

36.40 ± 0.17 minutos

42.37 ± 0.22 minutos

49.13 ± 0.65 minutos

57.21 ± 0.71 minutos

62.60 ± 0.60 minutos

68.40 ± 0.66 minutos

75.6 ± 1.2 minutos

Inclinación orbital

89.65 ± 0.25º

89.67 ± 0.17º

89.75 ± 0.16º

89.86 ± 0.11º

89.680 ± 0.034º

89.710 ± 0.025º

89.76 ± 0.05º

Excentricidad orbital

< 0.081

< 0.083

< 0.070

< 0.085

< 0.063

< 0.061

Desconocida

Semieje mayor

0.01111 ± 0.00034 UA

0.01521 ± 0.00047 UA

0.02144 ± 0.00065 UA

0.02817 ± 0.00085 UA

0371 ± 0.001

0.0451 ± 0.0014 UA

0.059 ± 0.003 UA

Radio

1.086 ± 0.035 R

1.056 ± 0.035 R

0.772 ± 0.030 R

0.918 ± 0.039 R

1.045 ± 0.038 R

1.127 ± 0.041 R

0.752 ± 0.032 R

Masa

0.85 ± 0.72 M

1.38 ± 0.61 M

0.41 ± 0.27 M

0.62 ± 0.58 M

0.68 ± 0.18 M

1.34 ± 0.88 M

Desconocida

Densidad

0.66 ± 0.56 ρ

1.17 ± 0.53 ρ

0.89 ± 0.60 ρ

0.80 ± 0.76 ρ

0.60 ± 0.17 ρ

0.94 ± 0.63 ρ

Desconocida

Irradiación

4.25 ± 0.33 S

2.27 ± 0.18 S

1.143 ± 0.088 S

0.662 ± 0.051 S

0.382 ± 0.030 S

0.258 ± 0.020 S

0.165 ± 0.025

Temperatura de equilibrio

400.1 ± 7.7 K

341.9 ± 6.6 K

288.0 ± 5.6 K

251.3 ± 4.9 K

219.0 ± 4.2 K

198.6 ± 3.8 K

173 ± 4 K

1 UA (Unidad Astronómica) = 149 597 870 700 m (equivale a la distancia media entre la Tierra y el Sol); El subíndice ⊕ se refiere al equivalente de la Tierra de la medida empleada.

Fuente: www.trappist.one/#system

Un análisis sencillo de la Tabla 2 nos indica que los planetas de TRAPPIST-1 tienen una inclinación prácticamente perpendicular al cielo (visto desde la Tierra). Los periodos orbitales son de muy pocos días, dada la corta distancia con respecto a la estrella que podemos tomar de la medida del semieje mayor. Periodo y semieje mayor se relacionan por la Tercera Ley de Kepler.

Todos los planetas tienen órbitas más excéntricas que la Tierra; en nuestro planeta la excentricidad es de 0.0167, es decir, casi circular. No obstante, tal y como comentan Gupta et al. (2001), la Tierra ha sufrido ciclos de excentricidad, por lo que no es un parámetro constante.

Radios, masas y densidades son similares a las de nuestro planeta, aunque los datos para TRAPPIST-1h son mucho más inciertos.

En cuanto a la irradiación y a la temperatura de equilibrio, existe gran variación debido a la diferencia en distancias con respecto a la estrella. Recordemos que la temperatura de equilibrio de la Tierra considerando el albedo (porcentaje de radiación reflejada) es de 254 K (vanLoon & Duffy, 2011). Por tanto, los planetas TRAPPIST-1d, TRAPPIST-e y TRAPPIST-1f, tendrían temperaturas de equilibrio ciertamente similares a la Tierra. La irradiación juega un papel fundamental en la consideración de potencial habitabilidad del planeta, como posteriormente veremos.

La correlación entre varios de los parámetros de los exoplanetas es altamente compleja. Por ejemplo, Mancini (2017) encontró una posible asociación entre el radio y la temperatura de equilibrio, aunque esa relación no se muestra para el caso de TRAPPIST-1, ya que la correlación de Spearman (ρ) es no significativa ρ = 0.32 (p=0.48),  Méndez & Rivera-Valentín (2017), por su parte, indicaron que existe una correlación positiva entre la excentricidad de la órbita y la irradiación recibida de la estrella, y encuentran que la temperatura de equilibrio media de un exoplaneta decrece con la excentricidad. Para el caso de TRAPPIST-1, ρ = 0.6 (p=0.21), para ambas correlaciones, por lo que tampoco son estadísticamente significativas. En cuanto a la relación entre la densidad y el radio, Weiss & Marcy (2014) encontraron que para planetas con radios menores a 1.5 R, como el caso de los planetas detectados en TRAPPIST-1, la densidad se incrementa con el radio de manera lineal. Sin embargo, ρ = 0.2 (p=0.70) y la correlación lineal de Pearson r=-0.23 (p=0.94), es decir, resultados de nuevo no significativos.

No obstante, lo ideal sería volver a calcular esas correlaciones con los datos brutos (pero ya recalibrados) sobre cada medición, y no sobre los parámetros medios presentes en la Tabla 2. Así, se tendrían muchas más observaciones y unos errores estándares mucho más pequeños, y de este modo mayor potencia para detectar asociaciones significativas.

TRAPPIST-1 presenta resonancia orbital entre sus planetas. Este es un fenómeno que indica que existe una relación fraccional de números enteros entre los periodos de revolución de las órbitas. En nuestro Sistema Solar hay varios casos de resonancia, como entre Neptuno y Plutón, cuya relación de períodos es 3:2 (Varadi, 2007), o entre las lunas de Júpiter; Ganímedes, Europa e Io, cuya relación es 1:2:4 (Matí, Giuppone & Beaugé, 2013).  Es decir, por cada rotación de Ganímedes sobre Júpiter, Europa rota 2 veces e Io 4 veces. A este último tipo de resonancia de tres cuerpos en esa fracción de números enteros se le denomina resonancia de Laplace.

Luger et al. (2017) encontraron que los planetas de TRAPPIST-1 están en resonancia con la relación 24, 15, 9, 6, 4, 3, 2. Es decir, por cada 24 órbitas que da TRAPPIST-1b, TRAPPIST-1c da 15, TRAPPIST-1d da 9, y así sucesivamente hasta completar la serie. No son los únicos exoplanetas con resonancia orbital; como indica Scholkmann (2017) también ocurre en Kepler-223, Kepler-80, GJ 876 y HD 82943.

Por tanto, en TRAPPIST-1 existe un sistema resonante, que además conlleva que el espacio orbital entre esos planetas también siga una relación similar, dada por la Tercera Ley de Kepler: T2/a3=constante, donde T es el periodo orbital y a es el semieje mayor. Según Tamayo et al. (2017) esta resonancia es un factor de estabilidad del sistema.

Finalmente, los planetas de TRAPPIST-1 también se han analizado para estudiar su ajuste con diferentes versiones de la ley de Titius-Bode. Recordemos que esta ley refleja una relación matemática para describir la distancia entre planetas, a través de la progresión aritmética (0, 3, 6, 12, 48, 96, 192…). Cada número es el doble del anterior, y en el sistema solar se produce un relativo buen ajuste (hasta Urano) con las distancias entre los planetas si se añade 4 y se divide por 10 a cada número de la serie.

Realmente esta ley ha sido testada por Huang & Bakos (2014) sobre 56 sistemas de exoplanetas múltiples reportados por la misión Kepler. De las 141 predicciones sólo 5 fueron confirmadas, lo que, más allá de los posibles sesgos, los autores consideraron como motivo suficiente para cuestionar esta ley. Sin embargo, Scholkmann (2017) consigue ajustar una variación exponencial de la ley de Titius-Bode al sistema TRAPPIST-1 obteniendo un ajuste muy bueno mediante el coeficiente de determinación: R2=0.9944 (Figura 1).

Scholkmann (2017) testó las medidas del semieje mayor usando dos versiones de la ley: f(n)=α+β2n , f(n)=αeβn , y los ajustes fueron muy buenos vía R2: 0.9921, frente a 0.9944. Como no reportó ningún test estadístico para comparar ambos coeficientes, como el que propusieron Steiger & Fouladi (1992), entonces podría ser demasiado apresurado concluir que hay diferencias entre ambas versiones de la ley, dada la gran similitud entre ambos coeficientes de ajuste.

b313_2Fuente: Scholkmann (2017)

Figura 1. Ajuste de la ley de Titius-Bode a los planetas de TRAPPIST-1

Métodos de detección

Los exoplanetas son planetas que están fuera de nuestro Sistema Solar. Las distancias, por tanto, son casi siempre muy grandes para poder observarlos directamente, por lo que se habla de “detección” en lugar de “observación”. No obstante, existe un buen número de ellos de los que se tiene esa constancia observacional. Así, en la actualidad, y según www.exoplanet.eu, hay 91 planetas pertenecientes a 84 sistemas planetarios diferentes. Esos planetas son generalmente muy masivos (del orden de entre 3 y 79 masas de Júpiter), aunque el rango de distancias es también muy dispar, comenzando desde  los 5.91 pc. La excepción es Kepler-70c y Kepler-70b con masas de 0.0021 y 0.014 masas de Júpiter, respectivamente. Dado que la masa de la Tierra es 0.00315 la masa de Júpiter, ambos exoplanetas tendrían tamaños con cierta similitud al nuestro

Es importante indicar que no todos esos exoplanetas que se agrupan como observados directamente lo son en sentido estricto, sino que algunos de ellos en lugar de observarse se detectan a través de la luz que reflejan de su estrella (Charpinet et al., 2011).

Los planetas de TRAPPIST-1 no fueron detectados por imagen directa, sino que se empleó el método de tránsito primario, que básicamente consiste en medir la variación en el brillo de la estrella cuando un objeto (en este caso un planeta) pasa por delante. A partir de esos datos se puede inferir el radio del exoplaneta, pero no la masa. Tal y como indica Luger (2017), para detectar planetas en tránsito se necesita una precisión fotométrica relativa de 0.1%, y para ello hay que quitar el ruido de las señales producido por la propia instrumentación.

En la Figura 2 se muestra la variación del brillo dela estrella observada por el telescopio Spitzer Space, de la NASA, que opera en el ámbito del infrarrojo, cuando hay tránsito de planetas.

b313_3Fuente: www.nasa.gov

Figura 2. Observaciones del tránsito de exoplanetas en el sistema TRAPPIST-1

Para inferir la masa se ha de emplear el método de variación del tiempo de tránsito, que mide los cambios en el tiempo que tarda un planeta en realizar un tránsito sobre su estrella. Si hay variación en ese tiempo entonces es un indicador de que hay un efecto gravitacional de otros planetas. Así, los investigadores consiguieron estimar la masa de todos los exoplanetas de TRAPPIST-1, excepto la del más lejano: TRAPPIST-1h.

El tránsito primario y la variación del tiempo de tránsito son, de este modo, dos métodos de detección que suelen ir de la mano para completar la detección de exoplanetas. De hecho, según www.exoplanet.eu, 2774 exoplanetas han sido detectados de esta manera, por lo que es, sin duda, la metodología más empleada en este campo de la física.

Esta técnica se suele emplear en conjunción con la espectroscopía de transmisión, para analizar la composición química de las atmósferas de esos exoplanetas. Cuando se produce un tránsito, la luz de la estrella pasa a través de la atmósfera del planeta, y parte de ellas es absorbida por los átomos o moléculas de ésta, haciendo que el radio del planeta parezca mayor en determinadas longitudes de onda. Sin embargo, como explican Rackham, Apai & Giampapa (2017), la espectroscopía de transmisión no está exenta de problemas, principalmente debido a que el espectro medio de la estrella antes del tránsito no tiene por qué coincidir con la luz incidente en la atmósfera planetaria durante el tránsito, es decir, el espectro de cualquier porción pequeña del disco estelar no será idéntico al espectro del disco completo.

Tras el método del tránsito, la siguiente forma de detección por número de exoplanetas encontrados es el método de la velocidad radial, el cual consiste en analizar el cambio en el espectro de luz de la estrella por efecto Doppler (también se llama espectroscopía Doppler). La existencia de planetas orbitando produce un efecto gravitatorio en la estrella. Así, la estrella orbita también sobre el centro de masas del sistema. Si la estrella se desplaza hacia el observador (es decir, hacia nosotros que estamos en la Tierra), se producirá un desplazamiento hacia el azul del espectro de luz (menor longitud de onda), mientras que si se aleja se producirá un desplazamiento hacia el rojo (mayor longitud de onda). La precisión de este método puede ser del orden de 1m/s, pero como indican Feng et al. (2017), se necesitarían precisiones del orden de 10 cm/s para detectar más planetas análogos a la Tierra en zonas habitables de estrellas cercanas. No obstante, el espectrógrafo HARPS, situado en Chile, y pese a tener una precisión por encima de 10 cm/s, sigue produciendo descubrimientos (Cloutier et al., 2017).  Feng, Tuomi & Jones (2017), recientemente, han propuesto el método “Agatha”, que optimiza el sistema de detección de señales con respecto al ruido, como forma de mejorar los datos recogidos por otros sistemas que computan la velocidad radial. Jones et al. (2017), por su parte, proponen emplear los modelos multivariantes gaussianos para incrementar la sensibilidad en la detección.

Este método de la velocidad radial permite estimar las masas de los exoplanetas una vez determinada la masa de la estrella, y según www.exoplanet.eu, hay 739 planetas detectados con este método. La astrometría, que analiza el cambio de posición de una estrella, es desde el punto de vista matemático extremadamente similar al método de la velocidad radial (Gould, 2008). Sólo el exoplaneta HD 176051 b ha sido confirmado usando únicamente astrometría (www.exoplanet.eu).

Al margen de los comentados, existen otros métodos de detección, aunque por el momento con mucho menor uso debido a diferentes factores.

Así, el método basado en el análisis de emisión de radiación electromagnética de un púlsar se restringe únicamente a púlsares, es decir, estrellas de neutrones que emiten radiación periódica en el rango de radiofrecuencia, rayos X y rayos gamma. Como comentan Starovoit & Rodin (2017), los planetas en este tipo de estrellas son un fenómeno raro en comparación con otros miles de planetas descubiertos alrededor de otras estrellas en otras etapas de su evolución. Hasta el momento, sólo 28 exoplanetas han sido detectados por este método (www.exoplanet.eu).

El método de las lentes gravitacionales, por su parte, emplea la relatividad general para detectar la presencia de objetos masivos. cuando la luz que proviene de estrellas distantes se curva en el entorno de esos objetos (Beaulieu et al., 2010). Según www.exoplanet.eu, 65 planetas han sido confirmados por este método.

En suma, los investigadores tienen ante así diferentes metodologías de detección, en ocasiones dependiendo su empleo del tipo de estrella al que se apunte. Incluso a veces se emplean una combinación de varias de ellas, como en el caso de la detección y caracterización del planeta GJ676A b (Sahlmann, 2016). Hemos descrito las que probablemente son las más empleadas, pero existen otras, como por ejemplo la polarimetría (Hough et al., 2006). La mejora de los sistemas de detección permitirá identificar más exoplanetas, tal y como indican Feng, Tuomi & Jones (2017).

La zona de habitabilidad

En cada sistema extra solar detectado se puede estipular una zona de habitabilidad, es decir, un rango de distancias donde los planetas que se encuentran dentro de ese espacio podrían albergar vida. Sin embargo, la estipulación de la zona de habitabilidad, en cuanto a las características que hemos de considerar, está sujeto todavía a discusión. Si a esto unimos la incertidumbre con respecto a los parámetros que describen a los exoplanetas, nos encontramos ante una situación sujeta a múltiples especulaciones.

Yadav (2017) explica de forma sencilla los criterios para considerar zonas habitables. La presencia de agua en estado líquido es la clave para la habitabilidad. De este modo, la luminosidad de la estrella marca el rango de distancias estimadas donde la temperatura de los planetas permitiría encontrar agua en ese estado. En nuestro sistema solar, Venus y Marte tuvieron agua líquida en la superficie en algún momento en el pasado. Ese rango de distancia con respecto al Sol comprende entonces desde los 0.7 UA de Venus hasta los 1.5 UA de Marte. Sin embargo, y como sigue explicando Yadav (2017), que esté en la zona de habitabilidad no significa que sea realmente un planeta habitable.

El motivo de este matiz es que se deben conjuntar otros factores. Yadav (2017) comenta que es importante que exista un mecanismo de estabilización del clima. En la Tierra el ciclo del carbonato-silicato se ha propuesto como ese proceso. Pero ni Venus ni Marte tienen un clima estabilizado por este mecanismo ni tienen una superficie habitable. Venus tiene una temperatura superficial de unos 733 K con un fuerte efecto invernadero, mientras que Marte la tiene demasiado fría (200 K). Por tanto, aunque Venus y Marte estarían en la zona habitable desde un punto de vista de detección de exoplanetas, no serían habitables en realidad.

Además, habría que considerar la presencia de vapor de agua en la atmósfera. Los gases de efecto invernadero son indicadores de habitabilidad. El más importante de ellos es el hidrógeno molecular (H2). Sólo los planetas masivos o muy fríos son capaces de lanzar H2 desde el interior del planeta. Ni Venus, ni la Tierra, ni Marte lo hacen. El H2 es un gas muy potente de efecto invernadero porque absorbe radiación sobre un amplio rango de longitudes de onda, y no se condensa hasta una temperatura relativamente alta y en un rango de presión de 1-100 bar. Esto significa que un planeta puede tener una superficie líquida a una distancia varias veces mayor que un planeta con CO2 en la atmósfera. De este modo, la zona de habitabilidad puede extenderse desde los 0.5 UA hasta los 10 UA sobre una estrella para planetas con H2 en la atmósfera (Yadav, 2017).

Otro importante indicador de vida, concluye Yadav (2017), son los gases con biofirma, es decir, que son producidos por alguna forma de vida. En la Tierra los gases con biofirma más activos son el O2, O3, N2O y CH4. Otros gases con biofirma podrían ser el CH3SH o CH3Cl. Sin embargo, como veremos a continuación, esta caracterización de Yadav (2017) es un tanto incompleta ante la cantidad de incógnitas que nos muestra el sistema de TRAPPIST-1.

Dado que las enanas tipo M constituyen el 75 de las estrellas de la galaxia (Ditmman et al., 2017), los sistemas como TRAPPIST-1 pueden ser muy prevalentes, y de ahí el interés especial en caracterizar su habitabilidad.

Kopparapu et al. (2013) definen de manera muy general la zona habitable como una región alrededor de una estrella en la que un planeta con una masa similar a la Tierra y con una atmósfera con CO2, H2O y N2, pueda tener agua líquida en su superficie. Estos autores indican que, en nuestro sistema solar, los límites para la zona de habitabilidad no estarían entre los 0.5 UA hasta los 10 UA que proponía Yadiv (2017), sino en un rango más estrecho: entre 0.99 UA y 1.70 UA.  El motivo es que esos límites los marcarían la pérdida de agua (límite inferior) y el máximo efecto invernadero (límite superior). El máximo efecto invernadero se refiere a que a partir de ahí el efecto empieza a “fallar” en el sentido de que el dióxido de carbono comienza a condensarse fuera de la atmósfera y entonces la superficie del planeta se hace demasiado fría para albergar agua en estado líquido.

Turbet et al. (2017b) restringen aún más la distancia superior y la bajan a 1.27 -1.40 UA. El motivo es que en planetas similares a la Tierra que orbitan una estrella como el Sol podrían permanecer en estados de glaciación permanente por encima de esas distancias, ya que el dióxido de carbono se condensaría en los polos, formando capas permanentes de hielo, lo que a su vez limitaría el efecto invernadero, y con esto la posibilidad de calentar lo suficiente el planeta para producir el deshielo.

Kopparapu et al. (2013), tras realizar sus cálculos, proponen una caracterización de la habitabilidad en función de la temperatura efectiva de la estrella y de la irradiación o flujo efectivo recibido por el planeta (Figura 3).

b313_4Fuente: Kopparapu et al. (2013).

Figura 3. Caracterización de la zona de habitabilidad

Kopparapu et al. (2013) realizaron esa simulación para estrellas con temperaturas efectivas entre 2600 y 7200 K. Dado que TRAPPIST-1 (descubierto después de la publicación de esa investigación) tiene una temperatura efectiva estimada de 2559 ± 50 K, podríamos ubicarlo justo en el eje de abscisas de la Figura 1 y, por tanto, estipular que serían habitables los planetas que estuvieran en un rango aproximado de 0.8 y 0.2 de irradiación. Así, los planetas TRAPPIST-1e, TRAPPIST-1f, y TRAPPIST-1g, estarían dentro de la zona de habitabilidad (ver Tabla 2 para consultar los datos de irradiación).

Según Quarles et al. (2017), el planeta TRAPPIST-1f sería el menos compatible con la vida, al no tener las características rocosas de los otros, y que puede no tener agua en la superficie. Es probable que el agua líquida sólo exista como nubes en la parte más alta de ese planeta. Quarles et al. (2017) proponen que TRAPPIST-1e es el mejor prospecto para la habitabilidad en el sistema, asumiendo que exista una atmósfera que pueda absorber la alta emisión de rayos X de la estrella. Pero de nuevo los autores admiten que las incertidumbres sobre las masas son grandes. Reducir esa incertidumbre es crucial en el futuro para discernir si se trata de un planeta rocoso al estilo de Mercurio o completamente dominado por el agua.

De este modo, aunque un planeta esté en la zona habitable en función de la irradiación incidente, el poseer características rocosas y la necesidad de tener una atmósfera que sirva como escudo protector de la radiación ionizante de la estrella se muestran como factores fundamentales. Los propios autores del descubrimiento admiten en Guillon et al. (2016) que las propiedades atmosféricas de esos planetas dependen de varios factores desconocidos. No es fácil, por tanto, aseverar la habitabilidad de esos exoplanetas. Es más, existe la posibilidad de que un planeta que esté fuera del rango apropiado de irradiación de la estrella pueda tener agua líquida. Luger et al (2017), explican a este respecto que a TRAPPIST-1h le llega una densidad de potencia de su estrella de 200 W/m2, que está por debajo de los 300 W/m2 que como mínimo se requieren para tener agua líquida en la superficie bajo una atmósfera de CO2, H2O y N2, pero que si la excentricidad de la órbita fuera alta se podría obtener esos 100 W/m2 por acoplamiento. Como indican los autores, no es el caso de TRAPPIST-1h, pero es importante señalar esa idea ya que la excentricidad de las órbitas también puede jugar un papel relevante para considerar habitabilidad.

Pero hay aún otro factor añadido que hay que tener en cuenta, y es la resonancia espín-orbita 1:1 o rotación síncrona. Para el caso de un planeta orbitando una estrella, esta resonancia ocurre cuando ese planeta completa una revolución sobre el astro en el mismo tiempo que su rotación sobre su eje de espín (Antognini, Biasco & Chierchia, 2013). Este hecho (aplicado esta vez a la interacción satélite-planeta) es lo que explica que la Luna muestre siempre la misma cara a la Tierra.

Este tipo de acoplamientos se forman por las llamadas fuerzas de marea, y representan un factor en contra de la habitabilidad del planeta porque hace que haya unas grandes diferencias de temperatura entre ambas caras, lo que a su vez podría provocar importantes vientos. Según Wall (2017), Michael Gillon, el principal autor del descubrimiento del sistema TRAPPIST-1 piensa que aún no está claro que todos esos planetas pueden tener este tipo de acoplamiento, aunque es probable que así sea. No obstante, y en palabras del propio Gillon, incluso en esas condiciones podría haber vida si existe una atmósfera que pueda transportar calor de la cara alumbrada hacia la cara oscura, es decir, paliar parcialmente el gradiente de temperatura en ambos lados del planeta.

En cualquier caso, no hay certeza sobre esa posible rotación síncrona. De hecho, Barnes (2017) indica que para planetas con órbitas circulares es más probable que exista ese acoplamiento, pero a medida que las órbitas se hacen más excéntricas se liberarían o rotarían súper sincrónicamente. Barnes (2017) comparte la idea mostrada en estudios previos de que ese umbral estaría en una excentricidad igual o menor a 0.12, ciertamente muy superior a las encontradas para los planetas de TRAPPIST-1 (ver Tabla 2). Por tanto, esto reforzaría que esos planetas estuvieran en resonancia espín-órbita 1:1.

El calentamiento por marea, es una de las consecuencias de la existencia de esas fuerzas de marea, y puede hacer que los planetas que a priori se consideran habitables no lo sean en realidad. Como los planetas de TRAPPIST-1 tienen excentricidad mayor que cero, se produce un efecto de disipación de calor en su interior, que puede ocasionar evaporación de agua irreversible. Barr, Dobos & Kiss (2017), estimaron la cantidad de calor disipado en los exoplanetas de TRAPPIST-1, indicando que los planetas TRAPPIST-1b y TRAPPIST-1c tendrían demasiado flujo de calor, lo que los convertiría en inhabitables.

El acoplamiento por fuerzas de marea también puede tener un papel importante en la existencia de un campo magnético en los exoplanetas. Al igual que ocurre en la Tierra, el campo magnético es fundamental para proteger el planeta de las partículas cargadas de alta energía del viento de la estrella y también de la radiación electromagnética ionizante y los rayos cósmicos. Dirscoll & Barnes (2015), en su estudio de simulación sobre exoplanetas en enanas tipo M con masas entre 0.1 y 0.6 la masa del Sol, encuentran que ese acoplamiento permite una disipación de energía del manto que hace enfriar el núcleo. Si se produce un súper enfriamiento del núcleo entonces la dinamo que origina el campo magnético dejaría de funcionar, lo que es más probable que ocurra en órbitas excéntricas. Por ejemplo, Marte, con una órbita más excéntrica que la Tierra (0.0934 frente a 0.0167), se enfrió de tal manera hace 4000 millones de años que cesó la actividad de su dinamo magnética. Esto hizo que Marte perdiera su campo magnético y evolucionara de manera muy diferente a nuestro planeta (Michalski, et al., 2017). Cuando esos planetas tienen órbitas circulares, la dinamo funcionaría de manera similar a como lo hace en la Tierra.

La carencia de un campo magnético puede incrementar en más de 3 órdenes de magnitud la incidencia de la radiación en la atmósfera (Grießmeier, et al., 2016a). Las características de esa atmósfera determinarían la dosis de radiación que llegaría a la superficie. Como indican (Grießmeier, et al., 2016b), si la atmósfera es similar a la terrestre la dosis de radiación se incrementa por un factor de dos, mientras que si la atmósfera es más débil el efecto sería mucho más serio, con un aumento de dos órdenes de magnitud de la radiación incidente, con lo que ello supondría para la habitabilidad. Aunque todavía se desconoce la presencia o no de campo magnético para esos planetas, sí que Khodachenko et al. (2007) indicaron que para los planetas acoplados por fuerzas de marea el campo magnético probablemente sería débil.

La que sí que tiene un campo magnético es la propia estrella TRAPPIST-1, estimado en 600 G (Garraffo et al., 2017), lo que podría crear un ambiente tremendamente hostil en los exoplanetas debido a que la presión de los vientos de la estrella estaría entre 103 y 105 veces la que recibe la Tierra del Sol. Además, varios planetas están expuestos a las ondas de Alfvén. Así, las atmósferas de los planetas de TRAPPIST-1 podrían estar mucho más expuestas a la pérdida de gases y a la evaporación. Sin embargo, Dong et al. (2017), tras realizar también simulaciones numéricas, concluyen que los planetas más exteriores de TRAPPIST-1 serían capaces de retener sus atmósferas en una escala temporal de miles de millones de años, pese a la exposición a la erosión por el viento de la estrella. Concretamente, TRAPPIST-1g sería el mejor prospecto (también TRAPPIST-1h pero este planeta tiene otros factores en contra).

Cierto tipo de radiación, como los rayos ultravioletas (UV), es esencial para la vida en determinadas dosis. Las estrellas enanas tipo M, como TRAPPPIST-1, es probable que no irradien lo suficiente a sus planetas en ese rango de longitudes de onda. Como indican Ranjan, Wordsworth & Sasselov (2017), los planetas de enanas tipo M reciben entre 100 y 1000 veces menos flujo UV que lo que recibió la Tierra en sus primeras etapas. Dado que la evidencia reciente sugiere que los rayos UV tuvieron un papel fundamental en el origen del RNA (ácido ribonucleico), los investigadores se preguntan en la actualidad si ese bajo flujo UV es un factor en contra para la vida en esos exoplanetas.

En cualquier caso, y como concluyen Ranjan, Wordsworth & Sasselov (2017), también es posible que las llamaradas transitorias de radiación UV que emiten las enanas tipo M pueda ser suficiente para ese primer empujón a la vida. La composición de la atmósfera sería, entonces, fundamental; una atmósfera similar a la de la Tierra en densidad protegería de los rayos UV haciendo llegar a la superficie un flujo similar al de nuestro planeta. Sin embargo, una atmósfera más erosionada o una atmósfera anóxica (sin oxígeno) haría la vida muy hostil en la superficie, incluso a los organismos extremófilos (O’Malley-James & Kaltenegger, 2017). Pero incluso en una atmósfera que fuera resistente a la erosión y a la radiación ionizante sería difícil que se acumularan significativamente gases de efecto invernadero, como CO2, CH4 o NH3 (Turbet el al., 2017a).

El cómo afectaría a la atmósfera de un exoplaneta los flujos de rayos X y UV extremos en los primeros años de vida de una estrella tipo M podría ser decisivo para la consideración de habitabilidad. Airapetian et al. (2017) postulan que esos flujos de radiación ionizante pueden erosionar la atmósfera, afectando a la eficiencia del efecto invernadero y la dosis de UV que llega la superficie. Además, se perdería oxígeno y nitrógeno de esa atmósfera, lo que haría al exoplaneta inhabitable en varios cientos de millones de años.

Schwieterman et al. (2017) reconocen que la interacción de todos estos factores descritos es muy compleja, y que está sujeta a muchas incertidumbres. Por ejemplo, ciertos gases que son considerados como biofirmas, también pueden ser producidos de manera abiótica, es decir, sin presencia de vida. Así el CH4 que se produce del metabolismo anaerobio microbiano (es decir, a partir de organismos vivos) también puede formarse de manera abiótica por procesos fotoquímicos. Esto hace que se puedan producir falsos positivos, o lo que es lo mismo, que se considere que esas biofirmas provienen de procesos biológicos cuando en realidad no es así. Por eso es importante obtener información de más de uno de esos gases, porque en la medida en que haya más evidencia de la existencia de varios de ellos disminuye la probabilidad de que haya falsos positivos. La existencia de información adicional, como el estudio del límite rojo de cada planeta podría ser crucial para determinar si un planeta produce oxígeno a partir de organismos vivos (vegetación). El límite rojo se refiere al aumento de la reflectividad de la superficie del planeta en las longitudes de onda del infrarrojo cercano, y es un indicador de la existencia de vegetación (Takizawa et al., 2017). En la Tierra, la luz visible es mayoritariamente absorbida por las plantas para producir la fotosíntesis, mientras que en el infrarrojo cercano se dispersa mucha mayor cantidad.

Los estudios sobre potencial habitabilidad a veces también se contradicen. Por ejemplo, si el planeta TRAPPIST-1g sería el mejor prospecto para la vida en investigaciones como las de Dong et al. (2017), TRAPPIST-1e lo sería para Quarles et al. (2017) y Turbet et al. (2017a), y TRAPPIST-1d para Barr, Dobos & Kiss (2017), y Alberti et al. (2017). Estos últimos autores realizan un modelo para simular el clima de los siete exoplanetas sobre diferentes condiciones de efecto invernadero. Sin embargo, y como hemos mencionado con anterioridad, TRAPPIST-1d no estaría en la zona de habitabilidad según el criterio de Kopparapu et al. (2013).

De cualquier modo, si la vida ha germinado en uno de esos planetas de TRAPPIST-1, la probabilidad de su extensión al resto del sistema a través de la panspermia interplanetaria es más alta que, por ejemplo, en el sistema Tierra-Marte. Por tanto, si ha surgido vida en uno de esos planetas, podría haberse extendido a los demás (Lingam & Loeb, 2017).

Finalmente, la evolución de la vida hacia estados más complejos o inteligentes requiere también de una serie de condiciones, no sólo biológicas, sino además geofísicas. (Stevenson & Large, 2017). Así, la diversidad geológica (que se relaciona con el crecimiento del contenido de información del entorno) puede ser un factor determinante para que la vida evolucione hacia formas más complejas. Exoplanetas que combinen placas tectónicas y superficies secas con zonas oceánicas tienen mayor probabilidad de desarrollar vida inteligente.

Conclusión

El descubrimiento del sistema TRAPPIST-1 ha sido uno de los eventos más notables en la búsqueda de exoplanetas en los últimos años, debido esencialmente a que los siete planetas detectados tienen características similares a la Tierra y podrían albergar vida. Esos planetas orbitan alrededor de una estrella enana tipo M, haciéndolo de manera resonante y con acoplamiento por fuerzas de marea.

La combinación de la observación del tránsito en el rango del infrarrojo, y de la variación del tiempo de tránsito han sido claves para caracterizar, respectivamente, el radio y la masa de esos planetas. Con la ayuda también de la espectroscopía de transmisión y de simulaciones numéricas diferentes investigadores están tratando de plantear posibles hipótesis acerca de la composición de la atmósfera, y también para determinar la influencia del campo magnético, el viento y la radiación ionizante de la estrella sobre los planetas.

La búsqueda de exoplanetas y el análisis de su habitabilidad requiere de la mezcolanza de la astrofísica, química, biología y geofísica, en un enfoque interdisciplinar (Kaltenegger et al., 2010). Por ello, es común encontrar estudios con cierto grado de contradicción en sus conclusiones, a falta de más datos y de simulaciones numéricas con nuevos escenarios. Sin embargo, y como hemos visto, un cuerpo importante de investigaciones coincide en considerar a TRAPPIST-1e, TRAPPIST-1f y TRAPPIST-1g como los mejores prospectos de habitabilidad.

La exploración del sistema TRAPPIST-1 continúa, y próximamente se verá impulsada por los nuevos datos que pueda aportar el telescopio espacial James Webb, que previsiblemente se lanzará en 2019. Asimismo, y como indican Del Genio et al. (2017), la caracterización de exoplanetas más cercanos, como Proxima Centauri b también ayudarán a modelizar la habitabilidad del sistema TRAPPIST-1.

Referencias

Airapetian, V. S., et al. (2017). How hospitable are space weather affected habitable zones? The role of ion escape. The Astrophysical Journal Letters, 836, L3, https://doi.org/10.3847/2041-8213/836/1/L

Alberti, T. et al. (2017). Comparative climates of TRAPPIST-1 planetary system: results from a simple climate-vegetation model. The Astrophysical Journal, 844 (1),  https://doi.org/10.3847/1538-4357/aa78a2

Antognini, F., Biasco, L. & Chierchia, K. (2013). The spin–orbit resonances of the Solar system: A mathematical treatment matching physical data. Journal of Nonlinear Science, 24, 473, https://doi.org/10.1007/s00332-014-9196-7

Barnes, R. (2017). Tidal locking of habitable exoplanets. Celestial Mechanics and Dynamical Astronomy, 129, 509, https://doi.org/10.1007/s10569-017-9783-7

Barr, A. C., Dobos, V. & Kiss, L. L. (2017). Interior structures and tidal heating in the TRAPPIST-1 planets. Astronomy & Astrophysics, https://doi.org/10.1051/0004-6361/201731992

Beaulieu, J. P. et al. (2010). From frozen super Earth to habitable Earth via microlensing. International Conference In the Spirit of Lyot. Paris.

Burgasser, A. J. & Mamajek, E. E. (2017). On the age of the TRAPPIST-1 system. The Astrophysical Journal, 845 (2),  https://doi.org/10.3847/1538-4357/aa7fea

Charpinet et al. (2011). A compact system of small planets around a former red-giant star. Nature, 480, 496-499, doi: 10.1038/nature10631

Cloutier, R. et al. (2017). Characterization of the K2-18 multi-planetary system with HARPS. Astronomy & Astrophysics, Aceptado para publicación. https://doi.org/10.1051/0004-6361/201731558

Del Genio, et al. (2017). Habitable climate scenarios for Proxima Centauri b with a dynamic ocean. Astrobioloy, arXiv: 1709.02051  [astro-ph.EP].

Dittman, J. et al. (2017). A temperate rocky super-Earth transiting a nearby cool star. Nature, 544 (760, 33-336, https://doi.org/10.1038/nature22055

Dong, C. et al. (2017). Atmospheric escape from the TRAPPIST-1 planets and implications for habitability. Working Paper, arXiv:1705.05535 [astro-ph.EP].

Driscoll P. E. & Barnes R. (2015). Tidal heating of Earth-like exoplanets around M stars: Thermal, magnetic, and orbital evolutions. Astrobiology, 15 (9), 739-760. https://doi.org/10.1089/ast.2015.1325

Feng, F. et al. (2017). Color difference makes a difference: Four planet candidates around τ Ceti. The Astronomic Journal, 155 (4), 135, https://doi.org/10.3847/1538-3881/aa83b4

Feng, F., Tuomi, M. & Jones, H. R. A. (2017). Agatha: disentangling periodic signals from correlated noise in a periodogram framework. Monthly Notices of the Royal Astronomical Society, 470 (4), 4794–4814, https://doi.org/10.1093/mnras/stx1126

Garraffo, C. et al. (2017). The threatening magnetic and plasma environment of the TRAPPIST-1 planets.  The Astrophyisical Journal Letters, 843 (2), https://doi.org/10.3847/2041-8213/aa79ed

Gillon, M. et al., (2016). Temperate Earth-sized planets transiting a nearby ultracool dwarf star. Nature, 533, 221–224, https://doi.org/10.1038/nature17448

Gillon, M. et al., (2017). Seven temperate terrestrial planets around the nearby ultracool dwarf star TRAPPIST-1. Nature, 542, 456–460, https://doi.org/10.1038/nature21360

Gould, A. (2008). On the difference in statistical behavior between astrometric and radaial-velocity planet detections. Working Paper, arXiv:0807.4323 [astro-ph].

Grießmeier, J. M. et al. (2016a). Galactic cosmic rays on extrasolar Earth-like planets. I. Cosmic ray flux. Atronomy & Astrophysics, 582, A44, https://doi.org/10.1051/0004-6361/201425451

Grießmeier, J. M. et al. (2016b). Galactic cosmic rays on extrasolar Earth-like planets. II. Atmospheric implications. Atronomy & Astrophysics, 587, A159, https://doi.org/10.1051/0004-6361/201425452

Gupta, A. K. et al. (2001). Earth eccentricity cycles and indian summer monsson variability over the past 2 million years: Evience from deep-sea benthic boraminifer. Geophyshical Research Letters, 28 (21), 4131-4134, https://doi.org/10.1029/2001GL013315

Hough, J. H. et al. (2006). PlanetPol: A very high sensitivity polarimeter. Publications of the Astronomical Society of the Pacific, 118, 847, https://doi.org/10.1086/507955.

Huang, C. X. & Bakos, G. A. (2014). Testing the Titius-Bode law predictions for Kepler multiplanet systems. Monthly Notices of the Royal Astronomical Society, 442 (1), 674–681, https://doi.org/10.1093/mnras/stu906

Jones, D. E. et al. (2017). Improving exoplanet detection power: Multivariante gaussian process models for stellar activity. Working Paper, arXiv.org/abs/1711.01318[astro-ph.IM].

Kaltenegger, L. et al. (2010). Deciphering spectral fingerprints of habitable exoplanets. Astrobiology, 10 (1), https://doi.org/10.1089/ast.2009.0381

Khodachenko, M. L. et al. (2007). Coronal mass ejection (CME) activity of low mass M stars as an important factor for the habitability of terrestrial exoplanets. I. CME impact on expected magnetospheres of Earth-like exoplanets in close-in habitable zones. Astrobiology, 7 (1), 167–184. https://doi.org/10.1089/ast.2006.0127

Kopparapu, R. K. et al. (2013). Habitable zones around main sequence stars: new estimates. The Astrophysical Journal, 765 (2), 131, https://doi.org/10.1088/0004-637X/765/2/131

Libert, A. S. & Renner, S. (2013). Detection of Laplace-resonant three-planet systemasfrom transit timing variations. Monthly Notices of the Royal Astronomical Society, 430 (2), 1369–1375, https://doi.org/10.1093/mnras/sts722

Lingam, M. & Loeb, A. (2017). Enhanced interplanetary panspermia in the TRAPPIST-1 system. Proceedings of the National Academy of Sciences, 114 (26), https://doi.org/10.1073/pnas.1703517114 

Luger, R. et al. (2017). A seven-planet resonant chain in TRAPPIST-1. Nature Astronomy, 1, 0129, https://doi.org/10.1038/s41550-017-0129

Mancini, L. (2017). On the relationship between the planetary radius and the equilibrium temperature for transiting exoplanets. International Journal of Modern Physics D, 26, 1741012, https://doi.org/10.1142/S0218271817410127.

Martí, J. G., Giuppone, C. A. & Beaugé, C. (2013). Dynamical analysis of the Gliese-876 Laplace resonance. Monthly Notices of the Royal Astronomical Society, 433 (2),928–934, https://doi.org/10.1093/mnras/stt765

Méndez, A. & Rivera-Valentín, E. G. (2017). The equilibrium temperatura of planets in elliptical orbits. The Astrophysical Journal Letters, 837 (1), https://doi.org/10.3847/2041-8213/aa5f13

Michalski, J. R. et al. (2017). The Martian subsurface as a potential window into the origin of life. Nature Geoscience, 11, 21-16, https://doi.org/10.1038/s41561-017-0015-2

O’Malley-James, J. T. & Kaltenegger, L. (2017). UV Surface habitability of the TRAPPIST-1 system. Monthly Notice of the Royal Astronomical Society, 469 (1), L26-L30, https://doi.org/10.1093/mnrasl/slx047

Papaloizou, J. C. B., Szuszkiewicz, E. & Terquem, C. (2017). The TRAPPIST-1 system: Orbital evolution, tidal dissipation, formation and habitabitiliy. Monthly Notices of the Royal Astronomical Society, Aceptado para publicación, https://doi.org/10.1093/mnras/stx2980

Quarles, B. et al. (2017). Plausible compositions of the seven TRAPPIST-1 planets using long-term dynamical simulations. The Astrophysical Journal Letters, 842 (1), https://doi.org/10.3847/2041-8213/aa74bf

Rackham, B. V. Apai, D. & Giampapa, M. S. (2017). The transit light source ñroblem: False spectral features and incorrect densities for M dwarf transiting planets. Working Paper, arXiv.org/abs/1711.05691[astro-ph].

Ranjan, S. Wordsworth, R. & Sasselov, D. D. (2017). The Surface UV environment on planets orbiting M dwarfs: Implications for prebiotic chemistry and the need for experimental follow-up. The Astrophysical Journal, 843 (2), https://doi.org/10.3847/1538-4357/aa773e

Sahlmann, J. et al. (2016). The mass of planet GJ676A b from ground-based astrometry. Astronomy & Astrophysics, 595, A77, https://doi.org/10.1051/0004-6361/201628854.

Scholkmann, F. (2017). Harmonic orbital resonances and orbital long-range order of the TRAPPIST-1 exoplanetary system. Progress in Physiscs, 13 (2), 125-129.

Schwieterman, E. W. et al. (2017). Exoplanet biosignatures: A review of remotely detectable signs of life. Working Paper.

Starovoit, E. D. & Rodin, A. E. (2017). On the existence of planets around the pulsar PSR B0329+54. Astronomy Reports, 61 (11), 948-953, https://doi.org/10.1134/S1063772917110063.

Steiger, J. H., & Fouladi, R. T. (1992). R2: A computer program in interval estimation, power calculation, and hypothesis testing for the squared multiple correlation. Behavior Research Methods, Instruments, and Computers, 4, 581–582.

Stevenson, D. S. & Large, S. (2017). Evolutionary exobiology: Towards the qualitative assessment of biological potential on exoplanets. International Journal of Astrobiology, https://doi.org/10.1017/S1473550417000349

Takizawa, K. et al (2017). Red-edge position of habitable exoplanets around M-dwarfs. Scientific Reports, 7, https://doi.org/10.1038/s41598-017-07948-5

Tamayo, D. et al. (2017). Convergent migrations renders TRAPPIST-1 long-lived. The Astrophysical Journal Letters, 840 (2), https://doi.org/10.3847/2041-8213/aa70ea

Turbet, M. et al. (2017a). Climate diversity on cool planets around cool stars with a versatile 3-D global climate model: The case of TRAPPIST-1 planets. Working Paper, arXiv:1707.06927 [astro-ph.EP].

Turbet, M. et al. (2017b). CO2 condensation is a serious limit to the deglaciation of Earth-like planets. Earth and Planetary Science Letters, 476, 11-21, https://doi.org/10.1016/j.epsl.2017.07.050

VanLoon, G. W. & Duffy, S. J. (2011). Environmental Chemistry. A global perspective. Third Edition. New York: Oxford University Press.

Varadi, F. (2007). Periodic orbits in the 3:2 orbital resonance and their stability. The Astronomical Journal, 118 (5), https://doi.org/10.1086/301088

Wall, M. (2017, febrero 22). Major Discovery! 7 Earth-Size Alien Planets Circle Nearby Star. Descargado desde: https://www.space.com/35790-seven-earth-size-planets-trappist-1-discovery.html

Weiss, L. M. & Marcy, G. W. (2014). The mass-radius relation for 65 exoplanets smaller tan 4 Earth radii. The Astrophysical Journal Letters, 783 (1), https://doi.org/10.1088/2041-8205/783/1/L6

Yadav, T. (2017). Search for exoplanets: Atmospheres, habitability and detections. Working Paper. Central Michigan University.

Cómo citar este artículo: Martínez, J. A. (2018, febrero 21). El sistema planetario de TRAPPIST-1. Descargado desde www.cienciasinmiedo.es/b313

Todos los posts relacionados




(#302). CONSTRUCTOS EN PSICOLOGÍA E IMPLICACIONES ESTADÍSTICAS

[REVISIÓN DE ARTÍCULO] En este breve artículo publicado en Health Psychology Review, el autor realiza un magnífico ejercicio de síntesis para ilustrar una de las grandes cuestiones de la psicología empírica, y por extensión de todas las ciencias sociales; qué son los constructos y cómo hay que medirlos.

Para ello, establece 4 amplias concepciones, que definen diferentes ópticas sobre lo que son los constructos, y cuya adopción de una a otra perspectiva implica la posterior elección del método adeuado para implementar la medición y el análisis estadístico.

Antes de empezar conviene recordar que un constructo en psicología se puede referrir desde una emoción a un desorden mental, desde una percepción a una categorización social, o desde las características de la personalidad a la inteligencia. Es decir, prácticamente cualquier concepto abstracto es un constructo, y esto al final envuelve todo lo que pretendemos medir.

Constructos como carácter natural

Existen, independientemente de que los reconozcamos como tal. Es decir, es una aproximación ontológica realista a entidades naturales que tienen unas carcaterísticas intrínsecas que los hacen atemporales e inmóviles en su concepción. El autor pone el ejemplo de un elemento químico que está determinado por el número de protones que contiene. De este modo, tener 79 protones es una condición necesaria y suficiente para que exista el oro. En psicología, las emociones básicas como el  miedo o la ira son a menudo vistas también dentro de esta categoría. 

Concebir que los desórdenes mentales o que las características de la personalidad tengan también un carácter natural es quizá ir demasiado lejos, pero el autor cita literatura que así lo propone.

Esta concepción realista implica claramente un planteamiento causal reflectivo, donde el constructo es una variable latente que existe pero que se manifiesta a través de indicadores observables. Variaciones en el constructo causan cambios en los indicadores observables, y por tanto la causalidad tiene una dirección desde lo abstracto a lo concreto, desde lo latente a lo observable.

Así, las clásicas escalas multi-ítem, y los tan manidos usos del alfa de Cronbach o el análisis factorial (no el de componentes principales), entrarían dentro de esta conceptualización.

Esto llevaría a aceptar algo que el autor no comenta debido a la brevedad del artículo, pero que es harto conocido en la literatura especializada, y es que esa variable latente se manifiesta a través de unos indicadores observables que son intercambiales, y que no alteran el significado de la variable latente si se usa uno u otro indicador. Y esta es una condición muy restrictiva, y que hace que numerosos planteamientos metodológicos de investigaciones hagan aguas clamorosamente.

Constructos como carácter social y como carácter práctico

El autor separa ambos caracteres pero realmente su distinción es muy sutil, y a nivel práctico implica pocas modificaciones.

El carácter social se refiere a los constructos como construcciones sociales, basadas en un consenso, y aunque el autor no lo comente explícitamente, podría concebirse como algo intersubjetivo, es decir, lo que es lo es porque la mayoría consensúa que lo es.

Y por carácter práctico se refiere a una mera instrumentalización de los conceptos, lo que llama nominalismo pragmático. Así, las emociones, las características de la personalidad o los desórdenes mentales deberían ser juzgados en términos de éxito práctico, más allá de que correspondan con una realidad independiente de nuestra percepción. El ejemplo del estatus socieconómico (SES) es claro; es una mera construcción que predice resultados como la mortalidad, morbilidad, pobreza, etc. Lo que interesa realmente es una operacionalización práctica que permita realizar predicciones.

La forma de plantear modelos bajo estas dos conceptualizaciones es opuesta a la visión reflectiva. Ahora los indicadores observables, las variables que medimos para operacionalizar el concepto causan variación en el concepto, y no se pueden desvincular de él; si eliminamos uno de esos indicadores (o ítems) cambia el significado del concepto. De este modo, estaríamos hablando de modelos formativos, y no reflectivos. Por tanto, no se puede aplicar el alfa de Cronbach, ni ningún método que considere que la varianza del indicador observable se compone de la varianza de la variable latente más una varianza de error (teoría clásica de los tests). Aquí la relación entre las varianzas es diferente porque las relaciones causales son diferentes. En conseuencia, la variable latente se explica por la variación en las dimensiones/indicadores/ítems que la componen.

Constructos como entidades complejas

Esta visión vuelve a la aproximación realista admitiendo que esos constructos existen pero son tan complejos que no podemos saber mucho sobre ellos, más allá de una serie de características que están asociadas, es decir, que se manifiestan conjuntamente, aunque no necesariamente igual en todos los sujetos. De nuevo, con en las otras visiones, existe literatura al respecto que la secunda.

Desde el punto de vista estadístico los análisis de redes asociativas son pertinentes, al no establecer los indicadores ligazones causales con las variables latentes que supuestamente manifiestan, sino que la relación causal o meramente asociativa es con otros indicadores/dimensiones observables. Es decir, se modela lo observable, admitiendo implícitamente la existencia de conceptos latentes, pero sin entrar en especificaciones causales con ellos, debido a la complejidad del entramado de relaciones que los gobiernan.

b302_1

Nihilismo pragmático

Según esta idea, los constructos en psicología son metáforas útiles para entender el mundo, pero no necesariamente tienen que existir. Desde este punto de vista, la visión operacionalista y pragmática prevalecería. Así, los constructos deberían ser medidos en funciónde cómo los investigadores los definieran.

Comentarios

Pese a que el autor al final del artículo se resiste a aceptar esa visión nihilista, y todavía espera que la psicología entienda y maneje constructos reales, la pequeña revisión que hace se lo pone muy difícil.

Y, a mi juicio, no va desencaminado en su pesimismo, porque plantear la visión realista y reflectiva como algo similar a propiedades naturales que son imperturbables es controvertido. El ejemplo que emplear de los protones y la tabla periódica es incompleto y falla al no admitir que el oro es una etiqueta lingüísitica que hemos consensuado poner a un elemento con 79 protones, pero que realmente un protón no es una característica fundamental (como se creía hasta hace unas décadas), sino que está formado por 3 quarks y su interacción fuerte (gluones). De este modo, un protón sería la operacionalización realizada artificialmente para describir una unión de 3 quarks (2 quarks arriba y un quark abajo). Desde ese punto de vista sería una variable formativa. Y es que si cambiamos levemente los indicadores (los quarks), y consideramos esta vez 2 quarks abajo y un quark arriba, ya no tenemos un protón, sino un neutrón.

Por tanto, cada vez que definimos algo le estamos dando un carácter instrumentalista en el sentido de que lo hacemos describiendo las características que lo forman, o siendo menos exigentes, aquellas con las que está asociado (una red nomológica). Así, poco espacio queda a la visión realista, y mucho más en ciencias sociales, donde no disponemos del descenso a lo fundamental que tiene la física, la química o la biología.

Sin duda el debate sigue abierto y la discusión es apasionante en el sentido de que está en juego la validez de miles de investigaciones pasadas y otras futuras que han errado o errarán en plantear una medición adecuada de los constructos que tratan de analizar.

Por eso es tan importante entender bien cómo operar con observables y las relaciones causales que se establecen (ya sea con otros observables o con variables latentes).

LEE EL ARTÍCULO ORIGINAL AQUÍ:

Fried, E. I. (2018).What are psychological constructs? On the nature and statistical modelling of emotions, intelligence, personality traits and mental disorders.  Health Psychology Review, doi: 10.1080/17437199.2017.1306718

Indicadores de calidad de la revista*

 

Impact Factor (2016)

Cuartil

Categoría

Thomson-Reuters (JCR)

7.241

Q1

PSYCHOLOGY, CLINICAL

Scimago (SJR)

2.69

Q1

CLINICAL PSYCHOLOGY

* Es simplemente un indicador aproximado para valorar la calidad de la publicación

Todos los posts relacionados




(#276). LA IRRACIONALIDAD, SCHRÖDINGER, Y EL EFECTO TÚNEL

[MONOTEMA] Hemos hablado en otras ocasiones en este blog sobre las explicaciones psico sociológicas del comportamiento humano, incidiendo sobre las formas de control social por parte del poder (empleando la perversión del lenguaje y otras técnicas de manipulación), las herramientas básicas de persuasión e influencia social, y el efecto placebo.

Una de los rasgos más característicos que nos suelen llamar la atención es la aceptación de argumentos que son a nuestro entender completamente falsos, pero que son tomados como verdad por otras personas. Es cierto que el sesgo de confirmación explica en parte estas situaciones, pero aún así se muestra quizá insuficiente para todas las posibles variantes observadas. Una persona puede saber o sospechar que le están mintiendo pero aceptar ese mensaje como verdad, es decir, detectar el engaño pero no tomarlo como tal. En este sentido, el interés no radicaría conocer como se descubren esas mentiras (ej. Novotny, 2017), sino en explicar el mecanismo por el que se aceptan como verdad.

En este post vamos a hablar de manera relajada de cómo se podrían explicar estos comportamientos haciendo una analogía con algunos postulados de mecánica cuántica, concretamente de la aplicación de la ecuación de Schrödinger y el efecto túnel. El objetivo es también explicar de forma sencilla (probablemente demasiado simplista) aplicaciones de la física cuántica, con el fin de hacerlas más entendibles usando la analogía con el comportamiento humano.

La ecuación de Schrödinger

Vamos a emplear la notación propuesta en Tipler & Mosca (2010), y también parte de sus explicaciones, que describe el comportamiento de partículas elementales, y que se basa en la energía de las partículas y en la función de onda, función que es una solución de esa ecuación.

Para el caso de una onda estacionaria, la ecuación de Schrödinger es:

donde  es la energía potencial, es la energía total de la partícula, y donde también aparece la constante de Planck , la masa de la partícula y la función de onda .

  es clave porque representa la interacción con el entorno, y de su valor y su relación con la energía total va a depender la solución de la ecuación.

El cuadrado de la función de onda refleja la probabilidad de encontar la partícula en el espacio . Por tanto, las energías que den solución a la ecuación deben satisfacer la condición de normalización de la función:

El escalón de potencial

Vamos a considerar una partícula de energía que se mueve en una región del espacio donde existe un escalón de potencial  de la forma siguiente:

Como esa partícula tiene una función de onda asociada, al chocar contra el escalón de potencial, existirá una probabilidad de reflexión y otra de transmisión. Esa probabilidad depende de la relación entre y . Cuando la probabilidad de reflexión es máxima, aunque la función de onda penetre un poco en la región .

Sin embargo, cuando la probabilidad de reflexión puede calcularse de la manera siguiente:

Siendo el número de onda de la onda incidente y el número de onda de la onda transmitida. La probabilidad de transmisión , será por tanto:

El efecto túnel

Consideremos ahora que la barrera de potencial tiene una anchura que es finita, y por tanto el escalón de potencial se expresa así:

Cuando hay también una probabilidad de transmisión y de reflexión. Es decir, la onda es como si pudiera atravesar la barrera y continuara después con menor amplitud. Por tanto la función de onda es una superposición de estados (reflejado y trasmitido). La probabilidad de transmisión , será en este caso:

siendo:

Como indica Tipler & Mosca (2010), la probabilidad de penetración de la barrera disminuye exponencialmente con el espesor de ésta, y con la raíz cuadrada de la altura relativa de la barrera 

Más explicaciones divulgativas sobre el efecto túnel pueden encontrarse Cuentos Cuánticos y en La Ciencia de la Mula Francis.

La barrera de potencial mental

Podemos hacer un ejercicio de imaginación y postular que la teoría de la consistencia cognitiva supone la construcción de una barrera de potencial mental, por la cual los mensajes que llegan en forma de una señal ondulatoria “chocan” contra esa barrera y son asimilados (transmitidos) o no asimilados (reflejados) por los individuos. Siguiendo la jerga cuántica el mensaje puede asimilarese o reflejarse con una probabilidad. Esa barrera de potencial representa la capacidad humana para discernir entre la verdad y la mentira.

Lo curioso de la mente humana es que la capacidad de penetrar esa barrera de potencial cambia en función de la naturaleza de la fuente emisora. Y es algo que también ocurre en la cuántica si esa onda describe partículas con diferente masa. Por ejemplo, la masa de un electrón y de un protón difieren (un protón es casi 2000 veces más masivo que un electrón), y la masa condiciona condiciona la probabilidad de transmisión , asumiendo el resto de factores iguales.

Lo que sucede es que no todos los factores son iguales, porque la relación entre las masas también afecta a . Recordemos que la energía cinética y :  de ambas partículas es:

Por tanto, si llamamos:

Entonces, dado que la energía fuera de la barrera de potencial es sólo energía cinética:

De este modo, si , por lo que , y entonces: , es decir, existe mayor probabilidad de que la onda con menos masa traspase la barrera de potencial.

Si nos trasladamos a la psicología, y ahora la masa suponemos que es la desconfianza en las características del mensaje debido a la fuente emisora, entonces cuando más desconfianza menos probabilidad hay de que el mensaje se “cuele” por la barrera mental.

Sin embargo, cuando el mensaje proviene de una fuente confiable, con la que nos sentimos identificados, y que dotamos de credibilidad, aunque el mensaje no tenga la “energía” necesaria para traspasar la barrera mental que distingue lo veraz o que favorece nuestros intereses, con respecto a lo falaz o a lo que nos desfavorece, la probabilidad de que lo asimilemos en su forma original es mayor. Decae la amplitud (intensidad) pero las características del mensaje permanecen. Eso es lo que nos dice el efecto túnel si lo aplicamos de este modo.

Por tanto, aunque un mensaje sepamos que es mentira o que el comportamiento que aliente nos desfavorece, y por ello no traspasa nuestro mecanismo de defensa mental (barrera de potencial) aún así existe una probabilidad de que lo asimilemos como cierto o como que nos va a beneficiar en la medida en que sea más confiable, que provenga de una fuente más creíble.

La distribución de la anchura de la barrera de potencial

Hemos visto que:

Por tanto, cuanto más grande sea menor va a ser la asimilación de la onda. Esto es lógico, ya que podemos imaginar que cuando más ancha sea nuestra defensa, menos posibilidad hay de que aceptemos el engaño.

El problema es que, desafortunadamente, esa anchura no sigue una distribución normal en poblaciones poco cultas, insuficientemente formadas y mal informadas, sino que se asemeja más a una distribución power law. Es decir, existe un gran número de personas con una estrecha barrera, mientras que el número de personas con barreras anchas decae no linealmente. Las distribuciones power law pueden tener una forma similar a la siguiente gráfica:barrerapotencialBajo este supuesto, los mensajes infames, falaces, o que animan a las personas a actuar de una manera que les perjudica, tienen una mayor probabilidad de ser asimilados por una gran parte de la población.

Las claves de la manipulación

De este modo, hemos dado con dos de las claves para el control social y la manipulación de las masas.

En primer lugar, intentar conectar con ellos de algún modo por el que disminuya la desconfianza o se incremente la sentida hacia sus oponentes. Como vimos en otros posts, la apropiación de símbolos (ej. banderas), y de valores que forman valores profundos de identidad individual (ej. religión, familia), conlleva una mayor probabilidad de “conexión” con la fuente emisora. Y la exaltación del dualismo es una manera de “desconectar” con los oponentes.

En segundo lugar, mantener a la población en un alto grado de incultura, desinformación y con baja capacidad crítica. Bajo estas circunstancias es de esperar que la anchura de barrera de potencial sea más pequeña.

Así, para los mensajes en los que la gente percibe conscientemente que son falaces, manipuladores o que aceptarlos les perjudica, existe una probabilidad de que se asimilen por efecto túnel, y esta es creciente dependiendo de esas dos claves comentadas.

Unos agentes facilitadores

La repetición de los mensajes también juega un papel fundamental, ya que en la medida en que lleguen más ondas (mensajes) a esa barrera de potencial, mayor va ser la asimilación a largo plazo. Este hecho incide en la fluencia, o facilidad con la que los mensajes son procesados y recuperados (recuperamos con más facilidad lo que nos es más familiar). La intervención de las neuronas espejo como forma de aprendizaje y socialización también es relevante. La publicidad, como forma de persuasión, basa gran parte de su eficacia en esos dos simples conceptos: repetición (fluencia) e imitación (aprendizaje/socialización).

Todos podemos comprobar lo que acabo de explicar con un hecho cotidiano como es el  detestar una canción, odiar una melodía, pero que hemos escuchado tantas veces y la hemos visto nombrada o cantada en boca de otros que al final estamos en casa o en el coche y nos damos cuenta de que tenemos el estribillo en nuestra cabeza o incluso la tarareamos.

Otro ejemplo sería cuando otra persona niega hasta la extenuación una evidencia aparentemente incontestable para uno mismo,  y que otras personas empezaran a sembrar cierto atisbo de duda. Pese a lo incontestable de esa evidencia, la repetición y la imitación facilitarián la asimilación del mensaje falaz.

Conclusión

La irracionalidad es una característica inherente al comportamiento humano, pero a veces nos sorprendemos cuando constatamos que las personas aceptan ideas totalmente falaces o que les perjudican gravemente, aún cuando son conscientes de ello, o al menos tienen fundadas sospechas.

A través de una analogía con el efecto túnel, uno de los sucesos más curiosos de la mecánica cuántica, hemos argumentado que es posible postular una explicación sobre ello basándonos en conceptos fundamentales de psicología y sociología, como son la consistencia cognitiva, la identidad, la credibilidad de la fuente, la capacidad crítica, la fluencia o al aprendizaje.

Desde el punto de vista del poderoso, la clave estriba en establecer lazos de identidad profundos con los individudos (por ejemplo, empleando símbolos) y mantener a la población en una situación de pobreza intelectual. En esta situación, las mentiras más evidentes pueden ser asimiladas. Y si esas mentiras se repiten continuamente y se comienzan a aceptar por una parte del grupo la difusión global se hace mucho más probable. El control de los medios de comunicación de masas es capital.

Para protegernos de esta manipulación, debemos admitir que valoramos los mensajes en función de la fuente emisora, pero también que si tenemos una alta formación y capacidad crítica, la probabilidad de que los asimilemos será extremadamente baja. Esa gran barrera de potencial mental se tornará prácticamente infranqueable ante la impostura y la perversión.

No sé si Schrödinger estaría de acuerdo con este post, pero supongo que a él le gustaría que a día de hoy la mente de las personas fuera menos proclive a asimilar mentiras, y a actuar en contra de sus propios intereses por culpa de la manipulación de los mensajes.

Todos los posts relacionados