(#352). TESTOSTERONA Y CONSUMO CONSPICUO EN HOMBRES

[REVISION DE ARTICULO] En este artículo publicado en Nature Communications, los autores presentan nuevas evidencias sobre la relación entre los niveles de testosterona en sangre en hombres y el consumo de productos que denotan estatus.

Ganar prestigio para sentirse socialmente por encima de los demás es una de las razones que explican el consumo de productos de lujo o con significado aspiracional (tenerlos denota una posición social superior), lo que refuerza también el sentimiento de unicidad, de diferenciación con respecto al resto que son “inferiores”. No importa que el valor de uso del producto entre diferentes productos sea el mismo; es el valor de signo lo que decanta la decisión de compra.

Sin embargo, como explican los autores, el comportamiento animal también tiene ciertas analogías con respecto al humano en relación a este aspecto. Algunas especies desarrollan adaptaciones que “desperdician” recursos fisiológicos sin producir unos beneficios inmediatos en cuanto a supervivencia, como por ejemplo los colores vivos de la cola de un pavo real o el peso de la cornamenta de los ciervos. Esas adaptaciones, sin embargo, incrementan el atractivo de los machos, y son claves para la reproducción. Por tanto, no está tan claro esa aseveración que los autores realizan sobre los beneficios de esos rasgos, ya que sí que tienen una gran importancia en la perpetuación de la especie.

En cualquier caso, la hormona testosterona está asociado con una variedad de comportamientos reproductivos y sociales, tanto en animales como humanos, donde se incrementan sus niveles en relación a esos comportamientos.  En los humanos, esta hormona aumenta en situaciones como la competición deportiva, después de una victoria, la presencia de una mujer atractiva o en acciones de consumo de lujo como consumir un coche deportivo.

Interesante es, además, la mención que los autores realizan sobre la relación entre la testosterona y la agresividad. Pese a que se ha mostrado asociación entre ambas variables (en estudios realizados principalmente con presos), hay investigaciones que sugieren que esa relación está mediada por la promoción del estatus, del prestigio personal. Esos estudios muestran que cuando se eleva farmacológicamente la testosterona, se incrementa la generosidad, la cooperación y la honestidad, es decir, comportamiento pro-social que no es agresivo, pero que puede proporcionar una situación de estatus.

El objetivo de esta investigación es analizar si cuando se elevan artificialmente los niveles de testosterona en hombres, existe una preferencia por el consumo de productos que denotan estatus.

Metodología y resultados

Participaron 243 voluntarios a los que se les tomó una muestra se saliva antes de comenzar el experimento y luego 3 muestras más durante el desarrollo del mismo para comprobar que efectivamente el tratamiento incrementaba los niveles de la hormona testosterona frente al grupo al que se le administró placebo (ver la figura siguiente).

b352_1

Los participantes vieron 5 pares de marcas de ropa, en las que una de ellas estaba asociada a un mayor rango social, y tenían que indicar en qué medida preferían una sobre otra. Los resultados fueron claros; el grupo experimental prefería las marcas con mayor estatus social en comparación con el grupo de control (placebo). El efecto significativo se mantuvo al controlar por diferentes variables, como el estado de ánimo, edad, el ratio 2D:4D, y las medidas post tratamiento de otras hormonas.

b352_2

Los resultados fueron también similares en la condición del pre tratamiento, es decir, antes de suministrar la testosterona, indicando que el nivel basal de testosterona también influye en esa elección.

En el siguiente experimento los investigadores trataron de dilucidar si esa preferencia por las marcas que denotaban estatus era también similar por marcas que significaban poder y alta calidad. Para ello, diseñaron varios mensajes publicitarios referidos a un reloj, incidiendo cada uno de ellos en el respectivo atributo distintivo.

b352_3

Los resultados de nuevo mostraron que aludir al estatus produce una actitud significativamente diferente en función de los niveles de testosterona, pero no en el resto de condiciones.

Implicaciones

Esta investigación muestra como la preferencia por el consumo de ciertas marcas puede estar definida por características biológicas, como los niveles de testosterona, cuando esos productos aluden al estatus, al prestigio, a la señalización de una posición social dominante.

Como indican los autores, los niveles de testosterona de los hombres se elevan tras experimentar determinados eventos (divorcio, presencia de mujeres atractivas, eventos deportivos…). En esos momentos los hombres son más proclives al consumo ostentoso, por lo que las marcas pueden implementar acciones de marketing especialmente dirigidas a ese segmento.

Limitaciones/Comentarios

Los autores admiten que el el efecto de la testosterna y la preferencia por cierto tipo de marcas puede ser bidireccional, ya que otros estudios han mostrado que precisamente el consumo de esos productos eleva el nivel de testosterona.  Por tanto es una relación que se realimenta constantemente.

En particular, me llama la atención que los resultados no hayan sido significativos en el segundo experimento al aludir al poder. Ese concepto está íntimamente relacionado con el estatus, aunque los autores explican en el artículo que puede haber diferencias importantes (un político puede tener poder pero un prestigio social bajo debido a la corrupción, y un académico puede tener un alto prestigio social pero poco poder). Sin embargo, creo que se necesitaría profundizar más en esta relación, porque intuyo que lo que subyace es prácticamente la misma motivación profunda.

 

LEE EL ARTÍCULO ORIGINAL AQUÍ:

Nave, G. et al. (2018). Single-dose testosterone administration increases men’s preference for status goods. Nature Communications, doi: 10.1038/s41467-018-04923-0

Indicadores de calidad de la revista*

 

Impact Factor (2017)

Cuartil

Categoría

Thomson-Reuters (JCR)

12.124

Q1 

MULTIDISCIPLINARY SCIENCES

Scimago (SJR)

6.58

Q1  BIOCHEMISTRY, GENETICS AND MOLECULAR BIOLOGY 

* Es simplemente un indicador aproximado para valorar la calidad de la publicación

Todos los posts relacionados




(#318). CAMPOS MAGNÉTICOS Y ABORTO; SIGUE SIN ESTAR CLARO

[REVISIÓN DE ARTÍCULO] En este estudio publicado en Scientific Reports, los autores reportan una asociación entre la exposición a campos magnéticos de extremada baja frecuencia y el riesgo de aborto espontáneo.

Este tipo de efectos adversos no ha suscitado el mismo interés que otros (relacionados con el cáncer, por ejemplo), pese a que hay varios estudios observacionales y en laboratorio que han mostrado señales de que puede haber algún tipo de relación funcional.

El objetivo de esta investigación es profundizar en el estudio de esa posible asociación a través del seguimiento de una cohorte de mujeres embarazadas.

Metodología

La cohorte la compusieron mujeres mayores de 17 años que residían en un área particular de San Francisco (California). Un total de 1054 mujeres (todas con menos de 10 semanas de embarazo confirmado mediante un test) accedieron a participar. Para evitar posibles sesgos debido a la propensión al aborto (que podía ser debido a múltiples factores), los autores excluyeron a aquellas mujeres con un historial previo de 2 o más abortos).

Las embarazadas portaron consigo un exposímetro durante 24 horas, con el fin de medir una exposición típica, al estilo de como hacen otros estudios similares en este campo. La no cumplimentación de las instrucciones para llevar el aparato hizo que 138 mujeres fueran excluidas.

Una entrevista personal completó la recogida de datos, en aras de identificar posibles variables de confundido para cada caso, aunque se hizo antes de realizar las mediciones con el exposímetro.

Los autores consideraron la distribución de medidas y tomaron como criterio emplear el percentill 99 para discriminar entre baja y alta exposición. Así, si el 99% de las medidas estaban por debajo 0.25 μT se les categorizaba como exposición baja (primer cuartil). El resto de cuartiles fue considerado como exposición alta, en línea con lo que otros estudios epidemiológicos han mostrado como niveles de incremento de riesgo de enfermedades como la leucemia infantil. También se dividió a las participantes entre aquellas que fielmente habían usado el exposímetro en un día típico frente a las que reportaron hacerlo en condiciones no típicas, es decir, poco representativas de un día usual.

El método estadístico empleado fue la regresión de Cox y se estimaron los Hazard Ratio al 95% de confianza, tomando el primer cuartil como categoría de referencia.

Resultados e implicaciones

Los resultados más destacados se muestran en la siguiente tabla, que resume la asociación entre la exposición a campos magnéticos y el riesgo de aborto espontáneo, sólo para las mujeres que usaron el exposímetro en un día típico:

Cuartiles Total (N) Abortos HR (95% IC)
1 (<0.25 μT) 106 11 (10.4%) Categoría referencia
2 (0.25 – 0.36 μT) 116 32 (27.6%) 3.29 (1.59 ; 6.79)
3 (0.27 – 0.62 μT) 119 31 (26.1%) 3.01 (1.48 ; 6.12)
4 (>0.63 μT) 112 21 (18.8%)  2.02 (0.95 ; 4.28)

Existe, por tanto, un efecto significativo aunque el patrón de respuesta a la dosis no es claro. De hecho, los autores comentan que esto podría ser indicativo de un simple umbral de efecto que haría que a partir de un determinado nivel (independientemente del incremento de dosis) se aumentaría el riesgo.

Limitaciones/Comentarios

Muy extraño este artículo. Honestamente, no parece con la entidad suficiente como para ser publicado en una revista de tanto impacto. Está deslabazado y tiene unas carencias sorprendentes.

Por ejemplo, no distingue entre diferentes frecuencias a la hora de establecer su planteamiento y diseño, englobándolo todo en campos magnéticos (magnetic fields) sin discriminar entre la exposición a campos eléctricos y campos magnéticos en baja frecuencia, y campos electromagnéticos en alta frecuencia. Así, hemos de deducir que sólo mide radiación no ionizante de baja frecuencia, lo que es una limitación ya que deja de lado la radiofrecuencia, cuando precisamente cita a esta como posible causa de abortos.

Además, no explica cómo por que un cuartil de la distribución tenga 0.62 μT en el 99% de las medidas que hace el dosímetro a lo largo del día. Es como si esas mujeres estuvieran al lado de una fuente muy intensa prácticamente durante las 24 horas del día.

En definitiva, creo que no podemos sacar grandes conclusiones de este artículo pese a que ofrece un resultado llamativo y está publicado en una revista de alto impacto. Una pena, porque los autores deberían haber completado mejor su investigación y, tal vez así, hubiéramos podido sacar alguna implicación de interés.

LEE EL ARTÍULO ORIGINAL AQUÍ:

De-Kun, L. et al.  (2017). Exposure to Magnetic Field NonIonizing Radiation and the Risk of Miscarriage: A Prospective Cohort Study.  Scientific Reports, doi: 10.1038/s41598-017-16623-8

Indicadores de calidad de la revista*

 

Impact Factor (2016)

Cuartil

Categoría

Thomson-Reuters (JCR)

4.259

Q1

MULTIDISCIPLINARY SCIENCES

Scimago (SJR)

1.62

Q1

MULTIDISCIPLINARY

* Es simplemente un indicador aproximado para valorar la calidad de la publicación

Todos los posts relacionados




(#316). IGNORAR LA TOXICIDAD DE LOS ADYUVANTES FALSEA LOS PERFILES DE SEGURIDAD DE LOS PESTICIDAS

[REVISIÓN DE ARTÍCULO] En este artículo publicado en Frontiers in Public Health, los autores hacen un nuevo llamamiento a la necesidad de considerar los adyuvantes de los pesticidas en las regulaciones sobre la toxicidad de los productos.

Esos adyuvantes son llamados elementos “inertes” porque simplemente no funcionan como principio activo. Pero ello no significa que no tengan efectos biológicos (que en su mayoría los tienen), tal y como los autores recalcan. Esta falacia lingüística hace que enmascaren los efectos reales en el entorno de pesticidas como el glifosato (y otros también, por supuesto). Es más, a veces el hecho de que investigadores no distingan entre el efecto de la molécula activa y el de los adyuvantes perturba los resultados de las investigaciones sobre toxicidad de un pesticida en concreto. Esto ocurre porque un pesticida puede ser producido por diferentes compañías, y no necesariamente tienen que coincidir ni el número ni la concentración de adyuvantes. De este modo, se añade ruido al cuerpo de evidencia de los estudios, porque se mezclan resultados que pueden ser causados por diferentes elementos tóxicos.

Parte de esta confusión es debida a la consideración de los elementos inertes como secreto comercial, como ocurre en Estados Unidos, donde para registrar un pesticida se debe aportar información sobre los elementos activos pero no necesariamente sobre los tóxicos adyuvantes.

Al consumir alimentos (o a través de otras formas de interacción) nos exponemos a esos pesticidas en formas de residuo. Pero, de nuevo, tenemos que contar que ese residuo está formado por toda la combinación química del producto, no sólo el elemento activo. Y como bien comentan los autores, hay estudios que muestran que la toxicidad de los adyuvantes puede ser mayor que los de la molécula principal.

Tipos de coadyuvantes

Los autores presentan una lista no exhaustiva de los elementos inertes más empleados en la formulación de pesticidas:

b316_2Los más utilizados son los surfactantes, que modifican la interacción entre las superficies de la planta y del elemento activo, facilitando su penetración, adherencia y dispersión. Y, como enfatizan los autores, no sólo lo hacen con las plantas, sino también con la piel humana cuando hay exposición.

Uno de esos surfactantes, el POEA (polioxietileno amina) ha sido prohibido por la Comisión Europea para su uso como adyuvante del glifosato. Sin embargo, y como indican los autores, eso no excluye su uso, ya que los agricultores pueden comprar el adyuvante aparte y mezclarlo con el glifosato. Y, además, no está prohibido como acompañante de pesticidas que contienen 2,4-D. De esta forma, tanto los granjeros como el público general puede estar expuesto a este tóxico incluso después de su prohibición.

Conclusión

Los autores plantean en qué grado son válidas las indicaciones de dosis diaria aceptable (ADI) y niveles de residuo máximo (MRI), dos medidas que se supone que garantizan que, tanto la dosis ingerida como los niveles de pesticidas encontrados en los productos, respectivamente, no producen efectos adversos. Si no se testa adecuadamente la toxicidad de esos (mal llamados) elementos inertes, los resultados pueden ser completamente diferentes. Quizá la inclusión de un nuevo factor de seguridad para tener en cuenta esta variable sería indicado tanto para el ADI como para el MRI, es decir, hacer más exigentes los niveles a cumplir.

Ante esta situación hay que, por un lado, deconstruir las formulaciones comerciales y testar los elementos por separado (adyuvantes y principios activos) y, por otro lado, realizar pruebas de toxicidad en animales con las formulaciones completas, no sólo con los ingredientes activos.

Y, por supuesto, una mayor transparencia sería necesaria a la hora conocer todos los componentes de un pesticida, y eliminar el eufemismo de “inerte” a compuestos tóxicos que deberían tener un trato regulatorio similar al del ingrediente activo.

LEE EL ARTÍCULO ORIGINAL AQUÍ:

Mesnage, R. & Antoniou, M. N. (2018).Ignoring Adjuvant Toxicity Falsifies the Safety Profile of Commercial Pesticides. Frontiers in Public Health, doi: 10.3389/fpubh.2017.00361

Indicadores de calidad de la revista*

 

Impact Factor (2016)

Cuartil

Categoría

Thomson-Reuters (JCR)


Scimago (SJR)

* Es simplemente un indicador aproximado para valorar la calidad de la publicación

Todos los posts relacionados




(#315). GOBERNANDO CONTRA LA SALUD

[DESPIERTA] Sergi Pitarch escribe sobre una de los últimos casos de evidencia de conflictos de interés entre la política y la industria en España. La ministra de Agricultura, Isabel García Tejerina, ha explicado en el Congreso que defiende la continuidad de uso de fertilizantes con niveles altos de cadmio, superiores a lo que recomienda la Comisión Europea, el Parlamento Europeo y, por supuesto, desoyendo las múltiples investigaciones científicas al respecto.

La ministra era directivo de Fertiberia, empresa que es la principal interesada en que la regulación sobre el cadmio no se produzca en los términos acordes al interés general.

Pitarch, además, señala las numerosas mentiras y medias verdades de la ministra en su intervención en el Congreso, dejando en evidencia su posición pro industria.

La Comisión Europea propone reducir paulatinamente los  niveles de cadmio a 20 mg/kg, mientras que España propone 75 mg/kg, sin bajar ni un ápice de esa cifra.

La Comisión Europea estima que en el escenario más desfavorable los agricultores sufrirían un coste del 1%, algo que justificaría sin duda la reducción efectiva en los fertilizantes, en defensa de la salud de todos.

Los efectos del cadmio en la salud (con evidencias claras de su toxicidad para riñones y huesos) pueden consultarse en Amzal et al. (2009), Satarug et al. (2010), o Thomas et al. (2009).

Estamos, por tanto, ante otro caso de connivencia con la industria, parecido al del Ministerio de Sanidad y la industria alimentaria. Cabe preguntarse entonces de qué sirve la ciencia, y también de qué sirve nuestra Constitución, donde el concepto de “interés general” parece que a veces se queda sólo en el papel.

Esta noticia ha coincidido en la misma semana con la escrita por Lucía Villa sobre la inexplicable lentitud de los legisladores españoles para decidirse a regular la exposición a gas radón en viviendas y edificios. Este gas radiactivo es la segunda causa de  cáncer de pulmón en el mundo. Tenemos en España, además, a Alberto Ruano, un investigador muy activo en esta área a nivel internacional, pero los resultados de sus investigaciones (y las de otros colegas) siguen sin ser escuchadas. En otros países, como Estados Unidos y Reino Unido, ya hace tiempo que legislaron al respecto.

IR A LA FUENTE DE ESTA NOTICIA

Todos los posts relacionados




(#313). EL SISTEMA PLANETARIO DE TRAPPIST-1

[MONOTEMA] El descubrimiento del sistema TRAPPIST-1 ha generado gran interés debido, fundamentalmente, a que los siete planetas detectados tienen características similares a la Tierra y podrían albergar vida. Esos planetas orbitan alrededor de una estrella enana tipo M, y además lo hacen de manera resonante y con acoplamiento por fuerzas de marea. En este post describo los detalles más relevantes de este hallazgo, y explico de forma breve los principales métodos de detección empleados en este campo de la física, así como también analizo la posible habitabilidad de los planetas encontrados. Muestro, por tanto, de manera didáctica, la complejidad de obtener resultados concluyentes cuando todavía existe incertidumbre importante en los datos, pero al mismo tiempo ilustro que a través de la observación, simulación numérica y análisis estadísticos, se puede obtener un dibujo aproximado de una parte de la galaxia que está a unos 39 años luz de nosotros.

Introducción

El descubrimiento de tres exoplanetas en la zona habitable de la estrella TRAPPIST-1A por Gillon et al. (2016), ha sido uno de los eventos más destacados en el campo de la astrofísica en los últimos años. Tan sólo unos meses más tarde, Gillon et al. (2017) publicaron que habían detectado hasta 7 planetas orbitando esa estrella, los cuales podrían contener agua líquida.

De este modo, el hallazgo de los exoplanetas de TRAPPIST-1 constituye un caso muy atractivo para ilustrar algunas de las actividades fundamentales de la investigación en astrofísica, así como para explicar conceptos clave asociados a la búsqueda de lugares en el espacio con el potencial de albergar vida.

En este artículo voy a describir los detalles de ese descubrimiento, definiendo los términos más importantes que se emplean para su correcto entendimiento, y discutiendo algunas de las contradicciones que muestran los estudios. Lo haré además, de manera didáctica, con el fin de facilitar su conocimiento.

El objetivo de esta investigación es, por tanto, hacer comprensible el significado de este hallazgo científico, analizando brevemente las múltiples implicaciones que de él se derivan.

Descripción del sistema planetario de TRAPPIST-1

Gillon et al. (2016) monitorizaron el brillo de la estrella TRAPPIST-1A durante 245 horas en 62 noches desde el 17 de septiembre al 28 de diciembre de 2015. Esa estrella se encuentra a una distancia estimada de la Tierra de 39.46 años-luz, y es una enana ultra fría tipo M situada en la constelación de Acuario. Su edad se estima en 7.6 ± 2.2 Gyr (Burgasser & Mamajek, 2017), es decir, de varios miles de millones de años, y es ciertamente más pequeña y menos brillante que el Sol. Así, Gillon et al. (2016) describieron su luminosidad, masa y radio como 0.05%, 8% y 11.5% en relación al Sol, respectivamente (los datos actualizados sobre todos los parámetros se encuentran en www.trappist.one).

Como indica Sholkmann (2017), este descubrimiento ha sido posible gracias al trabajo conjunto de varios telescopios terrestres y espaciales: TRAPPIST (TRansiting Planets and PlanestIsimals Small Telescope) North system (Chile), el telescopio TRAPPIST-North (Marruecos), el Himalayan Chandra Telescope (India), el Very Large Telescope (Chile), el UK Infrared Telescope (Hawaii), el Spitzer Space Telescope, los telescopios William Herschel y Liverpool (La Palma, España), y el telescopio del South African Astronomical Observatory.

A través del método de tránsito primario, Gillon et al. (2016) detectaron inicialmente 3 exoplanetas orbitando la estrella: TRAPPIST-1b, TRAPPIST-1c y TRAPPIST-1d.  

Posteriormente, Gillon et al. (2017) reportaban la detección de 4 exoplanetas más: TRAPPIST-1e, TRAPPIST-1f, TRAPPIST-1g, y TRAPPIST-1h, completando un sistema de 7 planetas que, al menos en número, es similar al Sistema Solar. La cadencia temporal del proceso de descubrimiento y la publicación de los estudios en revistas científicas puede consultarse en www.trappist.one, así como las características actualizadas de esos planetas (en las Tablas 1 y 2 mostramos algunas de ellas).

Tabla 1. Características de la estrella TRAPPIST-1A

Ascensión recta

α = 23h 06m 29.28s

Radio

0.117 ± 0.004 R

Declinación

δ = -05º 02′ 28.5”

Densidad

50.7 (-2.2, +1.2) ρ

Constelación

Acuario

Temperatura efectiva

2559 ± 50 K

Distancia

12.1 ± 0.4 pc

Luminosidad

0.000525 ± 0.000036 L

Masa

0.080 ± 0.007 M

Edad

7.6 ± 2.2 Gyr

1 Gyr = 1000 millones de años; 1 pc (Parsec) = 3.26156 años/luz; El subíndice ☉ se refiere al equivalente del Sol de la medida empleada.

Fuente: www.trappist.one/#system

Tabla 2. Características de los planetas de la estrella TRAPPIST-1A

 

1b

1c

1d

1e

1f

1g

1h

Periodo orbital

1.51087081 ± 0.00000060 días

2.4218233 ± 0.0000017 días

4.049610 ± 0.000063días

6.099615 ± 0.000011días

9.206690 ± 0.000015 días

12.35294 ± 0.00012 días

18.767 ± 0.004 días

Duración del tránsito

36.40 ± 0.17 minutos

42.37 ± 0.22 minutos

49.13 ± 0.65 minutos

57.21 ± 0.71 minutos

62.60 ± 0.60 minutos

68.40 ± 0.66 minutos

75.6 ± 1.2 minutos

Inclinación orbital

89.65 ± 0.25º

89.67 ± 0.17º

89.75 ± 0.16º

89.86 ± 0.11º

89.680 ± 0.034º

89.710 ± 0.025º

89.76 ± 0.05º

Excentricidad orbital

< 0.081

< 0.083

< 0.070

< 0.085

< 0.063

< 0.061

Desconocida

Semieje mayor

0.01111 ± 0.00034 UA

0.01521 ± 0.00047 UA

0.02144 ± 0.00065 UA

0.02817 ± 0.00085 UA

0371 ± 0.001

0.0451 ± 0.0014 UA

0.059 ± 0.003 UA

Radio

1.086 ± 0.035 R

1.056 ± 0.035 R

0.772 ± 0.030 R

0.918 ± 0.039 R

1.045 ± 0.038 R

1.127 ± 0.041 R

0.752 ± 0.032 R

Masa

0.85 ± 0.72 M

1.38 ± 0.61 M

0.41 ± 0.27 M

0.62 ± 0.58 M

0.68 ± 0.18 M

1.34 ± 0.88 M

Desconocida

Densidad

0.66 ± 0.56 ρ

1.17 ± 0.53 ρ

0.89 ± 0.60 ρ

0.80 ± 0.76 ρ

0.60 ± 0.17 ρ

0.94 ± 0.63 ρ

Desconocida

Irradiación

4.25 ± 0.33 S

2.27 ± 0.18 S

1.143 ± 0.088 S

0.662 ± 0.051 S

0.382 ± 0.030 S

0.258 ± 0.020 S

0.165 ± 0.025

Temperatura de equilibrio

400.1 ± 7.7 K

341.9 ± 6.6 K

288.0 ± 5.6 K

251.3 ± 4.9 K

219.0 ± 4.2 K

198.6 ± 3.8 K

173 ± 4 K

1 UA (Unidad Astronómica) = 149 597 870 700 m (equivale a la distancia media entre la Tierra y el Sol); El subíndice ⊕ se refiere al equivalente de la Tierra de la medida empleada.

Fuente: www.trappist.one/#system

Un análisis sencillo de la Tabla 2 nos indica que los planetas de TRAPPIST-1 tienen una inclinación prácticamente perpendicular al cielo (visto desde la Tierra). Los periodos orbitales son de muy pocos días, dada la corta distancia con respecto a la estrella que podemos tomar de la medida del semieje mayor. Periodo y semieje mayor se relacionan por la Tercera Ley de Kepler.

Todos los planetas tienen órbitas más excéntricas que la Tierra; en nuestro planeta la excentricidad es de 0.0167, es decir, casi circular. No obstante, tal y como comentan Gupta et al. (2001), la Tierra ha sufrido ciclos de excentricidad, por lo que no es un parámetro constante.

Radios, masas y densidades son similares a las de nuestro planeta, aunque los datos para TRAPPIST-1h son mucho más inciertos.

En cuanto a la irradiación y a la temperatura de equilibrio, existe gran variación debido a la diferencia en distancias con respecto a la estrella. Recordemos que la temperatura de equilibrio de la Tierra considerando el albedo (porcentaje de radiación reflejada) es de 254 K (vanLoon & Duffy, 2011). Por tanto, los planetas TRAPPIST-1d, TRAPPIST-e y TRAPPIST-1f, tendrían temperaturas de equilibrio ciertamente similares a la Tierra. La irradiación juega un papel fundamental en la consideración de potencial habitabilidad del planeta, como posteriormente veremos.

La correlación entre varios de los parámetros de los exoplanetas es altamente compleja. Por ejemplo, Mancini (2017) encontró una posible asociación entre el radio y la temperatura de equilibrio, aunque esa relación no se muestra para el caso de TRAPPIST-1, ya que la correlación de Spearman (ρ) es no significativa ρ = 0.32 (p=0.48),  Méndez & Rivera-Valentín (2017), por su parte, indicaron que existe una correlación positiva entre la excentricidad de la órbita y la irradiación recibida de la estrella, y encuentran que la temperatura de equilibrio media de un exoplaneta decrece con la excentricidad. Para el caso de TRAPPIST-1, ρ = 0.6 (p=0.21), para ambas correlaciones, por lo que tampoco son estadísticamente significativas. En cuanto a la relación entre la densidad y el radio, Weiss & Marcy (2014) encontraron que para planetas con radios menores a 1.5 R, como el caso de los planetas detectados en TRAPPIST-1, la densidad se incrementa con el radio de manera lineal. Sin embargo, ρ = 0.2 (p=0.70) y la correlación lineal de Pearson r=-0.23 (p=0.94), es decir, resultados de nuevo no significativos.

No obstante, lo ideal sería volver a calcular esas correlaciones con los datos brutos (pero ya recalibrados) sobre cada medición, y no sobre los parámetros medios presentes en la Tabla 2. Así, se tendrían muchas más observaciones y unos errores estándares mucho más pequeños, y de este modo mayor potencia para detectar asociaciones significativas.

TRAPPIST-1 presenta resonancia orbital entre sus planetas. Este es un fenómeno que indica que existe una relación fraccional de números enteros entre los periodos de revolución de las órbitas. En nuestro Sistema Solar hay varios casos de resonancia, como entre Neptuno y Plutón, cuya relación de períodos es 3:2 (Varadi, 2007), o entre las lunas de Júpiter; Ganímedes, Europa e Io, cuya relación es 1:2:4 (Matí, Giuppone & Beaugé, 2013).  Es decir, por cada rotación de Ganímedes sobre Júpiter, Europa rota 2 veces e Io 4 veces. A este último tipo de resonancia de tres cuerpos en esa fracción de números enteros se le denomina resonancia de Laplace.

Luger et al. (2017) encontraron que los planetas de TRAPPIST-1 están en resonancia con la relación 24, 15, 9, 6, 4, 3, 2. Es decir, por cada 24 órbitas que da TRAPPIST-1b, TRAPPIST-1c da 15, TRAPPIST-1d da 9, y así sucesivamente hasta completar la serie. No son los únicos exoplanetas con resonancia orbital; como indica Scholkmann (2017) también ocurre en Kepler-223, Kepler-80, GJ 876 y HD 82943.

Por tanto, en TRAPPIST-1 existe un sistema resonante, que además conlleva que el espacio orbital entre esos planetas también siga una relación similar, dada por la Tercera Ley de Kepler: T2/a3=constante, donde T es el periodo orbital y a es el semieje mayor. Según Tamayo et al. (2017) esta resonancia es un factor de estabilidad del sistema.

Finalmente, los planetas de TRAPPIST-1 también se han analizado para estudiar su ajuste con diferentes versiones de la ley de Titius-Bode. Recordemos que esta ley refleja una relación matemática para describir la distancia entre planetas, a través de la progresión aritmética (0, 3, 6, 12, 48, 96, 192…). Cada número es el doble del anterior, y en el sistema solar se produce un relativo buen ajuste (hasta Urano) con las distancias entre los planetas si se añade 4 y se divide por 10 a cada número de la serie.

Realmente esta ley ha sido testada por Huang & Bakos (2014) sobre 56 sistemas de exoplanetas múltiples reportados por la misión Kepler. De las 141 predicciones sólo 5 fueron confirmadas, lo que, más allá de los posibles sesgos, los autores consideraron como motivo suficiente para cuestionar esta ley. Sin embargo, Scholkmann (2017) consigue ajustar una variación exponencial de la ley de Titius-Bode al sistema TRAPPIST-1 obteniendo un ajuste muy bueno mediante el coeficiente de determinación: R2=0.9944 (Figura 1).

Scholkmann (2017) testó las medidas del semieje mayor usando dos versiones de la ley: f(n)=α+β2n , f(n)=αeβn , y los ajustes fueron muy buenos vía R2: 0.9921, frente a 0.9944. Como no reportó ningún test estadístico para comparar ambos coeficientes, como el que propusieron Steiger & Fouladi (1992), entonces podría ser demasiado apresurado concluir que hay diferencias entre ambas versiones de la ley, dada la gran similitud entre ambos coeficientes de ajuste.

b313_2Fuente: Scholkmann (2017)

Figura 1. Ajuste de la ley de Titius-Bode a los planetas de TRAPPIST-1

Métodos de detección

Los exoplanetas son planetas que están fuera de nuestro Sistema Solar. Las distancias, por tanto, son casi siempre muy grandes para poder observarlos directamente, por lo que se habla de “detección” en lugar de “observación”. No obstante, existe un buen número de ellos de los que se tiene esa constancia observacional. Así, en la actualidad, y según www.exoplanet.eu, hay 91 planetas pertenecientes a 84 sistemas planetarios diferentes. Esos planetas son generalmente muy masivos (del orden de entre 3 y 79 masas de Júpiter), aunque el rango de distancias es también muy dispar, comenzando desde  los 5.91 pc. La excepción es Kepler-70c y Kepler-70b con masas de 0.0021 y 0.014 masas de Júpiter, respectivamente. Dado que la masa de la Tierra es 0.00315 la masa de Júpiter, ambos exoplanetas tendrían tamaños con cierta similitud al nuestro

Es importante indicar que no todos esos exoplanetas que se agrupan como observados directamente lo son en sentido estricto, sino que algunos de ellos en lugar de observarse se detectan a través de la luz que reflejan de su estrella (Charpinet et al., 2011).

Los planetas de TRAPPIST-1 no fueron detectados por imagen directa, sino que se empleó el método de tránsito primario, que básicamente consiste en medir la variación en el brillo de la estrella cuando un objeto (en este caso un planeta) pasa por delante. A partir de esos datos se puede inferir el radio del exoplaneta, pero no la masa. Tal y como indica Luger (2017), para detectar planetas en tránsito se necesita una precisión fotométrica relativa de 0.1%, y para ello hay que quitar el ruido de las señales producido por la propia instrumentación.

En la Figura 2 se muestra la variación del brillo dela estrella observada por el telescopio Spitzer Space, de la NASA, que opera en el ámbito del infrarrojo, cuando hay tránsito de planetas.

b313_3Fuente: www.nasa.gov

Figura 2. Observaciones del tránsito de exoplanetas en el sistema TRAPPIST-1

Para inferir la masa se ha de emplear el método de variación del tiempo de tránsito, que mide los cambios en el tiempo que tarda un planeta en realizar un tránsito sobre su estrella. Si hay variación en ese tiempo entonces es un indicador de que hay un efecto gravitacional de otros planetas. Así, los investigadores consiguieron estimar la masa de todos los exoplanetas de TRAPPIST-1, excepto la del más lejano: TRAPPIST-1h.

El tránsito primario y la variación del tiempo de tránsito son, de este modo, dos métodos de detección que suelen ir de la mano para completar la detección de exoplanetas. De hecho, según www.exoplanet.eu, 2774 exoplanetas han sido detectados de esta manera, por lo que es, sin duda, la metodología más empleada en este campo de la física.

Esta técnica se suele emplear en conjunción con la espectroscopía de transmisión, para analizar la composición química de las atmósferas de esos exoplanetas. Cuando se produce un tránsito, la luz de la estrella pasa a través de la atmósfera del planeta, y parte de ellas es absorbida por los átomos o moléculas de ésta, haciendo que el radio del planeta parezca mayor en determinadas longitudes de onda. Sin embargo, como explican Rackham, Apai & Giampapa (2017), la espectroscopía de transmisión no está exenta de problemas, principalmente debido a que el espectro medio de la estrella antes del tránsito no tiene por qué coincidir con la luz incidente en la atmósfera planetaria durante el tránsito, es decir, el espectro de cualquier porción pequeña del disco estelar no será idéntico al espectro del disco completo.

Tras el método del tránsito, la siguiente forma de detección por número de exoplanetas encontrados es el método de la velocidad radial, el cual consiste en analizar el cambio en el espectro de luz de la estrella por efecto Doppler (también se llama espectroscopía Doppler). La existencia de planetas orbitando produce un efecto gravitatorio en la estrella. Así, la estrella orbita también sobre el centro de masas del sistema. Si la estrella se desplaza hacia el observador (es decir, hacia nosotros que estamos en la Tierra), se producirá un desplazamiento hacia el azul del espectro de luz (menor longitud de onda), mientras que si se aleja se producirá un desplazamiento hacia el rojo (mayor longitud de onda). La precisión de este método puede ser del orden de 1m/s, pero como indican Feng et al. (2017), se necesitarían precisiones del orden de 10 cm/s para detectar más planetas análogos a la Tierra en zonas habitables de estrellas cercanas. No obstante, el espectrógrafo HARPS, situado en Chile, y pese a tener una precisión por encima de 10 cm/s, sigue produciendo descubrimientos (Cloutier et al., 2017).  Feng, Tuomi & Jones (2017), recientemente, han propuesto el método “Agatha”, que optimiza el sistema de detección de señales con respecto al ruido, como forma de mejorar los datos recogidos por otros sistemas que computan la velocidad radial. Jones et al. (2017), por su parte, proponen emplear los modelos multivariantes gaussianos para incrementar la sensibilidad en la detección.

Este método de la velocidad radial permite estimar las masas de los exoplanetas una vez determinada la masa de la estrella, y según www.exoplanet.eu, hay 739 planetas detectados con este método. La astrometría, que analiza el cambio de posición de una estrella, es desde el punto de vista matemático extremadamente similar al método de la velocidad radial (Gould, 2008). Sólo el exoplaneta HD 176051 b ha sido confirmado usando únicamente astrometría (www.exoplanet.eu).

Al margen de los comentados, existen otros métodos de detección, aunque por el momento con mucho menor uso debido a diferentes factores.

Así, el método basado en el análisis de emisión de radiación electromagnética de un púlsar se restringe únicamente a púlsares, es decir, estrellas de neutrones que emiten radiación periódica en el rango de radiofrecuencia, rayos X y rayos gamma. Como comentan Starovoit & Rodin (2017), los planetas en este tipo de estrellas son un fenómeno raro en comparación con otros miles de planetas descubiertos alrededor de otras estrellas en otras etapas de su evolución. Hasta el momento, sólo 28 exoplanetas han sido detectados por este método (www.exoplanet.eu).

El método de las lentes gravitacionales, por su parte, emplea la relatividad general para detectar la presencia de objetos masivos. cuando la luz que proviene de estrellas distantes se curva en el entorno de esos objetos (Beaulieu et al., 2010). Según www.exoplanet.eu, 65 planetas han sido confirmados por este método.

En suma, los investigadores tienen ante así diferentes metodologías de detección, en ocasiones dependiendo su empleo del tipo de estrella al que se apunte. Incluso a veces se emplean una combinación de varias de ellas, como en el caso de la detección y caracterización del planeta GJ676A b (Sahlmann, 2016). Hemos descrito las que probablemente son las más empleadas, pero existen otras, como por ejemplo la polarimetría (Hough et al., 2006). La mejora de los sistemas de detección permitirá identificar más exoplanetas, tal y como indican Feng, Tuomi & Jones (2017).

La zona de habitabilidad

En cada sistema extra solar detectado se puede estipular una zona de habitabilidad, es decir, un rango de distancias donde los planetas que se encuentran dentro de ese espacio podrían albergar vida. Sin embargo, la estipulación de la zona de habitabilidad, en cuanto a las características que hemos de considerar, está sujeto todavía a discusión. Si a esto unimos la incertidumbre con respecto a los parámetros que describen a los exoplanetas, nos encontramos ante una situación sujeta a múltiples especulaciones.

Yadav (2017) explica de forma sencilla los criterios para considerar zonas habitables. La presencia de agua en estado líquido es la clave para la habitabilidad. De este modo, la luminosidad de la estrella marca el rango de distancias estimadas donde la temperatura de los planetas permitiría encontrar agua en ese estado. En nuestro sistema solar, Venus y Marte tuvieron agua líquida en la superficie en algún momento en el pasado. Ese rango de distancia con respecto al Sol comprende entonces desde los 0.7 UA de Venus hasta los 1.5 UA de Marte. Sin embargo, y como sigue explicando Yadav (2017), que esté en la zona de habitabilidad no significa que sea realmente un planeta habitable.

El motivo de este matiz es que se deben conjuntar otros factores. Yadav (2017) comenta que es importante que exista un mecanismo de estabilización del clima. En la Tierra el ciclo del carbonato-silicato se ha propuesto como ese proceso. Pero ni Venus ni Marte tienen un clima estabilizado por este mecanismo ni tienen una superficie habitable. Venus tiene una temperatura superficial de unos 733 K con un fuerte efecto invernadero, mientras que Marte la tiene demasiado fría (200 K). Por tanto, aunque Venus y Marte estarían en la zona habitable desde un punto de vista de detección de exoplanetas, no serían habitables en realidad.

Además, habría que considerar la presencia de vapor de agua en la atmósfera. Los gases de efecto invernadero son indicadores de habitabilidad. El más importante de ellos es el hidrógeno molecular (H2). Sólo los planetas masivos o muy fríos son capaces de lanzar H2 desde el interior del planeta. Ni Venus, ni la Tierra, ni Marte lo hacen. El H2 es un gas muy potente de efecto invernadero porque absorbe radiación sobre un amplio rango de longitudes de onda, y no se condensa hasta una temperatura relativamente alta y en un rango de presión de 1-100 bar. Esto significa que un planeta puede tener una superficie líquida a una distancia varias veces mayor que un planeta con CO2 en la atmósfera. De este modo, la zona de habitabilidad puede extenderse desde los 0.5 UA hasta los 10 UA sobre una estrella para planetas con H2 en la atmósfera (Yadav, 2017).

Otro importante indicador de vida, concluye Yadav (2017), son los gases con biofirma, es decir, que son producidos por alguna forma de vida. En la Tierra los gases con biofirma más activos son el O2, O3, N2O y CH4. Otros gases con biofirma podrían ser el CH3SH o CH3Cl. Sin embargo, como veremos a continuación, esta caracterización de Yadav (2017) es un tanto incompleta ante la cantidad de incógnitas que nos muestra el sistema de TRAPPIST-1.

Dado que las enanas tipo M constituyen el 75 de las estrellas de la galaxia (Ditmman et al., 2017), los sistemas como TRAPPIST-1 pueden ser muy prevalentes, y de ahí el interés especial en caracterizar su habitabilidad.

Kopparapu et al. (2013) definen de manera muy general la zona habitable como una región alrededor de una estrella en la que un planeta con una masa similar a la Tierra y con una atmósfera con CO2, H2O y N2, pueda tener agua líquida en su superficie. Estos autores indican que, en nuestro sistema solar, los límites para la zona de habitabilidad no estarían entre los 0.5 UA hasta los 10 UA que proponía Yadiv (2017), sino en un rango más estrecho: entre 0.99 UA y 1.70 UA.  El motivo es que esos límites los marcarían la pérdida de agua (límite inferior) y el máximo efecto invernadero (límite superior). El máximo efecto invernadero se refiere a que a partir de ahí el efecto empieza a “fallar” en el sentido de que el dióxido de carbono comienza a condensarse fuera de la atmósfera y entonces la superficie del planeta se hace demasiado fría para albergar agua en estado líquido.

Turbet et al. (2017b) restringen aún más la distancia superior y la bajan a 1.27 -1.40 UA. El motivo es que en planetas similares a la Tierra que orbitan una estrella como el Sol podrían permanecer en estados de glaciación permanente por encima de esas distancias, ya que el dióxido de carbono se condensaría en los polos, formando capas permanentes de hielo, lo que a su vez limitaría el efecto invernadero, y con esto la posibilidad de calentar lo suficiente el planeta para producir el deshielo.

Kopparapu et al. (2013), tras realizar sus cálculos, proponen una caracterización de la habitabilidad en función de la temperatura efectiva de la estrella y de la irradiación o flujo efectivo recibido por el planeta (Figura 3).

b313_4Fuente: Kopparapu et al. (2013).

Figura 3. Caracterización de la zona de habitabilidad

Kopparapu et al. (2013) realizaron esa simulación para estrellas con temperaturas efectivas entre 2600 y 7200 K. Dado que TRAPPIST-1 (descubierto después de la publicación de esa investigación) tiene una temperatura efectiva estimada de 2559 ± 50 K, podríamos ubicarlo justo en el eje de abscisas de la Figura 1 y, por tanto, estipular que serían habitables los planetas que estuvieran en un rango aproximado de 0.8 y 0.2 de irradiación. Así, los planetas TRAPPIST-1e, TRAPPIST-1f, y TRAPPIST-1g, estarían dentro de la zona de habitabilidad (ver Tabla 2 para consultar los datos de irradiación).

Según Quarles et al. (2017), el planeta TRAPPIST-1f sería el menos compatible con la vida, al no tener las características rocosas de los otros, y que puede no tener agua en la superficie. Es probable que el agua líquida sólo exista como nubes en la parte más alta de ese planeta. Quarles et al. (2017) proponen que TRAPPIST-1e es el mejor prospecto para la habitabilidad en el sistema, asumiendo que exista una atmósfera que pueda absorber la alta emisión de rayos X de la estrella. Pero de nuevo los autores admiten que las incertidumbres sobre las masas son grandes. Reducir esa incertidumbre es crucial en el futuro para discernir si se trata de un planeta rocoso al estilo de Mercurio o completamente dominado por el agua.

De este modo, aunque un planeta esté en la zona habitable en función de la irradiación incidente, el poseer características rocosas y la necesidad de tener una atmósfera que sirva como escudo protector de la radiación ionizante de la estrella se muestran como factores fundamentales. Los propios autores del descubrimiento admiten en Guillon et al. (2016) que las propiedades atmosféricas de esos planetas dependen de varios factores desconocidos. No es fácil, por tanto, aseverar la habitabilidad de esos exoplanetas. Es más, existe la posibilidad de que un planeta que esté fuera del rango apropiado de irradiación de la estrella pueda tener agua líquida. Luger et al (2017), explican a este respecto que a TRAPPIST-1h le llega una densidad de potencia de su estrella de 200 W/m2, que está por debajo de los 300 W/m2 que como mínimo se requieren para tener agua líquida en la superficie bajo una atmósfera de CO2, H2O y N2, pero que si la excentricidad de la órbita fuera alta se podría obtener esos 100 W/m2 por acoplamiento. Como indican los autores, no es el caso de TRAPPIST-1h, pero es importante señalar esa idea ya que la excentricidad de las órbitas también puede jugar un papel relevante para considerar habitabilidad.

Pero hay aún otro factor añadido que hay que tener en cuenta, y es la resonancia espín-orbita 1:1 o rotación síncrona. Para el caso de un planeta orbitando una estrella, esta resonancia ocurre cuando ese planeta completa una revolución sobre el astro en el mismo tiempo que su rotación sobre su eje de espín (Antognini, Biasco & Chierchia, 2013). Este hecho (aplicado esta vez a la interacción satélite-planeta) es lo que explica que la Luna muestre siempre la misma cara a la Tierra.

Este tipo de acoplamientos se forman por las llamadas fuerzas de marea, y representan un factor en contra de la habitabilidad del planeta porque hace que haya unas grandes diferencias de temperatura entre ambas caras, lo que a su vez podría provocar importantes vientos. Según Wall (2017), Michael Gillon, el principal autor del descubrimiento del sistema TRAPPIST-1 piensa que aún no está claro que todos esos planetas pueden tener este tipo de acoplamiento, aunque es probable que así sea. No obstante, y en palabras del propio Gillon, incluso en esas condiciones podría haber vida si existe una atmósfera que pueda transportar calor de la cara alumbrada hacia la cara oscura, es decir, paliar parcialmente el gradiente de temperatura en ambos lados del planeta.

En cualquier caso, no hay certeza sobre esa posible rotación síncrona. De hecho, Barnes (2017) indica que para planetas con órbitas circulares es más probable que exista ese acoplamiento, pero a medida que las órbitas se hacen más excéntricas se liberarían o rotarían súper sincrónicamente. Barnes (2017) comparte la idea mostrada en estudios previos de que ese umbral estaría en una excentricidad igual o menor a 0.12, ciertamente muy superior a las encontradas para los planetas de TRAPPIST-1 (ver Tabla 2). Por tanto, esto reforzaría que esos planetas estuvieran en resonancia espín-órbita 1:1.

El calentamiento por marea, es una de las consecuencias de la existencia de esas fuerzas de marea, y puede hacer que los planetas que a priori se consideran habitables no lo sean en realidad. Como los planetas de TRAPPIST-1 tienen excentricidad mayor que cero, se produce un efecto de disipación de calor en su interior, que puede ocasionar evaporación de agua irreversible. Barr, Dobos & Kiss (2017), estimaron la cantidad de calor disipado en los exoplanetas de TRAPPIST-1, indicando que los planetas TRAPPIST-1b y TRAPPIST-1c tendrían demasiado flujo de calor, lo que los convertiría en inhabitables.

El acoplamiento por fuerzas de marea también puede tener un papel importante en la existencia de un campo magnético en los exoplanetas. Al igual que ocurre en la Tierra, el campo magnético es fundamental para proteger el planeta de las partículas cargadas de alta energía del viento de la estrella y también de la radiación electromagnética ionizante y los rayos cósmicos. Dirscoll & Barnes (2015), en su estudio de simulación sobre exoplanetas en enanas tipo M con masas entre 0.1 y 0.6 la masa del Sol, encuentran que ese acoplamiento permite una disipación de energía del manto que hace enfriar el núcleo. Si se produce un súper enfriamiento del núcleo entonces la dinamo que origina el campo magnético dejaría de funcionar, lo que es más probable que ocurra en órbitas excéntricas. Por ejemplo, Marte, con una órbita más excéntrica que la Tierra (0.0934 frente a 0.0167), se enfrió de tal manera hace 4000 millones de años que cesó la actividad de su dinamo magnética. Esto hizo que Marte perdiera su campo magnético y evolucionara de manera muy diferente a nuestro planeta (Michalski, et al., 2017). Cuando esos planetas tienen órbitas circulares, la dinamo funcionaría de manera similar a como lo hace en la Tierra.

La carencia de un campo magnético puede incrementar en más de 3 órdenes de magnitud la incidencia de la radiación en la atmósfera (Grießmeier, et al., 2016a). Las características de esa atmósfera determinarían la dosis de radiación que llegaría a la superficie. Como indican (Grießmeier, et al., 2016b), si la atmósfera es similar a la terrestre la dosis de radiación se incrementa por un factor de dos, mientras que si la atmósfera es más débil el efecto sería mucho más serio, con un aumento de dos órdenes de magnitud de la radiación incidente, con lo que ello supondría para la habitabilidad. Aunque todavía se desconoce la presencia o no de campo magnético para esos planetas, sí que Khodachenko et al. (2007) indicaron que para los planetas acoplados por fuerzas de marea el campo magnético probablemente sería débil.

La que sí que tiene un campo magnético es la propia estrella TRAPPIST-1, estimado en 600 G (Garraffo et al., 2017), lo que podría crear un ambiente tremendamente hostil en los exoplanetas debido a que la presión de los vientos de la estrella estaría entre 103 y 105 veces la que recibe la Tierra del Sol. Además, varios planetas están expuestos a las ondas de Alfvén. Así, las atmósferas de los planetas de TRAPPIST-1 podrían estar mucho más expuestas a la pérdida de gases y a la evaporación. Sin embargo, Dong et al. (2017), tras realizar también simulaciones numéricas, concluyen que los planetas más exteriores de TRAPPIST-1 serían capaces de retener sus atmósferas en una escala temporal de miles de millones de años, pese a la exposición a la erosión por el viento de la estrella. Concretamente, TRAPPIST-1g sería el mejor prospecto (también TRAPPIST-1h pero este planeta tiene otros factores en contra).

Cierto tipo de radiación, como los rayos ultravioletas (UV), es esencial para la vida en determinadas dosis. Las estrellas enanas tipo M, como TRAPPPIST-1, es probable que no irradien lo suficiente a sus planetas en ese rango de longitudes de onda. Como indican Ranjan, Wordsworth & Sasselov (2017), los planetas de enanas tipo M reciben entre 100 y 1000 veces menos flujo UV que lo que recibió la Tierra en sus primeras etapas. Dado que la evidencia reciente sugiere que los rayos UV tuvieron un papel fundamental en el origen del RNA (ácido ribonucleico), los investigadores se preguntan en la actualidad si ese bajo flujo UV es un factor en contra para la vida en esos exoplanetas.

En cualquier caso, y como concluyen Ranjan, Wordsworth & Sasselov (2017), también es posible que las llamaradas transitorias de radiación UV que emiten las enanas tipo M pueda ser suficiente para ese primer empujón a la vida. La composición de la atmósfera sería, entonces, fundamental; una atmósfera similar a la de la Tierra en densidad protegería de los rayos UV haciendo llegar a la superficie un flujo similar al de nuestro planeta. Sin embargo, una atmósfera más erosionada o una atmósfera anóxica (sin oxígeno) haría la vida muy hostil en la superficie, incluso a los organismos extremófilos (O’Malley-James & Kaltenegger, 2017). Pero incluso en una atmósfera que fuera resistente a la erosión y a la radiación ionizante sería difícil que se acumularan significativamente gases de efecto invernadero, como CO2, CH4 o NH3 (Turbet el al., 2017a).

El cómo afectaría a la atmósfera de un exoplaneta los flujos de rayos X y UV extremos en los primeros años de vida de una estrella tipo M podría ser decisivo para la consideración de habitabilidad. Airapetian et al. (2017) postulan que esos flujos de radiación ionizante pueden erosionar la atmósfera, afectando a la eficiencia del efecto invernadero y la dosis de UV que llega la superficie. Además, se perdería oxígeno y nitrógeno de esa atmósfera, lo que haría al exoplaneta inhabitable en varios cientos de millones de años.

Schwieterman et al. (2017) reconocen que la interacción de todos estos factores descritos es muy compleja, y que está sujeta a muchas incertidumbres. Por ejemplo, ciertos gases que son considerados como biofirmas, también pueden ser producidos de manera abiótica, es decir, sin presencia de vida. Así el CH4 que se produce del metabolismo anaerobio microbiano (es decir, a partir de organismos vivos) también puede formarse de manera abiótica por procesos fotoquímicos. Esto hace que se puedan producir falsos positivos, o lo que es lo mismo, que se considere que esas biofirmas provienen de procesos biológicos cuando en realidad no es así. Por eso es importante obtener información de más de uno de esos gases, porque en la medida en que haya más evidencia de la existencia de varios de ellos disminuye la probabilidad de que haya falsos positivos. La existencia de información adicional, como el estudio del límite rojo de cada planeta podría ser crucial para determinar si un planeta produce oxígeno a partir de organismos vivos (vegetación). El límite rojo se refiere al aumento de la reflectividad de la superficie del planeta en las longitudes de onda del infrarrojo cercano, y es un indicador de la existencia de vegetación (Takizawa et al., 2017). En la Tierra, la luz visible es mayoritariamente absorbida por las plantas para producir la fotosíntesis, mientras que en el infrarrojo cercano se dispersa mucha mayor cantidad.

Los estudios sobre potencial habitabilidad a veces también se contradicen. Por ejemplo, si el planeta TRAPPIST-1g sería el mejor prospecto para la vida en investigaciones como las de Dong et al. (2017), TRAPPIST-1e lo sería para Quarles et al. (2017) y Turbet et al. (2017a), y TRAPPIST-1d para Barr, Dobos & Kiss (2017), y Alberti et al. (2017). Estos últimos autores realizan un modelo para simular el clima de los siete exoplanetas sobre diferentes condiciones de efecto invernadero. Sin embargo, y como hemos mencionado con anterioridad, TRAPPIST-1d no estaría en la zona de habitabilidad según el criterio de Kopparapu et al. (2013).

De cualquier modo, si la vida ha germinado en uno de esos planetas de TRAPPIST-1, la probabilidad de su extensión al resto del sistema a través de la panspermia interplanetaria es más alta que, por ejemplo, en el sistema Tierra-Marte. Por tanto, si ha surgido vida en uno de esos planetas, podría haberse extendido a los demás (Lingam & Loeb, 2017).

Finalmente, la evolución de la vida hacia estados más complejos o inteligentes requiere también de una serie de condiciones, no sólo biológicas, sino además geofísicas. (Stevenson & Large, 2017). Así, la diversidad geológica (que se relaciona con el crecimiento del contenido de información del entorno) puede ser un factor determinante para que la vida evolucione hacia formas más complejas. Exoplanetas que combinen placas tectónicas y superficies secas con zonas oceánicas tienen mayor probabilidad de desarrollar vida inteligente.

Conclusión

El descubrimiento del sistema TRAPPIST-1 ha sido uno de los eventos más notables en la búsqueda de exoplanetas en los últimos años, debido esencialmente a que los siete planetas detectados tienen características similares a la Tierra y podrían albergar vida. Esos planetas orbitan alrededor de una estrella enana tipo M, haciéndolo de manera resonante y con acoplamiento por fuerzas de marea.

La combinación de la observación del tránsito en el rango del infrarrojo, y de la variación del tiempo de tránsito han sido claves para caracterizar, respectivamente, el radio y la masa de esos planetas. Con la ayuda también de la espectroscopía de transmisión y de simulaciones numéricas diferentes investigadores están tratando de plantear posibles hipótesis acerca de la composición de la atmósfera, y también para determinar la influencia del campo magnético, el viento y la radiación ionizante de la estrella sobre los planetas.

La búsqueda de exoplanetas y el análisis de su habitabilidad requiere de la mezcolanza de la astrofísica, química, biología y geofísica, en un enfoque interdisciplinar (Kaltenegger et al., 2010). Por ello, es común encontrar estudios con cierto grado de contradicción en sus conclusiones, a falta de más datos y de simulaciones numéricas con nuevos escenarios. Sin embargo, y como hemos visto, un cuerpo importante de investigaciones coincide en considerar a TRAPPIST-1e, TRAPPIST-1f y TRAPPIST-1g como los mejores prospectos de habitabilidad.

La exploración del sistema TRAPPIST-1 continúa, y próximamente se verá impulsada por los nuevos datos que pueda aportar el telescopio espacial James Webb, que previsiblemente se lanzará en 2019. Asimismo, y como indican Del Genio et al. (2017), la caracterización de exoplanetas más cercanos, como Proxima Centauri b también ayudarán a modelizar la habitabilidad del sistema TRAPPIST-1.

Referencias

Airapetian, V. S., et al. (2017). How hospitable are space weather affected habitable zones? The role of ion escape. The Astrophysical Journal Letters, 836, L3, https://doi.org/10.3847/2041-8213/836/1/L

Alberti, T. et al. (2017). Comparative climates of TRAPPIST-1 planetary system: results from a simple climate-vegetation model. The Astrophysical Journal, 844 (1),  https://doi.org/10.3847/1538-4357/aa78a2

Antognini, F., Biasco, L. & Chierchia, K. (2013). The spin–orbit resonances of the Solar system: A mathematical treatment matching physical data. Journal of Nonlinear Science, 24, 473, https://doi.org/10.1007/s00332-014-9196-7

Barnes, R. (2017). Tidal locking of habitable exoplanets. Celestial Mechanics and Dynamical Astronomy, 129, 509, https://doi.org/10.1007/s10569-017-9783-7

Barr, A. C., Dobos, V. & Kiss, L. L. (2017). Interior structures and tidal heating in the TRAPPIST-1 planets. Astronomy & Astrophysics, https://doi.org/10.1051/0004-6361/201731992

Beaulieu, J. P. et al. (2010). From frozen super Earth to habitable Earth via microlensing. International Conference In the Spirit of Lyot. Paris.

Burgasser, A. J. & Mamajek, E. E. (2017). On the age of the TRAPPIST-1 system. The Astrophysical Journal, 845 (2),  https://doi.org/10.3847/1538-4357/aa7fea

Charpinet et al. (2011). A compact system of small planets around a former red-giant star. Nature, 480, 496-499, doi: 10.1038/nature10631

Cloutier, R. et al. (2017). Characterization of the K2-18 multi-planetary system with HARPS. Astronomy & Astrophysics, Aceptado para publicación. https://doi.org/10.1051/0004-6361/201731558

Del Genio, et al. (2017). Habitable climate scenarios for Proxima Centauri b with a dynamic ocean. Astrobioloy, arXiv: 1709.02051  [astro-ph.EP].

Dittman, J. et al. (2017). A temperate rocky super-Earth transiting a nearby cool star. Nature, 544 (760, 33-336, https://doi.org/10.1038/nature22055

Dong, C. et al. (2017). Atmospheric escape from the TRAPPIST-1 planets and implications for habitability. Working Paper, arXiv:1705.05535 [astro-ph.EP].

Driscoll P. E. & Barnes R. (2015). Tidal heating of Earth-like exoplanets around M stars: Thermal, magnetic, and orbital evolutions. Astrobiology, 15 (9), 739-760. https://doi.org/10.1089/ast.2015.1325

Feng, F. et al. (2017). Color difference makes a difference: Four planet candidates around τ Ceti. The Astronomic Journal, 155 (4), 135, https://doi.org/10.3847/1538-3881/aa83b4

Feng, F., Tuomi, M. & Jones, H. R. A. (2017). Agatha: disentangling periodic signals from correlated noise in a periodogram framework. Monthly Notices of the Royal Astronomical Society, 470 (4), 4794–4814, https://doi.org/10.1093/mnras/stx1126

Garraffo, C. et al. (2017). The threatening magnetic and plasma environment of the TRAPPIST-1 planets.  The Astrophyisical Journal Letters, 843 (2), https://doi.org/10.3847/2041-8213/aa79ed

Gillon, M. et al., (2016). Temperate Earth-sized planets transiting a nearby ultracool dwarf star. Nature, 533, 221–224, https://doi.org/10.1038/nature17448

Gillon, M. et al., (2017). Seven temperate terrestrial planets around the nearby ultracool dwarf star TRAPPIST-1. Nature, 542, 456–460, https://doi.org/10.1038/nature21360

Gould, A. (2008). On the difference in statistical behavior between astrometric and radaial-velocity planet detections. Working Paper, arXiv:0807.4323 [astro-ph].

Grießmeier, J. M. et al. (2016a). Galactic cosmic rays on extrasolar Earth-like planets. I. Cosmic ray flux. Atronomy & Astrophysics, 582, A44, https://doi.org/10.1051/0004-6361/201425451

Grießmeier, J. M. et al. (2016b). Galactic cosmic rays on extrasolar Earth-like planets. II. Atmospheric implications. Atronomy & Astrophysics, 587, A159, https://doi.org/10.1051/0004-6361/201425452

Gupta, A. K. et al. (2001). Earth eccentricity cycles and indian summer monsson variability over the past 2 million years: Evience from deep-sea benthic boraminifer. Geophyshical Research Letters, 28 (21), 4131-4134, https://doi.org/10.1029/2001GL013315

Hough, J. H. et al. (2006). PlanetPol: A very high sensitivity polarimeter. Publications of the Astronomical Society of the Pacific, 118, 847, https://doi.org/10.1086/507955.

Huang, C. X. & Bakos, G. A. (2014). Testing the Titius-Bode law predictions for Kepler multiplanet systems. Monthly Notices of the Royal Astronomical Society, 442 (1), 674–681, https://doi.org/10.1093/mnras/stu906

Jones, D. E. et al. (2017). Improving exoplanet detection power: Multivariante gaussian process models for stellar activity. Working Paper, arXiv.org/abs/1711.01318[astro-ph.IM].

Kaltenegger, L. et al. (2010). Deciphering spectral fingerprints of habitable exoplanets. Astrobiology, 10 (1), https://doi.org/10.1089/ast.2009.0381

Khodachenko, M. L. et al. (2007). Coronal mass ejection (CME) activity of low mass M stars as an important factor for the habitability of terrestrial exoplanets. I. CME impact on expected magnetospheres of Earth-like exoplanets in close-in habitable zones. Astrobiology, 7 (1), 167–184. https://doi.org/10.1089/ast.2006.0127

Kopparapu, R. K. et al. (2013). Habitable zones around main sequence stars: new estimates. The Astrophysical Journal, 765 (2), 131, https://doi.org/10.1088/0004-637X/765/2/131

Libert, A. S. & Renner, S. (2013). Detection of Laplace-resonant three-planet systemasfrom transit timing variations. Monthly Notices of the Royal Astronomical Society, 430 (2), 1369–1375, https://doi.org/10.1093/mnras/sts722

Lingam, M. & Loeb, A. (2017). Enhanced interplanetary panspermia in the TRAPPIST-1 system. Proceedings of the National Academy of Sciences, 114 (26), https://doi.org/10.1073/pnas.1703517114 

Luger, R. et al. (2017). A seven-planet resonant chain in TRAPPIST-1. Nature Astronomy, 1, 0129, https://doi.org/10.1038/s41550-017-0129

Mancini, L. (2017). On the relationship between the planetary radius and the equilibrium temperature for transiting exoplanets. International Journal of Modern Physics D, 26, 1741012, https://doi.org/10.1142/S0218271817410127.

Martí, J. G., Giuppone, C. A. & Beaugé, C. (2013). Dynamical analysis of the Gliese-876 Laplace resonance. Monthly Notices of the Royal Astronomical Society, 433 (2),928–934, https://doi.org/10.1093/mnras/stt765

Méndez, A. & Rivera-Valentín, E. G. (2017). The equilibrium temperatura of planets in elliptical orbits. The Astrophysical Journal Letters, 837 (1), https://doi.org/10.3847/2041-8213/aa5f13

Michalski, J. R. et al. (2017). The Martian subsurface as a potential window into the origin of life. Nature Geoscience, 11, 21-16, https://doi.org/10.1038/s41561-017-0015-2

O’Malley-James, J. T. & Kaltenegger, L. (2017). UV Surface habitability of the TRAPPIST-1 system. Monthly Notice of the Royal Astronomical Society, 469 (1), L26-L30, https://doi.org/10.1093/mnrasl/slx047

Papaloizou, J. C. B., Szuszkiewicz, E. & Terquem, C. (2017). The TRAPPIST-1 system: Orbital evolution, tidal dissipation, formation and habitabitiliy. Monthly Notices of the Royal Astronomical Society, Aceptado para publicación, https://doi.org/10.1093/mnras/stx2980

Quarles, B. et al. (2017). Plausible compositions of the seven TRAPPIST-1 planets using long-term dynamical simulations. The Astrophysical Journal Letters, 842 (1), https://doi.org/10.3847/2041-8213/aa74bf

Rackham, B. V. Apai, D. & Giampapa, M. S. (2017). The transit light source ñroblem: False spectral features and incorrect densities for M dwarf transiting planets. Working Paper, arXiv.org/abs/1711.05691[astro-ph].

Ranjan, S. Wordsworth, R. & Sasselov, D. D. (2017). The Surface UV environment on planets orbiting M dwarfs: Implications for prebiotic chemistry and the need for experimental follow-up. The Astrophysical Journal, 843 (2), https://doi.org/10.3847/1538-4357/aa773e

Sahlmann, J. et al. (2016). The mass of planet GJ676A b from ground-based astrometry. Astronomy & Astrophysics, 595, A77, https://doi.org/10.1051/0004-6361/201628854.

Scholkmann, F. (2017). Harmonic orbital resonances and orbital long-range order of the TRAPPIST-1 exoplanetary system. Progress in Physiscs, 13 (2), 125-129.

Schwieterman, E. W. et al. (2017). Exoplanet biosignatures: A review of remotely detectable signs of life. Working Paper.

Starovoit, E. D. & Rodin, A. E. (2017). On the existence of planets around the pulsar PSR B0329+54. Astronomy Reports, 61 (11), 948-953, https://doi.org/10.1134/S1063772917110063.

Steiger, J. H., & Fouladi, R. T. (1992). R2: A computer program in interval estimation, power calculation, and hypothesis testing for the squared multiple correlation. Behavior Research Methods, Instruments, and Computers, 4, 581–582.

Stevenson, D. S. & Large, S. (2017). Evolutionary exobiology: Towards the qualitative assessment of biological potential on exoplanets. International Journal of Astrobiology, https://doi.org/10.1017/S1473550417000349

Takizawa, K. et al (2017). Red-edge position of habitable exoplanets around M-dwarfs. Scientific Reports, 7, https://doi.org/10.1038/s41598-017-07948-5

Tamayo, D. et al. (2017). Convergent migrations renders TRAPPIST-1 long-lived. The Astrophysical Journal Letters, 840 (2), https://doi.org/10.3847/2041-8213/aa70ea

Turbet, M. et al. (2017a). Climate diversity on cool planets around cool stars with a versatile 3-D global climate model: The case of TRAPPIST-1 planets. Working Paper, arXiv:1707.06927 [astro-ph.EP].

Turbet, M. et al. (2017b). CO2 condensation is a serious limit to the deglaciation of Earth-like planets. Earth and Planetary Science Letters, 476, 11-21, https://doi.org/10.1016/j.epsl.2017.07.050

VanLoon, G. W. & Duffy, S. J. (2011). Environmental Chemistry. A global perspective. Third Edition. New York: Oxford University Press.

Varadi, F. (2007). Periodic orbits in the 3:2 orbital resonance and their stability. The Astronomical Journal, 118 (5), https://doi.org/10.1086/301088

Wall, M. (2017, febrero 22). Major Discovery! 7 Earth-Size Alien Planets Circle Nearby Star. Descargado desde: https://www.space.com/35790-seven-earth-size-planets-trappist-1-discovery.html

Weiss, L. M. & Marcy, G. W. (2014). The mass-radius relation for 65 exoplanets smaller tan 4 Earth radii. The Astrophysical Journal Letters, 783 (1), https://doi.org/10.1088/2041-8205/783/1/L6

Yadav, T. (2017). Search for exoplanets: Atmospheres, habitability and detections. Working Paper. Central Michigan University.

Cómo citar este artículo: Martínez, J. A. (2018, febrero 21). El sistema planetario de TRAPPIST-1. Descargado desde www.cienciasinmiedo.es/b313

Todos los posts relacionados




(#310). MÁS ALLÁ DEL REDUCCIONISMO EN BIOLOGÍA

[REVISIÓN DE ARTÍCULO] En este ensayo publicado en Interdisciplina, los autores abogan por hacer efectivo un cambio de paradigma en la biología que se lleva gestando ya varias décadas, pero que todavía domina ciertas áreas, como es el reduccionismo mecanicista de la relación entre genotipo y fenotipo.

Al comenzar el artículo, los autores recuerdan que el progreso científico se consigue desafiando ideas aceptadas, y este debe ser el camino para cambiar la concepción en biología de una relación mecanicista entre los genes y su expresión, cuando los datos empíricos parecen contradecir ese paradigma. Asumir que, encontrando la base molecular de una mutación que está asociada a una determinada condición, podemos intervenir en una futura mutación similar, es reducir demasiado la complejidad de los mecanismos que subyacen a la expresión de los genes.

La asunción determinista de que los genes directamente causan el fenotipo está ya superada por una aproximación sistémica que considera la complejidad inherente a esa relación. E igual de limitado es también que exista un determinismo epigenético. Ese mapeado de uno-a-uno (one-to-one mapping), es fácil de comprender, y sencillo de aceptar, pero no refleja la realidad biológica de la relación entre genotipo y fenotipo.

El dogma central de la biología en entredicho

Francis Crick, en 1958, defendió que la información fluye en este sentido: ADN–>ARN–>Proteínas. Una interpretación explícita del dogma significa que un gen codifica una proteína. Una proteína es una biomolécula que tienen una función, que determina una característica observable de un individuo, es decir, su fenotipo. Hoy sabemos que ese dogma “falla”, o algunos prefieren decir que hay “excepciones”. Así, por ejemplo, en determinados casos el ARN puede producir ADN, y existen más proteínas que genes.

Los humanos tenemos 20389 genes codificantes y más de 25000 genes no codificantes. Esto significa que no todos los genes condifican proteínas. Los autores postulan que probablemente los genes que no codifican proteínas intervienen en la definición del fenotipo a través de la regulación génica y de la especificación del tipo de célula. El número de proteínas en humanos se estima que está entre 50000 y 500000.

La epístasis, la plietropía y la poligenia, son tres fenómenos que ponen el duda el dogma central. El primero se refiere a la interacción entre diferentes genes para expresar un carácter; el segundo alude a que un gen afecta a múltiples características, mientras que el tercero indica que una función puede estar afectada por varios genes. Así, se puede concluir que resultados diferentes pueden ser producidos por un conjunto casi idénticos de genes (el mismo genotipo produce diferente fenotipo), y que la expresión de rasgos virtualmente idénticos puden ser obtenidos usando genotipos extremadamente diferentes.

Implicaciones para diversas industrias

Los autores señalan que la concepción simplista del dogma central de la biología facilita la labor de mercadeo de medicamentos y también de desarrollo de plantas modificadas genéticamente (como por ejemplo resistentes a ciertos pesticidas). Así, es más fácilmente vendible que se tiene una diana a la que apuntar para cambiar el fenotipo, pero no se tiene en cuenta la complejidad de las interacciones que existen y que son inherentes a los sistemas dinámicos.

Es evidente que, en este artículo, los autores simplemente ponen sobre la mesa una idea que para nada es nueva, pero que necesita ser diseminada con mayor amplitud. No dan detalles sobre cómo manejar desde el punto de vista experimental esa complejidad; no obstante, es una llamada de atención a la hora de valorar el desarrollo de la biomedicina y de los transgénicos.

LEE EL ARTÍCULO ORIGINAL AQUÍ:

Dávila-Velderrain, J.& Álvarez-Buylla, E.  (2015).Linear Causation Schemes in Post-genomic Biology: The Subliminal and Convenient One-to-one Genotype-Phenotype Mapping Assumption. Interdisciplina, doi: 10.22201/ceiich.24485705e.2015.5.47627

Indicadores de calidad de la revista*

 

Impact Factor (2016)

Cuartil

Categoría

Thomson-Reuters (JCR)

 

Scimago (SJR)


 

* Es simplemente un indicador aproximado para valorar la calidad de la publicación

Todos los posts relacionados




(#304). CONOCIMIENTO ECOLÓGICO TRADICIONAL COMO PERSPECTIVA AMBIENTAL

[REVISIÓN DE ARTÍCULO] En este breve comentario publicado en Environmental Health Perspectives, el autor realiza una interesante reflexión sobre qué puede aportar el conocimiento ecológico tradicional (TEK, en inglés), como paradigma en el que se integre en la investigación sobre salud ambiental.

El TEK se refiere al conocimiento de las relaciones entre las peronas y el entorno natural que ha sido adquirido durante miles de años. Esa sabiduría no debe desdeñarse por la investigación actual, es más, según el autor, contar con ella ayudaría a plantear nuevas cuestiones y mejorar la interpretación y la validación de los estudios empíricos.

De especial relevancia es el conocimiento de la cultura nativa e indígena, ya que su relación con la naturaleza podría explicar la exposición a ciertos factores de riesgo que hacen que en  Estados Unidos su esperanza de vida sea menor y el desarrollo de ciertas enfermedades tenga una prevalencia mucho más acentuada que el del resto de la población. No obstante, los nativos americanos tienen un grave problema de alcoholismo y enfermedades que tiene una explicación más compleja y más relacionada con temas políticos y sociales.

En cualquier caso, el concepto de “integración” en la “ciencia occidental” puede ser equivocado si se mira desde una visión etnocéntrica, ya que hay otros investigadores que abogan porque ambas perspectivas tengan un peso similar.

Reduccionismo frente a complejidad

Quizá lo más interesante de este artículo es su defensa de las aproximaciones holísticas para enfrentarse a los problemas de salud ambiental, en lugar de las reduccionistas, y ese excesivo énfasis en el paradigma de dosis-respuesta.

Todo está conectado con todo, la complejidad de los sistemas es indiscutible desde el punto de vista biofísico, y las aproximaciones dinámicas y que consideran no linealidad y múltiplies relaciones son necesarias. Así, por ejemplo, enfrentarse a un río contaminado no sólo incrementa el riesgo de desarrollar enfermedades sino que perturba las costumbres y las prácticas culturales, influyendo en las relaciones sociales y en el desarrollo de la comunidad.

Esas cadenas de relaciones, esas cascadas de eventos son casi siempre ignoradas por la investigación reduccionista, que busca mostrar de manera simplista los efectos de una dosis de tóxico sobre el riesgo de enfermedad.

La ruptura de los hábitats naturales, el desplazamiento de los entornos, la contaminación de las tierras y aguas que durante siglos han significado un valor en sí mismo para las comunidades, son cuestiones mucho más complejas para abordar que la mera justificación de que un tóxico no es peligroso a corto plazo si está por debajo de una determinada dosis.

En definitiva, no se trata de difundir ningún conocimiento mágico, sino aprovechar la experiencia como un heurístico, como una poderosa herramienta de “tinkering”, y valorar de manera holística y a largo plazo las consecuencias de agredir al medio ambiente. No es sencillo, pero es necesario para superar el paradigma simplista de la reducción.

LEE EL ARTÍCULO ORIGINAL AQUÍ:

Seltenrich, N. (2018).Traditional Ecological Knowledge: A Different Perspective on Environmental Health. Environmental Health Perspectives, doi: 10.1289/EHP2391

 Indicadores de calidad de la revista*
 

Impact Factor (2016)

Cuartil

Categoría

Thomson-Reuters (JCR)

9.776

Q1

ENVIRONMENTAL SCIENCES

Scimago (SJR)

3.07

Q1

HEALTH, TOXICOLOGY AND MUTAGENESIS

* Es simplemente un indicador aproximado para valorar la calidad de la publicación

Todos los posts relacionados




(#296). ESTRÉS OXIDATIVO ANTE EXPOSICIONES CORTAS A RADIOFRECUENCIA

[REVISIÓN DE ARTÍCULO] En este artículo publicado en el Journal of Environmental Science and Health – Part A, los autores exponen células humanas de neuroblastoma a diferentes emisiones radiofrecuencia, encontrando una mayor susceptibilidad de esas células al estrés oxidativo después de exposiciones a corto plazo.

Se desconoce todavía el mecanismo exacto por el cual la radiación no ionizante de radiofrecuencia puede producir efectos adversos más allá del calentamiento de los tejidos. Los autores son claros con ello. Pero al mismo tiempo postulan que diversas investigaciones han identificado el desarrollo de estrés oxidativo como posible causa. Por ello, se centran analizar las especies reactivas de oxígeno (ROS), que son las precursoras de ese estrés oxidativo.

El objetivo de esta investigación es, por tanto, evaluar elefecto de exposiciones cortas a radiofrecuencia en células de neuroblastoma en relación a parámetros indicativos de estrés oxidativo.

Metodología

Se realizó un experimento in vitro, empleando células cultivadas SH-SY5Y de neuroblastoma. Esas células se expusieron a un campo electromagnético de 1800 MHz, de intensidad 30 V/m, durante 10, 30 y 60 minutos. El SAR promedio fue estimado en 1.6 W/kg, y se creó un grupo de control bajo las mismas condiciones ambientales excepto que no se expuso a la radiación.

Para evaluar el daño oxidativo, los investigadores midieron la concentración de grupos carbonilo en las proteínas de las células. También consideraron el nivel de peroxidación de los lípidos a través de la concentración de malondialdehido (MDA). Finalmente midieron la concentración total de glutatión (GSH), que es un antioxidante de las células que las ayuda a protegerse de los radicales libres y peróxidos, es decir, de las ROS.

Resultados e implicaciones

La concentración de grupos carbonilo se incrementó significativamente tras una exposición de 60 minutos, tal y como se muestra en la figura siguiente.

b296_2En cuanto al MDA, los resultados son similares, tras 60 minutos se producen diferencias significativas.

b296_3Finalmente, la concentración de GSH disminuyó con el tiempo, pero no hay diferencias con respecto al grupo de control. Es más, existe un pico extraño en el grupo expuesto a los 10 minutos, que podría interpretarse en que existe una disrupción a muy corto plazo, pero que los autores tampoco son capaces de clarificar.

b296_4Globalmente, los resultados muestran que la exposición a radiofrecuencia de 1800 MHz incrementa las ROS tras 60 mintuos de exposición, es decir, hay un aumento del estrés oxidativo pese a que es una radiación no ionizante. Recordemos que el estrés oxidativo puede afectar directa e indirectamente al ADN.

Limitaciones/Comentarios

El artículo parte de una buena idea pero le falta concretar más, ya que los resultados deberían de haberse intentado replicar, lo que le hubiera concedido seguramente una robustez y solidez mucho mayor.

En cualquier caso, se muestra una perturbación clara de ROS en exposiciones cortas, lo que de nuevo es otra evidencia más para sumar a las cientos que existen y que demuestran que los efectos de la radiación no ionizante deben considerarse con mucha seriedad.

No obstante, la densidad de potencia es de 30 V/m y el SAR de 1.6 W/Kg. De este modo, podría ser una aproximación a una conversación por teléfono móvil. Esto quiere decir que la densidad de potencia y el SAR son relativamente altos, y no serían trasladables exposiciones más livianas a un Wi-Fi o una antena de telefonía medianamente lejana. Pero claro, es de esperar que cuando se estudian efectos a corto plazo se haga diseñando un estímulo fuerte, como han hecho los autores.

En definitiva, siempre hay que tomar con cautela este tipo de estudios, pero eso no significa que no sean relevantes. Las causas por las que la radiación no ionizante puede causar daño biológico están todavía lejos de ser esclarecidas con detalle. Sin embargo, y mientras tanto, hay evidencias que se acumulan que nos están advirtiendo seriamente.

LEE EL ARTÍCULO ORIGINAL AQUÍ:

Marjanovic, A. M. et al. (2017).Oxidative stress response in SH-SY5Y cells exposed to short-term 1800 MHz radiofrequency radiation. Journal of Environmental Science and Health – Part A, doi: 10.1080/10934529.2017.1383124

Indicadores de calidad de la revista*

 

Impact Factor (2016)

Cuartil

Categoría

Thomson-Reuters (JCR)

1.425

Q3

ENGINEERING, ENVIRONMENTAL

Scimago (SJR)

0.51

Q2

ENVIRONMENTAL ENGINEERING

* Es simplemente un indicador aproximado para valorar la calidad de la publicación

Todos los posts relacionados




(#294). NEUROLOGÍA DE LA MALDAD; PISTAS SOBRE LAS RAÍCES DE LA MALDAD INDIVIDUAL

[MONOTEMA]  Hemos hablado en profundidad en este blog sobre la maldad en el ámbito de la economía, política y negocios, siempre en el contexto de lo que ello significa para el caminar de la ciencia, y el modo de concebir y evaluar el sistema socioeconómico.

Sin embargo, podemos adentrarnos un poco más en ciertos aspectos de este temática, y  hoy lo voy a hacer comentando una interesante obra, “Neurología de la maldad“, de Adolf Tobeña, quien a modo de ensayo, nos muestra las raíces de las mentes predadoras y perversas de una manera ciertamente accesible y certera.

Como es habitual en este tipo de entradas, haré un breve esbozo de lo que considero más destacado del libro, aderezado con algunos comentarios personales, y estableciendo además relaciones con otros contenidos destacados del blog. Por supuesto, esta nota sobre la obra no sustituye en absoluto la necesidad de la lectura pausada del original, un libro que merece la atención debida.

El autor

Como se indica en el libro, Adolf Tobeña es catedrático de psiquiatría en la Universitat Autònoma de Barcelona (UAB), y tiene una dilatada trayectoria en investigación en neurobiología de las emociones.

Ha sido profesor visitante en el Institute of Psychiatry de la University of London y también en las universidades de Groningen, Tel Aviv, Venecia y Córdoba (Argentina). Ha recibido numerosos premios por su labor de investigación y divulgación, y presenta una amplia experiencia en el estudio del tema que nos ocupa; la maldad humana.

Psicopatía y maldad

Tobeña comienza el libro comentando los casos de Anders Breivik y Berdard Madoff, el asesino noruego y el financiero estadounidense, dos personas que ejemplifican la maldad individual de divergentes formas, a través del asesinato y la estafa, respectivamente. Sin embargo, ambos comparten la catalogación de psicópatas.

El autor, por tanto, intenta (con acierto), ilustrar que la psicopatía puede materializarse en diferentes formas de hacer el mal, no sólo la más terrible del asesinato, sino también en formas donde el daño a los demás sea no físico (aunque luego pueda tener consecuencias fatales, como los suicidios de víctimas).

Y son psicópatas porque tienen una conducta antisocial, y no son capaces de empatizar con los demás, tener sentimiento de culpa o percibir ciertas emociones. Hacen daño, y no les importa. Pueden tener también otros rasgos de personalidad (ver la escala Hare), y su prevalencia en la población general está en torno al 1% (aunque este porcentaje se incrementa en ciertos grupos como presos o altos ejecutivos).

Por tanto, la psicopatía es una rareza, sí, pero no por ello la perversión, la transgresión a las normas o los delitos lo son. Así, trata de ilustrar que según han mostrado diferentes investigaciones, existe un porcentaje de personas (aproximadamente un 20-30%) que cumple las normas en cualquier situación, un 40-60% cuyo comportamiento depende del contexto, y un 20-30% que las incumple sistemáticamente. Por tanto, hay el mismo porcentaje de personas que muestra un comportamiento cooperador y prosocial que el que se comporta de manera no cooperadora y antisocial. El contexto puede inclinar la balanza global hacia un lado o hacia otro, pero la idea de que independientemente de la situación siempre va a haber un porcentaje de personas proclives a la corrupción, engaño y conductas amorales parece, tristemente, una realidad.

Genética y entorno

El psicópata nace y se hace, pero fundamentalmente lo primero más que lo segundo. Al menos es lo que se puede interpretar del análisis que hace el autor de ciertos factores genéticos asociados a la psicopatía. Entre ellos está el gen MAO-A, que actúa en la regulación de la serotonina y dopamina a través de la producción de la versión A de la enzima monoamino oxidasa. Esto tiene consencuencias en conductas antisociales, agresivas y violentas.

Las hormonas pueden ser otro factor a considerar. El nivel de testosterona se asocia una mayor dominancia y agresividad, algo que se muestra en los hombres pero también en las mujeres.

Sin embargo, existe interacción entre las características genéticas y las condiciones de exposición al entorno, como haber sufrido malos tratos y otros traumas similares durante la infancia o adolescencia. De este modo, esos factores externos podrían servir como moduladores (potenciadores o inhibidores) de los comportamientos psicopáticos en la edad adulta dirigidos por el factor genético.

En cualquier caso, en este sentido Tobeña muestra que la psicopatía tiene un carácter en muchos casos “familiar”, que puede persistir durante generaciones.

Necesidad de normas

Ya comentamos las tesis de Hobbes sobre la naturaleza humana y la necesidad de normas que restrinjan la posibilidad de que unos ejerzan el poder y la dominación impunemente sobre otros. En este sentido, una “mano invisible” que regule (como defiende la tesis neoliberal) es una total irresponsabilidad, porque en ese entorno la maldad consigue encontrar el mejor escenario para actuar y reproducirse.

El autor comenta diversas evidencias acerca del efecto de la vigilancia para evitar conductas antisociales, a través de las leyes, la policía e incluso la religión (con esa versión del dios castigador que hace reprimir ciertos comportamientos). Tobeña es claro en apostillar que es evidente que estas consideraciones no siignifican que se deba degenerar en un estado policial y de privación de algunas libertades básicas, pero sí que argumenta que estipular límites a ciertas conductas y establecer un sistema eficiente de vigilancia sobre ellas contribuye a su disminución.

Quizá cabría preguntarse cuál sería el papel de la educación y la cultura para actuar como auto reguladores en lugar de la amenaza del castigo externo.

Maldad en mujeres

Hay que reconocer la valentía del autor por tocar esta temática de frente, con datos en la mano (aunque quizá faltaría una mayor actualización de los mismos). Tobeña explica que la psicopatía no es ajena a las mujeres, aunque el porcentaje en la población general es ligeramente menor (entre el 0.5 y 1%).

Biológicamente hombres y mujeres difieren, y esta aparente obviedad tiene repercusiones a nivel muscular, hormonal y cerebral. El cerebro de las mujeres está mejor preparado para la empatía, y sus carcaterísticas corporales la hacen desarrollar menos fuerza que los hombres. Esto hace que la forma en la que realizan conductas malvadas sea algo divergente a los hombres, con menos presencia de agresiones violentas y más prevalencia de empleo de herramientas emocionales. Además, y como hemos comentado, el nivel de testosterona en mujeres se vincula con conductas agresivas, y las variaciones hormonales asociadas a su ciclo menstrual también influye en el umbral de irritabilidad.

Todos estos factores hacen que exista una realidad sobre la maldad femenina que está ahí, y que incluso se refleja sobre los datos de violencia doméstica, donde el autor aporta cifras de un ratio de homicidios cometidos por hombre/mujer sobre sus parejas en Estados Unidos de 62/38, frente al 70/30 de España. El autor enfatiza que está clara la descompensación entre este tipo de violencia (los  hombres son claramente más violentos y las mujeres son víctimas más probables), pero destaca que esas cifras distan de la sensación que quizá hay en la opinión pública. En cualquier caso, las referencias sobre esas estadísticas son lejanas en el tiempo (la más actual es de 2004), y convendría una actualización.

Finalmente, Tobeña apunta otro hecho que la investigación ha mostrado en varias ocasiones, pero que también resulta polémico a veces comentar, y es que en mujeres más jóvenes existe una atracción por varones androgénicos (más testosterona, conductas más arriesgadas y dominantes) para establecer relaciones sexuales esporádicas, lo que hace que se incremente la probabilidad del “atractivo del malo”, y que además contribuya al éxito reproductivo del malvado o del psicópata, y la perpetuación de su genética. Sobre este tema, ya hemos escrito en alguna ocasión en este blog, aunque los resultados están abiertos a una amplia discusión.

El autor, reitero, es claro en postular las diferencias entre hombres y mujeres en esta temática, pero no elude mostrar una realidad que también debe ser considerada sobre a la hora de evaluar el problema en su globalidad.

Neuroimagen y leyes

Tobeña presenta de manera amigable las zonas del cerebro que se asocian a conductas antisociales y, cuyas diferencias entre individuos puede explicar divergencias en la propensión a la maldad.

Sin embargo, el autor es prudente al explicar que existe todavía controversia sobre la capacidad de las técnicas de neuroimagen para predecir este tipo de conductas, y que las expectativas sobre su empleo en contenciosos jurídicos son quizá exageradas.

En la actualidad, hay ya casos en los que se ha usado la evidencia proveniente de esas investigaciones para modular las condenas y que determinadas condiciones biológicas actúen como agravante o atenuante en los juicios,  pero siempre como completemento de otras evidencias, por supuesto.

El psicópata suele distinguir entre el bien y el mal, y eso es clave a la hora de establecer la intencionalidad de la conducta delictiva. No obstante, queda un amplio margen en el ámbito del Derecho para discutir en qué medida las diferencia biológicas (por ejemplo genéticas) podrían atenuar las condenas.

Comentarios finales

El hecho de que un porcentaje no trivial de la población (20-30%) sea proclive al engaño, las trampas, la corrupción, la manipulación, en definitiva, a realizar conductas antisociales independientemente del sistema de normas hace que se deba crear precisamente un entorno adecuado para que no tengan la oportunidad de proliferar. La intervención a través de regulaciones y protección frente a estas actividades malvadas dista mucho de la permisividad de la arquitectura del sistema socioeconómico actual, donde los depredadores de cuello blanco encuentran un terreno propicio a la consecución de sus objetivos.

El poder, la dominación, se hacen estentóreas con el dinero, y por tanto el narcisismo dirige uno de sus brazos a la medración social, a la búsqueda de lo material como símbolo del éxito, cueste lo que cueste, caiga quien caiga. De este modo, el rasgo maquiavélico también prolifera en entornos donde la manipulación interpersonal puede producir ascensos en el camino hacia la cima. Narcisismo, maquiavelismo y psicopatía: la triada oscura.

Hay que asumir la maldad como algo intrínseco a algunos seres humanos, o al menos a admitir que existen mecanismos biológicos que explican conductas antisociales. Pero el entrono puede moderar esa predisposición a la maldad, tanto potenciándola como inhibiéndola. Este hecho tiene múltiples implicaciones. Por ejemplo, a mis alumnos de marketing les diría que piensen acerca de cómo se deberían gestionar las ciudades (y cualquier otro espacio público o comercial) frente al vandalismo y otras conductas malvadas; el cuidado de los detalles, la limpieza continua, la ordenación, los diseños estéticos, los olores, las simetrías visuales, etc., todo ello son factores a gestionar que incrementan la probabilidad de una mejor conviencia y de sentir experiencias agradables (podríamos llevar a ese 40-60% de individuos “maleables” a la conducta prosocial), pese a que siempre debamos contar con ese porcentaje de individuos que no atiendan a las normas.

El autor incide en varias ocasiones en el problema individual de N=1, es decir, en el que debemos tomar decisiones sobre una única persona en base a evidencia estadística recogida sobre una muestra amplia de individuos. Es un viejo problema en ciencias sociales, y que aparece, por ejemplo, en litigios por posibles efectos secundarios de vacunas, y en otros múltiples escenarios relacionados con la salud.

El cómo intentar afrontar este problema será objeto de futuros artículos en este blog, pero ahora resulta esencial incidir en que se comprenda que los principios estadísticos no se pueden invalidar por casos individuales. Una evidencia particular no puede invalidar unos principios estadísticos, porque no estamos hablando de leyes deterministas (por ejemplo, el clásico argumento de que fumar no produce cáncer porque tu abuelo fumó dos cajas de cigarrillos al día durante toda su vida y murió de viejo a los 95 años). Esos argumentos no tienen sentido en ciencia, ya que estamos en el terreno de la causalidad probabilística.

Sin embargo, las evidencias circunstanciales tienen un papel importante si se miran de manera inversa. Es decir, y por ejemplo, si existen estudios que indican que tomar un determinado medicamento es seguro a nivel estadístico, eso no quiere decir que no se produzcan efectos adversos individuales causados por ese medicamento, pero que no contribuyen estadísticamente a producir diferencias. Ahora el caso particular puede ser muy relevante para dirimir las responsabilidades jurídicas.

Esta madeja de incertidumbres estadísticas plantean una desafiante cuestión jurídica sobre cómo actuar en el diagnóstico, seguimiento y valoración final de individuos particulares con psicopatía.

Cierro mis comentarios finales con la sensación de haber leído una obra que ciertamente ayuda a enteder la maldad, y propociona claves para poder defendernos frente a ella. Quizá su carácter divulgativo y dirigido a todos los públicos le haga profundizar menos de lo esperado en ciertas áreas que los lectores avanzados quizá demandarían, pero el libro presenta suficientes referencias para que los interesados puedan adentrarse en discusiones más potentes.

Todos los posts relacionados




(#285). CAMPOS ELECTROMAGNÉTICOS ALTERAN EL CANAL IÓNICO DEL CALCIO

[REVISIÓN DE ARTÍCULO] En esta investigación publicada en Brain Research, los autores realizan una simulación para analizar los efectos de los campos electromagnéticos sobre la conducción y la concentración en los canales iónicos del .

Existe evidencia en la literatura sobre enfermedades asociadas a disfunción de los canales iónicos del calcio y del sodio: desórdenes musculares y neuronales, parálisis muscular hipercaliémica, epilepsia con convulsiones febriles, poliquistosis renal, autismo y migrañas.

Recordemos que los canales iónicos son una especie de puertas por las que la célula se comunica con el exterior a través de la membrana fosfolipídica, y donde existen unas proteínas de membrana (canales) que controlan ese intercambio.

Los canales del calcio producen un flujo de un millón de iones por segundo, y pueden elegir entre iones de idéntico radio con una selección basada en la carga. El proceso es básicamente una corriente iónica producida por una diferencia de potencial del orden de miliVoltios entre el exterior y el interior de la membrana. Cuando se abre el canal, la corriente iónica fluye y se produce una despolarización, es decir, un cambio de signo del potencial por una diferencia de concentración iónica entre el interior y el exterior de la célula. Esa corriente es del orden de los picoAmperios.

Como bien indican los autores, existen varios estudios en la literatura que muestran que la exposición a diferentes tipos de campos electromagnéticos activa los canales iónicos del calcio y produce un incremento de esos iones en el interior de la célula. Se cree que esa exposición afecta el gradiente de voltaje entre la membrana,  estimulando la activación del canal.

El objetivo de la investigación es modelar la estructura del canal y modificar los cálculos electrostáticos cuando se introduce el factor externo de un campo electromagnético, con el fin de estudiar la conductancia del canal.

Metodología

Los autores siguieron otros modelos anteriores para realizar su simulación. Así, asignaron la ubicación de cuatro residuos de glutamato detrás de la pared del canal y fueron programados para diseminarse en espiral para determinar la conductividad del canal.

Los iones fueron modelados por medio de Movimiento Browniano, donde tanto la posición como la velocidad de esos iones son simulados mediante la ecuación de Langevin.

En cuanto  a la exposición los autores simulan el efecto de un campo electromagnético de 900 Hz de frecuencia y 7 V/m de amplitud. Se consideró el efecto del campo en las 3 direcciones espaciales. Posteriormente los autores simularon el efecto de un campo con una amplitud de 100 V/m.

Resultados e implicaciones

La conductancia del canal se vió alterada ante la exposición al campo, incrementando la corriente iónica. En el caso de que la fuerza aplicada es en la dirección del eje del canal, el campo empuja a los iones haciendo el tiempo de paso más corto. Cuando la dirección de la fuerza es perpendicular al eje, el campo produce una mejor entrada de los iones en el canal.

Todas las corrientes iónicas se incrementaron ante las diferentes configuraciones del campo, en línea con otras investigaciones que mostraron que, efectivamente, esa corriente se incrementa pero depende de la fuerzam frecuencia y orientación del campo.

Por tanto, campos electromagnéticos no ionizantes producen perturbaciones en los canales iónicos del calcio, incrementando el flujo de iones.

Limitaciones/Comentarios

Artículo difícil de seguir y poco claro en algunos aspectos. Particularmente me deja ciertas dudas en elementos que no acabo de comprender muy bien. Por ejemplo, habla de campos externos pero no de la correspondencia con el campo interno generado dentro de la célula. La correspondencia entre ambos campos viene dada por la conductividad eléctrica del medio, siendo diferente en cada tipo de tejido, y también de la frecuencia.

Es importante advertir que esta investigación realiza una simulación numérica, por lo que no obtiene resultados de una investigación con tejidos reales, por lo que las conclusiones dependen fuertemente de las características del proceso de modelado.

En cualquier caos, si tanto un campo eléctrico como un campo magnético pueden generar campos internos (como así ocurre), la producción de corrientes en el rango de los picoAmperios por los canales iónicos puede perturbar el correcto funcionamiento de las células. Pero se echa mucho de menos una discusión sobre la relación entre los campos eléctricos inducidos y la diferencia de potencial transmembrana.

LEE EL ARTÍCULO ORIGINAL AQUÍ:

Roetker, N. S. et al. (2016).Effects of electromagnetic field exposure on conduction and concentration of voltage gated calcium channels: A Brownian dynamics study. Brain Research, 1646, 560-569.

Indicadores de calidad de la revista*

 

Impact Factor (2016)

Cuartil

Categoría

Thomson-Reuters (JCR)

2.746

Q3

NEUROSCIENCES

Scimago (SJR)

1.26

Q2

MOLECULAR BIOLOGY

* Es simplemente un indicador aproximado para valorar la calidad de la publicación

Todos los posts relacionados