martes, marzo 18, 2008

En la mira de la estrella asesina

La belleza espacial también puede ser mortal.

Guerras extraterrestres
En la década de 1960, los EE.UU. lanzaron un cierto número de satélites sensores de rayos gamma (la serie Vela) a los efectos de monitorear el cumplimiento por parte de la URSS del recientemente firmado Tratado de Prohibición de Pruebas Nucleares. No se detectó ninguna explosión en la atmósfera terrestre, pero en cambio sí se descubrieron rayos gamma provenientes del espacio exterior. Parecía, como algún periódico sensacionalista publicó después, que algunos extraterrestres estaban ocupados en una masiva guerra interestelar.

Observatorio_espacial_Compton

Observatorio Compton de Rayos Gamma

© NASA

De todos modos, como el descubrimiento sí era secreto militar, recién en 1973 la comunidad científica mundial tuvo noticia de estas misteriosas explosiones cósmicas. Pero en esa época todavía no había forma de determinar si esos estallidos se producían en nuestro sistema solar, o en algún otro lugar de la Vía Láctea, o incluso más lejos todavía.

Las propuestas de los investigadores sobre la naturaleza del fenómeno fueron muchísimas, pero hubo que esperar a que se desarrollaran nuevos instrumentos para aclarar la cuestión. Primero, y gracias al Observatorio Espacial Compton de la NASA (puesto en órbita el 15 de abril de 1991), se descubrió que, en promedio, había dos o tres de estos estallidos de rayos gamma al día, y que parecían provenir de todas partes del cielo. Esto casi eliminó como posible lugar de origen a nuestra galaxia, ya que la amplísima mayoría de las estrellas se encuentra en un disco más o menos aplanado, lo que no concordaba con las fuentes observadas.

Sin embargo, la discusión continúo por largo tiempo, con un bando que sostenía que los estallidos (más conocidos por las siglas de su nombre en inglés: GRBs = Gamma Ray Bursts) eran eventos “locales”, como por ejemplo cometas que cayeran en estrellas de neutrones ubicadas en el halo galáctico, y otro que opinaba que eran el producto de la muerte de estrellas masivas (y del consiguiente nacimiento de agujeros negros) que ocurrían en las profundidades del cosmos.

El asunto no fue zanjado hasta que, con el lanzamiento en 1996 del satélite ítalo-alemán Beppo-SAX, el uso combinado de detectores de rayos-X y de rayos gamma demostró que los estallidos de rayos gamma se originaban en galaxias tremendamente lejanas. El más distante, hasta ahora, surgió a 12 800 millones de años-luz de distancia, cuando el universo era muy joven (apenas unos 800 o 900 millones de años de edad).

Las mayores explosiones cósmicas desde el Big Bang

Ahora bien, para que un fenómeno de este tipo pueda ser observable a tanta distancia, debe ser realmente tremendo. La energía liberada en uno de estos estallidos, que duran desde un poco menos de un segundo hasta algunos minutos, equivale a la producida por nuestro Sol a lo largo de toda su vida de diez mil millones de años. De hecho, durante su brevísima existencia rivalizan con la luminosidad de todo el universo. .

extinción_ordovícico-silúrica

Los rayos gamma de un GRB golpean la atmósfera terrestre. Como resultado, el ozono es eliminado y se crea una niebla marrón de dióxido de nitrógeno. Este evento pudo haber disparado una extinción en masa, hace 450 millones de años (representación artística).

© NASA

Por supuesto, estas explosiones descomunales afectan una gran porción del espacio que las rodea. Se ha podido comprobar que, al menos en un caso, sus efectos nocivos se extendieron por más de 5 500 años-luz (un quinto de la distancia que nos separa del centro de nuestra galaxia). La materia que se encuentre dentro de su radio mortal será ionizada, y la vida que pudiera existir allí será eliminada. Por ejemplo, algunos investigadores creen que la extinción masiva Ordovícico-Silúrica que aconteció en nuestro planeta hace unos 450 millones de años y que extinguió a un 70% de todas las especies existentes en esa época, se debió a un estallido de rayos gamma demasiado cercano.

Pero, ¿cuál podría ser la causa de semejantes explosiones? Aunque no todos los detalles están claros, el evento se origina durante el nacimiento de un agujero negro, pero ocurre a menudo las cosas no son sencillas, y siempre encontramos complicaciones en los diferentes escenarios.

Para descubrir los secretos de estos estallidos, nuestros instrumentos no solamente examinan el estallido, sino también (lo que ha resultado ser más importante) el así llamado “post-resplandor”, una emisión en otros longitudes de onda (típicamente rayos-X, pero también en las visibles, por ejemplo) que dura mucho más tiempo (hasta varios meses, en algunas oportunidades) y que proporciona una información valiosísima.

El post-resplandor, emitido cuando la onda de choque de un GRB embiste al medio difuso que lo rodea, puede durar semanas o meses, para luego desaparecer progresivamente.

Los diferentes “sabores” de los GRBs

Uno de los primeros descubrimientos sobre los GRBs fue que se presentaban dos tipos de ellos, los “cortos” (que duran desde algunos milisegundos hasta aproximadamente unos dos segundos) y los “largos” (en general, de más de dos segundos y hasta algunos cientos de segundos de duración).

Los más numerosos entre los detectados hasta ahora son los “largos”, y parecerían ser la emisión colimada (es decir, con dos haces en forma de cono de partículas y fotones que surgen de los polos) producida por el colapso del núcleo de una estrella masiva que se convierte en un agujero negro.

GRB_largo

GRBs de larga duración

Según el modelo colapsar, los GRBs de larga duración se producen cuando una estrella masiva se convierte en agujero negro.

©

Según este modelo, cuando una estrella muy masiva llega al final de su vida, su núcleo colapsa súbitamente para formar un agujero negro, y la liberación de energía resultante destroza a la estrella.

Estas explosiones son bastante comunes, y los científicos las llaman “supernovas”. Pero a diferencia de la mayoría de ellas, que tienden a producir ondas esféricas de explosión, algunas tienen un comportamiento algo diferente. Los investigadores creen que eso puede ser el resultado de que una parte del gas del núcleo no pudo caer hacia el agujero negro por la velocidad de rotación del mismo. Entonces, esos gases forman un “disco de acreción” que rodea al agujero negro como un anillo.

Solamente el gas que se encuentra en el interior del anillo puede caer en espiral hacia el agujero negro, y cuando lo hace, libera enormes cantidades de energía que no tienen lugar adonde escapar, excepto a lo largo del eje del disco. Así se forman dos chorros opuestos que surgen de los polos del agujero negro: los GRBs de larga duración.

GRB_corto

GRBs cortos

Dos objetos muy compactos (estrellas de neutrones o agujeros negros) se fusionan para formar un agujero negro. Como resultado, se emiten dos haces que surgen de los polos: un GRB de corta duración.

©

Por otro lado, los “cortos” serían generados por la fusión de objetos estelares muy compactos (estrellas de neutrones o agujeros negros )que orbitan una alrededor de la otra (imagen superior).

En este modelo, el proceso comienza con dos estrellas muy masivas que componen un sistema binario; en unos 100 millones de años, ambos objetos llegan al final de sus vidas como estrellas y se convierten en estrellas de neutrones (o, incluso, una de ellas puede convertirse en agujero negro). En otros 100 millones de años, ambos objetos van perdiendo energía y se aproximan uno al otro recorriendo órbitas en espiral. Finalmente, entran en colisión y se fusionan, formando un agujero negro. Parte de la energía del estallido es emitida en forma de rayos gamma, un GRB de corta duración.

De todos modos, si bien ambos modelos predicen bastante bien las características de la mayoría de los GRBs, quedan todavía muchos detalles sin resolver, y se han propuesto otros mecanismos para explicarlos.

¿Una destructora de mundos?

En 1998, el Dr. Peter Tuthill de la Universidad de Sydney descubrió una estrella rodeada por una hermosa espiral. Este objeto, conocido como WR 104, se encuentra en la constelación del Sagitario, a unos 8 000 años-luz de nosotros.

WR_104

La nebulosa espiral WR 104

© U.C. Berkeley Space Sciences Laboratory/W.M. Keck Observatory

El nombre proviene de los apellidos de los descubridores de las estrellas de este tipo; las estrellas Wolf-Rayet tienen típicamente una masa veinte veces mayor que la de nuestro Sol, y pueden llegar a ser cien mil veces más luminosas. Son estrellas altamente evolucionadas a partir de progenitores gigantes tipo O (con una masa de hasta 80 Ms) que han perdido buena parte de su masa quedando casi únicamente su núcleo desnudo, y que se encuentran muy cercanas a convertir en supernovas.

La imagen de la espiral era hermosa, aunque presentaba un problema. Estaba compuesta por polvo, por lo que emitía radiación infrarroja. Pero si bien la estrella Wolf-Rayet tenía todos los elementos químicos como para producir polvo, la intensísima radiación de la estrella debía incinerarlo apenas al nacer.

Allí debía haber algo más, y en efecto lo hay. Una estrella tipo OB, bastante grande por sí misma pero que no resulta tan peligrosa como WR 104. El material expulsado por los vientos estelares de la estrella OB se encuentra en un frente de choque con los vientos estelares de la Wolf-Rayet., y en ese punto, bastante lejos de WR 104, el material es comprimido y como la temperatura es relativamente baja, el polvo se puede formar.

Ahora bien, por un lado, WR 104 es como una bomba de tiempo, y su reloj la hará detonar en cualquier momento dentro de un lapso de unos cientos de miles de años. Una supernova que ocurriera a esa distancia sería un hermoso espectáculo lleno de fuego de artificios, pero no nos causaría demasiado daño… si la estrella estuviera sola.

WR_104

Diagrama del sistema binario WR 104

© University of Sydney

El problema con las estrellas de rotación muy rápida es que sus explosiones son probablemente bastante diferentes de la simple onda de choque esférica de sus primas de rotación lenta. Los astrónomos creen que las explosiones supernova de las primeras exhiben un eje preferencial alineado con el eje de rotación de la estrella en cuestión. Cuál es el grado de asimetría y cuánta energía y materia es arrojada en un haz a lo largo del eje, es algo que los científicos todavía están tratando de descifrar.

Pero lo que sí se sabe es que toda esa energía canalizada en un cono de unos 2 a 12 grados de apertura (un estallido de rayos gamma) puede sembrar la destrucción a lo largo de un trayecto considerablemente grande en su recorrido por la galaxia.

La amenaza WR 104

Y eso nos trae a los últimos datos obtenidos con observaciones realizadas con el telescopio Keck. La espiral luce hermosa porque la vemos sobre un plano perpendicular a nuestro punto de vista, es decir que esta ventajosa posición nos pone directamente sobre el eje de rotación de una de las más cercanas candidatas a supernova que conocemos Si hay un eje preferencial en esa explosión, podemos estar en el camino de un abrasador estallido de rayos gamma.

De todos modos, los datos no nos permiten conocer con exactitud si estamos en la orientación precisa. Además, hay muchísima incertidumbre sobre las características de la explosión supernova que sufrirá WR 104. Por si fuera poco, también se desconoce el grado de apertura que podría tener un haz GRB en este caso. Y tampoco tenemos una fecha más o menos precisa para el evento supernova.

Como dice Phil Plait en su blog Bad Astronomy, “el número de variables es demasiado grande, y la confección de modelos es notoriamente difícil… y en definitiva, no sabemos cuándo explotará. No vale la pena perder el sueño con este asunto”.

Claro que… el Dr. Tuthill es uno de los que más sabe sobre WR 104, y como expresa en la página web de la Universidad de Sydney, “yo solía apreciar esta espiral precisamente por sus hermosas formas, pero ahora no puedo evitar la ligera sensación de que es algo asombrosamente parecido a mirar hacia el cañón de un rifle”.

James_Bond

sábado, marzo 08, 2008

Mirando a través de la oscuridad

Comunicado de Prensa ESO PR 06/08.

Científicos de ESO cartografían con gran detalle el interior de nubes interestelares.

Un grupo de astrónomos ha medido la distribución de la masa dentro de un oscuro filamento de una nube molecular con un asombroso nivel de detalle y con una gran profundidad. La medición se basa en un nuevo método que observa la luz difusa en el infrarrojo cercano (el llamado “resplandor nebular”) y se llevó a cabo con el Telescopio de Nueva Tecnología (NTT = New Technology Telescope) de ESO. Asociada con el venidero telescopio VISTA, esta nueva técnica permitirá a los astrónomos comprender mejor las cunas de las estrellas recién nacidas.

ESO PR Photo 06/08

ESO PR Photo 06/08 – Un filamento oscuro en luz difusa

Parte de un filamento en la nube molecular de Corona Australis. Es una imagen compuesta de observaciones en las bandas J, H y K del infrarrojo cercano realizadas con el instrumento SOFI. Las intensidades de las bandas están codificadas con los colores azul, verde y rojo. La saturación gradual de las bandas es visible a través de un cambio de color. Cuando la banda J se satura el color cambia primero a verde y finalmente, en el centro del filamento, el color rojo correspondiente a la banda K se hace más fuerte. En las regiones más saturadas la luminosidad superficial puede ser utilizado únicamente para derivar un límite inferior para la cantidad total de polvo en la línea de visión.

© ESO

Las vastas extensiones entre las estrellas están permeadas por complejos gigantescos de gas frío y polvo que son opacos a la luz visible. Sin embargo, estas son las guarderías futuras de las estrellas que vendrán.

“Uno quisiera tener un conocimiento detallado de los interiores de estas nubes oscuras para comprender mejor cuándo y dónde aparecerán nuevas estrellas”, dice Mika Juvela, autor principal del artículo que informa sobre estos resultados.

Como el polvo de estas nubes bloquea la luz visible, la distribución de la materia dentro de las nubes interestelares puede ser examinada únicamente en forma indirecta. Un método se basa en mediciones de la luz proveniente de estrellas que están localizadas detrás de las nubes [1].

“Este método, aunque bastante útil, se encuentra limitado por el hecho de que el nivel de detalle que se puede obtener depende de la distribución de las estrellas de fondo”, dice el co-autor Paolo Padoan.

En 2006, los astrónomos Padoan, Juvela, y su colega Veli-Matti Pelkonen, propusieron que podrían ser utilizados mapas de luz difusa como otros trazadores de la estructura interna de la nube, un método que debería arrojar más ventajas. La idea es estimar la cantidad de polvo localizada a lo largo de la línea de visión, midiendo la intensidad de la luz difusa.

nebulosa_complejo_Camaleón_I

Nebulosa Camaleón I.

© ESO

Las nubes oscuras son iluminadas débilmente por las estrellas cercanas. Esta luz es difundida por el polvo contenido en las nubes, un efecto denominado “resplandor nebular” por los astrónomos de Harvard Alyssa Goodman y Jonathan Foster. Este efecto es bien conocido por los amantes del cielo, ya que crea en la luz visible algunas piezas de arte maravillosas llamadas “nebulosas de reflexión”. La nebulosa del complejo Camaleón I es un hermoso ejemplo.

Cuando se realizan observaciones en el infrarrojo cercano, el arte se convierte en ciencia. De hecho, la radiación infrarroja cercana puede propagarse mucho más lejos que la luz visible dentro de la nube, y los mapas de luz difusa pueden ser utilizados para calcular la masa del material que se encuentra dentro de ella.

Para comprobar este método y utilizarlo por primera vez para una estimación cuantitativa de la distribución de la masa dentro de una nube, los astrónomos que lo sugirieron originalmente junto a Kalevi Mattila, realizaron observaciones en el infrarrojo cercano de un filamento de la nube Corona Australis [2]. Las mismas se llevaron a cabo en agosto de 2006 con el instrumento SOFI en el NTT de ESO en La Silla, en el desierto chileno de Atacama. El filamento fue observado durante 21 horas.

Sus observaciones confirmaron que el método de difusión proporciona resultados que son tan confiables como el uso de estrellas de fondo, proporcionando a la vez mucho más detalle.

“Ahora podemos obtener imágenes de muy alta resolución de las nubes oscuras, y así estudiar mejor su estructura y su dinámica internas”, dice Juvela. “No solamente el nivel de detalle del mapa resultante deja de depender de la distribución de las estrellas de fondo, sino que también hemos demostrado que aún cuando la densidad de la nube se hace demasiado alta como para ver las estrellas que están detrás, este nuevo método puede ser aplicado todavía”.

“El método presentado y la confirmación de su utilidad permitirá un amplio espectro de estudios del medio interestelar y de la formación estelar dentro de la Vía Láctea e incluso en otras galaxias”, dice el co-autor Mattila.

“Es un resultado importante porque, con los instrumentos actuales y planeados para el infrarrojo cercano, podrán ser cartografiadas con alta resolución grandes áreas nebulares”, agrega Pelkonen. “Por ejemplo, el instrumento VIRCAM del futuro telescopio VISTA de ESO posee un campo visual cientos de veces mayor que el de SOFI. Utilizando nuestro método, probará ser asombrosamente poderoso para el estudio de las guarderías estelares”.

Más información

El informe aparece esta semana en la revista Astronomy & Astrophysics: ”A Corona Australis cloud filament seen in NIR scattered light – I. Comparison with extinction of background stars”, por Mika Juvela, Veli-Matti Pelkonen, Paolo Padoan y Kalevi Mattila. Juvela, Pelkonen y Mattila están asociados con el Observatorio de la Universidad de Helsinki, Finlandia, mientras que Padoan trabaja en la Universidad de California, San Diego, EE.UU.

NOTAS

[1] Cuando la luz de las estrellas de fondo pasa a través de la nube, es absorbida y difundida, con el resultado de que parecen ser más rojas de lo que realmente son.
El efecto es proporcional a la cantidad de material oscurecedor y es, por lo tanto, mayor para las estrellas que están situadas detrás de las partes más densas de la nube. Midiendo el grado de este “enrojecimiento” experimentado por las estrellas vistas a través de diferentes áreas de la nube, es posible cartografiar la distribución del polvo en la nube.
Cuanto más fina sea la red de estrellas de fondo, más detallado será el mapa y mejor será la información sobre la estructura interna de la nube. Y ése es exactamente el problema. Aún las nubes pequeñas son tan opacas que solamente se pueden ver pocas estrellas de fondo a través de ellas.
Únicamente los telescopios más grandes y los instrumentos extremadamente sensibles pueden observar un número suficiente de estrellas como para producir resultados significativos.

[1] Ubicada en la constelación del mismo nombre, la nube molecular de Corona Australis tiene la forma de un cigarro de 45 años-luz de largo. Localizada a unos 500 años-luz de distancia, contiene el equivalente de unos 7 000 soles. En el cielo, esta nube oscura está rodeada por muchas y hermosas “nebulosas de reflexión”.

Telescopio_NTT_en_La_Silla

Telescopio NTT de ESO en La Silla, desierto de Atacama, Chile.

© ESO


= = = = = = = = = = = = = = =
Artículo original: ESO Press Release 06/08.
Título: “Seeing through the Dark”
Fecha: Marzo 07, 2008
Enlace con el artículo original:
aquí
= = = = = = = = = = = = = = =

Una cuestión de clima

Nuestro planeta nació caliente. La Tierra fue formada hace unos 4 500 millones de años por rocas que golpearon tan violentamente unas con otras que se fundieron y se unieron entre sí.

ventila_hidrotermal_Medusa

El robot Jason II examina el conducto hidrotermal Medusa, una chimenea mineral tipo “fumarola negra” que despide agua caliente oscurecida por el hierro. Este conducto está localizado a unos 2 800 metros de profundidad en una sección de la cordillera volcánica que corre por el suelo del océano Pacífico frente a Costa Rica. En estos sistemas hidrotermales pueden encontrarse termófilos viviendo allí.

© Duke University

Hace unos 4 300 millones de años, cuando ya la Tierra había dejado de ser golpeada continuamente por enormes rocas del espacio exterior, el magma se había enfriado y había comenzado a formarse la corteza continental. El vapor de agua atmosférico cayó en forma de lluvia y creó océanos sobre la joven superficie. La vida podría haberse originado no mucho después.

La cálida naturaleza de los primeros días de nuestro planeta parece haberse reflejado en el árbol de la vida; las ramas más antiguas pertenecen a los termófilos, microbios que prosperan a temperaturas de 50ºC o más. Estas formas unicelulares de vida pueden ser encontradas hoy en día viviendo en ventilas volcánicas debajo del mar, o en humeantes géiseres como los del Parque Nacional de Yellowstone.

Pero todavía continúa habiendo dudas sobre la temperatura de la Tierra durante el origen de la vida, y sobre si los termófilos representan realmente la primera vida que apareció sobre nuestro planeta.

Para escudriñar en el pasado, los científicos observan las rocas más antiguas. Estas rocas pueden decirnos cuáles eran los gases que componían la atmósfera y la clase de interacciones químicas que estaban teniendo lugar en el medioambiente. Desafortunadamente, la mayoría de las rocas en nuestro planeta ha sido alterada irremediablemente y su historia ha sido borrada. Las placas tectónicas que componen la corteza del planeta chocan unas con otras para construir montañas y se hunden una debajo de otra para fundirse nuevamente.

Sin embargo, algunas rocas han escapado de este programa de reciclado y entierro debido al azar geográfico. Groenlandia posee las rocas sedimentarias más antiguas, que datan de hace unos 3 800 millones de años. Recientemente, se han descubierto en Canadá rocas que tienen 3 750 millones de años de antigüedad, mientras que Australia y Sud África tienen rocas de 3 500 millones de años.

Las rocas más antiguas son gneisses volcánicos del noroeste de Canadá que tienen 4 000 millones de años de edad, pero las rocas que se formaron debajo de un volcán no pueden decirnos mucho sobre el medioambiente superficial. Las rocas sedimentarias se forman por la lenta acumulación de capas de suelo y esto, junto con los fósiles que quedan atrapados dentro de esas capas, proporcionan una imagen mejor acerca de cómo era el medioambiente.

roca_sedimentaria

Una roca sedimentaria de 3 750 millones de años de antigüedad proveniente del norte de Québec, en Canadá. Las rocas antiguas como ésta pueden proporcionar una ventana al pasado, indicando cómo era el medioambiente de la Tierra.

© University of Chicago

Los científicos están estudiando estas rocas para comprender mejor cómo y cuándo la Tierra comenzó a enfriarse. Sin embargo, el clima es un fenómeno complejo y muchos factores pueden afectarlo. Los científicos que observan los diferentes aspectos del registro rocoso terminan a menudo discrepando sobre el pasado.

Hace 4 000 millones de años el Sol era una estrella joven poco luminosa, así que la Tierra recibía menos radiación solar. La temperatura de un planeta depende, sin embargo, de algo más que de la estrella alrededor de la cual orbita. Nuestro vecino planetario Venus tiene una temperatura superficial que excede los 400ºC. Si bien Venus está más cerca del Sol que la Tierra, la razón principal para este clima tan caliente es la espesa atmósfera de invernadero del planeta que atrapa al calor.

Los modelos teóricos sugieren que la primera atmósfera de la Tierra estaba compuesta por gases de invernadero como el dióxido de carbono, el metano y el vapor de agua, así como por hidrógeno y nitrógeno. Esta densa atmósfera habría hecho que la Tierra tuviera una temperatura abrasadora. Después de este punto, nuestro conocimiento sobre los cambios climáticos que ocurrieron es tan nebuloso como la misma atmósfera.

Algunos científicos, como Norm Sleep de la Universidad de Stanford, piensan que la Tierra primitiva se enfrió rápidamente, una vez que surgió la tectónica. Los minerales carbonatados que se formaron debido a los altos niveles de dióxido de carbono en el agua y en la atmósfera habrían quedado sepultados, quitando de circulación una gran cantidad de carbono, lo que resultó en una atmósfera con menos dióxido de carbono.

Unas proporciones menores de este gas de invernadero habrían producido un enfriamiento rápido, hasta que las temperaturas promediaron unos moderados 30ºC. De hecho, Sleep cree que los niveles primitivos de CO2 eran tan bajos que en varias ocasiones la antigua Tierra se convirtió en una bola de nieve; estaba tan fría que el planeta que el planeta quedaba casi totalmente cubierto por una corteza de hielo.

Tierra_Bola_de_Nieve

La Tierra podría haber sufrido varias fases “bola de nieve”, según algunos científicos. Durante estos períodos, nuestro planeta pudo haber estado cubierta por hasta un kilómetro de hielo.

© Sandy Shipley

Otros científicos, como David Schwartzman de la Universidad de Howard, piensan que la Tierra primitiva permaneció caliente. Schwartzman no cree que la tectónica haya sepultado todo el carbono. En cambio, dice que el dióxido de carbono permaneció siendo un factor climático importante por largo tiempo, manteniendo una Tierra muy caliente hasta hace unos 1 500 millones de años, con temperaturas que en promedio alcanzaban entre 50ºC y 70ºC.

“Había al menos un bar de presión de dióxido de carbono hasta hace unos 2 800 millones de años”, dice Schwartzman. “Esto equivale a unas 10 000 veces el nivel que tenemos ahora”.

Alrededor de esa época, las cianobacterias y otras formas de vida microbiana comenzaron a proliferar y a engullir enormes cantidades de carbono. Entonces el metano, que era producido por algunos de estos florecientes microbios, se convirtió en un gas más dominante. Para entonces, el metano era unas 10 veces menos abundante que el CO2, “pero un poco de metano hace mucho, tal como sabemos por el calentamiento global actual”, dice Schwartzman.

El metano continúo manteniendo caliente a la Tierra hasta hace unos 2 300 millones de años, pero entonces un gas residual producido por las cianobacterias comenzó a tener un gran impacto. Este gas residual era el oxígeno, y se ha estado acumulando por millones de años. El oxígeno reaccionó con el metano, y a medida que los niveles de metano descendieron, también lo hicieron las temperaturas.

Schwartzman opina que ocurrieron breves períodos de enfriamiento durante esa tendencia generalizada al calentamiento. Hubo un período glacial hace unos 2 900 millones de años, y otro hace 2 300 millones de años. Schwartzman acredita ambas glaciaciones al aumento del oxígeno en la atmósfera. Las temperaturas rebotaron después de la primera glaciación, únicamente para experimentar breves pero drásticas caídas en los años posteriores.

cianobacterias

Micrografías fluorescentes de cianobacterias. Estos organismos productores de oxígeno iniciaron el proceso que aumentó la concentración del oxígeno atmosférico de la Tierra.

© Mary Sarcina, University College London.

La tendencia generalizada a un clima cálido finalizó cuando el oxígeno dejó de encontrar elementos para reaccionar y los niveles del oxígeno atmosférico comenzaron a estabilizarse.

Jim Kasting de la Universidad del Estado de Pennsylvania tiene una opinión diferente. En lugar de un escenario con un largo período cálido seguido de un enfriamiento relativamente reciente, o de una temprana e inmediata caída de la temperatura como el escenario de Sleep, Kasting cree que el enfriamiento de la Tierra fue más gradual. Dice que nuestro planeta tempranamente caliente comenzó a enfriarse hace unos 4 000 millones de años y que, gracias al enterramiento del carbono por causa de la tectónica, hace unos 2 900 millones de años ya se había enfriado lo suficiente como para desarrollar glaciares.

Los científicos debaten sobre los diferentes indicios de temperaturas pasadas en el registro rocoso. Discuten sobre la proporción de isótopos de oxígeno a través del tiempo geológico, la tasa de enterramiento de la tectónica, la alteración del sílice, el efecto de la biología sobre las tasas de erosión, y varios otros procesos complicados y a menudo interrelacionados que pueden convertir algo tan simple como una roca en un palimpsesto de misterio histórico.

Para los astrobiólogos, la pregunta definitiva sobre el clima inicial de la Tierra es: ¿qué temperatura se necesitó para la aparición de la vida? O, quizás, ¿puede la vida surgir en diferentes regímenes de temperatura? Muchos científicos, incluyendo a Schwartzman, piensan que la vida sobre la Tierra se formó en los conductos hidrotermales ultra-calientes del suelo oceánico. Si bien la naturaleza profundamente enraizada de los termófilos en el árbol de la vida apoya esa idea, algunos científicos hacen notar que la delicada maquinaria de la vida, tales como las proteínas y las moléculas de ADN, a menudo se descomponen con las altas temperaturas. Sleep, mientras tanto, cree que la vida probablemente se originó en condiciones frías, donde los ciclos de congelamiento-descongelamiento crearon el desequilibrio energético necesario. Sin embargo, Kasting opina que probablemente la vida se formó a temperaturas moderadas, después de que la Tierra hubiera recibido toneladas de productos orgánicos complejos a través de impactos meteóricos y cometarios.

Quizás la respuesta sobre la temperatura inicial de la Tierra (y de la vida) se encontrará en la propia vida. En un informe publicado recientemente en la revista Nature, los científicos reconstruyeron proteínas de antiguas bacterias para medir la temperatura de la Tierra a lo largo de las edades. Comparando la sensibilidad al calor de las proteínas reconstruidas, descubrieron que la vida se había desarrollado en un medioambiente cálido a 75ºC hace 3 500 millones de años, y que este medioambiente se enfrió gradualmente hasta los 40ºC hace unos 500 millones de años.

“Estudiando las proteínas codificadas por estos genes primordiales pudimos inferir información sobre las condiciones ambientales de la Tierra primitiva”, dice Eric Gaucher, presidente de investigación científica en la Fundación para la Evolución Molecular Aplicada en Gainesville, Florida, y científico principal del estudio. “Los genes evolucionan para adaptarse a las condiciones ambientales en las que viven los organismos. La resurrección de estos genes extintos hace mucho tiempo nos da la oportunidad de analizar y diseccionar los antiguos entornos que han sido registrados en la secuencia genética. Esencialmente, los genes se comportan como fósiles dinámicos”.

clima_primitivo

= = = = = = = = = = = = = = =
Artículo original en Astrobiology Magazine: “A Question of Climate”
Autor: Leslie Mullen
Fecha: 25, 2008
Enlace con el artículo original:
aquí
= = = = = = = = = = = = = = =

domingo, marzo 02, 2008

Anomalías en sondas espaciales: el problema se complica

Misteriosamente, cinco naves espaciales que sobrevolaron alrededor de la Tierra mostraron inesperados aumentos en su velocidad

Todo comenzó en 1990, cuando la astronave Galileo realizó su sobrevuelo alrededor de la Tierra en su viaje hacia Júpiter (estos sobrevuelos son comunes en las sondas enviadas al espacio; se utilizan para aprovechar la fuerza de gravedad del planeta en cuestión - la Tierra, Júpiter, etc. - para acelerar la nave sin la necesidad de consumir más combustible).

sonda_espacial_Galileo

Sonda Galileo

© NASA

Fue entonces que, al rastrear sus señales para determinar trayectoria y velocidad, los científicos del JPL (Jet Propulsion Laboratory = Laboratorio de Propulsión a Chorro), detectaron que la sonda se estaba alejando a una velocidad ligeramente mayor que la prevista. La diferencia era en realidad muy pequeña, alrededor de una millonésima parte de la velocidad de la nave, pero los instrumentos pudieron establecerla claramente. Una fuerza misteriosa le había dado un diminuto pero inesperado empujón.

Nadie sabía lo que estaba sucediendo. Las posibilidades no eran muchas: o el JPL estaba malinterpretando los datos recibidos, o la nave había sido afectada por una fuerza cósmica desconocida para los científicos, o alguno de los parámetros establecidos por la ciencia actual estaban equivocados.

Ahora, un artículo escrito por John Anderson, un investigador retirado del JPL, y otros cuatro colegas, y que será publicado en el número del 7 de marzo de 2008 en la revista Physical Review Letters intentará acercar a los científicos a una solución para este misterio.

Inicialmente, los científicos del JPL dudaron de que el efecto fuera real y supusieron, en cambio, que la inconsistencia surgía de sus instrumentos. Pero a lo largo de los años siguientes y después de un exhaustivo estudio sobre los equipos y el procedimiento utilizado, no encontraron nada que pudiera explicar esa pequeña diferencia en la velocidad.

Dos años después, Galileo volvió a sobrevolar la Tierra en procura de asistencia gravitacional para su viaje, y los investigadores lo esperaban ansiosamente. Pero esta vez la nave pasó muy cerca de la superficie terrestre, apenas a unos 300 kilómetros sobre ella, y los efectos de la fricción atmosférica impidieron la detección de cualquier cambio minúsculo provocado por el propio sobrevuelo.

nombre

Sonda NEAR

© NASA

Afortunadamente, en los años siguientes otras cuatro astronaves sobrevolaron la Tierra en busca de asistencia gravitacional: NEAR en 1998, Cassini en 1999, y Rosetta y MESSENGER en 2005.

Los datos de Cassini y MESSENGER resultaron ser inútiles, ya que la primera utilizó sus impulsores durante el sobrevuelo, y la última no mostró ningún cambio inesperado debido al suyo.

Pero los datos de Rosetta indicaron una anomalía similar a la de Galileo (confirmada por sus controladores europeos) y, aún mejor, los datos de NEAR mostraron un ejemplo más contundente del problema.

Esto hizo que los científicos se convencieran de que la anomalía se debía a un efecto real del sobrevuelo. Por otro lado, los cálculos de Anderson descartaron que fuera causado por un “arrastre de marco” previsto por la relatividad general, como se había sugerido. Pero entonces, ¿cuál era la causa?

Fue así que llegó un momento, según pensó Anderson, en el cual el asunto había estado sobrevolando al JPL durante años, y nadie había sido capaz de explicarlo”. Sin embargo, el problema no podía ser dejado de lado, ya que la acumulación de datos de otras astronaves lo había confirmado. “Era hora”, pensó, “de decir a la gente que había un problema con los sobrevuelos”. Si el JPL no podía resolverlo, quizás la comunidad científica mundial pudiera llegar a una conclusión.

Como primer paso, Anderson y sus colegas James K. Campbell, James F. Jordan, John E. Ekelund y Jordan Ellis, analizaron durante 18 meses todos los sobrevuelos a la Tierra.

Lograron así determinar que las desviaciones en los valores inicialmente esperados dependían de la diferencia en latitud (declinación) entre las trayectorias de entrada y salida de las astronaves durante el sobrevuelo. Cuanto mayor era la declinación, mayor era la diferencia después del sobrevuelo.

NEAR, por ejemplo, llegó casi en una latitud ecuatorial (20º sur), pero se alejó en una latitud cercana a la polar (72º sur). Según la hipótesis, esta mayor diferencia de declinación daría como resultado una fuerte anomalía, y así resultó ser el caso. La diferencia en su velocidad de alejamiento era de 13 milímetros por segundo, y si bien esto equivalía apenas a una millonésima de la velocidad total de la nave, la precisión de los instrumentos era de 0,1 milímetros por segundo, por lo cual pudo ser establecida claramente.

En cambio MESSENGER, que llegó y partió casi en una misma latitud (31º norte y 32º sur, respectivamente), debería haber sufrido un efecto minúsculo. Y de hecho, en su caso no se pudo detectar ninguna anomalía. Según explicó Anderson, “esta simetría casi perfecta dio como resultado un cambio muy pequeño en la velocidad, en contraste con los otros cinco casos”.

sonda_espacial_MESSENGER

Sonda MESSENGER

© NASA

Por supuesto, una fórmula matemática que pueda predecir el efecto no es lo mismo que explicarlo. Según admitió Anderson, “la fórmula no nos sugiere nada”, pero quizás algún otro científico pueda encontrar una explicación.

Anderson hace notar que esta “anomalía de sobrevuelo” es de alguna forma similar a la “anomalía Pioneer”, pero hay una diferencia importante. La primera afecta la velocidad de la astronave, mientras que la segunda disminuye su aceleración.

De todos modos, hay una similitud a tener en cuenta. “Las Pioneer”, dice Anderson, “al igual que todas las astronaves que sobrevolaron la Tierra, se encuentran en órbitas hiperbólicas”. No es una trayectoria muy común, ya que la amplia mayoría de las astronaves describe trayectorias parabólicas o elipsoidales. ¿Tendrá eso algo que ver? Por el momento, como reconoce Anderson, “me siento humilde y perplejo ante esto”.

Ante una pregunta realizada por Space.com, Anderson dijo que “quedaría muy sorprendido si se hubieran descubierto dos anomalías independientes; sospecho que están conectadas, aunque realmente no lo sé”.

El científico agrega que el hecho de que el efecto resulte más evidente cuanto mayor sea la asimetría con respecto al ecuador “sugiere que la anomalía está relacionada con la rotación de la Tierra”.

Pioneer_10

Pioneer 10, la primera anomalía

© NASA