© Libro N° 9901. Génesis. Gribbin, John. Emancipación. Mayo 14 de 2022.
Título
original: ©
Génesis.
John Gribbin
Versión Original: © Génesis. John Gribbin
Circulación conocimiento libre, Diseño y edición
digital de Versión original de textos:
http://www.librosmaravillosos.com/genesis/index.html
Licencia Creative Commons:
Emancipación
Obrera utiliza una licencia Creative
Commons, puedes copiar, difundir o remezclar nuestro contenido, con la única
condición de citar la fuente.
La
Biblioteca Emancipación Obrera es un medio de difusión cultural sin fronteras,
no obstante los derechos sobre los contenidos publicados pertenecen a sus
respectivos autores y se basa en la circulación del conocimiento libre. Los
Diseños y edición digital en su mayoría corresponden a Versiones originales de
textos. El uso de los mismos son estrictamente educativos y está prohibida
su comercialización.
Autoría-atribución: Respetar la autoría del texto y el nombre de los autores
No comercial: No se puede utilizar este trabajo con fines
comerciales
No derivados: No se puede alterar, modificar o reconstruir este
texto.
Fondo:
https://img.freepik.com/vector-gratis/fondo-formas-hexagono-abstracto-degradado_23-2149120168.jpg?t=st=1651180656~exp=1651181256~hmac=f9230295c6cb9b5c36b02c1c2348abc274d667a36f7895e7a263b5d847a9cc22&w=740
Portada E.O. de Imagen original:
http://www.librosmaravillosos.com/genesis/imagenes/portada.jpg
© Edición, reedición y Colección Biblioteca Emancipación: Guillermo Molina
Miranda
LEAMOS SIN RESERVAS,
ANALICEMOS SIN PEREZA Y SOMETAMOS A CRÍTICA TODA LA CULTURA
John
Gribbin
Génesis
John
Gribbin
CONTENIDO
Agradecimientos
Introducción
I. El origen del universo
II. El origen de nuestra galaxia
III. El origen de nuestro sistema solar
IV. El origen de la tierra
V. El origen de la vida
VI. El origen de las especies
VII. Los orígenes de la diversidad
VIII. Orígenes humanos
IX. Destinos
Apéndice A: La edad del universo
Apéndice B: Crecimiento y límites
Para Jo y Ben, que pudieran verse un día trabajando en la próxima
película sobre el mundo
Agradecimientos
Este es el libro que siempre quise escribir, incluso antes de saber que
deseaba escribir libros, pudiéndose pues considerar toda mi vida como un
aprendizaje que me ha llevado a elaborar la obra que tienen en sus manos. Por
ese motivo, pudiera decirse que todo aquél a quien haya dirigido una pregunta
(o sea, todos con quienes he topado) se merece mi agradecimiento por haber
contribuido a incrementar mis conocimientos. Pienso especialmente en mis
padres, que pudieran haber sofocado mis primeras muestras de curiosidad de
haber sido menos comprensivos y haberme ayudado menos, y también en los libros
de George Gamow y los programas de televisión de Jacob Bronowski cuyo impacto
recibí a una edad en que es impresionable (sí, ya teníamos televisión
entonces). Ya bastante adelante en la vida, aclaré la duda de lo que se podía
hacer con un título de física cuando descubrí la posibilidad de proseguir
estudios de cosmología —el estudio del Universo. También fue decisivo conocer a
Bill McCrea, que dirigía el Centro de Astronomía de la Universidad de Sussex,
pues fue él quien inspiró la fascinación que yo seguiría sintiendo por «el
principio». En la Universidad de Cambridge, John Faulkner fue el primer
profesor de universidad con quien yo trabajara que compartiera mi idea de que
la ciencia había de ser algo divertido, lo cual resulta desafortunadamente tan
poco frecuente en los círculos universitarios que vale la pena señalarlo.
Durante más de diez años, me he ido manteniendo más o menos al corriente de los
hechos relacionados con la cosmología, a pesar de haberme dedicado a otros
temas, gracias sobre todo a la buena disposición de Martin Rees para comentar
conmigo los últimos avances o, durante estos últimos años, para dirigirme a sus
colegas del Instituto de Astronomía de Cambridge, donde ha adquirido tal
notoriedad que no pueden sino ceder a sus «indicaciones» de que hablen conmigo
(lo cual, por supuesto, hacen siempre de buena gana, y me sirve de gran ayuda:
doy las gracias, en particular, a David Hanes, Simón White y Michael Fall).
Aunque me empecé a interesar por la teoría actual sobre la tectónica de
placas, sobre todo compartiendo una computadora con un grupo de trabajo de
geofísica en Cambridge, no fue sino hasta trabajar para la publicación
científica Nature, a principios de los años setenta, cuando descubrí que me
hallaba ante una nueva teoría revolucionaria. Aunque mi cultura geofísica sea
un tanto peculiar por haber aprendido en primer lugar los últimos avances, y
haber retrocedido en los conocimientos, eso no ha supuesto para mí impedimento
alguno. En esa educación hacia atrás me han ayudado mucho, en repetidas
ocasiones, Dan McKenzie, en Cambridge, y Peter Smith, en la Open University.
También trabajando en Nature tuve la oportunidad de descubrir los nuevos
avances que existían en la investigación de los cambios climáticos. Para
ampliar mis conocimientos sobre las «ciencias de la Tierra», desde el suelo
hasta la atmósfera, conseguí, durante varios años, extraer valiosos
conocimientos de Hubert Lamb y Michael Kelly, de la Universidad de East Anglia,
y de Stephen Schneider y sus colegas del Centro Nacional Norteamericano de
Investigación de la Atmósfera.
No obstante, todo esto tan sólo representa aproximadamente la mitad del
libro, mientras que la parte más fascinante de mi estudio, durante los últimos
años, ha sido la oportunidad, finalmente, de ir recogiendo información sobre la
naturaleza, el origen y la evolución de la vida en la Tierra. La magnífica
serie de televisión de David Attenborough me encauzó por ese camino al renovar
en mí el interés que antes albergara por esos temas. Pero este tipo de
programas hace que surjan inevitablemente tantos interrogantes como datos se
dan a conocer, y me hubiera encontrado desatendido en mi esfuerzo por
adentrarme en el tema de no haber contado con la colaboración de Roger Lewin
(ahora en Science) y Jeremy Cherfas (ahora, en la Universidad de Oxford) en el
New Scientist. La perspectiva de haber descubierto un área de conocimientos,
nueva para mí, tan extensa —lo muestra este libro— como la suma de todas las
abordadas hasta ahora, hace que sea la suya la mayor contribución reciente a mi
programa de perfeccionamiento autodidacta, y prometo (¿o suena a amenaza?)
seguir extrayendo mucho más material de ese filón.
Individualmente, quien más me ha ayudado en esta obra, en particular, ha
sido mi mujer, una investigadora con una habilidad especial para compilar, por
una parte, todo el material necesario (ya sean libros, artículos, etc...) para
que yo pudiera escribir, y que, por otra, me avisa, imparcialmente, y sin
temor, si algún pasaje de mi texto no se entiende claramente. Sin ella, me
hubiera sido imposible llevar a cabo esta obra.
Gracias, pues, a Lilla, Bill, George, Jacob. Bill. John, Martin, Dan,
Peter, Hubert, Mick, Steve, David. Roger, Jeremy, y especialmente a Min; los
errores, como suele decirse, se me tendrán que achacar exclusivamente a mí.
Lo más incomprensible del Universo es que sea comprensible
ALBERT EINSTEIN
Introducción
La pregunta “¿de dónde venimos?” es la más profunda que se puede
formular, y la capacidad de plantearla es un criterio como cualquiera de los
que se usan para distinguir entre especies inteligentes y especies que no lo
son. Esta curiosidad se hace extensiva a nuestro entorno inmediato, puesto que
los orígenes del hombre no pueden considerarse de manera aislada, sino sólo
como parte de un misterio mayor que engloba los orígenes de la vida en la
Tierra y el lugar de ésta en el Universo de estrellas y galaxias que vemos a
nuestro alrededor. Un oso, por ejemplo, puede tener un interés natural en el
hecho de que las abejas hagan miel y aniden en los árboles, pero hasta donde
sabemos, el oso no medita acerca del misterio de por qué las abejas anidan en
los árboles, ni especula sobre el origen de las celdillas hexagonales de que se
compone el panal. Una característica distintiva de la vida humana, en lo que
concierne a la vida en la Tierra, es preguntarse sobre el dónde y el cómo de
nuestros orígenes y entorno, así como también (con bastante menos éxito) por qué el
Universo tiene que ser de la manera que es.
En este libro he tratado de proporcionar una imagen global, destinada a
un lector sin conocimientos científicos, de la respuesta más moderna y
científica a la pregunta “¿de dónde venimos?”. Dado que la historia de la vida
en la Tierra no puede separarse ni de la historia de la Tierra como planeta ni
de la historia de nuestro Sol, del que dependemos para la luz y el calor, como
estrella, una visión general tiene que extenderse por muchas disciplinas
científicas y abarcar vastas dimensiones de espacio y de tiempo. Y puesto que
la historia del Sol y de la Tierra depende de la naturaleza de la Galaxia de
estrellas que nos rodea (la Vía Láctea) y del propio Universo, me parece
oportuno empezar la historia desde el comienzo de éste, desde el Big
Bang de la creación, que ocurrió hace unos 15.000 millones de años.
Esto sólo ha sido posible gracias a los cambios revolucionarios que se
han producido durante las dos últimas décadas en nuestro conocimiento sobre la
Tierra y el Universo en general (y no fue lo menos importante el descubrimiento
de que realmente había un comienzo definido para todo) y a los espectaculares
avances en el estudio de los orígenes y evolución del hombre, con el
descubrimiento de restos fósiles en el este de África y nuevos progresos en
biología molecular, que se han combinado para cambiar la opinión establecida
acerca de cómo hemos llegado a ser como somos de un modo más significativo que
en cualquier otra época desde que Darwin diera a conocer sus ideas sobre la
evolución. El resultado de todos estos cambios es que ha surgido una nueva
imagen, tanto de la humanidad como del Universo en el cual vivimos. Pero
demasiado a menudo, por desgracia, las diferentes partes de que se compone esta
imagen han permanecido separadas. La ciencia se ha hecho tan especializada y
dividida en compartimentos, con tanta cantidad de información para cada
especialidad, que un antropólogo, pongamos por caso, puede que no sepa nada de
astronomía, aparte de lo que aprendió en la escuela (que ahora podría estar
perfectamente superado), mientras que un cosmólogo puede no saber más sobre la
evolución humana que los datos que ha recogido del último programa de
televisión.
Por supuesto que hay excepciones, y es posible encontrar un astrónomo,
Carl Sagan, que escribe sobre la evolución de la inteligencia humana. Pero lo
que la especialización tiende a encubrir es la manera de que todos los hilos
puedan entretejerse en una imagen conjunta de la humanidad, de la Tierra y de
nuestro lugar en el Universo. La integridad de la imagen resultante es, con
toda seguridad, tan significativa como el detalle de cualquier parte del todo,
y sugiere que realmente tenemos una buena comprensión de lo que sucede en el
Universo y cómo hemos llegado a ser de la manera que somos. Pero hay que hacer
una advertencia. Esta imagen es la mejor que tenemos, y parece más completa que
nunca. No obstante, es improbable que sea la definitiva. A finales del siglo
XIX, muchos científicos creyeron que ya se habían realizado todos los grandes
descubrimientos y que la tarea que quedaba era simplemente poner los puntos
sobre las íes de la ciencia. Conocían la naturaleza de los elementos químicos,
el modelo de “bola de billar” de los átomos les parecía satisfactorio, y así
sucesivamente. Pero ya a principios del siglo XX, esta cómoda imagen fue
desmontada por la teoría de la relatividad, por las ideas de la mecánica
cuántica y, más tarde, por el descubrimiento de que las partículas atómicas
supuestamente “elementales” escondían la existencia de complejas jerarquías de
otras partículas elementales.
Es muy posible que nuestra imagen actual del Universo, aparentemente
completa, no signifique una comprensión definitiva, sino el final de otra fase
del desarrollo científico, comparable con la imagen de la ciencia de finales
del siglo pasado. De todas formas, es la mejor imagen que nunca hemos tenido de
cómo son las cosas, y aunque todo vuelva a cambiar en el transcurso de los
próximos diez años, puede que todavía sea interesante saber cuál era la
situación a principios de los años ochenta. Por lo menos mi historia quizá
sirva de diversión a la próxima generación, al ver nuestras pintorescas y
anticuadas ideas. Una vez tomada la decisión de tratar de explicar el origen de
“la vida, el Universo y todo” [1] en
un volumen, el problema principal fue por dónde empezar. El conocimiento se
desarrolló desde lo más próximo y familiar hacia fuera, y muchos libros de
astronomía siguen aún el esquema tradicional, y pasan de nuestro hogar aquí en
la Tierra, al Sol de que dependemos, para continuar hacia fuera en una escala
cósmica hasta otros planetas del Sistema Solar, otras estrellas de nuestra
Galaxia y el Universo en su conjunto. Este planteamiento es lógico pero está
centrado en la Tierra, que da a entender, sin decirlo explícitamente, que somos
algo especial y ocupamos un lugar especial en el Universo. Y, además, adolece
de otra curiosa distorsión, que es resultado del modo en que vemos el Universo.
La práctica totalidad de la información que tenemos acerca del Universo
en su conjunto nos viene dada por los análisis de las radiaciones
electromagnéticas —luz, ondas de radio, rayos X, o lo que sea—, cada una de las
cuales viaja a la velocidad de la luz, 3×1010 centímetros por
segundo. Aunque sea una gran velocidad (3 seguido de 10 ceros centímetros en un
segundo), el Universo es tan grande que la radiación electromagnética necesita
mucho tiempo para llegar a nosotros desde otras estrellas y galaxias. Incluso
en el caso de una estrella relativamente cercana, su luz tarda años en viajar a
través del espacio y llegar a la Tierra, de manera que vemos la estrella como
era hace años cuando la luz salió de ella. Mucho más lejos en el Universo,
podemos detectar la luz de galaxias tan remotas que las vemos tal como eran
hace millones, cientos de millones o incluso miles de millones de años, por una
luz que ha estado todo este tiempo viajando. Así, en un sentido muy real,
cuanto más lejos escudriñamos en el espacio con nuestros modernos instrumentos
astronómicos, más retrocede en el tiempo nuestra visión.
En realidad, esto es una bendición para los astrónomos, puesto que les
permite verificar algunas de sus ideas acerca de la evolución del Universo por
comparación de las regiones más cercanas con las más lejanas, de hecho, por
comparación de una fotografía reciente del Universo con otra de su juventud.
Pero ello también significa que contar la historia del Universo empezando desde
aquí y ahora en la Tierra, es contarla, en cierto modo, hacia atrás en el
tiempo. Después de tener el atrevimiento de emprender la tarea de contar toda
la historia de los orígenes del hombre y del Universo, me pareció muy justo
hacerlo como se debe y empezar por donde todas las buenas historias empiezan:
por el principio.
JOHN GRIBBIN
Capítulo I
El origen del universo
Contenido:
§. La cosmología moderna y la paradoja de Olbers
§. El Universo que se expande
§. La naturaleza de las galaxias
§. Desplazamientos hacia el rojo y la escala del Universo
§. Microondas cósmicas
§. El Big Bang
§. Materia residual
Al principio, no había nada en absoluto. Ésta es una idea muy difícil de
entender, y una de las que provocan más desconcierto entre mucha gente que ha
oído hablar de la teoría del Big Bang, la creación del Universo,
tal como nosotros la consideramos, a causa de una enorme explosión de materia y
energía. Por nuestra experiencia cotidiana, sabemos qué es una gran explosión:
una concentración de materia que estalla en el espacio exterior, activada por
algún proceso energético. Incluso me da la impresión de que muchos astrónomos
tienen como imagen del Big Bang la explosión de una estrella
(una supernova) ampliada hasta el máximo que su imaginación les permite.
Pero antes del Big Bang de la creación ni siquiera
había un espacio vacío. El espacio y el tiempo, así como la materia y la
energía, fueron creados en esa “explosión”, y no existía ningún “exterior”
donde el Universo pudiera explotar, dado que, aun cuando acababa de nacer y
empezaba su gran expansión, el Universo ya lo contenía todo, incluso todo el
espacio vacío. La nueva y revolucionaria visión del Universo de Einstein,
desarrollada a principios de este siglo, realizó dos cosas. Unificó la materia
y la energía como dos aspectos de un todo mayor, con la implicación de que la
materia puede convertirse en energía en circunstancias adecuadas,
circunstancias que ahora sabemos que se dan en las estrellas y en las bombas
nucleares. Y también unificó el espacio y el tiempo como diferentes aspectos de
otro todo mayor, el espacio-tiempo, un tejido subyacente que proporciona la
estructura básica del Universo, en cuyo seno es transportada la
materia-energía, mucho menos significativa y que establece interacciones con el
espacio-tiempo a través de las fuerzas de gravedad.
Una analogía corriente para representar el Universo en expansión (luego
explicaré cómo sabemos que se expande) viene dada por el ejemplo imaginario de
una hoja elástica de caucho, salpicada de gotas de tinta, que se va estirando
gradualmente. La hoja de caucho representa el espacio-tiempo, lo que solíamos
considerar como espacio vacío. Las gotas de tinta representan concentraciones
de materia, galaxias de estrellas que se separan las unas de las otras a medida
que el “universo” de caucho se expande [2]. Y un
detalle importante de esta analogía es que las galaxias de la hoja de caucho se
apartan unas de otras, imitando la manera en que lo hacen las verdaderas
galaxias en el verdadero Universo, pero no se mueven por el tejido o estructura
del caucho, del mismo modo que las galaxias reales no se mueven por el tejido
del espacio-tiempo.
Todo esto, no obstante, es adelantarse a los acontecimientos. La clave
de la ciencia cosmológica es hoy el descubrimiento de que el Universo
efectivamente se expande, y discutir la naturaleza de esta expansión antes de
presentar la evidencia de que ocurre, es poner el carro delante del caballo.
Pero sí sirve para mi objeto de empezar por el principio, y para dejar claro
que el Big Bang supuso el comienzo de todo. No sólo materia y
energía, haciendo explosión en el vacío, sino el vacío en sí, el espacio. Y no
sólo el espacio, sino también su complemento, el tiempo, la otra faceta del
tejido espacio-tiempo. El paso del tiempo, tal como lo conocemos, también
empezó con el Big Bang; por tanto, puede carecer literalmente de
sentido preguntamos qué pasó “antes” —quizá no hubo ningún “antes”. Pero esto,
como podremos ver, no impide que los cosmólogos especulen sobre lo que pudiera
haber precedido al Big Bang.
§. La cosmología moderna y la paradoja de Olbers
La cosmología teórica —el estudio del origen y la evolución del Universo— dio
comienzo, en su forma moderna, en los años veinte, después de la publicación,
en 1917, de un texto científico de Einstein, en el que se describía cómo las
ecuaciones de la relatividad general podían utilizarse para explicar el
comportamiento del espacio-tiempo a gran escala. La cosmología se desarrolló
realmente entonces, ya que al mismo tiempo se constituyeron los grandes
telescopios modernos, que revelaron por mediciones directas el hecho de la
expansión del Universo. Pero en un sentido estricto, los desarrollos teóricos
llegaron, por lo menos, con un siglo de retraso, por la sencilla razón de que
lo que se conocía en los años veinte del siglo pasado era suficiente para
revelar que el Universo se expande, y si esta interpretación se hubiera llevado
a cabo en aquel tiempo, podríamos tener ahora unas teorías cosmológicas del
siglo XIX muy interesantes, anteriores a la relatividad. De todas formas,
quizás era inevitable que el verdadero progreso sólo pudiera tener lugar cuando
la teoría y la observación trabajaran unidas y apuntaran en la misma dirección.
Aun así, vale la pena echar un vistazo a la evidencia, que no requiere más equipo
de observación que el ojo humano y que es suficiente por sí sola para sugerir
la expansión del Universo, y por tanto para deducir que hubo un Big
Bang de la creación en el que se inició la expansión.
El astrónomo alemán Heinrich Olbers publicó, en 1826, la paradoja que
lleva su nombre, aun cuando no fue el primero en especular sobre el significado
del oscuro cielo nocturno. Hace un par de siglos, las pocas personas que
reflexionaban sobre la naturaleza del Universo aceptaban en su mayoría que éste
debía ser, a gran escala, uniforme, inmutable y estático. Esto se consideraba
más cierto que cualquier otra cosa; la idea de cambio en el Universo
simplemente no estaba de moda. Pero, como Olbers y otros advirtieron, un
universo uniforme, inmutable y estático no encajaba en el hecho de que el cielo
se oscureciera por la noche.
Las “sondas espaciales” de los astrónomos. Observatorios como el de Lick se
hallan situados en las cimas de las montañas, por encima de las nubes.
(Fotografía cortesía del Lick Observatory.)
Esta paradoja puede presentarse tanto en términos sencillos, de sentido
común, como en lenguaje matemático. En términos corrientes, si el Universo es
infinito —si el “arriba” se extiende indefinidamente— y está lleno de estrellas
(o galaxias), entonces, en cualquier dirección que uno mire, debería ver la
brillante y resplandeciente superficie de una estrella. De modo que todo el
cielo de la noche debería ser un resplandor de luz. Las matemáticas dicen lo
mismo, quizá, pero con más fuerza. Para comprender mejor el Universo en su
conjunto (o, en este caso, el estático modelo de universo de Olbers y sus
contemporáneos), podemos fijamos en una parte típica del mismo y luego extender
las características propias de esa parte al todo.
En el interior de las cúpulas, modernos telescopios llevan adosados aparatos
electrónicos para exprimir toda la información posible de la luz que llega a la
"estación final de trabajo". (Fotografía cortesía del Lick
Observatory.)
Desde nuestro punto de vista como terrícolas, una parte típica de lo que
nos rodea en el espacio, suponiendo que lo que nos rodea es lo mismo en todas
direcciones (isótropo), es una delgada y esférica capa de espacio cuyo centro
ocupamos nosotros. El forro de una pelota es una capa esférica alrededor de su
centro; la atmósfera de la Tierra es una capa esférica a una escala mayor, pero
las capas esféricas de nuestro modelo son a una escala todavía mayor y
comprenden enjambres de estrellas y galaxias.
Cuando se requieren fotografías reales del firmamento se utiliza una cámara
especial denominada telescopio de Schmidt. (Fotografía cortesía del Science
Research Council.)
Si imaginamos una típica capa delgada, a una distancia Rde
nosotros, la cantidad de estrellas y galaxias brillantes que contiene será
simplemente la densidad promedio de estrellas y galaxias brillantes que hay en
el Universo multiplicada por el volumen de la capa. Y resulta que el volumen de
esta capa es, sencillamente, su grosor multiplicado por el cuadrado de su
radio: R2.
El gran plato de Jodrell Bank, en Inglaterra, se ha convertido en el símbolo
de la moderna ciencia de la radioastronomía.
Con el supuesto básico de la uniformidad del Universo, aun cuando
algunas de esas estrellas y galaxias sean más brillantes que el promedio, y
otras más mortecinas que el promedio, podemos decir que, aproximadamente, las
brillantes y las mortecinas se compensan, y considerar que todo objeto que
resplandece en la capa en cuestión tiene un brillo promedio.
El brillo o intensidad de la luz de las estrellas y galaxias de la capa
es exactamente el brillo de una estrella o galaxia de término medio
multiplicado por el número de estrellas o galaxias, de manera que el brillo de
la capa también depende de R2.
Pero éste no es el final de la historia. A nosotros, que estamos en el
centro de la capa, la luz se nos aparecerá más débil, del mismo modo que las
luces de una dudad en el horizonte aparecen más débiles que el haz de luz de
una linterna cercana a nosotros. Y sabemos, por haber estudiado el
comportamiento de la luz, que el brillo aparente de un foco es el equivalente
de un brillo real dividido por el cuadrado de su distancia, R2. No
es ninguna coincidencia; la razón de que el mismo factor de conversión que es
pertinente para las capas esféricas reaparezca de nuevo se debe a que la luz se
difunde desde un foco central de manera uniforme en todas direcciones, y llena
una esfera cuyo tamaño crece constantemente. De modo que la misma clase de
números aparecen una vez más.
El ejemplo más simple lo tenemos en dos capas de radio Ry 2R.
La capa más distante contiene cuatro veces más galaxias (número proporcional
a R2), pero cada una de ellas tiene la cuarta parte de brillo de
las galaxias más cercanas (brillo proporcional a 1/R2). De forma
que cada capa contribuye exactamente igual en la cantidad de luz percibida.
La importancia de esto es crucial para la paradoja de Olbers. Por cuanto
que el brillo de cualquier capa de espacio que nos rodea, visto desde la Tierra
en el centro de la capa, es independiente del radio, puesto que R2 compensa
la ecuación. En un universo uniforme, estático e inmutable, cualquier pequeño
volumen alrededor nuestro contribuye al brillo del cielo con la misma cantidad
de luz que cualquier otro. En un Universo infinitamente grande, todas las capas
brillantes por separado se sumarían para producir un cielo infinitamente
brillante, lo cual es claramente un disparate; de ahí la paradoja. Y lo que eso
demuestra es que por lo menos una de las hipótesis de Olbers tiene que estar
equivocada, como descripción del Universo real.
Quizás el Universo sea realmente muy pequeño, con una “frontera”
definida, más allá de la cual no hay más estrellas y galaxias que contribuyan
al brillo del cielo nocturno. Esto resolvería la paradoja; pero con los
modernos telescopios es posible ver a muy larga distancia en el Universo, y
desde luego mucho más lejos de donde debería estar la frontera, si ésta fuera
la verdadera solución de la paradoja. Por otro lado, el Universo podría no ser
igual en todas partes; si las galaxias más lejanas tienen un brillo débil,
entonces poca luz podrá aportar después de todo. Pero ésa es, realmente, la
misma explicación que la anterior, sólo que en lugar de una frontera lo que hay
es una debilitación gradual del brillo, a medida que nos alejamos. Y, también
aquí, podemos ver lo suficientemente lejos para saber que, si bien hay
diferencias entre las galaxias cercanas y las lejanas (ya lo veremos
posteriormente en este mismo capítulo), estas diferencias no son del tipo
adecuado para eliminar la paradoja.
§. El universo que se expande
Eso nos deja una alternativa. El Universo como un todo debe estar cambiando, y
en particular debe estar expandiéndose. En este caso, la luz procedente de
fuentes distantes se debilita no sólo en proporción a R2, sino por
otro factor, que es el de “rellenar” el espacio nuevo que se crea por la
expansión del Universo. Durante el recorrido, la luz es literalmente estirada
hacia longitudes de onda más largas que corresponden al extremo rojo del
espectro óptico: un desplazamiento, o corrimiento, hacia el rojo. Ninguna
energía se ha perdido en el proceso, sino que la energía disponible se ha
extendido y se ha hecho más tenue.
Ahora bien, ésta es una explicación muy nítida de la naturaleza del
Universo real que se basa en unas cuantas observaciones muy sencillas y en un
simple, aunque poderoso, razonamiento teórico para determinar el hecho quizá
más básico de la vida: que el Universo se expande [3].
Curiosamente, sin embargo, ésta no fue la manera como los cosmólogos llegaron a
hacer este descubrimiento. El desplazamiento hacia el rojo en la luz procedente
de galaxias lejanas fue descubierto, para desconcierto de los teóricos, cuando
todavía creían (a pesar de la paradoja de Olbers) que el Universo era
inmutable. Sólo cuando este descubrimiento derribó el castillo de naipes de sus
teorías empezaron a tomarse en serio el modelo de Universo en expansión.
Por lo tanto, la cosmología teórica empezó de verdad, como disciplina
científica, en 1917, cuando Einstein publicó un trabajo en el que demostraba
que las ecuaciones de la relatividad general podían aplicarse a la descripción
del comportamiento del Universo en su conjunto. Lo que las ecuaciones realmente
describen es la geometría del espacio-tiempo, y aunque ya se habían utilizado
con gran éxito para abordar problemas relativamente “locales” (el más famoso de
los cuales quizá fue la predicción de que la luz de una estrella se desvía al
pasar cerca del Sol, efecto que podría observarse durante un eclipse, como así
fue), Einstein quería aplicarlas a la descripción de todo el espacio-tiempo,
del Universo entero. Intentó hacerlo de acuerdo con los conocimientos de aquel
tiempo, que aún sustentaban (¡hace sólo medio siglo!) el modelo de un universo
isotópico, homogéneo y estático. Pero fracasó. Encontró que podía mantener la
isotopía y la homogeneidad sin dificultad, pero aun los modelos más sencillos
construidos con las ecuaciones de la relatividad eran no estáticos. Siempre se
encontró con universos que se expandían o bien que se contraían, pero nunca con
universos que permanecieran quietos. Para hacer que las ecuaciones encajaran
con la clase de universo que los astrónomos creían que existía, Einstein tuvo
que introducir un factor extra, que él llamó “constante cosmológica”. Con
franqueza, hizo una chapuza con las ecuaciones. Y más tarde Einstein tuvo que
reconocer que aquello fue el error científico más grande de su vida.
Pero el motivo de la chapuza pronto desapareció, a pesar de que la
constante cosmológica persistió en la teoría de la cosmología hasta los años
sesenta. Durante los años veinte, tanto la teoría como la observación
cosmológicas empezaron a desarrollarse. La teoría fue mejorada por el físico
ruso Aleksandr Fridman, que desarrolló lo que luego serían las soluciones
estándar de las ecuaciones de Einstein en 1922. Estos modelos de Fridman —que
hasta hoy siguen constituyendo la base de la cosmología matemática— describen
el comportamiento del modelo del universo isotrópico y homogéneo, con
constantes cosmológicas o sin ellas, y distinguen entre dos tipos básicos. La
distinción entre las dos familias de modelos de universo depende sólo de una
propiedad física, de un parámetro: la densidad de materia que presenta el
Universo.
Todos estos modelos (dejando aparte el error de la constante
cosmológica) implican expansión o contracción, o ambas cosas. Una versión muy
rara se inicia con un universo infinitamente grande, con la materia esparcida
de manera muy tenue, y que se concentra hasta llegar a un punto matemático
infinitamente denso, una singularidad. Es evidente que este modelo no
representa el Universo real, que sabemos que se expande, que no se contrae.
Pero las otras dos familias básicas pueden adaptarse a las observaciones que
hacemos del Universo.
Ambas empiezan a partir de una singularidad y se
expanden hasta llegar a estados de menor densidad, que hoy significan galaxias
(o con más exactitud, enjambres o cúmulos de galaxias), que se
separan unas de otras, llevadas del estiramiento del tejido del espacio-tiempo.
Pero, según la cantidad de materia que haya en el Universo, las ecuaciones nos
indican que o bien esta expansión continuará literalmente para siempre, o bien
que la atracción gravitacional de toda la materia puede un día detener la
expansión, y después invertirla hasta el colapso del Universo. Un universo que
experimenta una eterna expansión se denomina, por razones obvias, “abierto”;
igual de obvio es que el nombre genérico de la familia de universos que
desembocan en un colapso gravitacional sea el de “cerrado”. Y puede
establecerse una analogía entre la situación abierta o cerrada de un universo y
la velocidad crítica de escape de un cohete u otro proyectil que parta desde la
Tierra.
A medida que el proyectil trata de salir del campo gravitacional de la
Tierra, pierde energía, lo cual significa que va más despacio. Si lleva la
velocidad suficiente, podrá escapar de la influencia de la gravedad terrestre;
pero si lleva una velocidad menor que la de escape, perderá toda su energía y
caerá de nuevo en la Tierra. En el caso de un planeta de mayor masa que la
Tierra, pero del mismo tamaño, un cohete que parta desde su superficie
necesitará más energía —una velocidad inicial mayor— para escapar. De modo que
la pregunta es:¿ impulsó el Big Bang al Universo que se
expande con un ímpetu inicial suficientemente grande para superar la “velocidad
de escape” correspondiente a toda la masa junta del Universo?[4].
Como ponen en claro los modelos de Fridman, si la densidad de la materia
del Universo es menor que cierta cantidad crítica, entonces el Universo es
abierto y debe expandirse por siempre; es infinitamente grande, y siempre lo ha
sido, incluso inmediatamente después del Big Bang, cuando su
densidad era también muy grande. Pero si la densidad de la materia es hoy mayor
que la cantidad crítica, entonces el Universo es curvado sobre sí mismo y
cerrado —es finito, pero ilimitado—, como la superficie de una esfera. Una
superficie esférica —la superficie de la Tierra, por ejemplo— es finita en
extensión porque tiene una cierta área finita. Pero no tiene límites; si se
viaja por la superficie en línea recta, no se llega al límite del mundo, sino
que, al final, se regresa al lugar desde donde se partió. La diferencia está en
que la superficie de la Tierra es bidimensional, envuelta alrededor de la
tercera dimensión del espacio. El espacio del Universo es tridimensional (y el
espacio-tiempo es cuatridimensional), de manera que para construir un universo
cerrado tiene que haber, en cierto sentido, por lo menos una dimensión “extra”
alrededor de la cual tuviera lugar la curvatura. Estamos, nuevamente, ante un
concepto difícil de entender, a menos que uno sea un matemático, pero el
concepto ahí está. No obstante, cualquier dificultad queda ciertamente
compensada por el hecho de que un universo finito pero sin límites tiene un
tamaño definido, y por tanto no debemos preocupamos por el concepto de
infinito. (Pero hay que tener en cuenta que el tamaño del Universo real es muy
grande, tan grande que, sin la expansión, la paradoja de Olbers sería todavía
aplicable. La diferencia entre “muy grande” e “infinito” puede que no sea
mucha, en términos prácticos, para el lector y para mí, pero aun así hace que
las matemáticas sean más accesibles.)
Un universo cerrado comparte una propiedad importante con una superficie
planetaria: si se viaja en línea recta a través del espacio, se llegará
finalmente al punto de partida, desde el otro lado, después de circunnavegar el
universo entero.
Para nuestro propio Universo, la densidad crítica de materia que sería
suficiente para detener el colapso es ahora de unos 10‒30 gramos
por centímetro cúbico (un punto decimal seguido por 30 ceros antes del 1).
Cuando el Universo era más pequeño, y más denso, se expandía también más
rápidamente (piénsese en el cohete lanzado al espacio y que gradualmente pierde
velocidad), así que esta cifra se refiere al Universo tal y como lo conocemos
ahora, con la tasa de expansión observada. Si lo hubiéramos observado hace
miles de millones de años, habríamos visto un Universo con una expansión más
rápida y con mayor densidad, pero dado que la tasa a la que la expansión
disminuye (el parámetro de deceleración) depende de la densidad de cada momento
(o época) cósmico, si la cantidad de materia que vemos ahora es suficiente para
cerrar el Universo, podemos estar seguros de que el cierre ha estado fijado
permanentemente desde el principio, desde el propio Big Bang.
Las observaciones efectuadas desde el suelo vienen limitadas por la
intensidad con que la radiación penetra la atmósfera de la Tierra. La “ventana”
óptica solamente fue accesible a astrónomos como Hubble, que fue el primero en
desarrollar la relación distancia/desplazamiento hacia el rojo. Y sólo la
“ventana" de las ondas de radio ha proporcionado un nueva imagen del
Universo desde los tiempos de Hubble. Pero al elevar los instrumentos por
encima de las capas oscurecedoras de la atmósfera en globos, cohetes y
satélites, los astrónomos de los años ochenta consiguen hacer observaciones del
Universo en toda la extensión del espectro electromagnético
Una vez los modelos de Fridman mostraron la importancia crítica de la
relación entre el parámetro de deceleración y la densidad del Universo, les
tocó a los observadores realizar los tests vitales: por una parte, tratar de
determinar a qué velocidad se expande el Universo, y por otra, medir, de alguna
manera, la densidad de la materia del Universo, por lo menos en nuestro
alrededor cósmico inmediato. Nada de ello fue fácil, y aunque 10 ‒30 gramos
por centímetro cúbico podría parecer una densidad bastante pequeña, los
cálculos más simples (mediante la conjetura de la masa de una galaxia, la
determinación del número de galaxias que hay en un gran volumen de espacio
próximo a nosotros, y el cálculo de la densidad de la masa a partir de estos
datos) pronto mostraron que el Universo real está situado bastante cerca de la
línea divisoria entre abierto y cerrado, requiriéndose mediciones muy precisas
para determinar con exactitud a qué lado de la línea está realmente.
§. La naturaleza de las galaxias
Las observaciones cruciales que empezaron a revelar que el Universo se expande
se realizaron en la misma década, 1910-1920, en que Einstein comenzaba a
aplicar sus ecuaciones de la relatividad a la descripción del Universo entero.
Pero hasta bien entrados los años veinte no empezó a surgir una comprensión
real de la naturaleza de la expansión, gracias a nuevas observaciones. Todavía
a principios del siglo XX, se creía que nuestra propia Galaxia de la Vía Láctea
—la masa de estrellas que vemos en el cielo nocturno— representaba todo el
Universo. Se descubrieron diversos objetos no estelares (a los que se dio el
nombre de nebulosas), pero en un primer momento se consideró que eran nubes
brillantes de gas situadas entre las estrellas. Algunos, efectivamente,
resultaron ser eso; pero muchos otros eran verdaderas galaxias, grupos de
estrellas como nuestra Vía Láctea, pero tan lejanos que parecían pequeñas
manchas luminosas, incluso en las fotografías tomadas con los modernos telescopios.
Una galaxia, como la nuestra, puede contener miles de millones de
estrellas. Pero en una nueva visión espectacular, el descubrimiento de tantas y
tantas galaxias diseminadas por todo el espacio más allá de la nuestra,
convirtió esta impresionante agrupación de materia en un remanso cósmico. Este
fue, probablemente, el paso más importante para invalidar la antigua idea de
que la Tierra era el centro del Universo. En el transcurso de tres o cuatro
siglos, esta visión antropocéntrica se sustituyó por la idea de que la Tierra
era sólo un insignificante planeta que gira alrededor del Sol, más tarde por el
descubrimiento de que el Sol era una insignificante estrella entre las muchas
que forman la Galaxia, y ahora por la evidencia de que nuestra Galaxia sólo es
una insignificante isla estelar entre las miles de millones diseminadas por el
mar del espacio.
Incluso antes de que se estableciera la naturaleza extra galáctica de
algunas nebulosas, los astrónomos, al estudiar sus espectros, encontraron una
prueba evidente de su movimiento respecto a nosotros. La luz de una estrella
lleva una “firma” característica de los elementos químicos presentes en la
atmósfera de la estrella, en especial hidrógeno y helio. Esta firma reviste la
forma de configuraciones de líneas en el espectro de la luz, configuraciones
que son fácilmente visibles con la ayuda de un espectroscopio, dispositivo que
separa los diferentes colores que componen la luz, que presentan unas
longitudes de onda exactamente definidas y con la singularidad de unas huellas
digitales. No obstante, si un objeto se mueve hacia nosotros, cualquier luz que
recibamos de él nos llega con su longitud de onda comprimida y desplazada hacia
el extremo azul del espectro; en el caso de objetos que se alejan de nosotros,
tiene lugar el efecto opuesto, un desplazamiento hacia el rojo. Por lo tanto,
cuando los astrónomos vieron que la luz procedente de las nebulosas contenía
líneas que se encontraban desplazadas en comparación con las longitudes de onda
en las que las líneas se producían en el laboratorio, dedujeron que las
nebulosas se movían respecto a la Tierra.
Al principio no parecía haber una norma para esos movimientos. Algunas
nebulosas, como la gran nebulosa en espiral de Andrómeda, mostraban
desplazamientos hacia el azul en sus espectros, lo que indicaba que se movían
hacia nosotros. Otras mostraban desplazamientos hacia el rojo, que indicaban
que se alejaban. Pero a medida que se hicieron más y más observaciones, surgió
una norma. En primer lugar, los pioneros de la observación moderna, encabezados
por el norteamericano Edwin Hubble, demostraron que muchas nebulosas eran, en
realidad, verdaderas galaxias, junto a la Vía Láctea. Después, Hubble, casi en
solitario, observó que sólo muy pocas (y cercanas) galaxias mostraban
desplazamientos hacia el azul, y que la mayoría se alejaban de nosotros, con
una velocidad de recesión que aumentaba cuanto más alejadas estaban. Por
último, Hubble formuló la regla, que hoy se conoce como ley de Hubble: el
desplazamiento hacia el rojo de la luz de una galaxia distante es directamente
proporcional a la distancia que la separa de nosotros.
Relación entre desplazamientos hacia el rojo y distancias para las
nebulosas extra galácticas
Los desplazamientos se expresan en forma de velocidades, c dλ/λ. Las flechas
indican desplazamiento por las líneas de C, H y K. Un año luz es igual a 9,4607
billones de km, o sea, 9,4607×1012 km. La clave para determinar
la escala del Universo la proporciona el desplazamiento hacia el rojo. Las
rayas del espectro luminoso procedentes de galaxias lejanas se hallan
desplazadas hacia el extremo rojo del espectro, lo que indica la existencia de
una velocidad de recesión. Esta velocidad es proporcional a la distancia a que
se halla de nosotros la fuente luminosa; de este modo, el desplazamiento hacia
el rojo facilita una medida directa de la distancia a lo largo del Universo. En
estas imágenes, de los Hale Observatories, la doble línea visible en el
espectro, señalada por una flecha, se ve tanto más a la derecha —hacia el rojo—
cuanto más distante se halla la fuente luminosa. (Fotografía de los Hale
Observatories.)
Las observaciones decisivas se hicieron con una serie de grandes
telescopios construidos en montañas de California. El reflector de 15 cm
situado en el monte Wilson, acabado en 1908, era un gigante para aquella época
y fue seguido por otro de 25 cm en el mismo observatorio, en 1917, y por otro
de 50 en monte Palomar, en 1948. Hubble trabajó con todos estos instrumentos y,
de 1919 en adelante, en el observatorio de monte Wilson, demostró en primer
lugar que las nebulosas externas podían resolverse en estrellas (al menos las
más cercanas a nosotros), y después calculó la distancia hasta la galaxia de
Andrómeda (nuestro gran vecino más cercano) y otras.
La medición de las distancias es toda una leyenda, que se desarrolla a
partir de una serie de evidencias. Las mediciones directas sólo pueden
realizarse en el caso de las estrellas más cercanas, y mediante técnicas que
dependen de la manera en que parecen moverse alrededor del cielo, al moverse la
Tierra alrededor del Sol en su órbita; se trata de efectos de paralaje, algo
parecido a la manera en que los postes del alumbrado, vistos desde la ventana
de un vehículo en marcha, parece que se muevan rápidamente y, en cambio, las
distantes colinas parece que se muevan más despacio. En efecto, la técnica de
la paralaje da su nombre al patrón astronómico básico, “la paralaje de un
segundo de arco”, o parsec. Si una estrella está lo suficiente lejos de
nosotros que aparentemente recorre un segundo de arco cuando la Tierra recorre
una distancia equivalente a la que hay entre la Tierra y el Sol, significa que
se encuentra a una distancia de un parsec, y desde esa estrella el radio de la
órbita de la Tierra abarcaría exactamente un segundo de arco. Éste es un ángulo
bastante pequeño (hay 360 grados en un círculo, 60 minutos en cada grado y 60
segundos en cada minuto). A una distancia de un parsec, toda la órbita de la
Tierra alrededor del Sol abarcaría sólo dos segundos de arco en el cielo; sin
embargo, esta distancia es tan pequeña a escala cósmica, que no hay otras
estrellas a un parsec del Sol.
Para relacionar esta escala de distancias cósmicas con los patrones
cotidianos, es conveniente usar una unidad muy querida por los escritores de
ciencia-ficción, pero que raramente emplean los astrónomos: el año luz. No
tiene nada que ver con el tiempo, sino que se trata de la distancia que recorre
la luz en un año. A una velocidad de unos 3×1010(3 seguido por 10
ceros) centímetros por segundo, la luz recorre 9,4607×1012 kilómetros
por año, 63.240 veces la distancia media de la Tierra al Sol. Un parsec
representa algo más de 3,25 años luz, y la estrella más cercana al Sol está a
4,3 años luz. Las distancias astronómicas se dan por lo general en miles de
parsecs (kilo pársecs, kpc) o en millones de parsecs (mega pársecs, Mpc).
Nuestra propia Galaxia de la Vía Láctea está formada por unos 100.000
millones de estrellas esparcidas por un disco de 30 kpc (unos 100.000 años luz)
de diámetro y algo más de 1/2 kilo pársec (unos 2.000 años luz) de espesor. En
toda esta inmensidad, literalmente sólo unas pocas estrellas están lo bastante
cerca para que las distancias puedan medirse por paralaje, pero una técnica
afín, el método de los cúmulos en movimiento, constituye el siguiente escalón
en la gama de mediciones. Un grupo de estrellas cercano (o cúmulo estelar) que
se mueven juntas por el espacio da la impresión, desde la Tierra, de que
convergen en un punto del espacio, del mismo modo que los raíles del
ferrocarril parece que se unen en un punto del horizonte. Calculando la
velocidad de las estrellas de un cúmulo (que puede requerir años de
observaciones, a medida que las estrellas se mueven lentamente a través del
espacio) e identificando el punto de convergencia, puede determinarse la
distancia que hay hasta el cúmulo y hasta cada una de las estrellas. Y,
afortunadamente para la astrología y la cosmología, hay un gran cúmulo estelar
lo suficiente cerca de nosotros para que esta técnica funcione, y que contiene
una rica variedad de estrellas todas ellas esencialmente a la misma distancia
de nuestro Sistema Solar.
Se trata del cúmulo de las Híades, a menos de cincuenta parsecs: un
grupo de estrellas que se mueven juntas a través del espacio a una velocidad de
43 km por segundo. El cúmulo contiene unas 200 estrellas esparcidas en unos
tres o cuatro parsecs, suficiente para dar una idea de cómo el brillo aparente
de una estrella en el cielo está relacionado con su distancia real y con otras
propiedades, como su color. En la actualidad, las mediciones de las distancias
se empiezan a registrar estadísticamente, relacionando su color, distancia y
brillo aparente para tantas estrellas como sea posible. Y las estadísticas han
hecho posible un descubrimiento decisivo: una clase de estrellas, las variables
cefeidas, presentan ciclos de pulsaciones que dependen sólo del brillo real
(esto es, del calor) de cada estrella.
Una cefeida primero brillará, luego amortiguará el brillo y de nuevo
brillará, todo ello en un período de entre dos y cuarenta días. Pero su período
exacto —por ejemplo, diez días y medio— depende exclusivamente de lo brillante
que sea (por término medio). Las razones de todo ello se comprenden
perfectamente en términos de equilibrio entre las reacciones nucleares que
mantienen la estrella caliente (más información en el capítulo 3) y las fuerzas
gravitacionales que la comprimen. Pero lo que realmente importa para determinar
la distancia es que si se conoce el brillo real de una estrella, la distancia
puede encontrarse con rapidez y precisión por medio de su brillo aparente en el
cielo, utilizando la familiar ley del cuadrado inverso (brillo aparente = brillo
real/distancia 2).
Este es el eslabón clave de la cadena. Las cefeidas pueden distinguirse
de las demás estrellas de la masa de la Vía Láctea, y ayudar a formamos una
idea del tamaño de nuestra propia Galaxia. Y Edwin Hubble encontró cefeidas
entre las estrellas de la galaxia de Andrómeda y otras galaxias cercanas, hecho
que puede calificarse de crucial.
A través de estas distancias, incluso el tamaño de una galaxia empieza a
convertirse en un efecto “local” de pequeña escala, y las primeras estimaciones
de las distancias que nos separan de las nebulosas extra galácticas, como la de
Andrómeda, se han deducido del promedio de las distancias indicadas por las
pulsaciones de diferentes cefeidas situadas entre sus estrellas. Ahora sabemos
que nuestra vecina más cercana en Andrómeda está a una distancia de casi 700
kpc, tan remota que la vemos por una luz que salió de ella hace más de dos
millones de años; y el indicador cefeida puede utilizarse hasta distancias de
unos 3 Mpc (10 millones de años luz), unas 100 veces el diámetro de nuestra
propia Galaxia. Esto nos proporciona un apoyo en la escalera de las verdaderas
distancias cosmológicas, pero en términos cosmológicos este 3 Mpc es todavía
nuestro propio patio.
§. Desplazamientos hacia el rojo y la escala del universo
Volvamos a los trabajos precursores de Hubble, que abrieron nuevos caminos al
medir las distancias de las galaxias exteriores en los años veinte, para
reconstruir la historia de la expansión del Universo desde el Big Bang.
Hubble pronto se dio cuenta de que las galaxias están distribuidas
uniformemente por el cielo (Universo isótropo) y que todas las galaxias,
excepto las más cercanas a nosotros, presentan un desplazamiento hacia el rojo
en su espectro (Universo que se expande). En 1929, anunció que la velocidad de
recesión indicada por el desplazamiento hacia el rojo es proporcional a la
distancia que hay entre la galaxia y nosotros: la famosa relación
desplazamiento hacia el rojo/distancia, conocida hoy como ley de Hubble. Éste
es exactamente el comportamiento necesario para encajar en los modelos de
Fridman, basados en las ecuaciones de Einstein, y también la única clase de
expansión universal que no requiere que la Tierra y nuestra Galaxia ocupen un
lugar especial. Si imaginamos un globo que se expande, salpicado de manchas de
pintura, cada mancha “verá” que todas las demás se alejan a
una velocidad proporcional a su distancia, y ninguna mancha podrá identificarse
como el centro de la expansión. La ley de Hubble demuestra que el Universo está
hecho de la misma forma —no hay ningún “centro de expansión”, sino que todo se
separa de todo lo demás. Y eso encaja con la otra gran propiedad general del
Universo, que no es igual en todas direcciones (isótropo), pero parece igual
desde cualquier lugar (homogéneo). Por tanto, sólo hay en realidad una
diferencia con la antigua visión cosmológica, que causó a Olbers tantos
quebraderos de cabeza: no se trata de un universo isótropo, homogéneo y
estático, sino de un Universo isótropo, homogéneo y en expansión.
Hacia 1931, la observación demostró la validez de la ley de Hubble hasta
los 30 Mpc y velocidades de recesión de más de 20.000 km por segundo, y desde
entonces todas las nuevas observaciones han confirmado la validez de la visión
del Universo de Einstein/Fridman. [5]
Así que, finalmente, después de seguir la historia a través de dos
décadas cruciales, ya podemos resumir la visión cosmológica moderna del
Universo. Nuestra Galaxia entera, con sus 100.000 millones de estrellas, se
considera simplemente como una isla corriente de materia en la inmensidad del
espacio-tiempo, el verdadero tejido estructural del Universo. Hay muchísimas
más galaxias, algunas mayores que la nuestra y otras menores, esparcidas por
todo el Universo hasta donde podemos ver, algunas a unas distancias de millones
de parsecs, a juzgar por la relación desplazamiento hacia el rojo/distancia.
Las galaxias tienden a agruparse en enjambres, desde unas pocas a cientos de
ellas que se mueven juntas, mientras los enjambres se separan los unos de los
otros, llevados en el tejido espacio-tiempo que va estirándose, en tanto el
Universo se expande.
Ésta es, en pocas palabras, la imagen que nos indica que tuvo que haber
un Big Bang. En primer lugar, si imaginamos que el Universo
“transcurre hacia atrás” podemos ver que ha evolucionado a partir de un estado
de mayor densidad, con los enjambres de galaxias más juntos; y si se retrocede
lo suficiente, todo tiene que haber estado apiñado en una masa. Y en segundo
lugar, los modelos de Einstein/Fridman, que con tanto acierto nos describen el
estado actual del Universo, comienzan todos a partir de un Big Bang,
un instante inicial de creación en el que espacio-tiempo/materia-energía
surgieron de un punto único, una singularidad matemática.
§. Microondas cósmicas
Llegados a este punto, todo nuestro conocimiento de la naturaleza queda
invalidado ante una singularidad, que realmente significa “un lugar donde las
leyes físicas tal como las conocemos no tienen vigencia”. Por lo tanto,
estrictamente hablando, no podemos describir la evolución de nuestro Universo,
o de un modelo de universo como el real, desde el mismo instante del Big
Bang, tiempo cero. Pero quizás el mayor éxito del pensamiento
científico ha sido la consecución, entre los años sesenta y setenta, de una
descripción intrínsecamente coherente de todo lo que ocurrió después de la
primera cienmilésima de segundo hasta nuestros días, unos 15.000 millones de
años más tarde. Este importante logro depende de dos factores extra, con los
que la actual generación de científicos ha contribuido a sustentar los modelos
básicos de Einstein y Fridman. En primer lugar, sabemos ahora que el Big
Bang fue caliente; los modelos de Fridman incluyen universos que se
iniciaron en frío, así como otras variables, y estos modelos pueden ahora
eliminarse. En segundo lugar, los físicos de las altas energías que estudian la
naturaleza y el comportamiento de las llamadas partículas elementales (los
bloques de construcción con los que están edificadas las partículas más
“mundanas” como los protones y los neutrones), creen conocer la manera en que
estas partículas se interaccionan en las más altas energías (altas
temperaturas) y densidades (presiones) que debieron existir al principio de la
historia de un universo con un Big Bangcaliente.
Tendremos que tener fe en la física de las partículas; los estudios en
sí son bastante esotéricos, y su aplicación al Big Bang ha
sido objeto de todo un libro[6]. Pero
hay que hacer una pequeña digresión para explicar la historia de cómo sabemos
que el Universo nació en llamas, en forma de un Big Bangcaliente. Ya
que la historia del descubrimiento y la interpretación de la llamada radiación
cósmica de microondas de fondo es todo un clásico.
Amo Penzias y Robert Wilson serían los primeros en reconocer que su
descubrimiento de las microondas cósmicas de fondo —el eco del Big
Bang— lo deben en gran parte a un afortunado accidente. La medida de
su suerte —y la importancia de su descubrimiento— se refleja en el hecho de que
en 1978 compartieran el premio Nobel de física por su trabajo. El
descubrimiento lo realizaron unos quince años antes, en 1964, cuando trabajaban
en los Laboratorios Bell con una antena de radio muy sensible y un sistema
receptor diseñado para comunicaciones que utilizaban las débiles señales
reflejadas por los satélites Eco.
El insignificante puntito borroso, señalado cerca del centro de la figura,
que es una ampliación de una fotografía procedente del Palomar Sky Survey, es
uno de los objetos más distantes descubiertos en el Universo, el quasar OH 471.
El desplazamiento hacia el rojo determinado en 3,4 corresponde a una velocidad
de recesión de más de un 90% de la velocidad de la luz. (Fotografía cedida por
R. F. Carswell.)
El sistema tenía que ser muy sensible, puesto que los satélites Eco no
eran otra cosa que unos enormes globos, hinchados automáticamente en órbita
terrestre y cubiertos con una película de material metálico para reflejar ondas
de radio. Las señales lanzadas desde la Tierra rebotarían en los satélites, y
una señal muy débil regresaría a la Tierra, donde sería detectada miles de
millas lejos del transmisor. Siguiendo la política de la compañía Bell de
estimular la investigación científica original, además de la investigación con
objetivos claramente comerciales [7], Penzias
y Wilson utilizaban la antena instalada en Holmdel, Nueva Jersey, para medir el
“ruido” radio- eléctrico de fondo procedente de nuestra Vía Láctea, desde
direcciones muy alejadas del centro de ella.
En términos comprensibles, estaban tratando de medir los ruidos
radioeléctricos del espacio mismo, dado que en estas regiones alejadas del
centro de nuestra Galaxia no podía haber ondas de radio procedentes de
estrellas individuales, sino de la difusa contribución de la interacción de
átomos de hidrógeno del espacio con los campos magnéticos de la Galaxia. Este
ruido que esperaban oír era tan débil que requería un sistema antena/receptor
muy sensible para detectarlo. Además de una antena de veinte pies construida
especialmente para la ocasión —antena que parecía una trompeta gigante—,
utilizaban técnicas de sobrefusión en las que la potencia procedente de la
antena era comparada con la señal producida por una fuente enfriada por helio
líquido. Y finalmente descubrieron, en la primavera de 1964, una señal [8] mucho
más fuerte que la esperada, que parecía proceder de todas las direcciones del
cielo.
Esto era un verdadero rompecabezas. A medida que las semanas y los meses
iban pasando, el equipo de Bell no encontró ningún cambio en la señal según las
horas del día o las estaciones, lo que demostró que, dado que la Tierra gira y
se mueve alrededor del Sol, y por consiguiente la antena apuntaba
constantemente hacia diferentes partes de cielo, la señal tenía que ser
genuinamente isótropa. Era tan fuerte, sin embargo, que si procedía del gas
interestelar de nuestra Galaxia, ésta debía ser entonces un radiofaro en el
Universo; pero otras galaxias como la nuestra (especialmente nuestra cercana
vecina de la Andrómeda) no mostraban ninguna señal de tal emisión de radio en
la longitud de onda de algo más de siete centímetros donde el ruido se
detectaba.
Parecía, de hecho, como si la señal —fuerte, comparada con lo que
Penzias y Wilson esperaban, pero aún débil para los patrones convencionales—
fuera un efecto secundario e inesperado del diseño de la antena. Quizás el
ruido no provenía de ningún espacio más allá de la antena misma, una idea que
parecía bastante lógica puesto que sabían que unas palomas habían adoptado su
entrada como lugar de descanso y habían cubierto generosamente el interior con
sus excrementos, una sustancia con cuyas propiedades eléctricas no se contaba
en el proyecto. Se ahuyentó a las palomas, y a principios de 1965 se desmontó
la antena, se limpió a conciencia y se reconstruyó. No hubo ninguna diferencia;
la señal cósmica seguía oyéndose, y seguía llegando de manera isótropa desde
todas direcciones del espacio. Tenía que ser una verdadera señal de microondas
cósmicas.
Esta señal tiene una propiedad muy importante. Todo en absoluto —incluso
las deyecciones de las palomas— radia un ruido debido al movimiento de
electrones del material. Cuanto más alta es la temperatura (por encima del cero
absoluto, ‒273 ºC, temperatura a la que cesa todo movimiento térmico), más se
mueven los electrones y más fuerte es el ruido radioeléctrico producido. Los
físicos y los ingenieros de radio utilizan el concepto de una fuente ideal de
ruido térmico de radio, un llamado cuerpo negro que radia perfectamente en
todas las longitudes de onda (de ello resulta que también debe absorber
perfectamente la radiación electromagnética en todas las longitudes de onda, y
de ahí su nombre). La potencia de cualquier ruido radio puede compararse con la
intensidad teórica de radiación de un cuerpo negro para dar una medida del
equivalente de temperatura de la fuente que produce la radiación. Y el ruido
radio descubierto por Penzias y Wilson —el campo de microondas cósmicas— era
equivalente a la radiación de un cuerpo negro con una temperatura entre 2,5 y
4,5 grados por encima del cero absoluto (2,5ºK a 4,5ºK). Esta es, ciertamente,
una señal débil. Pero si realmente llena todo el espacio (más exactamente, todo
el espacio-tiempo), entonces se trata, en suma, de una gran cantidad de
energía. ¿Cómo se produjo? ¿Qué significaba la señal? Las respuestas a estas
preguntas aparecieron pronto, una vez la noticia del descubrimiento llegó a
oídos de los astrofísicos, ya que en el mismo estado de Nueva Jersey, en la Universidad
de Princeton, un equipo estaba construyendo una antena especial para probar la
existencia de un campo de microondas cósmicas, como había predicho, sin que
Penzias y Wilson lo supieran, el teórico de Princeton P. J. E. Peebles.
Peebles había estado trabajando con un físico en Princeton, Robert
Dicke, quien le había señalado que si el Universo ha evolucionado desde un
estado más compacto y caliente, sería posible detectar los restos de radiación
de la fase caliente que todavía quedaba hoy en el espacio. Cuando Peebles hizo
los cálculos pertinentes vio que, efectivamente, tenía que haber una gran
cantidad de radiación, si el modelo del Big Bang era aplicable
al Universo en que vivimos.
Amo Penzias y Robert Wilson. (Fotografía de los Bell Labs.)
El punto crucial está en que la mayor parte de la materia que hay en el
Universo es hidrógeno, el elemento más simple de todos; sin embargo, a
densidades muy altas, equivalentes a la explosión del Big Bang a
partir de una singularidad, las partículas básicas (protones, neutrones y
electrones) estarían tan apiñadas que tenderían a convertirse rápidamente en
elementos mucho más pesados.
Antena en forma de trompa mediante la cual Penzias y Wilson descubrieron la
radiación de fondo de microondas cósmica, que es el eco del propio Big Bang.
(Fotografía de los Bell Labs.)
La única manera de que no ocurriera esto era que el Universo estuviera
lleno no sólo de materia, sino también de una radiación intensa (es decir,
caliente), no sólo de ondas de radio o incluso de luz, sino de una radiación
más potente que la de los rayos X y gamma, radiación con una enorme temperatura
de cuerpo negro que desintegrara los núcleos de los elementos pesados tan
rápidamente como se formaban, y que después se enfriara a medida que el
Universo se expandía, dejando el hidrógeno y un poco de helio, que formaron las
estrellas y las galaxias que hoy vemos.
El enfriamiento de la intensa radiación original es fundamental. Desde
un punto de vista, ésta es justamente otra manifestación del desplazamiento
hacia el rojo: la radiación de longitud de onda muy corta del Big Bang se
extendió, se “estiró” para ocupar todo el Universo en expansión, y se extendió
todavía más (debilitándose) a medida que pasaba el tiempo. Desde otro punto de
vista, el cambio es de densidad energética, no de energía
total. Imagínese una caja dividida exactamente por la mitad por un tabique, en
una parte de la cual hay cierta cantidad de gas y en la otra el vacío. Si se
elimina el tabique, el gas ocupará toda la caja, pero la cantidad de gas
presente en cada centímetro cúbico será la mitad de la que había antes de
reunir las dos partes. Lo mismo sucedería si una mitad de la caja estuviera
llena de radiación, aunque el “experimento” en este caso no puede realizarse y
sólo está en nuestra imaginación. Imaginemos nuestra caja (un cuerpo negro),
cuya mitad está llena de radiación, y luego quitemos la separación. La
radiación se extiende por toda la caja, y la densidad de energía disminuye.
Esta disminución de la densidad de energía equivale exactamente a la
disminución de la temperatura de radiación del cuerpo negro. Por lo tanto, por
analogía, la expansión del Universo después del Big Bang “enfriaría”
la radiación original. Y cuando Peebles hizo los primeros cálculos aproximados
descubrió que, para explicar por qué sólo quedaba hidrógeno y helio tras
el Big Bang, tenía que haber todavía un resto de radiación de
fondo en el Universo actual, con una temperatura de unos 10 ºK. P. G. Roll y D.
T. Wilkinson, que trabajaban en Princeton bajo la dirección de Dicke, estaban
construyendo un sistema para buscar ese fondo de radiación predicho por
Peebles, cuando se enteraron del descubrimiento de Penzias y Wilson [9].
Finalmente, los dos equipos publicaron sus descubrimientos iniciales del
campo cósmico en el mismo número del Astrophysical Journal, un trabajo firmado
por Penzias y Wilson y el otro por Dicke, Peebles, Roll y Wilkinson. Es difícil
comprender por qué el equipo que predijo la presencia de radiación y explicó su
origen no merezca más que unas notas a pie de página en los libros de historia,
mientras que el equipo que encontró la radiación por casualidad y no supo
explicar qué era, obtuviera el premio Nobel. Pero no hay duda de que el
descubrimiento en sí merecía este reconocimiento.
Después de 1965, muchas observaciones en una amplia gama de longitudes
de onda han confirmado la naturaleza de la radiación cósmica de fondo y han
establecido su equivalente temperatura en 2,7 ºK, la más baja de las estimadas
por Penzias y Wilson. Ahora, en los años ochenta, los astrofísicos intentan
descubrir cualquier evidencia de las sutiles propiedades del Universo a partir
de las pequeñas variaciones de radiación lejos de un espectro de cuerpo negro
“perfecto”, importante trabajo, pero mucho más sutil comparado con el
significado literalmente cósmico de la mera existencia de la radiación de
fondo. De esta manera, una vez tomada la temperatura actual del Universo,
podemos retroceder hasta el principio, elevando la temperatura de manera
apropiada a medida que la “caja” del Universo se comprime y la densidad de la
energía aumenta, y entonces empezar desde justo después del Big Bang hasta
la actualidad. En cierto modo, todo lo explicado hasta ahora en este libro ha
sido un preámbulo, una puesta en escena necesaria para explicar cómo podemos
describir con tanta seguridad acontecimientos tan cercanos al propio comienzo
del espacio-tiempo, como lo conocemos.
Después de haber convencido, espero, al lector de que los cosmólogos
realmente saben de lo que hablan, es cuando la historia comienza de verdad.
§. El Big Bang
El principio de todo debería estar en la hora cero, cuando la densidad del
Universo era infinita. Pero no podemos manejárnoslas con singularidades e
infinitos, de modo que, aunque sospechemos que realmente hubo una singularidad
en el comienzo del espacio- tiempo, empezaremos la descripción matemática del
origen de nuestro Universo desde un momento en que la densidad de éste era
enorme pero finita y su temperatura también era enorme pero igualmente finita.
No podemos decir honestamente cómo nació el Universo, muy denso y muy caliente.
Pero sí podemos decir, no obstante, cómo pasó de ser muy denso y muy caliente a
ser casi vacío y muy frío, su estado actual. La moderna visión cosmológica del
mundo empieza en el momento en que el Universo se ha enfriado a “sólo” un
billón de grados (10 12 ºK), en la cienmilésima de segundo
(105 s) después del instante de la creación. Incluso bajo estas
condiciones extremas, las leyes de la física deducidas aquí en la Tierra pueden
aplicarse para establecer una historia intrínsecamente coherente de lo que ha
pasado desde entonces.
A una temperatura de 1012 ºK, las partículas y la
radiación son intercambiables; la densidad de la energía de la radiación del
cuerpo negro a esas temperaturas es tan grande que puede literalmente producir
pares de partículas como protones y electrones, y no a partir del aire tenue,
sino de una densa radiación. El proceso sigue dos reglas clave, hoy muy
conocidas por los físicos no sólo por la teoría sino por los experimentos que
realizan en los aceleradores de partículas (ciclotrones, sincrotrones y otros).
En primer lugar, la ecuación que tanta gente conoce y que se ha convertido en
un cliché (incluso para aquellos que no saben qué significa): E = mc2.
Esta ecuación describe el descubrimiento de Einstein sobre la
intercambiabilidad de la masa (m) y la energía (E), enlazado por
un factor de conversión del cuadrado de la velocidad de la luz (c2).
Dado que la velocidad de la luz es tan elevada, 3×1010, esto
significa que la energía equivalente a un gramo de materia es absolutamente
enorme; la energía equivalente de un pequeño protón, que pesa alrededor de
1,6×10‒24 gramos, es correspondientemente pequeña, y ésta es la
razón por la cual pueden crearse protones individuales a partir de la energía
de una radiación muy caliente, pero gramos enteros de materia no pueden
producirse de esta manera. La energía de la radiación se describe mediante la
otra ecuación, E=hv, donde v es la frecuencia de
la radiación (el inverso de su longitud de onda, de modo que cuanto más corta
sea la longitud de onda mayor es la frecuencia y más energética la radiación)
y h es otra constante, la constante de Planck, unos 6,6×10-27 ergios/segundo.
Así, una temperatura más alta del cuerpo negro corresponde a una mayor v, que
significa mayor energía E disponible para crear partículas de
masa m. En otras palabras, cuanto más alta es la temperatura, mayores (con más
masa) serán las partículas que puedan crearse.
Por tanto, una cienmilésima de segundo después del comienzo, el Universo
era una agitada masa de partículas y radiaciones, un turbulento caldo donde se
creaban sin cesar pares de partículas a partir de la radiación y constantemente
se destruían y se reconvertían otra vez en radiación. Puesto que, de la manera
en que el Universo está hecho —obedeciendo las leyes de la física que hemos
deducido a través de la experimentación—, un paquete energético de radiación
(un fotón) no puede construir un solo electrón, o protón o lo que sea. La
creación siempre produce un par: una partícula y su “antipartícula".
La antimateria es una forma de materia que tiene las propiedades casi
inversas, como una imagen en un espejo, comparada con la materia que nos
constituye a usted, a mí y a casi todo en el Universo. Tomemos una propiedad
obvia, la carga eléctrica: la carga de un electrón es negativa, mientras su
antipartícula, el positrón, tiene exactamente la misma cantidad de carga, pero
no es negativa sino positiva. Cuando una partícula se encuentra con su
antipartícula, el resultado es la aniquilación en una explosión de radiación,
es decir, la masa se convierte totalmente en energía. De forma que al mismo
tiempo que la energía de la radiación es convertida en pares de partículas, los
pares de partículas eran convertidas de nuevo en radiación durante los primeros
momentos de la existencia del Universo. En conjunto, sin embargo, la
masa/energía total de todo el sistema —de todo el Universo— era constante. Para
cada E/c2 de masa creada o destruida, se creaba o
destruía siempre un equivalente exacto de E/h de radiación.
Las cosas empezaron a ordenarse a medida que el Universo se expandía y
la temperatura bajaba a 1011 ºK, aun dentro de la primera
décima de segundo (0,1 seg) de vida del Universo. A esta temperatura, ya no
podían crearse las exóticas partículas con grandes masas, y cualquier cosa rara
que se hubiera creado, pronto encontró su antipartícula y se aniquiló. Sólo los
pares electrón/positrón y los neutrino/antineutrino eran lo suficiente ligeros
para tener una implicación continuada en el equilibrio materia/radiación. ¿Qué
tamaño tenía entonces el Universo? Es natural hacerse esta pregunta, pero quizá
no tenga mucho sentido. Si el Universo es abierto y capaz de expandirse
eternamente, entonces es infinito en tamaño y siempre lo ha sido. En
un Universo así, de extensión infinita, incluso inmediatamente después
del Big Bang, cuando era muy caliente y muy denso, la temperatura y
la densidad proporcionan los únicos indicadores sensibles de su evolución, dado
que la expansión producía un Universo más frío y más tenue, pero igualmente
infinito. Por otro lado, si el Universo es cerrado y finito, la pregunta puede
contestarse, aunque la respuesta será abstrusa. En este caso, la circunferencia
del Universo ha aumentado desde cero, y es inversamente proporcional a la
temperatura del cuerpo negro —la temperatura de la radiación de fondo— en todo
momento. Después de 0,1 s, a 1011 ºK, la circunferencia hubiera
sido de alrededor de cuatro años luz, un parsec, en este modelo.
He aquí, en realidad, algo curioso. Está profundamente arraigado en el
corazón de la teoría de la relatividad, teoría en base a la cual estos modelos
de Universo están pensados, que la velocidad de la luz es una constante
absoluta (en el vacío) y el “límite de velocidad” extremo. Empezar desde un
volumen cero y producir algo de cuatro años luz a la redonda en sólo 0,1 seg
parece violar claramente este límite de velocidad. Pero lo cierto es que este
límite afecta sólo a la materia que se mueve a través del espacio-tiempo, en
tanto que la expansión del Universo implica un cambio evolutivo del propio
espacio-tiempo. Recordemos que la materia no fluye a través del espacio-tiempo
en la expansión, sino que es llevada “de viaje”; el desplazamiento hacia el
rojo que vemos en la luz de las galaxias lejanas no indica que estas galaxias
se alejen de nosotros a través del espacio, sino que el espacio-tiempo que hay
entre ellas y nosotros se está extendiendo. En realidad, esas galaxias están
inmóviles en relación con el espacio-tiempo de su lugar; y es efectivamente
posible que haya galaxias tan alejadas de nosotros en el tejido espacio-tiempo
que su luz no pueda llegamos jamás, puesto que el espacio-tiempo que nos separa
de ellas se extiende con tanta rapidez que la luz no puede cruzarlo, dando la
sensación, desde nuestro punto de vista, de que se alejan a una velocidad
superior a la de la luz.
De cualquier forma, abierto o cerrado, el Universo es algo tan
complicado que el “sentido común” no siempre es pertinente. Pero, sea como
fuere, esta historia en continua evolución puede explicarse en términos de
decreciente densidad y temperatura, no de “tamaño” (cualquiera que sea su
significado). La cuestión de si es abierto o cerrado, no obstante, puede tener
importantes repercusiones en un lejano futuro, como ya veremos más adelante.
§. Materia residual
Alrededor de unos 14 segundos después del Big Bang, la temperatura
del Universo bajó hasta unos 3 x 109 ºK, y la ya débil
radiación dejó de tener la fuerza suficiente para crear pares de electrones y
positrones. La mayor parte de los electrones entraron en contacto con sus
respectivos oponentes y se aniquilaron; los grandes días del intercambio materia/energía
se habían terminado, y el Universo pasó a ser mucho más tranquilo y mucho más
vacío. Pero no vacío del todo. Ya que, por alguna razón que todavía no
conocemos —y que quizá nunca conozcamos—, quedaron algunos electrones, junto
con protones, por lo menos en nuestro rincón del Universo. Quedó suficiente
materia para formar las estrellas, las galaxias y los planetas que nos rodean,
prácticamente todo lo que es importante en el Universo desde nuestro punto de
vista de la vida, tal como la conocemos. Si el equilibrio materia/energía
hubiera sido totalmente simétrico, sin un exceso de materia ni de antimateria,
todo se habría aniquilado, y habría quedado un Universo en expansión como el
nuestro, lleno de radiación de fondo como el que tenemos, pero sin ninguna
materia en absoluto. Es posible que la cantidad de materia en el Universo sea
igual a la cantidad de antimateria, pero que las dos se hayan separado de
alguna manera misteriosa. Quizás alguna de las galaxias que los astrónomos
estudian a través de sus telescopios esté constituida por antimateria, con
soles de antimateria, planetas de antimateria, e incluso seres de antimateria.
O quizá alguna asimetría inescrutable justo después del Big Bang produjo
un ligero excedente de materia que se convirtió en el Universo que conocemos.
De cualquier manera, hay razones para creer que existe una profunda relación
entre la existencia de vida y la forma en que nuestro Universo está construido,
un tema sobre el cual volveré.
La materia quedó al desacoplarse definitivamente de la radiación de
fondo, y a partir de entonces ambas seguirían caminos distintos. La radiación
quedó sin nada con lo que jugar, de modo que simplemente se fue enfriando en
tanto el Universo se expandía, hasta llegar al eco de 2,7 ºK de su anterior
apogeo, que detectamos en la actualidad. Para la materia, la aventura tan sólo
estaba empezando. Alrededor de los 109 ºK, unas setenta veces la temperatura
actual del centro del Sol, muchos protones y neutrones se fusionaron en núcleos
de helio, y a medida que el enfriamiento iba avanzando, éstos se unieron con
electrones para convertirse en átomos de helio estable. Al mismo tiempo, el
enfriamiento permitió que los protones restantes se unieran con electrones y formaran
átomos de hidrógeno. Hacia el final de los cuatro primeros minutos después
del Big Bang, el 75% de la masa del Universo existía en forma de
núcleos de hidrógeno, y el resto en forma de núcleos de helio; hizo falta que
pasaran unos 700.000 años más de enfriamiento para llegar al momento en que los
electrones quedaran unidos a los núcleos para formar átomos, a una temperatura
de cerca de 5.000 ºK. En realidad, la radiación todavía era capaz, hasta ese
momento, de interacciones con la materia, dado que los electrones y protones
libres, al poseer una carga eléctrica, sí mantenían interacciones con la
radiación, aunque ningún proceso de aniquilación/creación tuvo lugar después de
los cuatro primeros minutos. Por lo pronto, cuando medimos la radiación de fondo
actual y encontramos que, con un alto grado de precisión, es al mismo tiempo
isótropa y homogénea, ello nos indica algo de cómo era el Universo 700.000 años
después del Big Bang, cuando materia y radiación dejaron de
experimentar interacciones. Podemos decir con seguridad que desde esa época el
Universo fue isótropo y homogéneo; no podemos asegurar con certeza que no
alcanzara este estado a partir de una fase anterior más complicada, pero todo
nos hace pensar que es acertada la opinión de que el Universo ha sido isótropo
y homogéneo —con la pequeña excepción de que una parte de materia quedó
residualmente cuando los intercambios masa/energía terminaron— siempre desde
el Big Bang.
Después de los primeros 700.000 años, por tanto, la historia del
Universo es la historia de la materia: galaxias, estrellas, planetas y vida. La
edad del Universo era entonces algo menos de una vigésima parte de su edad
actual; la temperatura del cuerpo negro era equivalente a la temperatura actual
en la superficie del Sol. Comparado con los cuatro primeros minutos, esto era
sólo un débil aleteo de energía, con la historia de la creación virtualmente
acabada. Visto desde aquí y ahora, ése fue el ígneo horno del cual nacimos.
Capítulo II
El origen de nuestra galaxia
Contenido:
§. Estrellas brillantes en un Universo oscuro
§. La estructura de las galaxias
§. Formación de las galaxias
§. Violencia en el Universo
§. Agujeros negros y quásares
Después de su etapa de bola de fuego, el Universo empezó a tener el
aspecto actual, con materia concentrada en masas incandescentes (estrellas),
agrupadas en islas materiales (galaxias) y esparcidas por todo el espacio
vacío. Pero la manera como se formaron las galaxias, y como evolucionaron
después, dependió de su herencia de la bola de fuego.
Cuando miramos el cielo nocturno en una noche sin nubes (y lejos de las
luces de las ciudades) vemos un impresionante despliegue de brillantes
estrellas. El despliegue es realmente tan impresionante, que es sorprendente
saber que a simple vista sólo pueden distinguirse unas 3.000 estrellas, incluso
en la noche más oscura y sin luna. No importa el tiempo que estemos
contemplando el cielo, nunca veremos más estrellas que estas, dado que el ojo
humano se adapta con mucha rapidez al máximo de que es capaz. Pero una cámara
fotográfica trabaja de una manera bastante diferente del ojo humano, y cuanto
más tiempo está abierto el obturador, más luz recoge. De modo que una placa
fotográfica de larga exposición, con la ayuda de una cámara astronómica,
muestra más imágenes que otra de exposición corta, y cuanto más larga sea ésta
más débiles serán los objetos fotografiados en la placa.
De manera que fue gracias a la astrofotografía, y no por las
observaciones del ojo humano sin ayuda, como los astrónomos supieron de la gran
cantidad de estrellas de brillo débil y de la también gran cantidad de
“nebulosas”, muy diferentes de las estrellas y descubiertas también en las
fotografías astronómicas. Esta evidencia sugiere que existen miles de millones
de estrellas que constituyen una isla en el espacio de unos treinta kilo
parsecs de diámetro (nuestra Galaxia). Por decirlo de algún modo, estos objetos
son similares a nuestro Sol (aunque hay una gran variedad de tamaños y brillos
estelares), y si los vemos con una luz tan débil es porque se encuentran, en
cifras redondas, a decenas de millones de veces más lejos que el Sol. Muchos de
los objetos borrosos, según sabemos ahora, son galaxias enteras de estrellas
situadas a miles de millones de veces más lejos aún, y sólo las podemos ver
porque contienen cientos o miles de millones de estrellas. Las distancias entre
las galaxias y nosotros —las de todas, a excepción de nuestras vecinas más
próximas— son tan grandes que la luz de miles de millones de estrellas como el
Sol aparece como una mancha débil y borrosa en el cielo, no más brillante en
una placa fotográfica de larga exposición que la apagada imagen de una débil
estrella.
En lo que concierne a la vida en la Tierra, estos glóbulos borrosos de
las placas fotográficas podrían parecer de muy poca significación. Pero gracias
al estudio de esas manchas borrosas Hubble y sus contemporáneos encontraron por
primera vez evidencias convincentes de que el Universo se expande, con todo lo
que ello implica para el Big Bang y el origen de todo. Y si
queremos comprender nuestra propia Galaxia, y el lugar que ocupan el Sol y el
Sistema Solar en el seno de la Galaxia, es de gran ayuda la observación de las
galaxias en general, del mismo modo que es más fácil adquirir un conocimiento
de la naturaleza de los árboles en general observando todo un bosque que
estudiando un solo ejemplar.
§. Estrellas brillantes en un universo oscuro
La característica más sorprendente del Universo actual es que es un lugar
oscuro que contiene grumos locales de material brillante. Ya he discutido las
implicaciones de esto en términos de la paradoja de Olbers, pero también es
sorprendente en otro sentido. Uno de los patrones fundamentales de
comportamiento que encontramos en el mundo físico es la tendencia de las cosas
a desgastarse y agotarse. Las cosas tienden, para usar un término
especializado, hacia un estado de equilibrio termodinámico. Si depositamos un
trozo de hielo en un recipiente con agua caliente, el hielo se deshace mientras
el agua se enfría y nos quedamos con un estado templado, intermedio. Si
colocamos estrellas brillantes y calientes en un Universo frío y oscuro, el
mismo patrón de comportamiento debería tener como resultado el que las
estrellas entregaran su energía y calentaran (¡muy ligeramente!) el Universo,
antes de que también se enfriaran y murieran, y se restableciera el equilibrio
termodinámico. En tal estado, toda la materia que hay en el Universo estaría a
una temperatura ligeramente por debajo de 3K, en equilibrio con la radiación
cósmica de fondo (esto es darle la vuelta a la paradoja de Olbers; se puede
argüir, con toda lógica, que para crear un equilibrio termodinámico la
radiación de fondo podría estar tan caliente como una estrella brillante, de
forma que el cielo fuera una llamarada de luz). La explicación más simple del
desequilibrio termodinámico que vemos en el Universo que nos rodea es que el
Universo está, efectivamente, bajando. El Big Bang produjo la
ruptura de equilibrio equivalente a dejar caer un pedazo de hielo en un
recipiente de agua caliente, y ahora vivimos en una época en que las cosas
vuelven a su equilibrio normal, aunque todavía estemos muy lejos de él. Así las
cosas, el reciente descubrimiento de que por lo menos el 90% de la materia del
Universo se encuentra en forma de estrellas muertas y frías, es un
descubrimiento feliz, porque demuestra que, con mucho, la mayor parte de la
materia del Universo está en equilibrio con la fría radiación de fondo.
Las galaxias brillantes —esos objetos borrosos que hacen que las
fotografías de las profundidades del espacio no sean completamente negras— no
son más que el último parpadeo de desequilibrio mientras la materia continúa
ajustándose después de la convulsión de la bola de fuego. Este importante
conocimiento nos proporciona una nueva perspectiva. Hoy día, los
radiotelescopios desempeñan un papel tan importante en el estudio de las
galaxias como la astrofotografía, y las observaciones a través del espectro electromagnético
en las longitudes de onda de los rayos X, del ultravioleta, etc., están
adquiriendo cada vez una mayor importancia a medida que más y más instrumentos
son lanzados al espacio en satélites que orbitan por encima de las capas de la
atmósfera terrestre, capas que dificultan la observación desde la Tierra.
Hubble clasificó las diferentes clases de galaxias visibles en las
fotografías astronómicas según sus formas, lo cual, por supuesto, era
razonable, ya que eso era todo lo que se conocía en los años veinte. Su
clasificación sigue hoy en uso, si bien con algunas modificaciones, y se basa
en la distinción entre galaxias elípticas, que efectivamente tienen aspecto de
elipses en las fotografías, y galaxias en espiral, que están formadas por un
núcleo central de estrellas, como una galaxia elíptica en pequeño, y un disco
circundante de estrellas y otros objetos, en el que se dibujan los brazos de la
espiral. Las galaxias que no pueden incluirse en ninguna de las dos categorías
se denominan irregulares, y las espirales se dividen en dos sub categorías:
espirales corrientes, en las cuales la característica espiral va del núcleo
central hacia fuera, y las espirales barradas, en las que la configuración
espiral parece empezar en los extremos de una barra de estrellas que atraviesa
el núcleo. Otras subdivisiones se refieren a si los brazos de la espiral están
más juntos o no, o si las elípticas son más planas o más esféricas, etc. Pero
estas diferencias no tienen una gran significación. Tampoco hay ningún
significado real en una clasificación que se hizo mucho más tarde, que divide
las galaxias en galaxias “normales” (que son tranquilas y se comportan bien) y
galaxias “activas” (que parecen hacer explosión o estar implicadas en otras
actividades violentas). Según parece ahora, todas las galaxias pasan por fases
activas durante sus vidas, y por lo tanto es del todo normal que una galaxia
sea activa.
En las décadas transcurridas desde la clasificación original de Hubble,
muchos astrónomos le han añadido sutilezas, con subclasificaciones y
sub-subclasificaciones. Ésta es la clase de atención por las menudencias de
detalle que a veces llamamos coleccionar sellos astronómicos, añadir nuevas
categorías porque sí. Y dado que los avances de los últimos años setenta han
hecho posible explicar la variedad de galaxias que observamos en términos de
los acontecimientos de la era posbola de fuego e interacciones subsiguientes,
no hay razón para tantas subdivisiones y categorías. El extremo importante que
sí debe ser explicado por el nuevo modelo es que el 75% de las galaxias
observadas sean espirales (incluida la nuestra), el 20% sean elípticas y el 5%
restante sean irregulares. Además, puesto que parece haber muy pocas galaxias
espirales en nuestra vecindad y sí, en cambio, muchas galaxias muy pequeñas
elípticas e irregulares, estas observaciones probablemente no nos dan un buen
esquema del balance del Universo, y las mejores conjeturas establecen este
balance entre espirales y elípticas muy equilibrado, quizá con más elípticas
que espirales si incluimos todas las pequeñas galaxias.
§. La estructura de las galaxias
Ya basta sobre el aspecto de las galaxias. ¿Qué hay de su estructura, de qué
están hechas y cómo se interrelacionan sus componentes? La propiedad más
importante parece ser la de la rotación. Por su forma, las galaxias espirales
en particular parece que son objetos de rotación muy rápida, con el disco y sus
brazos espirales que giran alrededor del núcleo central. Esto se ha comprobado
a través de la observación —aunque una galaxia como la nuestra puede tardar un
par de cientos de millones de años en dar una vuelta completa, de modo que no
hay posibilidad de verlo en el transcurso de una vida humana. Una vez más, como
en el caso de la recesión de las galaxias, las observaciones dependen del
desplazamiento de Doppler en la luz espectral producido por el movimiento. Como
ejemplo sencillo, imagínese una galaxia espiral vista de canto que gira de
manera que una parte del disco se mueve hacia nosotros mientras el otro lado,
en la parte opuesta del núcleo, se aleja. Esta rotación se nos mostrará
claramente como un desplazamiento hacia el azul por un lado del núcleo y como
un desplazamiento hacia el rojo por el otro.
En estas fotografías procedentes de los Hale Observatories puede observarse
la variedad de galaxias espirales.
En el caso de muchas galaxias, la situación no es tan simple. En primer
lugar, por supuesto, debe tenerse en cuenta el desplazamiento hacia el rojo de
toda la galaxia, causado por la expansión del Universo. Y muy pocas galaxias
están convenientemente situadas con respecto a nosotros. Pero los efectos de la
velocidad de rotación en diferentes partes de las galaxias pueden descifrarse
incluso en casos no ideales, con la ayuda en parte de un efecto de la
dilatación relativista del tiempo, que produce un desplazamiento hacia el rojo,
que depende sólo de la velocidad, de la luz de una estrella que se mueve
directamente a través del campo de visión. Todo ello demuestra que los discos
de las galaxias espirales se mueven en realidad muy rápidamente —y si “rápidamente”
parece una palabra exagerada para algo que tarda 200 millones de años en dar
una vuelta, recuérdese que la rueda que gira tiene un diámetro de treinta
parsecs, o cosa así. De hecho, las galaxias espirales giran casi tan
rápidamente como es posible sin fragmentarse y dispersarse, y ésta es
exactamente la clase de comportamiento que se produciría si las estrellas que
vemos estuvieran constituidas por los materiales de una gran nube de gas, que
se habría colapsado por su propia gravedad, pasando a un estado más compacto.
El colapso habría creado un sistema poco equilibrado, en el que el tamaño de la
galaxia producida dependería de la rotación de la nube inicial; a medida que el
material se va colapsando, la nube gira más rápidamente, y la gravedad no puede
hacer que el sistema adquiera un estado más compacto de lo que la rotación
permite.
Las velocidades también pueden medirse en el caso de galaxias elípticas,
que giran con mucha más lentitud. Esto, una vez más, es aproximadamente lo que
los astrónomos esperan —si un efecto de la rotación es aplastar las cosas y
convertirlas en discoidales, la conjetura indica que las galaxias elípticas,
más redondas, no han experimentado un aplastamiento por la rotación. Pero ése
no es el final de la historia, por cuanto que mediciones realizadas durante los
años setenta, cuando se perfeccionaron las técnicas, revelaron que las galaxias
elípticas giran con mucha más lentitud que la velocidad de dispersión
correspondiente a su tamaño. Da la impresión de que se han formado de una
manera muy diferente de las galaxias espirales, puesto que si también se han formado
por el colapso de nubes de gas, ¿por qué el colapso se ha detenido mientras la
gravedad aún dominaba sobre los efectos de la rotación?
Las galaxias elípticas muestran menor diversidad de formas que las
espirales; simplemente varían desde la forma esférica, como la de la NGC 4374,
a la de cigarro o huso, como la NGC 4564. Recientes observaciones, a partir de
la medida del brillo visto en distintos puntos “a través" de las galaxias
elípticas, han confirmado que esta disposición se debe, en realidad, a
diferencias de forma y que una galaxia como la NGC 4374 es esférica, y no una
galaxia ahusada mirada desde un extremo. Montaje compuesto con fotografías
tomadas con el telescopio Schmidt del Reino Unido y proporcionadas por el Royal
Observatory de Edimburgo. Copyright 1980.
Estas nuevas evidencias estimularon a los astrónomos, hace un lustro, a
meditar otra vez sobre la forma de las galaxias elípticas. Tenían más bien
el aspecto de pelotas de fútbol americano, o forma de cigarro,
y todos, desde Hubble en adelante, asumieron que las galaxias elípticas eran
realmente así (elipsoides achatados en los polos). Pero era posible que hubiera
un modelo de galaxias que parecieran elípticas en el espacio, pero que fueran
en realidad discos inclinados respecto de nosotros de diferentes maneras (con
formas de platillo y alargadas). Afortunadamente, con una sencilla prueba se
puede distinguir entre los dos casos. Cuando contemplamos una galaxia circular
en el cielo, tanto podemos estar viendo una galaxia en forma de grueso cigarro
por uno de sus extremos como una galaxia en forma de platillo de frente. En el
primer caso, estaríamos viendo una larga columna de estrellas, de modo que las
galaxias circulares deberían ser brillantes; en el otro caso, estaríamos viendo
un delgado disco, y las galaxias circulares deberían aparecer con una luz
relativamente débil. Y cuando los astrónomos comprobaron sus fotografías, se
dieron cuenta de que, efectivamente, las galaxias elípticas que parecían
circulares eran mucho más brillantes que las galaxias alargadas y delgadas. Las
elípticas son realmente achatadas (como cigarros gruesos), y parece como si
hubiera una diferencia fundamental entre su rotación y la rotación de las
espirales, lo cual sugiere que hay dos formas diferentes de construir galaxias.
Hay otras diferencias entre las galaxias en espiral y las elípticas. Las
elípticas contienen sobre todo estrellas rojas viejas, mientras que las
espirales parecen tener dos tipos de “población”. Las estrellas del disco —como
las más cercanas al Sol, en nuestra Galaxia— son relativamente jóvenes, y la
configuración en espiral se caracteriza invariablemente por la presencia de
estrellas azules calientes; las estrellas del núcleo central, por otra parte,
tienden a ser estrellas viejas y rojas, aproximadamente como las estrellas de
una galaxia elíptica típica. En cierto modo, las espirales tienen el aspecto de
elípticas, con brazos espirales de estrellas jóvenes a su alrededor, o las
elípticas tienen aspecto de espirales despojadas de sus discos. Pero la idea de
que una espiral puede “perder” su disco y evolucionar hasta convertirse en
elíptica, es algo que no encaja con la evidencia de la rotación, ni tampoco da
cuenta del hecho de que, si bien existen muchas pequeñas galaxias elípticas,
las mayores galaxias de todas son invariablemente elípticas. Junto con las
estrellas jóvenes del disco (“Población I”), las espirales también contienen
una gran cantidad de material oscuro, nubes de gas de hidrógeno frío y polvo
(principalmente de carbono), y una dispersión de moléculas de monóxido de
carbono, agua y formaldehido. Las elípticas, con sus estrellas dominantes de la
“Población II”, parecen contener poco material interestelar, a excepción,
quizá, de trazas de hidrógeno.
El hidrógeno y los otros constituyentes del medio interestelar pueden
estudiarse mejor en longitudes de onda de radio, y el hidrógeno en particular
puede ser identificado por su longitud de onda característica de 21 cm. Las
desviaciones de longitud de onda de esos 21 cm exactos se atribuyen a
desplazamientos Doppler, que afectan a todo el espectro electromagnético, no
sólo a la luz visible, de forma que la radioastronomía proporciona una poderosa
herramienta adicional a la hora de elaborar el mapa de las curvas de rotación
de las galaxias. También permite ampliar las observaciones de las galaxias más
allá de las de estrellas brillantes, puesto que en muchos casos la emisión de
hidrógeno puede detectarse en una extensión de espacio contiguo a las estrellas
brillantes de la galaxia fotográfica. Aunque el hidrógeno en las galaxias en
espiral suele seguir la configuración espiral, puede detectarse a una distancia
dos veces más lejos del núcleo que cualquier estrella del disco. De modo que
las técnicas de radio proporcionan la mejor imagen global de la curva de
rotación en conjunto de una galaxia, de cómo la velocidad de rotación varía con
la distancia desde el centro. Y esta evidencia, en la última mitad de los años
setenta, confirmó el razonamiento de que las galaxias brillantes tenían que
estar inmersas en unos halos oscuros más extensos y más masivos. En esencia,
las curvas de rotación muestran los efectos de arrastre de material situado al
exterior del disco brillante de una galaxia espiral, material que no brilla y
que no puede observarse directamente, pero que establece interacciones con la
galaxia brillante a través de la gravedad y hace sentir su presencia en la
configuración de la curva de rotación. Este material oscuro no es gas frío, que
emergerá a los 21 cm y que, en cualquier caso, pronto sería arrastrado hacia la
galaxia central por gravedad. Podría ser algo exótico, como miles de millones
de pequeñísimos agujeros negros esparcidos por el espacio. Pero puede
explicarse, muy simplemente, como una masa de estrellas extinguidas, que quedó
de la primera fase de formación de estrellas justo después de la bola de fuego.
Esta es una de las grandes victorias de la astrofísica teórica moderna, un
modelo que explica cómo se han formado las galaxias (en el cual los halos
supermasivos desempeñan un papel decisivo) y cómo las galaxias elípticas han
evolucionado a partir de las espirales, que aparecieron primero. Podemos ahora
retomar la historia desde la bola de fuego hasta la aparición de una galaxia
como la nuestra, usando las últimas ideas aparecidas por primera vez en una
revista científica [10] en
1978.
El problema es explicar cómo sucedió que unas estrellas calientes y
brillantes se esparcieran por todo el frío y oscuro Universo, cuando, según la
interpretación más moderna del Big Bang como origen del
Universo, la propia bola de fuego era bastante uniforme. Resulta que todo
depende de esa calificación de “muy cerca”, ya que la exigua cantidad de
materia brillante que hay actualmente en el Universo sólo constituye una
minúscula desviación del equilibrio, establecido a partir de minúsculas
fluctuaciones en el balance entre materia y radiación, al final del estadio de
la bola de fuego. Hay que recordar, también, que la presencia de toda la
materia es sólo el resultado de una minúscula desviación del equilibrio durante
la bola de fuego; en un universo perfectamente uniforme toda la materia y
antimateria se habrían aniquilado. Por tanto, hablamos ahora de los efectos de
una minúscula variación dentro de lo que ya era, a escala cósmica, una
minúscula variación. Las galaxias como la nuestra representan no sólo una idea
tardía de la creación, sino una idea tardía de una idea tardía. Por eso es de
lo más extraordinario que unas criaturas que habitan un pequeño rincón de una
galaxia puedan producir una imagen (un modelo) intrínsecamente coherente y
consistente de cómo sucedió todo.
Nuestra propia Galaxia espiral, el sistema de la Vía Láctea, se nos
mostraría más o menos de esta forma si pudiéramos observarla desde el exterior.
El Sol se halla a unos dos tercios de distancia del centro de la Galaxia, cerca
del borde de un brazo espiral. (Fotografía de la galaxia Messier81, de los Hale
Observatories.)
§. Formación de las galaxias
La historia de la formación de las galaxias empieza con las fluctuaciones del
último período de la era de la bola de fuego, cuando el Universo estaba lleno
de materia caliente y de radiación caliente. La materia era lo que podríamos
llamar un gas ionizado, con electrones de cargas negativas y núcleos
(principalmente protones) de cargas positivas, capaces aún de interaccionar con
la radiación y no reunidos en átomos eléctricamente neutros. Las constantes
interacciones entre las partículas cargadas y la radiación mantuvieron
distribuidas de manera uniforme ambas formas de energía, y la uniformidad
actual de la radiación cósmica de fondo, que apenas ha experimentado
interacciones con la materia desde aquel tiempo, es una prueba de la
uniformidad del Universo de entonces. Pero tuvo que haber algunas fluctuaciones
en la perfecta uniformidad entre las partículas del gas ionizado. A medida que
estas partículas se movían al azar, pudo haber ocurrido que, de vez en cuando,
un lugar recibiera un cupo mayor de partículas del que le correspondía, con lo
que aumentaba temporalmente su densidad, mientras que en alguna otra parte se
producía un déficit de partículas, con lo que se aguaba el caldo cósmico. Y la
radiación, bajo estas condiciones, estaba también sometida a la misma clase de
fluctuaciones en la densidad de la energía. El Universo era ciertamente
uniforme, en grandes tramos de espacio y razonables intervalos de tiempo. Pero
debía bullir de actividad en la medida en que, primero en una parte y luego en
otra, se formaban bolsas más o menos densas de masa o energía, sólo para ser
disipadas por interacciones materia-radiación y reconvertidas en nuevas
configuraciones. El modelo de galaxias brillantes que vemos hoy día es el
producto de las últimas fluctuaciones de la bola de fuego, el modelo que se
inmovilizó cuando el Universo se enfrió hasta el punto en que los núcleos
exigieron su cuota de electrones para formar átomos eléctricamente neutros, y
la radiación y la materia se desacoplaron, dejando a la gravedad como la fuerza
universal dominante.
En una mezcla de gas ionizado y radiación, pueden tener lugar dos clases
de fluctuaciones de densidad. Si sólo se trata de partículas que se juntan
brevemente en un lugar de densidad aumentada, recibe el nombre de fluctuación
“isotérmica” (porque no hay ningún cambio en la densidad de la energía, que
corresponde a la temperatura); si la fluctuación hace que se incremente la
densidad local tanto de materia como de radiación, se denomina
"adiabática”. Ambas clases de fluctuaciones deben de haber ocurrido en la
bola de fuego. Pero los modelos de galaxias que hoy quedan muestran muy
claramente que al final dominaron las fluctuaciones isotérmicas.
Más que intentar calcular la posterior evolución de un universo que
presentaba ambas clases de fluctuaciones, los astrónomos han considerado por
separado cada clase y sus consecuencias. Por razones puramente históricas
—porque algunos de los primeros trabajos más significativos sobre este tema los
realizó el académico Ya. B. Zel'dovich—, los teóricos soviéticos se han
dedicado más al estudio de las fluctuaciones adiabáticas en un universo en
expansión, mientras que los teóricos occidentales han considerado con más
detalle las fluctuaciones isotérmicas.
La diferencia crucial entre las dos clases de fluctuaciones está en que
mientras las isotérmicas (sólo materia) pueden ser de cualquier tamaño, las
adiabáticas (materia más energía radiactiva) sólo pueden sobrevivir y crecer si
empiezan con un tamaño mayor que el crítico. Las pequeñas fluctuaciones quedan
rápidamente mitigadas y amortiguadas por los cambios en la densidad de energía
de la radiación. Y lo que esta diferencia implica es que si las fluctuaciones
isotérmicas son las que han dominado en la era de la recombinación, el Universo
debería de estar lleno de muchas galaxias relativamente pequeñas, reunidas en
grupos mayores, éstas a su vez en super grupos y así sucesivamente, en una
jerarquía continua. Pero si fueron las fluctuaciones adiabáticas las que
dominaron en el Universo real, entonces las primeras agregaciones de materia
debieron de ser muchas veces más masivas incluso que un cúmulo de galaxias tal
como lo vemos en la actualidad. En este esquema, las agregaciones originales de
materia habrían sido grandes nubes de gas, que después se habrían colapsado
bajo la gravedad y se habrían fragmentado formando nubes más pequeñas, que a su
vez se habrían fragmentado para formar galaxias y estrellas. Por lo tanto, las
fluctuaciones adiabáticas no producen una jerarquía de cúmulos (como un juego
de muñecas rusas), sino un modelo uniforme de super grupos muy parecidos los
unos a los otros (como una caja de soldaditos de juguete).
Analizar los modelos de agrupaciones o cúmulos de galaxias en el
Universo real requiere mucha paciencia y una computadora buena y rápida para
hacer los cálculos necesarios. Hasta ahora se han identificado más de un millón
de galaxias como miembros de un cúmulo u otro, y los cálculos estadísticos
revelan un gran respaldo para el modelo isotérmico (jerárquico). Al mismo
tiempo que se hacían estos cálculos a finales de los setenta, también se
realizaban cálculos de la física de la era de la recombinación, sirviéndose de
la cosmología avanzada de los setenta, que se había elaborado sobre el
descubrimiento de la radiación cósmica de fondo. Estas últimas estimaciones
sugieren que, de hecho, cualquier fluctuación adiabática formada durante ese
período sería muchísimo mayor que un supercúmulo de galaxias, y tan estable que
hubiera permanecido para siempre en forma de grandes nubes de gas, y no se
hubiera fragmentado jamás en galaxias tal y como las conocemos ahora. Por lo
tanto, dos líneas de ataque apuntan ambas a la misma conclusión: la
distribución de la materia en el Universo de hoy resulta de las fluctuaciones
isotérmicas en su distribución (fluctuaciones de la densidad local) en la
última fase de la bola de fuego cósmica, durante la recombinación.
Hasta aquí, todo es correcto. Pero, ¿cómo se formaron realmente unas
galaxias como la nuestra a partir de las fluctuaciones primordiales? La
historia completa está todavía por descubrir. Pero por lo menos las líneas
maestras se están aclarando. Y el desarrollo del nuevo esquema implica un mayor
progreso en los círculos astronómicos, donde una nueva oleada de
descubrimientos nos está revelando que muchas de nuestras viejas ideas sobre
las galaxias —y cuando digo “viejas” quiero decir anteriores a 1975— eran sencillamente
erróneas. Al escribir en 1980, concretamente a principios de la década, se
puede asegurar que ningún libro publicado antes, desde un texto académico hasta
un libro de divulgación, proporciona una imagen veraz de lo que son las
galaxias, y menos de cómo se formaron. Porque ninguno de esos libros va más
allá de prestar una atención fugaz a la evidencia, deducida de los estudios
sobre la curva de rotación, de que el 90% de la masa del Universo se encuentra
en forma de estrellas oscuras, a las cuales, por analogía con las dos
“poblaciones” de estrellas brillantes de las galaxias, se les da a veces el
nombre de “Población III”.
El modelo White-Rees, que es el primer intento coherente de elaborar un
esquema completo de los nuevos conocimientos sobre las galaxias, se basa en el
razonable argumento de que justo después de la recombinación, cuando la
densidad total del Universo era mucho mayor que la actual, existían unas
condiciones ideales para la formación de estrellas y que las primeras de ellas
se formaron entonces en gran número. Estas estrellas fueron probablemente muy
pequeñas, de un tamaño intermedio entre nuestro Sol y el gran planeta Júpiter,
de forma que nunca destacaron demasiado por su energía nuclear y nunca fueron
muy brillantes. O tal vez fueron muy grandes —superestrellas, quizá con la
materia de un millón de soles— que quemaron su combustible nuclear muy deprisa,
esparcieron las “cenizas” en forma de elementos más pesados formados a partir
de hidrógeno y helio por fusión nuclear, y dejaron tras de sí pavesas extintas,
estrellas de neutrones o agujeros negros. De un modo o de otro, las estrellas
oscuras debieron de distribuirse entre la agrupación jerárquica, herencia de
las fluctuaciones isotérmicas originales.
Sólo quedó un 10% del hidrógeno y helio originales enfriándose en el
espacio entre esas primeras estrellas.
A medida que el Universo continuaba expandiéndose y separaba unos de
otros a los cúmulos de las ahora estrellas muertas, el pequeño remanente de gas
frío y viejo se sumió en el centro de las super galaxias deslizándose dentro
del pozo de potencial gravitatorio, y colapsó para formar las galaxias
brillantes que vemos hoy, incrustadas profundamente en las galaxias reales de
los restos de la Población III. Toda teoría nueva debe ser probada por
confrontación con la observación, y la teoría White-Rees resiste la
confrontación muy bien. En primer lugar, y muy importante, este modelo puede
desarrollarse para explicar por qué hay dos clases de galaxias brillantes,
espirales y elípticas, visibles en el Universo actual. (Las irregulares pueden
explicarse mediante casi todas las teorías como los restos de otros procesos,
¡lo difícil es explicar las galaxias estructurales!)
El modo en que las galaxias se encuentran acumuladas en el Universo
proporciona indicios acerca de las condiciones reinantes en la bola de fuego de
materia y radiación a partir de la que se formaron estrellas y galaxias. En la
fotografía del cúmulo, tomada en dirección a la constelación de Hércules, cada
mancha difusa representa una galaxia propiamente dicha, comparable a nuestra
Vía Láctea. Justo debajo del centro de la fotografía se observa una interesante
pareja de galaxias espirales interactivas; fuerzas de marea que participan en
tales interacciones y colisiones frontales entre galaxias transforman algunas
de las galaxias originalmente espirales de los cúmulos, en galaxias elípticas,
desprovistas de brazos espirales. (Fotografía de los Hale Observatories.)
Cuando se comprime cualquier nube de material, ésta tiene tendencia a
girar con más rapidez, para conservar el momento angular. Lo mismo le ocurre a
un patinador que gira sobre sí mismo y que aprieta los brazos contra el cuerpo;
cuanto más compacto se hace un cuerpo en rotación (por grande que haya
empezado) más rápidamente gira. De modo que el gas frío que habría caído en el
centro de una galaxia de la Población III terminó por girar muy rápidamente,
por lenta que fuera su rotación inicial. Cuando una tal nube en proceso de
colapsar gira, experimenta un achatamiento; la gravedad puede seguir empujando
la materia hacia los “polos”, pero la rotación mantiene la materia alrededor
del “ecuador” en contra de la fuerza de gravedad. De manera que algo muy parecido
a una galaxia espiral surgiría de una nube así cuando alcanzara el tipo de
densidad en la que puede iniciarse la formación de una estrella.
¿De dónde proceden las galaxias elípticas? Aquí es donde entran de nuevo
en acción las computadoras, junto con más observaciones de la distribución de
velocidad de las estrellas dentro de las galaxias elípticas
típicas (utilizando una vez más la técnica de análisis de Doppler). Las
simulaciones de computadora muestran que cuando dos galaxias espirales se
encuentran (como debe suceder de vez en cuando al moverse por el cúmulo; la expansión
del Universo aleja cada vez más los cúmulos unos de otros, pero esto no afecta
a los movimientos de las galaxias dentro de su cúmulo, que se mantienen unidas
por la gravedad, incluyendo la gravedad de las estrellas oscuras de la
Población III), las interacciones gravitatorias (mareas) ocasionan grandes
cambios en ellas. Los discos exteriores son los más afectados, e incluso
encuentros muy próximos entre galaxias pueden desgarrarlos, sembrando estrellas
a través de una extensión de espacio varias veces mayor que el diámetro de una
galaxia brillante.
Otro cúmulo rico en galaxias, reproducido en negativo (negro sobre blanco)
para mostrar los detalles con mayor claridad. Las manchas difusas son galaxias
del cúmulo que se halla en la dirección de la constelación del Pavo; los puntos
redondos son estrellas del primer plano de nuestra Galaxia, y las “puntas” que
sobresalen son un efecto de la cámara fotográfica, por lo que no deben ser
tenidas en cuenta. Esta fotografía fue tomada con el telescopio Schmidt del
Reino Unido (Royal Observatory, Edimburgo), que puede verse al principio de
este libro.
Estos sistemas de interacción parece que pueden explicar ahora la
variedad de galaxias de aspectos muy peculiares que han sido descubiertas aquí
y allá en las fotografías astronómicas; y este logro representa un triunfal
producto de la combinación entre la habilidad humana para plantear problemas y
las computadoras; es necesario simular dos galaxias en la computadora y después
simular sus interacciones gravitatorias cuando pasan una junto a otra, mientras
la propia computadora dibuja esquemas de las distribuciones cambiantes de las
estrellas en las galaxias que interaccionan a medida que el encuentro se
produce.
Pero ésta no es la única manera en que las galaxias se interaccionan.
Puede haber también colisiones frontales, que despedazan las galaxias y cuyos
fragmentos se convierten quizás en galaxias irregulares, como puede haber
también fusiones más suaves entre galaxias espirales, que también desorganizan
los sistemas discoidales, pero dejan tras de sí un tipo de sistema diferente,
una galaxia elíptica. Estos problemas todavía más intrincados están empezando a
ser abordados por las computadoras, pero hay indicios reveladores de que las
galaxias elípticas realmente pueden crearse de esta manera, por la fusión de
las galaxias espirales. En sistemas tan agrupados como se observan hoy las
galaxias, las simulaciones de la computadora muestran que por lo menos un 20% de
las galaxias originales se fusionarán y se convertirán en elípticas o se
deformarán a causa de los efectos gravitatorios de los encuentros. Las
espirales no sólo “pierden” sus discos para convertirse en elípticas, sino que
se transforman al fusionarse, lo cual cambia por completo la estructura de la
galaxia resultante. En vez de que todas las estrellas de una elíptica circulen
por el mismo camino alrededor del núcleo central (como las estrellas de una
galaxia espiral), habría dos o más familias de estrellas en interacción, cada
una de las cuales sigue una órbita que depende de la galaxia de la cual procede
y de la naturaleza de la colisión de fusión. Y esto es exactamente lo que las
observaciones muestran; la evidencia de Doppler indica que las elípticas no
giran como simples nubes de gas, sino que contienen estrellas que siguen
órbitas muy elípticas, aderezadas con las velocidades de las galaxias
fusionadas. En palabras de los especialistas, la distribución de la velocidad
de las estrellas en las galaxias elípticas es altamente anisótropa.
Por tanto, no es de extrañar que los intentos de explicar la naturaleza
de las galaxias elípticas utilizando “modelos” basados en el colapso de nubes
de gas, no funcionen; las elípticas simplemente no se formaron por el colapso
de nubes de gas. La clarificación que resulta del nuevo modelo resuelve una
gran cantidad de viejos problemas, y también significa que muchas de las
interesantes ideas que antes se habían expuesto en un intento para resolver
esos problemas ya no son válidas. Una medida para ver los problemas que
comportaban muchas de estas ideas está en el hecho de que algunas de ellas ni
siquiera fueron utilizadas; mi idea favorita durante mucho tiempo implicaba que
podían existir “agujeros blancos”, fuentes cósmicas de materia imaginadas como
lo contrario de los agujeros negros, en el centro de las galaxias, vomitando
materia que se convertía en estrellas, planetas, etc. Pero, para los románticos
como yo, no hay necesidad de invocar tan exóticas ideas cuando los efectos de
la marea gravitatoria de la fusión y de las fluctuaciones isotérmicas pueden
considerarse ahora adecuadas para hacer la tarea. Todavía creo que los agujeros
blancos pueden desempeñar un papel en la historia del Universo, quizás unidos a
los agujeros negros a través de una especie de “metro cósmico” de agujeros de
gusano del espacio-tiempo [11]. Pero ya
no es necesario ni razonable invocarlos como la fuerza motriz de las galaxias.
Puede parecer sorprendente que todas esas estrellas de la Población III —el 90%
o más de la materia del Universo— hayan dejado un rastro visible tan pequeño en
el Universo. Pero hace mucho tiempo de su apogeo —más del 90% de la historia
del Universo ha tenido lugar después de la era de la recombinación— y tal vez
hayan dejado, después de todo, una débil identificación tras de sí.
La excitación del descubrimiento de la de radiación de fondo cósmica del
cuerpo negro en los años sesenta dio lugar, en los setenta, a otras técnicas
más sofisticadas para medir el espectro exacto de la radiación y determinar, en
particular, la magnitud de las pequeñas desviaciones con respecto a un espectro
del cuerpo negro “perfecto”. Una de las más significativas desviaciones es una
señal detectable (una cresta de eco) en las mediciones en unas longitudes de
onda de unos pocos milímetros o menos. Y, a finales de 1979, Michael
Rowan-Robinson, del Queen Mary College de Londres, y unos colegas que
trabajaban en el campus de Berkeley de la Universidad de
California, indicaron que esta señal podía ser una consecuencia directa de la
primera fase de la formación de las estrellas —la marca de identificación de la
Población III.
La señal se produce en el lugar justo para ser el rastro de la radiación
emitida por granos de polvo caliente de silicato en el espacio, después de la
era de la bola de fuego, pero en un momento todavía temprano en la historia del
Universo. Sólo hay una manera en que esos silicatos pueden haberse formado tan
tempranamente, y es en el caso de que las estrellas se hubieran formado todavía
antes, quemaran su combustible nuclear y crearan elementos pesados, expulsando
al menos una parte del material al espacio. Todo encaja en el esquema de la
Población III, con una bonificación adicional para aquellos que, como yo mismo,
prefieren la idea de un Universo “cerrado”, antes que la de uno en expansión
infinita y eterna. Tal como Rowan-Robinson y sus colegas establecieron, «la
energía necesaria para deformar tan drásticamente el espectro es sustancial, y
requiere la mayor parte de la materia de un Universo con densidad de cierre
para sostener las reacciones termonucleares en la Población III» [12].
En otras palabras, a menos que haya suficiente materia en el Universo
como para hacerlo cerrado más que abierto, es difícil de comprender cómo pudo
producirse suficiente silicato a través de los procesos de la Población III
para causar la señal que se observa en el espectro cósmico de fondo. Ésta es
una conclusión muy dramática para ser deducida de las sutiles formas en que el
débil silbido del campo de fondo de radiación, sólo detectado totalmente hace
una década y media, se desvía formando una perfecta curva de cuerpo negro, e
indica la manera en que los sutiles efectos de segundo orden de esa clase
pueden usarse para proporcionar una información sobre el Universo tan valiosa
como las proporcionadas mediante la observación. Parece como si discerniéramos de
dónde proceden las galaxias como la nuestra, y la clase de Universo en el que
se formaron y vivieron. La historia de cómo nació una estrella como nuestro
Sol, junto con una familia de planetas, y pasa su vida en una galaxia como
nuestra propia Vía Láctea puede escribirse, por primera vez, sobre este fondo
de una historia consistente y auto-contenida de cómo el Universo entero ha
llegado a ser como es ahora desde los tiempos del Big Bang de
la creación. Pero nuestra galaxia no es sólo un resto del antiguo esplendor del
super halo de la Población III; es también un remanso relativamente tranquilo
del Universo de hoy, comparado con los violentos procesos que todavía tienen
lugar en algunas galaxias, y en los objetos conocidos por quásares. Así que,
antes de descender al problema doméstico de ver de dónde proviene nuestro
propio Sistema Solar, éste puede ser el lugar apropiado para hacer una pausa y
desviamos un poco para echar una ojeada a las feroces bestias que se esconden
en el corazón de muchas galaxias. Y, después de todo, quizá no es desviarse,
puesto que es posible que una bestia similar, ahora dormida o en hibernación,
se esconda también en el seno de nuestra Vía Láctea.
§. Violencia en el universo
La actividad de algunas galaxias muestra que, si bien el Universo es hoy un
lugar tranquilo comparado con lo que era durante los primeros mil millones de
años después del Big Bang, aún es capaz de enormes estallidos
energéticos. Algunas galaxias activas presentan un aspecto peculiar en las
fotografías ópticas; otras se detectan por su fuerte emisión de radio. Muchas
galaxias activas son peculiares por su longitud de onda tanto óptica como de
radio. La historia del estudio de las galaxias peculiares data sólo de 1943,
cuando Carl Seyfert publicó detalles sobre seis galaxias que constituyen los
arquetipos de una clase llamadas ahora Seyferts en su honor. Todas esas
galaxias son espirales, con unos centros pequeños pero muy brillantes;
alrededor del 1% de todas las espirales se cree ahora que son del tipo Seyfert,
que significa lo mismo que decir que todas las galaxias espirales pasan
alrededor del 1% de su existencia en un estado activo del tipo del
comportamiento Seyfert, y no que una de cada cien sea inusual en particular.
Durante los últimos cuarenta años, se han descubierto muchas otras
clases de galaxias activas, incluyendo las galaxias N. que tienen un núcleo
todavía más brillante que las de Seyfert, aunque por lo demás son muy
parecidas, y los quásares, que tienen un núcleo tan energético que eclipsa por
completo el resto de la galaxia, y dan la apariencia de una sola estrella muy
brillante, pero a la distancia de una galaxia. Durante algún tiempo después del
descubrimiento de los quásares, a principios de los años sesenta, hubo una
fuerte polémica en torno a si, en su caso, los desplazamientos hacia el rojo,
que los situaban a distancias galácticas, podían considerarse simples
indicadores de la ley de Hubble, o si eran un caso especial, y estaban situados
muy cerca y presentaban un gran desplazamiento hacia el rojo por razones que no
tenían relación con la expansión del Universo. Pero posteriores observaciones
durante las dos décadas siguientes demostraron que los quasars están realmente
incrustados en el corazón de las galaxias, y pocos astrónomos dudan ahora de la
correcta interpretación en el sentido de la ley de Hubble de sus
desplazamientos hacia el rojo. Eso convierte a algunos de ellos en los objetos
más distantes que se conocen, unos pocos con velocidades de recesión superiores
al 90% de la velocidad de la luz. La opinión generalmente aceptada hoy es la de
que las galaxias de Seyfert, las N y los quásares forman una continua
progresión en términos de estallidos energéticos de los núcleos de las
galaxias, y que otros objetos peculiares extra galácticos encajan también en
este esquema [13].
Todos estos objetos se clasifican según su aspecto óptico, y sus
particularidades se revelan principalmente por la concentración de luminosidad
(que significa una región concentrada de emisión de energía) en el centro de
las galaxias. Las observaciones de radio, por otro lado, nos muestran que
algunas galaxias energéticas y quásares extienden su influencia sobre grandes
zonas del espacio. Una radiofuente típica tendrá dos “lóbulos” de potente
radioemisión, que se extienden uno a cada lado de la galaxia a la que
pertenece. La estructura es casi con toda seguridad el resultado de partículas
energéticas que salen despedidas en dos direcciones opuestas desde una fuente
compacta central y que interaccionan con el tenue gas del espacio
intergaláctico. La estructura radio puede extenderse sobre varios millones de
años luz, y es “energizada" por una compacta región de menos de un día luz
de diámetro. Y esto, junto con la rápida variabilidad de alguna de esas
fuentes, sugiere que su energía procede de masivos agujeros negros centrales.
Al mismo tiempo, también sugiere que todas las galaxias puede que tengan
agujeros negros en sus centros, puesto que las diferencias entre los tipos de
galaxias activas parecen ser diferentes de grado, no de clase.
Para tener idea de la energía de los quásares, tomemos como ejemplo la
fuente conocida como AO 0235+164, que apareció de repente, tanto en la longitud
de onda óptica como en la de radio, en otoño de 1975. Al cabo de unas pocas
semanas, la potencia de ese quásar se incrementó en más de 10 41 vatios,
equivalente a 10.000 veces la potencia total de nuestra galaxia en todas las
longitudes de onda. ¿De dónde pudo salir toda esa energía?
El quásar 3C 273, en imagen negativa. El punto negro del centro señala la
región de máxima intensidad de la radioemisión, y la elipse blanca delinea un
chorro de material lanzado hacia fuera desde el centro y que origina una
emisión secundaria de ondas de radio. Casi con toda seguridad, este tipo de
actividad intensa está asociado con un agujero negro situado en el seno del
quásar. (Fotografía de los Hale Observatories.)
En una hipotética conversión completa de la materia en energía (a través
de la interacción materia/antimateria), la conversión sería mc2. Pero
en el Universo real, desde la era de la bola de fuego, la energía sólo ha sido
obtenible a partir de procesos de conversión menos eficientes [14], de
forma que la masa equivalente a la energía liberada en una explosión de esa
clase debe ser sólo una pequeña fracción del total de la masa presente en el
corazón del quásar. La masa implicada alcanza unas magnitudes de millones de
veces la masa del Sol; pero el lugar en el que ocurre la actividad abarca un
diámetro no mayor, en cifras redondas, que el diámetro de nuestro propio
Sistema Solar. La concentración de tanta materia en tan poco espacio sólo puede
ocurrir en forma de agujero negro.
El concepto de agujero negro se ha filtrado en el conocimiento general y
es uno de los pocos chistes científicos (junto con la ecuación E=mc2 y
algún otro) que aparecen usualmente en el repertorio de los caricaturistas de
los periódicos. Por desgracia, los mitos populares no siempre constituyen una
fuente fiable de información científica, de forma que quizá sea mejor que deje
claro lo que es un agujero negro.
§. Agujeros negros y quásares
En pocas palabras, un agujero negro se forma cuando una cantidad suficiente de
materia se concentra en un reducido volumen de manera que la fuerza de
atracción hacia el centro que ejerce la gravedad resulta lo suficientemente
fuerte para superar cualquier resistencia y la materia se colapsa, y adquiere
un estado tan denso y con un campo gravitatorio tan fuerte que ni siquiera la
luz puede escapar de él. Cualquier acumulación de materia —incluida la Tierra—
tiene un campo gravitatorio en su superficie cuya fuerza depende tanto de la
masa como del radio del objeto. Para escapar de un planeta como la Tierra, un
cohete, o cualquier otro proyectil, debe estar dotado de la suficiente energía
para superar esta atracción gravitatoria. Un objeto que se lance con una
velocidad menor que la “velocidad de escape” crítica volverá a caer en la
Tierra, pero si se lanza con una velocidad superior a la de escape podrá salir
al espacio. Para la Tierra, la velocidad de escape es de 11,2 km por segundo;
para la Luna es de 2,4 km por segundo. La velocidad de escape de la superficie
es mayor si la masa de la materia interior es mayor, de manera que sería más
difícil escapar de un planeta como la Tierra, en tamaño y forma, pero el doble
de masa. Pero dado que los planetas gigantes, como Júpiter, no sólo tienen más
masa que la Tierra, sino que también tienen mayor tamaño, la velocidad de
escape desde las capas exteriores de sus atmósferas quizá no sea mayor que
desde la Tierra. Ambos factores, tamaño y masa, deben equilibrarse el uno con
el otro para determinar la velocidad de escape, de modo que incluso en el caso
de nuestro Sol la velocidad de escape de la superficie es de sólo 617,7 km por
segundo, mientras que para Júpiter es de 61 km por segundo.
La Tierra está protegida de la atracción de la gravedad hacia el centro
por las fuerzas eléctricas entre los átomos, que impiden que se fusionen unos
con otros. Dentro del Sol, donde los electrones han sido arrancados de los
núcleos atómicos, el calor de los procesos de fusión que tienen lugar en su
interior mantiene los núcleos en movimiento, como los átomos en un gas
caliente, lo cual produce una presión hacia fuera, que contrarresta la
atracción que la gravedad ejerce hacia el centro e impide el colapso del Sol. Y
cuando terminen los procesos de fusión nuclear el Sol también se colapsará y
pasará a un estado quieto y compacto en el que la gravedad es contrarrestada
por las fuerzas eléctricas que mantienen a los átomos. Pero en el caso de una
estrella con una masa sólo dos o tres veces la del Sol, una vez el centro se
enfría y desaparece la presión hacia fuera, la gravedad dominará por completo.
Los átomos son literalmente aplastados por la irresistible fuerza hacia el
interior, y el colapso continúa indefinidamente. Al tiempo que esto ocurre, la
densidad se incrementa y el radio de la estrella se encoge, lo que hace
aumentar enormemente la velocidad de escape. No hay ya ninguna “superficie” que
pueda servir de referencia, excepto el radio límite en el cual la velocidad de
escape de la estrella que se contrae sobrepasa la velocidad de la luz. Una vez
el objeto se ha colapsado en el seno de este radio, es imposible obtener alguna
información del interior, dado que la propia luz queda atrapada por el intenso
campo gravitacional. Para todo efecto práctico, la estrella ha desaparecido, y
la esfera circundante, donde la velocidad de escape es la velocidad de la luz,
constituye la superficie de un agujero negro.
Por lo tanto, una manera de hacer un agujero negro es poner una masa de
materia equivalente a varios soles en un lugar, esperar que las reacciones de
fusión nuclear sigan su curso y ver cómo se colapsa [15]. También
es posible imaginar la creación de un agujero negro de otra manera. Dado que la
velocidad de escape en la superficie de un objeto es inversamente proporcional
al cuadrado de la distancia del centro, pero directamente proporcional a la de
la masa, que, a su vez, depende del volumen y es proporcional al cubo del
radio, el resultado neto es que si se añade más masa con la misma densidad a un
volumen en aumento, la velocidad de escape en la superficie aumenta. De modo
que si imaginamos un cúmulo de estrellas como el Sol amontonadas unas junto a
otras en el espacio, la velocidad de escape desde la superficie del cúmulo será
mayor que la velocidad de escape desde la superficie del Sol. En el caso de un
cúmulo suficientemente grande, la velocidad de escape será mayor que la
velocidad de la luz, con lo que se convertirá en un agujero negro del cual nada
podrá escapar. Esto es muy curioso, puesto que cabe por completo la posibilidad
de que una galaxia entera fuera lo suficiente compacta (es decir, lo suficiente
densa) para que esto ocurriera, sin que las condiciones dentro de ella fueran
muy diferentes a las que vemos alrededor nuestro en nuestra Galaxia: podrían
formarse estrellas, con planetas y vida en ellos, y todo en un agujero negro de
baja densidad y gran radio. En realidad, ésta es una manera de considerar el
propio Universo, si se expande a una velocidad inferior a la velocidad crítica
necesaria para que sea “cerrado”. Un Universo así es, en realidad, un agujero
negro autosuficiente. Pero éstos son unos objetos muy diferentes de las bestias
que residen en los centros de las galaxias.
Esas bestias deben ser en realidad la variedad superdensa de agujero
negro, con materia comprimida hasta la no existencia al otro lado de la barrera
de la superficie en la cual la velocidad de escape supera la velocidad de la
luz, el “horizonte” del agujero negro. No está claro lo que le sucede a la
materia al otro lado del horizonte; quizá desaparezca de nuestro Universo.
(Quizás incluso reaparezca como un “agujero blanco” en algún otro universo.)
Pero lo que importa, en términos de la actividad en los centros de las
galaxias, es cómo se comporta un agujero negro y qué aspecto tiene desde fuera.
En pocas palabras, es el sumo pozo sin fondo, que se traga toda materia que cae
en sus garras gravitatorias y que se hace cada vez más masivo, con un campo
gravitatorio cada vez más fuerte, a medida que esto sucede. Cuando la materia
es desgarrada y aspirada hacia el agujero, sus partículas entran en un estado
de constante colisión entre sí, en un turbulento torbellino de material, que
trata de penetrar como por un embudo en un pequeño volumen de espacio. Y con
todo este forcejeo, las partículas se calientan e irradian energía en el
espectro electromagnético. Bajo las condiciones adecuadas, el proceso de
conversión de energía puede ser más eficiente que ningún otro, excepto la
aniquilación materia-anti- materia, dado que se convierte en radiación
energética un 10 o 20% de la masa del material que penetra. Y eso nos lleva de
nuevo a los repentinos estallidos energéticos como el de otoño de 1975 del AO
0235+164.
La galaxia Centauro A también puede albergar un agujero negro energético.
Además de la peculiar estructura de la galaxia misma, existen fuentes de ondas
de radio tanto en el centro como en ambas mitades, lo cual sugiere la
existencia de explosiones de energía en algún momento del pasado. El objeto
brillante debajo de la galaxia es una estrella del primer término de nuestra
propia Galaxia. (Fotografía del Anglo Australian Telescope.)
Para una conversión eficiente de masa-energía del 10 ó 20%, un quásar
típico debe engullir alrededor de una o dos masas solares al año, una cantidad
razonable de materia para una galaxia que puede contener varios miles de
millones de estrellas, lo cual da a entender que hay una provisión de
combustible que puede durar millones de años, así como la posibilidad de crear
un agujero negro- central de quizá cien millones de masas solares y que queden
aún suficientes estrellas en el disco circundante para convertirse en una
galaxia ordinaria cuando la actividad del quásar cese. El colapso de gas
residual hacia el centro de un antiguo super halo proporciona diversas maneras
en que podría formarse un agujero negro; el centro de la propia nube de gas
podría colapsarse y convertirse directamente en un agujero negro, o podría
producir unas cuantas estrellas muy masivas que estallaran y cuyos restos
formaran agujeros negros que se fusionarían entre sí en el corazón de la
galaxia embrionaria. Incluso es posible que se formara un cúmulo central de
cientos de millones de estrellas y que éstas desarrollaran un ciclo normal
hasta convertirse en un cúmulo de agujeros negros, que se fusionarían para
formar uno solo, todo ello durante los primeros estadios de la formación de las
galaxias tal como hoy las conocemos. Después de todo, la fase de la actividad
de la bola de fuego y la formación de los super halos tuvo lugar en los
primeros 2.000 millones de años de los 15.000 millones que el Universo tiene;
el colapso del gas residual hacia el centro de los halos tuvo que haber
provocado una explosión de actividad violenta, hasta que las cosas se calmaron
y se estableció un nuevo modelo ordenado (típicamente una galaxia espiral),
quizá 10.000 millones de años antes de llegar al estado presente de, digamos,
nuestra Galaxia. Y esto explica, con cierta claridad, por qué los quasars más
brillantes son los que presentan mayores desplazamientos hacia el rojo.
Recuérdese que cuanto más lejos está un objeto, más tarda su luz en llegar
hasta nosotros; en el caso de un quásar con un elevado grado de desplazamiento
hacia el rojo puede que estemos viéndolo por una luz que partió de él cuando el
Universo tenía sólo 4.000 millones de años de edad y el agujero negro todavía
absorbía la materia que le rodeaba. Pero cuando contemplamos una galaxia con un
desplazamiento hacia el rojo que corresponde a una velocidad de recesión mucho
más pequeña, la podemos ver tal como era mucho más recientemente, cuando las
cosas ya se habían calmado mucho más.
Aunque la mayor explosión de formación masiva de agujeros negros y la
actividad de los quasars ocurriera al principio de la historia del Universo —lo
cual se confirma por el hecho de que vemos más quásares con un alto
desplazamiento hacia el rojo que cercanos—, el proceso puede que todavía
prosiga en algunas galaxias que han evolucionado con más lentitud, lo cual
explica los quasars que vemos relativamente cerca. Y los estadios intermedios
del proceso, los diversos tipos de precursores de agujeros negros que quizá se
forman en los centros de las galaxias, pueden muy bien explicar la variedad de
galaxias activas intermedias entre las “normales” y los quásar, como son las
galaxias N, las Seyfert y los objetos BL Lacaertae. Por su
parte, las explosiones Seyfert puede que ocurran cuando el antiguo agujero
negro central formado durante la actividad original del quasar trata de
capturar materia de la galaxia que lo rodea y destella por breve tiempo en un
retomo en pequeña escala a sus días de gloria originales. Esta es la
explicación que encuentro más satisfactoria para entender por qué toda galaxia
espiral pasa alrededor del 1% de su existencia en explosiones intermitentes de
actividad del tipo de Seyfert. El material con que se alimenta el agujero negro
central podría estar constituido por gases procedentes de las estrellas, los
restos de estrellas que han colisionado unas con otras cerca del núcleo
central, o incluso por estrellas enteras capturadas por las fuerzas de
atracción del agujero negro cuando sus órbitas las acercan peligrosamente a
éste. Debe recordarse que una explosión de quasar requiere sólo una o dos masas
solares al año, y que una galaxia Seyfert es un producto de energía con tan
sólo una fracción de la potencia de un quásar.
Ningún modelo realmente satisfactorio de quásar explica la formación de
las estructuras de radioemisión en forma de “doble lóbulo”, en cambio la teoría
del agujero negro sí lo hace. El agujero negro debe estar en rotación, y con
mucha rapidez si consideramos hasta qué punto se ha contraído la nube de gas al
formarlo, de modo que el turbulento material que lo rodea se concentra en un
disco. En una situación tal, las partículas energéticas, que se producen en las
colisiones entre átomos encauzados hacia el interior del agujero, escaparán a
lo largo de las “líneas de menor resistencia” desde los “polos” del sistema en
rotación. La radiofuente más grande que se conoce se extiende a 20 millones de
años luz, lo cual demuestra que ha tenido lugar una constante producción de
partículas energéticas durante 20 millones de años, con los haces dirigidos a
lo largo de la misma alineación exacta por todo el tiempo. Además, hay también
una fuente central muy compacta en el centro de la galaxia (3C236) que está
igualmente alineada en la misma dirección exacta. Esta configuración se ajusta
exactamente a la idea de un agujero negro en rotación de cuyos polos salen
disparadas las partículas.
¿Y qué hay acerca de las fuentes muy potentes y de fluctuación rápida,
como AO 0235+164? Casi con toda seguridad, éstos son casos en que el chorro
apunta recto hacia nosotros; estamos, en efecto, viendo directamente desde
abajo el agujero negro masivo y en rotación.
Sabemos, por el tamaño de fuentes como 3C236, que la actividad de los
quasars puede continuar durante unos 20 millones de años. Pero no hay fuentes
más grandes, lo cual sugiere que la actividad no puede continuar por mucho más
tiempo que éste, cosa que corrobora el hecho de observar que quedan pocas
radiofuentes potentes y pocos quasars activos en el Universo. Debe de haber, no
obstante, muchos quasars muertos en el corazón de las galaxias y es interesante
observar nuestros vecinos cercanos del Universo para descubrir evidencias de su
presencia. La mejor candidata para ser un quásar muerto es probablemente la
radio galaxia Centaurus A, a unos cinco mega parsecs de distancia. Posee un
extenso par de lóbulos de radio que ahora radian sólo muy débilmente comparado
con objetos como 3C236 o AO 0235+164, más una diminuta fuente de radio y rayos
X en el centro de la galaxia de sólo un día luz de diámetro. Probablemente es
un agujero negro de unos 10 millones de masas solares, que brilla gracias a la
energía liberada por material residual que gotea en su interior.
Pero la galaxia más interesante desde el punto de vista humano es esta
en que vivimos. ¿Hay alguna prueba de que nuestra Vía Láctea fuera, alguna vez,
un quasar? Hay, ciertamente, testimonios firmes de actividad violenta en el
corazón de la Vía Láctea. Las observaciones de radio revelan nubes de gas que
se alejan del centro, e incluso delgados chorros de material procedentes del
núcleo. En el corazón de nuestra Galaxia hay un disco de material en rotación,
a unos 1.500 parsecs de diámetro, con un anillo en expansión de gas frío, de
380 pcs de diámetro, incrustado en él. La región central contiene nubes ricas
en toda clase de moléculas detectadas en el espacio interestelar, y existe una
radiofuente potente (para los estándares galácticos) justo en el centro de la
galaxia. Esta fuente mide sólo unos cien millones de kilómetros de diámetro, y
podría muy bien ser el resultado de un lento flujo de acreción hacia un agujero
negro central. Pero podemos adquirir cierta idea de la masa del objeto que hay
en el núcleo mediante nuestro viejo amigo, el desplazamiento Doppler, que nos
revela la velocidad con que las nubes centrales describen su órbita alrededor
del centro. Un objeto central más masivo mantendría su velocidad superior en
las órbitas de las nubes (de la misma manera que un objeto más masivo tiene una
velocidad de escape mayor), y las pautas de velocidad observadas sugieren un
objeto central con una masa de unos 5 millones de veces la del Sol. Eso no es
suficiente para poner en marcha un quasar desarrollado —a pesar de que sea
impresionante para un objeto tan pequeño para caber dentro de la órbita de
Júpiter alrededor del Sol. Pero puede bastar para iniciar las explosiones
Seyfert cuando cae en él la suficiente concentración de materia.
Por la distribución de los elementos principales que se detectan ahora
alejándose rápidamente del centro, podemos incluso establecer una buena
conjetura de cuándo tuvo lugar la última gran explosión en el núcleo de nuestra
propia Galaxia. Se deduce que ocurrió hace sólo 12 millones de años, una
minúscula fracción de la historia de nuestra Galaxia, o de nuestro propio
Sistema Solar, y ello sugiere que en el pasado inmediato, según los estándares
cósmicos de tiempo, nuestra propia Galaxia se encontraba en el estado Seyfert.
Algunos astrónomos han especulado que esa clase de explosiones, que tienen
lugar cada doscientos millones de años aproximadamente, podrían hacer llegar
algo de su influencia a través de la Galaxia hasta perturbar el Sistema Solar e
incluso nuestro propio planeta Tierra, produciendo tensiones (quizás en la
forma de oleadas de radiación cósmica) que podrían explicar las algo súbitas
“extinciones” de muchas especies de plantas y animales que se encuentran en el
registro geológico. También cabe que la actividad pueda explicar la estructura
espiral que se observa en el disco de nuestra Galaxia y de otras. Por cálculos
sencillos de cómo las configuraciones en espiral pueden cambiar por el
movimiento de rotación de las galaxias, resulta que esta configuración no
perduraría más de unos mil millones de años antes de quedar igualada por la
rotación. La aparente permanencia de la configuración en las galaxias espirales
puede explicarse por una teoría de la onda de densidad, en la que la
configuración espiral se considera que es una onda de choque que se mueve
alrededor del disco, y si el agujero negro central está implicado en
explosiones cada pocos cientos de millones de años, entonces cada cataclismo de
éstos podría generar su propia configuración espiral, resultado de la
combinación de una explosión hacia fuera y del movimiento aproximadamente
circular de las estrellas en órbita alrededor del núcleo central. En ese caso,
la configuración se renovaría repetidamente, y cada configuración en particular
podría perfectamente durar mucho menos de mil millones de años entre cataclismo
y cataclismo. La teoría de la onda de choque —o de explosión— es muy buena a
condición de que pueda explicarse de dónde viene la explosión, y la idea de un
núcleo galáctico activo, un agujero negro con una masa de 5 millones de veces
la solar, implicado en repetidas explosiones Seyfert parece ser muy adecuada.
Sería sorprendente que toda esta actividad no tuviera ninguna influencia
sobre el Sistema Solar, y, en efecto, las mejores teorías actuales ven una
relación muy estrecha entre la formación y evolución del Sistema Solar y la
naturaleza de la Galaxia espiral en la que vivimos. La estructura espiral, a su
vez, parece ahora que tiene relación con la naturaleza del agujero negro
central, y éste y la propia Galaxia brillante son residuos de la formación de
una enorme super galaxia originada en la fluctuación isotérmica en la era de la
recombinación, hace 15.000 millones de años o más. De manera que cuando sólo
empezamos a ver cómo se han formado el Sol y su familia de planetas, hemos
recorrido ya un gran trecho en la cadena de entrelazados y, alguien podría decir,
improbables acontecimientos. ¡Y eso que ni siquiera hemos empezado a considerar
el rompecabezas del origen de la vida!
Capítulo III
El origen de nuestro sistema solar
Contenido:
§. Una galaxia de estrellas
§. Lugar de nacimiento de las estrellas
§. Un disco en rotación
§. Dos clases de planetas
§. Una variedad de estrellas
§. Distancias estelares
§. Duración de la vida de las estrellas
§. Muerte de las estrellas
El origen de nuestro Sistema Solar está íntimamente entroncado con la
naturaleza de nuestra Galaxia, de la misma forma que ésta fue resultado de la
estructura subyacente de todo el Universo. A cada paso en la cadena que va
desde el Big Bang hasta el hombre mismo, encontraremos esta
íntima relación con lo que ha sucedido anteriormente; y en última instancia,
esto nos revela que la clase de criaturas que somos depende no sólo de la clase
de planeta en el que vivimos, sino de la exacta naturaleza física del propio Big
Bang, el origen del Universo. Somos criaturas de nuestro Universo, y
criaturas como nosotros no podrían existir sin que el Universo fuera tal como
es.
Cuando nos ocupamos del problema de cómo se originó nuestro propio
Sistema Solar —el Sol con su familia de planetas y restos cósmicos— estamos
empezando a planteamos, sin embargo, unas cuestiones mucho más específicas que
las planteadas hasta ahora acerca de la naturaleza del Universo y del origen de
las galaxias. En ese vasto recorrido por el espacio y el tiempo, las respuestas
tienen que ser inevitablemente muy generales y, por tanto, “fáciles” en el
sentido de que no tratan de datos específicos. Pero el problema varía algo si
deseamos explicar por qué existe una estrella con la masa de nuestro Sol, con
una familia concreta de planetas, cada uno de ellos a una distancia determinada
del Sol y cada uno de ellos con su masa específica. Ahora, debido a que planteamos
preguntas más precisas, las “respuestas” de los teóricos pueden parecer, en
muchas ocasiones, más vagas. Pero aún podemos describir en términos generales
cómo una estrella de la Población I (población del disco) nace de una nube de
gas interestelar, acompañada de un séquito de planetas.
Dado que nuestro Sol es un miembro de la población del disco de nuestra
Galaxia espiral, y puesto que el foco de atención de este libro es cómo hemos
sido creados nosotros a partir de la caótica bola de fuego que fue el inicio
del Universo, al llegar a este punto hemos de saltamos deliberadamente algunos
rompecabezas intrigantes acerca no sólo del Universo en general, sino de
nuestra Galaxia. Puesto que nuestra Galaxia no es un quásar, o una potente
radiofuente, o una elíptica, por ejemplo, la historia del desarrollo de la vida
humana en ella no depende de la naturaleza de los quásares, ni de las potentes
radiofuentes ni de las elípticas; dado que nuestro Sol es un miembro del disco
de Población I, la historia del Sistema Solar no depende de ninguna manera en
detalle de la naturaleza de las estrellas más viejas del halo de la Población
II, y aún menos de las estrellas del super halo de la Población III, una vez
hemos visto que la presencia del disco, y su velocidad de rotación, quedó
determinada hace mucho tiempo cuando la proto galaxia se estaba empezando a
formar a partir de una fluctuación en la ya agonizante bola de fuego. El
problema central, para nosotros los humanos, es cómo se formaron las estrellas
de la Población I, y sus planetas, en el seno del disco en rotación
característico de una Galaxia espiral como nuestro sistema de la Vía Láctea.
§. Una galaxia de estrellas
Visto desde encima, el disco de nuestra Galaxia se parecería a una enorme
girándula, con una protuberancia central de unos siete kilo pársecs de diámetro
y rodeada por unos brazos espirales que cubren un diámetro total de unos
treinta kilo pársecs. El Sol está situado a dos tercios de camino entre el
centro y el borde, a unos 10 kpc del núcleo de nuestra Galaxia. Este es un
lugar que no tiene nada de especial; nuestro Sistema Solar no está ni cerca del
núcleo ni en el mismo borde de la Galaxia, y parece ser un sistema muy
corriente en una parte muy corriente de la Galaxia. A la distancia del centro
de donde está situado el Sol, el disco tiene un grosor de unos 800 parsecs; la
protuberancia central tiene unos 3 kpc de grosor, y desde el Sistema Solar
hacia fuera, el disco se hace un poco más delgado.
El sistema en conjunto contiene unos 100.000 millones de estrellas, lo
cual corresponde a una gran espiral —no espectacularmente grande, pero sí lo
suficiente para justificar la clasificación de nuestra Vía Láctea como una
“espiral gigante”. De manera que, al fin, hay algo ligeramente
fuera de lo corriente en nuestro hogar en el Universo.
Toda esta información no procede, por supuesto, de un observador
imaginario que contemplara el disco desde arriba, sino de cuidadosas
observaciones desde la posición del Sistema Solar incrustado en el disco a dos
tercios del camino hacia el borde. Es más bien como si un observador estuviera
sentado en un bosque con una brújula y alguna clase de telémetro, de modo que,
sin moverse, pudiera marcar las posiciones de todos los árboles visibles y
trazar un mapa de la parte del bosque donde está. Si los árboles estuvieran
distribuidos según una pauta regular, podría llenar los espacios en blanco del
mapa —los árboles fuera de su vista— conjeturando dónde deberían estar para
seguir la pauta regular. En nuestra Galaxia, la regularidad viene proporcionada
por la estructura espiral; las observaciones ópticas, con infrarrojos y de
radio (especialmente en la longitud de onda de 21 cm, característica de la
radiación de las nubes de hidrógeno), proporcionan los ojos del observador; y
la telemetría depende de una variedad de técnicas, pero especialmente del
comportamiento regular de las variables cefeidas mencionadas antes. Con la
determinación de las velocidades gracias al ubicuo desplazamiento Doppler (con
toda seguridad, la “herramienta” más valiosa para la observación astronómica),
conocemos la rotación de toda la Galaxia, así como el movimiento tanto de las
estrellas individuales como de los cúmulos de estrellas.
Es la rotación la que “sostiene” el disco contra la gravedad, por
supuesto, pero sólo en el plano de éste. En cierto sentido, el disco se está
todavía formando —con seguridad, todavía evoluciona—, dado que nuevas estrellas
siguen naciendo en él. Y, en la medida en que el material de la Galaxia
(propiamente, el material residual de los ya lejanos días de gloria del super
halo) todavía se está asentando bajo la fuerza de la gravedad y a través de
sucesivas colisiones entre las nubes de gas, la región de actividad del disco
se hace más delgada. Las estrellas más viejas del disco están esparcidas por un
grosor total de unos 700 u 800 parsecs; las más jóvenes, recién formadas
(incluyendo muchas estrellas O, masivas y calientes), están confinadas en una
angosta región de un grosor de sólo 80 pe. Y nuestro Sol, mostrando de nuevo su
poco excepcional mediocridad, es una estrella de edad madura que vaga por no
más de 80 pe hacia arriba o hacia abajo del plano del disco.
Las estrellas del disco forman grupos, y las propias estrellas tienden a
ser pequeñas, la mayoría de ellas con sólo una décima parte de la masa del Sol.
De manera que, por lo menos, el Sol es más grande que la media, si bien de
ninguna manera es una gigante, en términos estelares. Parece ser que las
estrellas del disco forman cúmulos abiertos, con muchas estrellas que nacen del
colapso de una nube de gas, y que los cúmulos se dispersan gradualmente a
medida que las estrellas individuales orbitan alrededor de la Galaxia. Las
edades de los cúmulos pueden determinarse por el color de las estrellas, que
depende de la temperatura de su superficie, y cambia a medida que cada estrella
se hace más vieja; se conocen algunos cúmulos que tienen unos pocos millones de
años, y otros tienen edades que se elevan a unos miles de millones. En
conjunto, se han identificado más de 700 de estos cúmulos “abiertos” en la
vecindad intermedia (en 2 kpc) de nuestro Sistema Solar. ¿Qué hace que una nube
de gas se colapse para formar un gran cúmulo abierto de estrellas? Eso, según
parece, depende muchísimo de la estructura del propio disco.
En primer lugar, el disco no gira como una rueda sólida. Cada estrella
—y cada sistema solar— describe una órbita alrededor del centro de la Vía
Láctea a su propia velocidad, la cual depende de la distancia a que se
encuentra del centro. Si están muy cerca, su velocidad orbital tiene que ser
mayor para evitar que sean arrastradas hacia el centro por la gravedad, de modo
que sólo permanecen allí las estrellas que se mueven rápido; las demás han sido
engullidas por el agujero negro central. Más lejos, donde la atracción de la
gravedad es menor, una marcha más pausada será suficiente para mantener a la
estrella segura en su órbita aproximadamente circular. Por lo tanto, el disco
como un todo se encuentra en rotación diferencial, con sus regiones interiores
que giran más rápidamente que las exteriores. Pero unos términos como “pausado”
son relativos —en el caso de nuestro propio Sistema Solar, la velocidad orbital
es de 250 km/s (es decir, nos movemos por el espacio alrededor de la Galaxia a
unos 900.000 km/h)—, lo cual es bastante impresionante. No obstante, incluso a
esa velocidad, el Sol y el Sistema Solar necesitan unos 250 millones de años
para dar una vuelta completa a la Galaxia. Desde que el Sistema Solar se formó,
ha circunnavegado el disco galáctico sólo veinte veces, en unos 5.000 millones
de años. Aun así, el hecho de que las estrellas del disco estén en un constante
movimiento diferencial significa que la configuración espiral tan
característica ahora tendría que romperse y “disolverse” en poco tiempo,
ciertamente mucho menos tiempo que los 250.000.000 de años que tarda el Sol en
completar su órbita en la Galaxia. La explicación normal de por qué la
configuración espiral permanece aun cuando las estrellas siguen sus propias
órbitas independientes es que las verdaderas características de las espirales
no vienen dadas por las estrellas brillantes que se destacan tan claramente en
las fotografías astronómicas, sino por las oscuras franjas de gas y polvo que
hay junto a ellas. Los brazos espirales son esencialmente regiones donde el gas
se encuentra concentrado y comprimido, y las estrellas brillantes nacen en
realidad en sus bordes como resultado de la compresión. Esto explica la
disposición de las estrellas brillantes, pero no explica del todo la estructura
espiral, puesto que no hay ninguna teoría establecida de por qué el gas y el
polvo deben formar una configuración en espiral. Casi con seguridad, esto está
relacionado con la actividad violenta que tiene lugar en el núcleo de la
Galaxia, donde las ondas de choque que se mueven desde el centro hacia fuera se
interaccionan con el gas que se mueve en órbitas circulares y forman una
configuración en espiral. Lo que importa para la formación del Sistema Solar,
no obstante, es que sí existió una configuración en espiral de material
concentrado (una “onda de densidad”) desde el principio de la historia del
sistema discoidal de la Vía Láctea, y que esa onda de densidad produjo una
repetida compresión de cierta nube de gas que describía órbitas alrededor del
centro de la Galaxia a una distancia de unos 10 kpc.
§. Lugar de nacimiento de las estrellas
Cada vez que una nube así atraviesa un brazo espiral (lo cual ocurre dos veces
en cada órbita, una en cada lado de la Galaxia, si es que hay dos brazos, como
suele ser habitual en las espirales), es aplastada por la onda de compresión.
Puede “des aplastarse” un poco, cuando sale por el otro lado, pero así y todo,
acaba siendo más pequeña y más densa que antes del pasaje (lo cual significa
más compactada por su propia gravedad). Después de unas cuantas órbitas alrededor
de la Galaxia, al ser aplastada un par de veces en cada órbita, la nube se
colapsará por completo y se fragmentará en protoestrellas, cuando la fuerza de
su empuje gravitacional sea suficiente para romper la nube en pedazos. En
algunos casos, la “última gota” que desata el colapso final de la nube puede
ser una onda de choque adicional, proveniente de la explosión de una supernova
cercana, una estrella masiva que ha llegado violentamente al final de su vida.
Estas estrellas de gran masa se forman a su vez en el denso material de los
brazos espirales, pero su existencia puede durar tan sólo unos cuantos millones
de años y estallan antes de que se hayan movido muy lejos en la Galaxia. Y las
ondas de choque que provocan pueden provocar la formación de estrellas en otras
nubes de aquella parte del brazo espiral. Esto, de hecho, es lo que parece que
sucedió en el nacimiento de nuestro propio Sistema Solar.
Las explosiones de supernovas marcan un posible modo de morir de una
estrella, y a su debido tiempo explicaré cómo algunas estrellas llegan a un
estado explosivo. Por ahora, todo lo que necesitamos saber es el hecho de que
algunas estrellas efectivamente explotan, mientras brillan por pocos días como
toda una Galaxia de estrellas normales, y envían ondas de choque que se abren
paso a través de las tenues nubes de gas y polvo del espacio interestelar.
También esparcen por el espacio material procedente de la estrella que ha
explotado, que se mezcla con el material de las nubes interestelares y
enriquece la mezcla de la que se formarán nuevas estrellas (y planetas).
Este material de la supernova es lo que proporciona una firme evidencia
de que nuestro propio Sistema Solar se originó a consecuencia de alguna
explosión estelar así.
La evidencia procede directamente de los meteoritos, fragmentos de rocas
interplanetarias que de vez en cuando caen en la Tierra. Estos meteoritos se
cree que son trozos residuales del material a partir del cual se formó el
Sistema Solar, que todavía describen órbitas alrededor del Sol y que de cuando
en cuando colisionan con la Tierra. Los fragmentos más pequeños se queman por
completo en la atmósfera como meteoros, y este bombardeo meteórico prosigue sin
cesar en forma de partículas del tamaño de un grano de arena que llueven sobre
la Tierra. Con menos frecuencia nos llegan pedazos suficientemente grandes para
sobrevivir a la ígnea caída a través de la atmósfera, y muchos de ellos ni
siquiera pueden encontrarse, puesto que caen en el mar o en un desierto, jungla
o región montañosa poco poblados. Algunos meteoritos gigantescos han alcanzado
la Tierra durante su vida y han provocado cráteres como los de la Luna, la
mayoría de los cuales han desaparecido debido a la erosión, pero algunos de
ellos, como el “Meteor Cráter” de Arizona, todavía son visibles. Y han podido
encontrarse algunos pedazos de meteoritos de mediano tamaño, que se han
estudiado en los laboratorios científicos.
La nube incandescente de gas y polvo en el espacio señala el lugar de una
activa formación de estrellas en la Gran Nube de Magallanes, pequeña galaxia
irregular situada junto a la nuestra. La nube resplandece porque el hidrógeno
que contiene es activado por las jóvenes estrellas calientes de su interior, de
manera semejante a como el gas de los tubos de los anuncios es activado por la
electricidad. Pronto —en la escala de tiempo galáctico— el hidrógeno se
disipará en el espacio, dejando atrás las nuevas estrellas. (Fotografía
realizada con el Anglo-Australian Telescope.) (Cortesía del Science Research
Council.)
Estos estudios recibieron un notable impulso a finales de los años
sesenta, cuando se desarrollaron nuevas técnicas sobre todo para analizar rocas
lunares que trajeron a la Tierra los astronautas del Apolo. En 1969, un gran
meteorito cayó cerca del pueblo de Pueblito de Allende, en México, con unas dos
toneladas de material que habían sobrevivido a la caída y se habían fragmentado
en trozos recuperables.
Cuando una estrella muere en una explosión de supernova desparrama material
por el espacio en regueros de gas. Eventualmente, este material, que incluye
elementos pesados, llega a integrarse en las nubes de gas y de polvo que se
condensan para formar nuevas estrellas. (Fotografía del Lick Observatory.)
Este meteorito de Allende ha sido analizado con más detalle que
probablemente cualquier otro anterior, en la creencia de que contiene
materiales que no han variado desde la época de la formación del Sistema Solar,
hace unos 5.000 millones de años [16]. Este
material presenta algunas diferencias importantes con respecto al material de
la superficie de la Tierra, que ha experimentado, como es lógico, algunos
cambios drásticos desde que se formó el Sistema Solar. La evidencia clave
reside en las cantidades de ciertos isótopos de elementos determinados
existentes en las muestras del meteorito.
Los elementos se presentan en diversas variedades llamadas isótopos, que
son químicamente idénticas, pero con átomos de diferente peso. El oxígeno, por
ejemplo, se encuentra normalmente en forma de isótopo oxígeno-16, cada átomo
del cual está constituido por un grupo de ocho protones de carga positiva y
ocho neutrones neutros (el núcleo) rodeados por una nube de ocho electrones
eléctricamente negativos. Otros dos isótopos son el oxígeno-17 y el oxígeno-18,
que se diferencian del oxígeno-16 sólo por tener, respectivamente, uno y dos
neutrones más en sus núcleos. Esto no afecta su comportamiento químico, que
depende del número de electrones y de su distribución; pero sí los hace
físicamente distinguibles, puesto que el oxígeno-17 es más pesado que el
oxígeno-16, y el oxígeno-18 todavía lo es más. Todos estos isótopos del oxígeno
son estables. Pero algunos isotopos de ciertos elementos son radiactivos,
emiten espontáneamente partículas y se transforman en otros elementos. El
aluminio-26, por ejemplo, contiene trece neutrones y trece protones en su
núcleo, pero es inestable (la forma estable, el aluminio-27, tiene un neutrón
extra). La inestabilidad se revela porque cada uno de los átomos de aluminio-26
emitirá, con el tiempo, un positrón (la contrapartida cargada positivamente del
electrón), convirtiéndose un protón del núcleo en un neutrón y transformándose
el átomo en magnesio-26 (doce protones, catorce neutrones). El comportamiento
muy regular del proceso de desintegración radiactiva significa que en cada muestra
escogida de un isótopo radiactivo determinado, la mitad de los átomos se
desintegrarán de esta manera en un tiempo característico de ese isótopo en
particular. En el caso del aluminio-26, la “media vida” es de 700.000 años, de
modo que todos los Al-26 presentes en la formación del Sistema Solar debieron
de haberse formado muy poco tiempo antes, en la escala del tiempo cósmico, y
todos deben haberse desintegrado ya, convirtiéndose en magnesio-26.
Esto es precisamente lo que se encontró en las muestras del meteorito de
Allende: magnesio-26, que sólo pudo haberse formado por la desintegración del
aluminio-26 dentro del meteorito, después de la formación del Sistema Solar.
(Los otros dos isótopos estables del magnesio, magnesio-24 y magnesio-25,
pueden haberse formado de otras maneras, pero sucede que el isótopo 26 sólo
puede formarse a partir de la desintegración del aluminio-26.) Por lo tanto, la
nube de la cual el Sistema Solar nació, contenía aluminio-26, que debió de
producirse en algún lugar y se esparció por la nube justo antes de que se
colapsara [17].
Además, las proporciones de los isótopos de oxígeno encontradas en las
muestras del meteorito de Allende son diferentes de las de la Tierra; parece
haber más oxígeno-16, que también debió de proceder de “fuera” de la nube de
gas colapsada. Y también hay otras diferencias sutiles entre la abundancia de
isótopos en el meteorito y lo que sería de esperar que hubiera si la nube
simplemente se hubiera colapsado bajo su propia fuerza de gravedad. La mejor
forma de crear isótopos exóticos es una explosión de una gran supernova, un
proceso tan energético que los átomos se rompen y los núcleos atómicos se
reúnen en nuevas y exóticas combinaciones antes de ser lanzados al espacio. La
única manera de explicar la abundancia de isótopos que se encuentran en los
meteoritos sería que una supernova hubiera hecho explosión cerca de la nube de
gas que dio origen al Sistema Solar justo antes de colapsarse. En ese caso,
parece más que probable que habría sido la explosión de la supernova la que
habría desatado el colapso; utilizando medios aún más sutiles para la medición
de la abundancia de isótopos, astrónomos como David Clark, del Royal Greenwich
Observatory, estiman que debió de producirse una supernova anterior cerca de la
nube, unos 100 millones de años antes. Resulta que éste es el tiempo que tarda
nuestro Sistema Solar en atravesar el espacio que hay desde un brazo espiral al
siguiente, en su órbita alrededor de la Galaxia. De modo que quizá la primera
supernova ayudó a disponer el escenario al comprimir la nube pre solar en un
brazo espiral, y después, 100 millones de años más tarde, vino el apretón
definitivo de la mano de otra supernova en el otro brazo espiral.
Los más modernos telescopios y las más recientes técnicas fotográficas nos
brindan una espectacular riqueza de detalles, como en esta fotografía de un
reguero de material interestelar, del que se forman nuevas estrellas y sistemas
solares. (Fotografía tomada con el telescopio Schmidt, cedida por el Royal
Observatory de Edimburgo.)
En ese momento, la gravedad de la nube pudo tomar el poder. Al mismo
tiempo que la nube se destruía por la fuerza de su propia gravedad, se formaban
muchas estrellas que desde entonces se han ido separando y esparciendo
alrededor de la órbita del Sol a través del espacio. Sólo un fragmento de
aquella nube original, dominada ahora por la fuerza de su propia gravedad al
aumentar su densidad, estaba destinado a formar la estrella que llamamos Sol y
una familia de planetas, entre los que se encuentra la Tierra, que juntos
constituyen nuestro Sistema Solar.
La nebulosa Cabeza de Caballo es una espectacular área de gas frío,
silueteada contra un material interestelar más caliente, suavemente brillante.
Forma parte del complejo de estrellas y nebulosas situadas cerca de la espada y
el cinturón de Orión; la estrella azul brillante de la izquierda de la “cabeza
de caballo" es la estrella más oriental del cinturón de Orión, la Zeta de
Orión. (Fotografía tomada con el telescopio Schmidt, cedida por el Royal
Observatory de Edimburgo.)
Messier 8, la nebulosa de la Laguna, muestra algunas de las formaciones
conocidas como glóbulos de Bok. Éstos son áreas de material polvoriento, foto
absorbente, del espacio. La nebulosa tiene un diámetro de 30 años luz y se
encuentra situada a una distancia de 4.000 años luz. (Fotografía tomada con el
telescopio Schmidt, cedida por el Royal Observatory de Edimburgo.)
§. Un disco en rotación
La naturaleza del Sistema Solar, al condensarse a partir de una nube de gas que
se colapsaba, estuvo determinada por la rotación. Del mismo modo que, a una
escala mucho mayor, la rotación convirtió una nube de gas en el disco aplanado
que constituye la Vía Láctea, donde vivimos, la rotación de la nube de gas pre
solar convirtió en un disco parte del material que se colapsaba. En realidad,
gran cantidad de este material pasó a constituir, en el centro, una bola más o
menos esférica —el Sol—, pero sólo pudo colapsarse hasta este extremo porque el
momento angular de la nube de gas original estaba extendido por todo el
material restante del disco. El Sol acaparó la mayor parte de la masa, pero el
disco conservó la mayor parte del momento angular.
Puede parecer una exageración definir la familia de planetas del Sol
como un disco, pero en términos del Sistema Solar como un todo, no hay duda de
la validez de la descripción. No es como si hubiera un único cuerpo pequeño que
describiera la órbita alrededor de otro, como la Luna alrededor de la Tierra.
En el Sistema Solar hay nueve planetas conocidos, que se mueven todos ellos de
la misma forma alrededor del Sol; muchos de estos planetas tienen lunas, y casi
todas ellas giran alrededor de sus planetas en el mismo sentido en que estos
planetas giran alrededor del Sol, mientras que los propios planetas, con la
excepción de Venus y Urano, giran alrededor de su eje también en el mismo
sentido. Este sentido de rotación dominante de todo el material del disco es
igualmente la dirección de rotación del propio Sol, que gira alrededor de su
eje una vez cada 25,3 días. Y, por último, todo este material que gira de la
misma manera alrededor del Sol se encuentra concentrado en un disco delgado, el
plano de la elíptica. Esta evidencia demuestra claramente la íntima relación
que existe entre el Sol y los planetas, y no deja lugar a ninguna duda de que
se han formado juntos. Si los planetas hubieran sido captados de alguna manera
por el Sol durante sus viajes alrededor de la Galaxia, no estarían dispuestos
de una forma tan regular, todos en el mismo plano y con órbitas esencialmente
circulares; si el Sol se hubiera formado por su cuenta a partir del colapso de
una gran nube de gas, tendría una velocidad de rotación mucho mayor de la que
tiene ahora; en realidad, nunca se hubiera colapsado en la compacta bola que es
en la actualidad. Una nube de gas que se colapsa tiene que perder momento
angular para llegar a colapsarse lo suficiente y convertirse en una estrella, y
la mejor forma de conseguirlo es desarrollar un disco en rotación de material.
El material del disco puede, a su vez, colapsarse y formar planetas: los de
mayor tamaño (especialmente Júpiter y Saturno) reproducen el mismo proceso en
miniatura, y desarrollan sus propios discos de material, que se convirtieron en
lunas o permanecen en forma de anillos, como en el caso de Saturno.
Los astrónomos todavía debaten los detalles de cómo los planetas se
formaron a partir del disco situado alrededor del Sol. En un importante trabajo
académico publicado en 1978 [18],
veintiocho de los más eminentes teóricos de los tiempos modernos necesitaron no
menos de 668 páginas para explicar el pensamiento actual sobre el problema del
origen del Sistema Solar, y aun así, no pudieron llegar a una “respuesta"
única —no hay un único modelo aceptado por todo el mundo—. Pero una gran parte
del desacuerdo entre las teorías es sólo de detalle, y no representa ninguna
disputa fundamental sobre la evidencia de que el Sol y los planetas se formaron
juntos. Por lo tanto, la siguiente simplificación del pensamiento actual, si
bien no puede ser presentada como correcta en todos sus detalles, da una visión
general de las ideas que cada vez son más aceptadas, y estos detalles, aunque
todavía son debatidos, es probable que se completen en un futuro no muy lejano.
Los planetas de nuestro Sistema Solar, representados a escala, y la posición
de sus órbitas en el disco de materia que rodea al Sol.
Desde este punto de vista, hay una característica básica del Sistema
Solar —aparte de su existencia— que es de crucial importancia para la vida
humana y que debe ser explicada por alguna teoría satisfactoria. ¿Por qué el
Sistema Solar está constituido por dos clases de planetas, unos, pequeños y
rocosos, cerca del Sol (incluyendo la Tierra) y otros, grandes y gaseosos,
mucho más distantes? [19] Esto
puede explicarse satisfactoriamente en términos de la evolución de un disco de
material alrededor del Sol, calentado por la joven estrella en su centro. El
calentamiento es de importancia fundamental, ya que dispersó el material lejos
de la nebulosa en la cual el Sol se formó. Para explicar la lenta evolución del
Sol, muchas teorías modernas exigen no sólo la transferencia de momento angular
al disco, sino también una gran cantidad de material, tanto como el que tiene
el propio Sol, extinguido del sistema por el ígneo homo de su núcleo. Sin
embargo, mucho antes de que este homo se encendiera, ya había empezado el
proceso que condujo a la formación de los planetas.
Diminutos granos de polvo que existían en la nube de gas original (la
nebulosa) debieron de empezar a juntarse para formar pequeños “super granos”
esponjosos, quizá de unos pocos milímetros de diámetro, al tiempo que la
nebulosa empezaba a contraerse y los granos entraban en colisión unos con otros
cada vez más a menudo en una nube cada vez más densa. Estos super granos
constantemente bombardeados por los átomos de gas de la nube que se colapsaba,
debían de ser muy susceptibles al proceso de transferencia del momento angular,
y se instalarían rápidamente en el disco cuando éste empezó a desarrollarse
alrededor del abultamiento central, la bola achatada del Sol embrionario. Esto
hizo que los super granos se concentraran en un espacio todavía más pequeño, lo
que les daba amplias oportunidades de entrar en contacto unos con otros y de
interaccionar a través de la gravedad. El resultado fue que se agruparon en
fragmentos de mayor tamaño y formaron aglomeraciones de un kilómetro o más de
diámetro, bastante parecidas a los meteoritos, que constituyeron los primeros
objetos sólidos de un tamaño respetable del Sistema Solar. Mientras proseguía
este proceso de amontonamiento (acreción), se formaron con el tiempo objetos de
tamaño planetario, si bien los detalles del proceso de acreción y las razones
de la exacta posición de cada planeta con respecto al Sol forman parte de los
enigmas que aún debaten los expertos.
§. Dos clases de planetas
Es harto razonable atribuir a este proceso las dos clases de planetas que
existen, aunque, una vez más, los detalles de la explicación no están resueltos
del todo. Cerca del Sol, el calor de la joven estrella del centro era
suficiente para expulsar cualquier material fácilmente volatilizable, de modo
que en los trozos de materia cada vez mayores predominaban las sustancias que
no se evaporaran con facilidad, como el hierro y los silicatos. A mayor
distancia del Sol, no obstante, las partículas originales de la nebulosa
retenían una capa de hielo, metano helado y amoniaco sólido, demasiado lejos
del Sol para que estos materiales se evaporaran. Y de los restantes gases de la
propia nebulosa, que rodeaban los trozos sólidos cada vez más grandes, los muy
ligeros, como el hidrógeno o el helio, habrían sido dispersados, y sólo
pudieron retenerlos los planetas muy alejados del calor del Sol. Por lo tanto,
es del todo lógico que los planetas pequeños, densos y rocosos, se formaran
cerca del Sol y los grandes y gaseosos se formaran en el Sistema Solar
exterior. El proceso explica incluso algunas diferencias entre los cuatro
planetas interiores, puesto que Mercurio parece ser muy denso y compacto, casi
como la Tierra en sus capas rocosas exteriores desnudas, mientras que la Tierra
y Venus son bastante menos densos, y Marte lo es aún menos, con déficit
(comparado con la Tierra) en muchos de los metales pesados que forman el núcleo
de nuestro propio planeta.
Incluso cuando los planetas y sus lunas ya se habían formado, el joven
Sistema Solar era aún un lugar activo. Todavía quedaba una gran cantidad de gas
y polvo alrededor del Sol, y todavía quedaban muchos asteroides rocosos que
eran barridos en colisiones y que sembraron de cráteres la Luna, Marte,
Mercurio y Venus, y que están presentes, suavizados por la erosión, en la
superficie de la Tierra. El joven Sol se calentó, en primer lugar, simplemente
debido a la energía gravitatoria potencial que se liberó a medida que se
contraía. No se convirtió en una verdadera estrella hasta que su centro estuvo
lo suficiente caliente para iniciar reacciones de fusión nuclear, que han
mantenido su resplandor durante los últimos 4.000 o 5.000 millones de años. Y
cuando sucedió esto, antes de entrar en una fase de combustión nuclear estable,
debió de producir una explosión de energía —calor— que barrió todo el material
gaseoso restante que no estuviera firmemente sujeto a un planeta por la
gravedad.
Todo esto fue una consecuencia natural del colapso de una nube de gas en
el espacio, con una minúscula cantidad de polvo en forma de partículas
interestelares. La diminuta cantidad de polvo se convirtió en planetas en
órbita alrededor de una estrella, y no hay ninguna razón para dudar de que,
siempre que se forma una estrella de esta manera, se produce también un sistema
planetario. Muchas estrellas —quizá la mayoría— parece que forman parte de
sistemas múltiples, en los que dos o más estrellas describen órbitas una
alrededor de otra. Esta clase de sistema podría no ser adecuado para la
formación de sistemas planetarios como nuestro Sistema Solar. Pero dondequiera
que una estrella se forme aisladamente — aun cuando esto suceda con una minoría
de las estrellas del disco, significa todavía millones de estrellas sólo en
nuestra Galaxia— también se formarán planetas como los de nuestro Sistema
Solar. En nuestra Galaxia debe de haber muchos sistemas planetarios, y en
algunos de ellos, puede muy bien haber planetas bastante parecidos a la Tierra.
¿Quiere decir esto que la vida —incluso vida inteligente— puede ser común? Eso
depende no sólo de la presencia de planetas, sino también de la naturaleza de
la estrella que haya en el centro del sistema planetario. Algunas estrellas son
más hospitalarias, en términos humanos, que otras; y aunque de ahora en
adelante la historia de nuestro origen debe centrarse inevitablemente en un
solo planeta de un único sistema solar, podemos retener algunas ideas sobre
nuestro lugar en el Universo con un rápido repaso al comportamiento de las
estrellas.
§.Una variedad de estrellas
Es, por supuesto, imposible que los astrónomos se sienten a observar la
evolución de estrellas individuales para descubrir su estilo de vida. Las
estrellas como el Sol viven durante miles de millones de años, y sólo una
pequeña minoría de estrellas muestra algún cambio significativo en el curso de
una vida humana, o incluso en toda la historia de la civilización humana. En
cambio, los astrónomos logran tener una idea de la evolución de las estrellas
por el estudio de la gran variedad de ellas que hay en el cielo y que son
accesibles a sus telescopios y a sus instrumentos de registro. En nuestra
propia Galaxia se ven estrellas en todas las fases de evolución, desde el
nacimiento hasta la muerte, y una vez identificadas las diferentes fases, es
posible (aunque no sencillo) obtener un esquema general de cómo una estrella
vive su vida. Es un poco como si un extraterrestre inteligente pudiera tomar
una fotografía de todo lo que sucediera en la Tierra en un instante
determinado. Aunque esta imagen inmóvil no cambiara, comprendería información
de todas las fases de la vida humana, desde el nacimiento hasta la muerte, y el
alienígena inteligente podría establecer el ciclo de la vida humana estudiando
la evidencia de 4.000 millones de vidas, captadas en un instante del tiempo.
Diagrama de Hertzsprung-Russell, en el cual pueden apreciarse las relaciones
entre los diferentes tipos de estrellas. Las de la parte superior izquierda de
la secuencia principal son enormes, calientes, brillantes y de corta vida; las
estrellas de la parte inferior derecha son frías, apagadas, pequeñas y de larga
vida. Una estrella como el Sol combina calor suficiente para mantener habitable
un planeta como la Tierra con una vida lo bastante prolongada como para
permitir la evolución de la vida orgánica sobre tal planeta. No es ninguna
coincidencia que criaturas como nosotros habitemos un planeta con agua y un
cielo azul, dando vueltas a una estrella amarillo-anaranjada de tipo G.
Uno de los factores clave que se determinan a partir de nuestra
“instantánea” astronómica de miles de estrellas en un instante dado del tiempo
cósmico es la temperatura de cada estrella. Esta temperatura se determina por
espectroscopia, técnica mediante la cual la luz se descompone en un espectro (o
arco iris) de colores para su análisis. Tales espectros de la luz de las
estrellas presentan, en general, unas nítidas rayas oscuras (en algunos casos,
rayas brillantes) que atraviesan el espectro en unas longitudes de onda
precisas. Éste es un fenómeno familiar en los estudios de laboratorio aquí en
la Tierra, y los astrofísicos pueden identificar estas líneas con la energía
absorbida o emitida por elementos atómicos o con las formas ionizadas de estos
átomos. Ésta es la clave para tomar la temperatura de las estrellas. Un átomo
se ioniza si pierde algunos de los electrones que mantienen el equilibrio con
la carga eléctrica positiva del núcleo, y el número de electrones que se
separan del átomo de cualquier elemento depende precisamente de la temperatura
del gas que contienen estos átomos. Puesto que cada configuración de rayas
espectrales corresponde a un átomo, o a un átomo ionizado, que la produce como
si fuera su huella digital, el estudio de las configuraciones de rayas
espectrales de la luz de cualquier estrella proporciona una buena indicación de
la temperatura en la superficie de dicha estrella.
Al principio, las estrellas se clasificaron de esa forma a base de la
intensidad de las rayas del hidrógeno ionizado (rayas del hidrógeno), en una
escala alfabética, que comenzaba, muy lógicamente, por A, B, C. Pero cuando la
técnica espectroscópica se amplió a la medición de la intensidad de las rayas
producidas por otros átomos además de los de hidrógeno, se consiguió una guía
de temperaturas más precisa, y el orden alfabético tuvo que reorganizarse, con
una nueva categoría. O. más caliente que A. añadida al principio De manera que
hoy la escala de clases estelares, de más caliente a más fría, está ordenada
así: O, B, A, F, G, K, M; podría parecer difícil de recordar, si no fuera
porque a alguien se le ocurrió, hace ya mucho tiempo, asociarlo a las iniciales
de «Oh, Be A Fine Girl, Kiss Me» («Oh, sé una buena chica y bésame»), lo cual
una vez conocido ya no se olvida.
Esta escala de temperaturas va de unos 40.000 ºK para las estrellas O,
hasta 3.000 ºK para las M [20]; se
conocen también estrellas más frías, pero esto abarca la gama principal de los
tipos espectrales. Nuestro Sol es una estrella de tipo G, con un espectro en el
que predominan líneas de calcio ionizado y metales neutros (no ionizados). Al
igual que las demás categorías, la clase G está subdividida en diez subclases
numeradas de 0 a 9, y el Sol se describe, más precisamente, como una estrella
G2, a un quinto del camino entre G0 y K0, en términos de temperatura y
espectro, si bien no hay ninguna evidencia de que las estrellas evolucionen a
lo largo de esta “secuencia” de clasificaciones del espectro estelar. La
temperatura de la superficie del Sol, al igual que la de otras estrellas G2, es
de unos 6.000 ºK.
En términos de color, las estrellas van del azul hasta el rojo, pasando
por el blanco y el amarillo. Esto también puede explicarse en términos de
temperatura, puesto que las estrellas más calientes emiten la mayor parte de su
radiación en el extremo azul del espectro, mientras que las más frías radian su
energía en el extremo rojo. Nuestro Sol es una estrella amarilla, y su
radiación se sitúa aproximadamente en el centro de la banda de luz visible.
Esto no es ninguna coincidencia; hemos evolucionado durante miles de millones
de años bajo la luz de una estrella G2, y nuestros ojos están tan adaptados a
ello, que la luz del Sol ocupa el centro de la banda de luz que podemos ver. Si
viviéramos en un planeta que girara alrededor de una estrella O ó A, con toda
seguridad tendríamos unos ojos sensibles a la luz azul, con un “espectro
visible” que quizás abarcara el ultravioleta, y el amarillo y el rojo serían
quizá tan invisibles como lo es para nosotros en la Tierra la radiación
infrarroja. Por otro lado, unas criaturas que vivieran bajo la luz de una
estrella K o M deberían tener unos “ojos” muy buenos para “ver” los
infrarrojos, pero serían ciegos para la luz azul, todo ello en el supuesto de
que la vida pudiera desarrollarse bajo la luz de cualquiera de los extremos.
Pero, dado que no es ninguna coincidencia que nuestros ojos estén adaptados a
la luz de la estrella situada en el centro de nuestro Sistema Solar, puede que
tampoco lo sea el que vivamos gracias a la luz de una estrella del tipo G. Como
veremos en seguida, estas estrellas relativamente tranquilas, pero también de
relativa larga vida, pueden constituir hogares ideales para el desarrollo de
vida inteligente, en tanto que los planetas que circundan estrellas O y A en un
extremo, o K y M en el otro, puede que sean mucho menos hospitalarios que el
planeta Tierra.
La distancia de una estrella cercana puede determinarse mediante el
método de la paralaje, midiendo el ángulo en que parece que la estrella se
mueve cuando es observada desde puntos opuestos de la órbita terrestre
alrededor del Sol.
Por lo tanto, la identificación de la temperatura de una estrella
proporciona el primer auténtico “asidero” astronómico acerca de su naturaleza.
La siguiente cuestión de importancia es la de las distancias de las estrellas,
algo que no revelan directamente las mediciones de su temperatura o su brillo.
Una estrella podría ser pequeña y caliente, pongamos por caso, y bastante
cercana, o podría ser muy grande y caliente, y muy lejana, y aun así presentar
el mismo aspecto para nosotros en términos de brillo y de espectro. Para una
temperatura fija, si el tamaño de una estrella es el doble, su brillantez será
el cuádruple. Así que al conocer este otro dato, la distancia, los astrónomos
pueden tener una idea del tamaño de las estrellas, así como de la temperatura
de su superficie. Ello, a su vez, da una importante indicación de la
temperatura en el centro de estas estrellas, lugar donde se produce toda la
energía que las mantiene calientes.
§. Distancias estelares
El primer método para determinar las distancias estelares depende de la manera
en que las estrellas más cercanas parecen desplazarse a través del campo de las
estrellas más distantes al tiempo que la Tierra se desplaza en su órbita
alrededor del Sol. Este efecto es exactamente el mismo que se produce con los
postes de telégrafo cercanos vistos desde un coche o un tren en movimiento, que
parece que se deslicen sobre el fondo de las montañas que hay detrás, o el que
se produce con la Luna, que da la impresión de que nos sigue cuando vamos
caminando mientras que las casas y los árboles cercanos parecen moverse con
respecto a la Luna. La órbita de la Tierra alrededor del Sol tiene un diámetro
de unos 300 millones de kilómetros, lo cual nos proporciona una línea de base
para medir el efecto de paralaje; cuánto más cerca esté una estrella, mayor
será el desplazamiento observado durante un año. De hecho, aunque los
astrónomos hacen sus cálculos sobre un año, aprovechando por completo la línea
de base de 300 millones de kilómetros, definen las mediciones que realizan de
esta manera en términos del radio de la órbita de la Tierra, simplemente
dividiendo el desplazamiento angular de una estrella cercana durante un año por
dos. De esta forma, definen la unidad de distancia llamada parsec, mencionada
en el primer capítulo, que es la distancia hasta una estrella imaginaria que
presentara un desplazamiento de paralaje de dos segundos de arco en un año, o
un segundo de arco sobre una línea de base de la longitud del radio de la
órbita de la Tierra alrededor del Sol. De hecho, no hay ninguna estrella tan
próxima para presentar un desplazamiento de paralaje tan grande. La más
cercana, Próxima Centauri, tiene una paralaje de 0,765 segundos de arco, y está
a una distancia de unos 4¼ años luz (un parsec, recuérdese, equivale a unos
3,26 años luz). La estrella del polo norte, la Polar, está a unos 200 parsecs,
casi 700 años luz, y esto significa que esta estrella debe de ser 10.000 veces
más brillante que el Sol para que brille con tanta intensidad en el cielo
nocturno de la Tierra.
La técnica de la paralaje, que implica mediciones increíblemente
precisas de unos desplazamientos angulares mucho menores que los que puede
detectar el ojo humano, puede usarse para determinar distancias de estrellas
que se encuentran a unos 300 parsecs, o 1.000 años luz, lo cual comprende la
gran mayoría de las estrellas que podemos ver a simple vista. Las distancias de
estrellas más lejanas pueden obtenerse de diversas maneras. En primer lugar,
existe otra técnica geométrica, el método del cúmulo en movimiento, que se basa
en el hecho de que las estrellas que se mueven en grupo por el espacio da la
impresión de que convergen en un punto; este sistema se basa en mediciones de
fotografías tomadas a lo largo de muchos años, para obtener una indicación
exacta de la velocidad con que se mueve el cúmulo a través de nuestra línea de
mira. Cuando ambas técnicas geométricas se hayan utilizado hasta el límite de
sus posibilidades, los astrónomos sabrán la distancia exacta de miles de
estrellas conocidas, y de esta evidencia podrán obtener una buena idea de cómo
son en realidad las estrellas brillantes de los diversos tipos espectrales.
Puesto que cualquier estrella del mismo tipo espectral puede considerarse que
tiene un brillo determinado y su brillo aparente indica su distancia. Además,
algunos tipos de estrellas variables, las variables cefeidas y RR Lyrae en
particular, presentan unas fluctuaciones muy regulares en su brillo,
fluctuaciones que la observación de estrellas cercanas estudiadas
geométricamente demuestran que están relacionadas con el brillo medio. Éstas y
otras técnicas extienden por el espacio la “vara de medir” de los astrónomos,
hasta los confines de nuestra Galaxia y más allá, hacia otras galaxias. Como ya
he mencionado antes, estas técnicas son de importancia decisiva para los
cosmólogos que estudian el comportamiento de las galaxias lejanas. Pero
tendremos que pasarlo por alto aquí y volver a la cuestión de cómo el
conocimiento de la temperatura y de la distancia es suficiente para descubrir
los secretos de la evolución estelar.
Las mediciones de las distancias nos revelan el brillo real de una
estrella; la espectroscopia nos revela la temperatura de su superficie. Al
reunir los dos datos, es posible relacionar el brillo con la temperatura en una
especie de gráfico conocido como diagrama de Hertzsprung-Russell, por el danés
Ejnar Hertzsprung y el norteamericano Henry Russell, que lo elaboraron, cada
uno por su lado, a principios del siglo XX. Este diagrama muestra una franja
ancha, en la que se encuentran la mayoría de las estrellas, que va desde la
parte superior izquierda (que corresponde a estrellas muy calientes y muy
brillantes) hasta la parte inferior derecha (que corresponde a las estrellas
frías y de poco brillo). Adicionalmente, hay una “rama”, que parte de la serie
principal y se extiende hacia la parte superior derecha del diagrama, y que
corresponde a las estrellas brillantes pero frías, y un grupo en la parte
inferior izquierda que representa las estrellas calientes poco brillantes.
Todas esas características se pueden explicar por las leyes de la física, y la
explicación constituye una guía valiosa de la manera en que cambian las
estrellas al envejecer.
§. Duración de la vida de las estrellas
Si nos fijamos en la franja principal, parece evidente que las estrellas más
calientes y brillantes son las que tienen mayor masa. Cuanta más masa tiene una
estrella, más fuerte es el tirón hacia dentro de su propia gravedad, y mayor
debe ser la energía creada en el núcleo de la estrella para soportarlo. Esto
significa quemar “combustible” nuclear a un ritmo espectacular, que produce
cantidades ingentes de energía y mantiene la superficie de la estrella caliente
y brillante. Esta clase de estrellas sólo pueden tener una duración de vida
relativamente corta en la serie principal, antes de que su combustible se agote
y se produzcan cambios drásticos. En el otro extremo, las estrellas frías y con
poco brillo son muy pequeñas, con una gravedad más débil, y con una modesta
cantidad de energía en sus núcleos. Pueden existir sin cambios durante mucho
tiempo. Y en el centro están unas estrellas como el Sol (y que incluyen al
Sol), moderadas en cuanto a tamaño y grado de producción de energía,
moderadamente calientes y no muy grandes. Las estrellas brillantes de la clase
O pueden tener una masa cuarenta veces (o más) la del Sol, pueden ser 500.000
veces más brillantes que el Sol y tener un tamaño (en términos de radio)
dieciocho a veinte veces mayor que el del Sol.
Las estrellas poco brillantes de la clase M, por otro lado, pueden tener
un brillo de sólo una decimosexta parte o menos que el del Sol, teniendo la
mitad de masa que el Sol y apenas la mitad de radio que éste.
Fuera ya de la serie principal, las estrellas frías pero brillantes se
identifican como estrellas gigantes, estrellas que son mucho más grandes que el
Sol, de modo que si bien cada metro cuadrado de la superficie estelar brilla
menos que cada metro cuadrado de la superficie del Sol, el efecto global es que
produce más radiación. En contraste, las estrellas calientes pero poco
brillantes son estrellas enanas, más pequeñas que el Sol pero en las que cada
metro cuadrado brilla más que el área correspondiente de nuestro Sol.
Resumiendo, toda la evidencia acumulada por toda una generación de astrónomos
—y omitiendo la historia detallada de cómo obtuvieron tal evidencia y
perfeccionaron sus teorías hasta ser las que tenemos hoy—, todas estas
características, se explican en términos de la evolución de estrellas de masa
diferente.
Cuando el Sol se formó a partir de una nube de gas que se colapsaba,
era, sin lugar a dudas, grande y frío, por lo tanto inició su existencia en la
región del diagrama de Hertzsprung-Russell situada encima y a la derecha de la
serie principal. A medida que el Sol en formación se contraía, se hacía cada
vez más caliente y brillante y se movía hacia la izquierda del diagrama, y el
punto en el cual este “camino evolutivo” confluyó con la serie principal
corresponde al momento en que se estableció un equilibrio entre el fuego
nuclear del interior del Sol, que lo proveía de energía para sostenerlo contra
la gravedad, y esta gravedad, que trataba de convertirlo en una bola todavía
más compacta. El Sol permanecerá más o menos en este mismo punto de la serie
principal, durante un total de unos 10.000 millones de años, de los cuales ya
han pasado casi la mitad. La masa de una estrella es la que dicta el grado de
calor que debe haber en su interior para resistir su propio empuje
gravitacional, y ello determina la temperatura de la estrella y su brillo, de
forma que a cada masa le corresponde un punto determinado en la serie
principal. Una estrella con más masa, más compacta por su gravedad y
correspondientemente más caliente, pasa su corta existencia de serie principal
en la parte superior izquierda del diagrama de Hertzsprung- Russell. Y a pesar
de que una estrella con veinte veces la masa del Sol tendrá veinte veces más de
combustible nuclear para quemar, será 10.000 veces más brillante que el Sol, y
consumirá todo su combustible en menos de 1.000 millones de años. La estrella
Polar es de este tipo. Pero, aunque sea difícil creerlo, menos del 1% de las
estrellas de nuestro entorno son más calientes que las de la clase F, de la
serie alfabética, mientras que las estrellas tranquilas y de larga vida de la
categoría M e inferiores constituyen el 75% de la población del disco de la Vía
Láctea. Con este hecho surgen implicaciones interesantes para el acontecer de
la vida en nuestra Galaxia y en todo el Universo, puesto que una estrella sólo
durante su existencia en la serie principal muestra un comportamiento tranquilo
y estable por un tiempo lo suficiente largo para hacer posible la vida
inteligente en cualquiera de sus planetas. Aquí en la Tierra, donde parece que
las condiciones son muy buenas para la vida (como veremos más adelante), sin
embargo, se ha tardado más de 4.000 millones de años de existencia tranquila en
la serie principal para que la vida inteligente apareciera[21]. Las
estrellas O, B y A, fulgurantes y de breve existencia, no parece que sean,
desde esta perspectiva, candidatas idóneas para centros de sistemas solares que
contengan vida. Incluso la mayor parte de las estrellas de la categoría F
mostrarían importantes cambios al cabo del tiempo que hemos tardado en
desarrollamos aquí en la Tierra. Por otro lado, si bien las mortecinas
estrellas M poseen una larga existencia, y dan mucho tiempo para que la vida se
desarrolle en alguno de sus planetas, resulta que son unas fuentes de energía
muy débiles, y la vida necesita mucha energía. Una estrella fría en el centro
de un sistema planetario quizá nunca lograría proporcionar la suficiente
cantidad de energía para que se desarrollara la vida tal y como nosotros la
conocemos.
Al tratar de hacer generalizaciones sobre la naturaleza del Universo, y
las probabilidades de encontrar vida en diferentes partes del Universo, los
seres humanos tenemos que ser siempre cautos en asumir que la vida sólo puede
ser “como nosotros la conocemos”. Esta clara evidencia del diagrama de
Hertzsprung-Russell y la visión que nos da de la evolución estelar indica, no
obstante, que no es ninguna coincidencia que la vida inteligente se haya
desarrollado precisamente en un planeta de una estrella G2. Cuando esta
historia de los orígenes de la humanidad en el Universo en evolución empieza
ahora a acercarse a nuestro hogar, éste es un hito importante en el camino que
tenemos delante. Parece ahora cada vez más que la vida “como nosotros la
conocemos” no es ni un acontecimiento caprichoso en el Universo ni simplemente
una variedad entre muchas, sino más bien el producto inevitable de la clase de
Universo en el cual vivimos. Y este enfoque sugiere que las estrellas más
adecuadas para el desarrollo de la vida son las que mantienen un equilibrio
entre una emisión suficiente de energía para alimentar la vida y una duración
larga para dar ocasión a que ésta evolucione. Este equilibrio ocurre en el
centro de la serie principal, y sólo con reconocer la necesidad de una
transacción entre longevidad y energía, la búsqueda de vida debe centrarse en
los planetas de las estrellas G2. Por lo que conocemos hasta ahora, no hay nada
de especial en el Sol como estrella de tipo G2, ni tampoco en su familia de
planetas. Esto sugiere que puede haber muy bien numerosos planetas como el
nuestro, muchos de ellos ricos en vida más o menos “tal como la conocemos”,
aunque seguramente con más diferencias respecto a nosotros que las que nos
separan de un cangrejo o un canguro.
Nuestro Sol es una estrella ordinaria, nada espectacular, pero lejos de
hallarse completamente quieta. Manchas negras aparecen y desaparecen en su
superficie con una periodicidad de unos once años, y la fotografía A (tomada
por Paul Roques del Griffith Observatory) muestra un grupo de manchas solares
perceptibles a simple vista el día 8 de abril de 1980. Cuando el Sol se halla
más "manchado", se muestra más activo en otros aspectos, produciendo
grandes explosiones resplandecientes, como la que se muestra en esta fotografía
(Abajo) tomada por el Skylab de la NASA. Para formarse una idea del tamaño
relativo, recuérdese que el diámetro del Sol es 109 veces mayor que el de la
Tierra. (Fotografía de la NASA.)
Cuando el Sol acabe su vida en la serie principal, experimentará muchos
cambios. Estos no tendrán lugar antes de 5.000 millones de años, y podría
parecer poco relevante para la historia de los orígenes de la humanidad. Pero
otras estrellas —especialmente estrellas de más masa— han seguido los mismos
pasos, y gracias a ellas nosotros hoy existimos. El origen y la vida del
Sistema Solar dependen de la muerte de estrellas que han existido
anteriormente, y para comprender esto, necesitamos comprender, por lo menos en
líneas generales, el proceso que tiene lugar en el interior de las estrellas
para generar su energía.
§. Muerte de las estrellas
La energía estelar procede de reacciones nucleares: la fusión de núcleos
atómicos en las calientes regiones centrales de las estrellas. Como en la
primigenia bola de fuego del Big Bang, pero a una escala mucho
menos dramática, el material del interior de una estrella está ionizado por
completo, con núcleos cargados positivamente y electrones negativos que
constituyen un mar de partículas llamado plasma. En su origen, el calor del
interior de una estrella procede de la energía gravitacional de la nube de gas
que se colapsa de la que se formó la estrella; pero una vez la temperatura es
lo bastante alta, los núcleos ligeros se fusionan literalmente y forman los
núcleos de elementos más pesados. Durante el proceso, una pequeña cantidad de
masa se convierte en energía, que mantiene la olla hirviendo y estabiliza la
estrella contra una contracción posterior, en tanto dura el combustible. Dado
que la mayor parte de la materia de la nube de gas originaria era hidrógeno
primario, el proceso se inicia con la fusión de los núcleos de hidrógeno
(simples protones) para formar núcleos de helio. En estrellas como el Sol, este
proceso tiene lugar a través de interacciones directas protón-protón, que
producen núcleos estables de helio-4 (cada uno de los cuales contiene dos
protones y dos neutrones) a partir de unas interacciones que implican cuatro
protones y la liberación de dos positrones (las contrapartidas positivas de los
electrones). El efecto global, que convierte cuatro núcleos de hidrógeno en uno
de helio, tiene lugar todo el tiempo, y producir la energía actual del Sol
requiere la conversión de 600 millones de toneladas de hidrógeno en helio cada
segundo[22].
Sabemos lo caliente que debe estar el centro del Sol por la cantidad de
energía que escapa de la superficie y por las leyes de la física, que nos
indican la cantidad de energía necesaria para “mantener” una estrella de una
masa solar. En el caso del Sol, la temperatura interna está cerca de los 15
millones de ºK, y el proceso de combustión nuclear está dominado por la cadena
protón-protón. Las estrellas mayores, con temperaturas centrales superiores a
los 15 millones de ºK, se mantienen calientes, principalmente, por otro
proceso, el ciclo carbón-nitrógeno-oxígeno, el cual implica interacciones de
todos esos núcleos así como hidrógeno y helio, pero que tiene el mismo efecto
neto de convertir núcleos de hidrógeno en núcleos de helio y de liberar
energía. Los problemas —y el final de la respetabilidad sosegada de la serie
principal— sobrevienen cuando a las estrellas ya no les queda hidrógeno para
transformar en helio en su centro.
Cuando esto sucede, todavía queda algo de hidrógeno en las capas más
exteriores de la estrella, de modo que al principio la combustión del hidrógeno
empieza a extenderse hacia el exterior formando una cáscara que envuelve el
núcleo central, compuesto casi por completo de núcleos de helio. El núcleo de
la estrella se contrae y se hace cada vez más caliente, en tanto que se libera
la energía de la gravedad, mientras las capas exteriores de la estrella se
hinchan debido a la mayor temperatura del centro, y hacen que la estrella se
convierta en una gigante roja en la parte superior derecha de la serie
principal del diagrama de Hertzsprung-Russell. Cuando nuestro Sol alcance dicho
estadio, será mil veces más brillante que ahora, y con un radio 100 veces
mayor, y sumergirá por completo la Tierra. Pero de todas formas habrá muchos
avisos para que el que viva dentro de 5.000 millones de años se dé cuenta. La
expansión dura cientos de millones de años; pero con el tiempo, después de esa
fase de su vida, tendrán lugar cambios mucho más excitantes dentro de la
estrella.
Lo que suceda después depende de la masa de la estrella. Para el caso de
una masa inferior a masas solares, la parte central, compacta y cada vez más
caliente, de helio llega de repente a una fase en que tiene una temperatura lo
suficiente alta para que los núcleos de helio se fusionen en núcleos de
elementos más pesados, y se inicie de manera explosiva la “combustión” de helio
en una fase de evolución conocida con el nombre de “destello de helio”[23]. Después
del destello, la estrella vuelve de nuevo a la calma, con un núcleo que quema
helio rodeado todavía por una envoltura que quema hidrógeno. Las estrellas más
masivas, no obstante, logran el cambio sin pasar por el destello de helio, al
adaptarse más gradualmente a la combinación de combustión de hidrógeno y helio
que domina la producción de energía de casi todas las estrellas rojas gigantes
visibles en el cielo. En el centro de combustión de helio de dichas estrellas,
las temperaturas alcanzan los 100 millones de ºK y el helio se transforma en
carbono y oxígeno.
Un modo de mostrar la actividad solar consiste en tomar una fotografía
usando solamente la luz emitida por el hidrógeno (luz "hidrógeno alfa”).
Esta imagen, obtenida el 29 de mayo de 1968 por observadores de la Pennsylvania
State University, muestra torbellinos blancos en las regiones donde pueden
darse fulguraciones y los estrechos filamentos negros se hallan relacionados
con las formaciones conocidas como prominencias. (Fotografía cedida por la
Pennsylvania State University.)
Para algunas estrellas, éste es el final de la historia. Cuando el
hidrógeno y el helio se han agotado, la estrella simplemente se enfría y se
contrae en una bola pequeña y fría, una mortecina estrella enana en la parte
inferior izquierda del diagrama de Hertzsprung- Russell. Una tal enana blanca
(que con el tiempo se enfría más y se convierte en una enana negra) puede tener
tanta masa como el Sol, pero con el tamaño de la Tierra, y ya no se mantiene
por el calor de su interior, sino por la fuerza física de los núcleos atómicos
apiñados en lo que se ha convertido en un enorme cristal de carbono con una
capa superficial de hidrógeno y oxígeno, una pavesa apagada cubierta de hielo.
Pero en el caso de las estrellas masivas, la fase de combustión de helio
puede ser seguida por una nueva contracción del núcleo, que eleva la
temperatura del interior, y pasar a la “combustión” de carbón, de oxígeno o
incluso de silicio. Una vieja y masiva estrella gigante puede contener hasta
cinco capas de combustión nuclear, con la formación de hierro en su centro.
Pero cuando este estadio de evolución ha sido completado y su centro de hierro
se colapsa y se calienta, ha llegado al final de su camino. Para formar núcleos
todavía más pesados a partir del hierro-56, hay que poner energía de dentro,
fuera no se obtiene nada. En efecto, los núcleos muy masivos, como los del
uranio y del plutonio, tienden a desintegrarse y liberan energía durante el
proceso en que se fragmentan en núcleos más ligeros. Éste es el proceso de
fisión de una bomba atómica. Por lo tanto, ¿de dónde provienen los elementos
pesados, en el primer momento?
Aquí, el modelo de los teóricos es menos seguro. Los astrofísicos creen
saber más o menos lo que ocurre, pero no saben explicar, por el momento, los
detalles. Está claro que al colapsar el núcleo central de hierro y liberar
energía gravitacional, tiene que producirse una gran explosión que destroza la
estrella gigante, y se cree que la efusión de toda esta energía gravitacional
es suficiente para crear elementos pesados, incluido el uranio. Aunque parte de
la energía se utilice en reacciones nucleares de este tipo, queda la suficiente
para producir los acontecimientos estelares más espectaculares del Universo,
las supernovas. Durante un breve período de tiempo, una estrella que muere en
una explosión de supernova, puede resplandecer con tanto brillo como todas las
estrellas de la galaxia juntas, y esas explosiones ocurren una vez cada pocas
décadas entre las estrellas de una galaxia como nuestra Vía Láctea. Ahora
volvamos a la conexión entre muertes y nacimientos de estrellas, y recordemos
que nuestro Sistema Solar parece haber sido creado por el efecto de compresión
de una o más supernovas en una nube de gas en el espacio. Pero aún hay más en
esta historia “fenixiana” de renacimientos.
Los restos de la explosión de la supernova se esparcen por una extensa
zona del espacio y forman una nube de gas en expansión. Pero ese material es
muy diferente del de la nube en colapso de la cual se formó originariamente la
estrella. La estrella, constituida al principio casi toda de hidrógeno y helio,
ha formado, a lo largo de la existencia, una mezcla de todos los demás
elementos conocidos, incluyendo los elementos pesados que se formaron
literalmente en su agonía de muerte. Todos esos elementos —incluyendo carbono,
oxígeno, hierro, uranio y todos los que conocemos en la Tierra— se esparcieron
para enriquecer el medio interestelar, y eventualmente, para formar parte de
nuevas nubes de gas, que, a su vez, llegan a comprimirse hasta el punto en que
se colapsan y forman nuevamente estrellas y planetas. Literalmente, todo lo que
hay en la Tierra, excepto el hidrógeno y el helio (y es muy probable que
también una gran parte de estos elementos), se ha creado en el interior, por lo
menos, de una estrella. Los átomos de nuestros cuerpos, de este libro, del
suelo que pisamos y del aire que respiramos, todos han pasado por una caldera
estelar. Y sin las precedentes generaciones de estrellas masivas y de
supernovas, que hicieron explosión, yo no estaría ahora aquí escribiendo este
libro, ni ustedes estarían ahí para poder leerlo.
Pero, por supuesto, no todo el material de una supernova que ha hecho
explosión se recicla. La parte central del núcleo de hierro se comprime aún más
mientras las capas exteriores de la estrella estallan y se dispersan, y el
núcleo de hierro queda pomo un residuo en el centro de la nube de material en
expansión. Éste puede llegar a tal extremo de compresión que incluso los
núcleos atómicos, que sostienen a las estrellas enanas contra el tirón de la
gravedad, son incapaces de resistirlo, y como si se pasara una película hacia
atrás, queda destruida la complejidad de los núcleos pesados tan laboriosamente
elaborados por fusión nuclear, y los núcleos atómicos se disuelven en un mar de
neutrones. Al llegar a tal estado, todos los restos estelares se transforman en
un núcleo atómico gigante, una estrella de neutrones. Si una estrella enana con
tanta masa como nuestro Sol es tan grande como la Tierra, una estrella de
neutrones con una masa solar puede ser tan pequeña como la isla de Manhattan
(Nueva York).
Pero ni siquiera éste es del todo el final de la historia. Puesto que si
los restos tienen más de un par de masas solares de material, ni aun la fuerza
de los neutrones puede resistir el empuje de la gravedad. Después de una
prolongada lucha, que ha durado desde que la nube de gas original comenzó a
colapsarse, la gravedad, combatida por la fusión nuclear, y en un último
intento con la explosión de supernova, triunfa al fin en su batalla con la
materia y el residuo es comprimido hasta la total no existencia y deja tras de
sí un agujero negro. Las estrellas de neutrones y los agujeros negros se
cuentan entre los descubrimientos más interesantes de la astronomía moderna, y
constituyen la fuente de energía de los objetos celestes energéticos, como los
pulsares, las estrellas de rayos X y (a una escala mayor) los quásares y
radiogalaxias. Pero todos estos objetos exóticos no guardan una relación
discreta con la historia de los orígenes de la vida en la Tierra. Armados ahora
con el conocimiento de la relación que existe entre la vida y la muerte de las
estrellas masivas y el origen de nuestro propio Sol y nuestro Sistema Solar,
podemos al fin llevar nuestra historia a la Tierra, y ver cómo se originó y
evolucionó nuestro planeta hasta ser lo que es, un hogar para la vida.
Capítulo IV
El origen de la tierra
Contenido:
§. Dentro de la Tierra
§. El aire que respiramos
§. Implicaciones para la vida
§. La corteza deslizante
§. Deriva continental y expansión del fondo marino
§. Nuestro cambiante clima
§. El ritmo de los períodos glaciales
§. La situación actual
Lo más importante que conocemos sobre el origen de la Tierra es que
nuestro planeta se formó al mismo tiempo que el Sol, con el resto del Sistema
Solar, a partir de una nube de gas que se colapsaba en el espacio interestelar.
Pero la historia que estamos siguiendo en este libro es de manera fundamental
la historia del origen de la vida en la Tierra en general y de la vida humana
en particular. Nuestra forma de vida requiere un planeta con una estrella como
el Sol, que inevitablemente fue producto de una galaxia, que a su vez se formó
a partir de las fluctuaciones de la bola de fuego en el Universo en expansión.
En cada etapa de la historia, ha sido necesario enfocar una magnitud cada vez
más pequeña, y ha llegado el momento de hacerlo de nuevo. Después de examinar
con amplitud la formación del Sistema Solar entero, vamos a considerar ahora el
origen de la Tierra “tal como la conocemos”, como un hogar para la vida humana.
Esto, más que examinar la Tierra entera, incluido su interior más profundo,
significa estudiar en particular la piel de la Tierra, la corteza, los océanos
y la atmósfera que proveen el hogar para la vida terrestre.
Esta concentración en la piel de la Tierra —llamada, a veces, biosfera—
no sólo es apropiada sino obligada, puesto que, de hecho, muy poco se sabe de
las particularidades del interior de la Tierra. A veces resulta más difícil
descubrir qué ocurre en las profundidades bajo nuestros pies que lo que sucede
en las partes más alejadas del Universo, ya que de éstas podemos por lo menos
ver la luz que proviene de ellas. El bosquejo que sigue, acerca de lo que
sabemos del interior de la Tierra y cómo se ha formado, es, por tanto,
superficial, y las ideas que se describen son susceptibles de revisión a medida
que aumenten nuestros conocimientos en las próximas décadas. Pero, con todo, y
antes de dirigir nuestra atención a la corteza y la biosfera, se hace necesario
decir algo sobre lo que hay debajo.
§. Dentro de la tierra
La nube de polvo y gas en el interior del Sistema Solar y que al colapsarse
formó el planeta Tierra estaba probablemente compuesta sobre todo de mezclas de
silicatos, de óxidos de hierro y de óxidos de magnesio, con sólo indicios de
los demás elementos químicos que ahora podemos encontrar en nuestro entorno
terrestre. Estos restos representaban sólo una minúscula fracción del material
más pesado que quedó en el del Sistema Solar interior, de donde fueron
desalojados los elementos más ligeros por la actividad del Sol, cuando éste se
formaba. La Tierra, durante su formación, se calentó debido a tres procesos
diferentes. En primer lugar, se convirtió en calor la energía de movimiento (la
energía cinética) de las partículas, a medida que éstas chocaban entre sí y se
agrupaban. Esto prosiguió hasta mucho después de que el planeta adquiriera un
tamaño respetable, cuando las “partículas” que entraban entonces en colisión
eran grandes meteoritos que se estrellaban contra la superficie del planeta,
cosa que de vez en cuando todavía sucede. Después, cuando su tamaño como
planeta propiamente dicho empezó a aumentar debido a esta acreción, su interior
recibió cada vez más presión por el peso creciente del material de encima. La
proto-Tierra se calentó del mismo modo que se calienta una nube de gas o una
estrella al contraerse y liberar energía gravitacional potencial en forma de
calor. Pero, a diferencia de una nube de gas o de una estrella, el calor del
interior no pudo escapar con facilidad al espacio, sino que quedó en gran parte
atrapado por la sólida barrera de la corteza terrestre de encima, lo que ayudó
a que el interior de la Tierra se mantuviera caliente hasta hoy. Y, en tercer
lugar, algunos de los elementos de la mezcla de materiales pesados que
constituyeron el núcleo del joven planeta eran radiactivos —los productos
pesados de la supernova que puso las bases para el nacimiento del Sistema
Solar— y desde entonces se han ido desintegrando, y han contribuido a mantener
la temperatura de la Tierra con la energía creada por su fisión nuclear. El
calor radiactivo se producía en grandes cantidades cuando la Tierra era joven,
pero desde entonces se han desintegrado muchísimos átomos, y quedan
relativamente pocos para contribuir hoy a calentar la Tierra. Casi con toda
seguridad, ese temprano calor radiactivo constituyó un importante factor en la
fusión de la Tierra rica en hierro, quizás unos cientos de millones de años
después de que el planeta empezara a formarse a partir de la nube de material
que rodeaba el proto-Sol. Pero debido a que la temperatura de fusión de un
sólido aumenta si éste se encuentra bajo presión, la fusión no se inició en el
centro de la Tierra, sino entre 400 y 800 km de profundidad, donde la
combinación de una presión ligeramente inferior a la del centro, pero con una
temperatura claramente superior a la de la superficie, proporcionaba un
equilibrio adecuado para ello.
La glóbulos de hierro fundidos así formados se habrían hundido entonces
a través del material que les rodeaba hacia el centro de la Tierra, y habían
cedido más energía gravitacional en forma de calor al proceso, que hacía que
casi todo el interior estuviera en fusión. Una vez en esta fase, los elementos
más pesados podían asentarse libremente en el interior más profundo, mientras
que los elementos más ligeros podían flotar hacia la superficie. De forma que
la Tierra empezó a acercarse a su estructura presente, con un interior en
fusión y rico en hierro, y una capa superficial formada por material más
ligero, donde predominaba el silicio. De la misma manera que la composición de
la Tierra en conjunto no es típica de la composición de la nube de la cual nació
el Sistema Solar, el material de la corteza sobre la cual vivimos no es típico
del material que constituye la mayor parte de la Tierra. Pero en todas las
etapas a lo largo del camino en que se produjo la separación de elementos, ha
seguido claras leyes físicas. No hay nada de particular en la separación de
elementos que condujo al medio ambiente actual de la superficie de la Tierra, y
cualquier planeta que se formara de la misma manera terminaría en un estado muy
similar. Nuestro medio ambiente terrestre es, en gran parte, producto del
Universo en el que vivimos.
Estructura estratificada actual de la Tierra.
Así, la corteza de la Tierra contiene hoy sólo un 6% de hierro, en tanto
que el planeta en conjunto contiene un 35%, mientras que la corteza terrestre
contiene un 28% de silicio, elemento que constituye sólo el 15% de la masa
total del planeta. Algunos elementos pesados, tales como el uranio o el torio,
nunca tuvieron la oportunidad de asentarse en el interior de la Tierra, porque
se combinan fácilmente con elementos ligeros, como el oxígeno o el silicio, y
constituyen compuestos ligeros (óxidos y silicatos) que flotaron hasta la
superficie. Una consecuencia de esto es que después de la fusión inicial se
produjo una gran cantidad de calor radiactivo en las capas superficiales, desde
donde pudo fácilmente radiarse hacia el espacio. Una vez se formaron las capas
superficiales de material ligero, y muy poco material caliente del interior
subía a la superficie, el enfriamiento pudo producir la corteza sólida de la
Tierra, que estableció más o menos el tipo actual de la superficie que hoy
conocemos, pero sin la atmósfera y los océanos que hoy conocemos y,
ciertamente, sin vida. En lugar de ello, a medida que la corteza se
solidificaba, la superficie de la Tierra se cubría de rocas calientes y de una
gran cantidad de volcanes activos, que vomitaban rocas fundidas (lava) y gases.
Estos gases desempeñaron un papel decisivo en la evolución subsiguiente de la
superficie de nuestro planeta, como pronto veremos. Pero puesto que fue en este
estadio de enfriamiento y solidificación cuando se estableció la característica
principal de la corteza, su división en continentes y en lo que serían cuencas
oceánicas, veamos antes cómo se estabilizó la estructura de nuestro planeta,
desde la corteza hasta su interior más profundo.
Los continentes están constituidos por rocas ligeras, sobre todo
granito, mientras que el material de la corteza de debajo de los océanos,
principalmente basalto, es algo más pesado, de modo que al final los materiales
más ligeros se elevaron más que los densos, en conformidad con las leyes más
simples de la física. Podemos incluso fechar cuándo ocurrió todo esto, ya que
las rocas más antiguas que se conocen tienen una edad de 3.900 millones de
años, y la edad del Sistema Solar es de unos 4.500 millones de años. Por lo
tanto, tuvieron que transcurrir unos 600 millones de años, en números redondos,
para que en la Proto-Tierra se desarrollara un interior caliente y en fusión,
tuviera lugar la “diferenciación” entre material ligero y pesado, y se iniciara
la solidificación de la corteza, alrededor del 13% de la historia de nuestro
planeta hasta ahora.
Lo que resultó de toda esta actividad fue un planeta dispuesto en capas,
cada una de las cuales envolvía a las situadas más al interior. Y lo que hoy
sabemos de esta disposición en capas es resultado del estudio de las ondas de
los terremotos, que atraviesan la Tierra y que pueden ser observadas por medio
de detectores sísmicos. Los sismólogos miden el tiempo que tardan las ondas de
un terremoto en atravesar la Tierra y llegar a varios puntos diferentes de la
misma, y esto les indica algo sobre la naturaleza del material del interior de
la Tierra y que las ondas han atravesado. Pero con toda honestidad, hay que
reconocer que elaborar un esquema de la estructura de la Tierra con sólo esta
información tiene tanto de arte como de ciencia, y un eminente geofísico dijo
que era como analizar la estructura de un piano con sólo oír el sonido que
hacía al bajar rodando un tramo de escalera. No obstante, es notable lo mucho
que los sismólogos han averiguado sobre la estructura de la Tierra.
Empezando desde la superficie, tenemos una bola rocosa con un radio
medio de 6.371 km, ligeramente aplastada por los polos. La envoltura exterior,
o corteza, constituye sólo el 0,6% del volumen total de nuestro planeta, y su
grosor varía desde unos 5 km bastante uniformes debajo de los océanos hasta 35
km debajo de las superficies continentales llanas, y 80 km debajo de las
grandes cordilleras como el Himalaya. Por lo menos sabemos algo de la corteza
por la observación directa. Está constituida principalmente por silicio y
aluminio, más oxígeno, combinados en diversos compuestos que forman rocas
graníticas, lava solidificada y depósitos sedimentarios. El nombre que se da al
material de la corteza continental es el de sial, formado por las primeras
letras de silicio y aluminio; y debido a que la corteza de los océanos contiene
también grandes cantidades de magnesio, se le denomina a veces sima.
Debajo de la corteza hay un cambio muy pronunciado en la estructura,
marcado por una frontera llamada discontinuidad de Mohorovičić (o simplemente
Moho) por el sismólogo yugoslavo que fue el primero que la identificó. Debajo
de ella se encuentra el manto, una capa que alcanza una profundidad de unos
2.900 km, y que constituye más del 82% del volumen de la Tierra. Parece que se
compone de tres zonas, el manto superior, de unos 370 km de espesor, una zona
de transición, de unos 600 km, y el manto inferior, de 1.900 km de espesor,
pero poco se sabe de su composición química.
A más profundidad, encontramos el núcleo, dividido en núcleo exterior,
de 2.100 km de espesor, y núcleo interior, de un radio de 1.370 km, que llega
hasta el centro de la Tierra. Esta es la región que, según parece, está formada
por hierro líquido, mezclado con algo más, probablemente azufre. Una de las
consecuencias más importantes de la existencia de un núcleo de hierro fundido
es el campo magnético que produce. Cuando un conductor se mueve a través de un
campo magnético, se produce un flujo de corriente eléctrica, y esto es lo que
debió de ocurrir al principio de la formación del Sistema Solar, cuando el
entonces recién fundido núcleo de la Tierra estableció una interacción con
campos magnéticos procedentes del Sol en formación. Una vez se establece así
una corriente eléctrica, ésta produce sus propios campos magnéticos y el
sistema alimentado por la energía de la rotación de la Tierra da como resultado
una dinamo de acción automática, que ha permanecido hasta hoy. Esta
característica de nuestro planeta es posible que haya desempeñado un papel muy
importante en la historia de la vida, y nos ha proporcionado asimismo una
prueba magnética muy útil, petrificada en las rocas de la corteza, de cómo han
variado las capas desde que se solidificaron hace ahora unos 3.900 millones de
años. Sin embargo, antes de llegar a esto, queda por describir todavía una
importante sutileza acerca de las propias capas superficiales, y, por supuesto,
la historia de la atmósfera y su evolución.
De la misma forma que existe una división básica de la Tierra en
corteza, manto y núcleo, división que depende principalmente de la composición
química, existen subdivisiones de las capas superficiales que parecen depender
simplemente de diferencias físicas (presión y temperatura) y no químicas. Desde
75 km de profundidad y hasta alrededor de 250 km, existe una capa que presenta
una velocidad de onda sísmica ligeramente más baja que las capas inmediatas
superior e inferior. No es del todo una capa líquida, sino una región más débil
donde el manto está en parte fundido, como un cubo de hielo medio derretido. Es
la llamada astenosfera, y se describe como un mar viscoso (quizás unas gachas
espesas proporcionan una comparación mejor que el hielo en fusión) sobre el que
flota la capa de corteza de encima, la litosfera. La capa sólida de debajo de
la astenosfera —el resto del manto superior— se llama mesosfera. Y la presencia
de la astenosfera es de suma importancia debido a lo que ha ocurrido en la
superficie, la litosfera, en los últimos cientos de millones de años, dado que
esta capa viscosa ha permitido que las rocas sólidas de encima se movieran
desplazando los continentes por todo el globo y abriendo cuencas oceánicas en
un lugar y cerrando océanos en otro. La astenosfera es, al mismo tiempo, la
fuente de nuevo material de la corteza, en forma de magma, que sube a la
superficie desde el interior.
Con la historia del desplazamiento de los continentes y del cambio de
cuencas oceánicas, estamos casi listos para considerar el origen de la Tierra
del hombre, la delgada piel de la biosfera donde la vida puede existir. La vida
tal como la conocemos, sin embargo, no pudo establecerse hasta que estuvieron
formados los océanos y se hubo creado la atmósfera. Y la vida en tierra no pudo
establecerse hasta que se hubo modificado la atmósfera —con la ayuda de la vida
en el mar— y se convirtió en una mezcla rica en oxígeno que mantiene la
respiración y la vida de los animales, incluidos los animales humanos. El
último paso para que la Tierra se convirtiera en un hogar para la vida fue el
desarrollo del aire que respiramos. Para explicar esto, el origen de la atmósfera,
sería útil retroceder un poco y comparar lo que sucedía en la Tierra al
principio de la historia del Sistema Solar con lo que ocurría en los planetas,
Venus y Marte.
§. El aire que respiramos
Por fin hemos llegado a la etapa en que trataremos del entorno ambiental
directo de la vida tal como la conocemos. ¿Acaso la vida —incluso la vida
inteligente— es algo que aparece casi inevitablemente en los planetas que están
a la “correcta” distancia de la estrella de la cual dependen y que contienen
los ingredientes químicos “correctos”? ¿O bien la vida es una especie de azar
cósmico, que apareció sólo ocasionalmente, quizás una sola vez? Hasta que
encontremos vida en otro planeta no podremos responder de manera definitiva a
estas preguntas. Pero sí sabemos que la vida se estableció de manera muy firme
en un planeta, en éste. Y aquí en la Tierra, el éxito de la vida parece estar
íntimamente relacionado con una gran abundancia de agua líquida (obsérvese que
el término que utilizamos para un lugar donde no hay vida, desierto, es el que
utilizamos también para indicar que no hay agua). Acabamos de ver que planetas
como la Tierra, Venus y Marte son consecuencia inevitable del proceso por el
que se forman las estrellas, siempre que al fragmentarse la nube pre estelar dé
origen a una estrella más una familia de planetas, y no a un sistema
múltiple [24]. Si
ahora llegamos a la razonable suposición de que la vida requiere un planeta
húmedo, cada uno de los demás factores —temperatura, composición química y
otros— será automáticamente tomado en cuenta a la hora de crear las condiciones
físicas necesarias para la existencia de grandes cantidades de agua líquida.
Dejando aparte por completo la cuestión de la vida en alguna forma desconocida
para nosotros (y hay que decir que algunos astrónomos han especulado seriamente
con la posibilidad de formas de vida flotante en la atmósfera de Júpiter), la
respuesta a si somos o no el producto azaroso de unas raras condiciones
astronómicas depende de si nuestro planeta es o no el producto azaroso de unas
raras condiciones astronómicas, algo que se puede determinar simplemente con
ver las razones que hacen que nuestros vecinos cercanos, Venus y Marte, no
hayan logrado convertirse en planetas húmedos.
Venus y Marte, al igual que la Tierra, son planetas pequeños y rocosos,
como corresponde a los planetas de la parte interior del Sistema Solar. La
naturaleza de la atmósfera y de los océanos de esta clase de planetas pequeños
y rocosos depende sólo de una cosa: el exacto equilibrio de temperatura de la
superficie rocosa, que está relacionado con la distancia al centro del Sol.
Venus, el planeta casi gemelo de la Tierra en muchos aspectos, tiene un
grueso manto de atmósfera, rica en dióxido de carbono y rodeada de nubes de
ácido sulfúrico, que atrapa el calor solar por el llamado efecto de invernadero
y eleva la temperatura de la superficie hasta 500 ºC, muy por encima del punto
de ebullición del agua; Marte, por otro lado, tiene una tenue atmósfera de
dióxido de carbono, con sólo un pequeño efecto de invernadero para ayudar a
calentarla, y una temperatura superficial demasiado baja para que el agua esté
en estado líquido o para que caiga en forma de lluvia. La Tierra es el único
planeta de los tres que tiene la atmósfera adecuada para mantener la superficie
a la temperatura justa, entre el punto en que se hiela el agua y el punto de
ebullición de la misma. En cada caso, el “medio ambiente” presente ha
evolucionado a partir del material gaseoso liberado del interior de los tres
planetas —cualquier atmósfera inicial (quizá dominada por metano y amoniaco)
debió de ser dispersada por las fluctuaciones erráticas del Sol a medida que
pasaba una situación de combustión nuclear estable, dejando que los desnudos
planetas rocosos elaboraran su propia atmósfera mediante desprendimientos
gaseosos, incluidas la actividad volcánica y la vaporización de materiales de
superficie cuando los grandes meteoritos chocaban contra ella.
La cara acribillada de Mercurio, vista aquí en fotografías tomadas por la
nave espacial Mariner 10 de la NASA, muestra con mayor claridad que cualquier
otro objeto del Sistema Solar cómo los planetas se han formado por la acreción
de masas de materia de menor tamaño que colisionan, se adhieren y originan
masas de tamaño planetario.
La comprensión de los orígenes de la atmósfera de la Tierra es algo aún
bastante nuevo. Se solía creer que cuando la Tierra estaba consolidándose, unos
4.000 millones de años atrás, tenía una atmósfera original a base de metano,
amoniaco y compuestos parecidos, muy semejante a las atmósferas actuales de los
planetas gigantes.
Vista desde el espacio, como en esta fotografía tomada por el METEOSAT, la
Tierra es notablemente distinta de los otros planetas interiores del Sistema
Solar, con nubes de vapor de agua en la atmósfera y océanos de agua alrededor
de los continentes.
Esta idea estaba relacionada con la búsqueda de los orígenes de la vida,
puesto que los experimentos de laboratorio, a mediados del siglo XX, habían
demostrado que cuando unos gases como el metano y el amoniaco se mezclaban con
agua en un tubo, y se hacían pasar chispas eléctricas o radiaciones
ultravioletas a través del tubo, podrían formarse unas moléculas que se
consideraba que eran las precursoras de la vida. La Tierra, en sus comienzos,
estaba sin duda bañada de rayos ultravioletas procedentes del Sol, y la
atmósfera primitiva probablemente estaba llena de chispas en forma de
relámpagos, así que se conjeturó que también debían de contener metano y
amoniaco para que se iniciara la vida.
Pero más recientemente, otros experimentos han demostrado que las
moléculas prebióticas también pueden elaborarse en “atmósferas” de tubo de
ensayo ricas en dióxido de carbono, lo cual eliminó la necesidad de una
atmósfera de metano y amoniaco en la Tierra primitiva. Algunos astrónomos, como
veremos en el capítulo siguiente, llegan a argumentar que en las nubes
interestelares se encuentran presentes avanzados precursores de la vida, o
incluso moléculas vivas, y que podrían “sembrar” un planeta nuevo, aunque esta
opinión extrema no tiene el apoyo franco de todo el mundo. De todas maneras,
está claro que una atmósfera de dióxido de carbono más agua es una buena
condición para el nacimiento de la vida en la Tierra. Este descubrimiento es
importante, puesto que el desprendimiento de gases volcánicos en la Tierra
actual produce abundante dióxido de carbono y agua, más suficiente nitrógeno,
en diversos compuestos, para haber constituido este componente principal de la
atmósfera después de que se formara la Tierra sólida. Y, dado que no hay razón
para pensar que los procesos de desprendimiento de gases han cambiado mucho
desde que la Tierra se formó, cabe esperar, por lo tanto, que todos los
planetas rocosos desarrollan unas atmósferas ricas en dióxido de carbono y
agua. Mercurio, por supuesto, está tan cerca del Sol que todo intento de crear
una atmósfera es frustrado por el calor; pero Venus y Marte tienen ambos
atmósferas de dióxido de carbono, lo cual está muy de acuerdo con las ideas
actuales acerca de cómo se formaron éstas. Sin embargo, Venus y Marte parecen
haber perdido el agua, mientras que la Tierra ha perdido el dióxido de carbono
(o, mejor dicho, lo ha transformado en otras cosas). Estas diferencias se
explican claramente por las distintas distancias que separan del Sol cada uno
de los tres planetas.
Casi lo único que nos puede indicar la física simple acerca de la
superficie de un planeta rocoso, desprovisto de atmósfera, situado a una
distancia determinada del Sol, es su temperatura. Y eso es todo lo que
necesitamos saber para determinar si un planeta rocoso es húmedo o seco. La
temperatura de equilibrio de un cuerpo rocoso que describe órbitas alrededor
del Sol depende de la cantidad de calor que le llega de éste (lo cual depende
de la distancia) y de la cantidad irradiada al espacio (que depende de la
temperatura de las rocas por encima del cero absoluto, en ºK). En la medida en
que las rocas de los tres planetas tengan la misma composición, que sí la
tienen, la temperatura de equilibrio depende de la raíz cuadrada de la
distancia del Sol, de forma que Marte, 1,52 veces (como promedio) más lejos del
Sol que la Tierra, tendría una temperatura 1,234 veces más baja la de la
Tierra, si ninguno de los dos planetas tuviera atmósfera[25].
En el caso de Venus, la temperatura estable resultante del balance
térmico entre el calor solar entrante y el calor infrarrojo saliente, irradiado
por las rocas, era de 87 ºC (360 ºK) antes de que se iniciaran los
desprendimientos gaseosos. En estas condiciones, tanto el dióxido de carbono
como el vapor de agua liberados por estos desprendimientos permanecieron en
estado gaseoso y formaron un manto alrededor del planeta. Y tanto el dióxido de
carbono como el vapor de agua son muy idóneos para atrapar la radiación
infrarroja, por lo que la temperatura de la superficie de Venus se vio forzada
a subir hasta alcanzar un nuevo equilibrio, muy por encima del punto de
ebullición del agua, y se fueron estableciendo así las condiciones que
encontramos hoy en el planeta.
En Marte, las cosas fueron muy diferentes. Con una temperatura de
equilibrio original de 30º bajo cero en la escala de Celsius (243ºK), e agua ni
siquiera podía derretirse, y menos evaporarse, y aunque se formó una tenue
atmósfera de dióxido de carbono que sí contribuye con un modesto efecto de
invernadero, ello no es suficiente para hacer de Marte un planeta húmedo en la
actualidad.
Pero por muy poco: Marte está en el mismo borde de ser un planeta
húmedo, y probablemente podía haberse desarrollado mucho más como la Tierra si
sólo hubiera tenido algo más de masa, dado que su atracción gravitacional extra
le hubiera ayudado a mantener una atmósfera de dióxido de carbono de más
espesor para que proporcionara el calentamiento esencial por efecto de
invernadero. Las fotografías de Marte realizadas por las naves Mariner y
Viking, que muestran muchas características que parecen haber sido moldeadas
por el flujo de algún líquido, incluyendo cauces secos de ríos, sugieren a
algunos astrónomos que Marte sí tuvo, realmente, hace mucho tiempo, una
atmósfera más densa y agua corriente, y que el estado frío y seco actual se
desarrolló a medida que este manto de aire que le daba calor escapó poco a poco
al espacio. Sabemos que los ríos, si es que son ríos, no pueden ser
características nuevas porque la superficie de Marte está llena de hoyos y
marcas de cráteres de meteoritos. Algunos de esos cráteres se superponen a los
lechos de los ríos, lo cual revela que se produjeron después de que el agua
dejara de correr por ellos. Y puesto que tenemos una buena idea de la cantidad
de meteoritos que chocan contra Marte (o mejor dicho, de lo poco que lo hacen),
es sencillo calcular que los cauces de los ríos han estado secos desde hace mil
millones de años o más, y quizá durante la mitad de la vida del Sistema Solar.
El florecimiento de Marte debió de ser un período muy corto, durante la
primera juventud del planeta. Es posible, no obstante, que el planeta pueda
volver a ser húmedo otra vez, puesto que si los casquetes polares se
descongelaran, contribuirían con agua y dióxido de carbono a hacer más densa su
atmósfera. Un meteorito gigante podría chocar contra su superficie y hacer el
trabajo; o unos sutiles cambios en la órbita de Marte alrededor del Sol podrían
hacer variar sus estaciones y calentar los polos; o, quizá, dentro de cientos
de años nuestros descendientes de la Tierra consigan que Marte sea habitable
para el hombre.
Aunque Venus se halla cubierto por nubes (que contienen ácido sulfúrico), la
nave espacial Pioneer de la NASA, en órbita alrededor de Venus, ha trazado
mapas de la superficie mediante radar y los artistas han podido dibujar
imágenes del aspecto que ofrecería la superficie del planeta sin las nubes que
lo cubren. Los mapas obtenidos mediante radar muestran que, como la Tierra,
Venus está dividido en regiones continentales (en su caso, en tres continentes
principales) y en llanuras deprimidas que ocupan la mayor parte de la
superficie del planeta, como el fondo marino de la Tierra si no estuviera
oculto por el mar. Las medidas son incluso suficientemente exactas como para
identificar grandes valles en forma de fisuras sobre Venus, y todo esto induce
a pensar en un planeta cuya “geofísica” es muy similar a la de la Tierra, con
tectónica de placas, deriva continental y expansión del “fondo marino".
Las diferencias entre la Tierra y Venus residen en buena medida en sus
envolturas, en una diferente atmósfera de Venus debida a su posición
ligeramente más próxima al Sol y que posibilita el desarrollo de un efecto
invernadero de un modo desproporcionado. (Fotografías de la NASA.)
Pero lo importante, en términos de probabilidades de encontrar vida en
otra parte, no es, sin embargo, que Marte fracasara en el intento de ser un
planeta húmedo, sino que estuvo muy cerca de conseguirlo.
La superficie actual de Marte presenta el aspecto de un árido desierto, como
muestran las fotografías tomadas por el módulo del Viking que se posó sobre
ella. Pero las fotografías tomadas en vuelo orbital sugieren que en algún
momento fluyó agua por la superficie marciana. Todo indica que el planeta no
pudo disponer de una atmósfera lo bastante espesa como para mantener un cálido
efecto de invernadero y conservar su agua en estado líquido, y que, en
realidad, los canales fluviales son muy antiguos. Si Marte hubiera sido un poco
mayor o hubiera estado algo más cerca del Sol, o éste hubiera sido más cálido,
en nuestro Sistema Solar existirían dos planetas, Tierra y Marte, aptos para la
vida tal como la conocemos. (Fotografías de la NASA.)
En la Tierra, la temperatura original de la superficie era de unos 27 ºC
(300 ºK, lo cual es 1,234×243), o, en números redondos, 25 ºC, ya que, para ser
honestos, ninguno de estos cálculos es exacto y tanto da un par de grados más o
menos. Esta temperatura era lo suficiente alta para que el agua líquida
fluyera, pero no tanto para que enormes cantidades de vapor de agua pasaran a
la atmósfera y ayudaran al dióxido de carbono a producir un holgado efecto de
invernadero. Bien al contrario: las aguas calientes de los océanos en
crecimiento disolvieron dióxido de carbono procedente de la atmósfera y
redujeron el efecto de invernadero, mientras que las blancas nubes de agua que
flotaban en la nueva atmósfera reflejaban calor del Sol e inclinaban el
equilibrio de la temperatura hacia un ligero enfriamiento. El resultado fue que
la temperatura de la superficie de la Tierra con atmósfera se estableció en una
media de unos 15 ºC, donde ha permanecido desde entonces. Los dos factores de
equilibrio, poder de reflexión (albedo) y efecto de invernadero, actúan incluso
como una especie de termostato que mantiene la temperatura de la superficie de
la Tierra dentro de un margen moderadamente estrecho, tal como indica un simple
“experimento” imaginario.
§. Implicaciones para la vida
Supongamos que la Tierra se calentara un poco, cosa que podría suceder si el
propio Sol también se calentara algo. La primera cosa que sucedería sería la
evaporación de más agua de los océanos, que formaría más nubes en el cielo, que
a su vez bloquearían más calor del Sol y ayudarían a minimizar el efecto de
calentamiento. O supongamos que el Sol se enfriara. Con menos evaporación
habría menos nubes en el cielo y llegaría al suelo una proporción mayor del
calor entrante. De modo que el escenario estaba preparado para la aparición de
la vida: un planeta húmedo con una atmósfera estable, que mantenía la
temperatura dentro de sus estrechos límites, de manera que el planeta ni se
helara por completo ni se achicharrara. Con los conocimientos actuales
(incluyendo aquellos experimentos de hacer pasar chispas eléctricas a través de
botellas llenas de agua y dióxido de carbono) es difícil imaginar que la vida
no lograra establecerse en un planeta así, y de aquí en adelante, la historia de
la evolución de la atmósfera de la Tierra está indisolublemente ligada a la
historia de la vida en la Tierra. Muy brevemente, aunque la radiación
ultravioleta del Sol mantuviera estéril el suelo, incluso después de la
creación de los océanos, la vida podía desarrollarse bajo la protección de los
mares. Las primeras formas de vida encontraron el oxígeno venenoso, un producto
peligroso del cual tenían que librarse. Pero hace unos dos mil millones de
años, el oxígeno empezó a producirse en la atmósfera, donde las reacciones
químicas, estimuladas por la radiación del Sol (reacciones fotoquímicas),
produjeron una capa de ozono (la forma triatómica del oxígeno) que bloqueó los
esterilizadores rayos ultravioletas solares. Bajo este filtro protector, la
vida pudo desplazarse del mar a la tierra, a la vez que se habrían desarrollado
nuevas formas de ella que medraban en el oxígeno. Los primeros productores de
oxígeno dejaron de existir debido a su propia contaminación, en tanto que sus
descendientes se adaptaron a respirar dióxido de carbono las plantas y oxígeno
los animales. Esto significó un nuevo equilibrio, en el que la propia vida era
parte de la “realimentación”, y la Tierra pasó a ser reconocida como un planeta
vivo.
Mucha gente interpreta la historia, tal como la he contado, como una
indicación de que la vida puede que sea algo muy raro. Argumentan que no se ha
demostrado que exista vida en Marte o Venus, y que la Tierra ha tenido mucha
suerte al escapar de la doble trampa de un invernadero desmedido y del desierto
helado. Nuestro planeta se encuentra casi en el punto medio de la banda de
órbitas alrededor del Sol donde la superficie de los planetas rocosos tiene la
temperatura correcta para poder formar una atmósfera estable con agua corriente
y océanos; Venus está demasiado cerca del Sol y Marte demasiado lejos. Con una
órbita ligeramente diferente, dicen, nosotros también nos helaríamos o nos
achicharraríamos.
Pero, si la Tierra estuviera en una órbita diferente, ¿dejaría ello
nuestra presente órbita vacía? Si nuestro planeta estuviera en la órbita de
Marte, entonces Venus podría haber estado en la nuestra, y se habría
desarrollado de la misma manera en que se desarrolló la Tierra. Un planeta de
la masa de la Tierra en la órbita de Marte podría retener suficiente atmósfera
para mantenerse caliente y húmedo por el efecto de invernadero, y nuestro Sol
estaría rodeado por dos planetas con vida, y no por uno solo. Naturalmente, los
planetas no pueden moverse de órbita en órbita, y, como hemos visto, hay buenas
razones por las que Marte es más ligero y pequeño que la Tierra. Pero
consideremos la situación desde otro punto de vista.
Supongamos que el Sol fuera sólo un poco más caliente. Nuestro planeta
Tierra se encontraría todavía en la zona de vida, aunque entonces la zona
también incluiría a Marte; con una estrella central algo más fría, tanto la
Tierra como Venus serían húmedos, aunque Marte se helara totalmente. En mi
opinión, diría que somos desafortunados por tener sólo un planeta húmedo en
este Sistema Solar. Y éste es un cambio muy importante en la forma de ver las
cosas. Sabemos, por las evidencias de la espectroscopia, que las estrellas
aisladas (el 15% que no forma parte de sistemas múltiples) tienen
invariablemente una rotación lenta, como el Sol. Esto significa que han tenido
que ceder momento angular, casi con toda seguridad en la formación de sistemas
planetarios como el nuestro. Sabemos, por la física descrita en capítulos
anteriores, que los planetas rocosos, “terrestres”, deben formarse en las
partes interiores de dichos sistemas, con los gigantes gaseosos situados más
lejos. Y sabemos, tal como demuestra la falta de vida en Marte y la presencia
de ésta en la Tierra, que la banda de las órbitas alrededor de una estrella
como el Sol en las que es posible la vida cubre una porción de espacio lo
suficiente amplio para que sea virtualmente seguro que abarque un planeta y con
buenas probabilidades de abarcar dos.
Los pesimistas que dicen que si la Tierra estuviera más cerca del Sol se
achicharraría y que si estuviera más lejos se congelaría resultan muy lúgubres.
En cualquier lugar hasta Marte y hasta medio camino a Venus nuestro planeta
sería igualmente húmedo y habitable. El aire que respiramos y los océanos que
nos rodean no son fenómenos raros del Universo, sino complementos inevitables
de un planeta rocoso situado a una distancia tal de la estrella materna que la
temperatura de equilibrio de la superficie, antes de que se formara la
atmósfera por desprendimientos gaseosos, estaba como mínimo unos grados por
encima del punto de congelación del agua, y no era lo suficiente alta para que
el agua liberada por los desprendimientos gaseosos permaneciera en estado de
vapor en la atmósfera. Este margen es lo suficiente estrecho para hacer
improbable que cualquier planeta en particular sea húmedo, pero lo suficiente
amplio para asegurar que un planeta entre varios, en un sistema como el Sistema
Solar, sea húmedo. Los pesimistas son en realidad chauvinistas de la Tierra;
por supuesto que nos importa el que la Tierra viva o muera, pero en términos de
vida en el Universo, podrían haber sido perfectamente Venus o Marte los que
ganaran la lotería en nuestro Sistema Solar.
Las estrellas como nuestro Sol, en efecto, pueden constituir un buen
lugar para la creación de la vida. Las más masivas, como ya hemos visto, pasan
por sus ciclos de existencia muy rápidamente, y la vida ha necesitado miles de
millones de años para evolucionar en la Tierra y convertirse en vida
inteligente. Las más frías, en cambio, tienen una existencia más larga que el
Sol, pero sus zonas de vida son más estrechas, con lo cual decrece la
posibilidad de que algún planeta esté en la órbita correcta para llegar a ser
húmedo. En realidad, puede que la existencia de vida en otros planetas, que
rodean otros soles, sea no sólo posible sino probable; si es así, hay muy
buenas probabilidades de que sea bajo un cielo azul, con nubes blancas y un sol
amarillo, con ríos y océanos de agua en abundancia.
§. La corteza deslizante
Sin embargo, antes de que veamos cómo la vida se estableció en nuestro planeta,
todavía queda un aspecto de la cambiante Tierra que es necesario examinar. La
Tierra donde la vida se desarrolló, e incluso los continentes que albergaron la
vida animal al principio, era muy diferente de la Tierra actual en un aspecto
que es, en cierto modo, superficial, pero sería perceptible de inmediato si
algún astronauta que viajara en el tiempo pudiera traemos una fotografía de la
Tierra vista desde el espacio hace mil millones de años. Si bien ya era
entonces un planeta húmedo, salpicado de continentes, éstos y los océanos no
siempre han presentado la misma distribución. La deriva continental, la
formación de las montañas y otros procesos geofísicos han cambiado
repetidamente la faz de la Tierra, y a menudo con importantes consecuencias
para la vida. Los terremotos, los volcanes, así como el flujo y reflujo de las
épocas glaciales, están relacionados con dichos cambios, y constituyen las
características principales que se han combinado para formar el entorno que hoy
es nuestro hábitat.
Hace tan sólo veinte años, el concepto de la deriva de los continentes,
es su reencarnación en forma de la moderna teoría de las “placas tectónicas”,
estuvo a punto de revolucionar nuestra comprensión de la Tierra. Hoy día,
aunque unos pocos objetores de la deriva de los continentes alcen todavía su
voz de vez en cuando en los círculos científicos, el concepto está tan
establecido que para la actual generación de geógrafos y geofísicos es natural
y de sentido común, tan obvio como la gravedad una vez que el genial Isaac
Newton nos la revelara a nosotros, los pequeños mortales. En la historia de
cómo se impuso la idea de que los sólidos continentes se mueven por el globo
debajo de nuestros propios pies es imposible, sin embargo, nombrar a un genio
cuyo trabajo haya convencido a todos los científicos. El hombre que para muchos
es el “padre” del concepto es Alfred Wegener, un astrónomo alemán que se pasó a
la meteorología, que publicó su versión de la idea en el ya lejano 1912, y con
más detalle en 1915. Pero las evidencias más convincentes no llegaron hasta los
años sesenta, gracias a la combinación de nuevas técnicas para el estudio de la
naturaleza de la corteza terrestre, en especial de la corteza debajo de los
océanos, y de los computadores electrónicos de alta velocidad para analizar las
observaciones. Hasta los años cincuenta, en efecto, pocos geólogos veían la
Tierra como algo no totalmente estable. Los continentes podían elevarse o
hundirse un poco como respuesta a la suma o resta del peso de los hielos, en el
vaivén de los períodos glaciales, pero no podían, según se creía, cambiar sus
posiciones en la superficie de la Tierra. Se consideraba que los fondos de los
océanos eran mucho más antiguos que las rocas de los continentes, y que la
mayor parte de ellos no habían cambiado desde que la Tierra se formó. Todas
esas ideas han experimentado una transformación, excepto la que postulaba que
el flujo y reflujo de los hielos provoca desplazamientos verticales en la
corteza.
Sabemos ahora que los fondos oceánicos constituyen los aspectos más
jóvenes de la corteza, y que toda la delgada corteza que hay bajo los mares se
recicla de continuo en el interior de la Tierra, de modo que las rocas más
viejas del lecho del mar no tienen más de 200 millones de años, comparado con
los 4.500 millones que tiene el planeta. Los continentes no sólo contienen las
rocas más viejas, sino que también se han ido moviendo por la superficie de la
Tierra, transportados por los mismos procesos que reciclan la corteza del lecho
de los mares, durante un largo período de tiempo. Y este conocimiento combinado
del comportamiento de los continentes y del reciclaje de la corteza debajo del
mar es lo que hace que la moderna teoría de las placas tectónicas sea mucho más
sólida que las primeras teorías de la deriva de los continentes.
Según la leyenda, una de las primeras personas que se dieron cuenta de
la similitud de formas entre la costa este de América del Sur y la costa oeste
de África fue Francis Bacon, en 1620. No parece que Bacon llegara a sugerir que
la razón de que los dos continentes encajaran como una pieza de un rompecabezas
era que en alguna época habían estado unidos y que en determinado momento se
separaron; pero el descubrimiento se convirtió en una fuente de inspiración
para los patrocinadores de la deriva de los continentes a lo largo de los
siglos. En 1858, el americano Antonio Snider desarrolló una versión del
concepto, que relacionó con el diluvio bíblico, en la que sugería que se había
hundido una única masa original de tierra y las aguas del diluvio se habían precipitado
en la grieta entre el Viejo Mundo y el Nuevo; otros científicos del siglo XIX
especularon con versiones de la idea, que comprendían teorías según las cuales
la Luna había sido arrancada de la cuenca del Pacífico, pero la versión de
Wegener de principios del siglo XX fue la primera teoría de esta clase
verdaderamente completa, que recurría a las evidencias de diferentes
disciplinas científicas para establecer una tesis firme.
La tesis no fue aceptada en su momento, ni durante medio siglo más, y
una razón de ello parece haber sido el hecho de que Wegener fuera un intruso.
Un astrónomo convertido en meteorólogo no era, a los ojos del
establishment geológico de su tiempo, alguien que pudiera tomarse muy en serio,
y su situación de intruso contribuyó a que la disputa científica sobre la
deriva de los continentes fuera a menudo áspera durante unas décadas.
La perfecta coaptación de los continentes de ambos lados del Atlántico, no a
nivel de las actuales líneas de la costa sino de los bordes de la plataforma
continental, proporciona una de las más llamativas indicaciones del modo en que
derivaron los continentes.
Todo ello, no obstante, ya ha pasado, y con la acumulación de nuevos
testimonios, la idea de la deriva de los continentes de Wegener se encuentra
tan bien fundamentada como cualquier otra de la ciencia de hoy.
El ajuste como en un rompecabezas de los continentes, incluyendo América
del Sur y África, es tan impresionante como siempre, pero constituye hoy una de
las evidencias menos decisivas en favor de la deriva de los continentes. Al
reconstruir la imagen de cómo los actuales continentes pueden reunirse en un
supercontinente, los geofísicos no utilizan ahora el contorno detallado de los
continentes a nivel del mar, sino el contorno de la plataforma continental, que
marca la frontera entre la gruesa corteza del continente y la más delgada del
fondo marino. Ésta es la frontera natural que hay que escoger, pero, por
supuesto, sólo pudo escogerse una vez fue descubierta, después de las
mediciones modernas que revelaron lo delgada que realmente es la corteza
oceánica. Con las fronteras continentales ya definidas (y utilizando las
modernas computadoras para acelerar la tarea de encontrar el “mejor” encaje de
las piezas del rompecabezas, si bien el trabajo puede hacerse a mano,
utilizando recortes de las siluetas de los continentes uniéndolos sobre una
esfera), se encuentra que el encaje entre América del Sur y África es casi
perfecto, y los demás continentes encajan con claridad para formar dos
supercontinentes: “Laurasia”, en el hemisferio norte, y “Gondwanaland”, en el
hemisferio sur.
Una segunda línea de acción respalda la evidencia de que los actuales
continentes estaban unidos así hace sólo 180 millones de años. El hecho de que
las piezas encajen no demuestra que alguna vez estuvieran unidas: en términos
legales, la evidencia es sólo circunstancial. Pero cuando se encuentran
características geológicas que coinciden al unir los dos continentes, entonces
la evidencia se hace mucho más sólida. Si imaginamos que las piezas del
rompecabezas son recortes de un periódico, y después estas piezas se han
juntado de modo que las formas geométricas coincidan, es como si encontráramos
que las líneas escritas de la pieza llamada, por ejemplo, “América del Sur”,
coincidieran con las líneas escritas de “África”, de modo que pudiera leerse la
noticia y que las dos piezas juntas formaran la hoja del periódico antes
separada en dos trozos. Muchas de esas “líneas” geológicas pueden “leerse” a
través de las junturas de los supercontinentes de Laurasia y Gondwanaland, y
sólo es necesario destacar aquí unos pocos ejemplos. En primer lugar, las rocas
antiguas de un lado de la juntura coinciden con las antiguas del otro lado; en
segundo lugar, la forma de erosión debida a las capas de hielo, al viento y al
agua es la misma en las rocas de ambos lados y revela que, por ejemplo, el
sudeste de Brasil y el sudoeste de África estaban unidos hace entre 550 y 100
millones de años, y luego, gradualmente se separaron [26] y
finalmente, la deriva de los continentes explica por qué se encuentran restos
de arrecifes de coral (formados en aguas tropicales) y depósitos de carbón
(restos de selvas tropicales) en latitudes tan altas como Europa [27].
La teoría de Wegener consideraba que los continentes se movían por la
corteza más débil del fondo oceánico, un poco como los icebergs se mueven por
el agua del mar. Si bien la versión moderna de las placas tectónicas considera
que las cortezas tanto del océano como de los continentes se mueven juntas,
excepto en los bordes de las placas, la teoría de Wegener requería la
existencia de dos clases diferentes de corteza en la Tierra, una piel delgada,
que formaba los fondos marinos, y una corteza más gruesa y más estable, que
formaba los continentes. Y en este aspecto, aunque no estaba del todo en lo
cierto, apuntaba en la dirección correcta. No es nada fácil imaginar que la
“sólida” corteza de los fondos oceánicos se abra para dar paso a los
continentes, pero hay muchas sustancias que tienen un comportamiento plástico
que permite esa clase de deformación. La propia roca, bajo las condiciones
adecuadas, experimenta deformaciones plásticas, como lo demuestra la presencia
de grandes cordilleras de arrugas más pequeñas en la piel de la Tierra; en
términos más domésticos, la “masilla tonta” (silly putty), que
encanta a los niños de todas las edades, es otro ejemplo de ello. Esta masilla
es una sustancia elástica que, apelotonada en forma de bola, muestra un
extraordinario poder de rebote, y que, estirada en forma de lámina delgada, si
se deja en una pendiente, fluye muy lentamente cuesta abajo. Pero, si se da a
la bola un golpe seco con un martillo, se hace añicos como un pedazo de vidrio.
Una roca “sólida”, sometida a una constante presión durante millones de años,
puede deformarse plásticamente, y sólo nos parece que su forma es constante y
no cambia, porque la vida humana es demasiado corta comparada con la de un
continente o la de una cordillera. Las sacudidas y vibraciones de la actividad
volcánica y sísmica son indicaciones harto dramáticas en términos humanos, de
estos lentos procesos que cambian sin cesar la faz de la Tierra y reordenan la
disposición de los continentes.
Durante los años cincuenta, unos estudios sísmicos mostraron que la
corteza de la Tierra es realmente más delgada debajo de los océanos que en los
continentes, con un grosor medio que oscila entre 5 y 7 km frente a la media de
34 km de la corteza continental (que a veces puede llegar a 80 o incluso 90 km
de grosor debajo de las grandes montañas). Esto no confirmaba, sin embargo, que
la idea de Wegener de que los continentes se movían através de
la corteza oceánica era correcta. Las mismas técnicas de estudio que
descubrieron la delgadez de la corteza oceánica revelaban también que la
superficie de la corteza debajo del mar está esculpida de una manera tan
desigual como la superficie de cualquier masa de tierra, con montañas y cañones
submarinos, fosas profundísimas en algunas partes del mundo y, lo más
significativo de todo, un gran sistema de dorsales (elevaciones del fondo
oceánico en forma de cordilleras) que se extiende por todo el mundo, con
ramales en todos los océanos. El ramal de este sistema que se extiende por el
Atlántico Norte fue pronto estudiado con detenimiento, y desde entonces ha sido
aceptado como el arquetipo de las dorsales oceánicas. Se eleva unos 3 km por
encima de las planicies del fondo del mar, y constituye una región geológica
muy activa, donde son comunes la actividad volcánica submarina y otros
fenómenos subterráneos; esta actividad se hace patente en Islandia, donde la
dorsal emerge a la superficie del mar en forma de esta pequeña isla, volcánica
y geológicamente activa.
§. Deriva continental y expansión del fondo marino
En 1960, este sistema de dorsales y su actividad fueron explicados por el
profesor Harry Hess, de la Universidad de Princeton, en términos de expansión
del fondo del mar, con lo que reavivó la idea de la deriva continental y la
estableció al fin sobre una base sólida. De acuerdo con la nueva versión de esa
vieja idea, el material del interior de la Tierra, en algunas partes del mundo,
fluye hacia arriba por convección, agrietando la corteza y empujando la roca
fundida a través de las grietas, las cuales crecen hasta convertirse en el
sistema de dorsales oceánicas. La delgada capa producida por la solidificación
de la roca es empujada continuamente al exterior de la dorsal, expandiéndose a
ambos lados de la misma de tal forma que hace crecer el suelo del océano. Esta
idea explica por qué encajan los bordes de los dos continentes a uno y otro
lado del Atlántico, pues al tiempo que se separan las grietas de un continente
mayor y más antiguo —fenómeno que ha venido sucediendo durante un período de
200 millones de años—, la actividad de las dorsales en expansión del Atlántico
ha ensanchado el océano que queda entre ambos lados. En este caso, el
ensanchamiento se produce a razón de 2 cm por año (expandiéndose a razón de 1
cm por año a cada lado de la dorsal central).
Todo este proceso se considera “superficial” en relación con lo que es
la Tierra. La corteza que se mueve, se agrieta y es empujada por medio de la
convección, es simplemente la litosfera, una piel no más gruesa, comparada con
la Tierra entera, que la piel de una manzana, comparada con la manzana entera.
Y la región bajo la litosfera, en la cual tiene lugar la convección, es la
astenosfera, sólo parcialmente fundida, entre 75 y 250 km por debajo de la
superficie misma. Toda la actividad relacionada con la deriva continental se da
en los primeros 250 km de la superficie, ayudada por el calor que escapa del
interior, y provoca las corrientes de convección. Fuera de un radio de 6.371
km, esto representa el 4% de la parte externa de nuestro planeta. Si esta expansión
fuera el único proceso importante que ha provocado el movimiento continental,
estaría entonces claro que nuestro planeta podría aumentar constantemente de
tamaño para acomodar toda su nueva corteza. Pero al mismo tiempo que la
formación del gran sistema de dorsales oceánicas se estaba produciendo, los
geógrafos descubrían la existencia de profundas fosas oceánicas, que unen la
parte oeste del Pacífico desde Nueva Zelanda hasta las Filipinas, y desde el
Japón hasta las Aleutianas, y, en la parte este del Pacífico, desde Chile a
México. Hess ha sugerido que la nueva corteza de océano creada con la expansión
se ha equilibrado con la destrucción de la relativamente antigua corteza
oceánica en esas profundas fosas, donde las estribaciones descendentes de las
células en convección barren la, en cierto modo, delgada corteza oceánica bajo
la más gruesa corteza de una masa continental hacia la astenosfera, donde se
funde, y en la cual el material puede ser reciclado en otra —o la misma—
ramificación del sistema de dorsales expansivas[28].
Este sencillo modelo hizo encajar en su lugar las piezas que representan
el nuevo mundo. La continua actividad volcánica y gaseosa del sistema de
dorsales oceánicas ayudó a explicar de dónde procede el agua de todos los
océanos; mientras, la idea de una corteza oceánica activa, incesantemente
reciclada, y una más resistente corteza continental dieron una nueva
perspectiva de la actividad geológica de la Tierra, desde la que se esclarece
por qué la acción principal, en términos geológicos, tiene lugar en un determinado
sitio. Y la evidencia definitiva que confirmó con exactitud la expansión del
fondo marino llegó a principios de los años sesenta, cuando los geofísicos
comenzaron a medir y estudiar los modelos de magnetismo de las rocas de ese
fondo.
Las rocas del fondo marino son, de modo fundamental, basaltos
ligeramente magnéticos. Cuando el basalto fundido sale de una dorsal oceánica y
se desparrama hacia ambos lados, se enfría rápidamente y, tan pronto como entra
en contacto con el agua del mar, se solidifica; mientras esto sucede, queda
magnetizado y alineado con el campo magnético de la Tierra. No obstante, una
vez ha concluido el proceso, en términos magnéticos, la roca se convierte en
una especie de imán, y, si se rompe y se le cambia de dirección, se orienta
según el resto de la roca y no según el campo magnético de la Tierra. Donde los
estratos de roca han sido depositados uno sobre el otro, debido a una contínua
actividad volcánica, el efecto antes mencionado puede observarse claramente en los
sucesivos estratos, porque el campo magnético de la Tierra no es constante. La
orientación de los polos magnéticos se desplaza en relación con los polos
geográficos y, además, por razones todavía lejos de estar aclaradas, el campo
entero “salta” de vez en cuando, con lo que los polos norte y sur intercambian
sus posiciones. Así pues, el grupo de estratos de basalto de un continente
puede tener un estrato superficial alineado con el actual campo magnético de la
Tierra, otro estrato o estratos alineados de forma algo diferente, que se
equiparan a los polos magnéticos del pasado más inmediato, y, por último,
estratos con una polaridad totalmente invertida, correspondientes a los tiempos
del pasado geológico más lejano, cuando el campo de la Tierra estaba orientado
al revés de como lo está ahora.
Cuando la observación magnética del fondo marino en diferentes partes
del mundo mostró marcas o líneas de modelos magnéticos dispuestas de norte a
sur, junto con otras adyacentes de polaridad magnética opuesta, no fue difícil
para los geofísicos de mediados de los años sesenta hallar una explicación
basada en la idea de la expansión del fondo del mar.
La causa de la deriva continental está en la expansión del fondo marino. A
nivel de las dorsales, que son roturas de la delgada corteza del fondo marino,
se depositan nuevas rocas a medida que material fundido emerge y se desparrama
a uno y otro lado de la dorsal. El ensanchamiento del fondo marino resultante
se equilibra justo donde la delgada corteza oceánica es forzada a introducirse
debajo de la corteza más espesa de una masa continental, originando una fosa en
el borde del continente y constriñéndolo a formar montañas y volcanes.
Dicho de manera rápida: cuando, en un momento determinado, el basalto
sale de la dorsal oceánica, se deposita con la marca del campo magnético de ese
momento. Cuando el campo se invierte, el nuevo basalto quedará depositado con
la marca del nuevo campo magnético, al lado del basalto anterior, que se habrá
ido apartando de la dorsal expansiva. En la medida en que este proceso se
repite una y otra vez a lo largo de cientos de millones de años o más, queda
construido un modelo de marcas magnéticas, distribuidas de forma simétrica
alrededor de la dorsal, en la cual cada marca o línea puede ser datada por
comparación con los modelos magnéticos encontrados en rocas de distintas
épocas.
El concepto es de una brillante sencillez, si bien dichas observaciones
están todavía lejos de dejarlo todo tan transparente como, al explicarlo yo, he
hecho que pareciera. El resultado es claro: la idea de la expansión del fondo
del mar declara lo que le ocurre a la corteza oceánica, la nueva corteza se
forma en las dorsales oceánicas para desaparecer luego en la garganta de las
fosas oceánicas, creando una especie de cinta transportadora, en la cual la
corteza continental se ve conducida. Entre la dorsal en expansión y la fosa
oceánica hay una región que disfruta de una relativa estabilidad, una “placa”
de la corteza de la Tierra. Tales placas pueden rozarse entre sí, con una
corteza que ni se crea ni se destruye dentro de sus límites; se presentan tres tipos
de “márgenes de placa”: allí donde la corteza se crea, tenemos un margen
constructivo; donde la corteza antigua desaparece, tenemos un margen
destructivo, y donde las placas se rozan unas con otras, tenemos unos márgenes
conservadores y se transforman en fallas, como la de San Andrés, en California,
la cual separa la placa de América del Norte de la del Pacífico.
La inversión magnética ocurre muy pronto, teniendo en cuenta el tiempo
de vida de la Tierra. El proceso completo necesita varios miles de años y, una
vez que el campo magnético se ha establecido totalmente, en una dirección u
otra, permanecerá así por un período que puede oscilar entre los 100.000 y los
50 millones de años. En la actualidad, el campo magnético de la Tierra se
debilita lentamente, a un ritmo que puede hacerlo desaparecer en 2.000 años, de
forma que es posible que estemos viviendo en las primeras etapas de la
“próxima” inversión magnética. El efecto de dicha actividad puede ser de vital
importancia para la historia de la vida en el planeta. Se ha sugerido que
cuando el campo magnético sea muy débil o inexistente, el torrente de
partículas cargadas procedentes del espacio —rayos cósmicos— que alcancen el
planeta puede constituir un peligro para la subsistencia de la vida, sobre todo
para la vida en la superficie. Normalmente, el campo magnético de la Tierra
desvía estas partículas, que se almacenan en el cinturón de radiación de Van
Allen, y luego rebasan cerca de los polos magnéticos produciendo la brillante
aureola que puede verse en las altas latitudes. Si, desprovistos del campo
magnético protector, alcanzaran el suelo o bien la parte baja de la atmósfera,
podrían revelarse muy perjudiciales para la vida, o desordenar el clima, que a
su vez haría difícil la vida sobre la Tierra. Estas ideas no son más que
especulaciones todavía, si bien algunos teóricos aseguran que la época que
conoció la “muerte de los dinosaurios”, hace unos 65 millones de años,
coincidió (si puede utilizarse esta palabra) con una inversión magnética.
Aunque esta parte de la historia es especulativa, el movimiento de los
continentes a través de los procesos de las placas tectónicas ha sido crucial
para la evolución de la vida.
La rotura de Pangea II es el más reciente acontecimiento de
trascendencia de la historia tectónica de la Tierra, y en la actualidad se
halla bien explicado a partir de los registros fósiles en las rocas. Una
característica clave, en lo que a la vida terrestre se refiere, es la forma en
que los continentes en la actualidad se han agrupado para asegurar que ambos
polos estén cubiertos de hielo a la vez. Esta rara disposición geográfica hace
a la Tierra propensa a las glaciaciones, y permite que los ciclos astronómicos
de los modelos de Milankovič se hagan efectivos. La deriva continental, desde
luego, no se ha detenido en la actualidad, y el Atlántico Norte, por ejemplo,
se está ensanchando a razón de 2 centímetros por año. Dentro de 50 millones de
años, la geografía del mundo será notablemente diferente y el paso más fácil de
corrientes oceánicas templadas hacia el Ártico puede poner fin al actual ciclo
de períodos glaciales.
En el momento presente, la corteza de la Tierra se divide en seis
grandes placas, zonas sísmicamente estables que pueden contener corteza
oceánica (como la placa del Pacífico), corteza continental (como la placa
eurasiática), o una mezcla de las dos (como la placa de América del Norte, la
cual se extiende desde la costa este del Pacífico hasta la cordillera del
Atlántico). Además, existen alrededor de una docena de sub placas pequeñas, y
algunas complejas y revueltas regiones en las fronteras, especialmente donde
tres o más placas se encuentran, como en el Caribe. Grandes cadenas montañosas
se forman donde las placas colisionan; cerca del océano Pacífico, en el cual la
actividad ha provocado un cinturón volcánico conocido con el nombre de
“cinturón de fuego" desde mucho antes de que la idea de las placas
tectónicas se estableciera; en el Himalaya, donde India colisiona con Eurasia,
y en los Alpes y los Pirineos, donde África colisiona con Europa. En el lugar
en que la colisión se produce entre dos cortezas continentales, los sedimentos
que se han acumulado sobre la plataforma continental son aplastados por la
presión y convertidos en rocas de nuevas regiones montañosas, siendo empujadas
hacia arriba como la pasta de dientes de un tubo, ayudando con todo ello a
crear una nueva corteza continental. Esto es lo que está ocurriendo ahora en la
región del Mediterráneo, donde en breve, en la escala de tiempo geológica, toda
la corteza del suelo marino desaparecerá. Cuando placas de corteza continental
chocan con placas de corteza oceánica, ésta se ve forzada hacia abajo, mientras
que los sedimentos del suelo marino se juntan, de modo que coadyuvan a la
construcción de cadenas montañosas en la costa. Mientras tanto, se fuerza a la
corteza oceánica a seguir hacia abajo hasta que se deshace y se funde con el
material caliente, originando así actividad volcánica, en tanto que el material
continental se deforma por la presión. En ninguna otra parte puede observarse
tan claramente dicho proceso como en las montañas que forman la espina dorsal
de Sudamérica, en la parte oeste de la placa sudamericana. Semejantes procesos,
a través de diversos ciclos de actividad tectónica, son los responsables de la
existencia de las viejas cadenas montañosas que hoy conocemos, mientras que el
comienzo de nuevas fases de actividad se muestra en regiones tales como las del
este de África o el mar Rojo, donde la expansión está rompiendo el continente,
lo que puede llevar a la formación de un nuevo océano, si las grietas se
ensanchan.
Todo este movimiento tiene una influencia directa en la vida actual; las
erupciones del monte St. Helen o los estruendos de la falla de San Andrés son
parte del modelo de actividad tectónica. Hace mucho tiempo —unos 3.000 millones
de años—, cuando la Tierra era más caliente y la convección más energética,
cuando la corteza era mucho más delgada de lo que es ahora, y antes de la
formación de muchas montañas, el modelo de comportamiento hubiera sido definido
de modo muy diferente. Durante los últimos cien millones de años, no obstante,
los procesos de las placas tectónicas probablemente se han ido sucediendo tan a
menudo como en la actualidad, reorganizando la distribución de continentes y
océanos por medio de cuatro grandes fases de actividad. Y esas reorganizaciones,
al parecer, han tenido efectos en la vida, efectos tan importantes que se hace
necesario mencionarlos aquí, justo antes de empezar a narrar la historia de la
vida en la Tierra.
En términos geológicos, todo lo ocurrido hace más de 570 millones de
años (alrededor del 90% de la historia de la Tierra) se define como
Precámbrico, y muy poco se conoce acerca de todo ello. A medida que nos vamos
acercando a nuestros días, las divisiones de las etapas geológicas se acortan,
gracias a nuestro mejor conocimiento de tiempos recientes. Durante los últimos
570 millones de años, que creemos conocer mejor, parece ser que primero se
fragmentó un supercontinente para formar cuatro continentes separados, que se
volvieron a juntar y finalmente se separaron de nuevo, primero formando
Laurasia y Gondwanaland y luego formando los siete continentes actuales. Estos
acontecimientos coinciden intrigantemente con el cambio de modelos de vida
sobre la Tierra y, en particular, con el gran número de especies encontrado en
forma de fósiles, fósiles, sobre todo, de criaturas que vivían en mares poco
profundos.
Para explicar esto, imaginemos la situación de la Tierra cuando estaba
formada por un solo supercontinente (Pangea). Una masa tan vasta de Tierra
debía de tener unos veranos muy calurosos y unos inviernos muy fríos, puesto
que el efecto moderador de los océanos no alcanzaba a las zonas del interior.
También debía de tener un “medio ambiente” marino en la costa, de manera que
las criaturas del mar pudieran moverse libremente por toda ella. Ahora
imaginemos lo que ocurre cuando el continente se agrieta y se divide en varios
continentes más pequeños. En primer lugar, el clima se hace menos extremado
(salvo en algunos casos especiales), ya que la influencia marítima llegaría a
más porciones de Tierra que antes.
En segundo lugar, cada plataforma continental se separa de las otras, de
forma que las distintas especies de animales marinos no pueden desarrollarse de
la misma manera en las costas de todos los continentes. Todo ello facilitaría
el desarrollo de la vida (climas menos extremos permiten diferentes e
independientes modos de crecimiento, mientras que un grupo de pequeños
continentes permite una mayor variedad de fósiles que en un solo
supercontinente). Y es esto exactamente con lo que nos encontramos.
Cuando Pangea 1 se desmembró hace unos 600 millones de años, la
diversidad en la fauna se incrementó de una manera espectacular, hasta que los
cuatro nuevos continentes se acabaron de formar, unos 450 millones de años
atrás, al final del Ordoviciense. La diversidad continuó hasta hace unos 200
millones de años, momento en que los cuatro continentes volvieron a unirse
durante el Pérmico, conformando otro supercontinente, Pangea II. Llegados a
este punto, el número de especies diferentes disminuye de una manera también
espectacular; pero Pangea II tiene una corta vida, puesto que se fragmenta
pronto en nuevos continentes; primero Laurasia y Gondwana, separados por un
océano, Tetis, y luego, en un posterior desmembramiento, se dividió de una
forma parecida a la que conocemos hoy, aunque con los actuales continentes
situados en posiciones algo diferentes. De todo ello hace 70 millones de años,
hacia el final del Cretácico [29]. La
variedad de las especies aumentó durante esta etapa de desmembramiento;
primero, cuando se pasó de un continente a dos y, luego, de dos a siete. El
mundo presente posee múltiples e interesantes hogares para proveer a los
habitantes de la plataforma continental, los cuales en ningún momento de los
últimos 600 millones de años han llegado a ser tan diversos. Si los continentes
no se hubieran movido ni se hubieran reagrupado tal como lo hicieron, la
evolución de la vida sobre la Tierra hubiera sido mucho más simple, más torpe
y, sin lugar a dudas, no habría desembocado en nacimientos de especies
inteligentes.
Esta es mi forma de llegar a la historia de la vida, si bien mi
disertación sobre “la revolución en las ciencias de la Tierra” verificada en
los años sesenta ha tenido que ser, forzosamente, superficial, por razones de
espacio. Todavía hay, sin embargo, una segunda revolución en las ciencias de la
Tierra, en los años setenta, que fue la consecuencia de los conocimientos
adquiridos durante la década anterior. Esta segunda revolución concierne a un
tema muy importante para la historia de la vida, y en particular para la
historia de la vida humana: las causas de los cambios climáticos y el flujo y
reflujo de las enormes capas de hielo de nuestro planeta.
§. Nuestro cambiante clima
Los geólogos pueden reconstruir la historia de los cambios climáticos del
pasado por la forma en que éstos han afectado a los sedimentos depositados en
diferentes épocas. Como ejemplo más claro, los movimientos de las capas de
hielo a través de las rocas durante los períodos glaciales produjeron marcas
visibles después de cientos de millones de años. Mediante la datación de
diversos estratos de rocas, el empleo de una gran variedad de técnicas y la
búsqueda de señales que revelen el paso de los hielos, los geólogos pueden
decir (con un margen de error de unos pocos millones de años) cuándo el hielo
cubrió una determinada porción de la corteza continental. Pero esto sólo es la
mitad de la historia; también tienen que precisar dónde se encontraba esa
determinada porción de la corteza cuando el hielo la cubría, porque —como ya
sabemos— la geografía del globo cambia constantemente debido a la deriva de los
continentes, o, si se prefiere, gracias a que son empujados por el mecanismo de
expansión del fondo marino. La reconstrucción de la posición estriba, en buena
medida, en que se hagan corresponder los modelos geológicos de los distintos
continentes actuales con las “líneas cebra” ya mencionadas, y también el
magnetismo de los fósiles de los estratos en diferentes partes del mundo. La
corteza continental contiene igualmente rocas magnetizadas, que indican la
dirección y, en algunos casos, la localización de cierta parte del continente
en el momento en que un determinado estrato se deposita. Así que, de una forma
u otra, es posible realizar un esquema de los cambios climáticos que se han ido
produciendo durante los pasados mil millones de años, aproximadamente. Y esto
puede compararse con la geografía del mundo —la distribución de los
continentes— de hace unos 600 millones de años, y más vagamente con la
geografía anterior.
En esa escala de tiempo, el clima “normal” de la Tierra se supone que es
caliente y húmedo. A intervalos de 250 a 300 millones de años tiene lugar un
cambio que trae consigo un régimen climático más frío, una “época” glacial que
abarca unos 50 o 100 millones de años. Durante esta época glacial, los
glaciares pueden subir o bajar varias veces, cubriendo una gran extensión de
Tierra, o bien limitándose tan sólo a cubrir las partes polares. Los intervalos
entre los períodos glaciales de una época glacial reciben el nombre de
interglaciales; por cierto, ahora nos encontramos en uno de ellos.
Se ha especulado mucho acerca de las causas del ritmo de los cambios
climáticos. A gran escala, se ha dicho que la aparición de hielos en un mundo
caliente se debe a las alteraciones producidas en el Sol y a otros fenómenos
ocurridos durante el tránsito del Sistema Solar a través de nubes de polvo en
nuestra Vía Láctea. Si estas ideas son posibles, no están, sin embargo,
necesariamente en lo cierto. La mejor sugerencia es la que remite estos cambios
de clima a las modificaciones en la geografía de nuestro planeta.
Es natural que empecemos fijándonos en la situación actual, que
conocemos casi a la perfección, y que luego la comparemos con las alteraciones
ocurridas durante los últimos cien millones de años. Hoy día, es obvio que las
zonas más frías del planeta son los polos, donde el Sol sólo aparece en el
horizonte y calienta menos que en otros lugares cada metro cuadrado de suelo.
La atmósfera y los océanos compensan ese desequilibrio del calor solar en la
medida en que la convección atmosférica y, más importante todavía, la
circulación oceánica transporta aire y agua cálidos provenientes de la zona
ecuatorial, entre los trópicos. Con la actual geografía, no obstante, el agua
caliente no puede penetrar por completo en las zonas polares. En el sur, el
continente antártico se asienta alrededor del polo, de manera que el agua no
puede llegar al polo propiamente dicho, si exceptuamos el agua que cae del
cielo en forma de nieve, imposibilidad que ha permitido la formación de la
mayor capa de hielo que existe en la actualidad. En el norte, a pesar de que
hay un mar polar, éste está prácticamente rodeado por masas de tierra, de modo
que es casi imposible que las grandes corrientes de agua cálida, tales como las
del Gulf Stream, penetren lo suficiente; en consecuencia, durante todo el año,
en el Ártico hay una capa de hielo, delgada en comparación con la del Polo Sur,
pero tan considerable como ésta. Así es que la actual época glacial, una serie
de períodos glaciales que comenzó hace unos 10 millones de años, puede ser perfectamente
entendida en términos de reagrupación de las masas de tierra continental.
Cuando encontramos —y lo hacemos— restos de bosques tropicales en la Antártida
(en forma de depósitos de carbón) no quiere ello decir que el Polo Sur fuera
alguna vez tropical, sino que, en algún momento, la Antártida formó parte de
las tierras de las regiones tropicales; cuando encontramos rastros de
glaciación en rocas antiguas del Brasil, no queremos decir que tiempo atrás
fueran las regiones tropicales las que estaban cubiertas por los hielos, sino
que el Brasil formó parte de un continente polar.
Los glaciares se crean en el momento en que cualquier masa continental
se desplaza hacia alguno de los polos, bloquea el agua caliente y construye una
capa de nieve que se hiela. Algunas veces esto ocurre cuando el otro polo
todavía permanece abierto a esas aguas calientes y los otros continentes se
reagrupan en las latitudes bajas, cerca del ecuador. Pero en las épocas
glaciales como la presente, depende de la existencia simultánea de tierra en
los dos polos, ya sea sobre el mismo polo, como en la Antártida actual, ya sea
rodeando el mar polar, como ocurre en el Polo Norte.
La gran época glacial centrada unos 700 millones de años atrás, en los
tiempos de Pangea I, tal vez sea un buen ejemplo de esta última clase. Parte
del supercontinente sobrepasó un polo, con lo que permitió que se formara
hielo. Pero siendo tan pequeño el fragmento del supercontinente que se
desprendió, el otro polo debió permanecer caliente y húmedo. Cuando Pangea I se
desmembró y cada una de sus cuatro partes siguió su propio camino, el agua
cálida pudo alcanzar sin dificultad ambos polos de modo que la Tierra se
mantuvo caliente durante unos 300 millones de años, en tanto que la flora y la
fauna se diversificaron. Luego llegó la época en que los cuatro continentes se
reunieron para conformar Pangea II, supercontinente del cual procede la
presente fase de la actividad tectónica.
Desde la época de Pangea II tenemos un buen conocimiento de cómo la
expansión del fondo del mar y la deriva continental han influido en la
configuración del aspecto siempre cambiante de la Tierra. Durante el ensamblaje
de Pangea II, una masa de tierra constituida por lo que hoy es Sudamérica,
África, la Antártida y Australia se desplazó hacia el Polo Sur, cuya glaciación
resultante nos dejó sus huellas. Incluso tras el ensamblaje, hace unos 300
millones de años, la punta sur se extendió hacia el Polo Sur, lo cual aseguró
glaciares continuos, a pesar de que la gran masa de tierra se había desplazado
hacia los trópicos. Nuevamente, como en los tiempos de Pangea I, la presencia
de una enorme masa de tierra significaba que sólo un polo estaría cubierto de
hielo, mientras que el mar del Polo Norte permanecía caliente gracias a las
corrientes de agua procedentes de los trópicos. Hace alrededor de unos 250
millones de años, después de unos 50 millones de años de permanencia en un
lado, Pangea II comenzó a alejarse del Polo Sur y, a la vez, a resquebrajarse.
Durante 200 millones de años la Tierra volvió a ser caliente; la nieve y el
hielo eran un simple fenómeno local característico de las altas montañas. De
nuevo, la fauna y la flora se extendieron y diversificaron, hasta que hace 55
millones de años el planeta volvió a enfriarse en su totalidad. La Antártida,
ahora separada de Australia, se desplazó lentamente hacia su actual posición en
el Polo Sur; al igual que se desplazaron los continentes del norte hacia sus
radicaciones actuales; al mismo tiempo el Atlántico se iba ensanchando y los
grandes océanos del otro lado del mundo desaparecían y se transformaban en el
océano Pacífico que hoy conocemos. Hace unos 10 millones de años, el actual
sistema de hielos estaba ya establecido, con glaciares en Alaska y en otras
regiones septentrionales, y con la mitad del tamaño que hoy tiene la capa
helada de la Antártida, la cual, 5 millones de años atrás, quizá fue mayor;
luego, hace 3 millones de años, aparecieron por primera vez —en la presente
época— grandes capas de hielo en las masas continentales del norte, a lo largo
del océano del Atlántico Norte. Alcanzado este estadio, dichas capas iniciaron
un largo y complejo camino de avances y retrocesos, siguiendo tres ritmos principales:
100.000, 42.000 y 22.000 años atrás. Estos ritmos son los que están detrás del
flujo y reflujo de los hielos y de la aparición de los interglaciales. La
humanidad surgió durante la presente época glacial y nuestra civilización lo
hizo durante el actual interglacial, de modo que esos ritmos mencionados son de
vital importancia para nosotros. Y son éstos los que explicó satisfactoriamente
la segunda revolución de las ciencias de la Tierra, durante los años setenta.
Antes de ver en detalle la fuerza motriz que hay detrás de los períodos
glaciales, tan importantes para la vida humana, vale la pena poner atención en
la inusual naturaleza de la geografía actual. Han existido otras épocas
glaciales en los últimos mil millones de años, pero sólo, al parecer, cuando
una única masa de tierra se ha desplazado hacia un polo, dejando el otro polo
libre de hielos. Las condiciones que permiten que los polos de ambos
hemisferios estén helados no son muy habituales en la historia de la Tierra.
Los fenómenos resultantes (en lo que a la vida se refiere) tuvieron un papel
destacado a la hora de hacer surgir vida inteligente, puesto que cuando la vida
es fácil y el medio ambiente no es cambiante, la especialización, más que la
adaptabilidad, es la que ayuda a asegurar la supervivencia de las especies.
Ésta es, tal vez, la razón por la cual nosotros hemos aparecido en la Tierra en
el presente momento geológico, hijos de la actual época glacial y nietos de la
reordenación de los continentes; productos, en definitiva, del proceso de las
placas tectónicas.
§. El ritmo de los periodos glaciales
La epopeya en torno al desarrollo del conocimiento sobre los ritmos de las
glaciaciones en la actual época glacial tiene curiosas similitudes con la del
conocimiento de la deriva continental. La teoría, que explica el flujo y
reflujo de los períodos glaciales de acuerdo con los cambios en la órbita
terrestre alrededor del Sol, es conocida como modelo de Milankovič, después de
que Milutin Milankovič, de Yugoslavia, descubriera, hace unos cuarenta años,
algunas evidencias de la certeza de dicha teoría. Y si la idea de la deriva
continental precedió a su profeta Alfred Wegener, la idea de la teoría
astronómica de los períodos glaciales precedió a Milankovič, y las dos
historias se convierten en paralelas, puesto que uno de los partidarios de la
antigua versión de la teoría, pre-Milankovič, fue el mismo Alfred Wegener.
Ambas ideas tuvieron que sobrevivir varias décadas antes de que se demostrara
su validez, y en ambos casos la demostración quedó a merced de nuevas investigaciones
sobre la Tierra, facilitadas por el progreso de las técnicas —ni la idea de la
deriva continental ni el modelo Milankovič pudieron ser demostrados en el
momento de su formulación, con lo cual puede considerarse que Wegener y
Milankovič realmente se adelantaron a su tiempo.
Si bien la fuerza conductora que hay detrás de la deriva continental no
está muy clara para los especialistas, Milankovič, sin embargo, partió de una
bien conocida fuerza astronómica y buscó explicar el modelo de los períodos
glaciales dentro de un sistema. Tres cambios cíclicos en el movimiento de la
Tierra a través del espacio se combinan para producir una serie de alteraciones
en el modelo de radiación solar que llega a distintas latitudes de la Tierra en
diferentes períodos del año, y esas alteraciones son la clave del modelo. La
más larga, aunque no necesariamente la más importante, es una variación que se
repite cada 90.000 o 100.000 años, período durante el cual la forma de la
órbita terrestre pasa de ser casi circular a ser elíptica. Esto no modifica la
cantidad total de calor que llega a la Tierra desde el Sol; la distancia media
que hay entre aquélla y éste[30] es
siempre la misma. No obstante, cuando la órbita es circular el calor del Sol
está más repartido a lo largo de todo el año, y. contrariamente, cuando la
órbita es elíptica unos meses sufren más calor que otros, puesto que la Tierra
estará más cerca del Sol en determinados momentos de su recorrido. Esto
producirá un contraste entre unas épocas del año y otras, pero el promedio de
calor que llega a la Tierra es el mismo.
En segundo lugar, hay un ciclo de unos 40.000 años, al cabo de los
cuales la inclinación de la Tierra varía. En la actualidad, la Tierra tiene una
inclinación de 23º,40, en comparación con el plano de su órbita alrededor de
Sol, o con una línea que fuera desde el centro del astro hasta el centro del
planeta. En julio, el Polo Norte está orientado hacia el Sol, de modo que
tenemos verano en el hemisferio norte. En enero, cuando la Tierra se halla
justo al otro lado del Sol, el Polo Norte sigue apuntando en la misma
dirección, sólo que en ella ya no se encuentra el Sol; en consecuencia, en el
hemisferio norte es ahora invierno. Lo contrario, obviamente, es lo que ocurre
en el sur. Todo ello nos presenta el modelo de estaciones que tan bien
conocemos. La inclinación de la Tierra oscila entre los 21º,80 y 24º,40 al cabo
del ciclo de 40.000 años antes mencionado, y cuanto más pronunciada, mayor es
el contraste entre las estaciones. Así pues, los milenios con menos inclinación
disfrutan de una mejor distribución del calor solar.
Por último, a pesar de que la orientación de la Tierra en el espacio no
cambia de manera significativa en el curso de un mismo año, ésta se tambalea
como una peonza mientras gira a través del espacio en la dirección en la que
“apunta” el eje polar, dibujando una circunferencia alrededor del cielo durante
un período de 21.000 años. Este tambaleo puede incluso modificar la cantidad de
calor que llega a diferentes partes de la Tierra y en diversas épocas del año,
si bien tampoco tiene ningún efecto en la suma total de calor (“insolación”)
que recibe la Tierra en el curso de un año [31].
Así, la combinación de estos tres efectos origina este complejo modelo
de variaciones sobre el calor de las estaciones de los hemisferios norte y sur,
mientras que la cantidad total de insolación permanece invariable. Y es fácil
comprender cómo tales cambios de insolación han podido provocar el flujo y
reflujo de los hielos, dada la actual y peculiar distribución de los
continentes.
§. La situación actual
Observando la Tierra en el presente, ¿qué cambios en el calor de las estaciones
serían necesarios para provocar la proliferación de hielos en las altas
latitudes? En el hemisferio norte, donde existe una considerable cantidad de
tierra alrededor del frío mar polar, la nieve que cae se deposita en el suelo,
y es más bien poca la que cae en el agua y se funde. El invierno puede llevar
nieve a cualquier lugar de los continentes del norte. La mejor forma, pues, de
crear un nuevo período glacial es la de tener veranos fríos para que la nieve
se mantenga a lo largo del año. Una vez creados la nieve y los campos de hielo,
estos mismos acrecientan el efecto de enfriamiento mediante su fuerte
brillantez, la cual les permite reflejar una gran cantidad de calor solar. De
acuerdo con el modelo Milankovič, los períodos glaciales sólo pueden
desarrollarse en el norte cuando los giros de la Tierra posibiliten veranos
fríos.
En el sur, el modelo se invierte. Allí, el polo mismo está cubierto por
un continente y una gran capa de hielo, y, a su vez, rodeado por el mar. La
nieve que cae sobre el mar se funde y, por tanto, la única forma de que las
capas de hielo se ensanchen es que se den unos inviernos tan fríos que el mismo
mar se congele. Una vez se congela, incluso el calor de un verano ardiente
puede ser reflejado por la brillantez de las capas de hielo sin que se funda
totalmente. De modo que para la creación de períodos glaciales en el sur, lo
que necesitamos son inviernos muy rigurosos. Y, como es fácil suponer, los
modelos cambiantes de los ciclos de Milankovič deben producir veranos frescos
en el norte al mismo tiempo que crudos inviernos en el sur, puesto que el
verano del norte coincide en la misma órbita de la Tierra con el invierno en el
sur.
Hasta aquí todo es correcto y en cierto modo sencillo. Al objeto de
probar la teoría era necesario, en principio, encontrar los modelos de las
pasadas glaciaciones con los ritmos de Milankovič, luego dilucidar qué
estaciones son las más críticas para los cambios de insolación y, finalmente,
establecer el grado de variación en la insolación suficiente que responda del
volumen de hielo producido en el período glacial y fundido durante el
interglacial. Fue en el primer paso donde el modelo de Milankovič falló hace
ahora cuarenta años. En esa época, los geólogos pensaban que sólo habían tenido
lugar cuatro o cinco períodos glaciales completos en el pasado más reciente.
Así que la teoría fue desechada durante los años treinta, cuarenta y cincuenta.
Pero luego, las avanzadas técnicas de investigación fueron cambiando nuestro
conocimiento del ritmo de los hielos, y cada cambio trajo consigo un esquema de
la historia de la Tierra más próximo a los cálculos efectuados por Milankovič.
Los nuevos conocimientos sobre el flujo y reflujo de los períodos
glaciales dependen tanto de un mejor material del cual recoger información
sobre el pasado como de la mejora de las técnicas encaminadas a recogerla. La
materia prima la obtenemos mediante la perforación de los fondos marinos, los
que producen núcleos de sedimento que nos proporcionan una visión, capa por
capa, de todo lo depositado cada año, y mediante estudios realizados sobre
capas similares en tierra, juntamente con capas extraídas de debajo de los
hielos, en las altas latitudes. Las técnicas “convencionales”, tales como el
examen de restos fósiles, han desempeñado un papel determinante en la
elaboración de un esquema sobre los cambios climáticos, pero la técnica clave
depende del análisis de los isótopos de diversos elementos encontrados en
diferentes capas.
La proporción de isótopos pesados de oxígeno-18 del agua, hielo y la
atmósfera de cualquier época nos facilita un “termómetro” natural. Puesto que
dichos isótopos son más pesados que los más comunes del oxígeno-16, las
moléculas de agua que los contienen (H2O-18) se evaporan con menos facilidad,
si bien se condensan con menos dificultad, que las moléculas del 0-16. Las
cantidades relativas de O-16 y O-18 encontradas en las distintas capas de
sedimento o de hielo de un glaciar nos proporcionan una medida muy precisa de
la temperatura de la Tierra [32].
Colocando todas las piezas juntas, con miles de cortezas del suelo
marino y docenas de capas de hielo acumuladas durante dos décadas, la situación
ya estaba madura, hacia la mitad de los años setenta, para una cabal
rehabilitación de los modelos de Milankovič. Para entonces estaba claro que
habían sucedido, en los dos últimos millones de años, varias glaciaciones,
separadas por breves interglaciares; Jim Hays y algunos de sus colegas del
Lamont-Doherty Geological Observatory de Nueva York publicaron en 1976 lo que
se considera por muchos como la más irrebatible evidencia de todo lo anterior.
Sus resultados se basaban en minuciosos análisis de dos capas superpuestas de
la parte sur del océano, las cuales cubren ambas unos 450.000 años, suficientes
para mostrar la veracidad incluso del ciclo más largo de los establecidos por
Milankovič . En los análisis clave se tomaron muestras de la capa cada 10 cm,
que correspondían a intervalos de 3.000 años, lo bastante cortas como para
probar los ciclos más breves. Y precisos exámenes estadísticos de las
variaciones de temperatura disipan cualquier duda en los investigadores del
Lamont-Doherty: «No puede haber ninguna duda en que una cumbre espectral
centrada en un ciclo de alrededor de 100.000 años es una de las más importantes
características de la evolución climática. ...Los ciclos dominantes... que van
desde 42.000 a 43.000 años y tres cumbres... corresponden a ciclos de 24.000
años.» El más breve de dichos períodos parece ser el que produce unos efectos
más espectaculares, con el prolongado ciclo de 100.000 años modulando las otras
influencias, de manera que a veces no tiene efectos y otras veces se suma a
ellos. Las estadísticas también muestran la existencia de un ciclo de 19.000
años, que explican las versiones más modernas de los modelos de Milankovič,
cuya época se ha datado con la ayuda de computadores electrónicos de alta
velocidad.
Con la actual disposición de los continentes, los ritmos combinados de los
ciclos de Milankovič nos explican las recientes variaciones climáticas y, al
mismo tiempo, nos suministran un pronóstico a largo plazo. Aunque la deriva
continental pueda romper la configuración que permite la aparición de períodos
glaciales cada 50 millones de años poco más o menos, para los próximos 60.000
años, o más, la perspectiva es decididamente desfavorable. (En base a los
cálculos recientes del efecto Milankovič efectuados por N. Calcer.)
El éxito de la combinación entre teoría y cálculo en la explicación del
modelo de los anteriores períodos glaciales nos proporciona una buena guía para
el futuro (debemos esperar una larga tendencia durante los próximos mil años
hacia una extensa glaciación en el hemisferio norte, con el actual interglaciar
casi concluido)
¿Y qué hay de los extremos del modelo todavía no aclarados? Por una de
esas magníficas casualidades que sobrevienen en la ciencia de vez en cuando,
han conseguido ser, en su mayoría, solucionados en dos años, 1975-76, momento
del mejor estudio sobre la corteza marina. Cálculos realizados por separado por
Max Suárez e Isaac Held, de la Universidad de Princeton, y George Kukla, del
Lamont-Doherty, identificaron en el verano tardío-otoño temprano la estación
clave para la extensión de los hielos en el hemisferio norte, y la localización
geográfica clave en el interior de Norteamérica y Eurasia. A su vez, John
Masón, director general de la Oficina Meteorológica del Reino Unido,
proporcionó lo que puede ser considerado como el “pronóstico” meteorológico con
cálculos que han demostrado que los cambios relativos a la insolación en las
estaciones críticas de los pasados 100.000 años estaban relacionados con el
flujo y reflujo de los hielos. Sabemos cuánto calor se emplea cuando el vapor
de agua cae en forma de nieve y sabemos también cuánto es necesario para
convertir en agua cada gramo de hielo. Comparando el “excedente” o el “déficit”
de insolación producido por los ciclos cambiantes de Milankovič con el volumen
del hielo de nuevo creado o derretido cada milenio de los pasados 100.000 años,
Masón mostró que la cantidad de hielo formada en un milenio frío coincide
exactamente con el déficit de insolación apuntado por Milankovič, en tanto que
la cantidad mezclada durante el milenio caliente coincide con el excedente de
insolación. Con estos minuciosos cálculos, proporcionó el más perfecto
pronóstico a largo plazo (las condiciones de salida del período glacial,
iniciado hace 18.000 años, llevaron al mundo hasta el actual interglaciar, ello
gracias a los tres ciclos descubiertos por Milankovič); sucedió esto hace 6.000
años, cuando la órbita excéntrica y el tambaleo de la Tierra se combinaron para
aumentar el calor de los veranos septentrionales, al mismo tiempo que la
inclinación de la Tierra alcanzaba su punto máximo. Desde entonces, los tres
factores se han combinado del modo más satisfactorio posible, en lo que a calor
del verano del norte se refiere, y las condiciones se mantienen fijas. Con
60.000 años por delante de geometría orbital menos favorable, el próximo período
glacial está cerca, lo cual, en nuestra escala temporal, quiere decir que puede
empezar dentro de 1.000 años o quizá 5.000, si la naturaleza sigue su curso.
Y aquí es donde estamos ahora. Nuestra civilización es un producto del
interglaciar en curso, y tal vez sea la víctima de la próxima glaciación. Por
otro lado, la tecnología y unas variaciones en el medio ambiente, deliberadas o
no, accidentales o inducidas, pueden prevenir la “próxima” glaciación. Porque
los cambios climáticos son tan importantes para la vida en la Tierra,
incluyendo la humana, me he extendido tanto en la explicación de dichos
cambios, que son pequeños si tenemos en cuenta la larga historia de nuestro
planeta, pero que tan relevante papel han desempeñado en el origen del mismo
tal como hoy se nos aparece. En cuanto a los cambios físicos en la Tierra, ya
hemos llegado hasta la actualidad. Durante la mayor parte de sus 4.500 millones
de años de existencia, no obstante, nuestro planeta ha tenido moradores:
organismos vivos, y para comprender nuestro propio origen debemos retroceder
hasta los orígenes de la vida en la Tierra, e incluso, quizá, hasta antes de la
formación de ésta.
Capítulo V
El origen de la vida
Contenido:
§. Átomos, isótopos y moléculas
§. Química del carbono
§. ¿Qué es la vida?
§. Química en el espacio
§. ¿Vida del espacio?
§. ¿Vida en el espacio?
§. «Estanques» cometarios
Para comprender el origen de la vida, requerimos saber un poco de
química, la disciplina científica que describe cómo se agrupan los átomos en
moléculas y forman diferentes sustancias (componentes químicos diversos).
Dentro de una estrella, a pesar de que elementos diferentes pueden crearse por
fusión de protones y neutrones, el material, mientras la estrella se mantiene
caliente, permanece en forma de plasma: un mar de núcleos atómicos cargados
positivamente, dentro, a su vez, de un mar de electrones cargados
negativamente. Cuando hablábamos de la evolución de la Tierra, nos
interesábamos, con prioridad, por el comportamiento de la materia a gran
escala: un océano entero, un continente. Pero la vida, el origen de la vida,
depende de manera crucial del comportamiento de átomos individuales, y de los
átomos de un elemento en particular.
Bajo las condiciones de temperatura y presión que se dan en la
superficie de un planeta como la Tierra, más que bajo las condiciones del
interior de una estrella como el Sol, los núcleos cargados positivamente y los
electrones cargados negativamente se unen para formar átomos eléctricamente
neutros. El átomo más simple, el de hidrógeno, consiste en un único protón, que
constituye el núcleo, y un electrón que lo rodea. La idea de un simple electrón
capaz de rodear algo, aunque sea un simple protón, es extraña para la
mentalidad humana, acostumbrada al comportamiento de las cosas en la vida
diaria (¿cómo puede una pelota de golf rodear una pelota de cricket?), pero es
que he utilizado el término de modo deliberado. Cuando la estructura atómica se
exploró por primera vez, y las diferencias entre núcleo y electrón fueron
estudiadas, el primer “modelo” imaginario de átomo colocó los electrones
alrededor del núcleo, como los planetas alrededor del Sol. Pero los electrones
no se comportan como partículas sólidas, a la manera de los planetas, y por
diversos motivos los electrones pueden describirse como ondas. Así como la
teoría de la relatividad revela que la masa y la energía son intercambiables,
otro de los grandes descubrimientos de la ciencia del siglo XX, la mecánica
cuántica, revela que las partículas sólidas pueden ser entendidas como ondas, y
que la radiación energética puede serlo como partículas, con dependencia de las
circunstancias. El ejemplo clásico es la luz, en cuyo caso la discusión sobre
si la luz está formada por pequeñas partículas o si es un tipo de onda
energética se remonta a los tiempos de Newton. Desde Newton hasta ahora, los
defensores de cada postura podían demostrar, por medio de experimentos, que
estaban totalmente en lo cierto; en efecto, bajo condiciones adecuadas, la luz
puede comportarse como una onda o bien como un grupo de partículas. Ahora
sabemos que ambos puntos de vista son correctos; la luz es tanto partícula como
onda, y lo mismo pasa con lo demás, aunque, a veces, la dualidad onda-partícula
sea más obvia.
La razón por la cual dicha dualidad no es tan obvia en la vida cotidiana
es clara si tenemos en cuenta algunos experimentos efectuados con electrones
durante los pasados cincuenta años o más. Cuando estos experimentos se han
utilizado para medir la longitud de onda de los electrones de un “rayo”, se ha
procedido como si éstos fueran de radio o de luz. Cuando los experimentos se
han realizado para medir el momentum (equivalente a masa ×
velocidad) de las partículas del rayo, se han medido como si los electrones
fueran una serie de diminutas balas de cañón. Un resultado curioso se desprende
de todos estos experimentos. Se mida cuando se mida el momentum y
la longitud de onda, el resultado (momentum por longitud de onda)
es siempre el mismo, un número que se conoce como la constante de Planck, en
honor del físico alemán Max Planck. La constante de Planck es muy pequeña,
6,626×10‒27 erg, pero el comportamiento de los electrones se
dirige con gran precisión hacia ella. Si se introducen los electrones del rayo
rápidamente en el aparato de experimentación, de forma que el momentum de
cada uno sea el doble, la longitud de onda se reduce, de manera que él producto
es el mismo: 6,626×10‒27 erg. Así pues, la constante de Planck
describe de una manera fundamental la relación entre la naturaleza de partícula
y la naturaleza de onda de las cosas. Debido a que la masa de un electrón es de
unos 9×1028 gramos, es fácil equilibrar las dos partes de la
ecuación de Planck para electrones y, así, la dualidad onda-partícula resulta
muy nítida. De todos modos, para un objeto normal (mi máquina de escribir, por
ejemplo) la masa alcanza muchos gramos —incluso cientos o miles de gramos— y
para lograr equilibrar la ecuación deberíamos dar a su equivalente en onda una
absurda longitud de onda pequeña. En la práctica, las ondas de mi máquina de
escribir pueden ser ignoradas. Ello no quiere decir que una máquina de escribir,
o un coche, o una pelota no tengan su equivalente en ondas, lo que ocurre es
que sus componentes en partículas son las que dominan, toda vez que la
constante de Planck es tan pequeña [33].
Continuar con este tema nos apartaría demasiado de la historia que
estamos desarrollando en este libro y, por otra parte, con lo dicho hasta ahora
tenemos ya suficiente información como para poder volver a ver cómo un electrón
puede rodear un núcleo atómico. Imaginando al electrón como una especie de haz
de ondas energéticas, comprenderemos mejor cómo es posible que pueda rodear a
un protón. Como las ondas de sonido que resuenan dentro de los tubos de un
órgano, o las vibraciones de una cuerda de guitarra, la “onda” de un electrón
puede transformarse en vibraciones estables, o resonancias. De forma similar,
un grupo de partículas se asentará en su estado más estable, mientras que el
haz de ondas del electrón se unirá al núcleo atómico, a manera de onda estacionaria
rodeando a éste. Resulta imposible apuntar hacia un lugar cerca del núcleo, y
decir: “ahí está el electrón”. Todo lo más, podremos adelantar que “la energía
del electrón está distribuida en esta zona del espacio que rodea al núcleo”.
Dicha zona que rodea al núcleo, donde el electrón sitúa su onda estacionaria,
se llama “capa electrónica”.
Algunos de los elementos más simples. Aunque el núcleo, constituido por
protones y neutrones, reside en el centro del átomo, así como el Sol se halla
en el centro del Sistema Solar, la representación de electrones en órbitas
semejantes a las de los planetas alrededor del Sol no resulta estrictamente
exacta. Debido a efectos cuánticos importantes en la escala del átomo o del
electrón, hay que pensar que cada electrón “rodea" el núcleo en tres
dimensiones. Pero en los dibujos bidimensionales, la representación
"orbital” muestra por lo menos cómo sucesivos electrones son añadidos en
capas cada vez más externas y señala cuántos electrones existen en cada capa.
El carbono es especialmente interesante porque “necesita” o bien añadir cuatro
electrones para completar su capa más externa, o bien perder cuatro electrones
para dejar una capa superficial completa. Esto constituye la base de la enorme
variedad de reacciones químicas de las que depende la vida.
§. Átomos, isotopos y moléculas
Tenemos, pues, que un protón puede ser rodeado por un electrón, en forma de
onda energética, para convertirse en un elemental átomo de hidrógeno. El
hidrógeno pesado es lo mismo, pero con la particularidad de que en su núcleo
hay un neutrón, además de un protón. Es el mismo elemento, en términos
químicos, ya que la forma en que un átomo se interrelaciona con otros depende
de lo que el átomo “ve”, y lo que ve es un electrón rodeando un núcleo. El
electrón es la parte accesible del átomo, y a los demás átomos les importa poco
el número de neutrones que puede albergar el núcleo, ya que su posible
interacción se limita a los electrones de la capa electrónica más exterior de
los demás átomos.
El siguiente elemento es el que contiene dos protones en el núcleo, y al
que, por consiguiente, rodean dos electrones. Se trata del helio, cuyo núcleo,
por fin, acabamos de conocer. Los núcleos del helio pueden contener un neutrón
o dos, con dos isótopos (helio-3 y helio-4, nombres que hacen referencia al
número total de partículas, protones más neutrones, que tienen en su núcleo).
Cada núcleo posee dos electrones a su servicio para equilibrar la doble carga
positiva de los dos protones, pero los electrones son como los objetos que
utilizamos cotidianamente, que no pueden estar en dos lugares a un mismo
tiempo, de modo que ocupan diferentes posiciones al rodear el núcleo.
Cuando pasamos al siguiente elemento, el litio, vemos que las cosas se
hacen más interesantes. El isótopo más común del litio contiene tres protones y
cuatro neutrones en su núcleo (por ello recibe el nombre de litio-7), y cada
núcleo está rodeado por dos electrones. Pero sucede que tres electrones
ocupando los niveles más próximos al núcleo agotan todo el espacio disponible;
no cabe un tercero, de modo que el electrón sobrante tiene que pasar a otro
nivel, más alejado del centro. Ahí ocurre que hay mucho más espacio, y no menos
de siete electrones caben al lado de ese tercero (por tanto, un total de ocho,
todos más o menos a la misma distancia del núcleo) antes de que el siguiente
tenga que pasar ya a un nivel más alejado todavía. En ello consiste la complejidad
de los elementos químicos; por cada protón extra en un núcleo, debe haber,
dondequiera, un electrón extra, intentando colocarse en el nivel más estable
posible. De manera que cuanto más grande sea el átomo, más electrones tendrán
cabida, mientras que la propiedad química de los elementos dependerá en gran
medida tanto del número de electrones, como, muy especialmente, de la cantidad
de niveles alejados del núcleo, puesto que son éstos los que más fácilmente se
interrelacionan con otros átomos.
Cómo se juntan los átomos de sodio y de cloro para constituir el cloruro
sódico, o sal común. El único electrón de la capa exterior de un átomo de sodio
puede ser insertado en el único hueco existente en la capa más externa de un
átomo de cloro. Esto origina una carga positiva en el ion sodio resultante y
una negativa en el ion cloro. Ambos iones se unen como consecuencia de la
atracción electrostática entre las cargas positiva y negativa.
Con esta base de física atómica resulta algo más sencillo comprender la
química, y, en particular, entender cómo se forman los componentes químicos. La
clave de la construcción de moléculas —combinaciones de átomos— está en los
electrones de los niveles más alejados del núcleo. Por razones que no vamos a
explicar aquí, pero que tienen que ver con la mecánica cuántica, los niveles
más distantes están ocupados por los electrones más estables, donde los átomos
se combinan para crear moléculas en un intento de llegar a ese estado
particularmente estable. Para el hidrógeno, con un solo electrón, pero con
espacio para dos, ello se consigue mediante la unión de dos átomos que forman
la molécula de hidrógeno, H2.
Cuando el hidrógeno se une al carbono para formar moléculas de metano,
resulta más correcto pensar que los electrones exteriores son compartidos, que
pensar que son intercambiados de uno a otro átomo. En este enlace covalente,
cada uno de los cuatro pares de electrones es compartido entre el átomo central
de carbono y uno de los cuatro átomos de hidrógeno. El resultado es una
molécula de metano.
Cada núcleo comparte dos electrones en vez de uno, y esto produce la
ilusión de que ambos niveles están ocupados. El helio, por su parte, está
conforme con sus dos electrones y no se encuentra muy predispuesto a ganar más,
a causa de lo cual resulta una sustancia bastante inerte, y es difícil hacer
que reaccione químicamente.
Estos elementos simples son casos especiales, debido precisamente a su
propia sencillez. En cuanto a las moléculas de la vida, pueden comprenderse
mejor con un ejemplo de algún elemento pesado, y el ejemplo clásico es el de la
sal común. Cada átomo de sodio tiene once electrones, que ocupan los niveles
más próximos (dos) y los inmediatamente siguientes (ocho electrones), dejando
un electrón suelto para que ocupe un nivel más atrasado. El cloro, por otra
parte, tiene diecisiete electrones, que ocupan los niveles más próximos (2+8 =
10 electrones), dejando siete electrones para un nivel más atrasado, que en
teoría debería contener ocho. De modo que el sodio y el cloro guardan una gran
afinidad; el electrón sobrante del sodio puede caber muy bien en el último
nivel del cloro, y la familia de electrones (al menos los ocho más alejados) es
compartida por dos núcleos, que juntos forman una estable molécula de cloruro
sódico, NaCl. (“Na”, porque ya se usa la letra “S” para el azufre, y los
químicos recurren entonces a las abreviaturas del griego y del latín para
evitar confusiones.) Una forma de explicar lo que ocurre consiste en decir que
el átomo de sodio cede literalmente su electrón al átomo de cloro; esto dejaría
una carga eléctrica neta de +1 a lo que queda del átomo de sodio incompleto (al
que se llama ion de sodio), y una carga neta global de -1 al ion de cloro
correspondiente. Ambos permanecerían unidos por la atracción electrostática. Es
una buena forma de entender lo que ocurre, pero —aunque no falten quienes así
lo afirman— prefiero el concepto de los electrones más alejados compartidos por
dos átomos, que se acerca más a la idea de electrones entendidos como
ondas [34].
El calcio es muy semejante al sodio, pero tiene dos electrones “de
reserva”, que puede prestar a un par de átomos de cloro, para crear cloruro de
calcio, CaCl2. Y así podríamos seguir haciendo “compuestos”
químicos. Pero hay un elemento que constituye un caso muy singular, con una
marcada habilidad para la creación de compuestos con otros elementos, lo cual
ha motivado que, en química, su estudio sea una disciplina científica
independiente. Este elemento es el carbono, y la química del carbono recibe el
nombre de química orgánica, la cual está en íntima relación con la vida.
§. Química del carbono
El carbono es especial porque posee seis electrones, dos de ellos pegados al
núcleo y los otros cuatro en un segundo nivel, donde la cantidad ideal es ocho.
Por ello, con la mitad de los niveles vacíos, el carbono tiene muchas
posibilidades para la actividad química. No le importa “ceder” electrones a
otros elementos hasta quedarse vacío (formando componentes como el metano, CH4),
como tampoco “recibirlos” hasta ocupar sus niveles vacantes. O, como a mí me
gusta decirlo, el carbono tiene cuatro electrones para prestar; si
sólo tuviera tres, sólo prestaría tres; con cinco, buscaría tres más. Este modo
que tienen los átomos de ligarse unos con otros se denomina enlace, y la idea
puede entenderse a la perfección dibujando las moléculas con líneas que
representen los enlaces, líneas que apuntan hacia los símbolos de los
diferentes átomos. Así, el metano, CH4, se representa por:
que nos muestra claramente un átomo de carbono rodeado por cuatro átomos
de hidrógeno, cada uno de los cuales comparte un par de electrones. Pero el
carbono puede combinarse con otros átomos de carbono formando, por ejemplo,
etano, C2H6:
o incluso etano, C2H4, en el que se ven
compartidos cuatro electrones (dos enlaces) entre cada uno de los átomos de
carbono y un par de átomos de hidrógeno:
Esta clase de doble enlace no es, de hecho, más fuerte que un enlace
único; si lo fuera, el carbono estaría tan conforme como las moléculas C 2:
Los electrones compartidos están demasiado localizados en un doble
enlace, rozando unos con otros, y si hay hidrógeno disponible el eteno tenderá
a convertirse en etano. El enlace de carbono simple, sea como fuere, es del
todo satisfactorio, y cadenas enteras de átomos de carbono pueden organizarse
de este modo para constituir moléculas complejas como el C 4H10:
y así sucesivamente. Estas cadenas pueden encorvarse hasta formar un
anillo (el más estable contiene seis átomos de carbono “de la mano” con otros
átomos que han encontrado fuera del anillo) o pueden extenderse formando una
“espina” con cientos y cientos de átomos de carbono, con una gran variedad de
otra clase de átomos que estaban fuera de la espina y se han añadido a ella.
(Sólo he mencionado los enlaces de carbono e hidrógeno por no complicar más las
cosas; pero cualesquiera de los átomos de hidrógeno pueden ser sustituidos por
otros átomos que necesiten un electrón, o un átomo con capacidad para
establecer más enlaces puede reemplazar un átomo de hidrógeno, como en el caso
del HCN:
y así sucesivamente.) La química de la vida viene a ser la química del
carbono, y, en particular, la química de cadenas de carbono muy largas, con
curiosos materiales incrustados en la misma. Ahora bien —he aquí la gran
pregunta—, ¿qué queremos significar con la palabra “vida”?
§. ¿Qué es la vida?
La mejor y más simple distinción entre los seres que viven y los que no
consiste en la posibilidad que tienen los primeros de reproducirse, de hacer
copias de sí mismos. Esta distinción sirve tanto en lo relativo a nuestra
cotidianidad (un árbol está vivo; una roca no) como en el ámbito molecular,
donde la vida comienza, donde se inicia el proceso de reproducción de un árbol,
de un ser humano o una ameba. La vida empezó cuando —de alguna manera, en algún
lugar— una combinación de reacciones químicas produjo una molécula capaz de
hacer copias de sí misma, provocando para ello otras reacciones químicas. Desde
entonces, la historia de la vida —la evolución— ha sido una especie de
competición entre diferentes formas de vida, ya para obtener el “alimento”
indispensable (los elementos químicos y los componentes necesarios para hacer
copias), ya para protegerse. Las moléculas fundamentales de la vida se protegen
dentro de una pared de material, formando células individuales, y varios
millones de células juntas conforman un ser humano o un árbol. Cómo sucedió
esto lo veremos en el próximo capítulo. Pero cómo y cuándo se originó la vida
será el objeto de éste, después de varias décadas de espera de que apareciera
una teoría suficientemente sólida.
En efecto, la teoría convencional sobre el origen de la vida comenzó su
desarrollo hace casi medio siglo con la sugerencia de J. B. S. Haldane de que
las moléculas orgánicas correctas (componentes de carbono) se desarrollaron
lentamente en los océanos a lo largo de un dilatado período geológico, hasta
que la complejidad de los componentes, productos de las reacciones químicas,
hizo que al fin surgieran las primeras moléculas que ahora llamamos de la vida.
(Es muy probable que sólo haya existido una única “primera molécula viviente”
de la cual haya descendido todo lo demás.) Fue Haldane quien por primera vez
describió el océano como rico en materia orgánica, y su nombre ha quedado
vinculado a ello, a pesar de que un científico ruso, A. I. Oparin, sugirió por
el mismo tiempo, pero de manera independiente, una teoría similar, si bien
postulaba que las primeras moléculas de la vida aparecieron en las zonas
volcánicas, más que en los océanos. Una cuestión obvia es la de que, por
definición, no pudo haber ningún género de vida que interfiriese en el proceso.
Si las complejas moléculas de la vida fueran creadas en los océanos actuales, a
buen seguro se convertirían en el alimento de otras criaturas vivientes. La
vida está constantemente absorbiendo moléculas simples, como las de hidrógeno,
carbono y oxígeno, que se combinan entre sí para dar lugar a otras moléculas
vivas. Pero cuando no había vida, podían ser creadas poco a poco, sin ninguna
interferencia, y la primera molécula “viviente” debió de tener todo un mundo (o
un océano) de comida a su disposición. ¿Cuán complicada es una molécula de
vida? Bien, puede serlo en grado sumo, cierto, como nos muestra el ejemplo de
la hemoglobina, que transporta oxígeno a través de nuestra sangre [35].
La hemoglobina es una molécula muy compleja, perteneciente a la familia
de las sustancias que llamamos proteínas, y que está constituida por cadenas de
moléculas menores, llamadas aminoácidos, asociadas de un modo especial que sólo
se da en la hemoglobina. Cada aminoácido contiene unas docenas de átomos
dispuestos según el modelo de la espina de carbono, y en cada molécula de
hemoglobina hay exactamente 574 moléculas de aminoácidos que constituyen cuatro
cadenas principales, entrelazadas unas con otras hasta conseguir su forma
típica, «una especie de denso espino», según la describió Richard Dawkins. Un
ser humano con una salud normal tiene unos 6.000 millones de millones de
millones (es decir, 6×1021) de moléculas de hemoglobina, todas ellas
idénticas, con 400 millones de millones (4×1014) de ellas que son
destruidas cada segundo y, de inmediato, reemplazadas por otras tantas nuevas,
creadas por el mismo cuerpo e iguales por completo a las anteriores. Es
evidente que el cuerpo humano no funciona mediante el proceso de reacciones
químicas provocadas por el azar cuando elabora dichas moléculas; lo que ocurre,
más bien, es que el cuerpo selecciona materias químicas de entre lo que tenga
más a mano (léase alimentos) y las utiliza de una manera muy determinada. Y
también es evidente que si el azar produjo reacciones químicas en la primitiva
Tierra o en los océanos, en todo caso no originaron moléculas tan complicadas
como la de la hemoglobina, sino otras más simples: sin más, células con vida.
Aunque hubiéramos esperado durante toda la historia de la Tierra, unos 4.500
millones de años, nunca se hubiera producido sólo por azar una molécula tan
complicada como la hemoglobina.
Esto no quiere decir que una mano misteriosa colocara los elementos
químicos en el lugar adecuado para que apareciera. Tan pronto como surgieron
las moléculas con capacidad de reproducción —moléculas con vida propia—, las
reacciones en las que se vieron envueltas dejaron de producirse por azar. Una
nueva ley natural empezó a regir: la evolución de las moléculas con vida se
aceleró espectacularmente gracias al proceso de selección natural. “Eficientes
máquinas de hacer réplicas” pronto entraron en funcionamiento para replicar
dichas moléculas a partir de las materias primas disponibles. Este proceso
debió de repetirse muchas veces antes de que la creación de seres humanos y
moléculas de hemoglobina se hiciera posible, pero también es cierto que la
naturaleza dispuso de mucho tiempo para llevar a cabo este proceso de selección
natural. Muchas personas, cuando piensan en la evolución, creen que es algo que
sólo ocurre con familias enteras de animales o plantas, nunca con moléculas
individuales. Sin embargo, las leyes de la selección natural que alientan la
evolución molecular son las mismas que gobiernan el proceso de evolución de las
especies en la actualidad, y de hecho, todavía hoy, la evolución continúa en el
nivel molecular. Los genes que portamos en nuestras células y que determinan la
clase de personas que somos físicamente (y, hasta cierto punto, también
mentalmente) son eficientes moléculas replicadoras que viven escondidas dentro
de lo que Dawkins llama su “máquina de supervivencia”. Una vez las células se
desarrollaron, los genes fueron a la vez protegidos y forzados a manipular sus
alrededores por control remoto; a partir de entonces, la historia de la vida se
transforma en la historia de la “vida tal como ahora la conocemos”. Pero, ¿cómo
se llegó al punto en que las células fueron “inventadas”? [36].
§. Química en el espacio
De los estudios astronómicos realizados durante los años sesenta y setenta, una
cosa ha quedado clara: el “caldo primitivo” arrancó, probablemente, con una
mezcla química algo más complicada que la de agua, dióxido de carbono, metano y
amoniaco, tal como se podría desprender de las teorías de Haldane y Oparin.
Algunos químicos han seguido la idea de los científicos mencionados con
experimentos en los cuales mezclas de estos componentes químicos, o de algunos
de ellos, son tratadas con radiación ultravioleta (para simular la energía del
Sol), o con chispas eléctricas (para simular la energía de las tormentas
eléctricas en la atmósfera de la joven Tierra). En 1953, Stanley Miller mostró
que, tratando las mezclas de hidrógeno, metano, agua y amoniaco con esta
técnica durante una semana, se producía alrededor de un 3% de aminoácidos
(recuérdese la forma en que estaba construida la hemoglobina; este sistema de
construcción se repite en otra clase de componentes) en dichas mezclas. Más recientemente,
experimentos similares han dado como resultado unas moléculas de vida de mayor
complejidad. Los componentes sencillos más la energía destinada a estimular
reacciones químicas han dado lugar a moléculas de vida, o al menos a
“precursores de la vida”. Pero la naturaleza, como ahora sabemos, ni siquiera
necesitaba un planeta para crear estos precursores de la vida, puesto que los
componentes sencillos referidos están presentes en el espacio, dentro de las
nubes interestelares de gas y polvo, desde donde pueden recibir energía
proveniente de una estrella próxima. Algunos han apuntado que “componentes
simples + energía = precursores de vida”, pero los teóricos han seguido viendo
las nubes interestelares como lugares fríos y oscuros, llenos de compuestos
simples —hidrógeno molecular, tal vez— y elementos —por ejemplo, carbono—,
hasta que las observaciones les han hecho reparar en que las nubes son lugares
mucho más interesantes de lo que creían.
Quizá sea éste el momento más adecuado para recapacitar con brevedad
sobre todo lo dicho hasta ahora. Después del Big Bang de la
creación, el Universo contenía nubes de gas caliente agrupadas jerárquicamente
como consecuencia de los procesos físicos que dominaron los últimos instantes
del período de la bola de fuego. Estas nubes estaban compuestas por una gran
cantidad de hidrógeno, una proporción menor de helio y prácticamente nada más.
La mayor parte de la materia de esas nubes pronto se condensó para formar
estrellas, apareciendo así super galaxias diez o veinte veces mayores que las
galaxias de estrellas brillantes que hoy conocemos. Estas nubes quemaron el
combustible nuclear de sus interiores, con lo cual convirtieron el hidrógeno y
el helio en unos núcleos más complejos, debido al proceso de fusión nuclear.
Cuando la primera generación de estrellas empezó a aparecer, los restos del gas
residual —quizá sólo el 10% de la masa de cada super galaxia— se establecieron,
bajo el influjo de la gravedad, en lo que conocemos como galaxias espirales. En
algunas galaxias, las colisiones han deformado el esquema original, por lo que
hoy podemos ver una gran variedad de galaxias a nuestro alrededor, con dos
familias principales: las espirales y las elípticas. Nuestra propia galaxia, la
Vía Láctea, no obstante, parece haber tenido más interacciones de este tipo, y
ha permanecido como una espiral.
Dentro de esta galaxia espiral, el proceso de la formación de estrellas,
la síntesis nuclear y las explosiones estelares han proseguido. De modo que
entre las estrellas existen nubes ricas en elementos producidos en el interior
de las mismas estrellas por síntesis nuclear, incluyendo carbono, nitrógeno y
oxígeno, así como también una importante cantidad de hidrógeno sin procesar (en
realidad, supone mucho a nivel humano, pero es insignificante, tan sólo un
residuo, dentro de la abundancia original de nuestra super galaxia). Por ello,
no constituyó ninguna sorpresa para los astrónomos dar con pruebas evidentes de
la presencia de tal variedad de elementos atómicos, junto con algunos
compuestos simples, como el CN o el OH (OH no es sino el radical hidroxilo, no
una molécula propiamente dicha; al oxígeno le “apetecería” disponer de otro
átomo de hidrógeno, para formar H2O, o sea, agua, pero se conforma
con uno al no poder conseguir ninguno más). Si cualquier elemento procedente de
una nube interestelar puede integrarse en un nuevo sistema solar —el nuestro se
ha formado así—, parece entonces razonable creer en la posibilidad de que tales
compuestos y elementos sean el punto de partida de la evolución de la vida en
la Tierra [37].
Aquí se detuvieron los estudios en 1968. Los astrónomos sabían de la
existencia de varios elementos y unos pocos compuestos simples en el interior
de las nubes interestelares; los bioquímicos los aceptaron como participantes
que tomaban parte en el proceso que desarrolló la vida en la Tierra, mientras
que diversos experimentos mostraban que los precursores de la vida podían ser
creados por medio de la introducción de energía en un sistema cerrado compuesto
en exclusiva por componentes simples. Fue entonces cuando Charles Townes,
premio Nobel de Física, entró en la escena de la astronomía. Townes estaba
interesado en la radioastronomía de longitudes de onda cortas, longitudes de
onda llamadas microondas, muy utilizadas en sistemas de comunicación, radares, etc.
Estas longitudes de onda son justo las longitudes en las que moléculas
complejas producen o absorben radiación electromagnética. Este proceso
constituye la versión electromagnética de lo que provoca la resonancia de una
cuerda de guitarra, y lo mismo que una cuerda corta produce una nota alta (es
decir, un sonido de longitud de onda corta), una molécula pequeña resuena con
una longitud de onda corta de radiación electromagnética. Los átomos
individuales son, efectivamente, tan pequeños que “resuenan” con ondas ligeras,
y esto es lo que produce las líneas que se distinguen en su espectro: una línea
oscura en la longitud de onda precisa muestra una luz que es absorbida por los
átomos de un elemento; una línea clara en otro lugar muestra una luz que es radiada
por los átomos de otro elemento. De modo equivalente se comportan las moléculas
grandes, pero en un espectro de microondas.
Hay dos problemas, no obstante, cuando se buscan las moléculas complejas
por medio de radiotelescopios en el espacio. En primer lugar, cuanto más corta
sea la longitud de onda, tanto más perfecto deberá ser el sistema de antena y
receptor. Dicho de una forma sencilla, si alguien está buscando radiación con
una longitud de onda de un centímetro, deberá hacerlo con una antena cuya
superficie sea sensible a este centímetro o, de lo contrario, la radiación será
desviada hacia cualquier otra dirección. Los telescopios ópticos deben ser
suaves comparados con la longitud de onda de la luz. Es difícil hacer un
telescopio así; una antena de microondas es un compromiso entre su tamaño y su
sensibilidad. Por su parte, el receptor debe ser capaz de captar una señal débil
sin destrozar la información que contiene, y no fue hasta los años sesenta
cuando pudieron desarrollarse los sistemas antena-receptor adecuados para este
trabajo. Ello fue posible, en gran medida, gracias al perfeccionamiento de los
satélites de comunicación. (Penzias y Wilson, otros dos ganadores del premio
Nobel, fueron los pioneros en el descubrimiento del campo cósmico de radiación
de microondas utilizando un sistema de satélites de comunicación construidos ex
profeso para la ocasión.)
Y el segundo problema, que lo sigue siendo (aunque no tanto como en
1968), es que, si bien las “líneas” de radio de microondas pueden identificar
las moléculas como si se tratara de huellas digitales de una persona, antes es
menester “tomar las huellas digitales” a fin de ver en el laboratorio cuáles
son los componentes apropiados y de estudiar su espectro de microondas. Cuantos
más átomos contenga una molécula, más resonancias electromagnéticas pueden
darse, haciendo que las huellas sean claras, pero también haciendo tedioso el
trabajo de medirlas.
No fue hasta que se descubrieron algunas moléculas complejas en el
espacio, cuando el esfuerzo de identificar otras parecía vano; nadie quiere
perder el tiempo en un laboratorio determinando las huellas de las microondas
de una molécula para luego, en las observaciones, darse cuenta de que aquella
molécula no existe. En consecuencia, cuando un equipo de Berkeley, inspirado
por Townes, se colocó tras su pista, empezaron siendo pocos. Pero con el éxito
obtenido, consiguieron que otros se animaran a seguir el mismo camino, y,
conforme se descubrían más y más moléculas en el espacio, avanzaban los
estudios.
Primero se descubrió el amoniaco (NH3), identificado en
diciembre de 1968 por su radiación en la longitud de onda de 1,26 cm.
Esto demostró que el sistema funcionaba. Poco después, el mismo equipo
descubrió las huellas del agua en el espacio, y a principios de 1969 tuvo lugar
el descubrimiento del formaldehido. El formaldehido no es una molécula compleja
en el sentido que nosotros entendemos que son; es una molécula orgánica (H2CO),
uno de los componentes de la familia del carbono, y, en concreto, una de las
moléculas que pueden fabricarse con facilidad añadiendo energía a una mezcla de
componentes simples. Fue ésta una revelación, al menos para algunos astrónomos
(iba a decir “astrofísicos”, pero supongo que 1969 constituyó la fecha de
partida de una nueva subdivisión de la astronomía: la “astroquímica”). Los
componentes simples de las nubes interestelares más energía, podrían, con toda
seguridad, hacer que los precursores de la vida fueran tan eficientes como en
la Tierra, con la ventaja de que la edad de la Tierra es de 4.500 millones de
años, mientras que la de las nubes interestelares tal vez sea de muchos miles
de millones más, todo lo cual hace que el desarrollo de la vida goce de más
posibilidades de las que ha gozado en la Tierra. Si la Tierra fue “sembrada”
con productos químicos de esa complejidad en los primeros momentos de su
historia (quizá debido al choque de los cométaselos cuáles contienen “materia
prima” procedente del medio interestelar), los precursores de la vida pudieron
estar presentes ya en el caldo primitivo, y no debieron de tardar mucho en
comparecer los primitivos replicadores si comparamos el tiempo que requirieron
con la edad de nuestro planeta.
§. ¿Vida del espacio?
Docenas de moléculas poliatómicas han sido identificadas en el espacio [38], y casi
todas ellas son componentes del carbono, por entero en la línea de la química
del carbono y sus aptitudes para combinarse de diferentes maneras con otros
elementos y consigo mismo. Algunas de estas moléculas —sin excluir el
formaldehido— han sido detectadas en la radiación que nos ha llegado de otras
galaxias, lo cual nos hace suponer que las complejas moléculas basadas en el
carbono son muy comunes, no ya en la Tierra o en nuestra Galaxia, sino en todo
el Universo [39].
De modo que la joven Tierra debe de haber estado siempre relacionada con
moléculas tales como H2CNH, HCCCN, H3CCOH y otras;
además, se sabe que algunas de estas moléculas, ya identificadas, tienen gran
facilidad para combinarse con otras y construir así moléculas más complejas, y,
en particular, ácido fórmico (HCOOH) y metanimina (H 2CHN),
ambas identificadas en densas nubes del espacio y capaces de reaccionar hasta
producir el más simple aminoácido: glicina (NH 2CH2COOH).
El formaldehido, descubrimiento clave en esta agitada investigación, es un
componente común a otras moléculas orgánicas mayores, como el azúcar, que es
esencial para la vida. Es probable que incluso los aminoácidos estuvieran
presentes en el caldo primitivo, idea que indujo a Jim Lovelock a decir que
«parece como si el espacio fuera un almacén gigante en el que se guardaran las
piezas necesarias para la vida» [40], y a
desarrollar una curiosa comparación con un planeta totalmente compuesto por
piezas de reloj. Prosiguiendo con la analogía, Lovelock imagina que al cabo de
un tiempo bastante largo —quizá mil millones de años— la combinación de la
energía de las mareas y del movimiento del viento permitirá montar al menos un
reloj capaz de funcionar. Partiendo de que el planeta contiene abundantes
componentes de la vida, las reacciones químicas producirán una molécula
replicadora dentro de unos mil millones de años.
Las diferencias en las secuencias de reacciones químicas que produjeron
las primeras réplicas son astronómicas, pero también lo era el tiempo
disponible. Como Lovelock lo entiende, «la vida era algo con muy pocas
posibilidades de producirse a pesar de las oportunidades casi infinitas que
tenía de hacerlo», así es que se produjo por casualidad. Para el resto de mi
explicación de dónde venimos, ésa, la explicación “establecida”, es la
adecuada. Lo que nos importa, a estas alturas, es que una réplica tomó forma, y
a partir de ahí, se desencadenó la evolución que nos ha conducido hasta la gran
variedad de modos de vida existente. Pero la explicación establecida todavía no
es enteramente satisfactoria, y es natural que nos interroguemos acerca de lo
que ha ocurrido durante tantos millones de años en el interior de las nubes
interestelares. Por fortuna para los que nos formulamos estas preguntas, Fred
Hoyle y Chandra Wickramasinghe han hecho más que imaginar respuestas, han
elaborado una detallada teoría sobre cómo formas de vida genuinas
—replicadores— pudieron establecerse en las nubes interestelares.
Todo ello hace que nuestras mentes se sorprendan, si bien en un sentido
agradable. Si la clase de replicadores de los que descendemos empezaron
haciendo réplicas en las nubes interestelares, ello significa que la vida,
cualquier clase de vida, proviene de los mismos replicadores. Cada uno
puede especular como quiera sobre esta clase de ideas, pero
Hoyle y Wickramasinghe han ido más lejos ofreciendo una explicación no sólo de
cómo, sino también de por qué las condiciones en una nube interestelar pueden
favorecer el desarrollo de los replicadores de vida. A pesar de que la teoría
es nueva y será modificada —quizá drásticamente— a medida que se vayan haciendo
nuevos descubrimientos, yo creo en su validez como descripción de los orígenes
de la vida y (admitiendo que estoy predispuesto en su favor) la ofrezco aquí
como la mejor respuesta disponible a la pregunta sobre la procedencia del
primer replicador.
Gran parte del material que existe entre las estrellas es hidrógeno,
verdadero material primitivo de la época de la bola de fuego. Pero el más obvio
material existente entre las estrellas es el polvo, que podemos apreciar con
nitidez en las fotografías astronómicas. Estas manchas de polvo bloquean,
literalmente, la luz de las estrellas que tienen detrás, de modo que, muy a
menudo, las manchas más densas aparecen como si fueran agujeros negros rodeados
de estrellas muy brillantes; pero incluso donde no hay manchas de polvo lo
bastante densas como para tapar la luz de algunas estrellas, éstas difícilmente
podrán hacemos llegar su luz sin verse afectadas por las tenues regiones de
polvo que acaso encuentren en su recorrido. Las longitudes de onda de luz más cortas
—el borde azul del espectro— se dispersan más fácilmente por las pequeñas
partículas de polvo, mientras que las longitudes de onda largas —el borde rojo
del espectro— pueden atravesar una reunión de pequeñas partículas sin mayores
consecuencias. De manera que la luz se manifestará más rojiza cuando pase a
través de una nube de polvo en el espacio, o a través del polvo nebuloso de las
capas más bajas de la atmósfera, como es el caso de las espectaculares puestas
de sol[41].
Alrededor del 2% de la masa total de las nubes interestelares es polvo:
el resto es hidrógeno más helio, que forman las vastas nubes que constituyen
los lugares de nacimiento de las nuevas generaciones de estrellas. El polvo
entre el material interestelar es producto de la nucleosíntesis que tuvo lugar
en las primeras generaciones de estrellas, que —como sabemos— fabrican carbono,
oxígeno y nitrógeno, de donde se deduce que los granos de polvo de las nubes
interestelares están constituidos por combinaciones de esos elementos, entre sí
o con el hidrógeno. (Recuérdese que el helio es muy estable, ni “necesita”
electrones ni le sobran, y raramente reacciona.)
El grado de oscurecimiento de la luz de las estrellas muestra cuán
grandes son las partículas de polvo que son causa de dicho oscurecimiento, y
desde los años treinta se sabe que estas partículas de polvo deben ser granos
diminutos, del tamaño de la longitud de onda de la luz visible. Ello se mide en
angstroms (Å), y un centímetro es 100 millones de angstroms, mientras que la
luz óptica cubre una banda de longitudes de onda de unos pocos miles de Å; de
modo que el tamaño de un grano de polvo interestelar es menor que una
cienmilésima parte de un centímetro.
Aun así, es importante saber apreciar qué proporción de este material
interestelar hay en nuestra Galaxia. Incluyendo todo el gas, la materia
interestelar representa alrededor de una décima parte de la masa de la Galaxia,
que es 10.000 millones (1010) de veces la de nuestro Sol[42]. El 2%
de esto no deja de ser una impresionante cantidad de 200 millones de masas
solares de material esparcidas por toda la Galaxia.
Desde los años treinta, las observaciones del grado de oscurecimiento
que tiene lugar a diferentes longitudes de onda —el grado y la naturaleza del
enrojecimiento— se han extendido y desarrollado, y, en la actualidad, incluso
se hacen mediciones de la absorción por la radiación interestelar tras el
espectro óptico, a longitudes de onda infrarrojas y ultravioletas. Parece ser
que la absorción más fuerte (medida por instrumentos instalados en cohetes y
satélites lanzados más allá de la atmósfera de la Tierra, la cual al mismo
tiempo bloquea la luz ultravioleta) es de unos 2.200 Å, en la banda
ultravioleta del espectro.
Antes de que tal descubrimiento se produjera hacia mediados los años
sesenta, la explicación más corriente de la naturaleza de los granos
interestelares era la de que éstos eran como partículas de hielo, una especie
de “nieve” compuesta de agua, metano y amoniaco congelados. Pero ya antes de
que las mediciones ultravioletas se conocieran, Hoyle y Wickramasinghe
imaginaban que era muy difícil la formación de hielo o nieve en el espacio, y
que era mucho más sencillo obtener nubes de polvo a base de diminutas partículas
de carbono (hollín).
Esto puede parecer extraño. Pero el carbono es uno de los productos más
importantes de la nucleosíntesis estelar, y hay una serie de estrellas llamadas
estrellas de carbono cuyos espectros muestran unas atmósferas muy ricas en este
elemento[43]. Todas
las estrellas pierden constantemente materia de sus atmósferas, y a las
estrellas variables puede imputárseles el viento estelar, con el mismo ciclo
periódico que el de sus variaciones de brillo.
Para consternación y —también hay que decirlo— incredulidad de la comunidad
astronómica, Fred Hoyle y Chandra Wickramasinghe han presentado evidencias de
que incluso una molécula orgánica tan compleja como la celulosa puede existir
en nubes en el espacio. Las observaciones de absorción por las nubes
interestelares en las longitudes de onda infrarrojas coinciden exactamente con
la curva teórica calculada para la celulosa. ¿Se trata de una coincidencia?
De modo que Hoyle y Wickramasinghe fueron los primeros en elaborar el
esquema gráfico de las estrellas de hollín que desprenden carbono al espacio,
una idea que luego se reafirmó gracias a observaciones que revelaron la
existencia de características propias del grafito (partículas ordinarias, como
las que hay en un lápiz) en la radiación de las estrellas de carbono.
El descubrimiento de la fuerte absorción a 2.200 Å hace que tengamos que
desechar de raíz la hipótesis del hielo interestelar, puesto que ninguno de los
tres candidatos (hielo de agua, hielo de amoniaco o hielo de metano) puede
bloquear una radiación demasiado fuerte en su longitud de onda [44]. En
cambio, el carbono sí puede, tanto, que algunos astrónomos arguyen que con sólo
los granos de carbono se justifica el enrojecimiento interestelar. Pero también
tiene que haber nitrógeno y oxígeno en las nubes. Tiene que haber moléculas, y
Hoyle y Wickramasinghe han señalado cuáles son las que mejor explican las
observaciones, y cómo se han formado.
Llegados a este punto, la historia que nos ocupa pasa a convertirse en
la historia de los estudios de las radiaciones infrarrojas de las nubes de
polvo y gas, que son las que se condensan y crean las estrellas, o bien de las
“formaciones” de material polvoriento que rodean las jóvenes estrellas. Éstas
son calentadas por la energía proveniente de las estrellas recién creadas o en
formación, lo cual produce una fuerte radiación infrarroja. El punto álgido de
la radiación tiene lugar en la frecuencia que corresponde tanto a la actual
temperatura de la nube como a la naturaleza de las partículas de dicha nube, en
la jerga de los físicos, a la curva subyacente del cuerpo opaco (¿recuerdan el
fondo de 3ºK? Esta radiación también presenta características de opacidad,
aunque a temperaturas de cientos de ºK) se superpone la figura de la emisión
espectral de las partículas.
Cuando aumentan tanto los infrarrojos como la longitud de onda, la
tradicional unidad angstrom se vuelve inoperante, y los astrónomos prefieren
utilizar el micrómetro (un micrómetro equivale a una millonésima parte de
metro, 10‒6 m), que es, en cualquier caso, una unidad más
lógica y más directamente ligada al sistema métrico. Puesto que un micrómetro
es una millonésima parte de un metro, un angstrom es una diez mil millonésima
parte de un metro (10‒10 m), de modo que hay 10.000 Å en cada
micrómetro, que en Å nos daría un número superior a 100.000, así es que nos
quedaremos, de ahora en adelante, con los micrómetros. (Pero si el lector lo
prefiere, los puede convertir en Å con sólo añadirle cuatro ceros a la cifra
que se dé en micrómetros.)
Tres rasgos predominaron en el espectro de las nubes calientes de
material polvoriento asociado al nacimiento de las estrellas. Éstas fueron de
dos a cuatro micrómetros, de ocho a doce y, la tercera, de alrededor de unos
dieciocho.
La relativamente simple molécula en forma de anillo constituida por cinco
átomos de carbono y uno de oxígeno, el anillo piránico, tiende a producir
réplicas de sí misma, unidas por átomos de oxígeno adicionales para constituir
el esqueleto de una cadena de polisacárido, si existen más átomos de carbono y
de oxígeno disponibles. Esta forma de molécula compleja, ni mucho menos
viviente, podría construirse con facilidad en las condiciones que sabemos
existen en las nubes interestelares.
Diversas teorías han procurado explicarlo argumentando que, en realidad,
se trata de tres familias diferentes de componentes químicos, incluyendo
variaciones sobre la idea del agua-hielo y la presencia de silicatos. Pero, en
busca de la posibilidad más sencilla, Hoyle y Wickramasinghe intentaron
encontrar una sustancia que valiera para todos los casos. Para su propio
asombro —y consternación de muchos otros astrónomos y bioquímicos— encontraron
el candidato ideal: la celulosa, que no es sino la más abundante materia
orgánica de la Tierra, y una parte fundamental de la estructura de las plantas.
§. ¿Vida en el espacio?
Llegados a este punto, hay que decir que muchos astrónomos (y bioquímicos)
juzgaron la idea de la celulosa simplemente inaceptable, y que otras teorías
(un poco discutidas, pero que funcionan) todavía se tienen en cuenta para
explicar las observaciones infrarrojas. La hipótesis Hoyle-Wickramasinghe no
está del todo establecida, pero nos ofrece la explicación más completa de lo
que está sucediendo en las nubes de polvo del espacio, y estoy convencido de
que, aunque algunos pormenores sean modificados, a medida que se vayan haciendo
nuevos descubrimientos, mucho de lo que se diga en estas líneas quedará
establecido de manera definitiva. La celulosa misma es miembro de una familia
de moléculas llamadas polisacáridos y, en una redefinición algo más exacta de su
propia idea, Hoyle y Wickramasinghe han probado que las observaciones
infrarrojas de este tipo pueden explicarse mediante la combinación de
polisacáridos (siempre la misma combinación de polisacáridos) a los que se unen
algunos hidrocarburos (compuestos de carbono y de hidrógeno, o sea, lo que se
supone que se ha de encontrar en una nube de hidrógeno que contuviera granos de
carbono). ¿Cómo pudo, por tanto, una molécula con una estructura tan compleja
surgir sujeta a las condiciones del espacio interestelar?
Como acabo de apuntar, es evidente que las condiciones necesarias para
el desarrollo de la química pre biológica se dan en los restos del material de
polvo caliente tras la explosión de las estrellas jóvenes. Este polvo proviene,
es claro, de una generación previa de actividad estelar, y es el material
residual de la nube de la cual se ha formado una constelación de nuevas
estrellas. La energía de la radiación de la estrella o estrellas mantiene el
carbono y el oxígeno en el centro de la nube, principalmente en la forma de
átomos simples, ya que una fuerte radiación puede disgregar cualquier molécula
(como la de monóxido de carbono, CO) que intente formarse. Pero, donde la
temperatura desciende por debajo de los 1.200 ºK, el carbono y el oxígeno
pueden unirse, no como monóxido de carbono, pero sí en cadenas formadas a
partir del anillo de pirano, estando cada uno de estos anillos constituido por
cinco átomos de carbono y uno de oxígeno, que se “dan la mano” en un círculo (C5O).
Un anillo de pirano se une fácilmente a otro a través de un átomo de oxígeno
sobrante que se une a uno de los carbonos de cada anillo, y una cadena de
anillos de pirano unidos de esa forma constituye la estructura básica de un
polisacárido. Y aunque sea pesado este modo de formar semejante cadena,
juntando los átomos unos a otros, una vez que está creado, el anillo de pirano
muestra una de las cualidades fundamentales de la vida: actúa como pauta o
modelo, que facilita la formación de más anillos, los cuales se juntan para
formar una cadena que va creciendo. Cuando la cadena se separa en dos o más
partes, cada una de ellas sigue creciendo, tomando carbono y oxígeno de la
combinación química que la rodea, para formar más anillos de pirano. Y aunque
nadie pretendería que un simple anillo de pirano tiene vida (se comporta más
bien de la misma forma que un cristal que estuviera creciendo: en presencia de
una combinación adecuada de elementos químicos, los aglutinará como una
extensión de sí mismo, pero sin manipular su entorno disgregando otros
compuestos moleculares y reordenándolos en unidades distintas, capaces de
reproducirse), sí actúa de tal modo que, en las debidas condiciones, una gran
parte del carbono y del oxígeno disponibles se transformará en polisacáridos,
al igual que, en condiciones favorables, una gran parte del carbono, del
nitrógeno y del oxígeno de la Tierra se ha transformado en células vivas.
¿Dónde está, en las nubes interestelares, el nitrógeno que tiene que
existir si nuestros conocimientos de nucleosíntesis estelar son correctos? De
vuelta a la luz enrojecida que nos llega de las nubes de polvo heladas
procedentes del espacio —nubes heladas que, presumiblemente, incluyen material
expulsado de estrellas jóvenes, en las cuales el proceso de fabricación de
polisacáridos ha tenido lugar—, todavía hay muchos rasgos espectrales
inexplicados. Uno de ellos, el más notable, se encuentra en una banda de unos
4.430 Å y se extiende sobre unos 30 Å. La extensión de este rasgo indica, de
una forma inequívoca, el tamaño de las moléculas que lo producen —los átomos
dibujan líneas definidas, mientras que las moléculas forman amplias figuras
espectrales—, y ello puede ser explicado por la presencia de una molécula
particularmente larga, MgC46H 30N6, u
otra similar, la porfirina. ¿Y dónde se halla? Las porfirinas son parte del
material de fabricación de la incluso más compleja clorofila, involucrada en la
fotosíntesis, el proceso por el cual las plantas transforman la energía de la
luz del sol en alimento. Puesto que la vida animal depende de las plantas para
sobrevivir, la clorofila es, en buena lógica, el producto bioquímico más
importante, al menos desde el punto de vista de los humanos. Resulta difícil
que alguien se tome en serio la explicación del rasgo 4.430 Å en términos de
porfirina; pero es que en estos momentos, no disponemos de otra. Como Hoyle y
Wickramasinghe han comentado en su libro Lifecloud, «la unión de cuatro anillos
C4N para construir una central de moléculas de porfirina es
aprovechable energéticamente, y por esta razón podemos esperar que una fracción
de material rico en nitrógeno (proveniente de estrellas jóvenes) se condense
hasta construir tales moléculas» [45].
La salud del material pre biológico que puede estar presente en las
nubes interestelares es impresionante. Pero, ¿cómo dicho material sobrevivió a
los efectos del proceso de formación del Sistema Solar y de la Tierra? La
respuesta acertada es que no sobrevivió, aunque quizá pudo volver a resurgir
dentro del Sistema Solar tras la formación de la Tierra, gracias a visitantes
del profundo espacio: los cometas. Los cometas producen ocasionalmente efectos
espectaculares en el cielo. El más famoso, el cometa Halley, estuvo de vuelta
en febrero de 1986. El Halley nos visita con regularidad cada setenta y seis
años; otros, no obstante, sólo nos visitan una vez, nos llegan de lejanas
partes del espacio y van camino hacia otras regiones también lejanas, y son
éstos, tal vez, los que trajeron las semillas de la vida.
Tanto como una cantidad de material de unos 100.000 millones de cometas
puede rodear el Sistema Solar, a una distancia de alrededor de un año-luz,
alguna de cuyas piezas a veces se desvía, acaso por la fuerza de gravedad de
otras estrellas, hacia el interior del Sistema Solar, circunda el Sol, y es
posteriormente devuelta al espacio. Cada uno de estos cometas puede no llegar a
tener ni una milmillonésima parte de la masa de la Tierra, por tanto son
pequeños según los modelos astronómicos, pero suficientes para ser
protagonistas de un espectacular choque con la Tierra. El famoso
“acontecimiento de Tunguska”, una gran explosión que tuvo lugar en Siberia en
1908, fue, casi con toda certeza, el choque de un cometa, que por suerte fue a
caer en una región deshabitada de nuestro planeta. Un golpe similar en una gran
ciudad podría matar a millones de personas, y sus consecuencias serían más o
menos las que describen Larry Niven y Jerry Pournelle en un excelente libro de
ficción titulado Lucifer’s Hammer. El origen inmediato de los cometas todavía
se desconoce; algunos aseguran que se trata de material residual del Sistema
Solar; otros dicen que es material recogido por el Sistema Solar cuando pasa a
través de una nube de polvo y gas. Lo cierto es que contiene una gran cantidad
de material más o menos en el mismo estado en que se encuentran las moléculas
de las nubes interestelares.
Otra clase de material alcanza la Tierra en forma de meteoritos,
fragmentos rocosos, algunos ricos en hierro, que penetran hasta el suelo.
Muchas otras partículas, demasiado pequeñas para sobrevivir al golpe que supone
el traspasar la atmósfera, se convierten en meteoros, mientras que las
partículas más ligeras pueden flotar en el aire y descender con lentitud hasta
el suelo. Continuamente recibimos visitas del espacio, y es natural que algunos
componentes químicos presentes en él nos alcancen de vez en cuando. Esto
incluye otra sorpresa, el descubrimiento, en algunas muestras de meteoritos, de
aminoácidos, el constituyente fundamental de la proteína (recuérdese la
hemoglobina). El contenido de aminoácidos de un meteorito es sólo de quince
sobre un millón, pero no deja de ser una proporción mayor que la que esperaban
encontrar los más optimistas seguidores de la versión Haldane-Oparin del origen
de la vida.
§. “Estanques” cometarios
Hoyle y Wickramasinghe se inclinaron hacia el extremo opuesto. Pensaron, en
primer lugar, que la casi totalidad de la atmósfera y de los océanos de la
Tierra es producto del choque de cometas, choques ocurridos cuando el Sistema
Solar era más joven y el cometa más fuerte; luego sugirieron que las formas de
vida pudieron haber evolucionado dentro de una de estas nubes cometarias antes,
incluso, de que se desarrollaran en la Tierra los llamados precursores de la
vida, debido a las colisiones de dichos cometas contra la Tierra. El “caldo
primitivo” —se dijeron— muy bien podría haber tenido lugar en el seno de un
cometa.
Otro eslabón en la cadena de descubrimientos de moléculas en el espacio
que tengan relación con el origen de la vida en la Tierra se cerró a principios
de 1980, cuando W. M. Irvine, S. B. Leschine y F. P. Schloerb publicaron en la
revista científica Nature los resultados de nuevos cálculos sobre las
condiciones que debieron de existir en la nube cometaria que rodea nuestro
Sistema Solar. La única gran objeción a la idea Hoyle-Wickramasinghe, según
ellos, era que en el espacio los cometas habían de estar congelados, y que las
moléculas de la vida se desarrollan más cómodamente en agua líquida, en la que
se disuelven los componentes orgánicos que hacen surgir la vida (o, como Darwin
diría, en un “pequeño estanque caliente”) [46]. Hoyle y
Wickramasinghe han discutido esta idea, y han argumentado que los granos de
carbono quizá logren, de alguna forma, que las moléculas se adhieran en su
superficie para constituir, así, compuestos complejos; pero el grupo de Irvine
de la Universidad de Massachusetts ha dado solución a este antiguo problema.
La solución es muy sencilla. A pesar de que las condiciones en una nube
cometaria son lo bastante frías como para helar el agua, a menos que alguna
fuente de energía consiga calentarla, ahora sabemos con toda seguridad —como
vimos al principio— que la formación del Sistema Solar fue debida a la
explosión de una supernova. Si los cometas son materia residual del colapso
originario del Sistema Solar, es lógico que contengan elementos radiactivos
procedentes de la supernova, y en particular, isótopos de aluminio-26. La “vida
media” radiactiva del aluminio-26 es de 700.000 años, y conforme se debilitaba
tempranamente en la historia del sistema solar, el calor producido podía haber
calentado los corazones de los núcleos cometarios, mezclando agua para crear el
pequeño “estanque” caliente que la evolución de la primitiva vida requería con
toda probabilidad.
Si ello fue en verdad así, ése fue el lugar en el que la célula fue
inventada, la “casa" que protege a los replicadores de moléculas de los
peligros exteriores, pero que al mismo tiempo les permite recoger “alimentos”.
Pero si ni siquiera se acepta esta parte de la teoría de Hoyle y
Wickramasinghe, hay que reconocer, al menos, que parece mucho más fácil, mucho
más rápido, construir células vivientes en la Tierra partiendo de moléculas
prebióticas transportadas por cometas, que partiendo de simple dióxido de
carbono, agua y amoniaco. Hay evidencias en las rocas de la corteza de la
Tierra que muestran que organismos como bacterias o algas estaban presentes en
la Tierra desde hacía, como mínimo, 3.100 millones de años, algo menos que las
más antiguas rocas conocidas, y sólo 1.500 millones de años después de que la
Tierra se enfriara y solidificara. Pasó mucho tiempo antes de que estos
sistemas de vida tan simples adquirieran la complejidad de la vida que hoy se
registra. Existen muchas teorías sobre la evolución de la vida, pero por lo que
a mí respecta, de ahora en adelante, me mantendré dentro de las corrientes
puramente científicas, desde la aparición de la primera simple célula hasta el
surgimiento del hombre.
Se cree que los cometas están formados por conglomerados de materia
congelada a causa del frío del espacio. Las colas, en ocasiones espectaculares,
que "crecen" cuando los cometas se acercan al Sol en su paso por el
Sistema Solar interno, son probablemente el resultado de la vaporización y
eyección de la materia desde la "cabeza" del cometa. Pero, ¿han sido
siempre los cometas puramente hielo? Una reciente sugerencia apunta que en los
inicios de la vida del Sistema Solar, los cometas tal vez fueron calentados por
la desintegración radiactiva de elementos inestables resultantes de la
explosión de supernova que desencadenó la formación del Sistema Solar. En este
caso, provistos de agua líquida en su seno, los cometas pudieron haber
proporcionado los "pequeños estanques calientes” en cuyo interior comenzó
la vida y desde los cuales ésta se extendió a la Tierra gracias a cometas que
pasaron cerca desprendiendo materia por el espacio, o mediante el choque
directo de un cometa con la joven Tierra. (Fotografía del Lick Observatory.)
Capítulo VI
El origen de las especies
Contenido:
§. El código genético
§. Células afortunadas
§. Historia de los fósiles
§. Los primeros días
§. Oxígeno y vida
§. Fotosíntesis
§. Un escudo atmosférico
Quizá sea importante recalcar que todas las ideas concernientes a los
orígenes de los primeros replicadores son, en buena medida, especulaciones. No
sabemos si aparecieron en un “pequeño estanque caliente”, en el centro de un
cometa, o bien en los mares de la Tierra primitiva. Efectivamente, a pesar de
que toda la vida de la Tierra actual se construye sobre la base del mismo
mecanismo de replicadores, incluida la molécula de vida ADN, no sabemos si éste
fue el primer replicador o si fue otro el que se desarrolló primero y luego
desembocó en la molécula del ADN. Mientras la falta de evidencia directa haga
imposible determinar exactamente cómo empezó la vida en la Tierra, deberemos
conformamos con conocer sólo cómo la vida —una vez aparecida, por la razón que
sea— ha evolucionado sobre el planeta desde que tenemos pruebas de su
existencia hasta hoy. Ello cubre más de 3.000 millones de años de la historia
de la Tierra (quizá el 20% o menos de la historia de todo el Universo), y el
desarrollo de la vida desde los organismos unicelulares hasta la variedad
actual, incluyendo a los animales humanos, con sus millones de células
vivientes cooperando en la formación de un único organismo vivo, dotado de
movilidad, de percepción del mundo que lo aloja y, por último, de una
conciencia que le impulsa a uno a preguntarse de dónde venimos. Todo ello
resulta del proceso natural de selección entre los replicadores de vida,
algunos de los cuales son más eficientes que otros a la hora de reproducir, y
unos tienen más capacidad de sobrevivir que otros. Después de 3.000 millones de
años, la selección natural nos ha conducido a la amplia diversificación de
especies y a la producción de organismos multicelulares: pero los sistemas
biológicos “antiguos” no se han visto totalmente sustituidos por otros, puesto
que todavía podemos encontrar organismos vivos de una sola célula al lado de
los modernos organismos multicelulares.
Esto demuestra la dicotomía de la “lucha por la supervivencia”, nada
quiere evolucionar, y el proceso básico de la vida es el de la replicación de
las moléculas ya existentes. El éxito de tal proceso —y a este nivel— lo
constatamos en los "fósiles vivientes" unicelulares que han
permanecido inalterados desde el principio de la historia de la vida en la
Tierra. Los cambios sólo se producen por error, y muy pocos de ellos son
beneficiosos. Algunos productos menos perfectos de estas mutaciones no
sobreviven, pero se convierten en “alimentos” para los más avanzados, que sí
sobreviven. Muy ocasionalmente, sin embargo, una copia imperfecta goza de
mejores resultados que el original en el trabajo de convertir alimentos
químicos en réplicas de sí mismo, y una mutación tan extraña como ésta no sólo
es posible que sobreviva, sino que pueda extenderse por el entorno. Después de
millones de años, la acumulación de copias producto de un error —error, aquí,
beneficioso— hace que aparezcan especies tan dispares como un ratón y una seta.
Este proceso, no obstante, tiene su justificación y, en el juego de las
réplicas, las variedades de célula única que han permanecido sin cambios
durante tantos millones de años pueden —desde determinado punto de vista— ser
valoradas como éxitos mayores que los de la serie de raras equivocaciones que
nos han producido a nosotros.
§. El código genético
Para comprender cómo el proceso de réplicas puede cometer errores que nos
conduzcan a la diversidad de especies, hemos de saber algo de la molécula de la
vida, el ADN. El ácido desoxirribonucleico (ADN) es el material de copia básico
de toda la vida terrestre. Una bacteria, una seta, la hierba o el hombre mismo,
todos han sido elaborados de acuerdo con las especificaciones dictadas por las
moléculas de ADN dentro de sus células. La reproducción se verifica por la
unión de células especiales y copias de las moléculas de ADN para construir
nuevos organismos (cuando menos, eso es lo que ocurre con los organismos
multicelulares; las variedades de célula única, simplemente se rompen en dos,
cada una de ellas con una parte de las moléculas de ADN). Las moléculas de ADN,
que contienen los “planos” de todo un organismo (como, por ejemplo, el cuerpo
humano), reciben el nombre de cromosomas, una parte de estos cromosomas, los
que tienen que decidir si el cuerpo debe tener ojos azules o marrones, piel
oscura o clara y otra información parecida, son los genes, de los cuales
hablaremos más adelante. Es obvio que los cromosomas del ADN de un cuerpo
humano son considerablemente diferentes a los de los replicadores unicelulares
de los que descendemos, de lo contrario, nosotros también seríamos
unicelulares. Pero —ya que supongo que la mayoría de los lectores de este libro
serán seres humanos— es más importante para nosotros fijarnos en la complejidad
del lenguaje del ADN relacionado de forma específica con los humanos.
Toda molécula de ADN está dispuesta en una estructura de hélice doble,
con lazos químicos que eslabonan moléculas en cada espiral, y parejas de
moléculas eslabonadas entre sí desde una hélice a la otra, produciendo una
estructura muy semejante a la de una escalera de caracol [47]. Cada
bloque de construcción de ADN —las subunidades químicas que se combinan para
constituir la escalera de caracol— recibe el nombre de “nucleótido”, y sólo hay
cuatro “nucleótidos” básicos combinados en cada molécula de ADN. Los nombres de
estas bases de construcción se abrevian en A, T, C y G; y dado que las cuatro
pueden alinearse en distinto orden, es como si los planes para la construcción
y el mantenimiento de todo el organismo se escribieran con un alfabeto de
cuatro letras. Éste es, si así prefiere denominársele, el “lenguaje” del ADN.
Todo organismo viviente de la Tierra comparte el mismo alfabeto de cuatro
letras y el mismo lenguaje del ADN, evidencia palmaria de que todos procedemos
de un único antecesor, apareciera éste primero en un cometa o —como asegura la
teoría de Haldane— lo hiciera en la Tierra. Un alfabeto de cuatro letras tal
vez se antoje restrictivo, pero hoy día los modernos computadores se basan en
un lenguaje mucho más simple, el binario aritmético, un lenguaje de sólo dos
letras donde las dos únicas variables posibles son “abierto’- o “cerrado”, y
las únicas respuestas a cualquier pregunta son “sí” o “no”. Todos estamos al
corriente del éxito de estos aparatos, y es por comparación con su lenguaje
binario por lo que advertimos la superioridad del lenguaje de cuatro letras del
ADN.
Si el código genético de los cromosomas estuviera escrito en lenguaje
binario, el número de “bits” de información en un cromosoma sería,
sencillamente, el doble del número de parejas de “nucleótidos” que hay en las
moléculas de la “escalera de caracol”. Con un alfabeto de cuatro letras, el
número de bits de información (respuestas sí/no) llega a ser de cuatro veces el
número de parejas de “nucleótidos”. Y un cromosoma puede contener 5.000
millones de esas parejas, mientras que cada célula humana contiene cuarenta y
seis cromosomas. ¿Cuánta información está almacenada en los 20.000 millones (4
× 5.000 millones) de bits de un cromosoma? Carl Sagan, en su libro The
Dragon of Eden, establece una analogía como la de las siguientes líneas:
Considérese el lenguaje humano expresado de acuerdo con la moderna
versión del alfabeto occidental, con sus veintiséis caracteres y sus diez
números. A fin de especificar cada letra del alfabeto en términos del sí/no del
sistema binario hemos de hacemos una serie de preguntas como las que Sagan se
hace acerca de la letra J:
1.
¿El
carácter es una letra (respuesta 0) o un número (respuesta 1)? Respuesta: 0.
2.
¿Está en
la primera mitad (0) o en la segunda mitad (1) del alfabeto? Respuesta: 0.
3.
De las
trece letras de la primera mitad del alfabeto, ¿está entre las siete primeras
(0) o entre las seis últimas (1)? Respuesta: 1.
4.
De las
letras H. I. J, K. L. M. ¿está entre las tres primeras (0) o entre las tres
últimas (1)? Respuesta: 0.
5.
5. De las
letras H, I, J, ¿es la H (0) o está entre I y J (1)? Respuesta: 1
6.
De entre
la 1 y la J. ¿es la I (0) o la J (1)? Respuesta: 1.
Por tanto, en el sistema binario, la J se representa como 001011. Seis
“bits" de información especifican una letra del alfabeto, y los 20.000
millones de bits de información recogidos en un cromosoma son el equivalente de
más de 3.000 millones de letras del alfabeto. Los impresores dicen que hay un
promedio de seis letras en cada palabra [48]; por
consiguiente, un cromosoma contiene una información que equivale a 500 millones
de palabras; en relación con un libro parecido al que está usted leyendo, con
unas 400 palabras por página, un cromosoma es el equivalente a 3.000 libros de
500 páginas cada uno. Esto, según parece, es lo que cuesta describir la
construcción, el cuidado y el mantenimiento de un cuerpo humano. Una bacteria
de una sola célula necesita menos información y tiene una cadena de ADN más
corta; también resulta más rara la copia de errores en las réplicas de ADN, y
la evolución es más lenta.
Una vez aparecieron sobre la Tierra seres vivientes con moléculas ADN
más complejas, la copia de errores —la evolución— se convirtió en algo más
común, y no es sino eso lo que encontramos en los fósiles.
Un organismo vivo como el de un ser humano se construye a partir de las
características del ADN contenidas en la célula primitiva. En el caso de los
seres humanos, y de otras formas de vida que se reproducen sexualmente, sucede
que la célula inicial se crea por la fusión de otras dos células preexistentes,
una de cada progenitor, cada una de las cuales contienen sólo veintitrés
cromosomas, razón por la cual los hijos heredan sus rasgos de ambos
progenitores. Los cuarenta y seis cromosomas, de hecho, consisten en veintitrés
parejas que son, por razones prácticas, intercambiables, pero sólo un gen, en
cada pareja, es utilizado (para decidir el color de los ojos, la talla del
individuo, etc.); esto es muy importante para la evolución. Una vez que una
célula humana fecundada empieza a desarrollarse, los planes originales son una
y otra vez copiados siempre que la célula se divida, de modo que cada una de
mil millones de millones de células de mi cuerpo, y del de ustedes, guarda una
réplica perfecta de los planes originales de todo el cuerpo [49]. Ésta es
la base sobre la que se sostiene la idea de seres “clónicos”. Pero ya es
alejarse demasiado de la historia del origen de las especies.
La célula es la unidad fundamental de la vida tal como la conocemos,
tanto para el hombre como para la bacteria. Ignoramos cómo evolucionaron los
primeros replicadores, o cómo “inventaron” las células; pero sí sabemos que los
organismos vivientes celulares existen en la Tierra desde hace más de 3.000
millones de años, y podemos explicar, al menos en líneas generales, cómo sus
descendientes se han desarrollado y han evolucionado hasta el momento actual.
La selección de las células depende de lo bien o mal que hayan sabido
aprovechar el medio circundante, y ello, con toda seguridad, es lo que está
detrás del concepto darviniano de “selección natural”. La selección natural —un
término que Darwin utilizó tanto para hacer una distinción cuanto para hacer
una comparación con el modo como se selecciona a los animales, a fin de
obtenerlos mejores— opera en la actualidad en el nivel del ADN. Los animales o
las plantas con más éxito, en términos de evolución, son los que efectúan un
buen trabajo en el momento de transferir réplicas de sus cromosomas de ADN a
sus descendientes; éste es el concepto que hay detrás de los modernos
conocimientos sobre la evolución, expuestos con claridad por Richard Dawkins
en The Selfish Gene. El ADN no está “interesado” en el cuerpo o
célula que habita, excepto en lo que se refiere a su propia supervivencia. Como
dice Dawkins, todos somos “máquinas de supervivencia”, productos del ADN,
manipulado por nuestros genes con el fin de asegurar su supervivencia y
desarrollo. El hecho de que la vida sobre la Tierra, hoy, esté dominada por
células y organismos multicelulares, da una idea de la forma de la máquina de
supervivencia de las células en su función de elaborar réplicas del ADN.
§. Células afortunadas
Después de la aparición del primer replicador, el mejor “invento" de la
vida ha sido, sin duda alguna, la célula, un hogar seguro que protege al
replicador de moléculas de los peligros circundantes. La vida en la Tierra
puede dividirse en dos clases, sobre la base de dos tipos diferentes de
células. La diferencia entre ambas es la más profunda de todas, más importante,
incluso, que la existente entre los animales y las plantas. Ambos, animales y
plantas, están constituidos con la misma clase de células, denominadas
“eucariotas”. La etimología de este nombre es griega y significa “núcleo
verdadero", refiriéndose a la característica más destacada de estas
células, que es la presencia de otra célula en su interior, la cual contiene
los cromosomas de ADN. Ésta es la clase de célula con la que se nos ha
fabricado.
La mayoría de las células son diminutas —quizás una décima o una
centésima parte de un milímetro de diámetro—, si bien los óvulos pueden ser
grandes: la yema de un huevo de gallina, por ejemplo, es una célula simple. A
pesar de que las células de un organismo complejo, supongamos el cuerpo humano,
pueden tener formas distintas y pueden realizar funciones diferentes, todas
comparten unas mismas características básicas. La primera y más importante es
la membrana que envuelve la célula, que la preserva del mundo exterior Aunque
tenga solamente unas diezmillonésimas de milímetro de espesor, esta membrana es
capaz de controlar por completo el medio ambiente del interior, dejando entrar
algunas moléculas (“alimentos”) y salir otras (desechos). La membrana es la que
selecciona las moléculas que pueden entrar, a las que reconoce por su tamaño y
forma: en el interior, flotando en un líquido denominado citoplasma, una
variedad de estructuras especializadas controlan los procesos químicos por los
que los alimentos se transforman en energía, se transmiten los mensajes desde
el exterior, etc. El núcleo es el controlador central de toda la actividad y,
por analogía, puede ser descrito como el cerebro de la célula. Su función
prioritaria es la de almacén de información, es la “biblioteca” que posee los
detalles no sólo de las actividades de cada célula, sino del cuerpo entero en
que habitan. De entre tales estructuras, la mitocondria es la que tiene por
función transformar los alimentos en energía, mientras que los ribosomas son
los encargados de la construcción de nuevas moléculas proteínicas mediante el
uso de las materias primas químicas disponibles. Las células vegetales, a
diferencia de las animales, tienen unas estructuras portadoras de la clorofila
que son de vital importancia para el proceso conocido como fotosíntesis, por el
cual las plantas convierten la luz solar en energía. En cambio —y porque carece
de esta estructura—, no hay ningún animal capaz de convertir la luz solar en
energía, de manera que todos los animales dependen de las plantas (o de otros
animales que previamente han comido plantas) para conseguir su alimento. En
otras palabras, las células de animales y plantas se asemejan bastante.
Las células “procariotas” constituyen formadas dos familias dentro de la
variedad de la vida sobre nuestro planeta: la de las bacterias y otra forma de
vida unicelular a veces llamada alga azul-verde, pero con más precisión
concretamente (debido a su parecido con las bacterias) descrita como
cianobacteria, que es el nombre que yo utilizaré. Las cianobacterias producen
oxígeno, y esto ha resultado trascendental en la Listona de nuestro planeta
durante cientos de millones de años. Pero tanto las cianobacterias como las
bacterias son especies unicelulares que se reproducen mediante su división; no
tienen núcleos organizados y sólo una pequeña proporción de ADN que flota en su
citoplasma dentro de la membrana celular. Es obvio el motivo por el cual los
biólogos las clasifican como “pre” eucariotas. En efecto, es muy probable que
ambas familias sean derivaciones de lo que con anterioridad fueron formas de
vida del todo independientes. Lynn Margulis, de la Universidad de Boston, es
quizá la más importante defensora de dicha teoría, que asegura que las modernas
células eucariotas se desarrollaron a partir de una combinación de predecesoras
procariotas que aprendieron a vivir juntas prestándose mutua ayuda. Ambas
tienen fragmentos de ADN que recuerdan el ADN procariótico, y esta posibilidad
de que unas células evolucionen hasta convertirse en otras no es más
descabellada que la de que muchos millones de células “se junten” (o mejor,
“crezcan juntas”) para formar un animal o una planta. Es como si los primitivos
modos de vida hubieran aprendido a cooperar creando células, mientras que las
células han aprendido a cooperar para crear organismos más complejos, y,
efectivamente, en algunos ejemplos (como el de las abejas) vemos cómo seres
individuales han “aprendido" a cooperar, y todo para afianzar su
supervivencia. La vida puede ser, como vemos, muy complicada, dada la
multiplicidad de caminos abiertos a la vida en la Tierra.
Si los biólogos están en lo cierto, hemos de suponer que sólo hallaremos
evidencias de vida eucariótica sobre la Tierra desde el momento en que la vida
procariótica estuvo establecida con firmeza. Y así es; no obstante, para
comprenderlo bien, es necesario divertirnos un poco con la geología y la
paleontología (que es la disciplina que estudia los fósiles).
§. Historia de los fósiles
Digo divertirnos un poco no porque sea sencillo lo que vamos a ver, sino porque
sólo nos ocuparemos de algunos extremos, sin adentrarnos mucho en ellos. La
complejidad viene, sobre todo, cuando tratamos de interpretar los registros del
pasado de la Tierra encontrados en las rocas, y también al intentar fijar una
cronología. Una vez establecido esto, los registros encontrados nos hablan de
cómo ha evolucionado la vida, de donde deducimos que las procariotas fueron los
primeros seres en existir, al menos en lo que hace referencia a la vida
celular.
Para comprender cómo se han desarrollado la historia de la Tierra y la
de la vida en la Tierra, hemos de conocer cómo son las antiguas muestras
geológicas. El primer paso hacia la elaboración de un "calendario"
geológico lo dieron los geólogos al determinar cuáles son las rocas más
antiguas y cuáles las más modernas. En el transcurso de los siglos XVIII y XIX,
los geólogos, localizados principalmente en el Reino Unido y Europa occidental,
pergeñaron sus esquemas de divisiones del tiempo geológico y dieron a las rocas
nombres (por lo común latinizados o en griego) que aludían a las regiones
europeas en las cuales fueron encontradas; así, por ejemplo, un período de
tiempo fue bautizado con el nombre de Cámbrico, que proviene del nombre latino
que significa País de Gales, donde se hallaron muchas rocas de ese período. En
general, puede considerarse que las rocas más antiguas permanecen bajo nuestros
pies, en las partes más profundas cubiertas por sucesivos estratos de rocas
cada vez más modernas. Pero —puesto que el material de la corteza se ha
plegado, roto y deteriorado a causa de fuerzas relativas a la actividad
tectónica, con montañas enteras que han sido desplazadas de su lugar en algún
momento de su historia— esto no siempre es cierto. En cambio, lo que sí podemos
tener en cuenta como una buena guía para establecer la antigüedad de cada capa
son los fósiles que hay en los diversos estratos y que en su momento fueron
seres vivos.
Las fronteras son relativamente fáciles de determinar. La mayor división
entre eras corresponde a los cambios fundamentales que apreciamos cuando
numerosas especies, registradas en los fósiles, desaparecen durante un corto
período de tiempo (una delgada capa de roca) y son reemplazadas por otras; a
esto se llama “extinciones de fauna”. Las divisiones más pequeñas, períodos y
épocas, dependen de sutiles cambios que se registran en los fósiles de una
misma especie, lo cual explica que diversas autoridades en la materia daten de
manera disímil las fronteras entre, por ejemplo, el período Triásico y el
Jurásico. En este contexto, las fechas no son sino estimativas, con un margen
de error de varios millones de años, en un sentido o en otro: margen —aceptado—
no significativo en exceso para la datación de un período de, digamos, hace 190
millones de años. Si los fósiles son restos de criaturas vivientes —como así
es—, y si son importantes para la determinación del calendario geológico, hay
entonces un peligro evidente de incurrir en argumentos que pueden girar en un
círculo vicioso si los restos geológicos se utilizan para interpretar la
evolución de la vida en la Tierra. El fósil A, por ejemplo,
encontrado en el estrato A, es considerado biológicamente más
avanzado que el fósil Bdel estrato B, de forma que
las rocas A son consideradas más jóvenes que las B. Entonces,
tal vez, en una generación posterior, aparezca un biólogo que estudie los
orígenes de la vida y afirme que, toda vez que las rocas A son
más jóvenes que las B, la vida ha de haber evolucionado, en una circular
argumentación sin fin. Por fortuna, este problema ha sido prácticamente
eliminado por los progresos en materia de técnicas de datación realizados en
nuestro siglo XX, y me estoy refiriendo, en particular, a las técnicas que
dependen de las mediciones de la radiactividad. Así es que, a pesar de que los
calendarios geológicos actuales todavía mantienen los nombres de las divisiones
del tiempo geológico heredados de las investigaciones de siglos pasados, las
fechas de dichos calendarios están determinadas por medio de técnicas
radiactivas. Al contrario de nuestros predecesores, que solamente podían
elaborar un esquema de tiempo relativo (períodos más antiguos o más modernos),
nosotros disponemos de la información extra que nos han suministrado las
mediciones de tiempo “real” (fechas especificadas en años, aunque con un margen
de error de pocos millones de años).
A través de la curva del tiempo geológico, los isótopos radiactivos son
los más apropiados para ser usados como “relojes”, por medio de una técnica muy
semejante a la del calendario de radio-carbono, tan útil para datar muestras
orgánicas de entre 50.000 y 100.000 años de edad. Los isótopos de uranio —más
de una docena en total— son todos radiactivos y pueden desintegrarse en otros
productos. El uranio-238, por ejemplo, se transforma en plomo-206, con una vida
media de 4.500 millones de años, y el uranio-235 puede transformarse en
plomo-207, con una vida media de 710 millones de años. El hecho de que casi
todo el plomo que existe hoy día en la Tierra es el resultado de este tipo de
desintegración radiactiva constituye una indicación sobre el tiempo acaecido
desde que se formara el Sistema Solar, y sobre la intervención de elementos
pesados y radiactivos en las explosiones anteriores de supernovas que
procesaron la materia interestelar primitiva.
La segunda familia de relojes geológicos radiactivos nos la ofrece la
desintegración del potasio-40, que se transforma en argón- 40, con una vida
media de 1.300 millones de años. Todas las técnicas de medición de las edades
geológicas resultan muy difíciles en la práctica, y la técnica del
potasio-argón no es más sencilla de realizar porque el argón sea un gas, ya que
éste tenderá a escaparse, a menos que se le obstruya el paso de algún modo.
Pero estas dificultades son superables, y lo que de verdad interesa aquí es que
las mediciones exactas de las proporciones de los isótopos de plomo y uranio y
de los de potasio y argón encontradas en las muestras de roca, puedan
orientamos correctamente para determinar las edades de dichas rocas, así como
otras mediciones similares de muestras de meteoritos nos orientan para
averiguar la edad del Sistema Solar e incluso de todo el Universo.
Provistos de tal información, los registros geológicos nos dicen mucho
sobre la evolución de la vida en la Tierra. Pero los restos de fósiles
conservados en los distintos estratos de rocas no son, en modo alguno, los
únicos seres vivos en aquel entonces, y es oportuno recordar que los restos de
fósiles son siempre incompletos. Debieron de existir muchas especies —a buen
seguro la mayoría— que vivieron, se reprodujeron, evolucionaron y murieron
durante toda la historia de la Tierra sin dejar restos para que los modernos
paleontólogos puedan estudiarlos. Uno de los motivos que nos induce a pensarlo
es que, salvo contadas excepciones, sólo se han conservado fósiles de las
partes duras, por lo que las plantas y los animales blandos apenas han dejado
vestigios.
De los animales con esqueleto —animales vertebrados— son los huesos lo
que suele conservarse con más facilidad, además de la dentadura. De los seres
con concha, fueron éstas las que se fosilizaron. No obstante, en ambos casos,
los restos quizá se rompieron o trocearon antes de fosilizarse, lo cual
dificulta la labor de reconstrucción del paleontólogo. Hay diferentes procesos
de fosilización, pero en todos ellos (simplificando mucho) la parte ósea o las
conchas se ven alteradas por reacciones químicas que reemplazan sus
constituyentes originales por minerales procedentes del agua que gotea y cala
los restos. El material original, en apariencia, ha desaparecido por completo,
lavado por el agua, pero su lugar puede ocuparlo una réplica esculpida en la
roca, a veces con detalles muy precisos del animal original. Asimismo, una
concha incrustada en una roca puede también haber desaparecido, no sin dejar en
su lugar un “molde”, un perfecto exponente del original. Ocasionalmente, un
animal débil, como una medusa o un gusano, pudo morir y ser cubierto por barro,
en el cual se plasmó la forma de dicho animal; también otra clase de huellas
(pisadas, galerías de lombrices) se preservan de la misma manera. Y aquí es
donde aprovechamos para volver a la historia de la expansión de la vida sobre
la Tierra.
Un ammonites fósil, típico de la afortunada variación sobre la materia de la
vida, que proliferó en todos los océanos del mundo hace entre 300 y 200
millones de años. Copyright del British Museum (Natural History).
De las más remotas evidencias de vida sobre la Tierra disponemos gracias
a las huellas antes mencionadas (en relación con bacterias y cianobacterias),
en rocas de más de 3.000 millones de años de antigüedad. Sin embargo, apenas
hay evidencias de la existencia de modos de vida más complejos en rocas
anteriores a los 600 millones de años. La primera y capital frontera en el
calendario geológico marca el comienzo del período llamado Cámbrico. En
términos geológicos, todo lo que ocurrió hasta entonces —los primeros 4.000
millones de años (alrededor del 90%) de la historia de la Tierra como planeta—
recibe el nombre de Precámbrico, de que muy poco se sabe, al menos en
comparación con nuestros pormenorizados conocimientos sobre los últimos 500 o
600 millones de años. La misma distorsión, cual si miráramos por un telescopio
al revés, aparece en las periodizaciones más modernas de los tiempos
geológicos, debido a que conocemos mucho mejor los estratos más modernos, en
tanto que los más antiguos se han deteriorado como efecto de la erosión,
transformándose en otros materiales de más difícil identificación y estudio. De
esta forma, para los últimos 65 millones de años, a partir del comienzo del
Terciario, necesitamos una escala de tiempo más precisa que el sistema de períodos,
y, en consecuencia, dividimos el Terciario en épocas. El Terciario ocupa el 10%
del tiempo desde el comienzo del Cámbrico; y si observamos el período más
próximo a nosotros, encontramos el Cuaternario, que comenzó hace sólo 2
millones de años. Sabemos mucho más sobre el 10% más reciente del tiempo
acaecido desde el inicio del Terciario (o sea, los 5 o 6 últimos millones de
años) que sobre el resto de ese período, y mucho más todavía sobre los últimos
500.000 años, ¡y para qué hablar, por supuesto, de lo que ocurrió la semana
pasada!
§. Los primeros días
Fue durante el largo Precámbrico cuando la vida surgió sobre la Tierra, y la
evolución hizo que la vida se ramificara pronto hasta alcanzar a la gran
variedad de especies actual. El motivo por el cual trazamos una frontera entre
el Precámbrico y el Cámbrico no es otro que la propagación de formas de vida
distintas, a juzgar por los hallazgos de fósiles de estos períodos. En otras
palabras, las rocas cámbricas no se distinguen de las de los períodos
inmediatamente precedentes. Y la razón de la existencia de tanta diversidad de
fósiles a partir del Cámbrico es que los seres vivos de la época se
desarrollaron con comodidad, se fosilizaron y ahora pueden identificarse. No
obstante, hubo una enorme cantidad de seres antes del Cámbrico, pero eran
animales pequeños que dejaron muy pocas huellas, vida microscópica (formas
unicelulares), que se han conservado en restos fósiles microscópicos. Pero el
efecto del paso por la Tierra de esas formas sencillas de vida fue tan
importante como cualquier otra forma ulterior de actividad vital, puesto que,
gracias a ellas, la atmósfera, que se componía de una mezcla de los productos
desprendidos de los vapores volcánicos —entre ellos, una gran cantidad de
anhídrido carbónico— se transformó en la combinación de gases, rica en oxígeno,
que hoy conocemos, ofreciendo así una protección que fue vital para propiciar
la extensión de la vida por la tierra, y suministrando, asimismo, el oxígeno
necesario para desarrollar la actividad acelerada de la vida animal. Fue durante
el Precámbrico cuando se reunieron las condiciones para que se produjera la
explosión de la diversidad de especies. De momento no me preocuparé demasiado
en explicar cómo evolucionó cualquier criatura viviente, incluso esas
primitivas células de la cuales descendemos.
La naturaleza de la atmósfera actual de la Tierra es un legado de la
actividad de los primeros organismos unicelulares que aprendieron a vivir con
oxígeno, durante el Precámbrico. Debido a que nuestra atmósfera es rica en
oxígeno, las reacciones fotoquímicas han conducido a la creación de una capa
rica en ozono, la forma triatómica del oxígeno. Se trata de la estratosfera, la
cual actúa como “tapadera” de los sistemas del tiempo atmosférico de la
troposfera que se encuentra debajo y como escudo protector contra la
perjudicial radiación ultravioleta del Sol. La estructura estratificada de la
atmósfera se aprecia mejor mediante los cambios de temperatura con la altitud
(la región en la que la temperatura aumenta con la altitud indica que la
energía está siendo absorbida en la estratosfera); esta energía consiste casi
por entero en radiación ultravioleta que, en caso contrario, dejaría estéril la
superficie terrestre.
Si aceptamos que la evolución, sin más, ocurrió, y que los replicadores
más afortunados son, por definición, los que tienen más descendencia, de modo
que cualquier célula que accidentalmente se desarrollara con unas
características adecuadas pronto se extendería, debemos entender cómo
evolucionaron las primeras células durante el Precámbrico.
Con todos los cabos de la geología atados, los geofísicos, astrónomos,
paleontólogos y biólogos, vinculados al trabajo de lograr un esquema de proceso
evolutivo de la vida en este planeta, se repetirán en sus investigaciones sin
poderlo evitar. Sin embargo, cada vez que nos enfrentemos con algo conocido,
conviene que lo hagamos desde el punto de vista de la disciplina científica de
que se trate, que, con el concurso de las demás, nos llevará a obtener un
esquema global. En primer lugar, quizá debamos delimitar el período de tiempo
que se pretende estudiar. Los más escrupulosos de los investigadores actuales
establecen que el final del Precámbrico tuvo lugar hace 570 millones de años,
si bien en números redondos se acepta la cifra de 600 millones de años. Y los
fósiles de medusas, gusanos y animales parecidos se han registrado en rocas
datadas 100 millones de años antes del final del Precámbrico. En tiempos más
remotos aún (hace más de 700 millones de años) puede situarse la época en que
dominaron la Tierra las formas de vida unicelulares. En rocas todavía más
antiguas pueden hallarse fósiles muy peculiares constituidos por capas a modo
de una pila de hojas de papel. No ha sido hasta estos últimos treinta años
cuando los paleontólogos han confirmado sus sospechas de que esta clase de
restos son fósiles de grandes colonias de bacterias, identificadas en Sharks
Bay, en la parte oeste de Australia. No obstante, excepto en algunos lugares
especialmente hostiles a otro tipo de vida (las aguas de Sharks Bay, por ejemplo,
son demasiado saladas para la mayoría de animales), son raros de encontrar
debido a que servían de alimento a otros seres vivientes; pero su presencia
pone de relieve que la evolución de la vida no es sino el relevo de unas
especies por otras. Una vez se ha desarrollado un buen sistema de réplica y es
apropiado para un medio ambiente determinado, puede persistir durante largos
períodos de tiempo (largos comparados incluso con las medias geológicas); la
expansión de la vida sobre el planeta resulta ser así, más que nada, una
historia de su diversificación según las circunstancias ecológicas. Un ser
humano es más complejo que una bacteria, pero la bacteria es, por lo menos, tan
afortunada como una “máquina de vida” en el momento de reproducir sus propios
genes.
De este modo, volvemos a la historia de las células procariotas y
eucariotas. Los microfósiles indican, a todas luces, que las procariotas
existieron antes, y que las células más típicas del grupo de las eucariotas
entraron en escena mucho más tarde. Las diversas habilidades de las dos clases
de células revelan que esto debió de ser así, puesto que casi todas las
eucariotas necesitan oxígeno para vivir (incluso las pocas y extrañas
eucariotas actuales que no necesitan oxígeno parece seguro que proceden de antecesoras
que sí lo necesitaban), mientras que en el grupo de las procariotas hay una
enorme variedad en cuanto a grados de necesidad de oxígeno. Algunas bacterias
no pueden crecer ni reproducirse si carecen de oxígeno, otras lo toleran, pero
pueden vivir si no lo tienen, y hay una clase de procariotas que no lo
necesitan pero que, no obstante, se reproducen mejor si lo tienen, aja vez que
para otras es imprescindible en absoluto su presencia. Este es el esquema que
tendríamos si las procariotas se hubieran dividido en diversas familias,
formando diferentes especies unicelulares, mientras que el oxígeno se iba
introduciendo lentamente en la atmósfera. Y la ausencia de tal diversidad en
las necesidades de oxígeno de las eucariotas implica que las mismas sólo se
extendieron de verdad cuando la concentración de oxígeno en la atmósfera fue
similar a la actual. Estas evidencias confirman que las procariotas eran, en
efecto, “pre” eucariotas, y que representan la más antigua forma de vida
conocida hasta el presente.
§. Oxígeno y vida
La relación evolutiva entre procariotas y eucariotas se nos muestra
singularmente en la forma en que obtienen energía. En el caso de las eucariotas
—incluyéndonos a nosotros mismos—, el proceso básico por el cual los alimentos
se transforman en energía o representa la respiración, en la que la glucosa
derivada del alimento (o de la fotosíntesis, en el caso de las plantas) es
“quemada” con oxígeno para producir dióxido de carbono y agua, y así liberar
energía [50]. Algunas
procariotas, las que pueden vivir con oxígeno y utilizarlo, son capaces incluso
de realizar el proceso de la respiración, aunque la mayoría dependen únicamente
del proceso conocido como fermentación. En la fermentación, la glucosa se
desintegra sin que se produzca reacción alguna que implique a ningún material
exterior a la célula. Esto libera un poco de energía, pero nunca tanta como la
respiración.
En ambos procesos, la energía producida es “capturada” para emplearla en
la construcción de moléculas de adenosintrifosfato, que tiene un enlace químico
híper energético en los enlaces de fosfato. (Se pueden utilizar otros fosfatos,
aunque el ATP es, con mucho, el más común.) La energía sobrante se transforma
en calor, mientras que cuando la célula necesita energía, la obtiene
desintegrando el ATP. En el metabolismo respiratorio se dan dos grandes fases
para la producción de ATP. La primera, llamada glucólisis, rompe una de las
moléculas de glucosa de seis átomos de carbono en dos, cada una con tres átomos
de carbono. Estas no necesitan oxígeno y producen dos moléculas de ATP, cada
una con su propio depósito de energía. El siguiente paso, llamado ciclo del
ácido cítrico, toma una de estas nuevas moléculas y, en combinación con el
oxígeno, forma treinta y cuatro moléculas más de ATP. La fermentación es muy
parecida a la primera fase de respiración —glucólisis—, pero sin la
participación del oxígeno; esto quiere decir que por cada molécula disponible
de glucosa, la respiración produce en total dieciocho veces más energía (36
moléculas de ATP en vez de dos) que la fermentación. La respiración libera casi
toda la energía química de los enlaces de la compleja molécula de glucosa,
dejando aparte solamente las moléculas simples de agua y dióxido de carbono. A
pesar de que la similitud entre fermentación y glucólisis hace deducir que la
respiración ha evolucionado desde las procariotas, la inmensa cantidad de energía
extra suministrada por la respiración explica por qué los organismos que pueden
utilizarla se han desarrollado creando muy diversas especies (no sin incluirla
los animales, que queman energía de manera incesante con su actividad y rápidos
movimientos), en tanto que los fermentadores lo han hecho con un estilo de vida
más sedentario.
En las células musculares de los mamíferos, por ejemplo, la pérdida de
oxígeno puede tener lugar cuando la actividad prolongada provoca una demanda de
oxígeno superior a la que la sangre es capaz de suministrar. Cuando esto
ocurre, el ciclo de ácido cítrico no puede funcionar con eficacia en el método
de glucólisis. Las moléculas “extra” se transportan al hígado, donde la energía
es reconvertida en glucosa. O quizás estas moléculas son primero convertidas en
ácido láctico, transportadas a continuación al hígado y finalmente convertidas
en glucosa. Este curioso procedimiento, que entra en acción cuando las células
y el animal entero se encuentran sometidos a un gran estrés, parece ser el
responsable de que la bacteria disponga de productos en forma de ácido láctico,
y las células musculares que necesitan más oxígeno logran, en la medida de sus
posibilidades, reiniciar el proceso por el cual se suministraba energía a
nuestra antecesora unicelular en la época precámbrica, antes de que hubiera
oxígeno a disposición. En términos de diversificación y origen de las especies,
y también en términos de supervivencia genética, los genes capaces de hacer
esto han sobrevivido durante 3.000 millones de años; la razón de ello es que
jugaron la baza de una célula que puede, en un momento preciso, obtener alguna
energía si se ve privada del oxígeno. En cuanto a los humanos, los que entre
nuestros antecesores disfrutaban de dicha célula sobrevivieron y los que no,
desaparecieron. Esto ayuda a comprender el motivo por el cual un corredor de
maratón puede correr durante tanto tiempo y por qué está tan hambriento después
de una carrera.
A pesar de que algunas células pueden sobrevivir algún tiempo sin
oxígeno, incluso tratándose de organismos que lo necesitan (organismos
aerobios, en contraposición a los anaerobios), ningún proceso celular puede
tener lugar, en el caso de las eucariotas, si no hay oxígeno. Las células
eucariotas son incapaces de dividirse si no hay un poco de oxígeno, lo que
significa que los organismos eucarióticos unicelulares no se pueden reproducir
sin oxígeno: esto pone de manifiesto que sólo pudieron aparecer y evolucionar
una vez formada nuestra atmósfera. ¿Cómo, pues, y cuándo, la atmósfera se
transformó en lo que es hoy?
Si volvemos la vista atrás para responder, en primer lugar, la pregunta
“cuándo”, podemos obtener un buen indicio de la época en que apareció el
oxígeno en la atmósfera terrestre mediante la observación de los registros
fósiles precámbricos eucarióticos [51]. En
rocas siberianas de una edad de 725 millones de años han sido hallados algunos
filamentos fósiles similares a las modernas algas verdes; los microfósiles
eucarióticos del Gran Cañón se han datado en unos 800 millones de años, una
edad semejante a la de algunos microfósiles de algas encontrados en Australia.
De modo que podemos asegurar que la vida eucariótica de respiración por oxígeno
se estableció firmemente hace 800 millones de años. Más atrás en el tiempo, se
han descubierto restos muy parecidos a las células eucarióticas en rocas de
unos 1.500 millones de años, y ello incluye microfósiles tan bien conservados
que es posible distinguir la organela dentro de la célula. Pero a pesar de
haberse descubierto microfósiles con una antigüedad superior a los 1.500
millones de años, ninguno de ellos parece poder identificarse definitivamente
como eucariótico. Hace 1.500 millones de años, debió de producirse una clara
ruptura, registrada en los microfósiles encontrados, tan significativa como la
distinción que pueda haber entre períodos geológicos determinados por los
registros macrofósiles. Si no estuviéramos ahora tan sujetos al calendario
geológico tradicional, buscaríamos un nombre para este período anterior a los
1.500 millones de años — ¿el Precámbrico, tal vez?— y tal frontera indicaría la
importancia de la ruptura en cuanto a la evolución de la vida y de la Tierra
toda. Durante un período entre 3.000 y 1.500 millones de años, las procariotas
gobernaron el planeta. Luego llegaron las eucariotas, para ser seguidas de
todas las demás especies capaces de prosperar en un planeta con una atmósfera
rica en oxígeno. Y los procesos biológicos que produjeron el oxígeno, y que
continúan en la actualidad, debieron iniciar su funcionamiento durante dicho
período (hace 1.500 y 3.000 millones de años). Las llamadas formas de vida
primitivas (lo bastante “primitivas” como para haber sobrevivido eficientemente
durante 3.000 millones de años) todavía existen en la Tierra, y realizan el
mismo trabajo que sus —y nuestras— antecesoras debieron de realizar cuando no
había oxígeno, obteniendo energía de la luz del Sol por medio de la
fotosíntesis. Si bien la mayor parte de las fotosíntesis que se producen en las
plantas verdes actuales (y en las cianobacterias) liberan oxígeno a la
atmósfera como un producto totalmente acabado, algunas clases de bacterias ni
necesitan oxígeno para su metabolismo ni generan oxígeno por fotosíntesis, ni,
por supuesto, cumplen su tarea si hay oxígeno presente. Como las bacterias de
Sharks Bay, parecen sobrevivientes de una época periclitada, de un tiempo en
que el oxígeno era puro veneno para cualquier ser que viviera sobre la Tierra
(o mejor, en los mares de la Tierra, puesto que esto sucedía mucho antes de que
la vida colonizara la tierra firme).
§. Fotosíntesis
En la primera fase de la fotosíntesis, la energía de la luz es absorbida por
moléculas sensibles a una determinada longitud de onda, exactamente al revés de
lo que ocurre en el proceso por el que dichas moléculas podrían emitir energía
a distintas longitudes de onda, produciendo nítidas líneas en el espectro
electromagnético, en el supuesto de que dispusieran de un exceso de energía. La
energía solar se utiliza para conducir una serie de reacciones químicas
beneficiosas para el organismo que está realizando la fotosíntesis. Éste es un
proceso complejo en el que intervienen electrones que han sido dotados de
energía por la radiación (la de la luz del sol) y convertidos en una serie de
moléculas denominadas portadoras de electrones, resultando una pequeña
corriente eléctrica que sirve para transformar las moléculas de agua en
hidrógeno (necesario para el organismo) y oxígeno, y para transformar las
moléculas de ADP en moléculas de ATP. El hidrógeno, el carbono, el dióxido y el
ATP pasan entonces a la siguiente fase de reacciones para fabricar glucosa, en
tanto que el oxígeno, en las plantas modernas, es expulsado a la atmósfera.
Sólo en la primera fase del proceso es necesaria la luz del sol; una vez que el
ATP está presente, el organismo puede continuar el proceso en la oscuridad, por
la noche. La glucosa está entonces disponible para la compleja variedad de
reacciones químicas relacionadas con el metabolismo, tanto en el organismo que
realiza la fotosíntesis como en cualquier otro organismo que se haya comido al
anterior. Sin la fotosíntesis, no seríamos nada, excepto plantas verdes;
tampoco habría animales, ya que estos animales no pueden convertir la luz solar
en energía en forma de componentes metabolizables, de modo que dependemos por
completo de las plantas en lo que a alimentación se refiere: o bien comemos
plantas, o bien comemos animales que previamente han ingerido alguna planta
para vivir y crecer. Pero, ¿por qué plantas verdes? El color
depende exactamente de la proporción de longitud de onda de luz solar que haya
sido absorbida, y el verde representa la radiación “residual” que no se
absorbe, pero que se refleja como luz visible. Las plantas verdes utilizan
moléculas de clorofila para realizar la absorción de energía, usando luz en las
partes roja y azul-violeta del espectro, y liberan mucha de la luz solar
amarilla y verde, que es la que refleja. Esto es muy curioso, porque nuestro
Sol irradia una mayor cantidad de energía en la parte amarilla/verde del
espectro que en la roja y azul- violeta, y hay otros compuestos que pueden ser
más eficaces para la fotosíntesis que la clorofila. Así, otras plantas se han
adaptado para usar otros pigmentos, reflejando la luz roja y absorbiendo la
energía de la luz amarilla/verde, con lo que resultan plantas de color rojo.
Sabemos que tales plantas han evolucionado desde foto sintetizadores que
utilizaban clorofila porque, en realidad, todavía la usan —la energía absorbida
por los “nuevos” pigmentos se transforma primero en clorofila (un paso del todo
innecesario) y, a partir de entonces, ya recorre el camino de que se trate.
Dos cosas importantes —una definitiva, otra especulativa— pueden
aprenderse de todo ello. Primera: tal modelo, en el cual se realizan
posteriores adaptaciones evolutivas para modificar así los sistemas existentes,
es característico de cómo la evolución tiene lugar. Más ampliamente, los
animales cuyos antecesores son marinos han tenido que adaptar las aletas en
patas y brazos; los animales de tierra no han “perdido” sus aletas y luego han
“inventado” los brazos y las patas. Este modelo de cambio se ve particularmente
claro cuando se estudian los fetos, en los que se advierte que cada ser humano
se desarrolla a través de distintas fases, en las cuales parece un pez, luego
un reptil y un mamífero no primate, antes de adoptar una apariencia humana.
Esta “recapitulación” es consecuencia del hecho de que somos descendientes de
todas esas formas de vida, todas surgidas a partir de un óvulo. Los cambios se
han producido a causa del desarrollo de un diseño mejorado (o un nuevo y
desastroso diseño, pero eso no tiene importancia ahora). En cada estadio se da
el suficiente margen para cambios en el código del ADN como para originar un
modelo algo diferente a los habidos en el pasado, diferentes como puedan serlo
las versiones de 1981 y 1982 de un mismo modelo de coche. La compleja membrana
de interacciones que mantiene vivo un organismo viviente quedaría destruida si
se produjeran cambios a gran escala.
Segunda (más especulativa interpretación del singular modo en que las
plantas de la Tierra se adaptan a la luz de nuestro Sol): consiste en el
argumento de que la fotosíntesis quizá no haya sido inventada en la Tierra. Si
Hoyle y Wickramasinghe están en lo cierto, entonces es posible que incluso las
células fotosintetizadoras se hayan desarrollado en el espacio antes de que la
vida llegara a la Tierra, y tal vez la clorofila sea un pigmento mucho más
apropiado para la eficiente absorción de la luz en esas condiciones. Hoyle y
Wickramasinghe no van tan lejos en su libro Lifecloud, pero apuntan
el hecho de que los anillos químicos que constituyen la parte básica de la
molécula de la clorofila (cada anillo contiene un átomo de nitrógeno y cuatro
de carbono, C4N) están presentes en la familia de las porfirinas y
explican la absorción de la luz en el espacio interestelar a 4.430 Å. Ésta
todavía resulta una interpretación polémica de la evidencia; pero ellos dicen
que “los constituyentes básicos de la clorofila pueden muy bien haber sido
añadidos a la Tierra”, lo que sugeriría, sin duda, una buena razón de por qué
la vida sobre la Tierra debió de empezar fotosintetizando con la ayuda de la
clorofila y con la de cualquier otro componente. Una vez hubo empezado
la fotosintetización, por supuesto que los competidores nunca tuvieron la
posibilidad de realizar el proceso, ya que el material orgánico quedó
rápidamente encerrado en células vivientes, y cualquier cambio en el sistema
—como la pigmentación roja— tuvo que esperar hasta mucho después.
Volvamos al inicio de la historia de la vida sobre la Tierra. Los
primeros foto sintetizadores diferían de la mayoría de los actuales en un
aspecto esencial: no “liberaban” el oxígeno producido como residuo de la
fotosíntesis, sino que lo convertían, en combinación con otras moléculas, en un
compuesto seguro y no reactivo antes de expulsarlo de la célula. Para estas
primeras células vivientes, el oxígeno era un veneno que reaccionaba tan pronta
y violentamente contra los compuestos orgánicos que podría descomponer el
metabolismo de cualquier célula que lo dejara libre en su forma más pura.
Cuando aparecieron las primeras células adaptadas a la vida con oxígeno,
se encontraron con una enorme ventaja sobre otras formas de vida. En primer
lugar, ya no les era imprescindible reconvertir el oxígeno antes de liberarlo;
en consecuencia, es evidente que dicho oxígeno no benefició a las otras clases
de células circundantes y que no habían aprendido a tolerarlo. Una vez
aparecidos los productores de oxígeno, debieron de establecerse con mucha
rapidez por todos los océanos del mundo, y variadas evidencias muestran que la
principal transición que va desde la existencia de una atmósfera con oxígeno
libre a otra con sólo el 1%, como es la actual, se produjo en unos pocos
cientos de millones de años, hace aproximadamente 2.000 millones de años.
Tenemos una evidencia geológica en los depósitos de mineral uránico
(UO 2) hallados en algunas viejas rocas precámbricas. Si hay
oxígeno libre, este mineral se oxida con facilidad para transformarse en un
óxido de uranio con más átomos de oxígeno por átomo de uranio, U3O 8,
de manera que no podía haber oxígeno libre por los alrededores cuando se formó
el depósito, y todos son anteriores a los 2.000 millones de años. Pero la mejor
evidencia radica en los depósitos de óxidos de hierro, encontrados en cualquier
punto del planeta, y que constituyen la principal fuente de obtención de
hierro. Se conocen con el nombre de Banded Iron Formations (BIF) y tienen una
edad que oscila entre los 1.800 y los 2.200 millones de años. La más plausible
explicación de cómo llegaron a depositarse es que en el océano primigenio de la
Tierra, carente de oxígeno, el hierro estaba disuelto en su estado ferroso.
Cuando apareció el oxígeno, se puso en marcha una conocida reacción que
involucraba tanto al hierro como al agua, de forma que toda la solución ferrosa
se convertía en óxido férrico insoluble que se depositaba en gruesos estratos
en el fondo oceánico. La conocida reacción química que involucra hierro,
oxígeno y agua, y que produce el característico óxido férrico rojo-marrón, se
denomina oxidación. Con la aparición del oxígeno sobre la Tierra, todo el
hierro se oxidó. Para conseguir esto en tan breve tiempo —unos pocos cientos de
millones de años— debió de haber un buen propagador de oxígeno de algunas de
las nuevas fuentes, y sólo la fotosíntesis aeróbica (la fotosíntesis que libera
oxígeno) puede mostrar el camino que tomaron los hechos.
Muchas de las materias orgánicas que hicieron la fotosintetización
tuvieron que ser enterradas a su muerte, o su descomposición se habría servido
del oxígeno creado cuando todavía estaba viva. Los entierros en el fondo del
océano han sido siempre lo más común en el caso de los escombros orgánicos que
no han sido devorados por otros organismos vivientes. Y, por descontado, el
nivel de oxígeno en la atmósfera sólo pudo empezar a establecerse cuando los
BIF quedaron depositados, puesto que, antes de que todo el hierro se oxidara,
el oxígeno era atrapado en el óxido tan pronto como se producía. De modo que la
historia del Precámbrico, y de la influencia de la vida precámbrica en nuestro
planeta, es definitiva, al menos en cuanto ahora la conocemos. Los primeros
organismos fotosintetizadores, las procariotas anaeróbicas, tienen una
antigüedad de 3.000 millones de años. La invención de la fotosíntesis aeróbica,
de poco más de 2.000 millones de años, concede a los organismos aeróbicos
cierta ventaja; debieron de salir de las primeras formas de vida, mientras se
oxidaba todo el océano y luego se transformaba la atmósfera. Las células
eucariotas se desarrollaron hace 1.500 millones de años en un medio ambiente
estable y rico en oxígeno, después de que tal transformación se hubiera
completado y en seguida diversificado. Hace alrededor de mil millones de años,
la reproducción sexual —una invención clave, como veremos muy pronto— fue
descubierta, y durante los siguientes 400 millones de años se produjo una mayor
di versificación, que dio lugar a muy distintas especies al final del
Precámbrico.
Desde entonces, los cambios han sido rápidos. En parte, ello es debido a
la energía de que disponen los organismos capaces de utilizar oxígeno para la
respiración, energía que les permite invadir nuevos nichos ecológicos y
competir entre ellos (tanto en el sentido de evolución como en el sentido
ordinario de la palabra) para la obtención de comida. En parte, también, por la
invención de la reproducción sexual, que posibilita el que se extienda la
diversidad de las especies. Y, finalmente, porque, bajo el paraguas protector
del ozono en la nueva atmósfera rica en oxígeno, la vida se “aficionó” a la
tierra firme, un nuevo hábitat con unas nuevas formas de presión selectiva
operando sobre las especies.
§. Un escudo atmosférico
Antes de centramos en las razones biológicas de esa variedad de vida sobre la
Tierra, es oportuno ver la naturaleza de la atmósfera que hemos heredado de la
época precámbrica, una atmósfera no sólo rica en oxígeno, sino estructurada a
base de capas, que nos protegen de la fuerte radiación ultravioleta del Sol, la
cual podría hacer inhabitable la superficie terrestre. La vida alteró el medio
ambiente precámbrico más que cualquier otro proceso físico, y aún hoy vivimos
gracias a los beneficios de nuestras antecesoras las cianobacterias, de hace
más de 2.000 millones de años.
La estructura de la atmósfera resulta muy simple en términos de
temperatura. Calentado por energía solar, el suelo irradia calor hacia el
espacio en longitudes de onda infrarrojas. Parte de este calor es atrapado por
el efecto de invernadero; las nubes, la nieve y las superficies terrestres y
marina reflejan otra parte hacia fuera. A pesar del equilibrio conseguido, de
vez en cuando se producen algunas pequeñas variaciones en dicho equilibrio,
suficientes como para producir el esquema de repetición de períodos glaciales y
épocas calientes característicos de los pasados cien millones de años. La capa
más baja de la atmósfera es la troposfera y, a través de ella, la temperatura
desciende 6 ºC por cada kilómetro de altitud que se gana. El descenso de
temperatura empieza a detenerse hacia los 10 km de altitud y se detiene
totalmente a los 15 km. Entre los 20 y los 50 km, la temperatura aumenta con la
altitud, desde un mínimo de ‒60 ºC hasta los 0 ºC como máximo en la parte alta
de esta capa, la estratosfera. Este calentamiento indica que se absorbe energía
en la estratosfera: las moléculas que generan la energía son las del ozono, una
forma de oxígeno molecular con tres átomos por molécula (O3) en vez
de los dos que son usuales (O2).
Las divisiones geológicas del tiempo. Las fechas marcan el comienzo de cada
subdivisión; éstas han sido expresadas en números redondos, por lo que no
necesariamente suman lo mismo en cada columna. Las imprecisiones que afectan a
la datación de las divisiones son mayores que las diferencias de tiempo que se
constatan en las columnas, y resulta aceptable, por ejemplo, al referirse al
final del Mesozoico hablar de "unos 65-70 millones de años”, en lugar de
utilizar la incierta cifra exacta de 65 millones de años o de 70 millones de
años.
En la estratosfera, una serie de reacciones químicas dinámicamente
interrelacionadas y conducidas por la luz solar (reacciones fotoquímicas)
producen el ozono. Las moléculas de oxígeno diatómicas ordinarias se dividen en
átomos en la medida en que absorben la energía ultravioleta del Sol, y la
eficiencia con que se producen los átomos de oxígeno libres depende del
equilibrio entre el número de moléculas a dividir (más a menor altitud) y la
cantidad de energía ultravioleta disponible (más a mayor altitud). Una vez
producidos estos átomos, se combinan con otras moléculas diatómicas para dar
como resultado ozono, O3. Debido a los factores que afectan al
índice de las reacciones fotoquímicas, las concentraciones de ozono son mayores
en la banda de la estratosfera situada entre los 20 y los 30 km de altitud, y
el ozono, especialmente en dicha banda, también absorbe las ondas
electromagnéticas de una longitud de onda de 2.800 Å o menos, con lo que frena
esta radiación ultravioleta antes de que entre en contacto con el suelo. El
ozono se rompe de una manera constante en oxígeno diatómico y átomos de oxígeno
simple, pero la capa de ozono también es constantemente rellenada. Aunque las
moléculas individuales no permanecen en un único estado, la verdad es que se
mantiene cierto equilibrio, como el de un cubo agujereado que no cesa de
recibir agua de un grifo. El agua corre a través del cubo, entrando y saliendo,
pero el nivel de agua que queda dentro es siempre más o menos el mismo.
La serie de procesos interactivos que mantiene la capa de ozono se ve
afectada por los cambios ocurridos en la radiación solar, de modo que la
concentración de ozono varía según sea de día o de noche, con las estaciones
del año, y según el ciclo de manchas solares de la propia actividad solar. Se
ve asimismo afectada por la presencia de otros elementos y compuestos químicos
en la estratosfera, y los óxidos, tanto de cloro como de nitrógeno, pueden ser
muy eficaces a la hora de mudar el equilibrio de forma que la cantidad total de
ozono en la estratosfera se reduzca —por ello se ha hablado mucho de los
posibles efectos nocivos que sobre la estratosfera tiene la contaminación
procedente de varias fuentes, entre ellas los óxidos de nitrógeno liberados con
el uso masivo de fertilizantes, y los gases de cloro, flúor y carbono empleados
en algunos sprays como “propulsores” que empujan hacia fuera el útil (?)
producto, jabón de afeitar, desodorante, o lo que sea.
Encima de la estratosfera hay otra capa fría, la mesosfera, y en la
parte superior de la misma (a unos 80 km de altitud) la temperatura es de ‒100
ºC. Desde aquí hacia arriba —o hacia fuera— la temperatura deja de ser una
buena guía para conocer las condiciones del resto de la atmósfera; hacia los
500 km las colisiones entre átomos y moléculas son demasiado raras para
considerarlas como un gas continuo, mientras que las franjas exteriores son
descritas según sus propiedades eléctricas, dependiendo de la extensión en que
los átomos se hayan ionizado. Para nosotros, no obstante, lo que importa es la
troposfera, en la cual vivimos, así como la estratosfera que está
inmediatamente encima, que actúa a modo de “tapadera” sobre la troposfera
(porque el calentamiento de la capa detiene la convección, de manera que las
nubes y el clima sólo tienen lugar en la troposfera que hay debajo) y nos
protege de los rayos ultravioletas [52]. La
determinante importancia de este escudo la señala el hecho de que la radiación
ultravioleta se emplea habitualmente para esterilizar utensilios como los del
equipo de operaciones de los hospitales, los cuales deben estar libres por
completo de formas de vida tales como las bacterias. Siempre cabe especular
sobre la posibilidad de que la vida evolucione en presencia tanto de oxígeno
como de radiación ultravioleta, pero la radiación no sólo es perjudicial porque
“queme” (las quemaduras de sol son debidas a rayos ultravioletas que consiguen
atravesar la capa de ozono). La energía electromagnética en esta banda de onda
es especialmente dañina para el ADN —la “resonancia” es tan fuerte que las
moléculas se rompen o se deterioran—. Esta es la razón por la que la radiación
ultravioleta se halla implicada en el cáncer de piel, que es un resultado de
errores cometidos en la división y crecimiento de las células, motivados por la
falta de replicadores ADN. El ADN de las formas de vida primitivas, que
carecían de una piel fuerte, debió de verse muy afectado por esta clase de
problemas, tanto, que la vida tuvo que desarrollarse en el mar (que, en
cualquier caso, es donde todas las moléculas orgánicas fueron disueltas).
Quizás una criatura de concha gruesa que viviera en aguas poco profundas y a la
que no afectara demasiado la radiación ultravioleta, pudo eventualmente haber
colonizado la tierra, aunque luego, a lo peor, no hubiera encontrado nada que
comer: no obstante, una vez establecida la capa de ozono, el peligro
desapareció y algunas plantas con una piel en cierto modo delgada fueron
capaces de prosperar en la tierra para ser luego emuladas por algunos animales.
Mientras algunas interesantes evoluciones seguían teniendo lugar en el
mar, es de estas criaturas que invadieron la tierra de las que nosotros
descendemos, y es su historia la que tiene que ser estudiada si queremos
rastrear los orígenes de la humanidad. Habiendo tomado prestado el título de
este capítulo de Charles Darwin, podría parecer desequilibrado si lo terminara
con la llegada de la diversidad de formas de vida, como lo indican los fósiles
de principios del Cámbrico, hace 600 millones de años. Pero el propio Darwin
escribió que «a la pregunta de por qué no encontramos depósitos de restos
fósiles pertenecientes a... períodos anteriores al sistema Cámbrico, no le
puedo dar una respuesta satisfactoria», e incluso fue más lejos diciendo que
esto «puede ser verdadero como argumento» contra la teoría de la selección
natural. La historia del Precámbrico delineada aquí muestra que tal argumento
es falso, y que, realmente, la selección natural operó durante el Precámbrico,
donde se sientan los orígenes de las especies que hoy se ven sobre el planeta.
El relato del último 10% de la historia total de la Tierra, el desarrollo de la
vida durante el Cámbrico y también posteriormente, es el relato de una
explosiva divergencia de la vida, en comparación con el lento progreso de los
anteriores dos o tres mil millones de años, encaminado hacia una desconcertante
variedad de formas. Las mismas “reglas” biológicas y evolutivas que operaron
para producir las primitivas especies, tales como la división entre eucariotas
y procariotas, son las mismas que han producido esta diversidad de la vida
multicelular. Ha llegado, pues, el momento de examinar con más detalle esas
reglas, así como los orígenes de la diversidad de vida asentada actualmente
sobre tierra.
Capítulo VII
Los orígenes de la diversidad
Contenido:
§. El éxito del sexo
§. Respuesta flexible
§. Selección individual
§. Estrategias para la supervivencia
§. Estrategias egoístas
§. Estrategias sexuales
§. La evolución de la diversidad
§. De pez a anfibio
§. La era de los dinosaurios
§. El terreno de los mamíferos
La velocidad con que la vida se diversificó hace unos 1.500 millones de
años se debe, en gran parte, a la presencia de oxígeno en la atmósfera y al
invento de la respiración como medio para obtener energía. Con todo, la
diversificación de la vida que vemos hoy a nuestro alrededor depende con mucho
de otra invención biológica [53], la
reproducción sexual. Si usted se fija en la variedad de vida que encuentre en
su entorno, la práctica totalidad de lo que vea se reproduce sexualmente; serán
precisas dos clases de “padres” para producir una nueva generación de “copias”
del organismo. La reproducción asexual, en la que un ser genera por sí solo una
copia exacta de sí mismo, está circunscrita al mundo de los seres todavía
unicelulares, como nuestros antecesores precámbricos, si bien algunas pocas
especies visibles, como el pulgón y varias especies de plantas, son tan capaces
de reproducirse sexual como asexualmente. El sexo, es claro, representa una
gran ventaja en el juego de la selección natural, y ha existido, en números
redondos, desde los últimos mil millones de años. Los registros fósiles de los
primeros animales conocidos —medusas, gusanos y corales— datan de hace entre
650 y 700 millones de años, pero la complejidad de estos organismos
multicelulares muestra que fueron fruto de procesos evolutivos iniciados
cientos de millones de años antes de su aparición. De modo que cualquier
estudio sobre la diversidad de la vida sobre la Tierra, y del camino evolutivo
particular que llevó al origen del hombre, debe empezar unos cien mil millones
de años antes del término del Precámbrico. No sabemos con exactitud cómo ni
dónde surgieron los primeros antecedentes multicelulares de reproducción sexual
de los que ahora son animales de tierra, aunque podemos adivinar cómo se
desarrolló la reproducción sexual y por qué tuvo tanta fortuna. Sí sabemos, sin
embargo, que, así como los factores biológicos afectan a la proporción de
cambios evolutivos y a la diversificación de la vida al final del Precámbrico y
durante el Cámbrico, hubo también cambios en el medio ambiente físico que
debieron de desempeñar un papel importante por las presiones evolutivas que los
mismos causaron.
En la historia que sigue menudearán las divisiones del tiempo geológico.
La división principal se da en eras, con el Paleozoico, de 375 millones de años
y que termina hace unos 225 millones de años, inmediatamente después del
Precámbrico. El Mesozoico cubre un tiempo que va desde los 225 millones de años
a los 65 millones: y la era presente, el Cenozoico, cubre los últimos 65
millones de años. Dentro de la vasta era paleozoica existe una subdivisión en
períodos: Cámbrico, Ordoviciense, Silúrico, Devónico, Misisipiense,
Pensilvaniense y Pérmico, teniendo en cuenta que durante un tiempo los períodos
Misisipiense y Pensilvaniense estuvieron unidos en uno, el Carbonífero, hasta
que estudios de las rocas de América del Norte aconsejaron la subdivisión.
Hasta cierto punto, podríamos decir que el Paleozoico está dividido en una
primera parte temprana (Cámbrico, Ordoviciense y Silúrico) y en una segunda
tardía (Devónico, Misisipiense, Pensilvaniense y Pérmico). Esta división a gran
escala se relaciona —según sabemos ahora— con los cambios físicos que han
tenido lugar en la superficie de la Tierra, cambios que fueron particularmente
importantes para la vida sobre la Tierra de aquel tiempo.
El primer Paleozoico corresponde al rompimiento de Pangea I, y el
Paleozoico más moderno al reagrupamiento de los continentes en Pangea II. Como
ya se dijo en el capítulo 4, el rompimiento de un continente conduce de manera
inevitable a una diversificación de la vida, debido tanto a la aparición de un
nuevo medio ambiente y destrucción del antiguo, como al hecho de que grupos de
organismos vivos de los lugares someros de las costas ven roto su contacto en
esas zonas, pasando a un nuevo continente. Los dos grupos pueden, a partir de
entonces, seguir caminos evolutivos separados. En el capítulo 4 ya expliqué en
qué consistía la evolución y la diversificación de la vida, mientras utilizaba
la evidencia de los cambios en los registros fósiles para apoyar la idea de la
fragmentación de Pangea I; ahora, por fin, puedo volver a aquel cabo suelto,
una vez asentadas las bases geofísicas, para reanudarlo y terminarlo de un modo
adecuado, explicándolo desde el punto de vista de la vida. Es importante
recalcar que durante un largo período que empezó hace menos de mil millones de
años, habiéndose inventado el cuerpo multicelular y la reproducción sexual, la
vida pudo implantarse físicamente muy bien. La Tierra entró en una considerable
calma, comparada con su violenta y turbulenta juventud, y en el primer
Paleozoico parece que hubo un período de quietud relativamente largo, en
sentido geofísico. Siguió una época de hielos que afectó a buena parte del
globo (muchos sugieren que el frío de esta época de hielos fue uno de los factores
que hicieron de la posesión de una concha una ventaja evolutiva, lo que nos
condujo a la gran variedad de restos fósiles que marcan el comienzo del
Cámbrico). Así que la frontera Precámbrico/Paleozoico escogida en razón a los
cambios biológicos indicados por los restos fósiles “parece” que se halla unida
a cruciales sucesos geofísicos: el final de una época de hielo y el rompimiento
de Pangea I. Naturalmente, esto no es ninguna coincidencia. La historia de la
vida sobre la Tierra está en íntima ligazón con los cambios geofísicos, y la
gran diversificación del Paleozoico tuvo lugar en un mundo que se estaba
calentando tras una época de hielos, con masas de tierra que se separaban para
proporcionar variados hábitats para la vida. Pero fue gracias al sexo, tanto
como al resto de factores, por lo que la vida fue capaz de explotar esa
particular oportunidad, agarrándose a ella, por decirlo de algún modo, con las
dos manos.
§. El éxito del sexo
Para entender por qué la reproducción sexual goza de tanta ventaja, tenemos que
volver a la reproducción molecular, donde el ADN es copiado y transferido de
generación en generación. Una molécula de ADN, con sus filamentos dobles en
espiral emparejados con enlaces químicos que enlazan parejas particulares de
moléculas, se parte por la mitad para formar dos filamentos simples.
Posteriormente, cada uno de ellos reconstruye sus respectivas dobles hélices
seleccionando nucleótidos del material biológico que lo rodea. Los cuatro
componentes que constituyen el alfabeto de cuatro letras (A, C, G y T) del ADN
sólo forman dos clases de enlaces:
Un grupo de tres "letras" del alfabeto del ADN se denomina codon,
y corresponde a un determinado aminoácido.
A A siempre con Ty C siempre
con G. De modo que si una hélice no está atada, un enlace roto
puede abandonar a A en un lugar determinado de una molécula y
a T en su correspondiente lugar de la otra. La A sólo
se recombinará con otra T, y la Tsólo con otra A,
de manera que los dos filamentos simples (ambos son la mitad de uno entero) se
recomponen en una nueva molécula ADN, igual a la original. Es como si de un par
de zapatos, separados y arrojados sobre un montón de zapatos viejos, cada uno
se emparejara con otro diferente creando una nueva pareja, el izquierdo con un
nuevo derecho y el derecho con un nuevo izquierdo. Es, sin embargo, un poco más
complicado en el caso del ADN, donde cientos de miles de anillos, que contienen
millones de nucleótidos, tienen que ser desemparejados, separados y vueltos a
emparejar, tratándose de una bacteria, todo en veinte minutos, que es el tiempo
que tarda una célula en dividirse.
Cuando el ADN transmite mensajes sobre el funcionamiento de la célula o
del cuerpo en que habita en la forma de instrucciones de cómo construir
moléculas proteínicas, el proceso resulta algo diferente. Lo que ocurre
entonces, según parece, es que sólo parte de la molécula se “desata”, dejando
un lazo libre de ADN con las bases de su código de cuatro letras expuestas
durante una secuencia, deletreando un determinado mensaje. Esto actúa como de
plantilla para la construcción de una molécula ARN (por razones obvias, llamado
ARN “mensajero”) fuera del grupo químico de material celular, el pequeño y
caliente estanque que las células todavía conservan desde los tiempos del caldo
primitivo. El ARN (ácido ribonucleico) es similar al ADN, pero no del todo
idéntico; en concreto, utiliza una base diferente (U en vez
de T) en su código de cuatro letras. Cuando el ADN deletrea ATA, por
ejemplo, el ARN copiado del ADN deletrea UAU. Pero esto la célula
ya lo “sabe”, por ello no causa ningún problema; la completa molécula de ARN es
liberada por la de ADN, que cómodamente vuelve a su forma original, y el
mensaje de ARN se utiliza luego para controlar la construcción de las proteínas
necesitadas en cada momento. Tal como ocurre, es una historia larga y
fascinante, pero desde la perspectiva de la evolución no reviste demasiado
interés para que ahora me entretenga en proseguirla; lo que importa es que el
ADN pasa los mensajes que mantienen el cuerpo en funcionamiento, y que, más
importante todavía, controla el crecimiento del cuerpo a partir de una simple
célula.
Cada filamento individual de la molécula vital del ADN puede ser considerado
como la columna vertebral a la que se adosan las ramas laterales A, G, C y T.
La molécula de ADN completa, compuesta por dos filamentos, se dispone como una
doble hélice con las ramas laterales opuestas unidas para formar los
"peldaños" de una "escalera helicoidal”. Si imaginamos la
espiral desenrollada de modo que recobre la forma de una simple escalera, es
más fácil apreciar cómo se enlazan las partes opuestas. La rama A sólo puede
emparejarse con la T, y la G sólo con la C. De este modo, aunque cada una de
las cuatro ramas tiene una longitud diferente, todos los peldaños posibles (AT
o GC) resultan de la misma longitud, y todas las unidades de la escalera
encajan perfectamente.
Si el ADN transferido a la célula de la siguiente generación contiene el
error de copia, el descendiente entonces será diferente a sus padres. Muy a
menudo estas mutaciones son perjudiciales, el descendiente muere o tiene más
dificultades para reproducirse, y esto resulta el final de la historia. A
veces, no obstante, el error es un avance que hace más fácil la reproducción
del descendiente de lo que fue para sus padres, así como favorece otras
relaciones, en cuyo caso son los progenitores los que mueren o se ven obligados
a vivir en un determinado medio ambiente donde todavía pueden sobrevivir formas
de vida antiguas, como ocurre en los mares salados de Sharks Bay.
Nosotros tenemos en nuestras células una cantidad mayor de ADN que
nuestros antepasados unicelulares del Precámbrico. El material extra se ha
construido a base de errores en los que segmentos de ADN se han duplicado por
errores que han encauzado el “aprendizaje” del ADN “extra” para que sea capaz
de realizar un trabajo útil. Al mismo tiempo, segmentos de ADN pueden haberse
perdido, de modo que no tiene por qué ser exclusivamente más “avanzada” una
célula con más ADN, evolutivamente, que otra con menos. Pero las reglas de la
reproducción son semejantes, se tenga más o menos ADN, de modo que, una vez
más, será mejor echar una ojeada a ejemplos modernos para descubrir cómo
funciona la evolución, esperando que en tal evolución se haya jugado con las
mismas reglas desde que existe vida en la Tierra, y, muy en particular, desde
que existe la reproducción sexual en la Tierra. El ADN está formado por
cromosomas (cuarenta y seis en el hombre, cuarenta en el ratón y, por si ello
le hace sentirse superior, cuarenta y ocho en la patata), y los cromosomas
están constituidos por subunidades llamadas genes. Los genes están hechos de
ADN y transportan mensajes específicos en el alfabeto de cuatro letras (A,
T, C y G) propio del ADN. Cada célula del cuerpo es
portadora de los planes del ADN que describen la construcción, cuidados y
mantenimiento de todo el cuerpo, si bien todavía desconocemos cómo el control y
la liberación de ciertas proteínas hacen que sean diferentes las células de un
ser humano, las de un ratón o las de una patata. Un gen puede transportar un
mensaje elemental, como el que determina el que se tengan ojos azules, pero,
por regla general, cada gen afecta a diversas partes del cuerpo y de manera
desigual; cada parte del cuerpo está construida de acuerdo con una combinación
de instrucciones de los diferentes genes. Éste, junto con las estupendas
posibilidades combinatorias de genes que la reproducción sexual permite, es el
motivo por el que las personas son tan distintas unas de otras. Para
simplificar podemos decir, pues, que los genes son los componentes básicos del
código que describe cómo se construye un cuerpo (código genético), y podemos
pensar que cada gen, o grupo de genes, es portador de un mensaje tan elemental
como el de “ojos azules”, “piernas largas” o “piel oscura”. Los errores en la
copia de los genes —mutaciones genéticas— ocurren en todo momento y, aunque hay
una enorme presión selectiva para copiar con exactitud, existe también un
enorme número de copias de cada gen. Con 4.000 millones de seres humanos sobre
la Tierra, por ejemplo, prácticamente cada gen aparece de una forma mutada en
un cuerpo humano u otro, aun cuando casi 4.000 millones de copias perfectas de
cada gen están también presentes en el “patrimonio genético” de la humanidad.
O, mejor, no los 4.000 millones de copias de cada gen, puesto que
debe de haber distintas versiones del gen, por ejemplo, del color de los ojos.
Para controlar el funcionamiento de la célula (y del cuerpo), una sección
del ADN se separa y se desenrolla. Los peldaños rotos de la escalera actúan
entonces como molde sobre el que se forma una cinta de ARN mensajero. Éste
imita con exactitud la imagen de espejo de la cinta de ADN, con la diferencia
de que la base U sustituye a la base T. El ARN mensajero actúa de fundamento
para la construcción de aminoácidos, mientras que el ADN vuelve a cerrarse de
nuevo como una cremallera.
Cada ser humano transporta cuarenta y seis cromosomas, veintitrés de
cada progenitor. De modo que cada ser humano tiene dos grupos de genes, y el
gen del color de los ojos heredados de la madre puede decir “marrón”, mientras
que el del padre puede decir “azul”. En este caso particular, el ser humano
construido según estos planes del ADN no tendrá un ojo marrón y otro azul; el
gen azul es “recesivo” y el marrón “dominante”, de manera que en la práctica,
los dos ojos serán marrones y el gen azul quedará ignorado. Tales genes
“competitivos”, que ofrecen formas divergentes de construir un cuerpo humano,
reciben el nombre de “alelos”; en el ejemplo del color de los ojos hay otros
“alelos” en el patrimonio genético, aunque cada individuo sólo puede tener dos,
uno de cada progenitor. Evidentemente, los dos pueden decir lo mismo —ordenar
“ojos azules”, por ejemplo—, en cuyo caso no hay conflicto. Cada uno se ha
producido por mutación de una versión previa del gen, y es muy posible para un
elevado número de genes mutados —“alelos”— existir en la población de una misma
especie. Ésta es una característica clave del mecanismo de la evolución.
Pequeños cambios continuados en los genes hacen que haya variedad; si las
circunstancias cambian tanto que un “alelo” particular resulta favorecido, se
extenderá con rapidez por el patrimonio genético, desplazando a sus rivales,
porque los cuerpos en los que viven mueren jóvenes o fracasan en el intento de
reproducirse. Una nueva población, una variación en la forma de las especies, queda
establecida, y luego, el lento proceso de la evolución creará versiones
diferentes, nuevos “alelos”. Las mutaciones no suceden repentinamente,
produciendo espectaculares alteraciones físicas en el cuerpo del nuevo
individuo, comparado con el cuerpo de sus padres. Tampoco tienen lugar las
mutaciones “en respuesta a” los cambios ecológicos; los cuerpos de los animales
del final del Precámbrico no “sabían” que el tiempo se estaba enfriando, o que
había más depredadores, sin embargo les nacieron conchas de protección. Sin
duda debieron de tener un “alelo” de piel dura en competencia con otro de piel
más débil. Cuando el clima cambió, o se extendieron los depredadores, los
individuos de piel débil murieron, y sólo los poseedores de piel dura lograron
sobrevivir. La repetición de tal proceso a través de muchas generaciones ha
producido animales con conchas duras.
Tomemos un hipotético ejemplo humano. Aun cuando el “alelo” de ojos
azules es recesivo, se ha prodigado aparte de la población humana, y puede
estar presente incluso en personas de ojos marrones. Supongamos que algún
cambio en la naturaleza de la radiación del Sol da una ventaja a los ojos
azules (no es muy probable en el ambiente protegido de nuestras grandes
ciudades, pero sí bastante plausible para los cazadores de las planicies
herbosas). En tal caso, los ojos azules se extenderían con mucha rapidez; los
“ojos marrones” quizá morirían por inanición porque no verían bien para cazar,
y, haciendo las cosas un poco más complicadas, si alguien con ojos marrones
tuviera un hijo de ojos azules sobreviviría si su hijo cazara lo suficiente
para los dos, mientras que una persona de ojos marrones cuyo hijo también fuera
de ojos marrones no podría subsistir.
Cuanta más variedad genética haya en una población, mejor podrá
adaptarse a las circunstancias cambiantes. (La adaptación, en este sentido,
significa que todos los miembros de la población con genes inadecuados mueren y
los que sobreviven siguen adelante. La supervivencia de los genes es el proceso
dominante y la fuerza conductora de la evolución.) Y la reproducción sexual es
el método más eficiente de los conocidos para asegurar la variedad genética en
una población.
Cuando las células se dividen para producir un cuerpo en crecimiento,
los cuarenta y seis cromosomas —o mejor, los veintitrés pares de cromosomas—
son copiados por duplicado, una mitad para cada una de las células resultantes
de la división. Este proceso de división celular se denomina mitosis y es casi
idéntico a aquel por el cual un organismo unicelular hace copias de su ADN
antes de partirse en dos (la principal diferencia estriba en que mientras estas
dos células siguen una vida independiente, en el caso de los organismos
multicelulares las dos células se juntan y colaboran en la formación de un todo
mayor). No obstante, en el primer estadio de la reproducción sexual tiene lugar
una forma distinta de división celular denominada meiosis. En la división celular
meiótica, partes enteras de cromosomas son separadas e intercambiadas en
parejas para formar nuevos cromosomas que contengan los mismos genes que los
padres, pero reorganizados en una combinación distinta.
|
Este modelo de la molécula de la vida, el ADN, muestra con toda
claridad cómo las dos hélices se hallan unidas mediante moléculas que forman
los "peldaños” de la escalera en espiral. Copyright del British Museum
(Natural History). |
|
Entonces la célula se divide, sin copiar los cromosomas, en un proceso
de dos fases del que resultan células sexuales (espermatozoides o huevos en los
animales), cada una de las cuales sólo contiene un grupo de veintitrés
cromosomas.
Debido a la gran longitud de los cromosomas y a la cantidad de material
genético que contienen, este proceso de separar partes de un cromosoma e
intercambiarlas con material procedente de otro, origina una enorme variedad de
nuevos cromosomas, y virtualmente no hay ninguna posibilidad de que entre dos
espermatozoides u óvulos producidos por un mismo individuo coincidan idénticas
instrucciones sobre cómo debe ser construido el nuevo individuo. El proceso de
intercambio es calificado con acierto de “entrecruzamiento”; una buena analogía
podría ser el barajar un juego de cartas, aunque la analogía más atinada sería
la de barajar dos juegos de cartas y luego intercambiar cartas de los dos
juegos. Esto asegura que cada generación tenga nuevos modelos de reorganización
genética a partir de la variedad de cromosomas disponible. Entre otras cosas,
quiere decir que aunque, en principio, usted pueda examinar el material de una
de sus propias células e identificar los veintitrés cromosomas que proceden de
su madre y los veintitrés que proceden de su padre, los exámenes similares que
se hagan de los veintitrés cromosomas de una de sus células sexuales no nos
dirimirán de cuál de sus progenitores proceden. Las veintitrés contienen parte
del ADN de ambos, es decir, de los abuelos del nuevo ser humano que se
desarrollaría si aquella célula sexual se fundiera con una del sexo opuesto.
Éste, desde luego, es el siguiente estadio de la reproducción sexual. El
organismo no puede reproducirse por sí solo, sino que debe encontrar un miembro
del sexo opuesto con el que aparearse. Cuando ello ocurre, dos células
sexuales, cada una con veintitrés cromosomas, se fusionan y consiguen una
célula de cuarenta y seis cromosomas emparejados. El proceso de construcción de
un nuevo cuerpo ya puede empezar, con los detalles específicos de cada estadio
de la construcción leídos por un miembro de un par de cromosomas de acuerdo con
que el “alelo” de aquella particular fase de desarrollo sea dominante o
recesivo sobre un cromosoma u otro.
Hay desventajas obvias en este método de reproducción; el dar con un
compañero tal vez se haga dificultoso, y la necesidad de buscarlo puede exponer
al organismo a unos peligros que se evitarían de poder esconderse en algún
lugar y reproducirse asexualmente. Desde el punto de vista de los genes
egoístas de Dawkins, ello también significa —en términos genéticos— que cada
padre contribuye sólo con la mitad de sus características a la formación del
siguiente individuo, en vez de asegurar que la totalidad de sus genes pasen
íntegros.
En suma, todo este rompimiento de cromosomas y entrecruzamientos de ADN
es lo que permite que se produzcan errores en el proceso de copia.
§. Respuesta flexible
Pero todo ello, al final, puede resultar ventajoso si se logra la suficiente
variedad como para asegurar una respuesta flexible a los cambios acelerados en
las condiciones ambientales, pero no tanto como para que al descendiente le
resulte difícil reproducirse. Claramente, las ventajas de la reproducción
sexual superan las desventajas, si no, yo no estaría aquí escribiendo este
libro y usted no estaría leyéndolo. La variabilidad es, con toda seguridad, la
clave del éxito de la reproducción sexual, la variabilidad asegurada por todos
los genes mezclados, y la provisión de dos juegos de cromosomas, con muchos
“alelos” alternativos, de parte de los dos progenitores. Las circunstancias en
las que la variabilidad es altamente ventajosa se ven observando las especies
de plantas y animales capaces de reproducirse tanto sexualmente como
asexualmente —es obvio que la evolución, a lo largo de cientos de millones de
años, ha seleccionado tales organismos sobre la base de la eficiencia en su reproducción,
y los supervivientes actuales deben ser los que utilizan el sistema de
reproducción sexual de una manera eficiente. Resulta que el estadio de
reproducción sexual se asocia siempre con la dispersión de los descendientes
hacia nuevos e inciertos hábitats. Un ejemplo clásico nos lo proporciona el
comportamiento de los parásitos que se reproducen con mucha rapidez,
ocasionando una explosión de población en su mundo animal, por medio de la
reproducción asexual. Pero cuando a los descendientes llega el momento de
abandonar su mundo y buscar otros lugares donde vivir, entra entonces en juego
la reproducción sexual; en vez de crear descendientes idénticos, la nueva
generación contiene la variedad que la reproducción sexual hace posible. Muchas
de las nuevas variedades perecerán sin encontrar su medio; pero en la medida en
que algunos, gracias a la mezcla de sus genes, consigan adaptarse bien al nuevo
medio que escojan (o que les escoja a ellos), la especie sobrevivirá. Y, lo que
es más importante, en tal caso los genes que controlan el modo de reproducción
del parásito sobrevivirán también; a los genes no les “preocupa” el que la
especie sobreviva o no, sólo que sean copiados tan a menudo y de la manera tan
esmerada como sea posible.
Estos y otros estudios similares demuestran que la reproducción sexual
es el mejor sistema para la adaptación de los genes a un nuevo o cambiante
medio ambiente. Esta es exactamente la situación reinante en las postrimerías
del Precámbrico y el comienzo del Paleozoico; la atmósfera de la Tierra estaba
cambiando, con un incremento en la concentración de oxígeno; el clima cambiaba,
entrando y saliendo de glaciaciones; y los propios continentes se movían,
rompiendo Pangea I. Poca duda cabe de que la reproducción sexual recibió tal
impulso, ya que durante 600 millones de años o más la reproducción asexual fue
incapaz de competir. Desde el Precámbrico, han tenido lugar amplios cambios en
el medio ambiente para asegurar que la reproducción sexual continuara siendo
ventajosa durante mucho tiempo. No obstante, es interesante especular con que
quizá hoy no suponga ninguna gran ventaja la reproducción sexual para los seres
humanos. Tenemos un medio ambiente estable, comparado con los acontecimientos
devenidos en la Tierra a lo largo de su historia, e incluso estamos aprendiendo
a controlarlo según nuestras necesidades, evitando así tener que adaptamos a
sus variaciones. (Si hace frío, ponemos en marcha la calefacción o nos cubrimos
con un abrigo, sin que nadie muera de frío y dejando que los individuos más
fuertes leguen sus genes de resistencia a las generaciones sucesivas.) Los
riesgos de la reproducción sexual podrían muy bien superar las ventajas, tal
como son nuestros genes, aquí y ahora. El problema, desde el punto de vista de
los genes, es que éstos han construido máquinas de subsistencia —los cuerpos—
de tal complejidad que la reproducción humana asexual no cuenta con posibilidad
alguna: la mutación necesaria sería tan extrema que la hace extraordinariamente
improbable [54].
Esto resalta el problema principal, desde el punto de vista de los genes
egoístas, de los grandes organismos multicelulares. Los cambios que se
produzcan en el organismo tienen que ser sutiles y, más o menos, a distancia.
El cuerpo se ha formado para que desempeñe su trabajo de reproducción y
propagación de genes, pero los pormenores de cómo y cuándo realiza este trabajo
se vuelven más complejos a medida que el organismo se vuelve también más
complejo, abriendo la posibilidad de que los mejores planes de los genes se
descarríen. Aun así, en tanto que el organismo no sea inteligente —y,
sorprendentemente, cuando es inteligente—, los genes se las arreglan muy bien
ellos solos, tal como prueban los nuevos estudios sobre las bases genéticas de
la evolución.
§. Selección individual
Lo más importante, en razón de su importancia para nuestra comprensión de la
evolución, el origen de las especies y la expansión de la diversidad, sobre el
concepto —por ahora finalmente establecido— de los genes egoístas, es que
implica que el trabajo de selección se haga a nivel individual. Es un individuo
el que vive o muere, se reproduce o fracasa en el intento, y son los genes del
individuo los que pasan (o no) a otro individuo (o individuos) en la siguiente
generación. La vieja idea de selección de grupo, el que los individuos de una
especie se comporten de acuerdo con las conveniencias del grupo, está
desacreditada por completo. Y no es fácil decirlo cuando la idea de la
selección de grupo ha sido tan espléndidamente popularizada por las series de
libros de Robert Ardrey. Debe de haber una generación entera de no científicos,
o incluso de científicos especializados en otros terrenos, que han detenido sus
conocimientos sobre la evolución en general, y la humana en particular, leyendo
los libros de Ardrey. En cierto modo, estos libros están soberbiamente
escritos, y con una ingente información sobre el pasado. Lo que ya no es tan
perfecto es su explicación del pasado en términos de selección de grupo, que,
desafortunadamente, a duras penas es un error que pueda ser encubierto.
Así es que, en parte gracias a Ardrey, la idea de selección de grupo
está muy arraigada en la mitología popular. La todavía popular idea consiste en
que los individuos son meros “peones” en la lucha por la supervivencia que
pueden ser sacrificados “por el bien de la especie”, incluso llegando al
suicidio individual si ello ha de servir de ayuda. El ejemplo clásico nos lo
proporcionan los animales que con sus llamadas o signos de alarma alertan de la
presencia de algún depredador, aun a riesgo atraer la atención del depredador
sobre sí mismos. De fijo, se dirá, esto debe ser altruismo (¿arriesgándose
mientras se deja que los otros escapen, por lo mismo que los humanos, en una
emergencia, ganan medallas?). Claro que no. Este género de comportamientos
pueden explicarse desde la perspectiva de la supervivencia de los genes que
habitan en el cuerpo individual, asumiendo que ni los cuerpos ni los genes se
preocupan por la supervivencia de la especie, sino sólo por la de los genes
mismos. No obstante, esto da un significado ligeramente distinto al término
“selección individual”, puesto que son los genes individuales, o grupos de
genes, los que son seleccionados. Si uno individual muere, el hecho no reviste
demasiada importancia para los demás genes, siempre que las copias de los genes
individuales sobrevivan en otros cuerpos. Y a partir de esta sutilidad
adicional, expertos como Richard Dawkins y John Maynard Smith tienden a
explicar rarezas tales como llamadas de alarma y aparentes comportamientos
suicidas.
Cada individuo, hay que recordarlo, hereda la mitad de sus genes de su
madre y la otra mitad de su padre. De manera que hay un “parentesco” de 0,5
entre hijo y progenitor. Cada hijo recibe una mezcla proporcional de genes de
sus padres, aunque no la misma mezcla en todos los casos; hay la misma
posibilidad de que los hermanos (o hermanas) de un individuo tengan o no en
común un gen particular, esto es, la proporción en que los hermanos comparten
sus genes. De manera que los hermanos también tienen un parentesco de 0,5. La
idea puede extenderse fuera de lo que es la familia inmediata: un sobrino, por
ejemplo, tiene un parentesco de 0,25 con su tía, toda vez que ésta comparte la
mitad de los genes con su hermano, que es el padre de su sobrino, y el padre
comparte la mitad de los genes con su hijo. Y los primos hermanos, siguiendo
con esos ejemplos, tendrían una relación de un octavo. En lo que a un gen
individual concierne, dentro del cuerpo humano o de cualquier otro en el que
viva, lo importante es ver qué copias de sí mismo pasan a la siguiente
generación. En términos evolutivos, no importa que esos genes hayan pasado a un
hermano, a un primo o a cualquier otro pariente más lejano. Y en tanto cada uno
de ellos comparta la mitad de un gen individual, todos los
genes de un individuo pueden preservarse si dos hermanos sobreviven y se
reproducen. Esto es lo que hizo que J. B. S. Haldane dijera, hace más de
veinticinco años, que «daría su vida por dos hermanos u ocho primos», algo que
no debe tomarse al pie de la letra, pero que pone de relieve que si existe
algún gen por razones altruistas —por ejemplo, el gen que alerta— no importa
que el animal que da la alarma sea devorado, puesto que gracias a su acto
“altruista”, copias de ese gen particular quedan preservadas en los cuerpos de
otros animales.
Esto, sin embargo, sólo puede aplicarse en un sentido estadístico y para
un número razonablemente amplio de animales. Una pareja determinada de
hermanos, por ejemplo, puede tener tan sólo el 40% de genes en común, o el 75%,
o cualquier otra cifra. En cualquier caso, los otros animales no “saben” cuáles
son sus hermanos o primos a la manera en que los animales humanos sí lo saben.
Más importante todavía, ningún animal —ni siquiera humano— actúa, al ver a otro
miembro de su especie en peligro, calculando primero qué clase de relación les
une para, sólo luego, ofrecer el auxilio necesario. Fue Haldane, nuevamente,
quien comentó en una publicación científica sobre genética de población que «en
las dos veces que he sacado del agua a personas que se estaban ahogando...
nunca tuve tiempo de hacer tales cálculos». Lo que sucede en realidad es que, a
través de muchas y muchas generaciones, la evolución ha seleccionado a los
genes que observan un comportamiento altruista para así favorecer la expansión
de dicha clase de genes. Los genes “temerarios”, que protagonizan
espectaculares actos de heroísmo a la más mínima oportunidad, no suelen
expandirse debido a que carecen de tantas posibilidades de reproducirse; los
genes “tímidos”, que nunca previenen a los otros miembros de la especie aunque
el peligro sea ostensible, tampoco tienden a expandirse, porque el peligro
evidente agobia tanto a la criatura tímida como a los de la misma especie que
la rodean, los más íntimamente relacionados con ella. El gen que avisa del peligro,
y que se comporta con prudencia, es el que mejor sobrevive de todos, sino en un
cuerpo, pues mala suerte, pero todos sus parientes corren o vuelan hacia otro
lugar, a vivir y a respirar otro día.
La conclusión evidente de que éste es el mecanismo básico de selección
la obtenemos cuando hacemos números. Es posible hacer ecuaciones que describan
el comportamiento, en términos matemáticos (estadísticos), de gran número de
individuos que obedezcan reglas bien definidas, tanto si esos individuos son
animales que emiten avisos de alarma, como si están implicados en exhibiciones
de emparejamiento, como si son moléculas que fabrican gas. Con ejemplos mucho
más complicados que los que yo he dado, Maynard Smith, en particular, ha
desarrollado modelos para determinar qué tipo de comportamientos “debe” dominar
en la sociedad animal en diferentes circunstancias. La rama de las matemáticas
utilizada por él y sus colegas es la denominada teoría de juegos, y posee una
sólida base gracias a los esfuerzos realizados a lo largo de los años en varios
intentos de simular guerras y de predecir la clase de estrategia de ataque o de
defensa antes de ponerlas en práctica. En el centro de la aplicación que
Maynard Smith hace de la teoría de juegos al comportamiento animal, está la
idea de una “estrategia de la evolución estable”, un modelo de comportamiento
que persistirá en la población, aunque los individuos vengan o se vayan en el
curso de muchas generaciones, porque cualquier estrategia alternativa que
algunos individuos de la población sean capaces de desarrollar, no resultará
tan buena como la estrategia estable de evolución.
§. Estrategias para la supervivencia
Esto tiene una particular importancia porque la aproximación de la teoría de
los juegos trata a los individuos como a individuos que realizan lo que es
mejor para ellos, no lo que es mejor para las especies; los individuos actúan
por su propio bien. Lo que vemos, en el correr del tiempo, es una evidencia
clara de que las especies, siguiendo pautas de comportamiento que al principio
pueden parecer orientadas a su propio bien común, lo que hacen de verdad es lo
mejor para cada individuo, y ello encaja a la perfección en el funcionamiento
de la estrategia estable de evolución. Dawkins, en su libro The Selfish
Gene, hace justicia a tales ideas y explica con detalle cómo “funciona”
dicha estrategia en diversos casos; es difícil negar su sugerencia de que este
concepto, que muestra cómo un grupo de individuos con objetivos egoístas pueden
trabajar para el bien común, es el más considerable avance del pensamiento
sobre la evolución desde los tiempos de Darwin. Por este motivo, y por la
ingenua aceptación que todavía existe de la idea de la selección de grupo,
quiero perfilar un poco este punto parafraseando uno de los clásicos ejemplos
de Maynard Smith sobre el funcionamiento de la estrategia estable de evolución,
anotado por Dawkins, la escenificación de “halcones contra palomas”.
Imaginemos una población de animales de cualquier especie, con un
individuo halcón o paloma en el sentido usado para denotar el comportamiento
humano agresivo. Los halcones siempre pelean cuando se encuentran con un rival;
las palomas pueden amenazar, pero siempre huyen si ven que el oponente ataca.
Cuando un halcón se encuentra con una paloma, ninguno resulta herido porque la
paloma huye. Cuando una paloma se encuentra con otra paloma, tampoco resulta
ninguna herida porque, después de amenazarse mutuamente, ambas acaban huyendo.
Ahora bien, cuando un halcón se encuentra con otro halcón, ambos luchan hasta
que uno de los dos queda herido de gravedad. Suponiendo que los conflictos
entre individuos se desatan por algo con valor material —comida, o la oportunidad
de emparejarse, quizá—, es posible repartir “puntos” arbitrarios por el éxito o
el fracaso en la competición que entre ellos establecen. Este es un ejemplo
puramente hipotético, de modo que por conveniencia las cifras pueden ser 50 por
ganar, 0 por huir, –100 por ser herido de gravedad y –10 por perder el tiempo
en amenazas. Los puntos representan una medición directa del éxito genético
(los individuos que obtengan la máxima puntuación obtienen la mayor parte de la
comida y las máximas facilidades para reproducirse, por consiguiente sus genes
sobreviven en la próxima generación). Los individuos cuya puntuación sea la más
baja tienen menos posibilidades de propagar sus genes. La pregunta que la
teoría de los juegos puede contestar es: ¿hay una estrategia estable de
evolución en la escenificación “halcones contra palomas”? y, si así es, ¿cuál
es el equilibrio estable entre halcones y palomas?
Lo primero que aprendemos es que una población integrada sólo por
palomas o por halcones no es estable. Veamos las palomas. Si es toda la
población de palomas, cada vez que dos entren en conflicto se amenazarán y
ambas obtendrán una puntuación de ‒10. Pero una huye primero, de modo que la
otra obtiene 50 puntos, porque se queda con lo que estaba en disputa, y una
“puntuación” neta de 40. Si cada individuo “gana” la mitad de las
confrontaciones y pierde la otra mitad, la puntuación media por individuo y por
confrontación es de 15 puntos, el resultado de 40 por victoria y ‒10 por
derrota[55]. Todo se
antoja muy bonito en una sociedad de palomas, y nadie sale herido, ni muere de
hambre, ni fracasa en el momento de reproducirse. Pero imaginemos ahora que una
mutación genética hace que aparezca un halcón entre las palomas. El halcón no
pierde el tiempo amenazando, simplemente ahuyenta las palomas, con lo que
obtiene 50 puntos en cada ocasión de conflicto. De esta forma, su puntuación
media será de 50, muy por encima de los 15 puntos de media de las palomas. En
consecuencia, los genes del halcón se extenderán rápidamente por la población,
hasta que se produzca una cantidad significativa de halcones y entren en
conflicto.
En el otro extremo, imaginemos una sociedad sólo de halcones. Cada vez
que dos de ellos se encuentran luchan crudamente. Uno queda herido de gravedad
y puntúa ‒100; el otro vence y puntúa 50. Pero la puntuación media es de un
ínfimo ‒25, la media entre 50 y ‒100, y cualquier mutación de paloma que
ocurriera, que puntuaría 0 debido a su cobardía, tendría una puntuación mejor
que la de los halcones, al menos hasta que se reuniera la suficiente cantidad
de palomas como para permitir una caza fácil a los halcones que quedaran.
Lógicamente, la población de evolución estable se encontraría en un
lugar intermedio entre los dos extremos. Según nuestra puntuación particular,
la población estable contiene cinco doceavo de palomas y siete doceavo de
halcones —siete halcones por cada cinco palomas. En el mundo real, eso
equivaldría a decir que la estrategia estable consiste en que cada individuo se
comporte como un halcón siete veces de doce y como una paloma cinco de doce.
Los genes que transportan las órdenes de “sé agresivo algo más de la mitad de
las veces y huye en casi la mitad de las ocasiones” son los más afortunados y
se expandirán para crear una población estable siguiendo una estrategia
estable. El hecho de que esto no tiene nada que ver con el bien de la especie
lo confirma el éxito que alcanza esta estrategia en la sociedad de siete
halcones por cinco palomas, cada individuo obtiene una puntuación media de 6,25
puntos en cada conflicto. Esta es una ventaja mucho menor que la que puede
obtener cada individuo —y la especie misma considerada como un todo— en una
sociedad de palomas (15 puntos por conflicto). Las especies marcharían mejor si
todos sus miembros fueran palomas, pero esto es imposible porque tarde o
temprano aparecerá un halcón por mutación, que gozará de una enorme ventaja en
tanto los demás sean palomas. Al gen de la agresión que se hospeda en el halcón
no le importa la especie; sólo se preocupa por la producción de réplicas de los
genes del halcón y por el éxito de los cuerpos individuales en el momento de
producir dichas réplicas.
Incluso un ejemplo tan sencillo suscita intrigantes especulaciones sobre
la estrategia estable de evolución aplicada a los humanos. ¿Transportamos genes
“halcón” que son perjudiciales para la especie entera de la misma forma? ¿Es
posible que el relativamente reciente desarrollo evolutivo de la inteligencia
nos dé la ocasión de dejar aparte los cálculos y empezar a actuar de acuerdo
con el bien de la especie, en vez de hacerlo con el bien individual,
produciendo también beneficios para los individuos, igual que en una sociedad
de palomas? Estas son preguntas que hemos de ver a la luz de los modernos
conocimientos sobre la evolución, pero que deben esperar un poco más, hasta que
haya cubierto la historia de esa evolución desde el Cámbrico, aunque sea
superficialmente. Antes de ello, quiero ofrecer un par de breves ejemplos sobre
el funcionamiento de la estrategia egoísta.
§. Estrategias egoístas
En primer lugar, los halcones y las palomas se han ido acercando hasta la
fecha. Quizá, hace mucho tiempo, hubo especies que eran similares en tamaño,
forma y aptitud para la lucha pero que diferían en su comportamiento, de manera
que algo parecido a la representación entre halcones y palomas pudo haber
existido en la realidad. Hoy, por supuesto, los conflictos extremados hasta el
punto de una herida severa tienden a suceder sólo entre especies, de modo que
el esquema se complica algo más, pero no se hace imposible. Para un antílope,
un león se comporta como un “halcón” en nuestra escenificación, si bien para
otro león se comporta como una “paloma”. Éste es un claro ejemplo de la
instrucción “a veces sé agresivo, otras veces no", que puede entenderse como
“sé agresivo con los antílopes, pero no con otros leones”, cuyo valor, en
términos genéticos, se observa fácilmente en la representación de halcones y
palomas. Los antílopes siempre se comportan como palomas con respecto a los
leones (y cualquier mutación que no se comportara así, perdería pronto sus
posibilidades de reproducir sus genes), pero pueden seguir unos esquemas de
comportamiento más agresivos entre ellos, cuando las circunstancias lo
justifican. Desde siembre, no obstante, a lo largo de muchas generaciones, los
leones se han convertido en halcones más eficaces —fuerte dentadura, garras,
etc.—, mientras que los antílopes se han convertido en palomas más competentes
—piernas largas para poder huir, sentidos vigilantes para detectar leones.
Tanto los antílopes como los leones, pues, comparten un antepasado común, y uno
temporalmente más cercano a nosotros que el Cámbrico. Ambos han actuado con
fortuna como vehículos de replicadores de genes, y ambos pueden ser estimados
como triunfadores.
Un ejemplo de la vida real, de la forma en que el comportamiento que
maximiza la posibilidad de supervivencia de los genes individuales aparece como
si se tratara de un comportamiento diseñado para el beneficio de la especie, lo
obtenemos de los estudios sobre la cantidad de huevos que depositan los
pájaros. La prueba más poderosa que los partidarios de la idea de selección de
grupo fueron capaces de conseguir consistió en el modo en que muchas especies
ejercen una reproducción restrictiva. Aun cuando es de esperar que un individuo
egoísta produzca el máximo de descendientes posibles, para propagar el máximo
de copias de genes individuales, lo cierto es que muchas especies han limitado
el número de descendientes. Esto parece que se ajusta a la idea de selección de
grupo, puesto que limitando la cantidad de individuos se mantiene a la
población dentro de unos límites razonables, de modo que los recursos,
especialmente la comida, no son super explotados hasta el punto de provocar un
descenso de la población por culpa del hacinamiento, el hambre, alguna epidemia
o lo que se quiera. La clásica respuesta a este argumento procede de los
estudios de los pájaros, llevados a cabo por el ornitólogo de Oxford David Lack
y adaptados para libros de texto ampliamente establecidos como Sex, Evolution,
and Behavior de Martin Daly y Margot Wilson.
Cada especie de pájaros tiende a tener una nidada de huevos
característica (algunos pájaros sólo ponen dos o tres huevos, otros llegan a la
docena, pero con escasas variaciones dentro de una misma especie). A primera
vista, puede parecer que una pequeña cantidad de huevos no es sino una
ineficiente forma de propagar genes, puesto que un pájaro que pone cuatro tiene
el doble de descendencia que otro que pone dos. Entonces, ¿por qué algunas
especies ponen tan pocos huevos? No es porque biológicamente sean incapaces de
poner más, ya que, cuando menos, algunas especies son capaces de seguir
poniendo más a medida que se retiran del nido los ya puestos; un pájaro que
suele poner tres o cuatro huevos puede ser persuadido de poner diez o doce,
pero sólo tres o cuatro cada vez. De todos modos, no es menester pensar mucho
para comprender que debe existir un punto en el crecimiento de la descendencia
que se haga insuperable. Después de todo, el pájaro padre debe alimentar a sus
crías mientras estén en el nido, y debe haber una cantidad límite de provisión
de comida durante un día para los pájaros de una misma especie. No es verdad
que más signifique mejor una vez se ha alcanzado el máximo de hijos que pueden
alimentarse adecuadamente. Por tanto, un pájaro que transporta un gen que le
permite producir muchos huevos tal vez se encuentre en desventaja. Al intentar
alimentar a su extensa prole, la madre quizá no sólo la dejará morir de hambre,
sino que se expondrá ella misma a morir, con lo cual sus genes no se reproducirán.
En el otro extremo de la escala, un pájaro que tiene menos descendencia de la
que podría alimentar adecuadamente, disfruta de más posibilidades de
sobrevivir, aunque de una forma muy limitada. El gen que determina el tamaño de
los huevos y se propaga por la población será el que disponga el número máximo
de crías que puede ser alimentado por cada madre de esa especie durante un año.
Estas ideas han nacido de la observación del comportamiento de los
pájaros en el mundo real. Debido a cierta variación en las poblaciones, los
ornitólogos pueden estudiar el éxito, en términos de reproducción, de los
individuos de una especie que tienen diferente número de descendientes. Como
media, las observaciones muestran que la mayoría de los que sobreviven y llegan
a hacerse adultos provienen de los nidos donde ha habido nueve o diez crías. La
supervivencia de un gen —en rigor, un “alelo”— que ocasionalmente produce un
mayor número de huevos se explica porque en un buen año, con más comida
disponible, hay más sobrevivientes por nido en aquellos nidos en que no es
usual que se ponga un elevado número de huevos. Esto muestra, en miniatura, las
fuerzas de la evolución en pleno funcionamiento, debido a las que la presencia
de variación en las especies permite a éstas “adaptarse” a condiciones
levemente distintas. Si las condiciones cambian de manera permanente y el
proceso se repitiera a lo largo de mil generaciones, los genes que una vez
fueron minoritarios serían ahora los comunes y las especies sufrirían una
transformación. Mediante su conducta egoísta en aras de asegurar sus propios
genes, el individuo no se preocupa por la supervivencia de la especie, sino por
la supervivencia de la mejor modificación de la especie, la más apropiada para
cada circunstancia concreta. El ejemplo de lo importante que resulta la
inversión de los padres en la cría de los hijos indica cómo, a través de la
operación de los genes egoístas, se ha originado el que hoy, en la generalidad
de los casos, sean necesarios dos sexos en la reproducción sexual sobre la
Tierra.
§. Estrategias sexuales
Acostumbrados a considerar “normal” todo lo que nos rodea, nos parecerá extraña
la reproducción sexual sin sexos. Sin embargo, no hay ninguna necesidad de que
existan dos tipos diferentes de células sexuales en el intercambio de
cromosomas; con toda seguridad los primeros organismos unicelulares que se
beneficiaron de la reproducción sexual eran indiscernibles los unos de los
otros. La reproducción sexual llegó antes de que el sexo pudiera desarrollarse.
Y a pesar de que nunca conseguiremos estar seguros de cómo evolucionó, hay una
explicación muy plausible de lo que pudo haber ocurrido.
De entre las eucariotas unicelulares que empezaron a reproducirse no por
medio de su división en dos, sino por medio del intercambio de material
genético mezclado en dos células, cada una de ellas partida, luego, en dos,
debió de haber una gran variedad de tamaños. Cualquier célula podía emparejarse
con cualquier otra, pero el éxito de cada célula en el momento de la
reproducción se vería afectado por el tamaño de la combinación resultante; las
células mayores estarían en ventaja por disponer de una mayor provisión de
material para su división en nuevas “generaciones” de células menores, las
suficientes para sobrevivir. De lo cual se desprende que la selección natural
puede, a lo largo de millones de generaciones, producir un cambio en las
características de la “especie” que aumente su tamaño. Pero existe un efecto
que incide en las circunstancias de las primitivas eucariotas que flotan
libremente en el océano. La reproducción sexual sólo tendrá lugar si dos
células se unen, de modo que una célula con más movilidad será capaz de nadar
mejor y, por tanto, disfrutará de más posibilidades de encontrarse con otras
células y reproducirse, con lo que propagaría sus genes para la mejora de la
movilidad. En esencia, más movilidad quiere decir más pequeña. En consecuencia,
dos clases de células cumplirán mejor la función de reproducirse una vez
inventada la reproducción sexual: las grandes células, con abundante material
orgánico, y las pequeñas, que pueden nadar con rapidez en busca de pareja. Para
cada célula pequeña sería particularmente importante combinarse con una célula
mayor, a fin de compensar su reducida masa, con lo cual la evolución pronto
seleccionaría las células menores. En cambio, las grandes todavía preferirían
la unión con otras también grandes, unión dificultada a medida que aumentaran
más y más de tamaño y, por otro lado, a medida que las pequeñas fueran cada vez
menores y más efectivas en la búsqueda de compañeras grandes. De manera que son
dos células las que necesitan desarrollarse a partir de una población inicial
con una distribución azarosa de los tamaños celulares. Este modelo ha
permanecido inalterable hasta nuestros días, siendo las células grandes
(óvulos) características de las hembras de todas las especies y las pequeñas
(espermatozoides) características de los machos. Independientemente del tamaño
del cuerpo, los machos producen espermatozoides, que son células mucho más
pequeñas que los óvulos producidos por las hembras de la misma especie, y ésta
es la mejor y más sencilla definición de los dos sexos.
La casi idéntica cantidad de miembros de cada sexo en toda especie sigue
de una manera automática una estrategia de evolución estable. Centrándonos ya
en animales grandes y multicelulares, cada individuo debe encontrar un
compañero del sexo opuesto al objeto de reproducirse. Si hay más hembras que
machos, por ejemplo, los machos entonces tienen ventaja, porque disponen de más
posibilidades de encontrar un compañero y pasar material genético, incluido el
“alelo” masculino [56]. La
proporción de machos, pues, se incrementará. De modo similar, si hay más
machos, serán entonces las hembras quienes encontrarán más fácilmente un
compañero para poder reproducirse, y por tanto el “alelo” femenino se extenderá
en el campo genético. Siempre que el balance entre los sexos se aparte del
equilibrio, la presión evolutiva actuará para restablecerlo. Así, el éxito de
la reproducción sexual, conforme mezcla material genético asegurando la
suficiente variabilidad en la población mediante la adaptación a ambientes
cambiantes, nos conduce directamente a la evolución de los dos sexos y al
modelo según el cual hay poco más o menos igual número de machos que de
hembras. La mayor “inversión” de la madre en el óvulo nos conduce también a la
evolución de la mayoría de las características por las que distinguimos los
sexos, incluyendo la protección maternal.
Un animal macho puede producir una enorme cantidad de espermatozoides, y
se “supone” que la mayor parte de ellos morirán sin haber encontrado un óvulo
para producir un hijo. Una hembra, por su parte, produce menos pero mayores
células, cada una de las cuales requiere una “inversión” en la forma de
alimento —el utilizado en su producción—, de modo que cada célula resulta más
costosa para ella que un espermatozoide para el macho. A partir de esta pequeña
diferencia inicial, la selección, a través de muchas generaciones, ha
ensanchado la brecha, en la medida en que la diferencia entre ambas células
tuvo lugar. Cuanto más “invierta” la madre en la supervivencia de sus hijos,
más “maternal” y afortunada será, en términos de reproducción. Y cuanto mayor
sea el número de hembras a las que un macho aporte sus espermatozoides, siempre
que cada una de ellas preste atención maternal a los hijos que resulten, más
afortunado será en los mismos términos. No es ninguna coincidencia que muchas
especies animales funcionen con arreglo al principio del harén, que supone un
macho dominante que dirige a tantas hembras como pueda mantener en competición
con otros machos. Esta clase de desarrollo evolutivo básico puede tener
relevancia en el comportamiento humano; pero nosotros tratamos de ser
“civilizados” y de comportamos de acuerdo con unas reglas diferentes a las que
supone la estrategia de evolución estable[57]
§. La evolución de la diversidad
En suma, la evolución es producto del funcionamiento de la reproducción sexual,
y ello ha sido así durante cientos de millones de años. En la historia de la
evolución de los organismos multicelulares, y en particular de los orígenes
humanos, la reproducción sexual es lo único que nos interesa ahora. Este
método, combinado con la diversidad de genes alelos disponibles entre toda la
población de una especie, es el que ha hecho posible la evolución a esa
velocidad desde el cámbrico, con nuevas “manos” de material genético
constantemente repartidas a partir del “juego de cartas” barajadas, y con
pequeñas mutaciones que ocurren en la población, quizás a un nivel bajo, hasta
que algunos cambios en el mundo exterior les den un alto grado de supervivencia
y les permitan extenderse al mismo tiempo que otros desaparecen. No debe
olvidarse que un animal de reproducción sexual, como es el caso del hombre,
tiene dos juegos de cromosomas, uno de cada progenitor, y que cada específico punto
de un cromosoma será un gen específico, acaso el que decida el color de los
ojos. Si cada par de cromosomas tiene el mismo gen en un punto determinado, es
homogéneo. Si los tiene diferentes, es heterogéneo. Muchos de los genes son, en
realidad, homogéneos, en los que los rasgos heredados de cada progenitor
describen gran parte de la estructura (dos piernas, un corazón que funciona de
tal manera, un hígado construido según tal plan, etc.). Sólo el 6,7% es
heterogéneo, en el caso del hombre, es decir, 6.700 de entre un total de
100.000 genes. Con los cromosomas emparejados, eso significa decir que hay en
teoría 26.700 diferentes formas de construir un ser humano. No es en absoluto
un número astronómico: corresponde a algo más de 102.000, y si tenemos en cuenta
que el Universo contuvo la suficiente materia como para cerrarse todo él, en
forma de átomos de hidrógeno, resulta que el número de átomos en el Universo
entero sería de 1080, cifra completamente nimia e insignificante comparada con
la de 102.000. Las diferencias entre dos personas genéticamente idénticas, a
menos que se trate de gemelos producidos por la división de un óvulo
fertilizado, están en una relación de 102.000 a 1, y ésa es la variabilidad que
proporciona el campo de variaciones del que la evolución selecciona la más apta
de cada generación. Si el clima cambia, o un nuevo depredador aparece en
escena, es improbable que todos los individuos de la población desaparezcan, y
los supervivientes deberán ser, por definición, los mejor capacitados para sobrevivir
y reproducirse en una situación de cambio.
La evolución sigue adelante todo el tiempo, de la misma forma que nuevas
permutaciones de “alelos” se mezclan con los genes disponibles y las
combinaciones más eficientes sobreviven con una mayor efectividad. Esta gradual
adaptación de las especies a su (quizá cambiante) medio ambiente se llama
evolución “filática”. Las especies pueden igualmente diversificarse,
escindiéndose en dos o más especies, si poblaciones distintas se ven separadas
por una barrera física, como una nueva cordillera de montañas, por ejemplo, o
la fragmentación de un supercontinente en varios continentes más pequeños.
Cuando eso ocurre, cada rama de la familia continuará con su evolución
“filática”. Es posible que, antes de que las relaciones distantes les cambien
demasiado, las poblaciones separadas vuelvan a juntarse, cruzarse, y hacerse
indiscernibles otra vez. O quizá vivan alejados durante tanto tiempo, y cambien
tanto, que ya no puedan nunca más cruzarse, aunque volvieran a relacionarse.
Así es como surgen las nuevas especies, y el proceso recibe el nombre de
“especiación”. Volviendo atrás, a la noche de los tiempos del Precámbrico,
cualquier ente vivo sobre la Tierra ha sido creado por especiación repetida y
evolución filática, empezando por unas pocas —acaso sólo una— células vivientes
originales. Los organismos multicelulares, no obstante, han evolucionado de forma
separada e independiente a partir de diferentes e inmediatos antecesores
unicelulares.
Cuando rastreamos los antecedentes del hombre desde las células
primitivas hasta el momento actual, la historia, inevitablemente, se desdobla
como si la evolución trabajara para lograr un producto específico acabado que
fuera mejor que todos los anteriores. Para muchos, la humanidad todavía se
muestra como el “punto final de la evolución”, una “creación” superior
comparada con otros productos evolutivos. La evolución, sin embargo, no ha
terminado, y no hay modo de asegurar que seamos nosotros el punto final;
tampoco somos superiores, ni biológica ni evolutivamente, a otras especies; tan
sólo diferentes. La inteligencia, en verdad, es una significativa, interesante
y capital diferencia. Pero parece bastante factible que la inteligencia
contribuya al fin de la raza humana, mediante las guerras, en poco tiempo. Si
esto ocurre, lejos de representar la cima de la evolución, estaremos
representando un callejón sin salida, menos afortunado en la preservación y
reproducción de genes que los dinosaurios, los trilobites del Cámbrico o las
procariotas que han sobrevivido, como tipos, desde el Precámbrico hasta
nuestros días. Es importante no olvidar la diversidad de la vida sobre la
Tierra, ni que cada especiación que ha supuesto un paso adelante en la
evolución hacia la aparición del hombre moderno ha provocado la escisión, por
lo menos, de una especie.
Como seres humanos, estamos especialmente interesados en los orígenes
del hombre, y en un libro como éste no hay espacio para seguir cada rama del
árbol de la especiación y diversificación. No obstante, existen.
De modo que, con todo ello presente, podemos abordar la historia de los
orígenes humanos desde las primitivas células hasta la llegada de pre humanos
reconocibles. No seguimos la historia de las procariotas, ya que nuestros
antepasados descienden de la rama de las eucariotas; no seguimos al detalle la
diversificación de las plantas, puesto que somos animales; nos importa menos la
vida en el mar que sobre tierra, porque vivimos sobre ésta; y nos interesan
sólo marginalmente los animales invertebrados, en cuanto que nosotros tenemos
espina dorsal y un esqueleto óseo como armadura para nuestras partes más
vulnerables. Frente a todo ello, no obstante, está la existencia de un total de
2 millones de especies multicelulares en el mundo actual, muchas de las cuales
han ido apareciendo y desapareciendo a lo largo del tiempo geológico desde el
Cámbrico. ¡La vida es muy compleja!
Es fácil de comprender, en principio, por qué los organismos
multicelulares son tan afortunados en términos evolutivos. Debido a que hay
muchas células que trabajan juntas, la muerte de una o incluso de un buen
número de ellas no tiene ninguna importancia para el organismo como tal, ya que
las células individuales pueden reemplazarse.
Esta característica ofrece al organismo la posibilidad de vivir más y de
reproducirse más, utilizando células que, protegidas por el resto del
organismo, pueden especializarse en la reproducción y en la función de mezcla y
réplica de cromosomas. Lo demás —fortaleza, afilada dentadura, buena vista e
inteligencia— ha evolucionado porque ayuda al organismo a sobrevivir y
reproducirse. Todos los organismos multicelulares, en la actualidad, son
miembros de uno de los tres “reinos": las plantas, que
fabrican materia orgánica viviente mediante el uso de la energía de la luz
solar en la fotosíntesis; los hongos, simplemente (aunque
inadecuadamente) definidos como plantas que, más que servirse de la
fotosíntesis, viven a expensas de restos orgánicos; y los animales,
que se alimentan de otros productos orgánicos y se extienden por todas partes[58].
Se han descubierto madrigueras fosilizadas en rocas de una antigüedad de
700 millones de años, lo que nos enseña que la vida animal ya estaba bien
asentada a finales del Precámbrico [59]. En
Australia se han hallado, asimismo, restos de medusas del período de transición
entre el Precámbrico y el Cámbrico, y las conchas de invertebrados tales como
los trilobites dejaron sus huellas a través del Cámbrico, delimitando ellos
mismos la transición. Hacia el final del Cámbrico, hace unos 500 millones de
años, Pangea I se fragmentó en varios continentes que crearon una diversidad de
condiciones ambientales en las aguas someras de sus costas, lo cual originó una
gran diversificación de especies. Dentro de esa diversidad de vida se
encontraban nuestros directos antecesores, los primeros peces vertebrados.
Desafortunadamente, sin embargo, los registros fósiles no se depositaron con la
conveniencia que los investigadores humanos hubieran deseado, sino con arreglo
al oficio del viento, las olas y el clima. Y una de las más enojosas lagunas en
los restos, desde el punto de vista humano, radica precisamente aquí. El
Ordoviciense se distingue por ser un período con un enorme desarrollo en la
vida marina, y por la abundancia de fósiles. Pero aparte de contados fragmentos
de huesos y de láminas de armaduras escamosas, no se ha encontrado ninguna
evidencia de vida vertebrada en dicho período. Los fragmentos hallados son muy
semejantes a registros posteriores que los paleontólogos están seguros de que
son pequeños peces vertebrados que nadaron por los mares hace unos 450 millones
de años. Pero la laguna en los registros fósiles ha hecho que fuera imposible
identificar a los directos antecesores invertebrados de esos vertebrados, que
carecían de mandíbulas y que se denominan ostracodermos.
A pesar de que la especulación sobre esos inmediatos antecesores no
representa un verdadero sustituto de la evidencia fósil, hay una buena
explicación del porqué de la no conservación de restos fósiles de los primeros
vertebrados. Muchos vertebrados, actualmente, tienen una espina dorsal ósea,
que cumple la doble función de proteger los importantes nervios de su interior
y servir de soporte al cuerpo y la cabeza. Algunas especies, en especial los
tiburones, tienen espinas de cartílagos blandos en vez de huesos duros, lo cual
no es una desventaja para el tiburón, que flota en el mar. Da la impresión de
que los primeros peces vertebrados “ingeniaron” en primer lugar las vértebras
blandas y cartilaginosas, y que las vértebras óseas y duras resultaron de un desarrollo
evolutivo posterior [60].
§. De pez a anfibio
Sean cuales fueren sus orígenes directos, no hay especulación posible sobre el
éxito de los peces óseos una vez que aparecieron. Hay hoy más especies de peces
óseos que de todos los demás vertebrados juntos (otro recordatorio de que
nuestra visión de la “historia del éxito” humano es resultado de un muy
singular punto de vista). Pero las especies modernas se diferencian de esos
primitivos ostracodermos en dos importantes aspectos.
Además de no tener mandíbulas, esos primitivos peces óseos carecían de
ese par de aletas que hacen de los peces modernos tan buenos nadadores. Todavía
existen unos pocos descendientes de tales peces, pero las ventajas de una boca
con afilados dientes y unas aletas para nadar son tantas, en términos de
evolución, que esos ostracodermos se vieron casi enteramente reemplazados,
durante el Devónico, por los placodermos, con mejores mecanismos de
alimentación, que, por supuesto, implican más larga vida y más posibilidades de
reproducirse. La evolución de los peces mandibulados durante el Devónico siguió
dos líneas principales, una que condujo hasta la diversidad de peces óseos que
conocemos hoy día, y la otra que lo hizo hasta los tiburones cartilaginosos y
similares, como las rayas, cuya flexibilidad les viene dada por sus esqueletos
de cartílago. La siguiente diversificación evolutiva, no obstante, nos lleva al
punto donde se abandona la línea de evolución de los peces óseos para pasar a
la historia de la continua adaptación al hábitat acuoso que producirá la
extensa variedad de peces actuales. En cambio, nos inclinaremos por las
aventuras de las especies que se separaron del grupo principal y que, desde
entonces, han tomado un extraño y, para nosotros, más interesante camino.
Casi todos los peces modernos descienden de un tipo de pez mandibulado
conocido como de aletas radiales, que tiene las aletas aerodinámicas de peces
tales como el bacalao o el salmón. El otro tipo principal de peces con
mandíbulas, de finales del Silúrico y principios del Devónico, es el de aletas
pedunculadas, el cual poseía partes de material óseo que bordeaba su esqueleto
y se extendía hasta las aletas. Éstas tal vez fueron útiles para arrastrarse en
los fondos marinos, pero las aletas radiales demostraron su superioridad para
la natación; las aletas pendulares fueron un fracaso en los peces normales,
hasta el extremo de que hoy sobreviven sólo en determinados casos. Sin embargo,
esas aletas de lóbulos óseos resultaron determinantes a la hora de permitir
nuevas evoluciones: el desarrollo de extremidades que facultaron a algunos de
los descendientes de los primitivos peces de aletas pedunculadas para salir del
agua y tratar de emprender una nueva vida sobre la tierra. No sólo descendemos
de los peces, sino que lo hacemos de unos peces desafortunados [61].
Los animales no podían dar el siguiente paso, trasladarse a vivir en
tierra firme, hasta que no hubiera en ésta algo que comer. En otras palabras,
las plantas fueron las primeras en colonizar la tierra. La mejor prueba de ello
es que no hubo una colonización significativa de la tierra por parte de las
plantas hasta mediado el Paleozoico, al final del Silúrico. Las plantas,
evidentemente, estaban sujetas a las mismas presiones evolutivas que los
animales, y no es ninguna coincidencia que se diversificaran y extendieran al
mismo tiempo que lo hacían los animales. Ambos eran el producto multicelular de
los primitivos organismos unicelulares; ambos dependían para su respiración del
aumento del nivel de oxígeno en el aire; y ambos se vieron afectados por el flujo
y reflujo de los hielos y por la fragmentación y por la reorganización de los
continentes. La combinación de ciertos factores desde el Silúrico en adelante
hizo que las plantas se desplazaran con rapidez hacia la tierra, y los restos
fósiles demuestran que hacia la mitad del Devónico ya existían bosques reales,
con plantas de una altura de diez metros rodeadas por una espesa maleza de
plantas menores. El Carbonífero conoció una más extraordinaria explosión de la
vida vegetal, en las épocas calientes, con clima húmedo sobre la mayor parte de
la superficie de la Tierra. El nombre de Carbonífero se debe a los grandes
yacimientos de carbón depositados por aquel tiempo y que todavía ahora se
aprovechan; el carbón se produjo a partir de los restos de gigantescos árboles,
que, por aquel entonces, se estaban diversificando en distintas formas. Enormes
cantidades de detritos quedaron depositadas durante este período, detritos
enterrados y eventualmente transformados en carbón por presión geológica. Ello
pudo haber eliminado buena parte del dióxido de carbono de la atmósfera,
liberando oxígeno y encerrando el carbono en depósitos carboníferos; un cambio
tal quizás influyó en el posterior desarrollo de la vida, reduciendo levemente
la temperatura al mismo tiempo que se debilitaba el efecto de invernadero y,
con mucha probabilidad, enriqueciendo el oxígeno de la atmósfera, con lo cual
preparaba el terreno para que los animales con respiración de oxígeno pudieran
aparecer sobre la tierra. Quizás el mayor problema de la incidencia humana
sobre el medio ambiente actual sea la rapidez con que quemamos la energía
fósil, depositada mucho tiempo atrás en forma de yacimientos de carbón, y
devolvemos el dióxido de carbono de nuevo a la atmósfera. Hay serias
posibilidades de que ello pueda conducimos a un desagradable calentamiento
global, con efectos nocivos para la vida humana; en términos generales, quizás
estemos dando marcha atrás, en cierto aspecto, hacia el Carbonífero. El hecho
de que la vida sobrevivió tan felizmente durante y después del Carbonífero más
bien contradice a esos alarmistas que vaticinan un incontrolado efecto de
invernadero como resultado de la quema de petróleo que convertirá la Tierra en
un desierto. Si bien las condiciones han cambiado mucho a lo largo de estos
últimos 400 años, no hay razón alguna para pensar que la cantidad de dióxido de
carbono que demostró ser tan adecuada para la vida entonces no sería tolerada
ahora, y tampoco es que estemos introduciendo más dióxido de carbono en la
atmósfera, sino que lo que ahora hacemos es restablecer lo que tiempo atrás
quitó la vida de las plantas de los períodos de formación del carbón.
Al tiempo que la vida de las plantas se trasladaba hacia la tierra,
primero en lugares próximos al agua, luego mediante el desarrollo de técnicas
para sobrevivir lejos del agua (técnicas tales como sistemas de raíces para
buscar agua bajo el suelo y coberturas de la superficie de las plantas para
evitar la evaporación del agua), los animales seguían el ejemplo. Los gusanos
se abrieron camino por el barro y los “ciempiés” fueron de los primeros en
llegar, puesto que sus cuerpos no necesitan demasiada adaptación —aparte, claro
está, de “aprender” a respirar el oxígeno del aire en vez del que hay en el
agua— a una forma de vida afirmada en la Tierra, además de que los restos
orgánicos de plantas, o las mismas plantas vivas, suministran su alimento. La
reproducción encontró nuevas dificultades en la tierra, pero, una vez más, nada
que no pudiera solucionarse con el paso de millones de años y millones de
generaciones para que la evolución derivara en la diversificación y
especialización. Algunas de las relaciones entre esas trepadoras y estos
reptantes todavía persisten, y sus descendientes más conocidos son los
insectos, que empezaron a aparecer cuando los descendientes especializados que
son los peces de aleta pedunculada se desplazaron hacia tierra, en la cual,
para entonces, ya existía, al menos en las regiones más húmedas, una
considerable cantidad de orugas, así como de plantas, con las que alimentarse.
Esta nueva presión selectiva sobre los reptantes pudo ser una de las razones
por las cuales se convirtieron en voladores. De todas formas, aunque sea un
sólido argumento que los insectos han sido más afortunados que los vertebrados
en la conquista de los más diversos nichos ecológicos, nosotros somos
vertebrados y la historia de los orígenes humanos está más en conexión con esos
primeros animales vertebrados que con la historia de los insectos, salvo en los
casos en que los insectos representen una valiosa fuente de alimentación.
Así es que podemos volver de nuevo a la historia de la evolución de
nuestros directos antecesores, reanudándola desde finales del Devónico, Hace
unos 350 millones de años. Por aquel tiempo, algunos peces con aletas
pedunculadas ya habían aprendido a respirar aire, como una fuente extra de
oxígeno, y también a utilizar sus aletas para moverse por las aguas someras. La
selección natural favoreció que la descendencia tuviera unos pulmones más
eficaces y mejores “piernas”, casi con toda seguridad debido a las desaprovechadas
fuentes de alimentación existentes alrededor de las aguas en que vivían. A
diferencia de los antecesores de los primeros peces vertebrados, sí tenemos
especies fósiles de lo que al parecer es el antecesor directo de esa línea
evolutiva, de la cual provienen todos los vertebrados terrestres actuales.
Indudablemente, una vez se estableció una línea sobre la tierra, los que
llegaron después tuvieron muy pocas posibilidades de competir, de modo que
ninguna otra línea de vertebrados pudo hacer la transición desde el agua hasta
la tierra. Por consiguiente, el pez llamado Eusthenopteron,
fosilizado en depósitos de hace 350 millones de años, o algo más, es uno de los
claros ejemplos de un antepasado común, del cual hemos descendido al igual que
el resto de vertebrados terrestres, como los elefantes, mi gato, su perro, un
colibrí o un canguro de Australia.
La característica distintiva de los Eusthenopteron es
el tubo que comunica la nariz con la boca, la única característica entre los
varios candidatos a ser considerados antecesores de los anfibios, pero que
igualmente se halla hoy en los vertebrados terrestres. Además, el modelo de los
huesos de las aletas de los Eusthenopteron de aletas
pedunculadas es muy similar al modelo de huesos de los vertebrados actuales;
los huesos podrán ser mayores o menores, pero el mismo esquema óseo y en la
misma relación se encuentra entre los vertebrados terrestres y los Eusthenopteron. Durante
un breve período de tiempo, los descendientes inmediatos de los Eusthenopterondisfrutaron
de unas condiciones casi ideales, en la medida en que iban aprendiendo a
moverse fuera del agua, al principio en rápidas incursiones, luego en
expediciones cada vez más largas, a través de sucesivas generaciones y al
tiempo que eran seleccionados los mejores. Para empezar, no había depredadores
a su caza; había mucha comida en forma de gusanos, serpientes y antepasados de
los insectos. Como consecuencia de ello, los anfibios experimentaron una
espectacular di versificación, por la que algunas líneas pasaron a ser
depredadores y a alimentarse de sus parientes. Tuvieron que volver de vez en
cuando al agua, algunos para mantener su piel húmeda, y todos para
reproducirse; ésta es la característica distintiva clave de las especies de
anfibios supervivientes tales como las ranas y los tritones. Pero los anfibios
modernos no se parecen en nada a sus antepasados que dominaron la Tierra
durante 75 millones de años, ya que alguna de dichas especies tenía una
longitud de varios metros y devoraba carne fresca, como indican los registros
fósiles de su afilada dentadura y sus fuertes mandíbulas.
La era de los dinosaurios
En este momento (para dar una idea de la escala de tiempo en que han
tenido lugar estos cambios evolutivos) los continentes se estaban reagrupando
para formar Pangea II, con cambios generalizados del medio ambiente en muchas
partes del globo. Desde el comienzo del Cámbrico hasta el Misisipiense la
expansión de los anfibios representa un lapso de tiempo de unos 250 millones de
años, tiempo suficiente para que se produzcan cambios principales en la
geografía de la Tierra, así como en las formas de vida que en ella habitan. Con
todo, el desarrollo de los anfibios —instalados ya en tierra firme, sólo
volvían al agua para reproducirse, con una primera fase larvaria, como la de
los renacuajos de las ranas, que nadan en el agua hasta que llegan al grado de
madurez con el que aparecen las patas y los mecanismos para respirar aire, tan
necesarios para la vida sobre la tierra— se produjo con sorprendente rapidez si
lo comparamos con la edad del planeta. Desde los primeros peces vertebrados
hasta la diversificación de los anfibios por toda la tierra transcurrieron
solamente un par de cientos de millones de años; el origen de los vertebrados
se sitúa en un momento indeterminado, dentro de la laguna de los registros
fósiles, hace unos 500 millones de años. Desde entonces, el camino seguido por
la evolución ha sido igual de sorprendente en algunos aspectos —el paso de
anfibio a hombre en sólo 300 millones de años—, si bien algunas afortunadas y
bien adaptadas especies (como los tiburones, las libélulas y las cucarachas) han
permanecido sin cambios desde finales del Paleozoico.
Mientras los insectos consolidaban sus posiciones sobre la tierra, los
vertebrados todavía se estaban diversificando y haciendo surgir nuevas
especies. En el proceso, la continua mezcla de genes conllevó otro cambio a
finales del Paleozoico, tan significativo como el que supuso el paso de pez
vertebrado a anfibio. El gran inconveniente de la vida anfibia es, por
supuesto, la todavía presente dependencia del agua. En primer lugar, la larva
debe afrontar toda clase de peligros en la vida acuática antes de escapar y
contender con otra clase de peligros en tierra. En segundo lugar, cuando llega
a su forma adulta no puede disfrutar de completa libertad de movimientos sobre
la tierra, toda vez que necesita el contacto con el agua. Cuando la selección
natural produjo especies que desarrollaron la fertilización del óvulo dentro
del cuerpo de la madre y la posibilidad de que un huevo no fuera puesto hasta
que no hubiese sido cubierto con una fuerte y protectora cáscara, dichas
especies se encontraron en una posición tan ventajosa con respecto a los
anfibios como los primitivos anfibios lo estuvieron con relación a sus
inmediatos antecesores. Estos animales “ponedores” de huevos eran (y son) los
reptiles; en esencia, los huevos permitieron a las crías desarrollarse sin
riesgo a través de la fase de “renacuajo” en un pequeño mundo de agua, para
eclosionar sólo cuando hubieran madurado lo suficiente como para poder respirar
aire y correr con sus propias patas. Los reptiles se extendieron desde sus
orígenes en el Pensilvaniense, y reemplazaron a los anfibios en muchos lugares,
convirtiéndose algunos en pasto y otros en depredadores, algunos se hicieron
muy grandes —del tamaño del ganado vacuno— y otros muy pequeños —del tamaño de
los ratones. Al final del Pérmico, los reptiles estaban ya en situación de
dominio, divididos en una gran cantidad de especies. Estaban, realmente, en
buena posición para sobrevivir a los cambios que entonces sobrevenían sobre la
Tierra, y también para diversificarse todavía más en las condiciones cambiantes
de la siguiente era geológica, el Mesozoico.
Hacia el final del Pérmico, las cosas cambiaron espectacularmente [62]. Una
razón de ello la constituye la actividad tectónica asociada con los estadios
finales de la construcción de Pangea II. Se formaron las grandes cadenas
montañosas y desaparecieron numerosos mares someros y regiones costeras ideales
para la vida, acompañado todo ello con lluvias provocadas por la brisa marina.
Hacia la mitad del Pérmico, hace unos 250 millones de años, tuvo lugar un gran
período glacial que debió de prolongarse unos 20 millones de años, consecuencia
directa de la geografía del tiempo y con una extensión que cubría una amplia
parte de Pangea II, incluyendo lo que ahora conocemos como la India, Australia,
América del Sur, la mitad sur de África y la Antártida, a través de la región
del Polo Sur.
(Las marcas dejadas por el hielo de este período nos han proporcionado
la primera evidencia real en apoyo de la idea de la deriva continental.)
Existieron otros períodos glaciales con anterioridad, y otros procesos de
formación de montañas. Pero la particular combinación de los profundos cambios
en el medio ambiente de hace 200 millones de años parece que resultó excesiva
para la mayoría de las especies, en especial para aquellas que habitaban en
mares someros, de manera similar a como los cambios espectaculares asociados
con la formación y fragmentación de Pangea I, hace 600 millones de años,
ayudaron a dar a la vida un impulso hacia delante por medio de la creación, en
primer lugar, de condiciones difíciles, que ocasionaron la muerte de muchas
especies, y luego de condiciones más fáciles para la vida, lo cual permitió a
los supervivientes diversificarse y ocupar nichos ecológicos deshabitados [63]. Lo
mismo ocurrió al final del Paleozoico, con la diferencia de que ahora la vida
ya estaba establecida con firmeza, de modo que la diversificación tuvo lugar
entre animales adecuadamente adaptados a la tierra, además de entre criaturas
de mares someros (y entre las plantas, naturalmente).
Es de veras alentador, desde el punto de vista de nuestra comprensión de
la historia de la Tierra, que la rotura en los registros fósiles que fue tan
importante para los geólogos de hace más de un siglo —tanto que la convirtieron
en una frontera entre dos eras— coincida tan bien con un fenómeno tectónico de
la mayor trascendencia, revelado por estudios de finales del siglo XX, como es
la fragmentación de Pangea II. Al tiempo que corre desde hace 225 millones de
años hasta hace 65 millones de años se le conoce como Mesozoico (“medio”), y
comienza con el rompimiento de Pangea II. La masa de tierra de un
supercontinente, a lo ancho del cual toda forma de vida pudo extenderse en
competición y contacto directo con otras formas de vida terrestres, se rompió
en continentes separados, en cada uno de los cuales la evolución por selección
natural pudo operar casi con aislamiento del resto del mundo. De manera que,
una vez más, las formas de vida se diversificaron, siguiendo distintas vías en
continentes diferentes, hasta que se transformaron en nuevas especies. Un grupo
de reptiles estuvo especialmente afortunado en cuanto a su expansión en varios
nichos ecológicos, al tiempo que se improvisaban las condiciones de vida
después de las extinciones del Paleozoico tardío; fueron los dinosaurios, y la
historia de la vida animal en el Mesozoico es, en esencia, la historia de los
dinosaurios.
Ahora, tras la pequeña borrachera de números astronómicos que
regularmente han aparecido a lo largo de este capítulo y de todo el libro, el
lector puede pensar que hace 225 millones de años fue ayer, en la escala de
tiempo geológico, y, en efecto, lo es, al menos en comparación con los 4.500
millones de años que tiene la historia de la Tierra. Así es que tal vez sea
conveniente hacer una pausa para respirar y dar una ojeada a la situación, con
la información de que al comienzo del Mesozoico el año tenía 385 días. ¿La
razón? Muy sencilla: durante cientos de millones de años los giros de la Tierra
se han ido decelerando gradualmente, gracias a la influencia lunar en las
mareas. La fortaleza del efecto puede ser calculada, y los registros fósiles
que muestran ciclos (mensuales, estacionales, etc.) de crecimiento regular
confirman la precisión de los cálculos. El día solía tener bastante menos de
veinticuatro horas, lo que se correspondía con el hecho de que el año tuviera
más días. Nadie, al menos que yo conozca, ha incorporado satisfactoriamente tal
influencia a alguna explicación de la evolución de la vida sobre la Tierra, si
bien cualquiera que tenga una fértil imaginación es capaz de hacer su propia
especulación sobre cómo un día de doce horas puede afectar al desarrollo de la
vida de aquella época. Pero lo que aquí quiero dejar claro es que durante el
Mesozoico —ayer mismo, podríamos decir— el número de días del año bajó de 385 a
371, a medida que cada día se iba alargando gracias a las persistentes fuerzas
de las mareas. Tanto tiempo dominaron la vida terrestre los dinosaurios, que
éstos tuvieron la oportunidad de ver cómo los días se alargaban en un 4% y,
como resultado, el número de días por año decrecía en catorce. Nuestra estancia
en la Tierra está, hasta ahora, lejos de una situación parecida, y ello da otra
idea del tiempo que necesita la selección natural —sobre cuántas generaciones
tiene que operar— para producir cambios durante una era geológica.
El Mesozoico se subdivide en los períodos: Triásico (desde hace 225
millones de años hasta hace 180 millones), Jurásico (de 180 a 135 millones de
años) y Cretácico (de 135 millones de años hasta hace 70 o 65, depende de la
teoría que se siga). Fueron precisos varios millones de años, tras el desastre
que delimita la frontera entre el Paleozoico y el Mesozoico, para que la vida
volviera a ser tan variada como antes. Y a pesar de que la vida terrestre se
vio menos afectada que la vida marina, las formas de vida que ahora se
diversificaban en el mundo eran con frecuencia muy diferentes de las del
Paleozoico, aun cuando a menudo ocuparan los mismos lugares en la jerarquía de
la vida sobre la Tierra. Los anfibios, en particular, quedaron eliminados,
tanto por la competencia de los reptiles como por los desastres naturales, y
reducidos a las ranas y animales similares que hoy conocemos.
Hacia el final del Triásico, dos grupos distintos de reptiles se
convirtieron en las ramas principales de la familia de los dinosaurios. Durante
el Mesozoico, en diversas ocasiones, olas de extinción arrasaron la Tierra, y
en cada una de esas ocasiones fueron los dinosaurios más grandes los que
perecieron. Cada vez que ello sucedía, no obstante, y hasta hace 65 millones de
años, los dinosaurios muertos eran reemplazados por otros, producidos por la
selección natural a partir de los supervivientes. Pero son los grandes
dinosaurios los que acuden a la memoria cuando se menciona la palabra;
realmente la palabra significa “terrible lagarto” en griego. Un animal como
el Tyrannosaurus, de una altura de seis metros, con larga cola
y unas imponentes hileras de afilados dientes, era un terrible lagarto, sin
duda; pero el nombre “dinosaurio” también define animales tranquilos del tamaño
de una vaca o de una gallina. Es como si a todos los mamíferos se les
denominara “gatos feroces” puesto que todos estamos relacionados con leones y
tigres. Obtendremos una idea más nítida de cómo era la vida durante el
Mesozoico observando la variedad de vida animal que hay en la actualidad e
imaginando un reptil por cada mamífero que vemos. Los dinosaurios no eran sólo
“lagartos feroces”, sino que representaban toda la vida animal, incluyendo la
del mar, donde algunas especies se convirtieron en dinosaurios equivalentes a
las ballenas y los delfines modernos, que son descendientes de animales
terrestres que respiraban aire.
§. El terreno de los mamíferos
Junto a los dinosaurios —casi literalmente bajo sus pies— había un grupo de
animales que idearon una artimaña para reproducirse, el siguiente paso lógico
(lógico si se mira atrás) en el camino marcado por los reptiles cuando
desarrollaron un huevo en el cual podían tener lugar los primeros estadios en
el desarrollo del animal. Algunos reptiles evolucionaron más adelante en este
sentido, con el óvulo fertilizado en el interior del cuerpo de la madre en vez
de ser cubierto por una fuerte cáscara y ser depositado fuera. Todo el
primitivo desarrollo de los hijos tiene ahora lugar en el interior del cuerpo
materno para salir al mundo exterior sólo cuando esté preparado para mantenerse
sobre las cuatro patas. Este método de reproducción posee ventajas obvias, y
fue este singular experimento evolutivo el que hizo aparecer los primeros
mamíferos, nuestros directos antecesores, en el período Triásico. Pero
difícilmente se diría que pudieran competir con los dinosaurios, más bien eran
todos como ratones o musarañas (ningún rastro del “fiero gato” todavía). ¿Por
qué las ventajas obvias de la reproducción de los mamíferos no les permitió
gozar de mayor fortuna durante el Mesozoico? Una razón muy simple es que los
dinosaurios se establecieron primero. Si una musaraña sufriera una mutación
genética que la hiciera ser más fiera, podría muy bien competir con otras
musarañas, pero no hubiera ido muy lejos tratando de competir directamente
contra un terrible lagarto. Son precisas muchas generaciones para menospreciar
ventajas en cuestión de tamaño y —por ejemplo— producir grandes especies a
partir de una pequeña, y ello sólo puede ocurrir si no hay descomunales
depredadores por los alrededores. Si los hay, entonces una gran musaraña no es
mucho más notable que un sabroso bocado. De modo que las presiones de la
selección durante el Mesozoico favorecieron a las musarañas pequeñas, ágiles y
rápidas, con buena vista y buen oído para detectar a los depredadores.
Sin embargo, tal vez haya otras razones. Durante los últimos años ha
habido un considerable debate sobre si los dinosaurios eran de sangre fría,
como los actuales reptiles, o de sangre caliente, como los mamíferos [64]. Por lo
que se sabe hasta ahora, algunos, probablemente muchos, y quizá todos los
dinosaurios eran de sangre caliente, puesto que la estructura de los huesos de
muchos restos de dinosaurios fosilizados es característica de las estructuras
que se encuentran en los huesos de animales actuales de sangre caliente. Esto
podría ayudar a explicar su éxito en expandirse por todos los continentes de la
Tierra (excepto la Antártida) y en adaptarse incluso a climas fríos, en los que
los reptiles de sangre fría se mostrarían perezosos e inactivos. Quizás incluso
explique por qué los primeros mamíferos no pudieron vencer fácilmente a los
dinosaurios, que podrían haber sido, si hubieran tenido sangre caliente, tan
activos como los mamíferos actuales. Y sugiere que los mamíferos, más que
compartir ascendientes, estaban estrechamente relacionados con algunos
dinosaurios. Los de sangre caliente pudieron haber llegado primero, antes de la
división de los mamíferos a partir de uno de los dos órdenes de dinosaurios.
Cabe incluso especular sobre si todos los dinosaurios ponían huevos. Debido a
su parecido con los terribles lagartos, es natural concluir que sí ponían
huevos, y, para confirmarlo, se han encontrado huevos de dinosaurio
fosilizados. Pero, ¿todos los dinosaurios ponían huevos? Muy probablemente,
algunos debieron de desarrollar la estratagema de los mamíferos de dar a luz a
sus hijos vivos, a pesar de que quizá no siguieran todo el “invento” completo.
El esquema de la vida animal en el Mesozoico pudo ser diferente a la
imagen popularizada de lagartos descomunales en lucha unos con otros. Los
dinosaurios debieron de ser, de hecho, muy similares en cuanto a la diversidad
de animales de sangre caliente que nos rodea, viviendo la clase de vida que hoy
viven los elefantes, tigres, leones, vacas, ciervos, etc. Los mamíferos del
Mesozoico, por otro lado, ocuparían los nichos ecológicos de los “animales
pequeños”, lo que constituiría un elemento significativo en la dieta de, al
menos, algunos dinosaurios.
Esta reconstrucción muestra el aspecto que probablemente tenía el
Archaeopteryx, antepasado de las modernas aves. En lo básico un lagarto volador
—una especie de dinosaurio—, el Archaeopteryx poseía dientes y una larga cola
articulada. Pero, como muestran los ejemplares fósiles de 150 millones de años
de edad, también se hallaba provisto de plumas. Copyright del British Museum
(Natural History).
Las extinciones que eliminaron a los dinosaurios más grandes, seguidas
de la reaparición de nuevas especies grandes surgidas de los dinosaurios más
pequeños, continuaron hasta que se cernió una extinción tan dramática que
incluso los más pequeños desaparecieron. Aun así, algunos animales menores, los
mamíferos, lograron sobrevivir y expandirse a continuación por todo el planeta,
tal como antes había sucedido. Sólo que, en esta ocasión, los animales grandes
eran, también, mamíferos. En este esquema, el mundo actual resulta muy
semejante al de los dinosaurios, aunque ahora algunos mamíferos se hayan
convertido en “fieros gatos”, en sustitución de los extintos “terribles
lagartos".
Pero los dinosaurios no han desaparecido de manera radical. Un grupo de
dinosaurios ha permanecido, en sus características, hasta nuestros días. Los
pájaros son descendientes directos de los dinosaurios voladores, y, con un
criterio sensato, deben clasificarse en la misma familia que sus antepasados.
El linaje directo de los actuales pájaros debemos buscarlo en el dinosaurio
denominado Archaeopteryx,cuyos restos fósiles han sido encontrados
en rocas del Jurásico medio, mientras que en el Mesozoico tardío estaban ya
presentes varios tipos de pájaros que se diversificaban y especializaban en
obtener las ventajas que les brindaba el vuelo. Algunos dejaron de volar, como
el avestruz. Otros retrocedieron más todavía, volviendo al mar. El
funcionamiento de la evolución por medio de la selección natural no siempre
resulta lógico. Si usted se propusiera desarrollar una criatura adaptada a la
natación en el océano Antártico, ¿empezaría diseñando un reptil volador? Por
muy ilógico que parezca, los únicos animales que se asentaron en el continente
antártico antes de la aparición del hombre fueron los pingüinos, lo cual indica
que los dinosaurios debieron de extenderse incluso hasta la Antártida.
Estas rarezas ponen de manifiesto cómo el modelo evolutivo, desde la
aparición de la vida, ha sido moldeado por el particular modelo de los cambios
ambientales sobre la Tierra. Si la deriva continental, los reagrupamientos y
fragmentaciones hubiesen sido diferentes, y si el flujo y reflujo de los hielos
hubiese sido también diferente, habría del mismo modo una gran diversidad de
vida, pero con escasa similitud con la que vemos en nuestro entorno, aunque
vivieran en los mismos nichos ecológicos, tan escasa como la que puede haber
entre un tigre y un Tyrannosaurus. Este modelo particular de cambios
ambientales del Mesozoico deparó una primera transformación climática cuando
las regiones desiertas y áridas se abrieron a vientos húmedos debido a la
fragmentación de Pangea II y a la deriva de los continentes, que se iban
alejando de las regiones polares. Mares de aguas someras aparecieron y
desaparecieron en regiones tales como Centroeuropa, en tanto que Gondwana y
Laurasia fueron entidades separadas durante el Triásico. Las fallas y la deriva
continental durante el Jurásico provocaron la brecha que habría de convertirse
en océano Atlántico norte, así como la separación entre Sudamérica y África, lo
cual originó espectaculares levantamientos a lo largo de la costa oeste de
Norteamérica, así como un mar de aguas someras que cubría buena parte del
continente, mientras que los dinosaurios se propagaron por los bosques
calientes y húmedos. Durante el Cretácico, a la vez que el océano Atlántico
norte y el Atlántico sur se unían y extendían, el clima se moderaba por la
proximidad del mar a la mayor parte de las masas de tierra; Gondwana se había
dividido completamente en los continentes que conocemos hoy, y Laurasia casi
dejó de existir, con sólo la angosta conexión entre Eurasia y Norteamérica en
el extremo norte del océano Atlántico. A lo largo de todo el Mesozoico el clima
parece que fue caliente, al menos bastante más caliente que en el Paleozoico
final. Los altibajos de las diferentes especies y las desapariciones seguidas
de re expansiones, tan importantes en los restos fósiles de los dinosaurios,
pueden en muchos casos relacionarse directamente con los mencionados cambios
físicos del medio ambiente terrestre. Pero, a diferencia de lo que ocurrió a
finales de Paleozoico, estos factores por sí solos n bastan para justificar tan
extraordinarias extinciones, cuando al final del Cretácico tantas especies de
dinosaurios quedaron exterminadas, y en su lugar fueron los mamíferos los que
se, algo que acabó con el reinado de los dinosaurios y frente a lo cual
nuestros antecesores, fortuitamente o adaptaron a los diferentes nichos
disponibles. Algo muy espectacular ocurrió hace unos 65 millones de años,
estaban bien preparados para beneficiarse.
Capítulo VIII
Orígenes humanos
Contenido:
§. Desastre desde arriba
§. Pequeños supervivientes: una nueva época
§. La vida en las ramas
§. La llegada de los simios
§. Hermanos bajo la piel
§. El simio inmaduro
§. Fuera de los árboles
§. Extinciones en los períodos glaciales
§. El hombre moderno
§. Agricultura y agresión
Debemos nuestros propios orígenes a los sucesos, cualesquiera que
fueran, que condujeron a la desaparición de los dinosaurios. Los mamíferos,
nuestros antepasados, ya existían 100 millones de años antes de la brusca
conclusión de la era de los dinosaurios, ocupando discretamente los nichos
ecológicos pertenecientes a los animales pequeños y corriendo entre la maleza.
Los pequeños mamíferos comían huevos de dinosaurio, cuando podían cogerlos, y
los dinosaurios de tamaño medio comían pequeños mamíferos, cuando podían
atraparlos. Puede decirse, en consecuencia, que los dos tipos de animales
estuvieron en conflicto. Sin embargo, no existe ninguna evidencia de que los
mamíferos fueran la causa de la desaparición de los dinosaurios. Los mamíferos
no se transformaron de repente, por lo que sabemos hasta ahora, en más hábiles
buscadores de huevos de dinosaurio como para poder comer tantos que éstos
fueron barridos. Tampoco podemos afirmar que nuestros antecesores mamíferos
fueran más inteligentes que sus contemporáneos los dinosaurios. La imagen
tradicional del pesado y estúpido dinosaurio con su gran cuerpo desmesurado y
su diminuto cerebro sólo cifra una parte de la historia. Muchos dinosaurios
eran estúpidos; pero muchos otros eran más pequeños, ágiles y tenían un honroso
tamaño cerebral en relación con el peso de su cuerpo, a la vez que
probablemente eran de sangre caliente. Mientras nuestros antecesores eran
todavía como musarañas escondiéndose en la maleza, al menos un grupo de
dinosaurios tomó el camino —visto retrospectivamente— que los conducía a una
verdadera inteligencia.
Fueron éstos los Sauromithoides, cuyos cerebros debieron de pesar unos
cincuenta gramos, en cuerpos de unos cincuenta kilogramos, a juzgar por los
fósiles. Esta relación de peso entre el cerebro y el cuerpo no queda lejos de
lo que presentan hoy los mandriles, y los Sauromithoides tenían un cuerpo
semejante al de un pequeño canguro provisto de zarpas y de un cuello largo y
flexible. Lo importante de esta estructura es que permitía la libertad de los
miembros para sujetar objetos; y los Sauromithoides poseían manos bien
desarrolladas con cuatro dedos. Estas características —andar con el cuerpo
erecto, dedos capaces de asir, un cerebro razonable y buena visión— nos serán
familiares en la historia de los orígenes humanos, y resulta tentadora la idea
de especular sobre la futura vida inteligente en la Tierra si una catástrofe no
hubiera acabado con los dinosaurios hace unos 65 millones de años. Como dijo
Cari Sagan en su libro The Dragons of Eden, si los descendientes de los
Sauromithoides se hubieran convertido en las criaturas inteligentes que
dominaran la Tierra, entre otras cosas, se hubiera desarrollado como “normal”
la aritmética en base 8, ya que tenían ocho dedos con los que contar, ¡mientras
que la aritmética en base 10 hubiera parecido bastante exótica!
Pero los dinosaurios perecieron, con lo que dieron pie a los mamíferos a
propagarse por los nichos que tantos millones de años habían ocupado los
dinosaurios. El desastre azotó —y casi con seguridad desde fuera de la Tierra—
en comparación con la anterior gran extinción [65] de
especies del final del Paleozoico.
§. Desastre desde arriba
La diferencia más importante que existe entre las extinciones del Paleozoico y
las que marcaron el final del Mesozoico es que las especies exterminadas en el
primer desastre fueron primordialmente las que vivían en aguas someras,
mientras que al final del Mesozoico, aunque la vida marina se viera afectada,
fueron los animales grandes de tierra los que desaparecieron por completo.
También los dinosaurios marinos se vieron afectados. Se trataba de animales que
respiraban aire que habían vuelto al mar y nadaban por la superficie, quedando
tan desprotegidos ante el desastre como sus parientes terrestres. Los
verdaderos peces, los que nadaban en aguas profundas, los habitantes del fondo,
apenas debieron de tener noticia de lo que acabó con los dinosaurios. Las
criaturas marinas —de manera especial las que nadan en mares poco profundos
alrededor de los continentes— son las especies que debieron quedar afectadas
por la reconstitución de un supercontinente y por los períodos glaciales que sabemos
tuvieron lugar al final del Paleozoico. A finales del Mesozoico no hubo una
creación comparable de continentes, ni un período glacial importante.
Considerando los registros fósiles de criaturas de aguas someras, no habría
razón para pensar que hace 65 millones de años hubo una época de cambios
sustanciales coincidentes con la conclusión del Mesozoico. Lo que ocurrió, sea
lo que fuere, afectó irremisiblemente a todas las criaturas de la superficie
terrestre, sobre todo a los grandes animales, pero incidió mucho menos en lo
que estaba bajo la superficie del mar (es evidente que el desastre azotó a la
Tierra desde el exterior, desde el espacio).
Hay firmes candidatos para una catástrofe tal. Dos de ellos son
variaciones sobre un mismo tema, la idea de que, por una razón u otra, algún
cataclismo destruyó la capa de ozono, tan importante para la protección de la
vida en la superficie terrestre, a consecuencia de lo cual los grandes animales
fueron víctimas de un flujo de radiaciones ultravioletas [66]. La
versión más dramática de esta historia, desarrollada por el astrónomo soviético
I. S. Shklovskii, responsabiliza a la explosión de una supernova relativamente
cercana, lo que produjo un flujo de rayos cósmicos que barrieron la parte
superior de la atmósfera, destruyendo el delicado equilibrio químico por el que
se mantiene la capa de ozono. La entrada de radiaciones pudo durar sólo unos
cuantos minutos: la capa de ozono se recuperará en unas cuantas décadas. Pero
David Clark, del Royal Greenwich Observatory, ha señalado que la expansión del
material expelido por la supernova alcanzaría la Tierra siglos después de la
explosión inicial, y cubriría el Sistema Solar con partículas energéticas a lo
largo de los siglos posteriores, produciendo una mayor perturbación del
ambiente durante mucho tiempo, y afectando a la vida en la Tierra. Para
desventura de los seguidores de esta dramática idea, parece ser que las
probabilidades de que una supernova explotara cerca de la Tierra para
desencadenar todos estos efectos son muy pequeñas. R. C. Whitten y sus colegas
de la NASA Ames Research Center en California han calculado que una supernova
lo bastante próxima como para destruir el 50% de la capa de ozono sólo se da
una vez cada 2.000 millones años o más. En otras palabras, hay únicamente una
posibilidad entre cien de que explotara una supernova hace 20 millones de años,
y alrededor de un 3% de probabilidades de que hubiera una hace 65 millones de
años. No es imposible, ¡pero sí improbable!
La otra versión de esta idea encuentra la causa de la destrucción de la
capa de ozono en una fulguración de nuestro Sol, una inusual aunque no
imposible explosión parecida a las fulguraciones que observamos hoy, pero 100
veces mayores. Nuestro Sol no es hoy día una estrella en calma, y nos muestra
de diversas maneras su actividad; la más importante es el “ciclo de las manchas
solares”, con una duración aproximada de once años, en el cual se advierte un
crecimiento regular de la actividad seguido de un declive hacia un estado de
mínima actividad. En el punto de máxima actividad, el Sol experimenta unas
explosiones que producen enormes cantidades de partículas, en su mayor parte
protones, que se desplazan en el viento solar a través del espacio alcanzando
algunas de ellas a la atmósfera terrestre. G. C. Reid y un equipo que trabaja
en Boulder, Colorado, han calculado el efecto de los protones solares en la
capa de ozono y, por ende, sobre la vida en la Tierra. Ya que uno de los
efectos de los protones solares es el de estimular la producción de óxido
nítrico en la atmósfera, y éste se combina con el ozono para producir dióxido
de nitrógeno y “ordinarias” moléculas diatómicas de oxígeno, los protones
resultan un eficaz elemento para reducir la concentración de ozono en la
estratosfera. Al menos serían eficaces para destruirlo si pudieran penetrar
fácilmente en la capa de ozono. Por suerte para nosotros, hay otra capa
protectora alrededor de la Tierra que nos defiende de los peores efectos: el
campo magnético, que repele las partículas del viento solar cargadas
eléctricamente.
Ahora bien, el campo magnético no siempre está ahí para proteger la
estratosfera de las partículas cargadas. Recuérdese que el campo geomagnético
se invierte de vez en cuando, y durante esas inversiones se debilita, en el
mejor de los casos, por espacio de cientos o miles de años. Durante este
tiempo, incluso las llamaradas solares ordinarias del tipo que hoy nos es
familiar podrían reducir tanto la concentración de ozono en la estratosfera que
un 15% más de rayos ultravioleta penetraría hasta nuestro suelo. Una llamarada
100 veces más fuerte de lo normal —verosímil hace unos miles de años— podría
duplicar o triplicar la radiación ultravioleta que llega a la superficie
terrestre. Este proceso parece haber influido en la vida sobre la Tierra, y
pudo desempeñar un papel relevante en algunas extinciones de animales, ya que
los fósiles muestran una tendencia a la extinción en períodos de inversiones
geomagnéticas. Pero aún no está claro que esto fuera lo que ocurrió al final
del Cretácico, cuando los dinosaurios desaparecieron [67].
Actualmente, el mejor candidato para la influencia exterior que los condujo a
su ruina parece ser un impacto del exterior, el choque de un gran meteorito con
nuestro planeta.
La Tierra ha sido bombardeada por meteoritos desde su formación, es más,
se formó de una nube de material alrededor del Sol resultado de choques entre
bloques de material, el mayor de los cuales creció hasta convertirse en
planeta. Desde hace unos 4.000 millones de años, la cantidad de material no
planetario del Sistema Solar ha disminuido, a medida que los planetas han ido
eliminando más y más bloques. Las abolladas superficies de la Luna, Mercurio,
Marte y las lunas de Júpiter, familiares hoy por las fotografías de las sondas
espaciales, muestran los encontronazos que cada planeta o luna ha recibido
durante el proceso, y los cráteres son menos ostensibles en la Tierra
únicamente porque han sido suavizados por la erosión y destruidos por la
actividad tectónica. (En Venus, los cráteres quizás estén allí, o quizá se han
desgastado, en cualquier caso la superficie se nos oculta bajo delgadas capas
de nubes.) Incluso durante la presente era geológica, el Cenozoico, con una
duración de sólo unos 65 a 70 millones de años, la mitad del suelo oceánico —un
tercio de la superficie de todo el planeta— se ha renovado por la expansión de
las dorsales oceánicas, en tanto que la vieja corteza marina se ha reciclado a
través de profundas fosas. Sólo la superficie terrestre proporciona registros
de sucesos con más de 150 millones de años de antigüedad, una superficie
terrestre considerablemente reformada. Aun así, todavía pueden identificarse
algunos de los rasgos más espectaculares, y la juventud de alguno de ellos
indica que aunque el bombardeo extraterrestre haya disminuido desde los
primeros tiempos de la Tierra, aún no ha concluido del todo.
El cráter Barringer de Arizona es el ejemplo clásico: 1,20 km de
diámetro y 91,48 m de profundidad. Lo produjo el impacto de un meteorito que
puede datarse, por las técnicas geológicas corrientes, en hace 25.000 años. Los
de mayores dimensiones, como el del lago West Clearwater en Quebec (20,8 km de
diámetro) y el Vredefort Ring de Sudáfrica (56 km de diámetro), muestran la
característica forma circular del choque del meteorito, y son con mucha
seguridad cráteres inmensos producidos por choques que tuvieron lugar hace
cientos o miles de millones de años. Tales choques debieron de tener un
pronunciado efecto en el ambiente, cuando menos de manera local, y los más
grandes debieron tener un efecto mayor y más extendido. Al final de 1979 dos
equipos de científicos llegaron, por separado, a la conclusión de que un
concreto impacto de meteorito debió de modificar el medio ambiente terrestre de
forma suficiente para dar cuenta de la extinción de los dinosaurios.
Cráter de Barringer, en Arizona, clásico ejemplo de cicatriz producida por
el choque de un meteorito contra la Tierra. ¿Pudo un suceso semejante, aunque a
escala mucho mayor, haber causado alteraciones medioambientales que condujeran
a la extinción de los dinosaurios y al fin de la Era Mesozoica, hace unos 65 a
70 millones de años?
Desconociéndolo ambos grupos, sin embargo, la formulación original de la
idea se debe a J. I. Enever, en 1966. El “error” de Enever consistió en
publicar sus cálculos en la revista Analog, más conocida por
sus cuentos de ciencia ficción. En su honor, no obstante, parece apropiado
bautizar la idea como “hipótesis de Enever”.
Enever empezó con cálculos muy simples de la energía implicada en los
impactos que han producido cráteres de las características del Vredefort Ring.
La ecuación empleada es una de las más elementales en física: un cuerpo de
masa u que se mueve a una velocidad u tiene una energía
cinética de 1/2 mv2, y si ese cuerpo se detiene por un
choque (o por cualquier otra causa) esa energía debe ir a algún lugar.
Generalmente se transforma en calor, y no es otra la razón por la que los
frenos y las ruedas de un coche se calientan cuando se detiene el vehículo. El
cuerpo de un meteorito ordinario puede moverse a través del Sistema Solar a una
velocidad de unos 50 km/s, en relación con la Tierra, y puede tener una masa de
miles de toneladas. Si un objeto de esas trazas chocara con nuestro planeta, la
energía cinética convertida en calor sería equivalente a una explosión de
100.000 megatones, o más, de TNT, mayor que cualquier artefacto nuclear probado
por el hombre. Pero ni siquiera esto bastaría para explicar un cráter con las
características del Vredefort Ring. El impacto necesario debería de haber
producido el equivalente de 10 millonesde megatones, lo que,
mediante la ecuación de la energía cinética, implica una masa de 32.000
millones de toneladas —comparable con un asteroide como el Hermes, de ninguna
manera imposible en el Sistema Solar incluso hoy— acercándose a una velocidad
de unos 50 km/s. La aportación especial de Enever, sin embargo, fue la de
especular sobre lo que podía haber sucedido si el golpe de un meteorito de
tales dimensiones se hubiera producido, no en la Tierra, como es el caso del
Vredefort Ring, sino en el mar.
Quizá parezca que un impacto en el océano resulta menos espectacular que
uno en tierra, ya que sería “amortiguado” por el agua. ¡Pero esto es del todo
engañoso! Además del maremoto ocasionado, que asolaría las regiones costeras,
la inimaginable cantidad de energía liberada en forma de calor no sólo
vaporizaría el agua del mar en el punto del choque, sino que produciría un
agujero de varios kilómetros de ancho en la delgada corteza del suelo oceánico.
El agua que ocupara ese pozo acabaría por enfriar las rocas derretidas y se
restituiría la normalidad, pero con 16.000 km 3 de agua,
según los cálculos de Enever, vaporizada. Esto sería suficiente para cubrir la
superficie entera de la Tierra con dos centímetros de agua de lluvia, o, si no,
para proporcionar una cubierta temporal de nubes que reflejaría tanta radiación
solar ¡que la Tierra entera se cubriría de una capa de nieve! Al mismo tiempo,
la ascendente bola de aire recalentado subiría hacia la estratosfera, rompiendo
la capa de ozono de una manera tan efectiva como cualquier fulguración solar.
Estos efectos serían, a todas luces, muy serios para la vida en la Tierra,
aunque considerablemente menos para los peces. Aun cuando la idea no es más que
una especulación, es cierto que impactos de esta índole pudieron tener lugar en
los océanos en el curso de la historia geológica; después de todo, el mar cubre
las dos terceras partes de la superficie terrestre, y el Vredefort Ring y otros
cráteres muestran la evidencia de sucesos similares en tierra.
La revitalización de la idea en 1979 añadió algunos datos de relieve. Un
grupo del Scottish Royal Observatory señala que es más probable que los grandes
meteoritos se encuentren con la Tierra cuando el Sistema Solar pasa a través de
una espiral de la galaxia y está sujeto a tropiezos con todo tipo de desechos
cósmicos. Esto parece interesante debido a que recientemente, según los
estándares astronómicos, hemos pasado por una de ellas. (Debería mencionar
también que cerca de las espirales tiene lugar un mayor número de supernovas,
hecho igualmente interesante como hipótesis alternativa de la muerte de los
dinosaurios.) Otro grupo, un equipo americano dirigido por Luis Álvarez, se
acercó a algo incluso más concreto, y anunció sus resultados —lo que provocó una
marea publicitaria— en la reunión de 1979 de la American Association for the
Advancement of Science, en San Francisco.
Como otros antes que ellos, el equipo de Álvarez citó el ejemplo del
Vredefort Ring, y pensaron que un acontecimiento tal originaría un manto de
polvo en la estratosfera. Este polvo se asentaría formando una delgada capa por
toda la superficie de la Tierra; al principio esto ocasionaría una crisis en la
vida, ya que obstruiría el paso a la luz y el calor solares necesarios y
acabaría con muchas plantas y con los animales que de ellas se alimentaran.
Esta versión de la idea no precisa del choque de un meteorito con el mar, y se
basa en los isótopos de iridio encontrados en los estratos rocosos de una
antigüedad de 65 millones de años.
Hablando con propiedad, cabe decir que el descubrimiento del iridio fue
primero; el equipo de Álvarez estaba buscando restos de polvo de meteorito,
pero en principio no pensaban en la relación con los sucesos de hacía 65
millones de años. El iridio es un buen indicador de la presencia de material
extraterrestre, porque existe en exigua cantidad en la corteza de la Tierra. De
modo que el descubrimiento de una fina capa de iridio en el estrato que
coincidía con el de la extinción de los animales hace 65 millones de años les
hizo asociar de inmediato los sucesos extraterrestres con las extinciones. Por
ahora sus resultados no han sido publicados detalladamente, y la prueba
inmediata de la idea empezará con la búsqueda de los restos de iridio, de
momento sólo identificados en estratos de Italia, en núcleos perforados en
tierra y en el suelo marino [68].
§. Pequeños supervivientes: una nueva época
Sea cual fuere la causa, el hecho es que los dinosaurios fueron barridos por
una catástrofe que sólo dejó como supervivientes a animales con menos de 40 kg
de peso[69].
Nuestros pequeños antepasados estaban dentro de los límites de ese peso, y
diversas ramas de mamíferos sobrevivieron a la muerte de los dinosaurios y
aprovecharon las oportunidades que ésta propiciaba para propagarse y
diversificarse. Incluso el término “mamífero” resulta ya demasiado general
cuando se trata de trazar la historia de los orígenes humanos remontándonos a
hace 65 o 70 millones de años. La definición más ajustada de “primate”, el
“orden” biológico que incluye al hombre, parece más apropiada para algunos
mamíferos que ya existían cuando los dinosaurios todavía dominaban la Tierra;
sólo desde hace 65 millones de años puede hablarse de la evolución de los
primates más que de la evolución de los mamíferos en general[70].
Una vez más, el foco de atención de nuestra búsqueda de los orígenes
humanos ha sido reajustado, y una vez más el cambio de enfoque se refleja en la
escala geológica. A pesar de que la era en que vivimos, el Cenozoico, comenzó
hace tan sólo 70 millones de años, gracias a los registros fósiles tenemos más
evidencias minuciosas sobre los sucesos del Cenozoico que sobre los anteriores
160 millones de años o más del Mesozoico, así como la información que poseemos
del Mesozoico es más minuciosa que la que tenemos de la que fue la era más
larga, el Paleozoico, que la precedió. Esto no significa que los
acontecimientos recientes hayan sido más espectaculares o más importantes que
los del comienzo de la historia de la Tierra, sino que sabemos más sobre ellos.
Por el Cenozoico sabemos que la subdivisión en períodos geológicos es
inadecuada como calendario en el que anotar los cambios en nuestro planeta y en
nuestros antepasados, aunque el Cenozoico se subdivida en dos períodos, el
Terciario, que terminó hace unos 3 millones de años, y el Cuaternario, en el
que vivimos. Las épocasgeológicas, las subdivisiones del tiempo
geológico, son mucho más importantes para el resto de la historia.
La línea de los primates desciende de pequeños y ágiles mamíferos, como esta
musaraña arborícola. Incluso el Aegyptopithecus, uno de los primeros simios en
evolucionar a partir de la línea de los monos hace unos 30 millones de años, no
era mayor que un gato doméstico moderno o un conejo. Copyrigth del British
Museum (Natural History).
También es lógico situar las épocas en contexto a partir del momento
presente. El Holoceno comenzó hace 10.000 años tan sólo, al final de la
glaciación más reciente. En cierto modo ésta es una división muy poco natural,
toda vez que sabemos que estamos viviendo en un interglaciar menor dentro de un
lapso más largo de glaciación, de manera que, en cuanto a las condiciones
físicas de la Tierra, el comienzo del Holoceno no denota ningún suceso
especial. No obstante, está relacionado con un hecho de una importancia crucial
para nosotros: el principio de la civilización humana con la invención de la
agricultura. Así pues, se trata en realidad de una subdivisión en términos
humanos. La época anterior, el Pleistoceno, cubre el resto de los 3 millones de
años del Cuaternario y viene precedido a su vez por el Plioceno, que empezó
hace 7 millones de años; el Mioceno, que empezó hace 18 millones de años; el
Oligoceno, con una duración de 15 millones de años y que empezó hace 40
millones de años; el Eoceno, con una duración de 20 millones de años; y el
Paleoceno, que tuvo una duración de 10 millones de años y que fue la primera
época del Cenozoico y la siguiente al final del Mesozoico, hace unos 70
millones de años. Pueden ponerse los números en perspectiva para advertir que
el Cenozoico entero, en cuya primera mitad la corteza oceánica mundial se ha
renovado, corresponde a la cuarta parte de la historia de los reptiles, y a
menos del 2% de la historia global de la Tierra.
Tan próximo a la actualidad que es posible resumir todo el desarrollo
significativo de la vida en un párrafo o dos. Durante el Paleoceno y el Eoceno,
empezaron a dominar las plantas y a proliferar los árboles de hoja caduca,
mientras que los antepasados de las ballenas abandonaron la tierra y regresaron
al mar, donde sus antecesores se habían originado. En tierra, del mismo modo
que los primeros primates, aparecieron los antepasados inmediatos de los
elefantes, caballos, cocodrilos y tortugas, entre otros. En el Oligoceno, hace
unos 26 millones de años, comenzó el levantamiento de los Alpes europeos a la
vez que África empezaba a empujar hacia Europa, y los fósiles de monos se
sedimentaron en diversos lugares de la Tierra.
La mayoría de los mamíferos, incluyendo los monos, se extendieron
durante el Mioceno, y las especies se diversificaron. En el Plioceno, sin
embargo, las condiciones sufrieron un cambio y muchas de esas especies quedaron
diezmadas a causa de una serie de extinciones que culminaron en esas
relacionadas con la reciente ola de glaciaciones. Por entonces había muchas más
especies de mamíferos de las que podemos encontrar hoy; pero los supervivientes
son, por definición, los “más aptos”, según las propias palabras de Darwin, y
la línea de primates que condujo al hombre parece ser la que estaba mejor
provista para sobrevivir a los rigores de la glaciación.
Pero si esta breve discusión sobre los sucesos de los pasados 70
millones de años es adecuada dentro del contexto de los 4.500 millones de años
de la historia de la Tierra, apenas lo es en términos de historia y orígenes
humanos. Veámoslo con un poco más de detenimiento.
No es siempre posible recoger de los fósiles cada uno de los pasos de la
evolución que condujo al hombre, aunque sí es posible recoger las
características de esas musarañas que se convirtieron en las principales
candidatas para ocupar algunos de los nichos ecológicos que los dinosaurios
dejaron vacantes. La mayor parte de los factores que hicieron que nuestras
especies fueran tan afortunadas en los últimos millones de años resultaron que
nuestros antepasados bajaran de los árboles y adaptaran sus técnicas desarrolladas
en los bosques a la vida en las llanuras. Pero en la época que ahora estamos
considerando, hace unos 70 millones de años, ¡nuestros antecesores más lejanos
realizaron la operación inversa! Los pequeños mamíferos que corrían por el
suelo de los bosques, con una dieta de semillas e insectos, se encaramaron a
los árboles tan pronto tuvieron una oportunidad, y empezaron a buscar semillas,
insectos y cualquier cosa que pudieran comer sobre las ramas. La vida en las
ramas requirió algunas adaptaciones significativas que aún permanecen en los
primates de hoy, sin excluimos nosotros mismos [71].
§. La vida en las ramas
La primera necesidad consistió en unas manos capaces de sujetarse a las ramas y
de coger pequeños alimentos tales como insectos, manos con uñas más que con
garras, adaptadas para asir y para tareas delicadas. La segunda necesidad
consistió en una buena visión en tres dimensiones. Esta visión estereoscópica
puede darse con los dos ojos en la parte delantera de la cabeza, funcionando
juntos. El tercer requisito lo constituyó la habilidad de sentarse o de
permanecer de pie, dejando libres las extremidades delanteras para agarrarse y
manipular la comida. Solamente los primates reúnen estas características,
aunque otros mamíferos puedan presentar alguna de ellas, y todos los
depredadores, por ejemplo, dispongan de una visión estereoscópica.
Para sobrevivir en las ramas se hacía indispensable un agudo sentido del
equilibrio y unas rápidas reacciones, y aptitud para “trabajar” coordinando los
ojos y las manos, a través del cerebro, con el fin de capturar los insectos de
la dieta de nuestros antepasados. El traslado a los árboles y la desaparición
de la mayoría de depredadores permitió a algunos de los descendientes de los
primeros primates nocturnos mudarse a la vida diurna, y en la brillante luz del
día, el desarrollo de la visión en color fue una especie de gratificación; no
era esencial para la vida en los árboles, pero fue algo que hizo la vida mucho
más fácil, y abrió nuevas posibilidades de identificar a otras criaturas,
incluso a individuos de la misma especie, y de comunicarse. Ya que la visión en
color ayudaba a identificar al menos algunas clases de comida —como por ejemplo
la fruta—, los genes a los que concernía esta cuestión estaban destinados a
extenderse velozmente en el “patrimonio genético”. Esta aptitud, una vez más,
requiere un eficiente mecanismo que procese la información obtenida, un buen
cerebro.
Todo esto exigió tiempo. En efecto, fueron necesarios 30 millones de
años de evolución para equipar a los descendientes de las primeras musarañas
arborícolas con toda la parafernalia de los modernos primates compendiada más
arriba, mientras que el orden de los primates se diversificó en una variedad de
habitantes de árboles, la mayoría nocturnos y viviendo de una dieta de
insectos. Estos prosimios, como se designan, aún subsisten en algunas partes
del mundo, principalmente en Madagascar, donde quedaron aislados del continente
africano durante millones de años y nunca tuvieron que competir con otros
primates más avanzados. Los primates más avanzados, los antropoides,
evolucionaron de los prosimios, y los primeros de ellos, los primeros monos,
aparecieron hace unos 40 millones de años. Su existencia ha sido revelada por
los restos fósiles encontrados en unos estratos a unos 100 km al sur de El
Cairo, en Egipto. La llegada de esos primeros monos constituyó una mala noticia
para los prosimios. Mayores y más inteligentes, los monos pronto desplazaron de
la vida diurna a los primitivos primates, a la vez que convertían en base de su
dieta las hojas y frutas aprovechables, dejando los insectos para un tentempié
ocasional, o para los prosimios nocturnos.
Uno de los más curiosos rompecabezas planteados en la actualidad por los
estudios evolutivos es el desacuerdo existente entre las escalas de tiempo de
la evolución humana, calculada una mediante la tradicional evidencia fósil, y
otra mediante la nueva evidencia molecular. ¿Se produjo la escisión mono/simio
antes de que divergieran los monos del Viejo y del Nuevo Mundo, separándose las
líneas del hombre y de los simios hace 25 millones de años o más? ¿O bien se
separaron los simios sólo en tiempos relativamente recientes de la línea de
monos del Viejo Mundo, con la escisión hombre/simio dentro de los últimos 10
millones de años? Hoy día existen más evidencias que avalan el esquema
molecular; los restos fósiles de nuestros antepasados lejanos son escasos y muy
distanciados entre sí. Pero el esquema tradicional se halla establecido como
idea aceptada, y actualmente se están realizando esfuerzos para encontrar una
escala de tiempo de compromiso utilizando los mejores datos de cada uno de los
puntos de vista, en lugar de desechar la evidencia fósil, aun siendo escasa, en
beneficio del reloj molecular.
Una evolución semejante era inevitable, dado el tiempo suficiente para
la constante mezcla de los genes, encaminada a producir una criatura aún mejor
adaptada a la vida en los árboles. Pero hace unos 40 millones de años el clima
de la Tierra ya se estaba alterando, después de un dilatado período “tropical”
en la mayor parte de la Tierra.
Cuando los continentes derivaron hacia su posición actual, la presencia
de tierra en las altas latitudes y la inexistencia de agua caliente en las
regiones polares empezaron a ser importantes, y los cambios climáticos del
mundo que adquirieron significación durante este tiempo tal vez desempeñaron un
papel en la evolución de los primates, imponiendo unas duras condiciones para,
de este modo, dificultar su supervivencia. Ésta no fue la única consecuencia de
la deriva continental en el curso de la evolución de los primates. En el
momento en que los monos aparecen en los registros fósiles, África y Sudamérica
estaban ya separadas, y parece poco probable que los monos africanos pudieran
hacer la travesía —incluso en el entonces estrecho “océano”— entre África y
Sudamérica.
Si se acepta la evidencia de que el Ramapithecus fue el antecesor directo
del hombre, la probable trayectoria evolutiva de los homínidos puede recorrerse
hacia atrás hasta más de 10 millones de años. En anteriores versiones de esta
teoría, nuestros parientes australopitecos se ubicaban en estadios intermedios
del itinerario directo que conduce desde el Ramapithecus hasta el Homo sapiens;
hoy parece más verosímil que evolucionaran paralelamente a nuestros directos
antecesores, como una rama separada del primitivo grupo de los ramapitecos.
Éste no es el esquema definitivo; subsiguientes estudios del reloj molecular,
en particular, es probable que den origen por lo menos a algunos cambios en un
próximo futuro. Pero representa el mejor "árbol genealógico” del hombre
que es posible trazar en la actualidad.
De hecho hay monos en Sudamérica y, a primera vista, parecen iguales que
sus parientes de África. Sin embargo, existen importantes diferencias en sus
dientes y en otros rasgos, como la forma de las ventanas nasales, y a
diferencia de los monos del Viejo Mundo, de África y Asia, los del Nuevo Mundo
tienen la habilidad de usar sus colas casi como una quinta extremidad para
sujetarse a las ramas; los monos del Viejo Mundo usan sus colas tan sólo para
mantener el equilibrio. Los dos tipos de mono muestran un sorprendente ejemplo
de evolución paralela de un antepasado común, un híbrido entre musaraña
arborícola y mono que vivió en África y Sudamérica antes de su separación. Cada
línea evolutiva seleccionó entonces las mejores características para la tarea
de vivir en los árboles y se desarrollaron a partir del material genético
disponible, de donde surgió la “respuesta” mono. Pero en el Nuevo Mundo la
línea evolutiva se detiene en los monos; las presiones evolutivas que
produjeron la adaptación en el Viejo Mundo y que condujeron a los primeros
simios y, al fin, a los humanos, simplemente no estuvieron presentes en
Sudamérica, donde los primeros simios en escena fueron los seres humanos que
llegaron desde el Viejo Mundo hace unas pocas decenas de miles de años.
§. La llegada de los simios
¿Cuáles fueron los factores que favorecieron la evolución de los primates en el
Viejo Mundo, produciendo los primeros simios tan sólo 10 millones de años
después de que aparecieran los primeros monos? La mejor respuesta es que en
Sudamérica la selva tropical continuó dominando el panorama, y la vida de los
monos estaba perfectamente adaptada a esas condiciones. Sudamérica se movía
hacia el oeste en aquel baile de continentes, siempre cerca de la región
tropical de la Tierra. África, por su parte, se movía hacia el norte, con lo
que decayeron las grandes selvas. Un clima ligeramente más seco y la presencia
de áreas con menos bosques bastaron para proporcionar un tipo de vivienda algo
diferente, y, como siempre, la vida se adaptó para encajar en el nuevo nicho
ecológico. El resultado fue la aparición de los simios en la Tierra hace unos
30 millones de años. Desde este momento en adelante estamos hablando de los
orígenes del hombre.
El más antiguo fósil identificado perteneciente a un simio procede de la
misma región de Egipto que los fósiles más antiguos de monos: la depresión de
El Fayum, al sur de El Cairo. Hoy día es una región desértica, pero hace unos
30 o 40 millones de años estuvo poblada por una selva exuberante. Los detalles
de cómo los paleontólogos distinguen los fósiles de un simio de los de un mono,
o los de un simio particular de los de uno de sus parientes, componen una
fascinante lectura, de la misma forma que los argumentos de varios
paleontólogos sobre tales distinciones. Pero ésta es una de esas ocasiones en
que los pormenores deben sacrificarse en favor de la brevedad, y debemos
aceptar que las características de los cráneos con una antigüedad de 28
millones de años, casi completos de no ser por la mandíbula, son simios sin
lugar a dudas para los expertos. Este es, pues, nuestro más antiguo y directo
antecesor, que compartimos con otros simios actuales como el chimpancé y el
orangután. El nombre dado a este antiguo simio es Aegyptopithecus, por
su localización en el Egipto actual y del griego pithecusque
significa “simio”.
El chimpancé, nuestro pariente más próximo, es casi misteriosamente humano
en muchos aspectos. Y, sin embargo, ha resultado una sorpresa, todavía no
explicada satisfactoriamente por la teoría de la evolución, el descubrimiento
de que el chimpancé y nosotros compartimos el 99% de nuestro material genético
Del mismo modo que los monos son mayores que los prosimios, los simios
son, en general, mayores que los monos; estas diferencias están relacionadas
con sus distintas formas de vida. Los prosimios corren a lo largo de las ramas,
mientras que los monos, con sus potentes piernas traseras, saltan de rama en
rama y de árbol en árbol. Los simios son demasiado corpulentos para tales
saltos y para balancearse de rama en rama usando sus cuatro extremidades,
cuatro manos que emplean para el trabajo. Balanceándose en una rama, un mono
tiene tres manos para sujetarse y una mano libre para coger fruta.
Desde luego, con estas especies tan íntimamente relacionadas las
diferencias se borraron. Algunos de los grandes monos actuales se desenvuelven
según el modelo de vida típico de los primeros simios; el hombre, por tanto, no
es el único primate que ha ensayado la vida en el suelo. A pesar de todo, las
amplias desemejanzas indican que las especies se han diversificado en papeles
diferentes.
Con la entrada de los simios en la escena evolutiva llegamos a otra
subdivisión de especies, los homínidos, sólo representados por el hombre y
otros simios. Las distinciones entre especies a este nivel son tan sutiles, y
los restos fósiles tan incompletos [72], que es
difícil estar completamente seguro de los detalles sobre cómo los descendientes
del Aegyptopithecus se transformaron en hombres. Al parecer,
poco después de que el primer simio apareciera, la línea de los homínidos se
dividió en dos ramas principales, una de ellas representada por fósiles del
género Pliopithecus, el antecesor de los gibones; la otra línea, Dryopithecus (que
significa “simio arborícola”), parece haberse extendido durante el Mioceno, y
se estableció hará unos 20 millones, 8 millones de años después de la aparición
del Aegyptopithecus. Los fósiles del Dryopithecus se
encuentran en África, Asia y Europa, y los restos más completos proceden de la
región del lago Victoria, al este de África, de donde los extrajeron Louis y
Mary Leakey. El verdadero género Dryopithecuses el antecesor
directo de especies modernas como el orangután y el gorila, pero no
probablemente del hombre. Parece que compartimos un antepasado común —aún no
encontrado— que podría ser un “driopiteco”, del que surgieron el Dryopithecus y
dos líneas más. El Gigantopithecus, representante de una de éstas,
fue el antecesor de una familia de grandes simios que habitaban en Asia y que
se han extinguido; el Ramapithecus, representante de la otra, parece ser
nuestro propio antecesor. Para nuestra frustración, sin embargo, hay un vacío
de restos fósiles desde la época del Ramapithecus hasta hace unos 5 millones de
años. Tal vez se considere un vacío insignificante comparado con la vasta
extensión de tiempo desde el origen de la Tierra, o desde el origen de la vida
en la Tierra. Pero en este vacío crucial el Ramapithecus ¡aprendió,
entre otras cosas, a andar derecho! No resulta sorprendente que los
paleontólogos estén tan ansiosos por encontrar restos humanos (homínidos, en
oposición a las líneas de simios [hominoides]) de un período de hace entre 4 y
8 millones de años.
§. Hermanos bajo la piel
Nuestra llegada a este vacío crucial en los registros fósiles nos ofrece un
lugar adecuado para detenemos y ver hasta qué punto es cierta la historia que
acabamos de bosquejar. Ciertamente, todas las especies comparten el mismo
arranque, nuestros propios antepasados se separaron de las otras líneas de
simios hace 15 millones de años, con la llegada delRamapithecus. Pero
no hay nada que demuestre que el Ramapithecusha evolucionado hasta
convertirse en hombre, y existen nuevas pruebas de que la escisión entre
humanos y simios tuvo lugar hace menos de 15 millones de años. Todo estriba en
el grado de relación que guardamos con los diversos simios, y la biología
molecular es ahora una ciencia suficientemente precisa como para poder comparar
las proteínas del ADN de las células humanas con las del ADN de los simios y
determinar lo semejantes que somos.
Los resultados de este trabajo, iniciado por los biólogos americanos
Vincent Sarich y Allan Wilson [73], son
sorprendentes a la luz de la interpretación convencional de los fósiles. La
nueva evidencia muestra a las claras que nuestros más cercanos parientes son
los gorilas y los chimpancés; la relación con los orangutanes es más remota y
la de los gibones todavía más. Hasta aquí no hay grandes problemas con los
fósiles. Pero en términos genéticos, las diferencias entre un hombre y un
chimpancé, o entre un hombre y un gorila, son mucho menores que las diferencias
entre un orangután y un chimpancé. Esto nos indica algo muy valioso: puesto que
los chimpancés y gorilas son animales africanos, caben pocas dudas de que el
origen del hombre está en África. No estamos tan estrechamente relacionados con
los simios asiáticos como para habernos desarrollado allí. La primera sorpresa
que se desprende de este trabajo es la diversa escala de la evolución humana.
Claramente, si el chimpancé, el gorila y el hombre han tenido un
antepasado común, las divergencias entre el material genético de los tres
géneros actuales se han producido por medio de mutaciones desde los tiempos de
ese antepasado común, mutaciones que cambian sucesiva y levemente los genes.
Cuanto más tiempo haya transcurrido desde el antepasado común, más divergencias
genéticas deben de haberse producido entre las diferentes especies, ya que han
tenido más oportunidades para que se dieran mutaciones. Observando las
divergencias en las proteínas —las diferencias entre el material genético— de
las distintas especies de mamíferos, los biólogos moleculares han desarrollado
una fiable guía sobre la regularidad con que las divergencias se suceden, de
manera que son capaces de utilizar estos estudios como un “reloj” para
determinar cuándo el hombre se separa de la línea que conduce a los modernos
simios. Pero la simple aplicación del “reloj” sugiere que los gibones se
separaron de nuestra línea evolutiva hace tan sólo 10 millones de años, el
orangután hace 7 millones de años y el chimpancé y el gorila, 4 millones. Sin
embargo, hace 4 millones de años, de acuerdo con los registros fósiles, ya
había criaturas similares al hombre. Hay un manifiesto conflicto entre el reloj
de los fósiles y el reloj molecular, y algún resultado debe dar.
Quizá la mejor explicación sea que el hombre y el simio han evolucionado
más lentamente que los otros mamíferos, con los que se graduó el reloj. Esto
podría deberse al dilatado plazo de tiempo que transcurre entre las
generaciones, a un vacío mayor entre padres, hijos y nietos que el que
presentan la mayoría de los mamíferos; después de todo, a más generaciones en
un determinado tiempo, más oportunidades de mutaciones. El reloj molecular,
según parece, no mide el tiempo en años sino en generaciones. Otra posibilidad
es que el Ramapithecus no sea, al cabo, nuestro antepasado directo, y que el
reloj molecular nos dé una versión más exacta que la convencional basada en los
registros fósiles. Por ahora el problema persiste y lo mejor que podemos decir
es que los fósiles nos indican que es improbable que la línea humana se
separara de las del chimpancé y el gorila hace menos de 5 millones de años,
mientras que el reloj molecular nos indica que es poco probable, incluso
teniendo en cuenta factores especiales, que la escisión se produjera hace más
de 10 millones de años. Hay margen suficiente para contentar a todas las
autoridades, y podemos asegurar que en algún momento de los últimos 10 millones
de años nuestros antecesores, posibles descendientes del Ramapithecus,
ejecutaron el siguiente paso fuera del bosque que tan bien había servido a los
primates desde la desaparición de los dinosaurios unos 60 millones de años
antes.
Lo que nos convirtió en humanos fue, de cualquier forma, un desarrollo
evolutivo muy peculiar. La peculiaridad sólo la han puesto de relieve los
recientes estudios moleculares, puesto que la segunda gran sorpresa que de
ellos se desprende no es sino nuestra estrecha relación con los gorilas y
chimpancés. De hecho, comparando las cadenas de proteínas, el hombre y el
chimpancé comparten el 99% de su material genético [74]. ¡Los
genes que más nos hacen humanos que chimpancés representan tan sólo el 1% del
total! Independientemente de que la técnica molecular nos diga o no algo útil
sobre la escala de la evolución, éste es uno de los descubrimientos más
asombrosos de toda la historia de la evolución, y es quizá por su pereza mental
por lo que los más virulentos críticos de Darwin, en el momento de la
publicación de su Origen de las especies, prescindieron de este conocimiento.
Esto significa, en términos sencillos, que los humanos y los chimpancés
difieren menos que algunas especies pertenecientes a un mismo género. Un zorro
y un perro, por ejemplo, según las nuevas técnicas, están menos relacionados
que un hombre y un chimpancé, pese a su apariencia similar. Hoy clasificamos a
los animales en categorías según su facilidad para aparearse y generar
descendientes (desde luego), y según su apariencia física. Ciertamente, el
hombre y el chimpancé son mucho más disímiles en su aspecto físico que lo que
puede inducir a pensar la diferencia del 1% del material genético. No es ésta
una apreciación subjetiva; las proporciones de los cuerpos humanos y del
chimpancé (longitud de los brazos comparada con la del cuerpo, anchura de la
cabeza, etc.) muestran diferencias reales. Pero hay mucha menos desemejanza, en
estos términos, entre una cría de chimpancé y un humano adulto. Parece que la
pequeña diferencia genética entre el hombre y el chimpancé reviste tanta
importancia porque los genes que han cambiado son los que controlan el crecimiento
y el desarrollo del cuerpo; el hombre es una especie de simio “inmaduro” o
“infantil” que nunca se desarrolla plenamente comparado con sus parientes,
fenómeno conocido como neotenia.
§. El simio inmaduro
Los biólogos ya lo han reconocido, y se han dado cuenta de que la mayoría de
las características que nos hacen humanos, y que hicieron a nuestros
antepasados tan afortunados cuando salieron del bosque, pueden ser descritas en
términos de neotenia. Se conoce el fenómeno en otras especies, y puede tener un
poderoso efecto en la evolución porque, tal como ha sucedido con el hombre, las
mutaciones en unos pocos genes repercuten de una manera espectacular en la
estructura total del cuerpo que habitan. La cuestión que entonces se plantea es
por qué el simio neoténico —hombre— ha tenido tanto éxito, y no encontramos
mejor respuesta que la que se nos ofrece en el libro de Desmond Morris The
Naked Ape, publicado unos años antes del descubrimiento de la “similitud
genética entre el hombre y el chimpancé, en donde se dice que casi somos
"hermanos (¡o hermanas!) bajo la piel”.
Con los cambios climáticos que ocasionaron la disminución de los
bosques, una criatura como el Ramapithecus, que vivió hace unos 10
o 12 millones de años, se vio en problemas. Los descendientes con más éxito
—los más aptos en términos evolutivos— son los que mejor se las arreglaron con
las condiciones cambiantes, y eso significó bajar de los árboles a tierra, en
las extensas llanuras de África. Por ahora, las destrezas de que se valieron
esos primates en la primera fase de vida en suelo firme de desconocen; el más
importante y obvio ejemplo quizá sea el sentido del olfato, que a nuestros
antepasados las musarañas debió de serles de vital importancia para oler a los
dinosaurios, pero que ha sido en gran parte reemplazado por la vista en los
habitantes de los árboles. Con el tiempo, la evolución sin duda pudo producir
una línea de descendientes del Ramapithecus con un óptimo sentido del olfato,
que caminaran a cuatro patas para mantener la nariz cerca del suelo. Pero los
cambios producidos por el desarrollo neoténico son mucho más rápidos que
cualquier otro cambio evolutivo, prácticamente sin necesidad de mutación
genética. En cualquier especie hay un desarrollo de las proporciones en que los
individuos maduran, en algunas más largo tiempo que en otras. De modo que
cualquier presión selectiva que favorezca un desarrollo físico lento puede
funcionar inmediatamente sobre la población, haciendo que los que se
desarrollan con lentitud sobrevivan y se reproduzcan con mayor eficacia. En la
población, constituida por los descendientes, se da un nuevo desarrollo de las
proporciones de maduración, existiendo ahora una proporción “normal” más lenta,
y asimismo se repite el proceso en cada generación. Sólo unos cuantos genes,
los que controlan el desarrollo y el índice de crecimiento de las distintas
partes del cuerpo, están implicados, y si alguna ventaja hay en este desarrollo
lento, ésta destaca inmediata y efectivamente, igual que entre los pájaros es
seleccionado el gen que controla los huevos de una nidada.
Desde luego, en el caso de la maduración lenta existe la necesidad de
que el niño sea amparado por sus padres o por otros adultos, pero éste es un
rasgo común a todos los simios y también debió de formar parte del modelo de
comportamiento del Ramapithecus. Se hace entonces necesario que la neotenia
resulte ventajosa; el mejor medio para comprender por qué es imaginar los
problemas que concurrieron en la adaptación de un simio arborícola, con buena
vista, manos bien desarrolladas y un considerable cerebro, a la vida en las
llanuras.
La enorme ventaja de un habitante de los árboles en esas circunstancias
sería la versatilidad. Una especie que dependiera por completo de los árboles
desaparecería a la par de los bosques, pero una capaz de —literalmente—
aprender nuevos ardides, en lugar de esperar su evolución, gozaría de mejores
oportunidades de sobrevivir. Por esto el cerebro debió de representar una
ventaja desde el principio de su forzada migración a las llanuras. Muchos
animales desarrollan enteramente su cerebro antes del nacimiento, e incluso
nuestros parientes más próximos, los chimpancés, alcanzan el máximo crecimiento
del cerebro al final del primer año de vida. En los humanos, sin embargo, el
cerebro equivale en el nacimiento a sólo una cuarta parte de su tamaño final, y
no deja de crecer durante casi veinticinco años. Este desarrollo lento es una
característica de la neotenia; significa, en términos prácticos, que el cerebro
puede alcanzar un tamaño que sería imposible antes del nacimiento, ya que si el
total desarrollo tuviera lugar en el vientre, el niño poseería una cabeza tan
desmedida que no podría nacer sin matar a su madre. Un resultado de este
crecimiento continuado del cerebro es que los niños, e incluso los adultos
jóvenes, están en el mundo aprendiendo de él mientras su cerebro todavía crece,
hecho que probablemente explica la adaptabilidad del hombre moderno. El
contraste que existe con animales tales como el ciervo, aptos para correr con
la manada casi tan pronto como han nacido, radica en que tienen sus cerebros “pre
programados” para arreglárselas con la vida en manada; nunca aprenderán nada
más, están colocados en su lugar por el pre programa.
¿Qué más necesitaron nuestros antepasados? Realmente tuvo que ser una
ventaja el poder mantenerse erectos y usar su vista para atisbar los
alrededores y prevenir los peligros; esto requiere que la cabeza esté colocada
de una manera poco corriente en relación con la mayoría de los mamíferos. Si
intenta andar sobre sus cuatro extremidades pronto se percatará de que la
posición natural de la cabeza es mirar hacia el suelo. Los mamíferos que andan
a cuatro patas se han adaptado a su modo de vida desarrollando una cabeza que
forma un ángulo recto con el cuello, de manera que puedan mirar hacia delante;
pero si se adiestra a un animal de éstos (un perro, quizá) para que se mantenga
sobre sus patas traseras, mirará entonces hacia arriba. Los fetos de los
mamíferos, remedando la historia de la evolución, atraviesan por un estadio en
que la cabeza forma un ángulo recto con el tronco, como la cabeza del lector y
la mía. Y la manera en que mantenemos nuestra cabeza hoy es una reversión a ese
estadio fetal, otro ejemplo de neotenia.
Muchas otras características pueden seleccionarse y analizarse de esta
forma, pero basta con reparar en que, con un paso evolutivo relativamente
simple, la neotenia, nuestros antepasados adquirieron las poderosas ventajas de
un mejor cerebro, un cuerpo acomodado a permanecer erguido y capaz de correr
con los ojos alerta a cualquier peligro, manos libres para transportar comida o
armas, y una infancia más larga durante la cual puede enseñarse al cerebro una
forma de vida apropiada por los padres. Dos efectos secundarios, uno trivial y
otro quizá primordial, deben mencionarse.
El primero es que somos relativamente lampiños, el “simio desnudo”,
según el memorable título de Desmond Morris. El feto de un chimpancé, que es
muy similar al humano, incluso en la forma de la cabeza y en las proporciones
de los miembros, manos y pies, tiene escaso pelo, salvo en la cabeza y la
barbilla. Nuestra desnudez” no es sino un efecto secundario de la neotenia, y
es probable” que no represente ninguna ventaja particular en términos de
selección natural, toda vez que se trata de algo que trajo consigo el
desarrollo neoténico, sin fuertes desventajas que provocaran una selección
contraria de los genes de la desnudez. Entretenemos en debatir por qué se ha
evolucionado hacia una piel desnuda nos apartaría de nuestro propósito y no
merecería la pena.
El segundo efecto, sin embargo, es que la neotenia ha conducido a la
característica del comportamiento humano constante de la propagación de nuestra
especie por todo el mundo. Los simios jóvenes se singularizan por su curiosidad
y sus ganas de jugar, pero en todos los casos, excepto en el hombre, esta fase
de exploración desaparece muy deprisa. Cualquiera que sea la causa de este
comportamiento —verosímilmente vinculado con el tiempo que el cerebro precisa
para crecer—, los humanos mantienen la curiosidad hasta la vida adulta. Esta
inclinación a averiguar lo que se esconde detrás de la siguiente colina fue
toda la energía que necesitaron nuestros antepasados para conquistar el mundo.
Las evidencias fósiles y la comparación de nuestro material genético con el de
los simios actuales manifiestan inequívocamente que nuestros antecesores
inmediatos proceden de una concreta parte del mundo, del este de África. Pero
no proyectaron “conquistar el mundo” ni nada parecido. Armados sólo de
curiosidad, unos cuantos miembros de cada generación debieron de vagar por las
montañas y establecieron sus hogares a unos kilómetros de distancia. Algunos de
sus descendientes, a su vez, debieron también de errar por algunas montañas
antes de establecerse y constituir una familia. A razón de sólo 16 km por
generación, el viaje de Nairobi a Pekín se realizaría en menos de 15.000 años,
un abrir y cerrar de ojos en términos evolutivos, con gente que se dispersaba
en la ruta y tomaba otras direcciones para desarrollar las características locales
por las que distinguimos a un negro africano de un chino amarillo, o a un árabe
de un esquimal. El mundo es hoy cual es a causa de te humana combinación de
inteligencia y curiosidad; somos como somos, y el mundo es de esta manera hoy,
porque el hombre es el simio que nunca creció[75].
§. Fuera de los arboles
Todo esto, no obstante, aún pertenecía al futuro cuando la línea del
Ramapithecus —si es que aceptamos que el Ramapithecus fue realmente antepasado
nuestro— abandonó el bosque. Es, quizá, de la misma forma que entendemos tan
claramente la naturaleza del proceso evolutivo que convirtió al simio
arborícola en hombre, ya que no hay restos fósiles de homínidos durante el
período de hace 10 a 5 millones de años, y nada más excepto un fragmento de
mandíbula, de la cual aún discuten los expertos, hasta hace tres millones de
años[76]. Los
registros fósiles nos presentan al Ramapithecus en la linde del bosque —por
decirlo de un modo gráfico— contemplando las llanuras abiertas hace 10 millones
de años; la película se interrumpe hasta que encontramos una extrema variedad
de homínidos que pueblan el este de África hace 3 millones de años, que
trabajan la piedra, cazan animales para obtener carne, fabrican herramientas de
madera, etc. El Ramapithecus vivió tanto en Europa y Asia como en África, pero
lo que le hizo evolucionar y produjo semejante diversidad de homínidos debió de
tener lugar sólo en África, por razones que no comprendemos. Todo cuanto
podemos hacer es reanudar los cabos sueltos de la historia de los orígenes
humanos anteriores al vacío, en África, donde el último de los Ramapithecus vivió
junto a los primeros especímenes de nuestra propia línea (Homo) y dos líneas
más de homínidos, el Australopithecus africanus y el Australopithecus
boisei, que, si bien estaban relacionados con la línea Homo, no parecen ser
nuestros directos antecesores. De aquí en adelante, la historia de la evolución
humana es, en esencia, la de cómo tal diversidad de homínidos se redujo a uno
solo, nosotros mismos. Es ésta una historia que se ha visto transformada
durante las dos últimas décadas a causa de los hallazgos de fósiles efectuados
al este de África y que progresa con nuevos descubrimientos casi cada año, uno
de los grandes desarrollos científicos del siglo XX.
La pulcritud de las etiquetas colocadas por expertos a los restos
fósiles de las diferentes especies humanas y casi humanas, y los prolongados
vacíos de restos, tienden a ocultar la sutileza de los cambios evolutivos de
nuestros antepasados. Si tuviéramos un esqueleto completo de cada generación
anterior a mí o a usted hasta, digamos, el Ramapithecus, no
habría ningún punto en toda la línea de huesos ancestrales en el que pudiéramos
observar algún cambio del Ramapithecus al Homo habilis, del Homo habilis al Homo
erectus, o del Homo erectus al Homo sapiens, el
hombre actual. Pero los huesos de hace entre 500.000 y 1 millón de años serían
claramente distintos de los huesos actuales, y de los restos datados en 3 o 15
millones de años antes de la actualidad. Estas ostensibles diferencias de
restos separados por cientos de miles o millones de años son la base de las
diversas clasificaciones; pero en ningún punto del curso evolutivo se pueden
“detectar las junturas”. No hay nada que nos sugiera que un Homo
habilis con una imprevista mutación diera a luz a un Homo erectus y,
desde luego, no está probado que esta línea de descendencia sea la línea del
origen humano. El Homo habilis, a juzgar por los restos de hace 3
millones de años, fue un descendiente del Ramapithecus o se asemejó a un Ramapithecus. Los
dos “primos”, el Australopithecus africanus y el Australopithecus
boisei, que parecen descender de antepasados con apariencia de
Ramapithecus, también tienen una antigüedad de 2 a 3 millones de años. Antes se
creía que formaban parte de la línea principal de la evolución humana, y aunque
las evidencias ahora disponibles indican que, más que ser nuestros directos
antecesores, forman parte de ramas laterales, la cuestión no está en absoluto
aclarada. Lo que sí está claro, sin embargo, es que existieron algunas
criaturas antropoides hace 3 millones de años, producto de una afortunada línea
evolutiva que se propagaba y diversificaba por diferentes nichos ecológicos. En
el curso de los últimos 2 millones de años, ha habido muchas extinciones de
especies en la Tierra, muchas de mamíferos y todas —salvo una— de las especies
parecidas al hombre. Contrariamente a las extinciones que terminaron con la era
de los dinosaurios, no se oculta ningún misterio acerca de esta última ola de
extinciones. Coincidió precisamente con una gran ola de períodos glaciales, en
particular por todo el hemisferio norte, que fueron propiciados por el lento
cambio de las masas continentales hacia latitudes más altas alrededor de un mar
polar cerrado, y que ha sido modulado durante los pasados dos millones de años
por los ritmos regulares del ciclo de Milankovič, que producen un reiterado
flujo y reflujo de hielo por todas las tierras septentrionales.
§. Extinciones en los períodos glaciales
Las extinciones relacionadas con los períodos glaciales de los últimos millones
de años —una época glacial— marcan el final del Pleistoceno. La historia de la
evolución humana de los últimos dos millones de años es, entonces, la de una
adaptación bajo condiciones de presión evolutiva excepcionales, por cuya causa
desaparecían especies emparentadas muy de cerca. La historia ignota de la
evolución pre humana durante el vacío de fósiles de hace más de 3 millones de
años debió de producir primero una diversificación de las especies similares al
Ramapithecus para luego crear un pre Homo y un pre Australopithecus,
dividiéndose más adelante el Australopitecus en dos formas
registradas en los restos de hace 3 millones de años, el africanusy
el boisei[77].
Sólo a partir de la década de los setenta, pese a todo, puede decirse
que la historia de la evolución del último par de millones de años es
“conocida”. Desde, 1972, una sucesión de hallazgos en emplazamientos del este
de África ha producido, al parecer, un linaje definitivo, a despecho de los
vacíos en los registros fósiles. El descubrimiento crucial fue el del cráneo
del Homo erectus con una antigüedad de millón y medio de años
—el erectus fue el antecesor inmediato del Homo
sapiens, y sus restos se han encontrado en muchos lugares del mundo,
en Europa y Asia, donde vivió hasta hace unos 500.000 años. El descubrimiento
en África oriental de un cráneo de erectus tan antiguo hace
suponer que la forma anterior, el Homo habilis, se convirtió
en Homo erectus en África oriental y la especie, entonces, se esparció (bajo el
signo de su curiosidad natural) por Europa y Asia. Otro hallazgo
particularmente interesante es el de un cráneo de una antigüedad aproximada de
medio millón de años que representa el intermediario entre, el erectus y
nosotros mismos, el Homo sapiens. El erectus salió de África y se expandió por
el mundo; la continua presión evolutiva estimuló el desarrollo de las mejores
bazas para la supervivencia y llevó a que el erectus se convirtiera en Homo
sapiens, de manera similar a como los monos del Viejo y Nuevo Mundo
evolucionaron por separado a partir de una misma raza.
Cráneo del inmediato antecesor del Homo sapiens, el Homo erectus.
Parecerá extraño, en ese caso, que el erectus no se diversificara más.
¡Pero lo hizo! Existe una forma ligeramente distinta de Homo sapiens con una
antigüedad de unos 100.000 años según los restos fósiles encontrados por toda
Europa, en China y en otras partes del mundo. Este era un tipo de hombre
adaptado con más efectividad a Homo sapiens las duras condiciones de la
glaciación, el hombre de Neanderthal, ahora llamado neanderthalensis,
por oposición a nuestra propia línea, denominada con más precisión Homo
sapiens sapiens.
El hombre de Neanderthal tuvo mala prensa cuando aparecieron sus restos
por primera vez a mediados del siglo pasado.
Cráneo de nuestro más próximo pariente extinto, el Homo sapiens
neanderthalensis. copyright del british museum (Natural history).
Fueron la primera forma humana arcaica aparecida, y eso condujo
naturalmente, en ese tiempo, a la creencia de que el hombre de Neanderthal era
un “hombre simio”, mientras que la desafortunada coincidencia del hallazgo de
un esqueleto casi completo encontrado al sur de Francia, que —como ahora
creemos — perteneció a un individuo viejo y artrítico, les indujo a pensar que
el Neanderthal era un tipo de persona desagradable, encorvada y brutal. El
resultado de los análisis modernos sobre una mayor variedad de restos nos
revela lo alejado que esto está de la realidad. El hombre de
Neanderthal, según dicen hoy los expertos, era contemporáneo del Homo
sapiens sapiens, y no un “hombre simio”; es cierto, tenía un cráneo más grueso
y de “ceñudo” aspecto, y era más achaparrado que los de nuestra propia línea.
Pero en realidad poseía un cerebro mayor que el nuestro y sostuvo una vida
compleja en las durísimas condiciones del norte de Europa. Desde la culminación
del último período glacial, han sido desenterrados los restos de un cementerio,
con una antigüedad de 60.000 años, en las montañas de Irak. A los individuos
enterrados se les rodeaba de montañas de flores de los prados cercanos, como
nos revela el polen conservado en el suelo de la cueva. Es ésta una fascinante incursión
en la vida de ese tiempo. Además, las especies de flores empleadas en los
entierros eran tradicionales hierbas medicinales. La gente que llevaba a cabo
el entierro, que rodeaba a su difunto amigo o pariente con flores, era
claramente “humana” en toda la extensión del término y tal vez tuvo
conocimientos de la medicina herbaria. Por si el lector no lo ha adivinado,
ellos también fueron hombres de Neanderthal, no Homo sapiens sapiens .
¿Qué les sucedió a los hombres de Neanderthal? El más joven de sus
restos está datado en unos 30.000 años. Acaso no pudieron, al fin, competir con
éxito con los más eficientes Homo sapiens sapiens. Aunque no hay indicio alguno
de que hubiera conflicto entre ambos, si nuestros antepasados consumían la
mejor comida, los hombres de Neanderthal se quedaban sin nada. Sucediera lo que
sucediere, puede estar relacionado con el calentamiento del final de la última
glaciación, ya que sus restos se encuentran principalmente en el norte. Con
toda seguridad, sin embargo, no fueron “barridos” en el sentido ordinario de la
palabra. El hombre de Neanderthal y lo que llamamos género humano apenas
tuvieron tiempo de apartarse el uno del otro, e incluso pudieron llegar a cruzarse.
Las diferencias entre ambos eran insignificantes, diferencias tribales. Los
hombres de Neanderthal quizá se cruzaron con el Homo sapiens sapiens, de
manera que sus genes, diluidos de algún modo, podrían pervivir en el hombre de
hoy. Y así lo espero. No tengo ninguna objeción en estar emparentado con una
gente que llevó a cabo un entierro en la cueva de Shanidar en los montes Zagros
un día de junio de hace 60.000 años.
§. El hombre moderno
En términos genéticos, la historia de la evolución se pone virtualmente al día
con el surgimiento, hace medio millón de años, del Homo sapiens y
con el breve experimento del hombre de Neanderthal. El relato de cómo el Homo
sapiens sapiens —afectado por la sucesión de los recientes períodos
glaciales y los cambios de los bosques y praderas— desarrolló la civilización
requeriría otro enfoque, un enfoque tan extremo que sólo podría dispensarse con
otro libro. Por fortuna, este trabajo se ha realizado multitud de veces [78], de modo
que, con la conciencia tranquila, puedo detener la historia de los orígenes
humanos en el experimento de Neanderthal. De aquí en adelante, al final del
reciente período glacial, sólo era cuestión de usar los esquemas desarrollados
por la evolución; la invención crítica, hace unos 10.000 años, fue la
agricultura, que condujo al sedentarismo, al comercio, a los pueblos y
ciudades, y (no se olvide) a la guerra. Antes de dejar el relato de manera
definitiva, quisiera hacer hincapié en este último punto, la agresión humana,
ya que se ha sembrado mucha confusión en tomo a nuestros “terribles instintos
cazadores” e “incontrolables impulsos de lucha”. La verdad es que nuestros
antepasados cazadores llevaban una vida mucho más pacífica que los primeros agricultores;
la culpa de la guerra puede atribuirse a la agricultura y al concepto de
propiedad ¡y no a nuestros antepasados cazadores!
Las antiguas formas de vida, tribus de cazadores-recolectores, perduran
hoy en diversas partes del mundo; cabe destacar a los kung que viven en la
franja septentrional del desierto de Kalahari. Mediante el estudio de la forma
de vida de estas gentes bajo duras condiciones, los antropólogos se forjan una
idea de cómo vivían nuestros antepasados. La primera sorpresa es que, aun en
las franjas del desierto de Kalahari, la vida es fácil. Incluso el término
“cazador-recolector” resulta inapropiado, ya que la mayor parte de sus
alimentos proviene de la recolección, y se ha sugerido, como más pertinente, el
término “recolector-cazador”. Los kung se alimentan básicamente de nueces,
existentes con profusión en esa parte del mundo, que les dan una cantidad de
1.260 calorías y 56 gramos de proteínas por día, y no ven ninguna necesidad de
dedicarse al cultivo cuando la naturaleza les provee de los frutos que coger.
También comen frutas, granos, etc., y carne de varios animales y aves. La caza
es el trabajo que compete a los hombres: cada hombre debe invertir en la caza
unas diecinueve horas a la semana. La recolección es el trabajo que compete a
las mujeres, y sólo les ocupa unas cuantas horas al día.
En este caso particular, la vida fácil estriba en la cantidad disponible
de nueces, pero aunque el alimento básico varíe, el éxito de la forma de vida
de los recolectores-cazadores en muchos lugares del mundo presenta un típico
esquema similar. Después de todo, si ésta fuera una forma de vida precaria,
¡nuestros antecesores nunca hubieran sobrevivido como lo hicieron durante
tantos millones de años antes de la invención de la agricultura! Hay una clave,
sin embargo, para esta forma de vida y está en relación con el bajo índice de
natalidad, que mantiene una población estable en consonancia con los recursos
existentes; en este caso concreto, con el número de nueces.
Las mujeres kung, como promedio, sólo tienen hijos cada cuatro años; por
consiguiente, cada mujer sólo da a luz a cuatro o cinco hijos en toda su vida
fértil. Con que sobrevivan la mitad de los niños, queda asegurada la población
básica. ¿Cómo ocurre esto? En parte parece estar relacionado con la larga
temporada que amamantan a sus hijos, lo que contribuye a crear un efecto
anticonceptivo natural [79]. Y en
parte porque el infanticidio, especialmente el de las niñas, es aceptado, si se
encubre, en las tribus de recolectores- cazadores. De acuerdo con el ambiente,
los recolectores-cazadores saben que un niño nacido “poco después” que un
hermano sufre y puede llegar a morir. Nuestros antecesores no tuvieron en su
mano criar hasta la edad adulta a un buen número de niños hasta que la
agricultura produjo excedentes de comida, lo cual dio inicio a la explosión
demográfica.
Miembros de la tribu kung. Estudios sobre cazadores-recolectores como los
kung han abonado el mito de que nuestros antepasados vivieron de la caza y
desarrollaron el "instinto de matar". Estas tribus, que viven en
regiones del mundo consideradas marginales para la vida humana en términos
actuales, en realidad basan su existencia en la recolección de alimentos
accesibles, como los frutos secos, sin tener que trabajar muy duramente para
ello. La caza es una ocupación ocasional, no una forma de vida; nosotros
descendemos no de una estirpe de asesinos, sino de una familia de recolectores
que se aprovechaban de cualquier alimento que encontraban en su camino, sin
pensar demasiado en el futuro. La mayor parte de los problemas en torno a la
violencia asociados a la vida moderna —guerra, robo y demás— pueden vincularse
de una manera directa con la invención de la agricultura, con la necesidad
tanto de planificar para el futuro como de almacenar las cosechas, y con el
concepto de propiedad. La agricultura, así parece, conduce al asesinato;
nuestros antepasados —y los kung hoy día— se describen mejor no como
cazadores-recolectores sino como recolectores-cazadores. Copyright del British
Museum (Natural History).
La comprensión de esta forma de vida de los recolectores-cazadores
desveló la equivocación de teóricos tales como Robert Ardrey, quien dice que la
precisión de cazar para sobrevivir de nuestros antepasados, les hizo
evolucionar hasta los asesinos potenciales que somos hoy. De hecho, todas las
evidencias aconsejan pensar que nuestros antecesores fueron recolectores que
cazaban un poco’ y que carecía de la necesidad de desarrollar un “instinto
asesino” puesto que tenían a su alrededor comida de sobra. Richard Leakey y
Roger-Lewin, en sus libros Origins y People of the Lake, señalan de un modo
convincente que la clave del origen humano está no en la caza ni en la
recolección, sino en la combinación de ambas, en una economía
recolectora-cazadora, que es lo que hizo tan especiales a nuestros antepasados.
En cuanto a los conflictos sangrientos entre miembros de la misma especie, sea
el hombre o cualquier otro animal, son la vía más rápida hacia el fracaso
evolutivo. Los genes de la lucha hasta la muerte no sobreviven bien, ya que los
cuerpos en los que residen a menudo sucumben en una pelea; los genes “con
éxito” son los que provocan el fanfarroneo y la burla en la batalla en caso de
disputas (por una hembra o un territorio, quizá), pero pronto reconocen la
derrota y viven para fanfarronear otro día. Y no hay razón para cuestionar
—como hace incluso una autoridad tan respetable como Desmond Morris en su
libro The Naked Ape— que esas señales de “fanfarroneo” dejaron de
ser adecuadas cuando nuestros antecesores cogieron por primera vez una piedra y
la emplearon como arma, de manera que lo que en principio fuera una amenaza se
convirtiera en un crimen sangriento. Si las armas fueron utilizadas en
conflictos por nuestros antepasados hace 5, 6 o 10 millones de años, las leyes
de la genética dispusieron de suficiente tiempo para operar. De nuestros
antecesores, los ávidos de lucha morían en lucha, dejando que los
supervivientes con menos avidez de guerra se reprodujeran y produjeran la
siguiente generación.
§. Agricultura y agresión
No, la fuente de nuestra conducta agresiva y de nuestra predilección por la
guerra debe buscarse más cerca en el tiempo. El argumento de que nuestras
“señales” naturales han sido colmadas es bueno, pero sólo puede aplicarse a un
suceso tan reciente que la adaptación al cambio de situación aún no ha
ocurrido. El único candidato es la invención de la agricultura, hace unos
10.000 años. Como ya he indicado, esto desencadenó una explosión demográfica, y
no hay discusión sobre el hecho de que no hemos evolucionado para que un
inmenso número de personas ocupe espacios reducidos, como Desmond Morris
subraya en otro libro, The Human Zoo. La agricultura proporcionó algo nuevo por
lo que pugnar. En primer lugar, la agricultura requiere que el campesino
permanezca en la tierra durante todo el año, en vez de errar en busca de
comida. De modo que las comunidades se desarrollan, con acumulaciones de comida
y campos repletos de cultivos. De la misma forma que sucede en la
representación paloma/halcón, para quien nunca se ha molestado en cultivar nada
resulta obviamente más fácil llegar y robarlo, en tanto que el granjero debe
luchar o morir de hambre. La diferencia entre hoy y hace 10.000 años es que la
situación no depende de un programa genético prefabricado, sino de la habilidad
de nuestra especie para razonar lo que le resulta más conveniente.
Desde entonces siempre ha habido conflictos por la comida, la tierra, la
propiedad y el “espacio vital”. Las posesiones fomentan el conflicto, y, en
tanto que la propiedad no debe ser robada, el aforismo “la propiedad es guerra”
parece del todo apropiado.
De igual manera que en la representación halcón/paloma, cualquiera
podría prosperar cooperando; pero la expectativa de una posición más ventajosa
para una minoría —digamos un país—, a la que puede accederse mediante la
guerra, es tan grande que alguien —algún país— está casi obligado a intentarlo.
Esto, y no el mito de nuestro linaje cazador, es la causa del conflicto humano.
La diferencia, otra vez, es que nosotros somos conscientes de la situación
y no estamos dirigidos por las ciegas instrucciones de nuestros
genes. Y es importante reconocerlo. Si estamos programados para guerrear, será
difícil ver cómo evitar el último conflicto; pero si estamos programados para
una tranquila vida de recolector, y meramente nos han ofuscado los recientes
desarrollos, entonces quedan razones para buscar y esperar encontrar una
solución inteligente a los problemas de desigualdad en el mundo de hoy. Si
fallamos y un holocausto nuclear destruye la civilización, esto no indicará por
fuerza que la inteligenciasea un “fracaso” en términos evolutivos,
puesto que los kung, entre otros, usan su inteligencia para conservar su forma
de vida. Tal vez indicará que la agricultura fue un error, lo cual es una
interesante idea. Pero, en la otra cara de la moneda, si, pese al error de la agricultura,
somos capaces de evitar el desastre, esto significará que la inteligencia es en
verdad un factor evolutivo extremadamente útil. La evidencia de que la
explosión demográfica está empezando a ser controlada da a entender que hay al
menos una vislumbre de esperanza. Quizá duremos más que los dinosaurios; quizás
incluso desterraremos la vida del planeta y la devolveremos al espacio, de
donde las primeras moléculas vivas llegaron a la Tierra. Pasando por alto los
últimos 10.000 años de historia, que nos refieren de dónde venimos, sólo nos
resta la perspectiva del adónde vamos. Los orígenes del hombre y del Universo
parecen comprendidos, pero ¿cuál es nuestro destino?
Capítulo IX
Destinos
Contenido:
§. Crecer para sobrevivir
§. Gea y el hombre
§. El Universo antrópico
§. El destino del Universo
El futuro del hombre y el Universo pueden examinarse con la misma
variedad de escalas de tiempo que nuestros orígenes. En las escalas de tiempo
más cortas, los venideros 50 ó 100 años aproximadamente, el futuro se halla por
entero en nuestras manos. Durante la década de los setenta, hizo su aparición
una plaga de sombríos pronósticos, muchos de ellos abocados por la idea de que
nuestro planeta se encuentra ya sobrepoblado y de que va a resultar imposible
alimentar a la población de principios del siglo XXI. Unos cuantos futurólogos,
de manera notable el grupo del Hudson Institute encabezado por Hermán Kahn, han
emitido pronósticos que superficialmente parecen extravagantes relatos de
ciencia ficción, visiones de abundancia para todos a la vuelta de la esquina,
cuando la super tecnología elimine por fin los últimos trabajos penosos de la
vida humana. Y en el comienzo de la década de los ochenta, cuando los primeros
indicios de la super tecnología han irrumpido con los microprocesadores, los
agoreros hablan de desempleo masivo, al tiempo que los optimistas hablan de más
“tiempo de ocio” cuando los robots asuman la tarea de los esclavos. El hecho de
que tanto los optimistas como los pesimistas resulten convincentes demuestra,
sin embargo, cuán amplias son las posibilidades con que nos enfrentamos. Ambos
puntos de vista pueden resultar acertados, depende de lo que hagamos ahora; lo
más verosímil, desde luego, es que el futuro inmediato, dentro todavía de
nuestro tiempo de vida, no produzca ni el colapso de nuestra civilización ni el
advenimiento de un nuevo paraíso sobre la Tierra. Seguramente, para salir
adelante, nos las arreglaremos muy bien con unos —ciertas naciones y bloques de
naciones— y bastante menos bien con otros.
La diversidad entre ricos y pobres, entre los que “tienen” y los que “no
tienen nada”, recibió una asombrosa publicidad en 1980 con la publicación del
informe de la Comisión Brandt acerca de la disociación entre el Norte y el Sur
en términos globales. La publicidad se debió no tanto a que el informe
contuviera algo llamativamente original, cuanto que apareció avalado por
nombres de políticos tan respetados como Willy Brandt, de Alemania Occidental,
y Edward Heath, del Reino Unido. Los dieciocho miembros de la Comisión,
pertenecientes a otras tantas naciones distribuidas por los cinco continentes,
ofrecieron consejos para la solución de los grandes problemas con que se
enfrenta el mundo actual, que se resumen en una sola palabra: “igualdad”.
Tensión y problemas continuarán existiendo mientras se mantenga la abismal
diferencia entre ricos y pobres; aunque la Comisión Brandt no lo menciona
explícitamente, nos enfrentamos todavía con los problemas de posesiones que
tuvieron su principio ¡en la invención de la agricultura! En términos
simplistas e idealistas, si los recursos de la Tierra se administraran con
sensatez y se repartieran con justicia entre todas las naciones y entre todos
los individuos de estas naciones, las causas de conflicto desaparecerían junto con
la pobreza, el hambre y la enfermedad. El informe de la Comisión va más allá de
algunos de los pronósticos, explicando en clave política cómo sería ello
realizable. En los términos que he utilizado en este libro el problema estriba
en mantener una población de “palomas” en la cual cada uno recibe su justa
parte. Tal situación puede muy bien proporcionar la mejor oportunidad a cada
uno de los miembros de la población, pero inicialmente existe una enorme
ventaja “evolutiva” para cualquier halcón que trate de usurpar una porción
mayor de la que le corresponde. Si sólo interviniera la genética, no habría
manera de que una población de “palomas” se mantuviera estable. Pero ya no
podemos contemplar la evolución de la especie humana en términos genéticos; poseemos
la capacidad y la inteligencia para considerar acciones alternativas y calcular
sus resultados antes de escoger la más beneficiosa. Afrontamos hoy día la mayor
prueba a nuestro tipo de inteligencia, tal vez el más crucial y decisivo
momento del desarrollo humano desde la invención de la agricultura. Si seguimos
la línea de acción más favorable para la mayoría, tras unas décadas
dificultosas, nuestro futuro estará asegurado, y quizá las fabulosas
predicciones del Hudson Institute no resulten tan fuera de lugar. La
alternativa es que una minoría, los halcones, inviertan su inteligencia y
previsión en adueñarse de lo máximo posible. Ésta es la conducta seguida a lo
largo de todo el tiempo que registra la historia, y los “halcones” han sido
naciones como Inglaterra, los Estados Unidos, Japón, los países europeos, la
Unión Soviética y el bloque oriental. No existen realmente “palomas” en el
mundo actual, por cuanto países que “no tienen nada” se encuentran dispuestos a
seguir el mismo camino que las naciones hoy ricas han venido recorriendo. La
perspectiva no es muy buena, pero el informe de la Comisión Brandt es un
significativo destello de luz en la oscuridad.
§. Crecer para sobrevivir
Lo que está muy claro, y no debe recalcarse, es que los límites físicos de la
“capacidad de mantener” de la Tierra todavía no se han alcanzado. Yo fui uno de
los muchos a los que persuadieron las lamentaciones de la brigada del día del
juicio final de que el fin se nos echaba encima a principios de la década de
los setenta. A consecuencia de ello permanecí tres años en la Science Policy
Research Unit (SPRU) de la Universidad de Sussex, trabajando junto a un equipo
que estudiaba los recursos futuros del mundo en general, y los problemas de
alimentación, energía y materias primas, en particular. Tales estudios
demostraban sin lugar a dudas que resultaría fácil alimentar adecuadamente
incluso al doble de la actual población mundial, haciendo uso de la tecnología
presente, aplicada con inteligencia a la tierra de cultivo existente. En el
mundo muere gente de hambre porque carece de dinero (a nivel individual o
nacional) para comprar comida en los mercados mundiales, grave acusación contra
el sistema económico actual. Con que sólo una pequeña parte del esfuerzo
dedicado a gastos de “defensa” se desviara para satisfacer las necesidades de
los hambrientos, la muerte por inanición podría ser erradicada del mundo y la
población se estabilizaría. Tampoco los problemas relativos a la energía y
materias primas son insuperables, aunque, claro está, la prioridad debe tenerla
la alimentación. Ya se observan signos evidentes de que la explosión de la
población está retrocediendo, y de que los días del crecimiento exponencial
—que tanto asustó a los agoreros de hace diez años— han quedado atrás [80].
Desde el amplio punto de vista del Universo, existe una fundada
esperanza de que la raza humana sobreviva lo suficiente como para interesarse
por los cambios que ocurran como resultado de procesos naturales tanto en
nuestro propio planeta como en el exterior. Si no nos acarreamos la ruina
nosotros mismos, nuestros descendientes van a ser testigos de —o incluso
interferir en— procesos naturales que evolucionan en una escala de tiempo de
decenas y centenas de millares de años (por ejemplo, los períodos glaciales), e
incluso de millones de años (períodos de tiempo en los que se hacen
perceptibles los efectos de la deriva continental y de la actividad tectónica a
largo plazo). El peligro natural más inmediato con que se enfrenta la
“civilización tal como la conocemos” es el advenimiento de la próxima
glaciación plena, advenimiento seguro y conforme con los vigentes estándares
geológicos. Recordemos que con la actual disposición de los continentes, los
ciclos de Milankovič dominan los ritmos de las glaciaciones, y que en números
redondos los “interglaciales” entre dos períodos glaciales completos abarcan
unos 10.000 años. Se cumplen ya unos 10.000 años desde que el último período
glacial se extinguió, y proyectando hacia el futuro los ritmos engranados de
los ciclos de Milankovič, podemos pronosticar con bastante seguridad que, si
todo ocurre igual, el mundo se irá enfriando en el curso de los próximos 5.000
años, ingresando en una nueva glaciación dentro de este tiempo. El hielo
mantendrá entonces cubiertas las masas de tierra septentrionales por espacio de
unos 100.000 años; no deja de ser irónico que los países que se llevarían la
peor parte son casi exactamente aquellos que hoy constituyen el “rico Norte”.
Acaso ellos —nosotros— merezcan esa suerte. Aunque no es muy probable que esto
suceda.
Esta vez, en relación con los ciclos de Milankovič, “no todo va a
ocurrir igual” y es preciso tomar en consideración un nuevo factor. Las
actividades del hombre están alterando ya de un modo sustancial la composición
de la atmósfera de la Tierra con el aporte de dióxido de carbono, causa de la
quema de combustibles fósiles, y con la devastación de las selvas tropicales.
El efecto de esta alteración probablemente será un pequeño, pero significativo,
calentamiento de nuestro planeta, debido a un incremento del efecto de
invernadero. Esto, en sí mismo, puede ser o no ser suficiente para impedir la
“próxima” glaciación. Pero no cabe la menor duda de que si sobrevivimos durante
otros mil años y logramos crear una genuina sociedad global, en la que los
recursos se concentren en los problemas reales, nuestros descendientes gozarán
de la capacidad de manipular el medio ambiente, hasta el punto de evitar
impedir la extensión del hielo, si así lo desean, desde luego.
§. Gea y el hombre
Una pista de lo que puede constituir una buena razón para no desbaratar los
planes globales mediante interferencias con los ritmos naturales procede de Jim
Lovelock, investigador británico que ha desarrollado lo que ahora se conoce
como la “hipótesis de Gea”, el cual, con base en ideas convencionales sobre el
equilibrio ecológico entre las diferentes clases de organismos vivientes sobre
la Tierra, ha llegado a la aparentemente lógica conclusión de que, a lo largo
de miles de millones de años, la vida terrestre ha ayudado a mantener una
situación estable, con condiciones favorables a la vida. A pesar de las grandes
extinciones que han tenido lugar de vez en cuando desde que la vida se inició
en la Tierra y convirtió la atmósfera a un estado rico en oxígeno, ha habido
muy escasas fluctuaciones en la temperatura, en la composición atmosférica,
etc. ¿Podría esta estabilidad haber sido sólo un caso de buena suerte? Lovelock
insiste en que ello es inverosímil, y señala los terribles ejemplos de Venus y
de Marte como planetas abandonados a su propio azar, sin reguladores que
mantengan este tipo de estabilidad.
Trabajando con Lynn Margulis, que fue pionera de la idea de que las
células actuales se formaron por la fusión de diferentes clases de células
primitivas simples que aprendieron a asociarse en una aventura común, Lovelock
ha conseguido explicar, en principio, cómo la estabilidad del actual sistema
atmosférico se mantiene a través de una variedad de controles y equilibrios en
los que intervienen organismos tan impensados como las bacterias que producen
gas de los pantanos, las turberas que captan el carbono y evitan así que se
incremente la concentración de dióxido de carbono en la atmósfera, y otros no
menos curiosos. La idea de una casi sensible y única criatura-Tierra (llamada
Gea, como la diosa-Tierra de los griegos) resulta tan extraña que la hipótesis
de Lovelock infunde recelo en la mayor parte de los científicos. Y sin embargo,
no resulta menos probable el que muchas de las diversas formas de vida de la
Tierra estén manteniendo de modo inconsciente la estabilidad del medio ambiente
a través de una variedad de controles y equilibrios, que el que miles de
millones de células individuales, cada una de ellas constituida por la
combinación armónica de formas celulares primitivas, cooperen para dar origen a
un ser humano que mantiene la estabilidad de la temperatura corporal, rechaza
las infecciones e incluso procura consciencia a un cerebro inteligente.
Utilizando un lenguaje que haría dar un respingo a un genetista, podríamos
conjeturar que la humanidad fue “inventada” por Gea para que le sirviera de cerebro
inteligente y de sistema nervioso, supervisando el planeta en su conjunto y
cuidando de problemas que no podrían ser solucionados tan fácilmente a través
de mecanismos de regulación inconscientes. Para desgracia de Gea, en estos
momentos nosotros producimos más daño que beneficio. Tal vez lo mejor que
podríamos hacer sería plantar árboles a gran escala para que extrajeran dióxido
de carbono del aire, y dejar que los períodos glaciales siguieran su ritmo
secular, mientras nos sometemos a ellos y aprendemos a adaptamos a las
necesidades de Gea, en lugar de destruir el equilibrio natural para satisfacer
nuestra conveniencia a corto plazo. Lovelock y Margulis no se muestran
preocupados por que podamos romper el equilibrio de tal modo que Gea no
sobreviva: mucho antes de que esto llegara a ocurrir, las condiciones se
alterarían tan drásticamente que nuestra especie —por lo menos los miembros
“civilizados” de ella— sería barrida y Gea podría entonces reconstruirse, como
ya lo hizo tras crisis anteriores, tales como la asociada a las grandes
extinciones de fauna de hace unos 225 millones de años. Es en nuestro propio
bien, de acuerdo con la hipótesis de Gea, en el que deberíamos trabajar a favor
y no en contra de los sistemas naturales que mantienen el medio ambiente
confortable de nuestro planeta. Uno de los ejemplos de nuestro papel de
“cerebro y sistema nervioso” de Gea, ejemplo tomado del mismo Lovelock, se
ajusta netamente al hecho de las anteriores grandes extinciones de fauna y a
una de las ideas desarrolladas al principio del capítulo 8. Cualquier día, como
hace notar Lovelock, un enorme asteroide puede chocar con la Tierra, como ya ha
sucedido en el pasado:
«El daño potencial de esa colisión podría ser grave, incluso para Gea...
con nuestra tecnología actual es muy posible que pudiéramos salvamos nosotros y
a nuestro planeta de un desastre... usando parte de nuestras reservas de bombas
de hidrógeno y grandes cohetes espaciales... para convertir un choque directo
en un tiro errado cerca del blanco [81].»
Por consiguiente, el valor potencial para Gea de una especie como la
nuestra es claro, aunque Lovelock parezca no reparar en la ironía de que puede
haber sido muy bien la catástrofe que él cita, el choque de un enorme
asteroide, la que exterminó al anterior aspirante al papel de sistema nervioso
de Gea, el Sauromithoides, hace 65 millones de años.
§. El universo antrópico
Con independencia de lo lejos que queramos llegar con la hipótesis de Gea, de
lo que no cabe duda es de que somos criaturas de la Tierra, desarrolladas y
adaptadas a las condiciones imperantes sobre la Tierra. Igualmente cierto es,
sin embargo, que somos criaturas del Universo, desarrolladas y adaptadas para
ocupar nuestro lugar en el entorno a escala cósmica, aunque esto sea menos
obvio a primera vista. De hecho, algunos lo encuentran tan poco obvio que la
compatibilidad de nuestro Universo con la vida, tal como la conocemos, se
suscita algunas veces como un serio problema filosófico o teológico. ¿No
resulta extraordinario —propone este tipo de argumento— que el Sol se encuentre
justo a la temperatura adecuada para mantener la Tierra caliente, y que mantenga
justo esta temperatura durante el tiempo necesario para que se desarrolle la
vida? ¿No resulta extraordinario de veras que todos los procesos acaecidos
desde el Big Bang hayan sido los precisos para producirnos? La
manera en que se formaron las galaxias y las estrellas y se constituyeron los
planetas, incluso fundamentos como la fuerza de la gravedad, parecen haber sido
hechos a medida de las necesidades de los habitantes de la Tierra. De hecho, lo
que ha ocurrido, naturalmente, es que hemos sido nosotros los hechos a medida
para encajar en nuestro entorno, incluida la fuerza de la gravedad y la
temperatura del Sol. Nuestra forma de vida depende, por delicados y sutiles
mecanismos, de algunas aparentes “coincidencias” en las leyes fundamentales de
la naturaleza que hacen funcionar el Universo. Sin dichas coincidencias,
nosotros no estaríamos aquí tratando de resolver el problema de su existencia;
así, por definición, todo universo en el cual existimos para tratar de resolver
enigmas debe proporcionar enigmas para resolver. Los cosmólogos pueden
construir modelos de universos con diferentes leyes físicas, y podría ser que
tales universos existan o hayan existido (la intuición vulgar sobre la
simultaneidad más bien se desmorona cuando se pone a ponderar cuándo y dónde
puede existir otro universo). El “principio antrópico” afirma que nuestro
Universo parece estar hecho a nuestra medida porque criaturas como nosotros
sólo son capaces de evolucionar en este tipo de universo; y Bernard Carr y
Martin Rees explican exactamente lo que esto significa en un detallado artículo
publicado en Natureen 1979.
Sin entrar en minucias, algunas de las “coincidencias” relevantes para
la vida en nuestro Universo se explican en términos simples. Volviendo al
principio del Universo en el Big Bang, los cálculos muestran que,
cuando alrededor de un 20% del hidrógeno original se transformó en helio en el
seno de la bola de fuego, sólo un pequeñísimo cambio de una de las constantes
que determinan la velocidad de la nucleosíntesis —la constante de la fina
estructura— habría conducido a un modelo de universo radicalmente distinto,
provisto de muy poco helio, o bien de muy poco hidrógeno. Tal situación —tanto
una como otra— nunca habría producido la clase de estrellas que juzgamos
típicas en nuestro Universo, y, sin ellas, la vida habría sido muy diferente,
si es que hubiera podido desarrollarse. Una “coincidencia” bastante menos
abstracta es la que se refiere a los tamaños relativos de los objetos en el
Universo. Una manera de medir las proporciones de un objeto a escala humana en
comparación con el tamaño de una molécula o de una galaxia es el empleo de la
“media geométrica”, que consiste en multiplicar el número grande por el pequeño
y extraer la raíz cuadrada para obtener lo que debería ser un número “típico”
entre ambos extremos. Este método proporciona una auténtica escala de tamaños
para comparar lo desmesurado con lo diminuto, y elimina algunos de los
problemas que estorban cuando se efectúan estas comparaciones en una escala
lineal corriente, en la que se suman los números grande y pequeño y luego se
divide entre dos para obtener la media aritmética.
¿Es el Universo abierto o cerrado? Su destino último depende de la densidad
de materia en su interior, la cual resulta muy difícil de calcular. Una prueba
directa de la velocidad con que la expansión del Universo está aminorando su
marcha resolvería el problema de una vez por todas; esta prueba, en principio,
se obtendrá comparando el desplazamiento hacia el rojo de galaxias lejanas, lo
que da una medida de sus velocidades de recesión, con el brillo (o mejor, la
palidez) que indica su alejamiento (nótese que por convención las magnitudes
por la cuales los astrónomos miden el brillo son mayores para los objetos más
apagados). Pero en el Universo observable, estas medidas (grupos de puntos en
la figura) son inadecuadas para discriminar el margen de los valores
correspondientes a un Universo abierto, destinado a expandirse indefinidamente,
o a un Universo cerrado, destinado al fin a condensarse en una bola de fuego
reminiscente del propio Big Bang. Todo lo que podemos decir es que el Universo
real se halla muy cerca de la línea divisoria entre el abierto y el cerrado.
Pues bien, el tamaño de un planeta como la Tierra resulta de la media
geométrica entre el tamaño del Universo y el de un átomo, y la masa de un
cuerpo humano, de la media geométrica entre la masa del planeta y la de un
protón. Estas relaciones podrían ser una pura coincidencia. Pero, por otra
parte, existen muy buenas razones, basadas en los actuales valores de las
fuerzas eléctricas y gravitacionales de nuestro Universo, por las que una
criatura como el hombre en nuestro planeta debe tener precisamente el tamaño
que tenemos.
Suponiendo que un animal tenga éxito, en términos de evolución, y llegue
a dominar el entorno, se registra por lo general una tendencia evolutiva hacia
un aumento de tamaño. Los individuos de mayor envergadura de cada generación
pueden obtener más alimentos o pueden tener más fácil el hallar pareja, en el
supuesto de que no les molesten los depredadores y de que no crezcan tanto como
para verse con dificultades a la hora de esconderse. Esta tendencia se pone de
manifiesto, por ejemplo, en la manera en que las pequeñas especies de
dinosaurios crecieron y se diversificaron tras a extinción de los grandes
dinosaurios para dar origen a nuevas especies de mayor tamaño. A lo largo de
los últimos 65 millones de años, los pequeños mamíferos se han trasladado a los
nichos dejados vacíos por los dinosaurios y han crecido de modo semejante.
Desde el punto de vista de un físico, sin embargo, resulta sencillo calcular
cuán voluminoso puede llegar a ser un cuerpo humano conservando la capacidad de
sobrevivir en nuestro planeta. Nuestros cuerpos se mantienen compactos gracias
a fuerzas eléctricas, las fuerzas que enlazan los átomos para formar moléculas
y permiten a éstas unirse unas a otras. La fuerza de la gravedad contrarresta
estas fuerzas, y es capaz de romper cualquier conjunto de moléculas demasiado
grande cuando cae; sea el conjunto de moléculas un árbol, una piedra o un ser
humano, poco le importa a la fuerza de la gravedad. Si se supera cierto tamaño,
seguro que se rompe cuando cae. Por consiguiente, tanto las fuerzas eléctricas
que gobiernan la estructura de los átomos como las fuerzas gravitacionales que
mantienen juntos a los planetas son importantes para el hombre; no ha de ser,
pues, sorprendente descubrir que el hombre tiene un tamaño intermedio entre el
de un átomo y el de un planeta [82]
Volviendo de nuevo a la escala superior, si la constante de la gravedad
fuera un poco mayor de lo que es, la convección en el interior de las estrellas
desaparecería y las inestabilidades que dan origen a las explosiones de las
supernovas nunca se desarrollarían, ni se esparcirían, en consecuencia,
elementos pesados por los espacios interestelares para formar planetas. Y así
podríamos ir alargando la lista; todo lo que se refiere a nosotros puede ser
interpretado de una manera muy precisa como el resultado de una “elección”
exacta de las leyes físicas y de las constantes de la naturaleza. La conclusión
a que llegan muchos es que un universo adecuado para la vida resulta un
fenómeno de excepción. En las ecuaciones matemáticas es del todo posible variar
un insignificante detalle, como el de la velocidad a la que el hidrógeno se
transforma en helio en el interior de la bola de fuego, o la constante de la
gravedad. Tales alteraciones producen nuevas ecuaciones que describen universos
plausibles, pero, casi siempre, universos en los cuales la vida, tal como la
conocemos, es irrealizable.
§. El destino del universo
Es bastante notable que la vida sobre la Tierra haya evolucionado hasta un
estado en el que somos capaces de intrigamos por semejantes cuestiones, con el
Sol únicamente en la mitad de su vida como estrella estable de la secuencia
principal. Faltan todavía otros 5.000 millones de años más o menos para que
nuestro Sol alcance el final de su vida, dentro de la secuencia principal, y se
expanda hasta transformarse en una gigante roja para tragarse los planetas
interiores, y no hay razón para esperar la extinción de la vida sobre la Tierra
—la muerte de Gea— antes de que esto ocurra. Sin embargo, tampoco hay razón
para esperar que la vida humana sobreviva ni siquiera una fracción de ese
tiempo. Podemos ser víctimas de un desastre natural —la explosión de una
supernova cercana, quizá, que produzca una inundación de radiaciones y una
masiva extinción de la fauna sobre la Tierra— o de nuestra propia locura. Si es
así, dados los acontecimientos de los últimos 65 millones de años, Gea va a disponer
de mucho tiempo para tratar de generar de nuevo un “sistema nervioso”
inteligente a partir de alguna otra especie. Podemos ser muy bien la primera de
muchas formas de vida inteligente que se desarrollen aquí. Por otra parte,
nosotros hemos desarrollado algo nuevo en la historia de la Tierra, y podemos
cambiar las circunstancias de tal manera que la historia de la evolución no va
a ser la misma de nuevo. Nosotros almacenamos información fuera de nuestros
propios cerebros, en libros, bibliotecas, y ahora en sistemas de computador, lo
cual se sitúa más allá de la inteligencia biológica. Richard Dawkins, en The
Selfish Gene, llega al extremo de describir unidades de información
—ideas expresadas en palabras, una canción, un libro o una obra de teatro— como
“los nuevos replicadores”, a los que denomina “memes”:
«Así como los genes se propagan a sí mismos dentro del “patrimonio
genético” saltando de cuerpo a cuerpo a través de los espermatozoides o de los
óvulos, los memes se propagan en el patrimonio de memes saltando de cerebro a
cerebro... si un científico escucha o lee algo sobre una buena idea, lo
transmite a sus colegas y discípulos [83].»
Dawkins incluso llega a considerar la competición entre memes para
lograr espacio en libros, sistemas de computador, o hasta en la memoria humana.
La analogía resulta imperfecta cuando se extrema; pero pone de relieve la
aparición de un factor diferente en nuestra cultura que, impidiendo una
catástrofe arrasadora, puede hacer a la cultura, o a su contenido en
información, más duradera que los genes de, digamos, los grandes dinosaurios. A
pesar de cuanto cambiemos, o de que los computadores y los robots nos “reemplacen”,
como ocurre en algunos relatos de ciencia-ficción, los memes de la cultura
humana —y de individuos humanos como Einstein o Shakespeare— pueden persistir.
Y si en alguna ocasión establecemos contacto con especies inteligentes de otros
planetas que giren alrededor de otras estrellas, los memes humanos podrán
difundirse a través del Universo, aun cuando los viajes por el espacio físico
interestelar resulten imposibles.
Tal vez, sin embargo, nuestros descendientes logren desarrollar una
cultura espacial —si no interestelar, por lo menos interplanetaria— utilizando
los recursos de todo el Sistema Solar en lugar de los de un pequeño planeta.
Pero por muy optimista que se sea acerca del futuro inmediato del hombre,
resulta inconcebible imaginar a la humanidad y a la sociedad humana conservando
una forma reconocible durante los próximos mil millones de años, cuando tantas
cosas han ocurrido durante los pasados mil millones de años. Nosotros solamente
somos visitantes temporales en una escala de tiempo universal, y el problema
del destino final del Universo, mucho después de que la raza humana haya
desaparecido y el Sol haya expirado, puede revestir, acaso, importancia filosófica
pero, desde luego, no práctica. Pero esto no significa que la cuestión no sea
interesante.
Los factores clave que determinan el destino último del Universo son la
cantidad de materia que contiene y la velocidad a la cual se expande. La
materia tiende a retardar la expansión por medio de la acción de la gravedad,
tratando de tirar del Universo para llevarlo de nuevo al estado compacto de la
bola de fuego del Big Bang. En términos simples, el Universo sólo
se expande sin cesar si explota más velozmente que su propia “velocidad de
recesión”. La velocidad de expansión —el valor de la constante de Hubble— varía
a medida que el Universo evoluciona, por lo que puede antojarse difícil decidir
aquí y ahora cuál va a ser el destino del Universo dentro de muchos miles de
millones de años. Pero conforme se expande el Universo, su densidad decrece al
dispersarse la materia en el espacio, y esta disminución de la densidad se
encuentra exactamente en línea con la velocidad a la que cambia la constante de
Hubble. Si la densidad de la materia del Universo visible para nosotros es
suficiente para detener la expansión que ahora observamos, es que el Universo
ha estado siempre expandiéndose a una velocidad menor que la de escape, y esta
velocidad puede decrecer de manera eventual tanto que la expansión primero se
detenga y luego se convierta en un colapso. Por otra parte, si la expansión que
se registra en la actualidad progresa lo bastante rápido como para sustraerse a
las “presas” gravitatorias de la materia hoy observable, entonces es que el
Universo es y ha sido siempre “abierto” y estará para siempre en expansión. “Todo”
lo que los astrónomos tienen que hacer es medir la densidad de la materia a
través del Universo conocido y el valor actual de la constante de Hubble, que
nos da la velocidad de la expansión universal. Luego serán capaces de
contestamos sin ambigüedades la pregunta de si nuestro Universo es abierto y se
expandirá sin límite o es cerrado y al final va a colapsarse.
Ninguna de las dos cruciales medidas es fácil; la situación no se ve
aliviada por el hecho de que el Universo en que vivimos parezca ser más bien
joven desde el punto de vista de su expansión. Durante el tiempo que ha
transcurrido desde el Big Bang, el Universo ha cambiado muy
rápidamente, y todavía tiene que establecerse en una serena edad media; mirando
hacia atrás, a la época en que la vida surgió sobre la Tierra, la densidad de
la materia en el Universo debía de ser el doble de la actual; y retrocediendo
de nuevo en el tiempo aproximadamente la misma distancia en el pasado, la
materia del Universo se acumulaba en un lugar en el Big Bang[84].
El progreso desde el Big Bang hasta nosotros ha sido
espectacularmente rápido si lo ponemos en relación con la expansión del propio
Universo, y su evolución futura se extiende durante mucho más tiempo que el que
ha abarcado su historia desde el Big Bang, tanto si es abierto como
si es cerrado.
La juventud del Universo utiliza todo un conjunto de métodos para
averiguar su destino último. En principio, sería posible averiguar con qué
rapidez se retarda la expansión del Universo comparando las velocidades de
recesión de objetos próximos, visibles gracias a la luz recientemente emitida,
y objetos lejanos, vistos cual eran cuando el Universo era joven. Esto
mostraría cómo ha cambiado la constante de Hubble, y si el cambio basta para
denotar que el Universo es cerrado. Esta es una idea muy brillante, y elimina
el problema de medir la densidad del Universo. Sin embargo, todo lo que estas
observaciones particulares pueden decimos es que la velocidad a la cual el
Universo se está retardando se halla cerca del valor crítico que determina si
aquél es abierto o cerrado. Debido a que el valor de este “parámetro de
deceleración” está próximo al valor crítico, se hace preciso que transcurra un
período más largo de la historia del Universo antes de poder utilizar este
método para decidir la cuestión en uno u otro sentido, ya que minúsculas
diferencias en las medidas “aquí y ahora” y “allí y entonces” de la constante
de Hubble resultan decisivas. Y no ha transcurrido todavía bastante tiempo de
la historia del Universo para que las observaciones procuren una respuesta
terminante.
Esto no impide a ciertos autores intentar sacarse respuestas de la
manga; algunos cosmólogos argumentan que el parámetro de deceleración es
conocido hoy con suficiente exactitud como para solventar la cuestión. Lloyd
Motz, profesor de astronomía en la Columbia University, es un acérrimo defensor
del modelo de universo cerrado, y cita las medidas del parámetro de
deceleración efectuadas por el observador americano Allan Sandage como prueba
concluyente que «muestra que las galaxias están retrocediendo a velocidades
inferiores a la de escape. La expansión del Universo debe, al final, detenerse[85].»
Quizá sea ésta una afirmación demasiado atrevida para ser sustentada a
la luz de la evidencia disponible, por lo que la mayor parte de los astrónomos
están de acuerdo con la firme conclusión de Motz. Por el contrario, dirigen su
atención hacia el otro método para averiguar el destino último del Universo,
que depende de la medida de la velocidad de expansión (que puede determinarse
de un modo razonablemente preciso), comparada con la densidad de la materia en
el Universo (que resulta muy difícil de determinar).
La cantidad de materia requerida para “cerrar” el Universo por su
influencia gravitatoria global es pequeña en términos de densidad, tan sólo un
gramo por cada volumen cúbico de espacio de 35.000 kilómetros de lado. La
materia que vemos en el Universo se halla casi toda en forma de estrellas
brillantes y galaxias, aunque sabemos que existe cierta materia oscura en forma
de polvo y gas, y las mejores ideas modernas sobre la constitución de las
galaxias (véase el capítulo 2) sugieren que debe haber, por lo menos, diez
veces más materia oscura asociada a cada galaxia brillante. Considerando sólo
la materia brillante, los astrónomos pueden estimar la masa de cada galaxia a
partir de su brillo, sabiendo que el brillo de una estrella particular depende
de su masa. Sus cálculos, si proceden de este modo, indican que la densidad
global es sólo de alrededor del 1 al 2% de la cantidad necesaria para cerrar el
Universo. Con los nuevos conocimientos sobre la formación de las galaxias y los
indicios de que todas las galaxias poseen super halos de materia oscura, la
cifra se eleva de manera alarmante a un 10 o 20% de la densidad requerida —pero
esta elevación no es lo suficiente alarmante si aceptamos la evidencia que
aportan los estudios del parámetro de deceleración de que el Universo es, en
realidad, cerrado. Este, en forma sintética, constituye uno de los mayores
problemas de la cosmología actual, el enigma de la llamada masa perdida.
Problema que se presenta incluso en una escala inferior, puesto que algunos
estudios sobre el movimiento de las galaxias dentro de los cúmulos muestran que
las velocidades de las galaxias individuales, calculadas por el desplazamiento
de Doppler, son superiores a la velocidad de recesión del cúmulo, a menos que
una materia “extra” se encuentre escondida en algún lugar del cúmulo.
El consenso actual entre los astrónomos es que el Universo es abierto.
El profesor Joseph Silk, de la Universidad de California en Berkeley, ha
resumido este consenso muy nítidamente: «El balance de la evidencia apunta
hacia un modelo abierto de universo, [aunque] existen algunos puntos débiles en
los diferentes argumentos [86].» Pero
tanto si el Universo es abierto como si no lo es, la cuestión en sí misma dista
mucho de estar cancelada, y las discusiones continúan abiertas. Algunas de las
recientes observaciones, de hecho, insinúan que todas nuestras ideas acerca de
los detalles de la expansión del Universo pueden requerir una revisión, pues en
los dos últimos años se ha producido una avalancha de evidencias que sugieren
que el movimiento de nuestra Galaxia se desvía mucho en relación con otras
galaxias según un Universo en expansión, a causa de una fuerte influencia
“local” que nos arrastra hacia el cúmulo de Virgo, alejado unos 30 millones de
años luz. Esta influencia local supone que debe aplicarse una corrección a
todas nuestras observaciones sobre el Universo en expansión, y proporciona por
lo menos un indicio de que todavía no poseemos una descripción muy definida del
comportamiento del Universo a gran escala que nos permita formular predicciones
seguras sobre si va a expandirse para siempre, o si un día va a colapsarse.
Si el Universo es abierto, y va a expandirse indefinidamente, toca el
final de la historia. Toda estrella de toda galaxia recorrerá su ciclo vital y
morirá, de modo que el panorama no es sino el de unas galaxias moribundas, en
extinción, que se dispersan cada vez más por el espacio a medida que el
Universo se expande. La actual y notable distinción entre las estrellas
calientes, brillantes, y el frío y oscuro espacio que las separa, eventualmente
se perdería, y el Universo entero alcanzará un equilibrio termodinámico en un
estado de muy baja densidad; un oscuro y casi vacío Universo contendría sólo
los fríos y sombríos restos de estrellas, planetas y agujeros negros.
Si, por el contrario, el Universo es cerrado, entonces la historia
apenas ha comenzado. Con suficiente materia para detener la expansión e iniciar
un colapso, nuestro Universo no volvería a recomenzar hasta dentro, por lo
menos, de 30.000 millones de años, y tardaría otro período semejante de tiempo
en alcanzar la densidad actual. Dentro de unos 90.000 millones de años, todo en
el Universo, materia y energía, sería comprimido de nuevo hasta unificarlo en
un punto singular, una nueva bola de fuego. ¿Y qué ocurre luego? De una manera
literal, las leyes de la física, tal como hoy las conocemos, no funcionan en
condiciones tan extremas, ya que “sólo” comienzan a aplicarse para describir
el Big Bang al cabo de una fracción de segundo de la
explosión. Tal vez todo desaparezca. O tal vez, la más intrigante especulación
de la cosmología, se producirá un “salto” en el punto singular y el colapso se
convertirá en un nuevo Big Bang. Un nuevo universo en expansión
renacerá, como ave fénix, de las cenizas del viejo, para recomenzar otro ciclo
de expansión y colapso, con la formación de nuevas estrellas y galaxias, y
planetas, algunos de ellos portadores de vida. En tal situación, puede que haya
habido un infinito número de ciclos previos y que vaya a haber un número infinito
de ciclos futuros, con lo cual nosotros no seríamos más que los observadores de
un eslabón de una cadena contínua de creación y destrucción. Para todo aquel
que se sienta incómodo con el concepto de una creación singular —un único Big
Bang —, esta idea del universo cíclico acaso sea más confortante. Pero
éste no es todavía el final de la historia.
¿Serán muy semejantes a nuestro propio Universo los otros eslabones de
la cadena? A primera vista, parecería que, aunque contuviesen diferentes
estrellas y diferentes galaxias, habrían de ser, por lo demás, muy semejantes a
nuestro propio Universo, con los mismos tipos de estrellas ordenadas en los
mismos tipos de galaxias y con las mismas oportunidades para el desarrollo de
la vida que en nuestro ciclo. Pero si las leyes de la física dejan de funcionar
en el punto singular, ¿podemos estar seguros de que las mismas leyes de la
física serán reconstruidas en el próximo Big Bang? John Wheeler, de
la Princeton University, argumenta que tal coincidencia sería improbable en
extremo. Usando un concepto conocido como “super espacio” para describir la
conducta del Universo en términos matemáticos, y tomando en consideración los
efectos de la mecánica cuántica, Wheeler argumenta que fluctuaciones cuánticas
en la fase super densa del colapso del Universo tanto originan el salto que
desarrolla una nueva onda de expansión, como restablecen las constantes de la
física de las que va a depender la específica conducta del nuevo universo en
expansión[87]. Esto
explicaría por qué las constantes de las leyes de la naturaleza en nuestro
Universo poseen valores tan curiosos (se consideran el producto de
fluctuaciones cuánticas producidas durante el colapso más reciente, en el ciclo
que precedió a nuestro Big Bang). Pero ello también sugiere que
otros ciclos quizá resulten muy diferentes del nuestro y, en particular, que la
vida puede ser una manifestación poco habitual de los ciclos universales.
Volvemos, de hecho, a otra forma del principio antrópico. En la mayor
parte de los ciclos del Universo, las condiciones serían bastante inapropiadas
para la vida (el universo podría retroceder al punto singular antes de que se
formulara la vida, o las estrellas podrían no procesar el hidrógeno primordial
en elementos más pesados, o no difundirlos de forma apropiada para que la vida
hiciera uso de ellos). Difícilmente ningún ciclo de este universo fluctuante
habría de permitir el desarrollo de la vida; nuestro ciclo se considera como
uno de estos raros caprichos. Una vez más parece que el Universo que vemos a
nuestro alrededor debe de ser de una variedad inusitada, pues de lo contrario,
¡no estaríamos aquí para reconocerlo!
Por consiguiente, se formule el problema como una secuencia de universos
que se suceden unos a otros en el tiempo, o —según defienden algunos— como
diferentes universos probables que se desarrollan en el tiempo, siempre
volvemos a la misma conclusión sorprendente de que vida como la nuestra sólo
puede existir en un tipo peculiar de universo. Fue Einstein quien observó que
«lo más incomprensible de nuestro Universo es que sea comprensible»; el
principio antrópico, de una forma o de otra, nos capacita tal vez para entender
esta comprensibilidad (vida como la nuestra, al parecer, sólo puede existir en
un Universo que comprendamos).
Apéndice A
La edad del universo
La clave de todo, en este libro, reside en la creencia de que conocemos
cómo empezó el Universo, y en la de que sabemos con cierta exactitud cuánto
hace que este comienzo tuvo lugar. De modo que incluyo aquí una visión de los
últimos conocimientos, los del momento en que se escribió este libro, sobre
este tema tan crucial. El material apareció primero de una forma levemente
distinta en New Scientist, el 13 de marzo de 1980. Está basado en una discusión
que mantuve con el doctor David Manes, que entonces se encontraba en el
Instituto de Astronomía de la Universidad de Cambridge.
Los astrónomos profesionales se excitaron, y el público en general se
intrigó y, quizá, se engañó con el anuncio, a finales de 1979, de que la edad
del Universo era sólo la mitad de lo que hasta entonces se pensaba ( New
Scientist, 22 de noviembre de 1979, pág. 587). Tres jóvenes astrónomos
americanos —Marc Aaronson, del Stewart Observatory, John Huchra, de la
Universidad de Harvard, y Jeremy Mould, del Kitt Peak National Observatory—
redeterminaron, por medio de una nueva técnica, las distancias de varias galaxias
relativamente próximas. Pensaron, como resultado de ello, que la mejor
estimación de la edad del Universo se ajustaría más a los 10.000 millones de
años que a los 20.000 que la comunidad astronómica ha venido aceptando durante
estos últimos veinte años. Para comprender hasta qué punto las mediciones de
las distancias de las galaxias son capaces de indicamos la edad del Universo y
por qué debe haber desacuerdo sobre un factor de 2 en los resultados obtenidos
mediante diferentes técnicas, hablé con David Hanes, del Instituto de
Astronomía de Cambridge. Él también ha estado trabajando en el problema de la
medición de distancias galácticas y sus implicaciones para nuestros
conocimientos sobre el Universo.
Hanes recalcó que las animadas y a veces acaloradas discusiones
concernientes a las estimaciones de la edad (si 10 ó 20 mil millones de años)
han venido sucediéndose a lo largo de estas últimas dos décadas, y no fue hasta
1952 cuando los astrónomos establecieron una estimación. Fue entonces cuando
los astrónomos se percataron de que su escala de distancias cósmicas estaba
equivocada, no en un factor de 2, sino en uno de 4. De la noche a la mañana, la
“edad de Universo” aceptada hasta entonces se cuadruplicó, un descubrimiento
que acaparó la atención del público de una forma sin precedentes. La
perspectiva de que los astrónomos estén obteniendo cada vez mayores
estimaciones en tomo a cuándo se produjo en realidad el Big Bang, hace
que crezca la excitación.
Un factor de 2 no es mucho cuando hablamos de edades de miles de
millones de años. La diferencia entre 10 y 20 es, a todas luces, un factor de
2; pero la diferencia que hay entre 1 año y 10.000 millones de años es un
factor de 10 mil millones. El “error” presente en la estimación de la edad es
mucho menos relevante que el espectacular hecho de que las observaciones
astronómicas sean capaces de ofrecemos una neta indicación de que hubo un
comienzo definido del Universo, no importa los miles de millones de años que
haga de ello.
La historia del concepto del Universo en expansión es muy breve. Tal
como Hanes indica, la más significativa “edad del Universo” que tenemos es la
llamada edad de expansión, y el descubrimiento de la expansión del Universo se
remonta tan sólo a 1912, cuando Vesto Slipher, quien trabajaba en el Lowell
Observatory, estableció por primera vez que muchos objetos no estelares
—nebulosas— se alejan de nosotros a velocidades de cientos o miles de
kilómetros por segundo. Velocidades más altas que las de las estrellas de
nuestra Vía Láctea medidas por Doppler. Las velocidades de alejamiento fueron
medidas por los desplazamientos hacia el rojo de Doppler a partir de las
características de esas nebulosas en el espectro, si bien la naturaleza de las
nebulosas fue un misterio hasta 1924, cuando Edwin Hubble, con el entonces
nuevo telescopio de 100 pulgadas de Mount Wilson, detectó estrellas variables
cefeidas individuales en el interior de algunas de ellas. Pudo probar que están
en las afueras de nuestra Vía Láctea y que forman galaxias propiamente dichas.
Hubble y Milton Humason fueron capaces de demostrar durante los años
posteriores que las grandes velocidades de recesión de las galaxias externas
están en relación con su brillo aparente; las menos brillantes (presumiblemente
menos brillantes porque están más lejos) se alejan con mayor rapidez que las
más brillantes (próximas). Esta correlación fue confirmada y perfeccionada por
mediciones de las variables cefeidas en las galaxias externas más próximas (las
cefeidas brillan de un modo intermitente, dando “bujías estándar” para hacer
mediciones de distancias sobre las estrellas cefeidas individuales que puedan
ser identificadas). Los cálculos pronto mostraron que la relación entre
velocidad y distancia es lineal, y se expresa normalmente con la forma
algebraica V = H 0d; la velocidad de recesión (V) de una
galaxia es proporcional a su distancia (d). La constante de
proporcionalidad, H0, se conoce ahora como constante de Hubble; el
mismo Hubble utilizó una ken la ecuación. Este descubrimiento,
combinado con el de que las ecuaciones de Einstein pueden interponerse como la
descripción de un universo en expansión, fundó a la cosmología como una
ciencia, e hizo posible describir cómo ha evolucionado el Universo desde su
explosión inicial (el Big Bang) hasta llegar a su estado actual
(véase New Scientist, vol. 83, pág. 506).
Dejando aparte las sutilidades cosmológicas y mirando lo que dichos
descubrimientos nos dicen sobre la edad del Universo, es importante ignorar,
principalmente, los “movimientos peculiares” a pequeña escala de las galaxias
individuales que perturban el modelo de expansión del Universo. La cercana
galaxia Andrómeda (M31), por ejemplo, se está aproximando a nosotros. En
segundo lugar, la constante de Hubble no es, en rigor, constante de ninguna de
las maneras, porque la atracción gravitatoria de toda la materia en el Universo
actúa deteniendo el alejamiento de las galaxias. La “constante” de Hubble
debería decrecer con el tiempo, del mismo modo que las velocidades de expansión
de las galaxias decrecen con el tiempo, y ése es el motivo por el que se da el
subíndice cero para dar a entender el valor presente de lo que algunos
meticulosos astrónomos prefieren llamar la “razón” de Hubble o el “parámetro”
de Hubble. El parámetro, H0, se expresa en unidades de km/s/ Mpc, de
forma que una galaxia que está a una distancia de 1 Mpc (3,26 millones de años
luz, un mega parsec) se aleja a una velocidad de H0 km/seg; una
galaxia a una distancia de 2 Mpc tiene el doble de velocidad de recesión; y así
sucesivamente.
De modo que vivimos en un Universo en expansión. Ayudándose (aunque no
muy precisa) de una analogía con una bomba que explota, Hanes compara los
restos de las galaxias con la metralla de una bomba. Los fragmentos que se
mueven más velozmente son los que irán a parar más lejos; por consiguiente, en
un determinado momento después de la explosión las velocidades observadas de
los fragmentos serán proporcionales a la distancia a que estén del lugar donde
se ha producido la explosión, ignorando factores externos tales como la
resistencia del aire. Esta “ley” de Hubble no tiene en cuenta qué fragmento
—qué galaxia— se escoge como punto de referencia a partir del cual medir
distancias y velocidades, como muestra la figura 1.
A la luz de esta analogía es fácil ver una forma de determinar la edad
del Universo. Se divide la distancia a la que se encuentran dos galaxias —dos
fragmentos— por su velocidad de recesión relativa, de lo que resulta el tiempo
que hace que se “tocaban”, interpretándolo como el tiempo que hace que se
produjo el Big Bang. El Universo real se está desacelerando, es evidente, de
manera que la velocidad de recesión debió de ser mayor en el pasado; este
simple cálculo debe damos una edad aproximada del Universo, el tiempo que hace
que se produjo el Big Bang. Pero una estimación consistente bastaría para
satisfacer a los cosmólogos actuales. En términos de la constante de Hubble,
Ho, esta estimación de la edad del Universo, denominada “edad de expansión” o
“tiempo de Hubble”, viene dada por t = d/V= l/H0.
Fig. 1. La expansión del Universo, vista desde diferentes galaxias, produce
siempre una relación de Hubble velocidad/distancia. (Basada en la fig. 22 de la
obra Modern Cosmology de D. W. Sciama.)
Pese a que Hubble era muy consciente de todo ello, y pese a que disponía
de una buena herramienta para medir las velocidades de las galaxias, como eran
los desplazamientos hacia el rojo, era bastante más difícil medir las
distancias de otras galaxias de una forma precisa. Además, puesto que las
galaxias más próximas tienen velocidades peculiares que no encajan en el modelo
de expansión, las estimaciones de la edad dependen de mediciones, tan precisas
como sea posible, de las distancias de galaxias de al menos decenas de millones
de años luz de distancia. Durante medio siglo, las distancias estimadas han
representado el eslabón flojo de la cadena, y sus cambios en la escala de
distancias nos han conducido en ocasiones a cambios drásticos en nuestras
estimaciones de la edad del Universo. Hubble y Humason, pioneros en este
trabajo, empezaron con una estimación de 2.000 millones de años para la edad de
expansión, embarazosamente corta, por cuanto los estudios geológicos indican
una edad superior de la Tierra, y nadie se encontraba satisfecho con la idea de
que el Universo fuera más joven que nuestro planeta. El dilema se resolvió en
1952, cuando se descubrió, con ayuda de las siempre provechosas observaciones,
que Hubble confundió una clase de estrella variable con otra, y que, en algunas
remotas galaxias super brillantes, algunas nubes de gas ionizado fueron
equivocadamente identificadas como estrellas. El resultado fue que se
cuadruplicaron las estimaciones de la escala de distancias extra galácticas, lo
que retrotrajo la edad de expansión a 8.000 millones de años, edad superior a
la del Sistema Solar (que se estima en 4.500 millones de años según diversas
evidencias). Desde entonces, ulteriores perfeccionamientos de la escala de las
distancias cósmicas han tendido a establecer la edad definitiva en unos20.000
millones de años, tendencia que ahora contradice el trabajo de Aaronson, Huchra
y Mould, así como los estudios por completo independientes realizados por
Hanes, utilizando una nueva técnica, poco conocida pero impresionante.
Hanes ha afrontado el problema mediante el estudio del brillo de cúmulos
globulares de estrellas en galaxias distantes. Los cúmulos son en potencia
excelentes indicadores de distancias cósmicas, por la razón de que contienen
una gran cantidad de estrellas y son, por ello, muy brillantes y visibles aun a
grandes distancias. Tal como el nombre indica, los cúmulos globulares son
esféricos; pueden llegar a contener un millón de estrellas en cada cúmulo, y el
brillo de cada una de esas estrellas es comparable con el de nuestro Sol. Más
de cien de esos cúmulos son visibles alrededor de nuestra propia Galaxia, y
pueden ser identificados hasta los de Virgo, a más de diez millones de años
luz. Si todos los cúmulos globulares tuvieran el mismo brillo, las distancias
intergalácticas podrían determinarse con sólo la medición de su brillo
aparente, que sería calculado con la ley del inverso del cuadrado, que dice que
una “bujía estándar” a una distancia de 2x de nosotros aparecerá con un brillo
equivalente a un cuarto del brillo de una bujía estándar a una distancia de x.
Desgraciadamente, los cúmulos globulares no son todos idénticos. Dentro de
nuestra propia Galaxia, los cúmulos más brillantes son cien veces más luminosos
que la más débil de las que conocemos, y una ingenua comparación entre dos
cúmulos globulares escogidos al azar y en distintas galaxias nos dispensaría
información engañosa sobre las distancias relativas entre dichas galaxias y
nosotros.
Fig. 2. Cúmulo globular de nuestra Galaxia, disgregado en estrellas
individuales; las galaxias de la constelación de Virgo se hallan rodeadas de
millares de cúmulos globulares que no pueden disgregarse en estrellas
separadas.
Fig. 3. Dos cúmulos globulares de nuestra Galaxia. Ambos se hallan
aproximadamente a la misma distancia de nosotros, de manera que la diferencia
en el brillo aparente, visible en la fotografía, es real.
Sin embargo, tras un concienzudo estudio de los cúmulos globulares
asociados con veinte galaxias en el cúmulo de Virgo, Hanes ha encontrado que
los números relativos de cúmulos globulares, tanto brillantes como oscuros, de
cada galaxia siguen el mismo esquema.
Fig. 4. Comparaciones de la función luminosidad de cúmulos globulares en las
cinco galaxias de Virgo (cuadrados) y en nuestra propia Galaxia (puntos) con
las correcciones apropiadas para desplazar los cúmulos de nuestra Galaxia a
diferentes módulos de distancia. La sensibilidad de esta técnica, en cuanto
indicador de distancias, se halla expresada con claridad; de hecho, el mejor
ajuste se obtiene para un módulo de distancia de 30,7 magnitudes.
Cuando los números de los cúmulos de cada brillo se muestran
gráficamente, como “función de luminosidad”, se obtienen curvas idénticas en lo
esencial a las de galaxias que, debido a su asociación con otras del grupo,
sabemos que están a la misma distancia de nosotros. Cuando este descubrimiento
se aplica a estudios sobre la función de luminosidad de familias de cúmulos
globulares de galaxias elegidas al azar, nos ofrece una indicación inequívoca
de la distancia.
En primer lugar, Hanes toma la función de luminosidad de los globulares
de nuestra propia Galaxia; luego toma la función de luminosidad de los
globulares de la galaxia en estudio, y finalmente compara los dos gráficos.
Debido al debilitamiento de la luz de la galaxia distante por la ley del
inverso del cuadrado, las dos funciones de luminosidad no se nos muestran
idénticas en su estado “puro”. Ahora bien, si se modifica la función que
corresponde a los globulares de nuestra Galaxia por medio de una apropiada
disminución del inverso del cuadrado, las dos curvas pueden hacerse coincidir
de forma exacta. La distancia única que se corresponde con el ajuste de
luminosidad requerido nos da la distancia que hay hasta la otra galaxia (fig.
4). Los astrónomos miden el brillo de los objetos celestes en “magnitudes”, de
modo que una distancia determinada por este método se da en magnitudes, como
“módulos de distancia”. Utilizando los datos del cúmulo de Virgo, Hanes sugirió
un módulo de distancia de 30,7 mag, que se correspondía con una edad de
expansión del Universo de 12,5 mil millones de años, y con una constante de
Hubble de 80 km/s/Mpc (10.000 millones de años corresponden a H0 = 100
km/s/Mpc; 20.000 millones de años, a H = 50 km/s/Mpc). Estos resultados fueron
publicados en 1979 en el Monthly Notices of the Royal Astronomical Society
(vol. 188, pág. 901); otras técnicas, incluyendo un montón de evidencias
reunidas y analizadas por Allan Sandage y Gustav Tammann en los Hale
Observatories, todavía apuntan hacia la edad de 20.000 millones de años,
mientras que un reducido número de otras pruebas da unos resultados más
similares a las estimaciones de Hanes. Aunque es la mayor edad de expansión la
más probable, es evidente que no hay acuerdo entre los astrónomos actuales;
Hanes dice que «cada método tiene sus méritos y sus problemas, sus adeptos y
sus detractores». No obstante, para alguien que asiste al debate desde fuera,
una cosa sí está clara: en tanto que el método “normal” utilizado por Sandage,
Tammann y otros consiste en reunir varias (o muchas) evidencias, el método de
los cúmulos globulares utiliza un solo tipo de observación de una clase de
objetos astronómicos. Hay intrínsecamente menos error con este último método,
pues cuanto más larga es la cadena de razonamiento mayor es la posibilidad de
equivocación. Aaronson, Huchra y Mould utilizaron también la técnica de un solo
paso, pero una técnica que les permitió investigar más lejos dentro del
Universo, más allá de la distancia a la que los cúmulos globulares individuales
pueden ser escogidos (con todo, su técnica no cubría una porción de espacio de
verdad extensa, en razón del Universo visible; las distancias de las más
remotas galaxias pueden determinarse únicamente midiendo los desplazamientos
hacia el rojo y usando la mejor estimación de H0 en la relación de Hubble
velocidad/distancia).
Básicamente, su técnica consistía en un hecho muy simple: las galaxias
con más masa contienen más estrellas y son, por tanto, más brillantes que las
de menos masa. Si la masa de una galaxia se determina, y conocemos el brillo
medio de una estrella, entonces podemos estimar su luminosidad absoluta y
determinar su distancia a partir de su luminosidad aparente y de la ya familiar
ley del inverso del cuadrado. La masa se estima midiendo la proporción en la
cual la galaxia escogida se mueve, ya que los sistemas con más masa se mueven
más rápidamente para evitar colapsarse por culpa de su propio empuje
gravitatorio. En el caso de galaxias uniformes vistas de canto, es sencillo
medir la rotación porque los desplazamientos de Doppler en el espectro tomados
en los dos extremos de la galaxia dan una indicación directa de la velocidad a
la que uno de los lados se aproxima a nosotros y a la que el otro se aleja
(asumiendo, por supuesto, que se resta todo el desplazamiento hacia el rojo
causado por la expansión del Universo). Puesto que las galaxias son ricas en
gas de hidrógeno neutro, Aaronson, Huchra y Mould utilizaron una radiación de
21 cm de dicho gas para medir los índices de rotación, en vez de emplear un
espectro óptico, si bien el principio es el mismo.
Hasta aquí todo es correcto, aunque todavía es necesario medir la
luminosidad, y esto acarrea problemas. Brent Tully y Richard Fisher, que fueron
los pioneros en esta técnica, siempre medían la luminosidad con una luz azul,
pero esas cortas longitudes de onda eran dispersadas con facilidad por granos
de polvo (a la manera en que la luz azul es dispersada por el polvo en la
atmósfera, para originar una puesta de sol roja), y como el polvo se concentra
en el plano de una galaxia, esta dispersión es particularmente importante en el
caso de la luz procedente de una galaxia vista de canto. Si se estudian las
galaxias de cara para eludir dicho problema, resulta mucho más difícil medir
los índices de rotación (la observación directa de la rotación requeriría miles
de años, ya que una galaxia como la nuestra tarda cientos de millones de años
en dar la vuelta). Así pues, los primeros intentos de utilizar la técnica
Tully-Fisher se saldaron con muy distintos resultados, que dependían de las
suposiciones que se hicieran sobre la absorción y de lo grande que fuera la
corrección aplicada para los efectos de inclinación.
Aaronson, Huchra y Mould (AHM) han intentado superar esas dificultades
midiendo el brillo por medio de longitudes de onda de infrarrojos, que penetran
a través del polvo con más facilidad. Esto tiene la ventaja de que la mayor
parte de la masa de una galaxia comparece en forma de estrellas frías, rojas y
de baja luminosidad, de manera que las observaciones infrarrojas están más
cerca de la banda de onda donde la masa dominante es más visible.
(Naturalmente, toda esta discusión se aplica a las galaxias visibles y
brillantes; cobran su peso creciente las evidencias de que mucha masa puede
estar fuera de la región brillante, en forma de materia oscura; New Scientist,
8 de noviembre de 1979, vol. 85, pág. 436.) Calibrando sus cálculos a la vez
que estudiaban en primer lugar unas cuantas galaxias cercanas cuyas distancias
se determinan con mucha exactitud gracias a las mediciones de las variables
cefeidas, AHM fijaron entonces su atención en el exterior para descubrir las
sorpresas que tuvieron lugar a finales de 1979.
Hanes no se sorprendió por los resultados del estudio de AHM sobre el
cúmulo de Virgo —un vecino relativamente próximo, a escala universal— cuando
los cálculos indicaron una distancia a ese cúmulo sólo un 14% mayor que la
distancia determinada por el método de los cúmulos globulares, de acuerdo con
las incertidumbres de las dos técnicas. Pero debido a que la técnica AHM
utiliza la luz de las galaxias enteras, a diferencia de la de Hanes, que
utiliza la luz de los cúmulos de las galaxias, puede explorar más lejos, lo
cual revela que la constante de Hubble determinada por los estudios sobre Virgo
es menor que la constante de Hubble determinada a través de las galaxias más
lejanas. Es este descubrimiento, más que la baja edad de expansión que implica,
el que ha despertado más interés “en el gremio”, entre los astrónomos. Otras
mediciones han indicado que nuestra propia Galaxia y sus vecinas más próximas
pueden estar acercándose al cúmulo de Virgo a varios cientos de kilómetros por
segundo (véase New Scientist, 31 de enero de 1980, pág. 317), y parece cada vez
más como si nuestra Galaxia tuviera dicho gran “movimiento peculiar” que
revelan las mediciones más exactas sobre la edad del Universo y las
conclusiones sobre su evolución y que se requerirán unos mapas a gran escala de
distancias mucho mayores que las utilizadas hasta ahora.
La edad de expansión derivada por AHM es de unos 10.000 millones de
años, lo que la pone al borde de resultar incómodamente corta. Nuestros mejores
modelos teóricos de evolución estelar sugieren que las estrellas de los cúmulos
globulares, las más viejas de las estrellas conocidas, tienen justamente esa
edad o quizá más. Hanes señala que es posible que tenga que efectuarse un
replanteamiento básico de la evolución estelar si siguen apareciendo más
evidencias de tan corta edad de expansión. No obstante, todavía no ha llegado
el momento de hacerlo, y hasta que no se reduzcan las divergencias entre los
resultados de los cálculos obtenidos con diferentes técnicas (la estimación de
Sandage-Tammann de 20.000 millones de años todavía tiene sus adeptos) nada
puede ser tomado como evangelio.
Un cálculo del todo independiente y, en principio, poco ambiguo de la
edad del Universo nos lo dispensan los estudios de los productos deteriorados
de isótopos radiactivos encontrados en material antiguo, como los meteoritos.
Hasta ahora, sin embargo, las incertidumbres relacionadas con la aplicación
práctica de esta técnica significan que la correspondiente mejor estimación de
la edad del Universo está entre 13.000 y 22.000 millones de años (New
Scientist, 7 de febrero de 1980, pág. 398). Esto puede inducir a considerar que
la estimación AHM es más bien baja, pero todavía se da una divergencia
demasiado grande como para resolver el tremendo conflicto entre los resultados
de AHM y de Hanes y los de Sandage, Tammann y sus colegas.
La simplicidad de los estudios tanto de AHM como de Hanes sugiere que
deberán contener escasos errores, y el acuerdo entre las dos técnicas simples
es tranquilizador. La cuestión más fascinante que se ha lanzado a través de
todo ese trabajo, por tanto, es: ¿hasta qué punto del Universo hemos de llegar
para que los efectos universales dominen sobre el comportamiento “local” en
cuanto al movimiento de nuestra Galaxia, a cientos de kilómetros por segundo,
hacia un vecino como el cúmulo de Virgo, que se halla a unos 30 millones de
años-luz de nosotros?
Apéndice B
Crecimiento y límites
En el futuro inmediato, el mayor problema con que se enfrentará la
humanidad será el de eliminar las desigualdades que causan los conflictos entre
los pueblos. Son tantas las personas condicionadas en la actualidad por la ya
desacreditada teoría de los “límites del crecimiento” de ¡a década anterior,
que incluyo aquí otro artículo mío, ligeramente modificado, que se publicó
en New Scientist coincidiendo
con el final de la década de los setenta, y que coloca el debate de los
“límites” en perspectiva.
A pesar de que algunos pedantes puedan argumentar que 1980 es el último
año de la década antigua y no el primero de la nueva, la mirada a la bola de
cristal que, por regla general, se efectúa en esta época del año recibe un
estímulo extra en razón del cambio no de uno sino de dos dígitos en el
calendario. Exactamente lo mismo ocurrió hace diez años, cuando nos
encontrábamos inmersos en pronósticos sobre el día del Juicio final que
pretendían que la civilización tal como la conocemos tendría suerte si sobrevivía
hasta los años ochenta, y no digamos ya si llegaba hasta el nuevo milenio. El
obvio fracaso de las previsiones de las postrimerías de los años sesenta
aconseja que mejor será tomar los actuales pronósticos con ciertas reservas.
Hay una moda de historias sobre un futuro plagado de microchips, desempleo para
las masas y una vida regalada para los ricos. Pero, ¿está esto más cerca de la
verdad de lo que lo estaba el pesimismo de 1969?
Hace diez años, en su discurso de apertura de la conferencia que
inauguraba la segunda década de desarrollo de las Naciones Unidas, U Thant,
entonces secretario general de las Naciones Unidas, hizo la siguiente
declaración:
«No quiero parecer dramático, pero no puedo dejar de pensar, por la
información de que dispongo como secretario general, que los miembros de las
Naciones Unidas tienen quizá solamente diez años para olvidar sus antiguas
disputas e iniciar un periodo de colaboración global para poner freno a la
carrera armamentista, mejorar el medio ambiente humano, detener la explosión
demográfica y renovar el ímpetu de los esfuerzos para el desarrollo. Si tal
colaboración no se verifica dentro de la próxima década, me temo mucho que
entonces los problemas que he mencionado habrán alcanzado unas proporciones tan
gigantescas que escaparán a nuestro control.»
Bien, ya estamos en la década siguiente, y esa catastrófica predicción,
como tantas otras, se ha revelado inexacta. Todavía nos tambaleamos entre
crisis y crisis, y hay quien sigue pronosticando el desplome de la civilización
en los “próximos” diez años. En el otro extremo, unos cuantos super optimistas
predicen que, si podemos resistir durante unos pocos años más, la tecnología
nos hará entrar en una era de abundancia en alas de una gran explosión de
crecimiento, y ésos también decían lo mismo hace diez años. Pero a despecho de
la aparente amplia diferencia entre los profetas de la explosión y los profetas
de la catástrofe, los futurólogos han coincidido mucho durante los últimos diez
años, lejos de sus atrincheradas y separadas posiciones en los extremos.
Fue el primer informe notorio del Club de Roma, Los límites del
crecimiento, el que hizo llegar con tintes dramáticos hasta la opinión pública,
a principios de los años setenta, el debate sobre el futuro. Pero
históricamente fueron Herman Kahn y su equipo del Instituto Hudson los primeros
de la moderna generación de futurólogos en obtener repercusión en los círculos
académicos y gubernamentales, con ideas diametralmente opuestas a las del
equipo de los Límites. La visión de Kahn de que los buenos tiempos se hallan a
la vuelta de la esquina surgió en 1967 en el libro The Year2000 (Nueva York;
Macmillan), donde hacía hincapié en que el crecimiento «se desarrollaría de un
modo más o menos moderado durante los próximos treinta años y siguientes». En
el mundo del año 2000 descrito (suponiendo que no estalle una atroz guerra
nuclear), todos los países serían ricos, aunque algunos se enriquecerían con
más rapidez que otros; el mundo de 1967 demandaba con fuerza: ¡más
hamburguesas!, ¡más coches veloces!, ¡más luces de neón!, ¡más TV en color!,
etc.
El libro parece calculado para infundir en el lector la confianza en la
creencia de que este desarrollo del mundo por la senda de la abundancia de
“Occidente” es inevitable, y algunos futurólogos han señalado que The
Year 2000 era un ejercicio de propaganda, un intento deliberado de
conducir al mundo en esa dirección por medio de la influencia sobre la opinión
pública. No hay duda de que el libro y sus proyecciones se tomaron con
seriedad, ni de que influyó en la política tanto de los gobiernos como de las grandes
empresas de los Estados Unidos. Los peligros son obvios: presentando una visión
del mundo del futuro, un “mundo futuro” inevitable, puede llegar a ser
inevitable en la medida en que empecemos a actuar de conformidad con el plan.
De manera que quizás esté bien que los extremistas opositores del campo
catastrofista, en el debate sobre el futuro, vengan a sacudir el esquema
kahniano.
Aún en 1977, no obstante, cuando acontecimientos coyuntura- les hicieron
que The Year 2000 pareciera un tanto inconsistente como mirada a la bola de
cristal, el equipo de Kahn apareció con una nueva contribución en el marco del
bicentenario de los Estados Unidos, un libro titulado The Next 200
Years. Pero sucedió algo curioso. A pesar de que este último libro resulta
mucho menos extremista, con comentarios detallados muy próximos a lo que el
común de la gente consideraría como sensato, Kahn se las ha ingeniado para
mantener su imagen de arcipreste de lo sensacional. Y mientras un movimiento
similar ha hecho que los catastrofistas —por ejemplo, los trabajadores del Club
de Roma— se apartaran de su pesimismo extremo pasando a un terreno intermedio,
sus discípulos han fracasado en el momento de encontrar un cambio. El resultado
es que la juventud de ambos lados del debate (y de ambos sexos) continúa
lanzándose hirientes palabras sin percatarse de lo cerca que están sus
respectivos gurús de hablar el mismo lenguaje.
Sólo un catastrofista extremo, con toda seguridad, podría aceptar ahora
un comentario como el siguiente:
«Desde nuestro punto de vista, la aplicación de una módica cantidad de
inteligencia y una buena dirección para enfrentarse a los problemas actuales
puede posibilitar que el crecimiento económico continúe durante un considerable
período de tiempo, en beneficio, más que en perjuicio, de la humanidad.
Argumentamos que sin tal crecimiento, las diferencias entre naciones, tan
lamentadas en la actualidad, probablemente nunca serán superadas, que el “no
crecimiento” condenará a los pobres a la pobreza indefinida... No esperamos que
el crecimiento continúe indefinidamente... Nuestras diferencias con aquellos
que abogan por unos límites del crecimiento tienen que ver menos con la
credibilidad de este cambio que con sus razones.»
“Sus razones” se adelantan en The Next 200 Years, las cuales
giran en tomo a la urgencia de que ahora ya estamos atravesando una magna
transición en la historia de la humanidad, a continuación de la Revolución
industrial “que empezó en Holanda e Inglaterra hace unos 200 años”. No un
crecimiento exponencial, sino un crecimiento que dibuja una achatada curva en S
a través de una transición demográfica, es el esquema favorecido por el
Instituto Hudson, cambio que al principio imita el crecimiento exponencial, pero
que luego se estabiliza, una vez la repercusión de los cambios revolucionarios
se ha introducido en el sistema. El crecimiento exponencial, como el equipo de
Kahn pone de manifiesto, «parece, de hecho, que se está deteniendo, y no por
razones que tengan que ver con desesperantes limitaciones físicas al
crecimiento» (fig. 1).
La transición demográfica parece ocurrir en cada país donde el bienestar
ha aumentado, la esperanza de vida ha crecido y la calidad de vida ha mejorado.
La transición ha tenido lugar de una forma más rápida en aquellos países que
han seguido el camino marcado por el Reino Unido y Europa. En Europa occidental
y los Estados Unidos el cambio necesitó 150 años; en la Unión Soviética, 40; y
en Japón, un caso reciente, sólo 25 años, desde 1935 hasta 1960.
Al margen de esta reciente contribución al debate sobre el futuro, y a
menudo también al margen de las recientes contribuciones de la escuela de los
“límites”, la gran masa de gente que abriga algún vago temor por el modo en que
las cosas están sucediendo, basan sus criterios en el mismo The Limits
to Growth, o en informes de segunda mano sobre el libro. Lo mejor de este
libro (Potomac Associates, 1972) es que inició una ola de debates sobre el
futuro y la naturaleza de los problemas con que se enfrenta la humanidad. Pero
no fue ni la primera de las principales contribuciones de los modernos
catastrofistas, ni la última palabra; las cosas han cambiado desde 1972, y el
“debate sobre el futuro” no es el mismo que el “debate de los límites”.
Si alguien debe ser considerado como el padre de la idea de la
ecocatástrofe en su forma moderna, éstos deben ser Anne y Paul Ehrlich, quienes
argumentaron, en diversos libros editados entre 1970 y 1971, que el mundo
estaba ya entonces justo “a tope” en términos de población y destrucción de
recursos. Lejos de sugerir más crecimiento, presentaron un panorama en el que
los ricos, con urgencia, debían entregar sus riquezas sobrantes a los pobres en
la esperanza de una última redención, siguiendo la vía del “des-desarrollo”. La
base para un cambio tan drástico puede provocar otro cambio en las actitudes
morales de la índole que suele asociarse con las conversiones religiosas,
«arrepiéntase, el fin del mundo está cerca». Y si no se produce ese cambio, ven
un mundo futuro devorado por el hombre, las plagas y la guerra nuclear.
Extrañamente, junto a esa visión moralista, los Ehrlich también afirman
que las cosas están en un punto tan desesperado que las paciones más pobres
quieren algo más que ayuda, y predican la doctrina de la “selección”, una
bonita palabra que evita tener que decir que naciones enteras no se bastan con
la ayuda y se las abandona al sufrimiento. Éste es en verdad el consejo de la
desesperación; pero otros del lado catastrofista, si no los Ehrlich, hace poco
han sido capaces de discernir, si bien con vaguedad, la posibilidad de un mundo
futuro agradable a pesar de todos nuestros problemas.
Antes de que todo ese proceso moderador se produjera, los profetas del
desastre tuvieron un día de reunión, gracias a la entrada en escena de la
creación de computadoras. A principios de los años setenta, la gente estaba
preparada para que se le dijera que el desastre era inminente, y estaba del
mismo modo preparada para aceptar —como si ello fuera sabia doctrina— cualquier
cálculo que se hubiera realizado por medio de la computadora electrónica.
Quizás a finales de los ochenta no nos fiaremos tanto. Lo que sale de la
computadora depende de lo que uno introduzca dentro; la frase garbage in,
garbage out (“basura dentro, basura fuera”) lo resume todo, pues G.I.G.O. puede
muy bien sustituir “desastre dentro, desastre fuera”. De modo que las
previsiones de los Límites fueron adoptadas por muchos periódicos y por los no
especialistas como lo autorizado y bendecido por la sagrada computadora, sin
pararse a pensar nunca qué es lo que se le ha introducido para que dé tal
resultado. Es como si usted recibiera una carta del banco en la que se le
comunica que tiene una deuda de un millón de dólares y usted lo aceptara sin
preguntar cómo se ha llegado a semejante cifra. Y aquí radica precisamente el
error.
La importancia del trabajo de Jay Forrester, que fue el primero en
elaborar programas para computadoras, y el del equipo de Dennis Meadows, que
los utilizó de manera profusa, nos ofrecen una forma directa de ver cómo las
previsiones pueden verse afectadas por cambios en los supuestos que se
introducen en el modelo.
Tomemos un ejemplo curioso. Mientras que los pronósticos descritos en
The Limits to Growth daban una vida corta a la explosión a la que seguía el
desplome, el crecimiento económico y demográfico durante la explosión ha sido
más rápido que el que aseguraban los pronósticos “optimistas” del equipo de
Kahn. ¿Y cómo pueden las implicaciones de la desigualdad global —incluso las
desesperadas implicaciones de los Ehrlich— tenerse en cuenta en un modelo que
utiliza medias globales (para el crecimiento, la contaminación, la población,
etc.)? El mejor método para demostrar la verdadera efectividad de las
computadoras es modificar algunas de las reglas introducidas y ver qué nuevas
predicciones salen, y no es sino esto lo que hizo un equipo del Science Policy
Research Unit (SPRU) de la Universidad de Sussex (Thinking about the Future,
editado por H. S. D. Colé, Chatio y Windus, 1973).
El punto de partida de este estudio fue un modelo de Forrester y Meadows
llamado “Mundo 2”, que produce la curva que se muestra en la figura 2, la
representación de la dramática explosión y el desplome que, durante los pasados
siete años, ha puesto color a los debates sobre el futuro. Está claro que hay
que hacer arrancar el modelo de algún dato que, como el índice de natalidad, el
índice de mortalidad o el crecimiento económico, resulte bien conocido;
entonces, haga algunas suposiciones sobre cómo la tecnología, la contaminación
y otros factores afectan al crecimiento, y ponga la cosa en marcha. El equipo
de los Límites inició su andadura hacia 1900, un buen número redondo, y publicó
curvas que hizo coincidir con la historia conocida hasta 1970, y continuar
luego hasta el futuro más inmediato, todo ello a pesar de que las figuras sobre
el índice de mortalidad sean un poco anteriores a 1900. Uno de los encantos de
esta clase de modelos es que pueden recorrerse hacia atrás además de hacia
delante, y, en efecto, una clásica prueba de su validez es recorrer el modelo
hacia atrás y hacia delante varias veces entre las mismas fechas, lo que debe
producir siempre las mismas curvas. Así pues, ¿qué pasa cuando recorremos el
modelo Mundo 2, que dio impulso a la publicidad del debate de los límites en
los años setenta, al revés desde 1900?
Los resultados (fig. 3) son curiosos, es lo mínimo que cabe decir.
Siguiendo el modelo al revés desde 1900 y luego hacia delante pasando por 1900,
por el momento actual y siguiendo hacia el futuro, es imposible obtener unas
curvas que concuerden con todos los pronósticos de los “límites” catastróficos.
Pero el mundo del siglo XX resulta ser, según el modelo, una consecuencia del
dramático ciclo explosión/desplome del siglo XIX, durante el cual la población
mundial alcanzó su punto máximo antes de 1880, a un nivel superior al de la
figura de 1970, y luego se hundió. La catástrofe que conlleva es tan dramática,
que el modelo ya no puede recorrerse al revés —en lo que al Mundo 2 le
concierne, el mundo empezó en 1880 con una inmensa población—, hay una discontinuidad
que imposibilita que el modelo sea aplicado a las primeras décadas.
Ésta es, precisamente, la clase de modelo que nos indica la necesidad de
ajustar las reglas por las cuales funciona, para que lo haga en consonancia con
la realidad. Todo lo que el equipo SPRU hizo fue modificar la suposición de
Forrester que altera los índices de causas de mortalidad en la media mundial
que varían por un factor de 6, por su propia suposición, que era sólo de un
factor 3 en la ecuación adecuada al modelo; y con este único cambio puede
recorrerse llanamente hacia atrás hasta principios del siglo XIX. Las nuevas
curvas (fig. 4) guardan un parecido más próximo con la historia real que el
Mundo 2 original, y ahora, aunque la población sigue descendiendo en el siglo
XXI, la razón del descenso descansa en una caída en el índice de natalidad, no en
un incremento en el índice de mortalidad.
Muchos otros supuestos introducidos en el modelo por Forrester y otros
pueden ajustarse con los mismos dramáticos efectos. Altere las estimaciones
sobre la productividad agrícola, por ejemplo, y habrá alterado provisiones de
alimentos, población y, en definitiva, todo en el modelo. Ello no pronostica el
futuro, pero ayuda a esbozar un panorama de los posibles mundos futuros. Hacia
cuál de ellos vamos depende de cómo usemos lo que aprendemos de los modelos
para modificar nuestras acciones, dirigiendo nuestra atención hacia los
problemas más urgentes. El modelo, de hecho, nos enseña con toda claridad que
tenemos una posibilidad de mundos futuros que dependen de nuestras acciones;
pero haciendo creer a la gente que ya es demasiado tarde para hacer nada, los programa-
dores del modelo pueden conseguir que el desastre sea inevitable.
El cambio de posiciones del equipo mismo de Meadows parece reflejarlo
así. En The Limits to Growth, se dijo a los lectores que todas las conclusiones
habían sido corroboradas por un minucioso trabajo que más tarde se convertiría
en un informe técnico. En una curiosa inversión de lo que suele suceder, la
popularización (Límites) apareció en primer lugar, sin estar respaldada por una
exposición escrupulosa e inmediatamente asequible. Tantas afirmaciones carentes
de ambigüedad en Límites, como «los límites del crecimiento en este planeta se
alcanzarán durante los próximos cien años» y «el modo de comportamiento básico
del sistema mundial (es el mismo) incluso si asumimos cualquier cantidad de
cambios tecnológicos en el sistema», constituyeron la piedra angular del
movimiento populista basado en el trabajo de Límites. Cuando el informe técnico
se hizo asequible, con escasa publicidad y menos lectores, contenía
afirmaciones mucho más prudentes, tales como: «Como los movimientos presentados
demuestran, es posible escoger un grupo de parámetros que permita que el
crecimiento del material, el capital y la población continúe hasta el año
2100.»
Intente decirle a un rabioso eco-nut que esta afirmación procede del
equipo de Meadows, después de Límites, y vea quién es tachado de mentiroso. Los
discípulos aún creen, como una cuestión de fe, que «los límites del
crecimiento... se alcanzarán en los próximos cien años».
Poca gente advirtió que todo el debate sobre el futuro, desde 1965 hasta
1975, fue una puesta en escena del trabajo principal. Los extremistas
establecieron sus posiciones, moviéndose levemente, como los boxeadores cuando
luchan uno contra otro y luego empiezan a golpearse. El Mundo 2 y otros modelos
fueron reconocidos por los que los usaron (si bien no, ¡lástima!, por sus
discípulos) como los primeros intentos de elaborar programas para computadoras
de hacia dónde se dirige el mundo. La segunda generación de modelos empieza
ahora a tener en cuenta las diferencias regionales; y donde el modelo Forrester
original tenía 40 ecuaciones (¡para describir el mundo entero!) y la versión de
Meadows 200, hoy día los programadores de modelos hablan de 100.000 ecuaciones
para describir todo el sistema mundial. Evidentemente, si uno introduce
desastres, obtiene desastres, y si uno introduce optimismo, obtiene Optimismo.
Pero uno puede empezar a poner en acción juegos distintos y aprender cosas
diferentes sobre el sistema mundial.
La mayor amenaza para la estabilidad global es la desigualdad entre los
que tienen y los que no tienen. Necesitamos crecimiento, al
menos el suficiente para que los pobres puedan disminuir la diferencia, puesto
que nadie cree de veras que los ricos vayan a renunciar a algo, y la
continuación de la desigualdad nos va a abocar tanto a desastres naturales
(hambre, plagas) como a conflictos armados. Los problemas están en dirigir el
crecimiento de un modo adecuado para ayudar a los pobres a que salgan de la trampa
de la pobreza y a través de la transición demográfica. Sólo entonces se hará
viable cualquier tipo de mirada optimista al futuro.
Notas:
[1] Un
programa de culto de radio de la BBC de finales de los setenta, “Guía del
autostopista de la Galaxia”, reveló que las respuestas a la “vida, el Universo
y todo” eran cuarenta y dos, pero que nadie conocía la pregunta. Sir
Fred Hoyle ha escrito: «Las respuestas no son importantes, las preguntas sí lo
son.» Mi versión de la historia de la vida, del Universo y de todo puede que no
sea tan sucinta como la de la “Guía del autostopista”, y quizá no se ajuste al
aforismo de sir Fred, pero la he abordado con el mismo espíritu con que Mallory
abordó el Everest: “porque está ahí”.
[2] Una
convención que se utiliza en astronomía y cosmología es escribir con iniciales
mayúsculas los nombres de nuestra Tierra. Luna, Sistema Solar y el Universo en
el cual vivimos, mientras que las minúsculas se utilizan para las lunas de
Marte, por ejemplo, y para un universo imaginario (incluso uno tan simple como
el de la hoja de caucho) usado como "modelo" para hacer comprender la
teoría. Yo seguiré esta convención; en particular, cualquier descripción del
Universo se refiere a cómo creemos que es en realidad nuestro entorno, mientras
que si me refiero a un universo (o a un modelo de universo) estoy hablando
sobre algo probablemente muy interesante, pero que no se cree necesariamente
que sea la descripción de las cosas tal como son realmente.
[3] Algunas
personas se preocupan ante la idea de un Universo en expansión infinitamente
grande y se preguntan “¿qué es mayor que infinito?". La respuesta es “más
infinito”, y la expansión no es un simple truco matemático, puesto que tiene
efectos reales, físicos. Lo que ocurre es que la densidad del Universo decrece
—las galaxias se distancian las unas de las otras— de la misma forma en que lo
hace el estiramiento de la luz y de otras radiaciones electromagnéticas.
[4] La
situación real es un poco más sutil que todo esto. Las ecuaciones de Einstein
describen cómo un campo gravitacional “curva” el espacio-tiempo, y la cuestión
está en si la propia gravedad de todo el Universo es suficiente o no para
curvar el espacio-tiempo sobre sí mismo, de lo que resulta un Universo cerrado,
o si se curva, pero se mantiene abierto. La analogía de la velocidad de escape
se derrumba si se intenta aplicar a un universo infinito, porque ello
implicaría que la masa podría ser infinita y. por tanto. la velocidad de escape
también; pero la analogía ayuda, creo yo. a adquirir la intuición necesaria
para saber lo que ocurre; poca gente tiene la intuición del concepto de
espacio-tiempo curvo.
[5] Podemos
preguntamos de qué forma fueron calculadas las distancias más allá del límite
de las cefeidas para poder establecer la ley de Hubble. La primera conjetura
suponía que todas las galaxias eran igualmente brillantes, y la distancia
estimada dependía únicamente del brillo aparente Entonces Hubble intentó
aventurar que la galaxia más brillante dentro de un grupo de galaxias era la
que estaba en el límite del brillo posible, y, por consiguiente, los miembros
más brillantes de cada grupo era lógico que tuvieran el mismo brillo
intrínseco. Esto proporcionó una evidencia suficiente para confirmar la ley de
Hubble, de modo que ahora, el desplazamiento hacia el rojo se acepta como la
mejor forma de medir la distancia más allá de nuestra vecindad cósmica inmediata.
Pero hay que recordar que todo esto tiene su inicio, al fin y al cabo, en los
estudios de las variables cefeidas, y que cuando los astrónomos refinan la
escala de distancias de las cefeidas, como todavía hacen ligeramente de vez en
cuando, a medida que se realizan más y mejores observaciones, nuestras medidas
de distancia de todos los objetos astronómicos, hasta las de las galaxias más
distantes, tienen que revisarse de acuerdo con ello.
[6] Steven
Weinberg, Los primeros tres minutos.
[7] Esto
no es exactamente altruismo, sino que representa una gran publicidad para la
Bell, como lo demuestra su mención aquí.
[8] “Señal",
aquí, no significa un mensaje de los “hombrecillos verdes" del
espacio. Cualquier ruido de radio, procedente de fuentes
naturales o no. se denomina señal.
[9] Las
sutilidades y las ironías de la historia van realmente más lejos. A mediados
los años cuarenta, algunas personas discutieron sobre las implicaciones de
“un Big Bang caliente", y el mismo Dicke fue miembro de
un grupo que incluso estimó que la temperatura de cualquier radiación estaba
por debajo de los 20 K. Parece que se olvidó de todo ello cuando Peebles se
puso en camino de su predicción, dos décadas más tarde. Durante este tiempo,
otros realizaron cálculos parecidos, pero no llegaron a ninguna conclusión.
Parece que los teóricos no creían realmente que sus sencillos cálculos pudieran
aplicarse al Universo real. El descubrimiento hecho por
Penzias y Wilson fue tan importante —demostrándoles a los teóricos que,
efectivamente, estaban en realidad describiendo el Universo real—
como sencillos los términos científicos empleados
[10] La
revista era la Monthly Notices of the Royal AstronómicaI Society. vol.
183; los autores del artículo eran S. D. M. White y M. J. Rees.
[11] Ver
mi libro Timewarps (Nueva York; Delacorte, 1979).
[12] En
su artículo en Nature, en 1979.
[13] Por
ejemplo, hay una clase de objetos parecidos a los quásares llamados BL
Lacaertae, que en un principio se consideraba que eran una nueva clase de
galaxia energética, pero que a medida que se realizan más observaciones
adquieren cada vez más el aspecto de primos hermanos de los quásares.
[14] Y,
por supuesto, dado que el AO 0235+164 está todavía ahí, sabemos que no fue
convertido en pura energía en la explosión.
[15] Esto,
no obstante, tarda mucho tiempo en ocurrir (varios miles de millones de años).
[16] ¿Cómo
podemos saber la edad del Sistema Solar? El mejor “reloj" nos lo
proporciona la desintegración radiactiva espontánea de algunos materiales tales
como el uranio 235 y el uranio 238. A lo largo de millones de años, estos
átomos radiactivos se desintegran y producen finalmente átomos estables de
plomo, al mismo tiempo que desprenden helio que puede quedar atrapado dentro
del material congelado de algún meteorito en el espacio. Cuando el meteorito
choca contra la Tierra y es recuperado, es posible deducir la cantidad de helio
y compararla con la cantidad de uranio que aún queda en el material. Cuanto más
antigua sea la muestra, más helio contendrá en relación con el uranio; y aunque
parezca bastante raro como mecanismo de relojería, es de hecho lo suficiente
exacto para establecer la edad de los meteoritos más viejos (y, por lo tanto,
del Sistema Solar) en algo más de 4.500 millones de años y con seguridad menos
de 5.000 millones de años.
[17] “Justo
antes" significa aquí alrededor de un millón de años, o sea, un instante
considerando la escala de tiempo en la que se sitúa una revolución del Sol
alrededor de la Galaxia.
[18] S.
F. Dermott, The Origin of the Solar System (Nueva York. Wiley,
1978).
[19] Plutón,
que se considera el planeta más lejano que se conoce, es una excepción de esta
pauta, puesto que está lejos y es pequeño y rocoso. Pero Plutón no parece ser
un planeta “verdadero" en absoluto, puesto que sigue una órbita mucho más
alargada que hace que en algunas épocas, como de enero de 1979 a marzo de 1999,
esté más cerca del Sol que Neptuno. Con toda probabilidad, Plutón es una luna
que ha escapado de alguno de los gigantes gaseosos y. por lo tanto, los
planetas “genuinos" se dividen con bastante claridad en dos grupos de
cuatro, separados por un cinturón de escombros cósmicos entre Marte y Júpiter,
la zona de los asteroides.
[20] Las
temperaturas dadas en K son prácticamente las mismas que en °C cuando se trata
de temperaturas tan altas; cero Kelvin es el cero absoluto de temperatura en la
cual cesa toda actividad de moléculas y átomos. Esto equivale a ‒273°C, pero la
diferencia entre 40.000 grados y 40.273 es prácticamente nula, de modo que
podría muy bien decirse que las estrellas O tienen unas temperaturas de
superficie de 40.000°C. Pero la diferencia es más importante a temperaturas más
bajas y, una vez nos situamos en las condiciones de la Tierra, una diferencia
de temperatura de 273°C es absolutamente decisiva para la vida.
[21] El
Sol puede que no haya sido perfectamente estable a lo largo de
los pasados 4.500 millones de años, y sus pequeñas fluctuaciones es posible que
hayan sido muy importantes para la vida en la Tierra. No obstante, teniendo en
cuenta la clase de cambios producidos, puede considerarse que el Sol ha sido en
realidad relativamente estable durante todo este tiempo.
[22] De
hecho, cabe dentro de lo posible que el Sol no se mantenga ya, en la
actualidad, por combustión nuclear. Diversos descubrimientos sugieren que algo
raro está pasando en el interior del Sol y que quizá haya estado sucediendo
durante unos cuantos millones de años y con certeza unos miles. Una pista clave
procede de los intentos de detectar unas partículas llamadas neutrinos, que
deberían producirse en grandes cantidades si prosiguiera el proceso de fusión
nuclear en el Sol, como predice la teoría. Sólo se ha detectado un tercio del
flujo esperado de neutrinos, y la explicación más sencilla es que la combustión
nuclear se ha “apagado" temporalmente. Esto viene confirmado por el
espectacular descubrimiento, realizados por Jack Eddy a partir de estudios de
observaciones que se remontan a cien años o más, de que el Sol, en la
actualidad, puede estar experimentando una lenta contracción. Esto es
exactamente lo que esperaríamos de una estrella si su proceso de combustión
nuclear se detuviera: la estrella empieza a colapsarse bajo la gravedad, pero
mantiene su brillo al convertirse en calor su energía gravitacional. Esta
situación, este “tipo" de Sol, podría prolongarse por unos 100.000 años
sin que afectara de manera grave las condiciones de la Tierra y comparado con
la escala de tiempo de la existencia del Sol en la serie principal (10.000
millones de años), en realidad no es más que un “soplo”.
Sin embargo, una alteración de esta clase, aunque sea pequeña, podría acarrear
profundas implicaciones para la vida humana. Éstas se discuten con detalle en
mi libro The Death ofthe Sun (Nueva York, Delacorte. 1980), en
el que también se explican más detalladamente las reacciones de fusión nuclear
que tienen lugar dentro de las estrellas cuando mueren.
[23] Todo
esto lo sabemos no sólo por la observación, sino por una combinación entre
observación y teoría. Diferentes clases de estrellas sólo pueden existir como
se observan si su interior tiene cierta temperatura y cierta presión; leyes
físicas determinadas en la Tierra nos indican qué le sucede a la materia del
interior de las estrellas a esas temperaturas y presiones, y los teóricos
elaboran después con computadora los “modelos” matemáticos de lo que ocurrirá a
continuación, y de qué manera las estrellas han llegado a tal situación.
[24] Ésta
es una condición importante. Sólo alrededor de un 15% de las
estrellas del disco de nuestra Vía Láctea no están acompañadas por otra u otras
estrellas que constituyen un sistema múltiple y cuyos miembros describen
órbitas alrededor de su centro común de masa. Es difícil comprender cómo los
planetas de un sistema así pueden ser muy adecuados para la vida, incluso en el
supuesto de que pudieran mantenerse en una órbita estable bajo la atracción
constantemente variable de la gravedad ejercida por dos o más “soles",
puesto que habría mucha probabilidad de que existieran variaciones extremas de
la temperatura, al haber diversos focos en el sistema que proporcionarían calor
en períodos diferentes. Por lo tanto, lo más prudente es considerar que sólo el
15% de las estrelléis de la Vía Láctea podrían tener planetas como el nuestro,
pero que el 15% de varios miles de millones aún deja muchos lugares posibles
para la vida.
[25] Por
razones obvias, este factor de 1,234 es una de esas cosas inútiles que siempre
se memorizan.
[26] Los
efectos de la erosión en diferentes épocas del pasado se determinan por la
observación de los diferentes estratos de rocas y sedimentos. De manera
gradual, los depósitos más nuevos los encontramos en la superficie del suelo y
los más antiguos sucesivamente debajo de éstos. Aunque esta disposición simple
se distorsionase al abombarse las rocas bajo las fuerzas implicadas en la
deriva de los continentes, los estratos que corresponden a las diversas épocas
pueden todavía identificarse y detectarse con precisión mediante el empleo de
diversas técnicas, entre ellas la medición de la desintegración radiactiva de
cientos de isótopos.
[27] La
redistribución de los continentes por deriva también explica muchos otros
aspectos de la distribución de restos fósiles en las rocas de diferentes partes
del mundo: el “registro fósil”. Seguiremos con el tema en seguida, al tratar de
los efectos de la cambiante distribución de los continentes en la vida.
[28] Existen
respetables geólogos que argumentan que la Tierra se ha expandido un poco desde
que se formó como planeta sólido, mientras que otros sostienen que se ha hecho
algo más pequeña. No obstante, se opina, en general, que no se está produciendo
actualmente ningún cambio de tamaño importante, y se descarta, por supuesto,
que se pueda considerar seria la teoría según la cual la expansión fuera de tal
magnitud que permitiera la creación del océano Atlántico en tan sólo 200
millones de años. Aparte de otras consideraciones, una expansión tan acelerada
hubiera modificado tanto el radio de la Tierra durante los últimos 200 millones
de años que el “rompecabezas” que forman los continentes no se podría montar de
nuevo en el globo terráqueo, al haberse éstos separado cuando la esfericidad de
la Tierra era mucho menor. La controversia que pudiera haber sobre los cambios
de tamaño de la Tierra, a largo plazo y de poca relevancia (o sobre cambios
importantes pero ocurridos hace muchos años) carece de sentido ante el hecho de
que en la época actual —lo cual significa para los geólogos, durante los
últimos cien millones de años— el tamaño de la Tierra se mantiene prácticamente
constante, y de que la deriva de los continentes se produjo en un globo
terráqueo del mismo tamaño que el actual.
[29] Algunos
especuladores discuten si ésta puede ser, más que la razón del cambio
magnético, la causa, tal vez, de la desaparición de los dinosaurios.
[30] Por
año o grupo de año
[31] He
discutido sobre cómo conocemos estos cambios. De hecho es necesario (aunque
tedioso) calcular los giros de la Tierra ocasionados por los efectos
gravitatorios que sobre nuestro planeta ejercen el Sol, la Luna y otros
planetas del Sistema Solar, destacadamente Júpiter; además, los ciclos más
cortos han producido cambios en la aparición de las estrellas durante la noche,
de modo que dichos efectos se confirman por medio de la observación.
[32] El
oxígeno de los sedimentos se halla principalmente en forma de carbonatos, esto
es, en los huesos de animales muertos. Los carbonatos también nos brindan la
posibilidad de “datar" sedimentos de unos 100.000 años, en razón a la tasa
de radiocarbono (carbono-14) que los mismos contienen. Estas técnicas son muy
complejas y requieren unos amplios conocimientos, motivo por el cual ha tardado
tanto la comprensión de los períodos glaciales La evidencia, no obstante, es en
la actualidad del todo incontrovertible; ello se lo debemos a los trabajos
pioneros llevados a cabo en los años cincuenta por Cesare Emiliani.
[33] Por
qué la constante de Planck debe ser tan pequeña ya es otra cuestión distinta.
Si la constante fuese mayor, la vida sería muy interesante (de existir vida) y
las máquinas de escribir tendrían que ser tratadas como ondas. Los límites
entre vida, Universo y la índole de las constantes fundamentales de la
naturaleza serán discutidos más adelante en este libro.
[34] Los
químicos sí que distinguen hoy entre casos donde los electrones son
definitivamente compartidos, como es el de las moléculas de hidrógeno, y casos
en los que no es así, como, por ejemplo, en el de la sal común. Pero la
distinción no es muy importante aquí. Lo que cuenta es que al intentar los
átomos completar sus niveles más alejados del núcleo de forma estable, éstos
tienden a retener los electrones “sobrantes”, y que al compartir los
electrones, los átomos se unen para formar moléculas.
[35] He
tomado este ejemplo del libro de Richard Dawkins, El gen egoísta (Salvat
Editores, S.A. Barcelona 1986), que recomiendo a cualquier persona que desee
profundizar en el misterio de la evolución de la vida.
[36] No
quiero decir con esta pregunta que hubiera una intención deliberada de crear
tales células por parte de las moléculas; sucedió de forma casual, con la ayuda
de la selección natural. No obstante, como habrá podido advertir el lector
atento, no tengo ningún inconveniente en acudir a una descripción
antropomórfica siempre que sea preciso para dar a entender mejor los conceptos.
Es más fácil decir que las células “fueron inventadas" que explicar que
«las paredes de las células aparecieron como resultado de una compleja cadena
de beneficiosas mutaciones y que pronto dominaron la vida en la Tierra». A
pesar del modo en que yo narre los hechos, al comienzo de mi versión de la
historia de la vida, sin duda alguna, no concurre participación de seres
inteligentes en el origen de la vida sobre la Tierra antes de que apareciera en
escena nuestro inmediato antecesor.
[37] Me
gustan las referencias astronómicas de la canción Woodstock, cuando
dice que estamos hechos de «polvo de estrella y carbono de hace un billón de
años», puesto que es literalmente conecto que cualquier cosa de nuestros
cuerpos, excepto el hidrógeno, se ha producido en el interior de, al menos, una
estrella, y, como mínimo, de hace un billón (mil millones) de años. El
hidrógeno ha llevado una existencia más monótona, a pesar de que en algunos
casos ha tenido relación con reacciones nucleares dentro de alguna estrella y
ha sido expulsado fuera de la misma otra vez, pasando a formar parte de la
Tierra, y, posteriormente, de nuestros cuerpos, sin cambiar desde los tiempos
del Big Bang.
[38] En
un artículo aparecido en Nature (febrero de 1980) y escrito
por Mann y Williams, se daba una lista de noventa moléculas identificadas hasta
aquel momento.
[39] No
puedo resistir la tentación de hablar de mí mismo y citar lo que escribí en uno
de mis primeros libros. Our Changing Universe, publicado en
1976 y redactado justo cuando se estaban realizando estos descubrimientos: «Tal
vez nunca podremos estar seguros de si hay vida inteligente en alguna otra
parte del Universo, pero todo parece indicar que sí la hay. Lejos de ser
nuestro planeta único en este aspecto, el descubrimiento de moléculas como el
formaldehido en otras galaxias sugiere que incluso en la nuestra puede no ser
insólita la existencia de otros planetas con vida inteligente. Es curioso y
—para mí— reconfortante el hecho de que en la galaxia NGC2S3 haya vida basada
en el carbono, con ADN en sus células, seres que estudian el cielo con sus
telescopios y que quizás especulen sobre el significado de sus descubrimientos
del formaldehido.»
[40] Cita
extraída del libro de Lovelock Gaia: A New Look at Life on Earth.
[41] Este
enrojecimiento no tiene nada que ver con los desplazamientos rojos de Doppler,
que son los que cambian la longitud de onda de la luz proveniente de una
galaxia. En efecto, puesto que algunos objetos distantes en el Universo, como
los quasars, producen una gran cantidad de energía en la banda ultravioleta del
espectro, que normalmente es invisible, y los desplazamientos rojos empujan
dicha energía hacia la banda azul del espectro óptico, la Íu2 de un quasar con
un desplazamiento rojo alto se manifiesta muy a menudo como azul, y éste es uno
de los medios que tienen los astrónomos de buscar quasars desconocidos:
detectando en las placas fotográficas los objetos intensamente azulados en
forma de estrella. El color rojo de la luz del polvo estelar se debe a que el
componente azul ha experimentado una dispersión, por lo que domina el rojo en
el resto del espectro.
[42] Me
refiero, por supuesto, a las brillantes estrellas de la Vía Láctea que nos son
familiares gracias a las fotografías, que son sólo una décima parte de la masa
de la super galaxia en la cual, según los últimos descubrimientos, nuestra
Galaxia está inserta.
[43] Aunque
digamos que existe una categoría de estrellas a las que podemos denominar
“estrellas de carbono", no quiere esto decir que sean una excepción,
porque hoy sabemos que cualesquiera estrellas tienen una fase en la cual son
verdaderas estrellas de carbono, aunque sólo unas pocas sean visibles para
nosotros.
[44] Observaciones
realizadas con posterioridad han mostrado una ausencia de absorción donde el
hielo “debería" de afectar a la luz que nos llega, y. por otra parte, la
radiación infrarroja indica que las temperaturas en muchas nubes interestelares
están por encima del punto de ebullición del agua. ¡Tan clara parece ser la
explicación!
[45] Fred
Hoyle y N. C. Wickramasinghe, Lifecloud (Londres, Dent, 1978)
página 98.
[46] Estas
palabras de Darwin aparecen en el libro de Clair Edwin Folsome The
Origin of Life (San Francisco; Freeman, 1979): «A menudo se dice que
todas las condiciones para la primera producción de un organismo vivo están
ahora presentes, y que pueden haberlo estado siempre. Pero si (y, ¡oh!, qué
crucial si) nosotros podemos haber sido concebidos en algún pequeño estanque
caliente, con todo género de sales de amoniaco y fosfato, luz, calor,
electricidad, etc., hoy, un compuesto proteínico complejo, formado de esta
manera, sería al instante devorado o absorbido, lo cual no pudo haber sucedido
antes de que las criaturas vivientes fueran creadas.» Como se aprecia, Darwin
iba mucho más lejos que Haldane y Oparin, pero nunca se le ocurrió que ese
pequeño estanque caliente pudiera formar parte del núcleo de un cometa.
[47] Actualmente,
sólo unos pocos biólogos opinan que el ADN no se compone de dos largas
moléculas entrelazadas, constituyendo así una larga hélice, sino de dos largas
moléculas que forman, cada una, una larga hélice individual, pegada a la otra
de la misma manera que las dos partes de una cremallera cenada. De ser conecta
esta visión, la combinación debería estar constituida por espirales a la
derecha y a la izquierda, mientras que en el caso de la versión de la doble
hélice, eso supondría que todas las moléculas de ADN son espirales a la
izquierda. Esta visión de una minoría, defendida por el doctor G A. Rodley, de
la Universidad de Canterbury, en Nueva Zelanda, parece coincidir con las
observaciones que se han hecho partiendo de estudios del ADN por medio de rayos
X. al menos tan bien como la versión de la doble hélice. No obstante, las
técnicas de difracción de los rayos X no están lo suficientemente
perfeccionadas para poder decantarse a favor de una teoría u otra. Cabe
señalar, sin embargo, que resultaría más fácil “abrir" la cremallera para
poder reproducirse las moléculas de ADN si formaran éstas pares una junto a la
otra. Efectivamente, la doble hélice necesita desenrollarse, al igual que
necesita “abrirse" (imaginándola como una cremallera) para desempeñar el
mismo papel. Y no debe olvidarse que el fenómeno de copia es esencial en el
proceso de la vida.
[48] Así
es en el inglés “ordinario". Pero la revista New Scientist, en
la cual colaboro a menudo, no encaja en este esquema, y los tipógrafos de la
revista tienen que permitir la utilización de palabras de más de seis letras
empleadas como media en otras revistas del mismo grupo I.P.C., puesto que sus
colaboradores tienden a recurrir a palabras más largas y enrevesadas.
[49] En
rigor, no todas las células contienen idénticas características. Las células
que realizan el trabajo de la reproducción —espermatozoides en los hombres y
óvulos en las mujeres— presentan, cada una, veintitrés cromosomas construidos
mediante la mezcla de los genes de los padres para conseguir nuevas
combinaciones. Dentro de poco se desvelará la trama de esta apasionante
historia.
[50] Esto
es más lento que quemar carbón o gasolina en un motor, pero sigue los mismos
principios químicos básicos.
[51] En
este caso sigo el sumario proporcionado por J. William Schopf en su artículo
“The Evolution of the Earliest Cells", que apareció en el número de
septiembre de 1978 de la revista Scientific American.
[52] Toda
la circulación y el clima de la atmósfera debieron de ser muy diferentes antes
de que esa “tapadera”, hecha de ozono, se desarrollara. Quizá sea ésta otra de
las razones por las que la vida no podía asentarse sobre una Tierra que no
poseía una atmósfera de oxígeno.
[53] Recuérdese
que “invención” se utiliza aquí como forma abreviada de «sucesión de
accidentales mutaciones favorables (copia de errores) que da lugar a organismos
más eficaces para la supervivencia y reproducción que sus competidores». No hay
ninguna planificación del proceso.
[54] Y
es que además, por supuesto, los genes responsables de la reproducción sexual
ya están satisfechos de cómo marchan las cosas. Al igual que todos los genes,
no tienen ningún “deseo” de evolucionar y desaparecer, y aseguran su propia
subsistencia pasando copias a las sucesivas generaciones. Los genes no están
directamente interesados en lo que es mejor para la especie, ni siquiera en lo
que es mejor para el individuo en el que habitan. Están interesados en hacer
copias de sí mismos y en la selección natural de los más adaptados, entendida
como supresión, a través de la supervivencia y la reproducción, de los
individuos menos “adaptados”, y. por extensión, de los genes menos
“adaptados".
[55] En
una situación de este tipo en la vida real, habría un incentivo para cada
paloma a fin de aumentar su tiempo de amenaza, en el intento de "hacer
bajar los ojos” a sus rivales y ganar más de la mitad de las veces. Hemos
excluido esta posibilidad de la escenificación para simplificarla, pero carece
de relevancia a la hora de explicar la elaboración de los rituales de algunos
animales.
[56] El
“gen” del sexo es, de hecho, un cromosoma entero, lo que indica su importancia
en la evolución.
[57] De
hecho, tal como señala Dawkins, la mejor estrategia para cada sexo
es la de abandonar a los hijos, pensando que el otro progenitor se ocupará de
ellos. Puesto que la fertilización del óvulo tiene lugar en el interior del
cuerpo del animal hembra, es bastante difícil para ella poner en práctica dicha
estrategia, y es el animal macho el que tiene más posibilidades de escaparse
con algún otro. Este método de reproducción es consecuencia del hecho de vivir
sobre tierra seca, y algunos peces lo demuestran bajo ciertas condiciones. En
el mar, la fertilización se produce fuera del cuerpo de las hembras, las cuales
ponen los huevos antes de que el macho libere los espermatozoides. Si el macho
los libera antes del momento preciso, se perderán por el agua; para evitarlo
tiene que esperar hasta que los huevos estén puestos. Para cuando esto sucede,
la hembra puede haberse ido ya, dejando al macho al cuidado de los huevos
fertilizados. Esto es lo que ocurre al menos en una especie, y pase lo que
pase, el progenitor al que se haya abandonado con la cría no podrá
desentenderse de ella, o, de hacerlo, habrá fallado todo el proceso de
reproducción.
[58] Algunos
animales no “se extienden por todas partes" en un sentido estricto. Las
esponjas son en realidad colonias de pequeños animales que se desenvuelven
juntos, y representan una clase de cooperación multicelular inventada por los
eucariotas, separada del invento de la cooperación multicelular que nos ha
llevado hacia el resto de la vida animal. No me extenderé más sobre este tema
ya que me he propuesto seguir el rastro de los orígenes humanos.
[59] Mientras
este capítulo estaba en prensa, William Schopf y sus colegas de la Universidad
de California, Los Ángeles, anunciaron la identificación de registros
microfósiles de cinco tipos diferentes de organismos, todos ellos parecidos a
las modernas bacterias, en rocas de Australia de 3.560.000 años de antigüedad.
Éstos son los más antiguos registros fósiles. Aunque ello no hace cambiar
nuestros conocimientos del Cámbrico, ni la evolución de la vida terrestre,
merece la pena mencionar la existencia de tan antiguas formas de vida. Y los
que postulan que la vida se originó en el espacio y luego fue trasladada a la
Tierra no han tardado en apuntar la dificultad que supone el que unos
organismos tan avanzados bioquímicamente pudieran evolucionar de manera improvisada
en los primeros 1.000 millones de años desde la formación de la Tierra. Los
microfósiles que se han identificado confirman la existencia de estromatolitos
en esa zona, tal como se dijo en el capítulo 6.
[60] Los
tiburones, dicho sea de paso, se cuentan entre los grandes éxitos de la
evolución. Nunca han dominado su medio, pero han estado presentes desde el
Devónico hasta ahora con tan sólo ligeras modificaciones. La única parte dura
del esqueleto del tiburón, por ejemplo, es la dentadura. Nunca han sufrido
presiones evolutivas para desarrollar un esqueleto duro porque pueden
sobrevivir perfectamente sin él, y así lo han hecho durante unos 400 millones
de años.
[61] Lo
cual no es tan sorprendente, puesto que el éxito, por lo que hace referencia a
nuestros genes, significa réplica perfecta , y los más
afortunados peces devónicos tienen descendientes nadando por los mares
actuales. Las aletas pedunculadas, que compitieron con las de raya, fueron
eliminadas en la competición; las rarezas que pasaban todo el tiempo
arrastrándose por los fondos menos profundos de las costas, ríos o lagunas no
entraron en competición y sobrevivieron: se reprodujeron para transmitir sus
genes de “arrastrarse por el barro de las aguas someras", de modo que
entonces las aletas pedunculadas constituyeron una ventaja para la selección,
permitiendo a los peces obtener más comida y reproducirse con más eficacia.
[62] Éste,
claro está, es el motivo por el que lo etiquetamos de final
del Pérmico, y también de final de la enorme división de tiempo geológico que
es la era Paleozoica. Con más precisión, debería haber dicho «entonces las
cosas cambiaron espectacularmente, y como resultado los geólogos definieron el
tiempo de cambio espectacular como el fin del Paleozoico». Pero ustedes ya me
entienden, espero.
[63] Algunos
argumentan que la combinación de la formación de montañas, terremotos,
actividad volcánica, un período glacial y la desaparición de los mares someros
no basta para provocar la extinción de tantas especies al final del Paleozoico.
Sugieren que alguna influencia extraterrestre pudo desempeñar un papel —un
cambio en la actividad solar o la explosión de una supernova cercana, que
hubiese enviado rayos cósmicos hacia la Tierra, por ejemplo. En mi opinión, al
menos en lo que hace referencia a las extinciones de finales del Paleozoico,
ésta resulta una visión desenfocada, y se me antoja que los cambios terrestres
de aquel tiempo fueron más que suficientes para producir tal destrucción de
formas de vida. No obstante, la idea de una catástrofe cósmica puede ser
pertinente en otras extinciones de restos fósiles, como veremos en el siguiente
capítulo.
[64] Véase,
por ejemplo, el libro de Adrián Desmond, The Hot-Blooded Dinosaurs (Londres,
Blond and Briggs. 1977).
[65] Opuesto
a las extinciones menores que tuvieron lugar durante el
Mesozoico.
[66] O
lo fueron las plantas con que se alimentaban, por lo que murieron de hambre,
cosa igualmente efectiva.
[67] La
evidencia circunstancial, sin embargo, no está del todo ausente. ¿Podría ser
relevante que, de acuerdo con la mayoría de las interpretaciones de la
evidencia, nuestros pequeños antepasados mamíferos ocuparan los nichos
ecológicos típicos de las criaturas nocturnas? ¿Estaban los dinosaurios,
activos por entonces, expuestos más directamente a los cambios en la naturaleza
de las radiaciones solares que alcanzaban el suelo? No estoy convencido,
especialmente porque, si algunos dinosaurios eran de sangre caliente, también
podían haber sido nocturnos. ¡Pero es éste un argumento interesante
[68] El
informe del equipo de Álvarez apareció en la revista Science (vol.
208, p. 1095) en junio de 1980. Hacia finales de agosto otros grupos
confirmaron que había restos de material extraterrestre en muestras de roca de
hace 65 millones de años en Dinamarca, Nueva Zelanda y España. Existen hoy
pocas dudas en tomo a la teoría del meteorito gigante para explicar el suceso
que delimitó la frontera entre el Cretácico y el Terciario.
[69] Los Sauromithoides sobrevivieron
a duras penas.
[70] Al
menos de acuerdo con ciertas autoridades. Otros argumentan que los
insectívoros, mamíferos parecidos a las musarañas que existieron al final del
Cretácico, no eran aún primates; sin embargo, James Valentine, profesor de
Ciencias Geológicas de la Universidad de California en Santa Bárbara, es uno de
los expertos que sitúan el origen de los primates antes de la muerte de los
dinosaurios. Véase, por ejemplo, The Evolution of Multicelular Plants
and Animals (La evolución de las plantas y animales multicelulares)
en la revista Scientific American 239, 3 (septiembre 1978):
105.
[71] Estrictamente
hablando, «miembros de especies poseedoras de los genes que produjeron esas
adaptaciones fueron capaces de trasladarse a los árboles, mejorando cada vez
más en la tarea de vivir en las ramas como una selección natural que estimula
el desarrollo de características más ventajosas.» Los insectívoros no se
fijaron prontamente en los árboles, debieron de decirse: «Hum, necesitaré una
buena vista para vivir ahí arriba», y desarrollaron una buena vista. Las
musarañas con buena vista pudieron obtener comida y se reprodujeron con
normalidad; los que carecían de buena vista, por el contrario, no tuvieron
muchas oportunidades de transmitir sus genes.
[72] Una
razón de la escasez de fósiles de homínidos es que nuestros antepasados vivían
en regiones boscosas ricas en vida, donde los restos de animales no tenían la
oportunidad de quedar por el suelo y enterrarse antes de que los borraran o se
corrompieran. Este problema, de hecho, puede aplicarse a toda la historia de
los primates, que debe reconstruirse a base de fragmentos de huesos, dientes y
de cráneos ocasionales. Nuestros antecesores, desgraciadamente, no tenían la
costumbre de tenderse para morir a orillas de los ríos —aunque algunos
destacados hallazgos se han realizado en esos lugares.
[73] Y
magníficamente expuesto por Colin Patterson en Evolution (Boston:
Routledqe & Kegan Paul, 1978).
[74] De
acuerdo con los estudios de Marie-Claire King y Allan Wilson.
[75] Carl
Sagan, entre sus más serios comentarios sobre la evolución de la inteligencia
humana, sugiere que cierto tipo de memoria ancestral tal vez sea la razón de
muchos miedos y mitos humanos. Los dragones, por supuesto, son los dinosaurios
que durante tanto tiempo fueron nuestros rivales y los grandes reptiles que,
según apunta, pudieron ocasionar problemas a los hombres hace menos de 65
millones de años. Poco tiempo antes de que nuestra propia línea se convirtiera
en la única especie humana de la Tierra, hubo carreras de “hombres” grandes y
pequeños, y Sagan especula que la memoria de esos tiempos quizá guarde la razón
de nuestras historias de gigantes y “enanos". En la misma línea, quisiera
añadir que la historia de Peter Pan y otras leyendas sobre la eterna juventud
están emparentadas con algún profundo e interno conocimiento de nuestra propia
inmadurez.
[76] A
los expertos no siempre les gusta admitir que sabemos poco acerca del Ramapithecus, siquiera
algunos fragmentos de fósiles, identificados como los de un antecesor de la
línea humana en virtud de la forma de la mandíbula. ¡Sería deseable que esto
resolviera de golpe todos los problemas de datación!
[77] La
datación de emplazamientos del este africano es, incidentalmente, una tarea muy
sencilla, porque durante el período de mayor interés de los últimos millones de
años hubo numerosos volcanes activos en la región. Las capas de ceniza
volcánica sedimentada pueden datarse con exactitud utilizando isótopos
radiactivos y otras técnicas, ¡y un hueso fosilizado entre dos capas de ceniza
volcánica ha debido de enterrarse entre esas dos erupciones datadas a la
perfección! Resulta fascinante especular sobre el hecho de que las especiales
condiciones asociadas con la actividad volcánica y la creación del extenso
valle del este de África deben de haber formado parte del modelo de presión
evolutiva que originó el surgimiento del hombre moderno, pero esto no es sino una
especulación.
[78] El
mejor es el de Jacob Bronowski: The Ascent of Man (Londres:
BBC. 1973).
[79] Recientemente
se ha vinculado la efectividad de este anticonceptivo natural con la frecuencia
con que se mama. Las comidas del niño, “pequeñas y a menudo”, parecen provocar
en la madre un flujo constante de la hormona apropiada.
[80] Informé
de los hallazgos del equipo SPRU en mi libro Future Worlds, porque
el debate sobre los “límites del crecimiento” es todavía considerado por
muchos, equivocadamente, como sinónimo de “debate sobre el futuro". He
incluido en este libro, como Apéndice B, un artículo sobre este tema que
originalmente se publicó en la revista New Scientist. La más
completa exposición del debate sobre el futuro en conjunto es World
Futures, editado por M. Jahoda y C. Freeman, publicado en el Reino
Unido por Martin Robertson y en EE.UU. por Universe.
[81] J.
E. Lovelock, Gaia: A New Look at Life on Earth (Londres:
Oxford University Press, 1979), página 147.
[82] En
caso de que el lector se sorprenda, como hice yo cuando oí por primera vez este
razonamiento, el hombre es, realmente, uno de los animales más grandes sobre la
Tierra en este momento. Por supuesto que no se tiene en cuenta a las ballenas,
dado que el agua en que se desenvuelven las sostiene, y la torpe marcha del
elefante evidencia cómo la gravedad comienza a vencer a los animales de mayor
envergadura que el hombre: el tigre y otros. Sólo hacen falta leves retoques
para completar la historia más arriba esbozada: en un planeta como la Tierra,
ninguna criatura ágil puede sobrepasar el tamaño de un hombre
y continuar viviendo.
[83] Richard
Dawkins, The Selfish Gene (Londres. Oxford University Press.
1976). página 214 El gen egoísta. Salvat Editores. S.A., Barcelona.
[84] No
decimos que el Universo tuviera, cuando la vida apareció sobre la Tierra, la
mitad de su tamaño actual, ya que el Universo puede en realidad ser infinito,
en cuyo caso siempre fue infinito, incluso cuando tenía una densidad muy
elevada. Al decir que la densidad, hace unos miles de millones de años, era el
doble de la actual, los astrónomos quieren significar que una determinada
galaxia o un grupo de galaxias que ahora se ven en el espacio se encontraban
muy próximas a nosotros en aquel tiempo.
[85] Lloyd
Motz. The Universe (Londres: Abacus, 1977). página 57.
[86] Véase
Joseph Silk, The Big Bang (San Francisco: Freeman, 1980),
página 309.
[87] Para
una descripción técnica del super espacio, la obra de consulta definitiva
es Gravitation, de Charles Misner, Kip Thorne y John Wheeler,
si bien es muy técnica.

No hay comentarios:
Publicar un comentario