© Libro N° 9877. El Paisaje Cósmico. Susskind, Leonard. Emancipación. Mayo 7 de 2022.
Título
original: ©
El Paisaje Cósmico. Leonard Susskind
Versión Original: © El Paisaje Cósmico. Leonard Susskind
Circulación conocimiento libre, Diseño y edición
digital de Versión original de textos:
http://www.librosmaravillosos.com/elpaisajecosmico/index.html
Licencia Creative Commons:
Emancipación
Obrera utiliza una licencia Creative
Commons, puedes copiar, difundir o remezclar nuestro contenido, con la única
condición de citar la fuente.
La
Biblioteca Emancipación Obrera es un medio de difusión cultural sin fronteras,
no obstante los derechos sobre los contenidos publicados pertenecen a sus
respectivos autores y se basa en la circulación del conocimiento libre. Los
Diseños y edición digital en su mayoría corresponden a Versiones originales de
textos. El uso de los mismos son estrictamente educativos y está prohibida
su comercialización.
Autoría-atribución: Respetar la autoría del texto y el nombre de los autores
No comercial: No se puede utilizar este trabajo con fines
comerciales
No derivados: No se puede alterar, modificar o reconstruir este
texto.
Fondo:
https://img.freepik.com/vector-gratis/fondo-formas-hexagono-abstracto-degradado_23-2149120168.jpg?t=st=1651180656~exp=1651181256~hmac=f9230295c6cb9b5c36b02c1c2348abc274d667a36f7895e7a263b5d847a9cc22&w=740
Portada E.O. de Imagen original:
http://www.librosmaravillosos.com/elpaisajecosmico/imagenes/portada.jpg
© Edición, reedición y Colección Biblioteca Emancipación: Guillermo Molina
Miranda
LEAMOS SIN RESERVAS,
ANALICEMOS SIN PEREZA Y SOMETAMOS A CRÍTICA TODA LA CULTURA
Leonard Susskind
El Paisaje Cósmico
Leonard Susskind
CONTENIDO
Prefacio
Introducción
1. El mundo según Feynman
2. La madre de todos los problemas de la física
3. La canción de la Tierra
4. El mito de la unicidad y la elegancia
5. Un rayo del cielo
6. Sobre peces congelados y peces hervidos
7. Un mundo impulsado por una banda elástica
8. Reencarnación
9. ¿Por nuestra cuenta?
10. Las branas tras la máquina máxima de Rube Goldberg
11. Un universo burbuja
12. La guerra del agujero negro
13. Resumiendo
Epílogo
Una palabra sobre la diferencia entre paisaje y megaverso
Glosario
Nota sobre terminología
«Majestad, yo no necesito esa hipótesis»
PIERRE-SIMON DE LAPLACE (1749-1827) en respuesta a Napoleón cuando éste le
preguntó por qué no aparecía Dios en su Mecánica Celeste.
Prefacio
Siempre he disfrutado explicando física. De hecho, para mí es más que un
placer: necesito explicar física. Buena parte del tiempo que dedico a la
investigación, la paso soñando despierto, contando a una imaginaria audiencia
de legos cómo hay que entender alguna idea científica difícil. Supongo que
tengo algo de histrión, pero es más que eso: es parte de mi manera de pensar,
una herramienta mental para organizar mis ideas e incluso crear nuevos modos de
considerar los problemas. Por ello, era natural que en algún momento decidiera
ponerme a escribir un libro para el gran público. Hace un par de años decidí
dar el paso y escribir un libro sobre el debate que desde hace veinte años
mantenemos Stephen Hawking y yo respecto al destino de la información que cae en
un agujero negro.
Pero precisamente entonces me vi en el ojo de un enorme huracán científico. Las
cuestiones implicadas no sólo concernían al origen del universo, sino también
al origen de las leyes que lo gobiernan. En mi artículo «El paisaje antrópico de
la teoría de cuerdas» llamé la atención sobre un nuevo concepto emergente que
yo había bautizado como paisaje. El artículo provocó un enorme revuelo en los
mundos de la física y la cosmología, revuelo que hoy se ha extendido a
filósofos e incluso teólogos. El paisaje representa un idea que traspasa
fronteras y afecta no sólo a los cambios de paradigma actuales en física y
cosmología, sino también a profundas preguntas que están sacudiendo nuestro
entorno social y político: ¿puede explicar la ciencia el hecho extraordinario
de que el universo parece estar sorprendentemente, mejor dicho,
espectacularmente bien diseñado para nuestra propia existencia? Decidí dejar de
lado por el momento el libro sobre el agujero negro y escribir un libro de
divulgación sobre esta historia extraordinaria. Así nació El paisaje cósmico.
Seguramente algunos lectores de este libro sabrán que en los últimos años han
aparecido en las secciones de ciencia de los periódicos noticias de dos
descubrimientos asombrosos y «oscuros» que han causado perplejidad entre los
cosmólogos. El primero es que el noventa por ciento de la materia del universo
está constituida por una sustancia misteriosa llamada materia oscura. El otro
es que el setenta por ciento de la energía del universo está compuesta de algo
todavía más fantasmal y misterioso llamado energía oscura. Las palabras
misterio, misterioso y perplejos solían aparecer con frecuencia en estos
artículos periodísticos.
Tengo que admitir que yo no encuentro tan misterioso ninguno de estos dos descubrimientos.
Para mí, la palabra misterio denota algo que elude por completo una explicación
racional. Los descubrimientos de la materia y la energía oscuras fueron
sorpresas, pero no misterios. Los físicos de partículas elementales (yo soy uno
de ellos) han sabido siempre que sus teorías eran incompletas y que quedaban
muchas partículas por descubrir. La tradición de postular partículas nuevas y
difíciles de detectar empezó cuando Wolfgang Pauli conjeturó correctamente que
una forma de radioactividad implicaba una partícula casi invisible llamada
neutrino. La materia oscura no está compuesta de neutrinos, pero ahora los
físicos han postulado muchas partículas que podrían formar fácilmente la
materia invisible. No hay ningún misterio: sólo las dificultades de identificar
y detectar dichas partículas.
La energía oscura tiene más derecho a ser calificada de misteriosa, pero el
misterio tiene que ver mucho más con su ausencia que con su presencia. Los
físicos han sabido durante setenta y cinco años o más que hay muchas razones
por las que el espacio debe estar lleno de energía oscura. El misterio no es
por qué existe la energía oscura, sino por qué existe tan poca. Pero una cosa
está clara: tan sólo un poco más de energía oscura hubiera resultado fatal para
nuestra propia existencia.
El misterio real que plantea la cosmología moderna concierne a un silencioso
«elefante en la habitación»; un elefante, podría añadir, que ha puesto a los
físicos en una situación enormemente embarazosa: ¿por qué el universo tiene toda
la apariencia de haber sido especialmente diseñado para que puedan existir
formas de vida como la nuestra? Esto ha intrigado a los científicos y, al mismo
tiempo, ha alentado a quienes prefieren el falso consuelo de un mito
creacionista. La situación se parece mucho a la que vivía la biología antes de
Darwin, cuando las personas reflexivas eran incapaces de entender cómo era
posible que, sin la mano guía de una deidad, los procesos naturales de la
física y la química crearan algo tan complejo como el ojo humano. Al igual que
el ojo, las propiedades especiales del universo físico están tan
sorprendentemente bien ajustadas que exigen una explicación.
Permítame que me adelante y exponga aquí mis propios prejuicios. Creo
firmemente que la ciencia real requiere explicaciones que no incluyan agentes
sobrenaturales. Creo que el ojo evolucionó por mecanismos darwinianos. Creo,
además, que los físicos y los cosmólogos también deben encontrar una
explicación natural de nuestro mundo, incluyendo las sorprendentes y felices
casualidades que conspiraron para hacer posible nuestra propia existencia. Creo
que por muy engoladamente que afirmen lo contrario cuando la gente sustituye la
explicación racional por la magia no está haciendo ciencia.
Hasta ahora, la mayoría de los físicos (incluido yo) ha decidido ignorar al
elefante; incluso negar su existencia. Preferían creer que las leyes de la
Naturaleza se siguen de algún principio matemático elegante y que el aparente
diseño del universo es simplemente una feliz casualidad. Pero descubrimientos
recientes en astronomía, cosmología y, sobre todo, teoría de cuerdas han dejado
a los físicos teóricos poca elección para pensar así. Sorprendentemente, quizá
estemos empezando a ver las razones para este patrón de coincidencias. Se han
estado acumulando pruebas para una explicación de la «ilusión de diseño
inteligente» que solo depende de los principios de la física, las matemáticas y
las leyes de los grandes números. De esto es de lo que trata El paisaje
cósmico: de la explicación científica de los milagros aparentes de la física y
la cosmología, y de sus implicaciones filosóficas.
¿A qué lectores está dirigido este libro? La respuesta es: a cualquiera que
tenga un vivo interés por la ciencia y una curiosidad por cómo llegó el mundo a
ser como es. Pero aunque el libro se dirige a una audiencia profana, no se
dirige al «peso ligero» que tiene miedo a pensar. He mantenido el libro libre
de ecuaciones y de jerga científica, pero no de conceptos desafiantes. He
evitado las fórmulas matemáticas, pero por otro lado me he esforzado en dar
explicaciones precisas y claras de los principios y mecanismos que subyacen al
nuevo paradigma emergente. Entender este nuevo paradigma será crucial para
cualquiera que espere seguir los posteriores desarrollos en las respuestas a
las «grandes preguntas».
Tengo deudas con muchas personas, algunas de las cuales ni siquiera sabían que
me estaban ayudando a escribir este libro. Entre ellas están todos los físicos
y cosmólogos en cuyas ideas me he basado: Steven Weinberg, Gerard’t Hooft,
Martin Rees, Joseph Polchinski, Raphael Bousso, Alan Guth, Alex Vilenkin,
Shamit Kachru, Renata Kallosh y, sobre todo, Andrei Linde, quien ha estado
compartiendo generosamente sus ideas conmigo durante muchos años.
La escritura de este libro no habría sido posible sin el apoyo de mi agente,
John Brockman, y mi amigo Malcolm Griffith, que leyeron y criticaron el
primitivo revoltijo de un manuscrito que les envié y me enseñaron cómo «jugar
con más de tres balones» (así es como describe Malcolm las dificultades de
escribir un libro coherente). A toda la gente de Little, Brown —Steve Lamont,
Carolyn O'Keefe y, en especial, mi editora, y ahora amiga, Liz Hagle— le debo
una enorme gratitud por su extraordinaria contribución a la escritura de este
libro. La guía paciente de Liz estuvo por encima de lo que exige el deber.
Y finalmente debo infinita gratitud a mi mujer, Anne, por su continua ayuda y
su cariñoso apoyo.
Introducción
El aire es muy frío y está en calma: excepto por el sonido de mi propia
respiración, el silencio es absoluto. La nieve, seca y en polvo, cruje cada vez
que se posan mis botas. Su blancura perfecta, iluminada por la luz de las
estrellas, da al terreno un brillo luminoso y sobrecogedor, mientras las
estrellas se difuminan en un tenue resplandor continuo que cruza la oscura
bóveda celeste. La noche es más brillante en este planeta desolado que en mi
propio mundo. Bello, pero de una belleza fría y sin vida: si existiera alguien,
un lugar para la contemplación metafísica.
Solo, he dejado la seguridad de la base, para pensar en los sucesos del
día y observar el cielo en busca de meteoros. Pero me es imposible pensar en
otra cosa que no sea la extraordinaria inmensidad y la naturaleza impersonal
del universo. El movimiento de remolino de las galaxias, la incesante expansión
del universo, la infinita frialdad del espacio, el calor de las estrellas que
nacen y sus estertores de muerte como gigantes rojas: seguramente éste debe de
ser el sentido de la existencia. El hombre —la vida en general— parece
irrelevante para la marcha del universo: tan sólo un mero montón de agua, grasa
y carbón en un planeta que da vueltas alrededor de una estrella que no tiene
nada de especial.
Antes, durante el corto período de horas de luz solar, Curt, Kip y yo
habíamos caminado aproximadamente un kilómetro hasta el campamento ruso para
ver si podíamos encontrar a algunos Ivanes con quienes hablar. Stephen había
querido venir con nosotros, pero su silla de ruedas no podía moverse por la
nieve. El campamento abandonado, sólo unos pocos edificios bajos y herrumbrosos
de metal corrugado, parecía desierto. Llamamos a la puerta, pero no había
ningún signo de vida. Forcé la puerta y miré a la fantasmal oscuridad interior;
luego me atreví a entrar y echar una ojeada. Hacía tanto frío dentro como
fuera; el campamento estaba completamente abandonado. Había aproximadamente un
centenar dormitorios, todos abiertos pero desiertos. ¿Cómo habían desaparecido por
completo un centenar de hombres? En silencio volvimos caminando a nuestra base.
En la barra, encontramos a nuestro ruso, Víctor, bebiendo y riendo.
Víctor, al parecer, era uno de los tres últimos rusos que quedaban en el
planeta. Los suministros procedentes de Rusia habían cesado hacía más de un
año. Habrían muerto de hambre de no ser porque los nuestros los adoptaron.
Nunca vimos a los otros dos rusos, pero Víctor nos aseguró que estaban vivos.
Víctor insistió en invitarme a beber, «para el frío», y preguntó, «¿Cómo
puede gustarte este lugar?». Le dije que en todos mis viajes tan sólo en una
ocasión había visto un cielo nocturno de una belleza siquiera comparable al de
aquí. Irónicamente, ese otro planeta extraño era tan caliente que las rocas
habrían derretido cualquier cosa que estuviese en contacto con ellas.
Por supuesto, no estábamos realmente en otro planeta. Sólo lo parecía.
La Antártida es realmente extraña. Stephen Hawking, Curt Callan, Kip Thorne,
Stan Deser, Claudio Teitelboim [*], yo
mismo, nuestras mujeres y algunos otros físicos teóricos estábamos allí por
diversión, casi como un juego: era un premio por ir a Chile a una conferencia
sobre agujeros negros. Claudio, un eminente físico chileno, había conseguido
que la fuerza aérea chilena nos llevase en uno de sus aviones de carga Hércules
a su base antártica para pasar un par de días.
Era agosto de 1997 —invierno en el hemisferio austral— y estábamos
preparados para lo peor. La temperatura inferior que yo había experimentado
nunca había bajado de 10 grados bajo cero, así que me preguntaba cómo
aguantaría los 35 bajo cero que pueden alcanzarse en la base en pleno invierno.
Cuando el avión aterrizó, nos subimos con inquietud la cremallera del pesado
equipo, adaptado para el temible frío que el ejército nos había proporcionado.
Entonces se abrió la bodega de carga y la mujer de Curt, Chantal, salió
del avión, levantó los brazos y gritó con alegría: «Hace más o menos el mismo
frío que en un día de invierno en Nueva Jersey». Y así era. Así permaneció
durante todo el día mientras jugueteábamos en la nieve.
En algún momento durante esa noche se despertó la bestia. Por la mañana,
la Antártida había desatado su furia. Salí fuera durante un par de minutos para
tener una idea de lo que habían soportado Shackleton y sus hombres naufragados.
¿Por qué no habían perecido todos ellos? No se perdió un solo miembro de la
expedición. Con un frío helador y viento húmedo durante más de un año, ¿cómo es
que no murieron todos de pulmonía? Ahí fuera, ante el azote de la tormenta,
supe la respuesta: nada sobrevive, ni siquiera los microbios que producen los
resfriados.
El otro «planeta» extraño que yo había mencionado a Víctor era el Valle
de la Muerte, otro lugar sin vida. No, no totalmente sin vida. Pero yo me
preguntaba cuánto más calor tendría que hacer para freír todo el protoplasma.
Lo que la Antártida tiene en común con el Valle de la Muerte es su extrema
sequedad. Hace demasiado frío para que haya mucho vapor de agua suspendido en
el aire; eso y la completa ausencia de contaminación luminosa hace posible, en
ambos extremos, ver las estrellas de una manera que un hombre moderno raramente
puede ver. Aquí de pie, a la luz de las estrellas de la Antártida, pensé en lo
afortunados que éramos los seres humanos. La vida es frágil: sólo florece en un
estrecho rango de temperaturas entre la congelación y la ebullición. Es una
suerte que nuestro planeta esté precisamente a la distancia correcta del Sol:
un poco más lejos y dominaría la muerte del perpetuo invierno antártico; un
poco más cerca y la superficie freiría realmente cualquier cosa que estuviera
en contacto con ella. Víctor, siendo ruso, optó por una visión espiritual de la
cuestión: «¿No eran —preguntó— la bondad y el amor infinito de Dios los que
permitían nuestra existencia?». Mi propia explicación «estúpida» se hizo clara
al momento.
De hecho, tenemos muchos más motivos para estar agradecidos que tan sólo
la temperatura de la Tierra. Sin la cantidad correcta de carbono, oxígeno,
nitrógeno y otros elementos, un clima templado sería baldío. Si el Sol en el
centro de nuestro Sistema Solar fuese reemplazado por un sistema de estrellas
binarias más habitual [1], las
órbitas planetarias serían demasiado caóticas e inestables para que la vida
pudiese desarrollarse. Hay innumerables peligros de este tipo. Pero por encima
de todos están las propias leyes de la Naturaleza. Todo lo que se necesita es
un pequeño cambio en las leyes de Newton o las reglas de la física atómica y
¡puff…!: la vida se extinguiría al instante o quizá nunca se habría formado.
Parece que nuestro ángel guardián no sólo nos proporcionó un planeta muy
benigno donde vivir, sino que también hizo las reglas de existencia —las leyes
de la física y la cosmología— perfectamente adecuadas para nosotros. Éste es
uno de los mayores misterios de la Naturaleza. ¿Es suerte? ¿Es diseño
inteligente y benevolente? ¿Es siquiera un tema científico o metafísico y religioso?
Este libro trata de un debate que está agitando las pasiones de físicos
y cosmólogos pero es también parte de una controversia más amplia,
especialmente en Estados Unidos, donde ha entrado en el discurso político. En
un lado se encuentran las personas que están convencidas de que el mundo debe
haber sido creado o diseñado por un agente inteligente con un propósito
benevolente. En el otro lado se encuentran los científicos tercos que están
convencidos de que el universo es el producto de las leyes impersonales y
desinteresadas de la física, las matemáticas y la probabilidad, un mundo sin un
propósito, por así decirlo. En el primer grupo no incluyo a los que toman la
Biblia al pie de la letra y creen que el mundo fue creado hace seis mil años y
están dispuestos a luchar por ello. Estoy hablando de personas inteligentes y
reflexivas que miran a su alrededor y les resulta difícil creer que fue sólo la
suerte la que hizo el mundo tan adecuado para los seres humanos. Yo no creo que
esas personas sean estúpidas, pues tienen un motivo para mantener su actitud.
Los defensores del diseño inteligente argumentan en general que es
increíble que algo tan complejo como el sistema visual humano pudiera haber
evolucionado por procesos puramente aleatorios. ¡Es increíble! Pero los
biólogos disponen de una herramienta muy poderosa —el principio de selección
natural— cuyo poder explicatorio es tan grande que casi todos los biólogos
creen que el peso de la evidencia está fuertemente a favor de Darwin. El
milagro del ojo es sólo un milagro aparente.
Creo que los entusiastas del diseño se mueven en un terreno más firme
cuando se trata de física y cosmología. La biología es sólo parte de la
historia de la creación. Las leyes de la física y el origen del universo son la
otra parte, y aquí, una vez más, parecen abundar los milagros increíbles.
Parece totalmente improbable que cualesquiera reglas particulares condujeran
casualmente al milagro de la vida inteligente. Sin embargo, esto es justo lo
que la mayoría de los físicos han creído: la vida inteligente es una
consecuencia puramente casual de principios físicos que no tienen nada que ver
con nuestra propia existencia. Aquí comparto el escepticismo del bando del
diseño inteligente: creo que la suerte necesita una explicación. Pero la
explicación que está emergiendo de la física moderna es tan diferente del
diseño inteligente como la de Darwin lo era de la de Sam Wilberforce el
«Jabonoso» [2].
El debate en el que está interesado este libro no es la amarga
controversia política entre ciencia y creacionismo. A diferencia del debate
entre Thomas Huxley «el Bulldog de Darwin» y Wilberforce, la discusión actual
no es entre religión y ciencia, sino entre dos facciones de la ciencia en
guerra: los que creen que las leyes de la Naturaleza están determinadas por
relaciones matemáticas, que por mero azar permiten la vida, y los que creen que
las leyes de la física han sido determinadas, de alguna manera, por el
requisito de que fuera posible la vida inteligente. La acritud y el encono de
la controversia ha cristalizado alrededor de una sencilla expresión —el principio
antrópico—, un principio hipotético que dice que el mundo está
perfectamente ajustado ¡de tal manera que podamos estar aquí para observarlo!
Yo tendría que decir que, dicho así, ésta es una noción estúpida e incompleta.
No tiene más sentido que decir que la razón de que evolucionara el ojo es que
pueda existir alguien que lea este libro. En realidad es una reducción de un
conjunto de conceptos mucho más rico que clarificaré en los capítulos que
siguen.
Pero la controversia entre científicos tiene repercusiones para el
debate público más amplio. No es sorprendente que haya salido de las salas de
seminarios y de las revistas científicas y haya entrado en los debates
políticos sobre el diseño y el creacionismo. Páginas cristianas en internet han
entrado en la liza:
La Biblia dice:
«Desde el momento en que el mundo fue creado, la gente ha visto la Tierra y el
Cielo y todo lo que hizo Dios. Pueden ver claramente Sus cualidades invisibles:
Su poder eterno y naturaleza divina. Por ello que no tienen ninguna excusa para
no conocer a Dios».
Esto es tan cierto hoy como lo ha sido siempre y de alguna manera, con el
descubrimiento del principio antrópico, es más cierto ahora que nunca. De modo
que la primera prueba que tenemos es la propia creación, un universo que lleva
la firma de Dios, un universo «ajustado» para que nosotros vivamos en él.
Y de otra página religiosa:
En su libro El plano cósmico, el astrónomo profesor Paul Davies concluye que la
evidencia a favor del diseño es aplastante:
El profesor sir Fred Hoyle —que no simpatiza con la Cristiandad— dice que es
como si un superintelecto hubiera jugado con la física así como con la química
y la biología.
Y el astrónomo George Greenstein dice:
A medida que examinamos todas las pruebas, surge insistentemente la idea de que
algún agente, o mejor, Agente sobrenatural debe estar implicado. ¿Es posible
que de repente, sin pretenderlo, hayamos tropezado con la prueba científica de
la existencia de un ser supremo? ¿Fue Dios quien intervino y creó tan
providencialmente el cosmos para nuestro beneficio? [3]
¿Puede maravillar que el principio antrópico haga que muchos físicos se
sientan incómodos?
Davies y Greenstein son estudiosos serios, y Hoyle fue uno de los
grandes científicos del siglo XX. Como ellos señalan, la apariencia de diseño
inteligente es innegable [4]. Se
requieren coincidencias extraordinarias para que sea posible la vida. Nos
llevará algunos capítulos entender plenamente este «elefante en la habitación»,
pero empecemos con un preestreno.
El mundo tal como lo conocemos es muy precario en un sentido que tiene
especial interés para los físicos. Hay muchas maneras en las que podría ir mal:
tan mal que la vida como la conocemos sería totalmente imposible. Los
requisitos de que el mundo sea suficientemente parecido al nuestro para
soportar vida convencional caen en tres amplias clases. La primera clase
incluye las materias primas de la vida: los elementos químicos. La vida es, por
supuesto, un proceso químico. Hay algo en la forma en que están construidos los
átomos que los hace juntarse en las combinaciones más extrañas: las gigantescas
y locas moléculas de la vida —ADN, ARN, centenares de proteínas y todo lo
demás—. La química es, en realidad, una rama de la física: la física de los
electrones de valencia, es decir, los que orbitan en torno al núcleo en los
límites exteriores del átomo. Son los electrones de valencia que saltan de un
lado a otro o son compartidos entre átomos los que dan a los átomos sus
sorprendentes capacidades.
Las leyes de la física empiezan con una lista de partículas elementales
como electrones, quarks y fotones, cada una de ellas con propiedades especiales
tales como masa y carga eléctrica. Éstos son los objetos a partir de los cuales
está construido todo lo demás. Nadie sabe por qué la lista es la que es o por
qué las propiedades de estas partículas son exactamente las que son. Otras
infinitas listas son igualmente posibles. Pero un universo lleno de vida no es
en absoluto una expectativa genérica. Eliminar cualquiera de estas partículas
(electrones, quarks o fotones), o incluso cambiar sus propiedades en una
modesta cantidad, haría que la química tradicional se viniera abajo. Esto es
obvio en el caso de los electrones y los quarks que forman los protones y los
neutrones. Sin éstos no podría haber átomos en absoluto. Pero la importancia
del fotón quizá sea menos obvia. En capítulos posteriores aprenderemos cosas
sobre el origen de fuerzas como las fuerzas electromagnéticas o gravitatorias,
pero por ahora basta con saber que las fuerzas eléctricas que mantienen al
átomo unido son consecuencias del fotón y sus propiedades especiales.
Si las leyes de la naturaleza parecen bien escogidas para la química,
también están bien escogidas para el segundo conjunto de requisitos, a saber,
que la evolución del universo nos proporcione un hogar confortable donde vivir.
Las propiedades a gran escala del universo —su tamaño, la velocidad a la que
crece y la existencia de galaxias, estrellas y planetas— están gobernados
principalmente por la fuerza de la gravedad. Es la teoría de la gravedad de
Einstein —la teoría de la relatividad general— la que explica cómo se expandió
el universo desde el candente big bang inicial hasta su gran
tamaño actual. Las propiedades de la gravedad, especialmente su intensidad,
fácilmente podrían haber sido diferentes. De hecho, es un hecho inexplicado que
la gravedad sea tan débil como es [5]. La
fuerza gravitatoria entre los electrones y los núcleos atómicos es diez mil
tollones de trillones de veces más débil que la atracción eléctrica. Si las
fuerzas gravitatorias fueran tan sólo un poco más intensas, el universo habría
evolucionado tan rápidamente que no habría dado tiempo a que apareciese vida
inteligente.
Pero la gravedad desempeña un papel muy espectacular en el despliegue
del universo. Su atracción hace que la materia del universo —hidrógeno, helio,
y la denominada materia oscura— se aglutine en galaxias, estrellas y finalmente
planetas. Sin embargo, para que esto suceda, el universo muy primitivo debió
ser un poco grumoso. Si el material original del universo hubiera estado
uniformemente distribuido, habría permanecido así para siempre. De hecho, hace
catorce mil millones de años el universo tenía la grumosidad exacta; un poco
más grumoso, o un poco menos grumoso, y no habría habido galaxias, estrellas y
planetas donde evolucionara la vida.
Finalmente, está la composición química actual del universo. En el
principio había solo hidrógeno y helio: ciertamente no suficiente para la
formación de vida. El carbono, el oxígeno y los demás elementos vinieron más
tarde. Se formaron en los reactores nucleares del interior de las estrellas.
Pero la capacidad de las estrellas para transmutar hidrógeno y helio en los
sumamente importantes núcleos de carbono era un asunto muy delicado. Pequeños
cambios en las leyes de la electricidad y la física nuclear podrían haber
impedido la formación del carbono.
Incluso si el carbono, el oxígeno y otros elementos biológicamente
importantes se formaron en el interior de las estrellas, tenían que salir para
proporcionar el material para los planetas y la vida. Obviamente no podemos
vivir en los núcleos extremadamente calientes de las estrellas. ¿Cómo escapó el
material del interior estelar? La respuesta es que fue violentamente expulsado
en cataclísmicas explosiones de supernovas.
Las propias explosiones de supernovas son fenómenos extraordinarios.
Además de protones, neutrones, electrones, fotones y la gravedad, las
supernovas requieren una partícula más: el fantasmal neutrino antes mencionado.
Los neutrinos, cuando escapan de la estrella que colapsa, crean una presión que
empuja a los elementos que tienen delante. Y, por suerte, resulta que la lista
de partículas elementales incluye neutrinos con las propiedades correctas.
Como he dicho, un mundo lleno de fenómenos biológicos no es en absoluto
una expectativa genérica. Desde el punto de vista de la elección de listas de
partículas elementales e intensidades de fuerzas, es un excepción muy rara,
pero ¿hasta qué punto es excepcional, suficientemente excepcional como para
garantizar un paradigma radicalmente nuevo que incluye el principio antrópico?
Si tuviéramos que basar nuestras opiniones solamente en las cosas que he
explicado hasta ahora, serían variadas, incluso entre aquellos que están
abiertos a las ideas antrópicas. La mayoría de los ajustes finos individuales
necesarios para la vida no son tan precisos como para que no pudieran ser sólo
accidentes casuales. Quizá, como los físicos han creído siempre, se descubrirá
un principio matemático que explique la lista de partículas y constantes de la
naturaleza, y un montón de accidentes casuales se mostrará como sólo eso: un
montón de accidentes casuales. Pero hay un ajuste fino de la naturaleza, que
explicaré en el capítulo 2, que es increíblemente improbable. El hecho de que
se dé tal ajuste ha sido un tremendo enigma para los físicos durante más de
medio siglo. La única explicación, si puede llamarse así, es el principio
antrópico.
Se plantea entonces una paradoja: ¿cómo podemos confiar en explicar
alguna vez las propiedades extraordinariamente benevolentes de las leyes de la
física, y nuestro propio mundo, sin apelar a una inteligencia sobrenatural? El
principio antrópico, al colocar la vida inteligente en el centro de la
explicación de nuestro universo, parecería sugerir que alguien, algún Agente,
está cuidando de la humanidad. Este libro trata del paradigma físico emergente
que utiliza el principio antrópico aunque de una manera que ofrece una
explicación totalmente científica de la aparente benevolencia del universo.
Para mí es el darwinismo del físico.
¿Cuáles son estas leyes de la física de las que he hablado? ¿Cómo están
formuladas? Hasta que llegó Richard Feynman, las únicas herramientas que tenían
los físicos para expresar las leyes de la física eran las ecuaciones arcanas e
impenetrables de la teoría cuántica de campos —un tema tan difícil que incluso
los matemáticos tienen dificultades para entenderlo—. Pero la extraordinaria
habilidad de Feynman para visualizar fenómenos físicos lo cambió todo. Él hizo
posible resumir las leyes de las partículas elementales dibujando unas pocas
figuras sencillas. Las figuras de Feynman y las leyes de la física de las
partículas elementales, conocidas para los físicos como «modelo estándar», son
los temas que se tratarán en el capítulo 1.
¿Es cierto realmente que el universo y sus leyes están muy delicadamente
equilibrados? El capítulo 2, «La madre de todos los problemas de la física»,
también podría llamarse, «La madre de todos los equilibrios». Cuando las leyes
de las partículas elementales se encuentran con las leyes de la gravedad, el
resultado es una potencial catástrofe: un mundo de tal violencia que los
cuerpos astronómicos, así como las partículas elementales, serían desgarrados
por la fuerza más destructiva imaginable. La única vía de escape es que una
constante particular de la naturaleza —la constante cosmológica de
Einstein— esté tan increíblemente bien ajustada que nadie pudiera considerar
que es un puro accidente. Introducida inicialmente por Einstein poco después de
terminar su teoría de la gravedad, la constante cosmológica ha sido el mayor
enigma de la física teórica durante casi noventa años. Representa una fuerza
repulsiva universal —una especie de antigravedad— que al instante destruiría el
universo si no fuera asombrosamente pequeña. El problema es que todas nuestras
teorías modernas implican que la constante cosmológica no debería ser pequeña.
Los modernos principios de la física están basados en dos cimientos: la teoría
de la relatividad y la mecánica cuántica. El resultado genérico de un mundo
basado en estos principios es un universo que se autodestruiría muy
rápidamente. Pero por razones que han sido totalmente incomprensibles, la
constante cosmológica está tan bien ajustada que parece asombroso. Esto, más
que cualquier otro «accidente» casual, lleva a algunas personas a concluir que
el universo debe de ser el resultado de un diseño.
¿Está el modelo estándar de la física de partículas «escrito en piedra»?
¿Son posibles otras leyes? En el capítulo 3 de este libro explico por qué estas
leyes particulares no son en absoluto únicas y cómo podrían cambiar de un lugar
a otro o de un tiempo a otro. Las leyes de la física son muy similares al
clima: están controladas por influencias invisibles en el espacio casi de la
misma manera que la temperatura, la humedad, la presión del aire y la velocidad
del viento controlan cómo se forman la lluvia, la nieve y el granizo. Estas
influencias invisibles se denominan campos. Algunos de ellos, como el campo
magnético, nos son muy familiares. Muchos otros nos son poco familiares,
incluso para los físicos. Pero allí están, llenando el espacio y controlando el
comportamiento de las partículas elementales. El paisaje es el
término que yo acuñé para describir la extensión total de estos ambientes
teóricos. El paisaje es el espacio de posibilidades, una representación
esquemática de todos los ambientes posibles permitidos por la teoría. Durante
los dos últimos años, la existencia de un rico paisaje de posibilidades se ha
convertido en la cuestión central de la teoría de cuerdas.
La controversia no es sólo científica. En el capítulo 4 hablaremos del
lado estético del debate. Los físicos, en particular los físicos teóricos,
tienen un sentido muy marcado de la belleza, la elegancia y la unicidad.
Siempre han creído que las leyes de la naturaleza son la consecuencia única e
inevitable de algún elegante principio matemático. La creencia está tan
profundamente arraigada que la mayoría de mis colegas sentirían una enorme
sensación de pérdida y disgusto si esta unicidad y elegancia estuviesen
ausentes, si las leyes de la física fueren «feas». Pero ¿son las leyes de la
física elegantes en el sentido del físico? Si el único criterio para saber cómo
funciona el universo es que deba soportar la vida, es perfectamente posible que
toda la estructura sea una tosca y complicada «máquina de Rube Goldberg» [6]. Pese a
las protestas de los físicos que afirman que las leyes de las partículas
elementales son elegantes, la evidencia empírica apunta de forma mucho más
convincente en la dirección contraria. El universo tiene más en común con una
máquina de Rube Goldberg que con una consecuencia única de la simetría
matemática. No podemos entender por completo la controversia y los paradigmas
cambiantes sin entender también las nociones de belleza y elegancia en física,
cómo se originaron y cómo se comparan con el mundo real.
Este libro trata de un «terremoto» conceptual, pero éste no es sólo obra
de teóricos. Mucho de lo que sabemos procede de la cosmología experimental y la
astronomía moderna. Dos descubrimientos clave están impulsando el cambio de
paradigma: el éxito de la cosmología inflacionaria y la existencia de una
pequeña constante cosmológica. La inflación se refiere al
breve período de rápida expansión exponencial que inicialmente estableció el
escenario para el big bang. Sin ella, el universo habría sido
probablemente una minúscula pompa de jabón, no mayor que una partícula
elemental. Gracias a ella, el universo creció hasta proporciones inmensamente
mayores que cualquier cosa que podamos detectar con los más potentes
telescopios. Cuando Alan Guth sugirió por primera vez la inflación, en 1980,
parecía haber pocas posibilidades de que las observaciones astronómicas
pudieran llegar a comprobarla. Pero la astronomía ha avanzado increíblemente
desde 1980: tanto que lo que parecía inconcebible entonces es hoy un hecho consumado.
Los enormes avances en astronomía llevaron a un segundo descubrimiento
que llegó como un bombazo para los físicos, algo tan chocante que aún nos
estamos recuperando del impacto. La infame constante cosmológica [7], que
casi todo el mundo aseguraba que era exactamente cero, no lo es. Parece que las
leyes de la Naturaleza estaban ajustadas exactamente para impedir que la
constante cosmológica sea un peligro mortal en la formación de la vida, pero no
más que eso. El capítulo 5 está dedicado a estos descubrimientos. Este capítulo
explica también todos los fundamentos astronómicos y cosmológicos que
necesitará el lector.
La constante cosmológica puede ser «la madre de todos los equilibrios»,
pero hay muchas otras condiciones delicadas que parecen coincidencias
fantásticamente felices. El capítulo 6, «Sobre peces congelados y peces
hervidos», trata de estos equilibrios menores. Van desde lo cosmológico a lo
microscópico, desde la manera en que se expande el universo a las masas de las
partículas elementales como el protón y el neutrón. Una vez más, la lección no
es que el universo sea simple sino que está lleno de felices coincidencias,
sorprendentes e inexplicadas.
Hasta hace muy poco tiempo casi todos los científicos consideraban que
el principio antrópico no era una idea científica, sino un concepto religioso
y, en general, tontamente equivocado. Para los físicos era una creación de
cosmólogos ebrios, borrachos de sus propias ideas místicas. Las teorías reales
como la teoría de cuerdas explicarían todas las propiedades de la Naturaleza de
una forma única que no tiene nada que ver con nuestra propia existencia. Pero
un sorprendente cambio de fortuna ha colocado a los teóricos de cuerdas en una
posición embarazosa: su propia teoría favorita los está empujando a los brazos
abiertos del enemigo. La teoría de cuerdas está resultando ser el arma más
poderosa del contrario. En lugar de producir una construcción única y elegante,
da lugar a un paisaje colosal de máquinas de Rube Goldberg. El resultado del
cambio es que muchos teóricos de cuerdas han cambiado de bando. Los capítulos
7, 8, 9 y 10 tratan de la teoría de cuerdas y de cómo está cambiando el
paradigma.
Los capítulos 11 y 12 explican la nueva y extraordinaria visión del
universo que está emergiendo del trabajo combinado de astrónomos, cosmólogos y
físicos teóricos: el mundo —según cosmólogos como Andrei Linde, Alexander
Vilenkin y Alan Guth— consiste en una colección prácticamente infinita de
«universos de bolsillo» de enorme variedad. Cada bolsillo tiene su propio
«clima»: su propia lista de partículas elementales, fuerzas y constantes de la
física. Las consecuencias de una visión tan rica del universo son profundas
para la física y la cosmología. La pregunta «¿Por qué el universo es como es?»
puede reemplazarse por «¿Hay un bolsillo en esta enorme diversidad en el que
las condiciones igualen a las nuestras?». El mecanismo llamado inflación
eterna, que hizo que esta diversidad evolucionara a partir de un caos
primordial, y la revolución que ha provocado en los debates sobre el principio
antrópico y el diseño del universo son los temas del capítulo 11.
Este cambio de paradigma cosmológico no es el único que ésta teniendo
lugar en los fundamentos de la física. El capítulo 12 trata de otra batalla
titánica, un conflicto que yo llamo la «guerra del agujero negro». La guerra
del agujero negro lleva librándose los últimos treinta años y ha cambiado
radicalmente la forma de pensar de los físicos sobre la gravedad y los agujeros
negros. El motivo de la fiera batalla era el destino de la información que cae
tras el horizonte de un agujero negro: ¿se pierde para siempre, fuera del
alcance del conocimiento de los observadores externos, o los detalles se
recuperan de alguna manera sutil cuando el agujero negro se evapora? El punto
de vista de Hawking era que toda la información tras el horizonte se pierde
irremediablemente, que ni siquiera la más mínima pizca de información de los
objetos que están al otro lado puede reconstruirse alguna vez. Pero eso ha
resultado ser falso. Las leyes de la mecánica cuántica impiden que se pierda
siquiera un simple bit. Para entender cómo escapa la información de la prisión
de un agujero negro fue necesario reconstruir por completo nuestros conceptos
más básicos de espacio.
¿Qué tiene que ver la guerra del agujero negro con este libro? Puesto
que el universo se está expandiendo bajo la influencia de la constante
cosmológica, la cosmología también tiene sus horizontes. Nuestro horizonte
cósmico está a unos quince mil millones de años luz, donde las cosas se están
alejando tan rápidamente de nosotros que la luz procedente de allí nunca puede
alcanzarnos, ni puede hacerlo ninguna otra señal. Es exactamente igual que el
horizonte de un agujero negro: un punto de no retorno. La única diferencia es
que el horizonte cósmico nos rodea, mientras que nosotros rodeamos al horizonte
de un agujero negro. En ninguno de los dos casos nada que esté más allá del
horizonte puede influirnos, o así se pensaba. Además, los otros universos de
bolsillo —el gigantesco mar de diversidad— están más allá de nuestro alcance
detrás del horizonte. Según la física clásica, estos otros mundos están para
siempre completamente aislados de nuestro mundo. Pero los mismos argumentos que
ganaron la guerra del agujero negro pueden adaptarse a los horizontes
cosmológicos. La existencia y los detalles de todos los demás universos de
bolsillo están contenidos en las características sutiles de la radiación
cósmica que baña constantemente todas las regiones de nuestro universo
observable. El capítulo 12 es una introducción a la guerra del agujero negro,
cómo se ganó y cuáles son sus implicaciones para la cosmología.
La controversia expuesta en El paisaje cósmico es una
controversia real: físicos y cosmólogos defienden apasionadamente sus propias
ideas, cualesquiera que sean. El capítulo 13 echa una ojeada a las opiniones
actuales de muchos de los distinguidos físicos teóricos y cosmólogos del mundo
y a cómo ven individualmente la controversia. También discuto las diversas
maneras en que el experimento y la observación pueden guiarnos hacia el
consenso.
A la pregunta de Víctor, «¿No eran la bondad y el amor infinito de Dios
los que permitían nuestra existencia?», tendría que responder con la respuesta
de Laplace a Napoleón: «Yo no necesito esa hipótesis». El paisaje
cósmico es mi respuesta, así como la respuesta de un número creciente
de físicos y cosmólogos, a la paradoja de un universo benevolente.
Capítulo 1
El mundo según Feynman
Contenido:
§. La Naturaleza está nerviosa
§. Partículas elementales
§. Electrodinámica cuántica
§. El electrón
§. El fotón
§. El núcleo
§. Diagramas de Feynman
§. Antimateria
§. La constante de estructura fina
§. Cromodinámica Cuántica
§. Las interacciones débiles
§. Las leyes de la física
Sin duda, nunca sabremos el nombre del primer cosmólogo que miró al
cielo y preguntó: «¿Qué es todo esto?, ¿cómo llegó aquí?, ¿qué estoy haciendo
yo aquí?». Lo que sí sabemos es que sucedió en el pasado prehistórico,
probablemente en África. Las primeras cosmologías o mitos de creación no se
parecían en nada a la cosmología científica de hoy, pero nacieron de la misma
curiosidad humana. No es sorprendente que dichos mitos trataran de la tierra,
el agua, el cielo y las criaturas vivas. Y, por supuesto, tenían como
protagonista al creador sobrenatural: ¿cómo explicar de otra forma la
existencia de criaturas tan complejas y complicadas como los seres humanos, por
no mencionar la lluvia, el Sol, los animales y las plantas que parecían estar
colocados sobre la Tierra sólo para nuestro beneficio?
La idea de que leyes precisas de la Naturaleza gobiernan los mundos
celeste y terrestre se remonta a Isaac Newton. Antes de Newton no había ningún
concepto de leyes universales que se aplicaran a objetos astronómicos como los
planetas y también a los objetos terrestres ordinarios como la lluvia que cae y
las flechas que vuelan. Las leyes de movimiento de Newton fueron el primer
ejemplo de tales leyes universales. Pero incluso para el poderoso sir Isaac
era un salto muy grande suponer que las mismas leyes llevaban a la creación de
seres humanos: él dedicó más tiempo a la teología que a la física.
Yo no soy historiador, pero aventuraré una opinión: la cosmología
moderna empezó realmente con Darwin y Wallace [8]. A
diferencia de cualquiera que lo hubiera intentado antes, ellos ofrecieron
explicaciones de nuestra existencia que descartaban por completo a agentes
sobrenaturales. Dos leyes naturales subyacen a la evolución darwiniana. La
primera es que el copiado de información nunca es perfecto. Incluso los mejores
mecanismos de reproducción cometen pequeños errores de vez en cuando. La
replicación del ADN no es una excepción. Aunque iba a pasar un siglo antes de
que Watson y Crick descubrieran la doble hélice, Darwin entendió intuitivamente
que las mutaciones aleatorias acumuladas constituyen el motor que impulsa la
evolución. La mayoría de las mutaciones son malas, pero Darwin sabía suficiente
probabilidad como para intuir que de cuando en cuando, por puro azar, ocurre
una mutación beneficiosa.
El segundo pilar de la teoría intuitiva de Darwin era un principio de
rivalidad: el ganador consigue reproducirse. Los mejores genes prosperan; los
genes inferiores llegan a una vía muerta. Estas dos sencillas ideas explicaban
cómo podía formarse vida compleja e incluso inteligente sin ninguna
intervención sobrenatural. En el mundo actual de los virus informáticos y los
gusanos de internet es fácil imaginar principios similares que se aplican a
objetos completamente inanimados. Una vez eliminada la magia del origen de las
criaturas vivientes, estaba el camino abierto para una explicación puramente
científica de la creación.
Darwin y Wallace fijaron un canon no sólo para las ciencias de la vida,
sino para la cosmología. Las leyes que gobiernan el nacimiento y la evolución
del universo deben ser las mismas leyes que gobiernan la caída de las piedras,
la química y la física nuclear de los elementos y la física de las partículas
elementales. Nos liberaron de lo sobrenatural mostrando que la vida compleja e
incluso inteligente podía surgir del azar, la rivalidad y las causas naturales.
Los cosmólogos también tendrían que hacerlo: la base de la cosmología tendría
que sustentarse en reglas impersonales que son las mismas en todo el universo y
cuyo origen no tiene nada que ver con nuestra propia existencia. El único dios
permitido para los cosmólogos sería el «relojero ciego» de Richard
Dawkins [9].
El paradigma cosmológico moderno no es muy antiguo. Cuando yo era un
joven estudiante graduado en la Universidad de Cornell, a principios de los
años sesenta, la teoría del big bang del universo aún competía
ardientemente con otro contendiente serio. La teoría del estado estacionario
era, en cierto sentido, el contrario lógico del big bang. Si
el big bang decía que el universo empezó en algún instante, el
estado estacionario decía que había existido siempre. La teoría del estado
estacionario era creación de tres de los más famosos cosmólogos del mundo —Fred
Hoyle, Herman Bondi y Thomas Gold— que pensaban que la creación explosiva del
universo hace unos diez mil millones de años era una posibilidad demasiado
improbable. Gold era profesor en Cornell y tenía su despacho a unas pocas
puertas del mío. En esa época él no dejaba de predicar la virtud de un universo
infinitamente viejo (y también infinitamente grande). Yo apenas lo conocía lo
suficiente como para decirle buenos días, pero un día, de forma muy poco usual,
él se sentó a tomar café con algunos estudiantes licenciados y yo pude
preguntarle algo que me estaba preocupando: «Si el universo es eternamente
inmutable, ¿cómo es que las galaxias se están alejando todas unas de otras?,
¿no significa eso que en el pasado estaban más juntas?». La explicación de Gold
era simple: «Las galaxias se están alejando realmente, pero a medida que se
separan se crea nueva materia para llenar el espacio entre ellas». Era una
respuesta inteligente, pero no tenía sentido matemático. En menos de un año o
dos, el universo en estado estacionario había dejado lugar al big bang,
y pronto fue olvidado. El victorioso paradigma del big bang afirmaba
que el universo en expansión tenía sólo unos diez mil millones de años de edad
y un tamaño aproximado diez mil millones de años luz [10]. Pero
una cosa que compartían ambas teorías era una creencia en que el universo es
homogéneo, lo que significa que es igual en todas partes: gobernado en todo
lugar por las mismas leyes de la física universales. Además, estas leyes de la
física son las mismas que descubrimos en laboratorios terrestres.
Durante los últimos cuarenta años ha sido muy excitante observar cómo la
cosmología experimental maduraba desde un arte tosco y cualitativo a una
ciencia muy precisa y cuantitativa. Pero sólo recientemente el marco básico de
la teoría del big bang de George Gamow ha empezado a dar una idea más poderosa.
En el alba del nuevo siglo, nos encontramos ante una situación decisiva que
probablemente cambie para siempre nuestra comprensión del universo. Algo está
sucediendo que va mucho más allá que el descubrimiento de nuevos hechos o
nuevas ecuaciones. Nuestra perspectiva y nuestro marco global de pensamiento,
la epistemología entera de la física y la cosmología, están sufriendo un
vuelco. El estrecho paradigma del siglo XX de un único universo de unos diez
mil millones de años de edad y diez mil millones de años luz de diámetro con un
único conjunto de leyes físicas está dando paso a algo mucho más grande y
henchido de nuevas posibilidades. Poco a poco, cosmólogos y físicos como yo
mismo estamos llegando a ver nuestros diez mil millones de años luz como un
bolsillo infinitesimal de un fabuloso megaverso[11]. Al
mismo tiempo, los físicos teóricos están proponiendo teorías que relegan a
nuestras leyes de la Naturaleza ordinarias a un oscuro rincón de un gigantesco
paisaje de posibilidades matemáticas.
La palabra paisaje, en el contexto actual, tiene menos de
tres años, pero desde que la introduje en 2003 se ha convertido en un término
del vocabulario cosmológico. Denota un espacio matemático que representa todos
los ambientes posibles que permite la teoría. Cada ambiente posible tiene sus
propias leyes de la física, sus propias partículas elementales y sus propias
constantes de la Naturaleza. Algunos ambientes son similares al nuestro aunque
ligeramente diferentes. Por ejemplo, pueden tener electrones, quarks y todas
las partículas normales pero con una gravedad mil millones de veces más fuerte
que la nuestra. Otros tienen una gravedad como la nuestra pero contienen
electrones que son más pesados que los núcleos atómicos [12]. Y otros
pueden parecerse a nuestro mundo excepto en una violenta fuerza repulsiva
(llamada constante cosmológica) que desgarra galaxias, moléculas e incluso
átomos. Ni siquiera las tres dimensiones del espacio son sagradas; algunas
regiones del paisaje describen mundos de cuatro, cinco, seis e incluso más
dimensiones.
Según las teorías cosmológicas modernas, la diversidad del paisaje corre
paralela a una correspondiente diversidad en el espacio ordinario. La
cosmología inflacionaria, que es nuestra mejor teoría del universo, nos está
llevando, a veces inconscientemente, al concepto de un megaverso lleno de un
número prodigioso de lo que Alan Guth llama «universos de bolsillo». Algunos
bolsillos son microscópicamente pequeños y nunca crecen. Otros son grandes como
el nuestro pero están totalmente vacíos. Y cada uno de ellos yace en su propio
pequeño valle del paisaje. La vieja pregunta del siglo XX, «¿Qué se puede
encontrar en el universo?», está dando paso a «¿Qué no se puede encontrar?».
El lugar del hombre en el universo también ésta siendo examinado y
desafiado. Es muy probable que un megaverso de tal diversidad sólo soporte vida
inteligente en una minúscula fracción de su extensión. Según este punto de
vista, muchas preguntas como «¿Por qué cierta constante de la Naturaleza tiene
un valor en lugar de otro?» tendrán respuestas que son completamente diferentes
de lo que los físicos habían esperado. Ningún valor único será escogido por
consistencia matemática, puesto que el paisaje permite una enorme diversidad de
valores posibles. En su lugar, la respuesta será: «En algún lugar en el
megaverso la constante tiene este valor; en algún otro lugar
tiene ese otro valor. Vivimos en un minúsculo bolsillo donde
el valor de la constante es compatible con nuestro tipo de vida. ¡Ya está! ¡Eso
es todo! No hay otra respuesta a la pregunta».
Hay muchas coincidencias en las leyes y las constantes de la Naturaleza
que no tienen otra explicación que ésta: «Si fueran de otro modo, no podría
existir vida inteligente». Para algunos parece que las leyes de la física se
hubieran escogido, al menos en parte, para permitir nuestra existencia. Llamada
principio antrópico, esta idea es odiada por la mayoría de los físicos, como
señalé en mi introducción. Para algunos huele a mitos de creación, religión o
diseño inteligente sobrenatural. Otros piensan que supone rendirse, abandonar
la noble búsqueda de respuestas racionales. Pero debido a nuevos desarrollos
sin precedentes en física, astronomía y cosmología, estos mismos físicos se
están viendo obligados a volver a considerar sus prejuicios. Hay cuatro desarrollos
principales que impulsan este cambio de marea: dos proceden de la física
teórica y dos de la astronomía observacional. En el lado teórico, un producto
de la teoría inflacionaria llamado «inflación eterna» está exigiendo que el
mundo sea un megaverso, lleno de universos de bolsillo que han burbujeado en el
espacio en inflación, como las burbujas en una botella de champán descorchada.
Al mismo tiempo, la teoría de cuerdas está produciendo un paisaje de enorme
diversidad. Las mejores estimaciones dicen que son posibles 10500 tipos
distintos de ambientes. Decir que este número (un uno seguido de quinientos
ceros) es «inimaginablemente grande» es quedarse corto, pero quizá no sea
siquiera tan grande como para poder contar las posibilidades.
Descubrimientos astronómicos muy recientes acompañan en paralelo a los
avances teóricos. Los últimos datos astronómicos sobre el tamaño y la forma del
universo confirman que el universo se «infla» exponencialmente hasta un tamaño
enorme, mucho más grande que los diez o quince mil millones de años luz
estándar. Hay pocas dudas de que estamos inmersos en un megaverso inmensamente
mayor. Pero la noticia más importante es que en nuestro bolsillo de espacio, la
infame constante cosmológica (un término matemático que Einstein introdujo
originalmente en sus ecuaciones y más tarde rechazó indignado) no es
exactamente cero como se pensaba que era. Este descubrimiento, más que
cualquier otro, es el que ha hecho encallar el barco. La constante cosmológica
representa una repulsión gravitatoria extra, una especie de antigravedad que se
creía absolutamente ausente del mundo real. El hecho de que no esté ausente
supone un cataclismo para los físicos, así que la única forma que sabemos de
darle sentido es a través del vilipendiado y menospreciado principio antrópico.
Yo no sé qué extraños e inimaginables giros experimentará nuestra visión
del universo al explorar la inmensidad de este paisaje. Pero apostaría a que a
los comienzos del siglo XXI, filósofos y físicos verán el presente como una
época en la que el concepto del universo del siglo XX dio paso a un megaverso
que puebla un paisaje de proporciones desconcertantes.
§. La Naturaleza está nerviosa
«Quien no esté conmocionado por la teoría cuántica es que no la ha
entendido».
NIELS BOHR
La idea de que las leyes de la física pueden cambiar de un lugar a otro
del universo tiene tan poco sentido como la idea de que puede haber más de un
universo. El universo es todo lo que hay; quizá sea el único sustantivo que en
buena lógica no debería tener plural. Las leyes que gobiernan el conjunto del
universo no pueden cambiar, pues ¿qué leyes gobernarían estos cambios? ¿No son
también parte de las leyes de la física?
Pero por las leyes de la física yo entiendo algo mucho más modesto que
las grandes y supremas leyes que regulan todos los aspectos del megaverso.
Entiendo lo que un físico ordinario del siglo XX, un físico más interesado en
el laboratorio que en el universo, habría entendido: las leyes que gobiernan
los bloques constituyentes de la materia ordinaria.
Este libro trata de estas leyes de la física, no de cuáles son sino por
qué son. Pero antes de que podamos discutir el porqué, necesitamos saber el
qué. ¿Cuáles son exactamente estas leyes? ¿Qué nos dicen y cómo se expresan? La
tarea de este primer capítulo es mostrarle rápidamente las leyes de la física
tal como se entendían hacia el año 2000.
Para Isaac Newton y sus seguidores, el mundo físico era una máquina
determinista precisa cuyo pasado determinaba su futuro «tan seguro como la
noche sigue al día». Las leyes de la Naturaleza eran reglas (ecuaciones) que
expresaban este determinismo en un lenguaje matemático preciso. Por ejemplo,
una ley podría determinar cómo se mueven los objetos a lo largo de trayectorias
precisas dados sus puntos de partida iniciales (incluyendo sus velocidades). El
gran físico y matemático francés del siglo XVIII Pierre-Simon de Laplace lo
expresaba de esta manera:
Podemos considerar el estado presente del universo como efecto de su
pasado y causa de su futuro. Una inteligencia que, en un momento determinado,
conociera todas las fuerzas que animan la Naturaleza, así como la situación de
todos los cuerpos que la componen, y fuera suficientemente poderosa como para
someter todos esos datos al análisis matemático, podría abarcar en una sola
fórmula los movimientos de los cuerpos más grandes del universo y los del átomo
más ligero; nada le resultaría inseguro y tanto el futuro como el pasado
estarían presentes ante sus ojos.
Por si la traducción del francés no queda clara, Laplace estaba diciendo
que si, en algún instante, usted (algún superintelecto) conociera la posición y
velocidad de cada partícula en el universo, podría predecir el futuro exacto
del mundo. Esta visión ultradeterminista de la Naturaleza era el paradigma
dominante hasta que, a comienzos del siglo XX, llegó ese subversivo pensador
Albert Einstein y lo cambió todo. Aunque Einstein es más famoso por la teoría
de la relatividad, su jugada más atrevida y más radical —su jugada más
subversiva— tuvo que ver con el extraño mundo de la mecánica cuántica, no con
la teoría de la relatividad. Desde entonces los físicos han entendido que las
leyes de la física son leyes cuánticas. Por esta razón he decidido empezar este
primer capítulo con un breve curso sobre «pensar mecano-cuánticamente».
Usted está a punto de entrar en el extraño mundo de Alicia en el País de
las Maravillas de la física moderna, donde nada es lo que parece, todo fluctúa
y brilla, y la incertidumbre es la reina suprema. Olvide el predecible universo
mecánico de la física newtoniana. El mundo de la mecánica cuántica es cualquier
cosa menos predecible. Las revoluciones de principios del siglo XX en física no
fueron «revoluciones de terciopelo». No sólo cambiaron las ecuaciones y leyes
de la física sino que destruyeron los fundamentos epistemológicos de gran parte
de la ciencia y la filosofía clásicas. Muchos físicos fueron incapaces de
manejarse con las nuevas formas de referirse a los fenómenos y se quedaron
rezagados. Pero una joven generación más flexible quedó encantada con las
extrañas ideas modernas y desarrolló nuevas intuiciones y poderes de
visualización. Tan completo fue el cambio que muchos físicos teóricos de mi
generación encontraron más fácil pensar mecanocuántica o relativísticamente que
hacerlo a las viejas maneras clásicas.
La mecánica cuántica supuso la mayor conmoción. En el nivel cuántico, el
mundo es un lugar agitado y fluctuante de probabilidades e incertidumbre. Pero
los tambaleos del electrón no se parecen a los de un marinero bebido. Hay una
pauta más sutil para la aleatoriedad que se describe mejor en el simbolismo
arcano de la matemática abstracta. Sin embargo, con un poco de esfuerzo por mi
parte y cierta paciencia por la suya, las cosas más importantes pueden
traducirse a un lenguaje común.
Desde el siglo XIX los físicos han utilizado la metáfora de una mesa de
billar para representar el mundo físico de las partículas que interaccionan y
colisionan. James Clerk Maxwell utilizó la analogía; también lo hizo Ludwig
Boltzmann. Ahora está siendo utilizada por montones de físicos para explicar el
mundo cuántico. La primera vez que yo la oí utilizada fue de boca de Richard
Feynman, que explicaba las cosas de esta manera:
Imaginemos una mesa de billar construida de forma tan perfecta que no
tiene ninguna fricción. Las bolas y los bordes de la mesa son tan elásticos que
cuando quiera que ocurre una colisión las bolas rebotan sin perder energía
cinética. Eliminemos también las troneras de modo que, una vez que las bolas
están en movimiento, continuarán moviéndose para siempre, rebotando en los
bordes y siguiendo su curso. El juego empieza con quince bolas dispuestas en un
triángulo como una versión bidimensional de una pila de balas de cañón. La bola
jugadora es impulsada por el taco hacia el grupo.
Lo que sucede a continuación es demasiado complicado e impredecible de seguir,
pero ¿por qué es tan impredecible? Lo es porque cada colisión amplifica las
diferencias minúsculas en las posiciones y velocidades iniciales de las bolas,
de modo que incluso la más minúscula desviación conduce al final a un resultado
completamente diferente. [Este tipo de ultrasensibilidad a las condiciones
iniciales se denomina caos y es una característica omnipresente en la
Naturaleza]. Tratar de reproducir una partida de billar no es como reproducir
una partida de ajedrez. Se necesitaría una precisión casi infinita. De todas
formas, en la física clásica, las partículas se mueven a lo largo de trayectorias
precisas y el movimiento es completamente predecible con tal de que conozcamos
las posiciones y velocidades iniciales con infinita precisión. Por supuesto,
cuanto más a largo plazo queramos predecir el movimiento, con más precisión
necesitamos conocer los datos iniciales. Pero no hay ningún límite a la
precisión de dichos datos ni ningún límite a nuestra capacidad de predecir el
futuro a partir del pasado.
Por el contrario, el juego de billar cuántico es impredecible por mucho
que los jugadores se esfuercen por hacerlo preciso. Por muy grande que fuera la
precisión, no se conseguiría otra cosa que predicciones estadísticas de
resultados. El jugador de billar clásico podía recurrir a la estadística
precisamente porque los datos iniciales se conocían imperfectamente o porque
podría ser demasiado difícil resolver las ecuaciones de movimiento. Pero el
jugador cuántico no tiene elección. Las leyes de la mecánica cuántica tienen un
elemento intrínsecamente aleatorio que nunca puede ser eliminado. ¿Por qué no,
por qué no podemos predecir el futuro a partir del conocimiento de las
posiciones y velocidades iniciales? La respuesta es el famoso principio de
incertidumbre de Heisenberg.
El principio de incertidumbre describe una limitación fundamental a la
precisión con que podemos determinar simultáneamente las posiciones y las
velocidades. Es la trampa-22 definitiva. Si mejoramos nuestro conocimiento de
la posición de una bola en un intento de mejorar nuestras predicciones,
inevitablemente perdemos precisión acerca de dónde estará la bola en el
siguiente instante. El principio de incertidumbre no sólo es un hecho
cualitativo sobre el comportamiento de los objetos. Tiene una formulación cuantitativa
muy precisa: el producto de la incertidumbre en la posición de un objeto y la
incertidumbre de su momento [13] es
siempre mayor que un cierto número (muy pequeño) llamado constante de
Planck [14].
Heisenberg y otros después de él trataron de idear maneras de superar el
principio de incertidumbre. Los ejemplos de Heisenberg trataban con electrones,
pero él podría haber utilizado igualmente bolas de billar. Lancemos un haz de
luz sobre una bola de billar cuántica. La luz que se refleja en la bola puede
concentrarse en una película fotográfica y, a partir de la imagen, puede
deducirse la localización de la bola, pero ¿qué pasa con la velocidad de la
bola: cómo puede medirse? La manera más simple y directa sería hacer una
segunda medida de la posición muy poco después. Sabiendo la posición en dos
instantes sucesivos, es fácil determinar la velocidad.
¿Por qué no es posible un experimento de este tipo? La respuesta se
remonta a uno de los más grandes descubrimientos de Einstein. Newton había
creído que la luz consistía en partículas, pero a principios del siglo XX la
teoría corpuscular de la luz estaba completamente desacreditada. Muchos efectos
ópticos como la interferencia sólo podían explicarse suponiendo que la luz es
un fenómeno ondulatorio similar a los rizos en la superficie del agua. A
mediados del siglo XIX James Clerk Maxwell había creado una teoría muy
satisfactoria que imaginaba la luz como ondas electromagnéticas que se propagan
a través del espacio de una forma muy parecida a como las ondas sonoras se
propagan en el aire. Por ello, hubo una conmoción radical cuando, en 1905,
Albert Einstein propuso que la luz (y cualquier otra radiación
electromagnética) está hecha de pequeños balines llamados cuantos o
fotones [15]. De una
nueva y extraña manera, Einstein estaba proponiendo que la luz tenía todas las
viejas propiedades ondulatorias —longitud de onda, frecuencia, etcétera— pero
también una granulación, como si estuviera compuesta de trocitos discretos.
Estos cuantos son paquetes de energía que no pueden subdividirse, lo que crea
ciertas limitaciones cuando uno intenta formar imágenes exactas de objetos
pequeños.
Empecemos con la determinación de la posición. Para obtener una imagen
precisa de la bola, la longitud de onda de la luz no debe ser demasiado larga.
La regla es sencilla: si uno quiere localizar un objeto con una precisión dada,
debe utilizar ondas cuyas longitudes de onda no sean mayores que el error
admisible. Todas las imágenes son borrosas en alguna medida, así que limitar la
borrosidad significa utilizar longitudes de onda cortas. Esto no es problema en
física clásica, donde la energía de un haz luminoso puede ser arbitrariamente
pequeña. Pero como Einstein afirmaba, la luz está hecha de fotones
indivisibles. Además, como veremos después, cuanto más corta es la longitud de
onda de un rayo de luz, mayor es la energía de dichos fotones.
Lo que todo esto significa es que obtener una imagen precisa que
localice exactamente la bola requiere que se incida en ésta con fotones de alta
energía. Pero esto limita seriamente la precisión de medidas de velocidad
posteriores. El problema es que un fotón de alta energía colisionará con la
bola de billar y le dará un golpe brusco, cambiando así la misma velocidad que
pretendíamos medir. Éste es un ejemplo de frustración al tratar de determinar a
la vez la posición y la velocidad con precisión infinita.
La relación entre la longitud de onda de la radiación electromagnética y
la energía de los fotones —cuanto menor es la longitud de onda, mayor es la
energía— fue uno de los descubrimientos más importantes de Einstein en 1905. En
orden de longitudes de onda crecientes, el espectro electromagnético consiste
en rayos gamma, rayos X, luz ultravioleta, luz visible, luz infrarroja,
microondas y ondas de radio. Las ondas de radio tienen la longitud de onda más
larga, desde metros hasta dimensiones cósmicas. Son una mala elección para
obtener imágenes precisas de objetos corrientes porque las imágenes no serán
más precisas que la longitud de onda. En una imagen de radio un ser humano
sería indistinguible de un saco de lavandería. De hecho, sería imposible
distinguir a una persona de dos, a menos que la separación entre ellas fuera
mayor que la longitud de onda de la onda de radio. Todas las imágenes serían
bolas borrosas. Esto no significa que las ondas de radio no sean nunca útiles
para hacer imágenes: simplemente no son buenas para obtener imágenes de objetos
pequeños. La radioastronomía es un método muy potente para estudiar grandes
objetos astronómicos. Por el contrario, los rayos gamma son mejores para
obtener información sobre cosas realmente pequeñas tales como núcleos. Tienen
las longitudes de onda más pequeñas, mucho más pequeñas que el tamaño de un
solo átomo.
Por otra parte, la energía de un fotón aumenta cuando decrece la
longitud de onda. Los fotones de radio individuales son demasiado débiles para
ser detectados. Los fotones de luz visible son más energéticos: basta un fotón
visible para romper una molécula. Para un ojo que se ha habituado a la
oscuridad, un solo fotón de luz de longitud de onda visible es suficiente para
activar un bastón de la retina. Los fotones ultravioleta y de rayos X tienen
bastante energía para expulsar fácilmente a los electrones de los átomos, y los
rayos gamma no sólo pueden romper núcleos, sino incluso protones y neutrones.
Esta relación inversa entre longitud de onda y energía explica una de
las tendencias generales en la física del siglo XX: la búsqueda de aceleradores
cada vez más grandes. Los físicos, en sus intentos de descubrir los
constituyentes más pequeños de la materia (moléculas, átomos, núcleos, quarks,
etcétera), se vieron llevados de forma natural a longitudes de onda cada vez
más pequeñas para obtener imágenes claras de dichos objetos. Pero longitudes de
onda más pequeñas significan inevitablemente cuantos de energía más alta. Para
crear tales cuantos de alta energía, había que acelerar las partículas hasta
energías cinéticas enormes. Por ejemplo, los electrones pueden ser acelerados
hasta energías enormes, pero sólo por máquinas de tamaño y potencia crecientes.
El Centro del Acelerador Lineal de Standford (SLAC), cerca de donde yo vivo,
puede acelerar electrones a energías de doscientas mil veces su masa, pero esto
requiere una máquina de más de tres kilómetros de longitud. SLAC es
esencialmente un microscopio de tres kilómetros que puede resolver objetos mil
veces más pequeños que un protón.
A lo largo del siglo XX se hicieron descubrimientos insospechados a
medida que los físicos sondaban distancias cada vez menores. Una de las más
espectaculares fue que protones y neutrones no son en absoluto partículas
elementales. Al golpearlas con partículas de alta energía se hizo posible
discernir los componentes minúsculos —quarks— que constituían el protón y el
neutrón. Pero incluso con las sondas de más alta energía (más corta longitud de
onda), el electrón, el fotón y el quark siguen siendo, hasta donde podemos
decir, objetos puntuales. Esto significa que somos incapaces de detectar en
ellos cualquier estructura, tamaño o partes internas. Pueden ser puntos
infinitamente pequeños de espacio.
Volvamos al principio de incertidumbre de Heisenberg y sus
implicaciones. Imaginemos una única bola en la mesa de billar. Puesto que la
bola está confinada en la mesa por los bordes, sabemos automáticamente algo
sobre su posición en el espacio: la incertidumbre de la posición no es mayor
que las dimensiones de la mesa. Cuanto más pequeña es la mesa, con más
exactitud conocemos la posición y, por tanto, menos seguros podemos estar del
momento. Así pues, si midiéramos la velocidad de la bola confinada en la mesa,
sería algo aleatorio y fluctuante. Incluso si eliminásemos tanta energía
cinética como fuera posible, este movimiento de fluctuación residual no podría
ser eliminado. Brian Greene ha utilizado el término agitaciones
cuánticas para describir este movimiento, y yo le seguiré [16]. La
energía cinética asociada con las agitaciones cuánticas se denomina energía
de punto cero y no puede eliminarse.
Las agitaciones cuánticas que implica el principio de incertidumbre
tienen una consecuencia interesante para la materia corriente cuando tratamos
de enfriarla a temperatura cero. El calor es, por supuesto, la energía del
movimiento molecular aleatorio. En física clásica, cuando se enfría un sistema
las moléculas acaban llegando al reposo a la temperatura del cero absoluto.
Resultado: en el cero absoluto, toda la energía cinética de la molécula queda
eliminada.
Pero cada molécula en un sólido tiene una localización bastante bien
definida. Está mantenida en su lugar, no por los bordes de la mesa de billar,
sino por las demás moléculas. El resultado es que las moléculas tienen
necesariamente una velocidad fluctuante. En un material real sujeto a las leyes
de la mecánica cuántica, la energía cinética molecular nunca puede ser
totalmente eliminada, ni siquiera en el cero absoluto.
Posición y velocidad no son ni mucho menos las únicas magnitudes para
las que hay un principio de incertidumbre. Hay muchos pares de las denominadas
magnitudes conjugadas que no pueden ser determinadas simultáneamente: cuanto
más se fija una, más fluctúa la otra. Un ejemplo muy importante es el principio
de incertidumbre energía-tiempo: es imposible determinar a la vez el momento
exacto en que tiene lugar un suceso y la energía exacta de los objetos que
están involucrados. Supongamos que un físico experimental quisiera hacer
colisionar dos partículas en un instante de tiempo concreto. El principio de
incertidumbre energía-tiempo limita la precisión con la que puede controlar la
energía de las partículas y también el instante en el que ambas chocarán. Controlar
la energía con precisión creciente lleva inevitablemente a aumentar la
aleatoriedad en el tiempo de colisión y viceversa.
Otro ejemplo importante al que llegaremos en el capítulo 2 implica a los
campos eléctrico y magnético en un punto del espacio. Estos campos, que
desempeñarán un papel clave en capítulos posteriores, son influencias
invisibles que llenan el espacio y controlan las fuerzas sobre las partículas
eléctricamente cargadas. Los campos eléctrico y magnético, como sucede con la
posición y la velocidad, no pueden determinarse simultáneamente. Si se conoce
uno, el otro es necesariamente incierto. Por esta razón, los campos están en un
estado continuo de fluctuación temblorosa que no puede ser eliminada. Y, como
cabría esperar, esto conduce a una cierta cantidad de energía, incluso en el
espacio absolutamente vacío. Esta energía del vacío ha llevado
a una de las máximas paradojas de la física y la cosmología modernas.
Volveremos a ella muchas veces y empezaremos en el próximo capítulo.
La incertidumbre y las agitaciones no son todo. La mecánica cuántica
tiene otro lado: el lado cuántico. La palabra cuántico implica
un cierto grado de separación o granulación en la Naturaleza. Los fotones, las
unidades de energía que comprenden las ondas luminosas, son sólo un ejemplo de
cuantos. La radiación electromagnética es un fenómeno oscilatorio; en otras
palabras, es una vibración. Un niño en un columpio, un muelle oscilante, una
cuerda de violín pulsada, una onda sonora: todos son también fenómenos
oscilatorios, y todos comparten la propiedad de separación. En cada caso la
energía se da en unidades cuánticas separadas que no pueden subdividirse. En el
mundo macroscópico de muelles y péndulos, la unidad cuántica de energía es tan
pequeña que nos parece que la energía puede ser cualquiera. Pero, de hecho, la
energía de una oscilación se da en unidades indivisibles cuyo tamaño es igual
al producto de la frecuencia de la oscilación (número de oscilaciones por
segundo) por la diminuta constante de Planck.
Los electrones en un átomo, cuando giran alrededor del núcleo, también
oscilan. En este caso, la cuantización de la energía se describe imaginando
órbitas discretas. Niels Bohr, el padre del átomo cuantizado, imaginó que los
electrones orbitaban como si estuvieran restringidos a moverse en calles
separadas en una pista de carreras. La energía de un electrón está determinada
por la calle que ocupa.
El comportamiento agitado y la separación son bastante extraños, pero lo
que mejor resume la extrañeza del mundo cuántico es la «interferencia». El
famoso «experimento de la doble rendija» ilustra este extraordinario fenómeno.
Imaginemos una minúscula fuente de luz —una intensa bombilla en miniatura— en
una habitación por lo demás oscura. Un láser también servirá. A cierta
distancia se ha colocado una película fotográfica. Cuando la luz procedente de
la bombilla incide en la película, la ennegrece de la misma manera en que se
produce un «negativo» fotográfico corriente. Obviamente, si entre la fuente y
la película se coloca un obstáculo opaco como una lámina de metal, la película
estará protegida y no se ennegrecerá. Pero cortemos ahora dos rendijas verticales
paralelas en la lámina metálica de modo que la luz pueda atravesarlas y llegar
a la película. Nuestro primer experimento es muy simple: bloquear una rendija
—por ejemplo, la izquierda— y encender la fuente.
Al cabo de un tiempo adecuado aparecerá una ancha banda horizontal de
película ennegrecida: una imagen borrosa de la rendija derecha. A continuación,
cerremos la rendija derecha y abramos la izquierda. Aparecerá una segunda banda
ancha, que se solapa parcialmente con la primera.
Empecemos ahora con una película nueva que no ha sido expuesta, pero
esta vez abrimos ambas rendijas. Si usted no sabe por adelantado lo que hay que
esperar, el resultado puede sorprenderle. La figura no es en absoluto la suma
de las dos zonas ennegrecidas anteriores. En su lugar, encontramos una serie de
bandas estrechas oscuras y brillantes, como las rayas de una cebra, que
reemplazan a las dos bandas borrosas. Hay bandas no ennegrecidas donde
previamente se solapaban las bandas oscuras originales. De algún modo la luz
que atraviesa las rendijas izquierda y derecha queda suspendida en estos
lugares. El término técnico es interferencia destructiva y es
una propiedad bien conocida de las ondas. Otro ejemplo de ella son los
«batidos» que usted oye cuando se tocan dos notas casi idénticas.
De hecho, si usted intenta realizar este experimento en casa, quizá
encuentre que no es tan fácil como yo he dado a entender. Dos cosas lo
dificultan. La figura de interferencia sólo puede verse si las rendijas son muy
estrechas y están muy próximas. No espere tener éxito cortando rendijas con un
abrelatas. En segundo lugar, la fuente tiene que ser muy pequeña. La manera
antigua y tecnológicamente pobre de hacer una fuente pequeña consistía en hacer
pasar la luz a través de un agujero muy pequeño antes de permitir que incida en
la lámina con las rendijas. Una manera mucho mejor es utilizar un láser de alta
tecnología. Un puntero láser es ideal. La luz láser que atraviesa rendijas
hechas con meticulosidad produce excelentes figuras de interferencia tipo cebra.
El principal problema para llevar a cabo el experimento sería el mantener
constantes las condiciones.
Ahora repetiremos todo el ejercicio óptico, pero esta vez reduciremos la
intensidad de la fuente hasta un nivel tan bajo que los fotones salen de uno en
uno. Si exponemos la película durante un tiempo corto, aparecen unos pocos
puntos ennegrecidos en los lugares donde los fotones individuales aterrizan en
la película. Si volvemos a exponerla, de la misma manera, los puntos se harán
más densos. Con el tiempo, veremos cómo se reproduce la figura del primer
experimento. El experimento confirma, entre otras cosas, la idea de Einstein de
que la luz está compuesta de fotones separados. Además, las partículas llegan
aleatoriamente y sólo cuando se han acumulado las suficientes vemos que se
reproduce una figura.
Pero estos fotones tipo partícula se comportan de un modo muy
inesperado. Cuando ambas rendijas están abiertas, ni una sola partícula llega a
los lugares donde tiene lugar la interferencia destructiva. Esto sucede pese al
hecho de que los fotones llegan a dichos lugares cuando sólo una rendija está
abierta. Parece que abrir la rendija izquierda impide que los fotones
atraviesen la rendija derecha y viceversa.
Para expresarlo de otro modo, supongamos que el punto X es un punto de
la película donde tiene lugar interferencia destructiva. El fotón puede llegar
a X si la rendija izquierda está abierta. También puede llegar a X si la
rendija derecha está abierta. Una persona razonable esperaría que si ambas
estuvieran abiertas, sería todavía más probable que un fotón llegara a X. Pero
no es así: ningún fotón aparece en X por mucho que esperemos. ¿Cómo sabe un
fotón, que está a punto de atravesar la rendija izquierda, que la rendija
derecha está abierta? Los físicos suelen describir este peculiar efecto
diciendo que el fotón no atraviesa una u otra de las rendijas, sino que en su
lugar «experimenta» las dos trayectorias y que hay puntos en que las
contribuciones de ambas trayectorias se anulan mutuamente. Le ayude o no esto a
su comprensión, la interferencia es un fenómeno muy extraño. Uno tiene que
acostumbrarse a la extrañeza de la mecánica cuántica si trabaja con ella
durante cuarenta o más años. Pero basta de reflexionar sobre ello, ¡es extraña!
§. Partículas elementales
La Naturaleza parece estar organizada de un modo jerárquico: las cosas
grandes están hechas de cosas más pequeñas que, a su vez, están hechas de cosas
todavía más pequeñas hasta que llegamos a las cosas más pequeñas que somos
capaces de descubrir. El mundo diario está lleno de tales jerarquías. Un
automóvil no es otra cosa que sus partes: ruedas, motor, carburador y demás. El
carburador, a su vez, está formado de partes más pequeñas tales como
reguladores de entrada, palancas del estárter, inyectores y muelles. Hasta
donde se puede decir, las propiedades de las cosas más pequeñas determinan el
comportamiento de las más grandes. Esta visión, según la cual el todo es la
suma de sus partes y la Naturaleza puede entenderse reduciéndola a los
componentes más simples y más pequeños, se denomina reduccionismo.
El reduccionismo está considerado una palabra sucia en muchos ámbitos
académicos. Remueve pasiones casi tan fuertes como las que la evolución excita
en ciertos círculos religiosos. La noción de que todo lo que existe no es más
que partículas inanimadas despierta las mismas inseguridades que la idea
similar de que nosotros los seres humanos somos meros vehículos para nuestros
genes egoístas. Pero, guste o no, el reduccionismo funciona. Todo mecánico del
automóvil es un reduccionista, al menos durante las horas de trabajo. En
ciencia, el poder del reduccionismo es fantástico [17]. Las
leyes básicas de la biología están determinadas por la química de las moléculas
orgánicas como el ADN, el ARN y las proteínas. Los químicos reducen las
propiedades complejas de las moléculas a las de los átomos y es entonces cuando
los físicos toman el mando. Los átomos no son otra cosa que colecciones de
electrones orbitando en torno a núcleos atómicos. Como aprendemos en los cursos
elementales de ciencias, los núcleos están compuestos de protones y neutrones.
Éstos, a su vez, están hechos de quarks. ¿Hasta dónde llega esta imagen de
«muñeca rusa» de la Naturaleza? ¿Quién sabe? Pero la física del siglo XX ha
tenido éxito llevando el reduccionismo hasta el nivel de las denominadas
partículas elementales. Por leyes de la física, yo entiendo las leyes de estos
hasta ahora bloques constituyentes más pequeños.
Será importante tener una idea clara de cuáles son estas leyes antes de
que podamos empezar a preguntar por qué son las leyes.
El lenguaje de la física teórica son las ecuaciones matemáticas. Es
difícil para los físicos concebir cualquier forma para una teoría distinta de
una ecuación o un pequeño conjunto de ecuaciones. Las ecuaciones de Newton, las
ecuaciones de Maxwell, las ecuaciones de Einstein y la ecuación de Erwin
Schrödinger son algunos de los ejemplos más importantes. El marco matemático
para la física de partículas elementales se denomina teoría cuántica de
campos. Es un tema matemático difícil cargado de ecuaciones muy abstractas.
De hecho, las ecuaciones de la teoría cuántica de campos son tan complicadas
que uno puede tener la sensación de que las ecuaciones no son realmente la
manera correcta de expresar la teoría. Afortunadamente para nosotros, el gran
Richard Feynman tenía exactamente esa sensación. Por ello ideó una forma
gráfica de visualizar las ecuaciones. La manera de pensar de Feynman es tan
intuitiva que las ideas principales pueden resumirse sin una sola ecuación.
Dick Feynman era un genio de la visualización (tampoco era manco con las
ecuaciones): hizo una imagen mental de algo en lo que estaba trabajando.
Mientras otros llenaban pizarras con fórmulas para expresar las leyes de las
partículas elementales, él simplemente dibujaría una imagen e imaginaría la
respuesta. Era un mago, un showman, y un fanfarrón, pero su
magia proporcionó la manera más simple e intuitiva de formular las leyes de la
física. Los diagramas de Feynman son literalmente imágenes de
los sucesos que tienen lugar cuando las partículas elementales se mueven en el
espacio, colisionan e interaccionan. Un diagrama de Feynman puede consistir
simplemente en unas pocas líneas que describen un par de electrones que
colisionan o puede ser una enorme red de trayectorias interconectadas,
ramificadas o formando bucles que describen a todas las partículas que
constituyen cualquier cosa, desde un cristal de diamante hasta un ser vivo o un
cuerpo astronómico. Estos diagramas pueden reducirse a unos pocos elementos
básicos que resumen todo lo que se conoce sobre las partículas elementales. Por
supuesto, no sólo hay imágenes: también están todos los detalles técnicos de
cómo se utilizan para hacer cálculos precisos, pero eso es menos importante.
Para nuestros objetivos, una imagen vale por mil ecuaciones.
§. Electrodinámica cuántica
Una teoría cuántica de campos empieza con un reparto de personajes, a
saber, una lista de partículas elementales. Idealmente la lista incluiría todas
las partículas elementales, pero eso no es práctico: estamos bastante seguros
de que no conocemos la lista completa. Pero no se pierde nada haciendo una
lista parcial. Es como una representación teatral: en realidad, cada historia
implica a todas las personas en la Tierra, pasadas y presentes, pero ningún
autor en su sano juicio trataría de escribir una obra con varios miles de
millones de personajes. Para cualquier historia concreta, algunos personajes
son más importantes que otros, lo que también es cierto en la física de
partículas elementales.
La historia original que Feynman se propuso contar se denomina
electrodinámica cuántica, o QED para abreviar, y tiene sólo dos personajes: el
electrón y el fotón. Permítame introducirlos.
§. El electrón
En 1897 el físico británico J. J. Thomson hizo el primer descubrimiento
de una partícula elemental. La electricidad ya era bien conocida, pero los
experimentos de Thomson fueron los primeros en confirmar que las corrientes
eléctricas son reducibles al movimiento de partículas individuales cargadas.
Las partículas en movimiento que dan energía a los tostadores, las bombillas y
los ordenadores son, por supuesto, los electrones.
En lo que respecta a efectos dramáticos, es difícil batir a los
electrones. Cuando un relámpago gigante cruza el cielo, fluyen electrones de
una nube electrificada a otra. El rugido del trueno se debe a una onda de
choque causada por la colisión de electrones rápidamente acelerados con las
moléculas de aire que bloquean sus trayectorias. El relámpago visible consiste
en una radiación electromagnética que fue emitida por electrones agitados. Las
minúsculas chispas y los ruidos crujientes debidos a la electricidad estática,
en un día muy seco, son manifestaciones de la misma física a una escala más
pequeña. Incluso la electricidad de nuestras casas es el mismo flujo de
electrones, domesticados por cables de cobre que son conductores eléctricos.
Cada electrón tiene exactamente la misma carga eléctrica que cualquier
otro electrón. La carga del electrón es un número increíblemente pequeño. Se
necesita un número enorme de electrones —unos 1018 por segundo—
para crear una corriente eléctrica normal de un amperio. Hay una característica
singular en la carga del electrón que ha intrigado y preocupado a generaciones
de estudiantes de física: la carga del electrón es negativa. ¿Por
qué es así? ¿Hay algo intrínsecamente negativo en el electrón? De hecho, la
negatividad de la carga electrónica no es una propiedad del electrón, sino más
bien una definición. El problema se remonta a Benjamin Franklin [18], quien
fue el primer físico en darse cuenta de que la electricidad era un flujo de
carga. Franklin, que no sabía nada de los electrones, no tenía ninguna manera
de saber que lo que él llamaba corriente positiva era en
realidad un flujo de electrones en la dirección opuesta. Por esta razón hemos
heredado el confuso convenio de una carga electrónica negativa. Como
consecuencia, los profesores de física tenemos que recordar continuamente a los
estudiantes que cuando fluye corriente eléctrica hacia la izquierda, los
electrones se mueven hacia la derecha. Si esto le desconcierta, échele la culpa
a Ben Franklin y luego ignórelo.
Si todos los electrones desparecieran de repente, fallarían muchas más
cosas que los tostadores, las bombillas y los computadores. Los electrones
desempeñan otro papel muy profundo en la Naturaleza. Toda la materia ordinaria
está hecha de átomos, que a su vez están hechos de electrones; cada electrón
está girando alrededor del núcleo atómico como una bola en el extremo de una
cuerda. Los electrones atómicos determinan las propiedades químicas de todos
los elementos listados en la Tabla Periódica. La Electrodinámica Cuántica es
más que la teoría de los electrones: es la base para la teoría de toda la
materia.
§. El fotón
Si el electrón es el héroe de la QED, el fotón es el acompañante que
hace posible las hazañas del héroe. La luz emitida por un relámpago puede
rastrearse hasta llegar a sucesos microscópicos en los que electrones
individuales desprenden fotones cuando son acelerados. Todo el argumento de la
QED gira en torno a un proceso fundamental: la emisión de un único fotón por un
único electrón.
Los fotones también desempeñan un papel indispensable en el átomo. En un
sentido que se hará claro, los fotones son las cuerdas que atan los electrones
al núcleo. Si los fotones se eliminaran repentinamente de la lista de
partículas elementales, todos los átomos se desintegrarían instantáneamente.
§. El núcleo
Uno de los principales objetivos de la QED era entender las propiedades
detalladas de átomos sencillos, especialmente el hidrógeno. ¿Por qué el
hidrógeno? El hidrógeno, que tiene sólo un electrón, es tan sencillo que las
ecuaciones de la mecánica cuántica pueden resolverse exactamente. Los átomos
más complejos con muchos electrones, todos los cuales ejercen fuerzas entre sí,
sólo pudieron ser estudiados con la ayuda de potentes ordenadores que no
existían cuando se estaba formulando la QED. Pero para estudiar cualquier
átomo, debe añadirse otro ingrediente: el núcleo. Los núcleos están hechos de
protones cargados positivamente y neutrones eléctricamente neutros. Estas dos
partículas son muy similares entre sí, salvo por el hecho de que el neutrón no
tiene carga eléctrica. Los físicos agrupan estas dos partículas y les dan un
nombre común: nucleón. Un núcleo es esencialmente una gota de
nucleones pegados. La estructura de cualquier núcleo, incluso el del hidrógeno,
es tan complicada que físicos como Feynman decidieron ignorarla. En su lugar,
se concentraron en la física mucho más simple del electrón y el fotón. Pero
ellos no podían prescindir por completo del núcleo. Por ello lo introdujeron,
si no como un actor, al menos como un soporte del escenario. Dos razones hacían
esto posible.
En primer lugar, el núcleo es mucho más pesado que un electrón. Es tan
pesado que está casi inmóvil. No se comete un gran error si se reemplaza al
núcleo por un punto inmóvil de carga eléctrica positiva.
En segundo lugar, los núcleos son muy pequeños comparados con los
átomos. El electrón órbita alrededor del núcleo a unos cien mil diámetros
nucleares y nunca se acerca lo suficiente como para ser afectado por la
complicada estructura nuclear interna.
Según la visión reduccionista de la física de partículas, todos los
fenómenos de la Naturaleza —sólidos, líquidos, gases y materia viva tanto como
inanimada— se reducen a la interacción y colisión constante de electrones,
fotones y núcleos. Ésa es la acción y todo el argumento: actores chocando unos
con otros, rebotando unos en otros y dando nacimiento aquí y allá a nuevos
actores a partir de la colisión. Es este golpeteo de partículas con otras
partículas lo que representan los diagramas de Feynman.
§. Diagramas de Feynman
«Si llegas a una bifurcación en la carretera, tómala».
YOGI BERRA
Tenemos los actores, tenemos el guión y ahora necesitamos un escenario,
Shakespeare decía: «El mundo entero es un escenario», y, como
suele suceder, el poeta tenía razón. El escenario para nuestra farsa es el
mundo entero: para un físico eso significa todo el espacio tridimensional
ordinario. Arriba-abajo, este-oeste y norte-sur son las tres direcciones cerca de
la superficie de la Tierra. Pero una dirección escénica implica no sólo dónde tiene
lugar una acción, sino también cuándo tiene lugar. Por ello,
hay una cuarta dirección en el espacio-tiempo: pasado-futuro. Desde
el descubrimiento por Einstein de la teoría de la relatividad especial, los
físicos han tenido la costumbre de representar el mundo como un espacio-tiempo
tetradimensional que abarca no sólo el ahora, sino también todo el
futuro y todo el pasado. Un punto en el espacio-tiempo —un dónde y un cuándo—
se denomina suceso.
Puede utilizarse una hoja de papel o una pizarra para representar el
espacio— tiempo. Puesto que el papel o la pizarra tienen sólo dos dimensiones,
tendremos que trampear un poco. La dirección horizontal en el papel
representará las tres direcciones del espacio. Tendremos que forzar nuestra
imaginación y suponer que el eje horizontal es realmente tres ejes
perpendiculares. Esto nos deja con la dirección vertical para representar el
tiempo. El futuro se toma normalmente hacia arriba y el pasado hacia abajo (esto
es, por supuesto, tan arbitrario como el hecho de que los mapas coloquen el
hemisferio norte por encima del sur). Un punto en la hoja de papel es un
suceso, un dónde y un cuándo: un punto en el
espacio-tiempo. Éste fue el punto de partida de Feynman: partículas, sucesos y
espacio-tiempo.
Nuestro primer diagrama de Feynman muestra la más simple de todas las
direcciones de escena: «Electrón, va del punto a al
punto b. Para representar esto gráficamente, dibujamos una recta en
una hoja de papel desde el suceso a al suceso b.
Feynman también pone una pequeña flecha en la recta cuyo propósito se explicará
dentro de poco. La recta que conecta a con b se
denomina propagador.
El fotón también puede moverse de un punto en el espacio-tiempo a otro.
Para representar el movimiento del fotón, Feynman dibuja otra línea o
propagador. A veces el propagador del fotón se dibuja como una línea ondulada,
y otras veces, como una línea de trazos. Yo utilizaré la línea de trazos.
Los propagadores son más que simples imágenes. Son instrucciones
mecanocuánticas para calcular la probabilidad de que una partícula que parte de
un punto a se manifieste más tarde en el punto b.
Feynman tuvo la idea radical de que una partícula no se mueve meramente a lo
largo de una trayectoria particular: de una manera singular explora todas las
trayectorias, tanto trayectorias aleatorias en zigzag como trayectorias rectas.
Los fotones no atraviesan simplemente la rendija izquierda o la rendija
derecha: de algún modo exploran ambas trayectorias y, al hacerlo, crean las
sorprendentes figuras de interferencia donde son detectados. Según la teoría de
Feynman, todas las trayectorias posibles contribuyen a la probabilidad de que
la partícula vaya de a a b. Al final, una
expresión matemática concreta que representa todas las
posibles trayectorias entre los dos puntos da la probabilidad de ir de a a b.
Todo esto está implícito en la noción de propagador.
Nada muy interesante sucedería si todo lo que tuvo lugar alguna vez
fuera el movimiento libre de electrones y fotones. Pero ambos toman parte en
una acción coordinada que es responsable de todo lo interesante en la
Naturaleza. Recordemos lo que sucede cuando los electrones le mueven de una
nube a otra durante una tormenta con relámpagos. De repente la noche se hace
día. La luz emitida por la corriente eléctrica violenta y repentina ilumina
espectacularmente el cielo durante un instante. ¿De dónde procede esa luz? La
respuesta remite a los electrones individuales. Cuando el movimiento de un
electrón es súbitamente agitado, puede responder desprendiendo un fotón. El
proceso, llamado emisión de un fotón, es el suceso básico de la
electrodinámica cuántica. De la misma forma que toda la materia está construida
de partículas, todos los procesos están construidos de sucesos elementales de
emisión y absorción. Así pues, el electrón —mientras se mueve a través del
espacio-tiempo— puede súbitamente disparar un único cuanto (o fotón) de luz.
Toda la luz visible que vemos, así como las ondas de radio, la radiación
infrarroja y los rayos X, está compuesta de fotones que han sido emitidos por
electrones, ya sea en el Sol, el filamento de una bombilla, una antena de radio
o un aparato de rayos X. Por ello, Feynman añadió a la lista de partículas una
segunda lista: una lista de sucesos elementales. Esto nos presenta un segundo
tipo de diagrama de Feynman.
El diagrama de Feynman que representa el suceso de la emisión de un
fotón se denomina un diagrama de vértice. Un diagrama de vértice se
parece a la letra Y o, mejor aún, a una carretera que se bifurca: el electrón
original llega a la bifurcación y suelta un fotón. Posteriormente, el electrón
toma uno de los caminos y el fotón el otro. El punto donde se unen las tres
líneas —el suceso que emite el fotón— es el vértice.
He aquí una manera de ver un diagrama de Feynman como un «cortometraje».
Tome un cuadrado de cartulina de unos pocos centímetros de lado y corte una
rendija larga y estrecha de aproximadamente un milímetro de anchura. Ahora
coloque el cuadrado sobre el diagrama de Feynman (primero llene las líneas de
trazos) con la rendija orientada en dirección horizontal. Los cortos segmentos
que se muestran a través de la rendija representan partículas. Empiece con la
rendija en la parte inferior del diagrama. Si ahora mueve la rendija hacia
arriba, verá que las partículas se mueven, emiten y absorben otras partículas y
hacen todas las cosas que hacen las partículas reales.
El diagrama de vértice puede ponerse al revés (recuerde, el pasado es
abajo y el futuro es arriba) de modo que describa a un electrón y un fotón que
se aproximan. El fotón es absorbido, dejando solo al electrón.
§. Antimateria
Feynman tenía un objetivo en mente cuando puso flechas pequeñas en las
líneas del electrón. Cada tipo de partícula eléctricamente cargada, tal como el
electrón y el protón, tiene una gemela, a saber, su antipartícula. La
antipartícula es idéntica a su gemela, con una excepción: tiene la carga
eléctrica opuesta. Cuando la materia se encuentra con antimateria, ¡cuidado!
Las partículas y las antipartículas se combinarán y desaparecerán (se
aniquilarán) pero no sin dejar su energía en forma de fotones.
La antipartícula gemela del electrón se denomina positrón. Parece ser un
nuevo añadido a la lista de partículas, pero según Feynman, el positrón no es
realmente un objeto nuevo: él lo consideraba un electrón que va hacia atrás en
el tiempo. Un propagador de positrón es exactamente igual a un propagador de
electrón excepto que la flecha apunta hacia abajo al pasado en lugar de hacia
arriba al futuro.
Que usted considere un positrón un electrón que va hacia atrás en el
tiempo, o un electrón un positrón que va hacia atrás en el tiempo, es cosa
suya.
Es un convenio arbitrario. Pero con esta manera de pensar, puede cambiar
el vértice de nuevas maneras. Por ejemplo, usted puede cambiarlo de modo que
describa un positrón que emite un fotón.
Puede incluso ponerlo de lado de modo que muestre a un electrón y un
positrón que se aniquilan y dejan solamente un fotón,
o un fotón que desaparece y se convierte en un electrón y un positrón.
Feynman combinó estos ingredientes básicos, propagadores y vértices,
para hacer procesos más complejos. He aquí uno interesante.
¿Puede usted ver lo que describe? Si utiliza la cartulina con rendija
para ver el diagrama, esto es lo que verá: inicialmente, en la parte inferior
del diagrama, hay sólo un electrón y un fotón. Sin ningún aviso, el fotón se
convierte espontáneamente en un par electrón-positrón. Luego el positrón se
mueve hacia el electrón, donde encuentra a su gemelo y ambos se aniquilan,
dejando un fotón. Al final hay un único fotón y un único electrón.
Feynman tenía otra manera de considerar tales diagramas. Imaginaba que
el electrón incidente se «daba la vuelta en el tiempo» y se movía temporalmente
hacia el pasado, para luego dar la vuelta de nuevo hacia el futuro. Las dos
maneras de pensar —en términos de positrones y electrones o en términos de
electrones moviéndose hacia atrás en el tiempo— son completamente equivalentes.
Propagadores y vértices: eso es todo lo que hay en el mundo. Pero estos
elementos básicos pueden combinarse de infinitas maneras para describir toda la
Naturaleza.
Pero ¿no estamos dejando de lado algo importante? Los objetos en la
Naturaleza ejercen fuerzas unos sobre otros. La idea de fuerza es profundamente
intuitiva. Es uno de los pocos conceptos de la física que entendemos sin
consultar un libro de texto pues la Naturaleza nos ha dotado
para ello. Un hombre que empuja una roca está ejerciendo una fuerza. La roca se
resiste empujando hacia atrás. La atracción gravitatoria de la Tierra nos
impide flotar. Los imanes ejercen fuerzas sobre trozos de hierro. La electricidad
estática ejerce fuerzas sobre trozos de papel. Los matones empujan a los
enclenques. La idea de fuerza es tan básica en nuestra vida que la evolución se
aseguró de que tuviéramos un concepto de fuerza incorporado en nuestros
circuitos neuronales. Pero mucho menos intuitivo es el hecho de que todas las
fuerzas tienen su origen en la atracción y repulsión entre partículas
elementales.
¿Tenía Feynman que añadir a la receta otro conjunto independiente de
ingredientes: reglas específicas de fuerzas entre partículas? Él no lo hizo.
Todas las fuerzas de la Naturaleza derivan de diagramas de
intercambio especiales, en los que una partícula como un fotón es
emitida por una partícula y absorbida por otra. Por ejemplo, la fuerza
eléctrica entre electrones procede de un diagrama de Feynman en el que un
electrón emite un fotón, que después es absorbido por el otro electrón.
El fotón que salta a través del espacio entre los electrones es el
origen de las fuerzas eléctrica y magnética entre ellos. Si los electrones
están en reposo, la fuerza es la fuerza electrostática habitual que, como es
bien conocido, disminuye con el cuadrado de la distancia entre las cargas [19]. Si los
electrones se están moviendo, hay una fuerza magnética adicional. El origen de
la fuerza eléctrica y la fuerza magnética es el mismo diagrama de Feynman
básico.
Los electrones no son las únicas partículas que pueden emitir fotones.
Cualquier partícula eléctricamente cargada puede hacerlo, incluido el protón.
Esto significa que los fotones pueden saltar entre dos protones o incluso entre
un protón y un electrón. Este hecho es de enorme importancia para toda la
ciencia y la vida en general. El intercambio continuo de fotones entre el
núcleo y los electrones atómicos proporciona la fuerza que mantiene unido al
átomo. Sin estos fotones saltarines, el átomo se desharía y toda la materia
dejaría de existir.
Diagramas de Feynman tremendamente complicados —redes de vértices y
propagadores— representan procesos complejos que incluyen cualquier número de
partículas. De esta manera, la teoría de Feynman describe toda la materia,
desde los objetos más simples a los más complicados.
Siéntase libre para añadir flechas a esta imagen en varias direcciones
para hacer de las líneas sólidas electrones o positrones.
§. La constante de estructura fina
Las diversas ecuaciones y fórmulas de la física contienen varias
constantes numéricas diferentes. Algunas de estas constantes son números
derivados de las matemáticas puras. Un ejemplo es el número 3,14159…, más
conocido por su nombre griego, π. Conocemos el valor de π con miles de millones
de cifras decimales, no por haberlo medido, sino por su definición puramente
matemática: π se define como la razón entre la circunferencia de un círculo y
su diámetro. Otros números puramente matemáticos, tales como la raíz cuadrada
de dos y el número denominado e, pueden computarse también con una
precisión inacabable si alguien estuviera motivado para hacerlo.
Pero otros números que aparecen en las ecuaciones de la física no tienen
un significado matemático especial. Podríamos llamarlos números empíricos. Un
ejemplo que es importante en física nuclear es la razón entre las masas del
protón y el neutrón. Su valor numérico se conoce con siete cifras: 1,001378. El
dígito siguiente no puede obtenerse sólo con matemáticas: hay que entrar en el
laboratorio y medirlo. Los más fundamentales de estos números empíricos están
coronados con el título «constantes de la Naturaleza». La constante de
estructura fina es una de las constantes de la Naturaleza más importantes [20].
Como π, la constante de estructura fina lleva el nombre de una letra
griega, en este caso a (alfa). Suele aproximarse por la fracción 1⁄137.
Su valor exacto se conoce hasta un número limitado de cifras decimales
—0,007297351— pero es, de todas formas, una de las constantes físicas conocidas
con mayor precisión.
La constante de estructura fina es un ejemplo de una cantidad que los
físicos llaman constantes de acoplamiento. Cada constante de
acoplamiento está asociada con uno de los sucesos básicos —los diagramas de
vértice— de la teoría cuántica de campos. La constante de
acoplamiento es una medida de la intensidad, o potencia, del suceso
representado por el vértice. En QED el único diagrama de vértice es la emisión
de un fotón por un electrón. Consideremos más en detalle lo que sucede cuando
se emite un fotón.
Podríamos empezar preguntando qué determina el momento exacto en el que
un electrón, cuando se mueve a través del espacio-tiempo, emite un fotón. La
respuesta es que nada lo hace: la física en el nivel microscópico es
caprichosa. La Naturaleza tiene un elemento aleatorio que sacó de quicio a
Einstein en sus últimos años de vida. Él protestaba: «Dios no juega a los
dados» [21]. Pero le
gustase a Einstein o no, la Naturaleza no es determinista. La Naturaleza tiene
un elemento de aleatoriedad que está incorporado en las leyes de la física en
el nivel más profundo. Ni siquiera Einstein podía cambiar eso. Pero si la
Naturaleza no es determinista, tampoco es completamente caótica. Aquí es donde
entran los principios de la mecánica cuántica. A diferencia de la física
newtoniana, la mecánica cuántica nunca predice el futuro en función del pasado.
En su lugar, ofrece reglas muy precisas para computar la probabilidad de varios
resultados alternativos de un experimento. De la misma forma que no hay manera
de predecir la localización final de un fotón que ha atravesado una rendija,
tampoco hay ninguna manera de predecir exactamente en qué lugar de su
trayectoria un electrón lanzará un fotón o dónde otro electrón puede
absorberlo. Pero hay una probabilidad definida para estos sucesos.
El funcionamiento de una pantalla de televisión ofrece una buena
ilustración de tales probabilidades. La luz que procede de una pantalla de
televisor está compuesta de fotones que se crean cuando los electrones golpean
la pantalla. Los electrones son expulsados de un electrodo situado en la parte
trasera del aparato y son guiados a la pantalla por campos eléctricos y
magnéticos. Pero no todos los electrones que inciden en la pantalla emiten un
fotón. Sólo algunos lo hacen. La mayoría, no. En términos aproximados, la
probabilidad de que cualquier electrón particular irradie un cuanto de luz
viene dada por la constante de estructura fina α. En otras palabras, sólo un
afortunado electrón de cada 137 emite un fotón. Éste es el significado de α: es
la probabilidad de que un electrón, cuando se mueve a lo largo de su
trayectoria, emita caprichosamente un fotón.
Feynman no solamente dibujaba imágenes. Ideó un conjunto de reglas para
calcular las probabilidades de los procesos complejos representados en las
imágenes. En otras palabras, descubrió un cálculo matemático preciso que
predice las probabilidades de cualquier proceso en términos de los sucesos más
simples: propagadores y vértices. Las probabilidades para todos los procesos en
la Naturaleza remiten, en última instancia, a constantes de acoplamiento como
α.
La constante de estructura fina controla también la intensidad de los
diagramas de intercambio, que a su vez determina la intensidad de las fuerzas
eléctricas entre partículas cargadas. Controlan con qué firmeza el núcleo
atómico atrae a los electrones. Como consecuencia, determina el tamaño del
átomo, la velocidad con que se mueven los electrones en sus órbitas y, en
definitiva, controla las fuerzas entre átomos diferentes que les permiten
formar moléculas. Pero siendo tan importante como es, no sabemos por qué su
valor es 0,007297351 y no ningún otro. Las leyes de la física que se
descubrieron durante el siglo XX son muy precisas y útiles, pero el origen
subyacente a estas leyes sigue siendo un misterio.
La teoría de este mundo simplificado de electrones, fotones y núcleos
puntuales es la electrodinámica cuántica, y la versión de ella que desarrolló
Feynman fue increíblemente satisfactoria. Usando sus métodos, las propiedades
de electrones, positrones y fotones fueron entendidas con una precisión
asombrosa. Además, si se añadía la versión simplificada del núcleo, también
podían calcularse las propiedades del átomo más simple —el hidrógeno— con
increíble precisión. En 1965 Feynman, Julián Schwinger y el físico japonés
Sin-Itiro Tomonaga ganaron el premio Nobel por su trabajo sobre electrodinámica
cuántica. Ése fue el primer acto.
Si el primer acto se representó en un teatro pequeño, con sólo dos
personajes, la obra se convirtió en una epopeya con centenares de actores en el
segundo acto. Durante los años cincuenta y sesenta del siglo XX se descubrieron
nuevas partículas que con el tiempo requirieron un reparto desbordado que
incluía electrones, neutrinos, muones, partículas tau, quarks–up, quarks–down,
quarks-extraños, quarks-encantados, quarks-fondo, quarks–cima, fotones,
gluones, bosones W y Z, bosones de Higgs y muchos más. No crea nunca a nadie
que le diga que la física de partículas elementales es elegante. Este
batiburrillo de nombres de partículas refleja un igualmente inmanejable
revoltijo de masas, cargas eléctricas, espines y otras propiedades. Pero aun
siendo desordenado, sabemos cómo describirlo con enorme precisión. El modelo
estándar es el nombre de la estructura matemática —una teoría cuántica de
campos particular— que describe la teoría moderna de las partículas
elementales. Aunque es mucho más complicada que la electrodinámica cuántica,
los métodos de Feynman son tan potentes que, una vez más, pueden utilizarse
para expresar todo en términos de imágenes simples. Los principios son
exactamente los mismos que los de la QED: todo está construido a partir de
propagadores, diagramas de vértice y constantes de acoplamiento. Pero hay
nuevos actores y nuevas líneas arguméntales, incluyendo una denominada QCD.
§. Cromodinámica Cuántica
Hace muchos años fui invitado por una famosa universidad para dar una
serie de conferencias sobre un tema completamente nuevo denominado
cromodinámica cuántica (QCD). Mientras andaba por los pasillos del departamento
de física de camino a la primera conferencia, oí por casualidad a un par de
estudiantes licenciados que discutían sobre el título. Uno de ellos, que estaba
mirando el anuncio de la conferencia en el tablón de anuncios, dijo: «¿De qué
va esto? ¿Qué es la cromodinámica cuántica?». El otro reflexionó un momento y
dijo: «Humm…, debe de ser una nueva manera de utilizar la mecánica cuántica
para revelar las fotografías».
La cromodinámica cuántica no tiene nada que ver con la fotografía, ni
siquiera con la luz. La QCD es la versión moderna de la física nuclear. La
física nuclear convencional empieza con protones y neutrones (nucleones), pero
la QCD va un poco más profundo. Desde hace cuarenta años se sabe que los
nucleones no son partículas elementales. Se parecen más a los átomos o a las
moléculas, pero a una escala más pequeña. Si pudiéramos mirar un protón con un
microscopio suficientemente potente, veríamos tres quarks unidos por una ristra
de partículas llamadas gluones. La teoría de quarks y gluones —QCD—
es una teoría más complicada que la QED y no soy capaz de hacerle justicia en
unas pocas páginas. Pero los hechos básicos no son demasiado difíciles. Éste es
el reparto de personajes.
§. Los seis quarks
En primer lugar, están los quarks: hay seis tipos diferentes. Para
distinguir unos de otros los físicos les dan nombres absurdos y extravagantes:
quark-up, quark-down, quark-extraño, quark-encantado, quark-fondo y quark-cima,
o de forma más concisa, quarks u, d, s, c, b y t. [22] No
hay, por supuesto, nada extraño en el quark-extraño o más encantador en el
quark-encantado, pero esos nombres ridículos les dan cierta personalidad.
¿Por qué hay seis tipos de quarks y no cuatro o dos? ¿Quién sabe? Una
teoría con dos o cuatro tipos de quarks es tan consistente como una con seis
tipos. Lo que sí sabemos es que las matemáticas del modelo estándar requieren
que los quarks se den en pares— up con down, encantado con extraño y cima con
fondo—. Pero la razón para la triple replicación de la teoría más simple —una
teoría con quarks u y d solamente— es un completo misterio. Para empeorar las
cosas, solo los quarks up y down desempeñan un papel esencial en los núcleos
ordinarios [23]. Si la
QCD fuera un proyecto de ingeniería, el resto de los quarks sería considerado
un extravagante despilfarro de recursos.
Los quarks son, en algunos aspectos, similares a los electrones, aunque
algo más pesados, y tienen cargas eléctricas peculiares. Para tener una base de
comparación, la carga del protón se toma tradicionalmente como uno (+ 1). La
carga del electrón es igual pero de signo opuesto (-1). Los quarks, por otra
parte, tienen cargas que son fracciones de la del protón. En particular, las
cargas de los quarks u, c y t son positivas, como la del protón, pero sólo dos
tercios de la de éste (2⁄3). Los quarks d, s y b tienen
cargas negativas iguales a un tercio de la carga del electrón (−1⁄3).
Tanto los protones como los neutrones contienen tres quarks. En el caso
del protón, son dos quarks u y un quark d. Sumando las cargas eléctricas de
estos tres quarks, el resultado es la carga del protón:
El neutrón es muy similar al protón, con la diferencia de que los
quarks-up y down están intercambiados. Así pues, el neutrón contiene dos quarks
d y un quark u. Sumando de nuevo las tres cargas, encontramos que el neutrón no
tiene (como se esperaba) carga eléctrica:
¿Qué sucedería si tratáramos de construir un protón, o algo similar a un
protón, sustituyendo un quark-down por un quark-extraño? Tales objetos existen
—se denominan partículas extrañas— pero no existen en ningún lugar
salvo en los laboratorios de física. Incluso en tales laboratorios, las
partículas extrañas son ocurrencias fugaces que no duran más que una minúscula
fracción de segundo antes de desintegrarse por un tipo de radioactividad. Lo
mismo es cierto para las partículas que contienen quarks-encantados, fondo o
cima. Solo los quarks-up y down pueden juntarse en objetos estables y
duraderos. Como dije, si los quarks-extraños, encantados, fondo y cima fueran
eliminados repentinamente de la lista de partículas elementales, nadie lo
notaría apenas.
¿Qué pasa con los quarks que van hacia atrás en el tiempo? Como los
electrones, cada tipo de quark tiene su antipartícula. Pueden ensamblarse en
antiprotones y antineutrones. En un tiempo muy temprano en la historia del
universo, cuando la temperatura era de miles de millones de grados, los
antinucleones eran casi tan abundantes como los nucleones ordinarios. Pero
cuando bajaron las temperaturas, las antipartículas desparecieron casi por
completo, dejando sólo a los protones y neutrones ordinarios para formar los
núcleos de los átomos.
§. El gluón
Los nucleones son como minúsculos átomos hechos de quarks. Pero los
quarks por sí solos serían impotentes para unirse en nucleones. Como el átomo,
requieren otro ingrediente para crear las fuerzas de atracción que los «pegan».
En el caso del átomo, sabemos exactamente cuál es el pegamento. El átomo no se
deshace porque los fotones están saltando continuamente de un lado a otro entre
electrones y núcleos. Pero la fuerza generada por el intercambio de fotones es
demasiado débil para unir los quarks en la estructura firmemente apretada de un
nucleón (recordemos que los nucleones son cien mil veces menores que los
átomos). Se necesita otra partícula con propiedades más potentes para que los
quarks se atraigan tan fuertemente. Esta partícula se denomina apropiadamente
gluón [24].
Los sucesos básicos en cualquier teoría cuántica de campos son siempre
los mismos: la emisión de partículas por otras partículas. Los diagramas de
Feynman que describen estos sucesos tienen siempre la misma forma: diagramas de
vértice con la forma de la letra Y. Los diagramas de vértice básicos para la
QCD son exactamente iguales a los vértices de emisión de fotón con un quark en
lugar del electrón y un gluón que toma el lugar del fotón.
No es sorprendente que el origen de las fuerzas que unen los quarks en
los protones y los neutrones sea el intercambio de gluones. Pero hay dos
grandes diferencias entre QED y QCD. La primera es una diferencia cuantitativa:
la constante numérica que gobierna la emisión de gluones no es tan pequeña como
la constante de estructura fina. Se denomina OJO y es unas cien veces mayor que
la constante de estructura fina. Ésta es la razón por la que la fuerza entre
quarks es mucho más fuerte que la fuerza eléctrica que actúa en el átomo. La
QCD se denomina a veces la teoría de las interacciones fuertes.
La segunda diferencia es cualitativa. Hace que los gluones se conviertan
en una sustancia pegajosa que siempre me recuerda la historia del bebé
alquitrán. Había una vez, según el folclore sureño, un bebé alquitrán sentado
en el camino, pensando en sus cosas. El conejo Brer [25] dijo:
«Buenas». El bebé alquitrán no dijo nada. El conejo Brer se sintió ofendido.
Una cosa llevó a otra y pronto se produjo un altercado: el conejo Brer se
volvió loco y dio un puñetazo al bebé alquitrán, pero eso fue un enorme error.
Con su puño pegado en el alquitrán, el conejo Brer tiraba y tiraba, pero el
alquitrán simplemente se estiraba y le atraía de nuevo. Por mucho que se
esforzase en liberarse, el bebé alquitrán no le soltaba.
¿Por qué la historia del bebé alquitrán? Porque los quarks son bebés
alquitrán en miniatura, pero sólo para otros quarks. Están pegados
permanentemente por una sustancia hecha de gluones. El origen de este extraño
comportamiento es un vértice extra que no tiene análogo en la QED. Cualquier
partícula eléctricamente cargada puede emitir un fotón. Pero los propios
fotones no están cargados. Son eléctricamente neutros y, por tanto, no emitirán
otro fotón. A este respecto, los gluones son muy diferentes de los fotones. Las
leyes de la QCD requieren un vértice en el que un gluón se divide en dos
gluones, cada uno de los cuales sigue una de las trayectorias de la
bifurcación.
Ésta es la gran diferencia entre la QCD y la QED que hace de la QCD una
teoría mucho más complicada que su contrapartida eléctrica. Entre otras cosas,
implica que los gluones pueden intercambiar gluones y unirse en objetos
llamados gluebolas —partículas sin quarks ni electrones—. De hecho, los gluones
no sólo se pegan a pares. Pueden formar largas cadenas de pegamento. Antes yo
comparé los electrones en un átomo con bolas movidas por cuerdas. En ese caso
la cuerda era totalmente metafórica, pero en el caso de los quarks, las cuerdas
que los mantienen juntos son muy reales. Son cuerdas de gluones tendidas entre
los quarks. De hecho, cuando un quark es expulsado a la fuerza de un nucleón,
se forma una larga cuerda de gluones que finalmente impide la fuga del quark.
§. Las interacciones débiles
Si está empezando a aburrirse con la física de partículas, no le culpo.
Es demasiado complicada y hay que recordar demasiadas cosas. Hay demasiadas
partículas para seguirles la pista y no hay ninguna buena razón que sepamos
para su existencia. La QCD y la QED apenas agotan las piezas que constituyen el
modelo estándar. Todo esto está muy lejos de la simple y elegante teoría que
los físicos esperan encontrar «en el fondo de todo». Se parece mucho a la
zoología o la botánica. Pero así es. No podemos cambiar los hechos.
Voy a guiarle a través de otro trozo del modelo estándar: la parte que
se conoce como las interacciones débiles. Como la QED y la QCD, las
interacciones débiles desempeñan un papel importante en la explicación de
nuestra propia existencia, aunque las razones son más sutiles y no se
clarificarán hasta capítulos posteriores.
La historia de las interacciones débiles se remonta al final del siglo
XIX, cuando el físico francés Antoine-Henri Becquerel descubrió la
radioactividad. El descubrimiento de Becquerel precedió en un año al
descubrimiento del electrón por J. J. Thomson.
Hay tres tipos diferentes de radioactividad, llamados alfa, beta y
gamma. Corresponden a tres fenómenos muy diferentes, sólo uno de los cuales
(beta) tiene que ver con las interacciones débiles. Hoy sabemos que los rayos
beta procedentes de la muestra de uranio de Becquerel eran realmente electrones
emitidos por neutrones en el núcleo de uranio. Al emitir el electrón, el
neutrón se convierte inmediatamente en un protón.
Nada en la QED ni en la QCD explica cómo un neutrón puede emitir un
electrón y convertirse en un protón. La explicación más sencilla, que quizá ya
se le haya ocurrido, es que existe un diagrama de vértice adicional que hay que
añadir a nuestra lista de sucesos fundamentales. El vértice incluiría a un
neutrón inicial que llega a una bifurcación en la carretera, ante la que un
protón seguiría por un camino y un electrón por el otro. Pero ésta no es la
explicación correcta. El hecho es que un personaje nuevo está a punto de hacer
su entrada: el neutrino. Lo que Becquerel no sabía era que otra partícula salía
disparada cuando se desintegraba el neutrón, a saber, la antipartícula del
fantasmal neutrino.
§. El neutrino
El neutrino es similar al electrón pero sin carga eléctrica. Considérelo
un electrón que ha perdido sus propiedades eléctricas. En cierta manera la
relación entre el electrón y el neutrino es similar a la que existe entre el
protón y el neutrón.
¿Qué queda entonces del neutrino? Tiene una masa minúscula y no mucho
más. No emite fotones. No emite gluones. Esto significa que sobre él no actúa
ninguna de las fuerzas que experimentan las partículas eléctricamente cargadas
o los quarks. No se une a otras partículas para formar objetos más complejos.
Apenas hace nada. De hecho, el neutrino es tan solitario que atravesará años
luz de plomo sin ser siquiera desviado. Pero no es un cero completo. Para
entender cómo entra en el acto el neutrino hay que introducir a otro actor: el
bosón W.
§. El bosón W
Por el momento no se preocupe por la palabra bosón. Por ahora, denota
simplemente otra partícula, con propiedades similares a la del fotón o el gluón
pero eléctricamente cargada. Se da en dos versiones, el W cargado positivamente
y el W cargado negativamente. Son, por supuesto, antipartículas una de otra.
El bosón W es la clave para las actividades del neutrino. No sólo los
electrones y quarks pueden emitir bosones W, sino que también puede hacerlo el
neutrino. He aquí una lista (parcial) de las actividades del bosón W:
· los electrones emiten bosones W y se convierten en neutrinos;
· los quarks-up emiten bosones W y se convierten en quarks-down;
· los quarks-up emiten bosones W y se convierten en quarks-extraños;
· los quarks-encantados emiten bosones W y se convierten en quarks—
extraños;
· los quarks-cima emiten bosones W y se convierten en quarks-fondo, y
· los bosones de Higgs emiten bosones Z.
Hay más, pero implica partículas que sólo encontraremos en capítulos
posteriores.
Como he explicado, protones y neutrones no están en la lista de
partículas elementales porque están compuestos de los quarks más simples, pero
para algunos fines es útil olvidarse de los quarks y considerar los nucleones
partículas elementales. Eso requerirá que añadamos algunos vértices
adicionales. Por ejemplo, un protón puede emitir un fotón. (En realidad, fue
uno de los quarks ocultos el que produjo el fotón, pero el efecto final es como
si lo hubiera hecho el protón). Análogamente, uno de los dos quarks d en un
neutrón puede emitir un bosón W y convertirse en un quark u, transformando así
en neutrón en un protón. En efecto, hay un vértice en el que un neutrón se
convierte en un protón mientras emite un bosón W.
Ahora estamos listos para dibujar el diagrama de Feynman que explica los
rayos beta que descubrió Becquerel emanando de su uranio. El diagrama se parece
mucho a un diagrama de QED excepto que el bosón W es intercambiado donde sería
intercambiado el fotón en un diagrama QED. En realidad, las interacciones
débiles están muy íntimamente relacionadas con las fuerzas eléctricas debidas a
los fotones.
Tome su cartulina cuadrada con una rendija y empiece por abajo. El
neutrón (que podría estar dentro de un núcleo) emite un bosón W cargado
negativamente y se convierte en un protón. El bosón W recorre un corto trecho
(unos 10−16 centímetros) y se divide en dos partículas: un
electrón y un neutrino «que se mueve hacia atrás en el tiempo», o de forma más
anodina, un antineutrino. Eso es lo que Becquerel habría visto en 1896 si
hubiera tenido un microscopio suficientemente potente. Más tarde veremos la
importancia de este tipo de proceso en la creación de los elementos químicos de
los que estamos hechos.
§. Las leyes de la física
Usted bebería tener ahora una idea clara de lo que yo entiendo por leyes
de la física. Me gustaría poder decirle que son elegantes, como afirmarían
algunos físicos. Pero la verdad innegable es que no es así. Hay demasiadas
partículas, demasiados diagramas de vértice y demasiadas constantes de
acoplamiento. Ni siquiera le he hablado de la colección aleatoria de masas que
caracterizan a las partículas. Todo sería un brebaje muy poco atractivo si no
fuera por una razón: describe las propiedades de las partículas elementales,
núcleos, átomos y moléculas con increíble precisión.
Pero tiene un coste. Sólo puede lograrse introduciendo unas treinta
«constantes de la Naturaleza» —masas y constantes de acoplamiento— cuyos
valores no tienen ninguna otra justificación que el hecho de que
«funcionan» [26]. ¿De
dónde proceden estos números? Los físicos no sacan los diversos números del
aire o siquiera de un cálculo matemático mediante alguna teoría maestra. Son el
resultado de muchos años de física de partículas experimental hecha en
aceleradores en laboratorios de muchos países. Muchos de ellos, como la
constante de estructura fina, han sido medidos con gran precisión, pero la
conclusión es, como ya he dicho, que no entendemos por qué son los que son.
El modelo estándar es la culminación y destilación de más de medio siglo
de física de partículas. Cuando se combina con las reglas gráficas de Feynman,
ofrece descripciones precisas de todos los fenómenos de partículas elementales,
incluyendo cómo se combinan las partículas para formar núcleos, átomos,
moléculas, gases, líquidos y sólidos. Pero es demasiado complicado para ser el
paradigma de simplicidad que esperamos que fuera el sello de una teoría
verdaderamente fundamental —una teoría final— de la Naturaleza.
A diferencia de las leyes de los hombres, las leyes de la física son
realmente leyes. Nosotros podemos escoger entre obedecer la ley o hacer caso
omiso de ella, pero un electrón no tiene elección. Estas leyes no son como las
leyes del tráfico o las leyes tributarias que cambian de un estado a otro y de
un año a otro. Quizá el hecho experimental más importante, un hecho que hace
posible la física en general, es que las constantes de la Naturaleza son
realmente constantes. Experimentos en diferentes tiempos y lugares requieren
exactamente los mismos diagramas de Feynman y dan exactamente los mismos
valores para cada constante de acoplamiento y cada masa. Cuando se midió la
constante de estructura fina en Japón en los años noventa, tenía exactamente el
mismo valor que tenía en Brookhaven, Long Island, en 1960 o en Stanford en los
años setenta.
De hecho, cuando los físicos estudian la cosmología, tienden a dar
completamente por hecho que las leyes de la Naturaleza son las mismas en
cualquier lugar del universo. Pero no tienen por qué serlo. Ciertamente se
puede concebir un mundo en el que la constante de estructura fina cambie con el
tiempo o en el que alguna otra constante varíe de un lugar a otro. De vez en
cuando, los físicos han cuestionado la hipótesis de que las constantes son
absolutamente constantes, pero hay pruebas decisivas que sugieren que realmente
son las mismas en cualquier parte del universo observado: no el
gigantesco megaverso, sino esa parte del universo que podemos ver con los
diversos tipos de telescopios a nuestra disposición.
Quizá algún día seremos capaces de ir a galaxias lejanas y medir las
constantes directamente en dichos lugares, pero incluso ahora recibimos
continuamente mensajes de regiones remotas del universo. Los astrónomos
estudian rutinariamente la luz procedente de fuentes muy lejanas y desenredan
las líneas espectrales que fueron emitidas o absorbidas por átomos
distantes [27]. Las
relaciones entre líneas espectrales individuales son intrincadas, pero son
siempre las mismas, independientemente de dónde y cuándo se originó la luz.
Cualquier cambio en las leyes de la física cambiaría los detalles, de modo que
tenemos una prueba excelente de que las leyes son las mismas en cualquier parte
del universo observado.
Estas reglas —una lista de partículas, una lista de masas y constantes
de acoplamiento, y los métodos de Feynman— que yo llamo las leyes de la física
son extraordinariamente potentes. Gobiernan casi cualquier aspecto de la
física, la química y, en última instancia, la biología, pero las reglas no se
explican a sí mismas. No tenemos ninguna teoría que nos diga por qué el modelo
estándar es el correcto y no ningún otro. ¿Podrían otras cosas haber sido las
leyes de la física? ¿Podría la lista de las partículas elementales, las masas y
las constantes de acoplamiento ser diferente en otras partes del universo que
no podemos observar? ¿Podrían las leyes de la física ser diferentes en tiempos
y lugares muy distintos? Si es así, ¿qué gobierna la manera en que cambian?
¿Son estas leyes más profundas las que nos dicen qué leyes son posibles y
cuáles no? Éstas son las preguntas que los físicos están empezando a tratar de
resolver en el comienzo del siglo XXI. Son las preguntas de las que trata El
paisaje cósmico.
Quizá algo le esté intrigando en este capítulo. No he mencionado ni una
sola vez la fuerza más importante en el universo: la fuerza de la gravedad.
Newton descubrió la teoría elemental de la gravedad que lleva su nombre.
Einstein también ahondó profundamente en el significado de la gravedad en la
teoría de la relatividad general. Incluso si las leyes de la gravedad son mucho
más importantes que todas las demás para la determinación del destino del
universo, la gravedad no se considera parte del modelo estándar. La razón no es
que la gravedad no sea importante. De todas las fuerzas de la Naturaleza,
desempeñará el papel más importante en este libro. Mi razón para separarla de
las otras leyes es que la relación entre la gravedad y el mundo microscópico de
las partículas elementales mecanocuánticas todavía no se entiende. El propio
Feynman trató de aplicar sus métodos a la gravedad y abandonó su intento con
pesar. De hecho, en cierta ocasión me aconsejó que nunca me involucrara en ese
tema. Eso fue como decir a un niño pequeño que no se acerque al tarro de
galletas.
En el próximo capítulo le hablaré de la «madre de todos los problemas de
la física». Es una historia lúgubre de lo que falla cuando la gravedad se
combina con estas leyes de la física. Es también una historia de violencia
extrema. Las leyes de la física tal como las hemos entendido predicen un
universo extraordinariamente letal. Evidentemente, algo estamos pasando por
alto.
Capítulo 2
La madre de todos los problemas de la física
Contenido:
§. La peor predicción que se ha hecho nunca
§. Vuelta a la constante cosmológica
§. Weinberg pronuncia la palabra A
§. El caso de λ negativa
§. La longitud de Planck
Nueva York, 1967.
Supe por primera vez de la «madre de todos los problemas de la física»
un día frío y seco de otoño en Nueva York en un lugar inverosímil: Washington
Heights. Situadas a cinco kilómetros al norte de la Universidad de Columbia,
las Heights forman parte de Manhattan pero en muchos aspectos se parece al sur
del Bronx, donde yo crecí. En una época, había sido un barrio judío de clase
media, pero la mayoría de los judíos se habían ido y fueron reemplazados por
latinoamericanos, especialmente trabajadores cubanos. Era un barrio grande con
restaurantes cubanos baratos. Mi favorito era un local chino-cubano.
La gente que conozca la zona sabrá que hay un grupo de extraños
edificios de apariencia bizantina en Amsterdam Avenue a la altura de la calle
187. Las calles próximas están repletas de jóvenes estudiantes y rabinos judíos
ortodoxos; el local frecuentado por los estudiantes en esa época era un
establecimiento de comida judía llamado MacDovid’s. Los extraños edificios son
el campus de la Universidad Yeshiva, la más antigua institución judía de
enseñanza superior en Estados Unidos. Se especializa en la educación de rabinos
y estudiosos del talmud, pero en 1967 tenía también una facultad de física y
matemáticas llamada Belfer Graduate School of Science.
Yo acababa de llegar de un año de trabajo posdoctoral en Berkeley para
ser ayudante en la Belfer School. Los exóticos edificios de Yeshiva no se
parecían en nada al campus de Berkeley o de Harvard ni a cualquier otro campus.
Encontrar el departamento de física iba a ser un desafío. Un tipo barbado en la
calle me dirigió hacia el último piso de un edificio, donde había una especie
de torreta o cúpula. No parecía prometedor, pero era el único trabajo que
tenía, de modo que entré y subí por la escalera de caracol. Arriba había una
puerta que daba a un despacho oscuro y muy pequeño que contenía una voluminosa
estantería llena de grandes tomos encuadernados en cuero, cuyos títulos estaban
todo escritos en hebreo. En el despacho estaba sentado un caballero de barba
gris y aspecto de rabino leyendo un tomo antiguo. La placa decía:
Departamento de física.
Profesor Posner.
«¿Es éste el departamento de física?», pregunté absurdamente.
«Sí —dijo—, y yo soy el profesor de física. ¿Quién es usted?».
«Yo soy el nuevo profesor ayudante, Susskind». En su rostro apareció una
mirada amable pero muy enigmática.
«Vaya, nunca me dicen nada. ¿Qué nuevo profesor?».
«¿Está aquí el director?», balbuceé.
«Yo soy el director. De hecho, soy el único profesor de física y no sé
nada de que venga uno nuevo». En esa época yo tenía veintiséis años, una mujer
y dos hijos pequeños, y temí estar en paro.
Confundido y avergonzado, salí del edificio y empecé a cruzar la calle
cuando vi a un conocido de la facultad llamado Gary Gruber. «Hola Gruber, ¿qué
estás haciendo aquí? Precisamente vengo del departamento de física. Pensaba que
estaría lleno de físicos pero parece que sólo hay un viejo rabino llamado
Posner.».
A Gruber le pareció mucho más divertido que a mí. Se rió y dijo: «Creo
que probablemente ibas al departamento de licenciados, no al de estudiantes.
Está a la vuelta de la esquina en la calle 184. Yo soy ahí un estudiante
licenciado». ¡Qué alivio! Caminé hasta la calle 184 y busqué en el lado de la
calle que Gruber me había indicado, pero no vi nada que se pareciera a una
facultad de ciencias. La calle era tan sólo una hilera de bajos comerciales
bastante cutres. En uno de ellos anunciaba: «Abogado-Fianzas». Otro estaba
vacío y tapado con maderos. El mayor era un establecimiento del tipo de los que
celebran comuniones y bodas judías. Parecía que ya no funcionaba, pero en el
sótano quedaba un pequeño establecimiento que preparaba comida kosher.
Al principio pasé de largo, pero en una segunda pasada miré con más atención.
Una pequeña placa junto a la del proveedor de comida decía:
Belfer Graduate School
y señalaba a un amplio tramo de escaleras. Las escaleras tenían una
vieja alfombra raída y, desde el piso inferior, llegaba el olor de la comida.
No estaba seguro de si el aspecto de ese
lugar me gustaba más que el anterior. Subí a una gran habitación que al parecer
fue en un tiempo una sala de baile para bodas y comuniones. Entonces era un
gran espacio con sofás, sillas cómodas y, para mi alivio, pizarras. Pizarras
significaban físicos.
Alrededor del espacio había unos veinte despachos. Toda la facultad
estaba contenida en esa sala. Habría sido muy deprimente si no fuera por el
hecho de que varias personas estaban manteniendo una viva conversación sobre
física en uno de los extremos. Y lo que es más, reconocí a algunos de ellos. Vi
a Dave Finkelstein, que me había conseguido mi nuevo trabajo. Finkeistein era
un carismático y brillante físico teórico que acababa de escribir un artículo
sobre el uso de la topología en teoría cuántica de campos que iba a convertirse
en un clásico de la física teórica. También vi a P. A. M. Dirac,
presumiblemente el mayor físico teórico del siglo XX después de Einstein. Dave
me presentó a Yakir Aharonov, cuyo descubrimiento del efecto Aharonov-Bohm le
había hecho famoso. Estaba hablando con Roger Penrose, que ahora es sir Roger.
Roger y Dave eran dos de los más importantes pioneros en la teoría de los
agujeros negros. Vi una puerta abierta con una placa que decía Joel Lebowitz.
Joel, un físico-matemático muy conocido, estaba discutiendo con Elliot Lieb,
cuyo nombre también era conocido. Era la colección de físicos más brillante que
jamás había visto reunidos en un lugar.
Estaban hablando de la energía del vacío. Dave estaba argumentando que
el vacío estaba lleno de energía de punto cero y que esta energía debería
afectar al campo gravitatorio. A Dirac no le gustaba la energía del vacío
porque cada vez que los físicos trataban de calcular su valor, la respuesta
salía infinita. Él pensaba que si salía infinita era porque las matemáticas
debían estar equivocadas y que la respuesta correcta es que no hay energía de
vacío. Dave me introdujo en la conversación, explicando lo que él pensaba. Para
mí esa conversación fue un punto de no retorno determinante, mi introducción a
un problema que iba a obsesionarme durante casi cuarenta años y que con el
tiempo llevó a El paisaje cósmico.
§. La peor predicción que se ha hecho nunca
La parte de la mente —supongo que la llamamos ego— que obtiene placer de
saber que se tiene razón está especialmente bien desarrollada en la física
teórica. Elaborar una teoría de un fenómeno seguida por un cálculo inteligente
y luego ver finalmente el resultado confirmado por un experimento, proporciona
una tremenda fuente de satisfacción. En algunos casos, el experimento tiene
lugar antes que el cálculo, en cuyo caso no es una predicción sino, más bien,
una explicación de un resultado, pero es casi igual de gratificante. Incluso
físicos muy buenos hacen de vez en cuando predicciones erróneas. Tendemos a
olvidarlas, pero hay una predicción errónea que no desaparecerá sin más. Es con
mucho el peor cálculo de un resultado numérico que cualquier físico haya hecho
jamás. No fue obra de una persona y no era tan errónea como para que no se
necesitase ningún experimento que demostrase que lo era. El problema está en
que el resultado erróneo parece ser una consecuencia inevitable de nuestra
mejor teoría de la Naturaleza, la teoría cuántica de campos.
Antes de decirle cuál es esa cantidad, déjeme decirle hasta qué punto es
errónea la predicción. Si el resultado de un cálculo discrepa de un experimento
por ser diez veces demasiado grande o demasiado pequeño, decimos que falla en
un orden de magnitud; si es erróneo en un factor cien, entonces falla en dos
órdenes de magnitud. Un factor mil, tres órdenes, y así sucesivamente. Estar
equivocado en un orden de magnitud, es malo; dos órdenes, un desastre; tres,
una desgracia. Bien, los mejores esfuerzos de los mejores físicos, utilizando
nuestras mejores teorías, predicen un valor de la constante cosmológica de
Einstein que es incorrecto en ciento veinte órdenes de magnitud. Eso es tan
malo que resulta divertido.
Einstein fue el primero en quemarse con la constante cosmológica. En
1917, un año después de terminar la teoría de la relatividad general, Einstein
escribió un artículo que posteriormente tachó como su peor error. El artículo,
titulado «Consideraciones cosmológicas sobre la teoría de la relatividad
general», fue escrito pocos años antes de que los astrónomos comprendieran que
las tenues manchas de luz llamadas nebulosas eran en realidad galaxias
distantes. Faltaban aún doce años hasta que el astrónomo estadounidense Edwin
Hubble revolucionara la astronomía y la cosmología al demostrar que todas las
galaxias se están alejando de nosotros a una velocidad que crece con la
distancia. En 1917 Einstein no sabía que el universo se estaba expandiendo. Por
lo que él o cualquier otra persona sabían, las galaxias eran siempre iguales y
ocupaban el mismo lugar por toda la eternidad.
Según la teoría de Einstein el universo es cerrado y acotado,
lo que ante todo significa que el espacio tiene una extensión finita, pero no
significa que tenga un borde. La superficie de la Tierra es un ejemplo de un
espacio cerrado y acotado. Ningún punto sobre la Tierra está a más de veinte
mil kilómetros de cualquier otro punto. Además, no hay ningún borde en la
Tierra, ningún lugar que represente la frontera del mundo. Una hoja de papel es
finita, pero tiene un borde: algunas personas dirían que cuatro bordes. Pero en
la superficie de la Tierra, si usted sigue andando en cualquier dirección,
nunca llega al final del espacio. Como Magallanes, usted volvería finalmente al
mismo lugar [28].
La superficie de la Tierra es una superficie esférica. El término
matemático correcto para referirse a la Tierra sólida y maciza es una bola.
Para entender la analogía entre la superficie de la Tierra y el universo de
Einstein uno debe aprender a pensar sólo en la superficie y no
en la bola sólida. Imaginemos criaturas —llamémoslas chinches— que habitan en
la superficie de una esfera. Supongamos que nunca pueden dejar la superficie:
no pueden volar y no pueden cavar. Supongamos también que las únicas señales
que pueden recibir o emitir viajan a lo largo de la superficie. Por ejemplo,
podrían comunicarse con su entorno emitiendo y detectando algún tipo de ondas
de superficie. Estas criaturas no tendrían ningún concepto de la tercera
dimensión ni ningún uso para ella. Verdaderamente habitarían en un mundo
bidimensional cerrado y acotado. Un matemático la llamaría una 2-esfera,
porque es bidimensional.
Nosotros no somos chinches viviendo en un mundo bidimensional, pero
según la teoría de Einstein vivimos en un análogo tridimensional a una esfera.
Un espacio tridimensional cerrado y acotado es más difícil de representar, pero
tiene perfecto sentido. El término matemático para dicho espacio es una 3-esfera.
Igual que las chinches, nosotros descubriríamos que vivimos en una 3-esfera si
viajáramos a lo largo de una dirección y encontráramos que siempre volvíamos al
punto de partida. Según la teoría de Einstein, el espacio es una 3-esfera.
De hecho, las esferas se dan en cualquier dimensión. Un círculo es el
ejemplo más sencillo. Un círculo es unidimensional como una línea: si usted
viviera en uno, sólo podría moverse a lo largo de una dirección. Otro nombre
para un círculo es una 1-esfera. Moverse a lo largo del círculo es
muy parecido a moverse a lo largo de una línea excepto que uno vuelve al mismo
lugar al cabo de un tiempo. Para definir un círculo, empezamos con un plano
bidimensional y dibujamos una curva cerrada. Si cualquier punto de la curva
está a la misma distancia de un punto central (el centro), la curva es un
círculo. Note que empezamos con un plano bidimensional para definir la
1-esfera.
La 2-esfera es similar excepto que uno empieza con un espacio
tridimensional. Una superficie es una 2-esfera si cualquier punto está a la
misma distancia del centro. Quizá usted puede ver cómo cabe aplicarlo a una
3-esfera o, para el caso, a una esfera de cualquier dimensión. Para la 3-esfera
empezamos con un espacio tetradimensional. Puede considerarlo un espacio
descrito por cuatro coordenadas en lugar de las tres usuales. Ahora escoja
simplemente todos los puntos que están a una misma distancia del origen. Todos
estos puntos yacen en una 3-esfera.
Del mismo modo que las chinches que viven en la 2-esfera no tenían
ningún interés en nada salvo la superficie de la esfera, el geómetra que
estudia una 3-esfera no tiene ningún interés en el espacio tetradimensional en
el que está inmersa. Podemos prescindir de él y concentrarnos solamente en la
3-esfera.
La cosmología de Einstein implicaba un espacio que tiene la forma global
de una 3-esfera pero, como la superficie de la Tierra, la forma esférica no es
perfecta. En la teoría de la relatividad general, las propiedades del espacio
no están fijadas rígidamente. El espacio es más parecido a la superficie
deformable de un globo de goma que a la superficie de una bola de acero rígida.
Representemos el universo como la superficie de tal globo deformable gigante.
Las chinches viven en la superficie elástica y las únicas señales que reciben
se propagan a lo largo de dicha superficie. No saben nada de la otra dimensión
del espacio. No tienen ninguna idea del interior o del exterior del globo. Pero
ahora su espacio es flexible, así que la distancia entre puntos puede cambiar
con el tiempo cuando se estira la goma.
Sobre el globo, repartidas de manera más o menos uniforme, hay marcas
que representan las galaxias. Si el globo se expande, las galaxias se separan.
Si se contrae, las galaxias se acercan. Todo esto es bastante fácil de
entender. La parte difícil es el salto de dos a tres dimensiones. La teoría de
Einstein describe un mundo en el que el espacio es flexible y extensible pero
tiene la forma global de una 3-esfera.
Añadamos ahora el elemento de la atracción gravitatoria. Según las
teorías de la gravedad de Newton y de Einstein, cada objeto en el universo
atrae a cualquier otro objeto con una fuerza proporcional al producto de sus
masas e inversamente proporcional al cuadrado de la distancia entre ellos. A
diferencia de las fuerzas eléctricas, que son unas veces atractivas y otras
repulsivas, la gravedad es siempre atractiva. El efecto de la
atracción gravitatoria es acercar las galaxias y contraer el universo. Un efecto
similar existe en la superficie de un globo real, a saber, la tensión en la
goma que trata de contraer el globo. Si usted quiere ver el efecto de la
tensión, simplemente clave un alfiler en la goma.
A menos que otra fuerza contrarreste la atracción gravitatoria, las
galaxias deberían empezar a moverse aceleradamente unas hacia otras, colapsando
el universo como un globo pinchado. Pero en 1917 se pensaba que el universo era
estático, invariable. Los astrónomos, igual que la gente corriente, miraban al
cielo y no veían ningún movimiento de las estrellas distantes (aparte del
debido al movimiento de la Tierra). Einstein sabía que un universo estático era
imposible si la gravedad era universalmente atractiva. Un universo estático es
como una piedra que se cierne sobre la superficie de la Tierra completamente
inmóvil. Si se arrojase la piedra verticalmente hacia arriba, una ojeada fugaz
la vería ascendiendo o descendiendo. Incluso podría atraparla en el instante
preciso en que invertía su movimiento. Lo que la piedra no puede hacer es
mantenerse eternamente a una altura fija. Mejor dicho, no puede hacerlo a menos
que otra fuerza esté actuando sobre la piedra oponiéndose a la atracción
gravitatoria de la Tierra. Exactamente de la misma manera, un universo estático
desafía la ley universal de la atracción gravitatoria.
Lo que Einstein necesitaba era una modificación de su teoría que
proporcionara una fuerza compensadora. En el caso del globo, la presión del
aire que hay dentro es la fuerza que contrarresta la tensión en la goma. Pero
el universo real no tiene un interior con aire. Sólo está la superficie. Por
ello Einstein razonó que debe de haber algún tipo de fuerza repulsiva que
contrarreste la atracción gravitatoria. ¿Podría haber una posibilidad oculta de
una fuerza repulsiva en la teoría de la relatividad general?
Examinando sus ecuaciones, Einstein descubrió una ambigüedad. Las
ecuaciones podían modificarse, sin destruir su consistencia matemática,
añadiendo un término más. El significado del término adicional era
sorprendente: representaba un añadido a las conocidas leyes de la gravedad, una
fuerza gravitatoria cuya intensidad aumentaba con la distancia. La intensidad
de esta nueva fuerza era proporcional a una nueva constante de la Naturaleza
que Einstein denotó por la letra griega λ (lambda). Desde entonces, la nueva
constante ha sido denominada constante cosmológica y sigue denotándose por λ.
Lo que había llamado especialmente la atención de Einstein era que si se
daba a λ un valor positivo, el nuevo término correspondía a una repulsión
universal que aumentaba en proporción a la distancia. Einstein se dio cuenta de
que podía enfrentar la nueva fuerza repulsiva con la atracción gravitatoria
general. Las galaxias podían mantenerse en equilibrio con una separación que
podía controlarse escogiendo la magnitud de la nueva constante λ. La forma en
que esto funcionaba era simple. Si las galaxias estaban poco espaciadas, su
atracción sería fuerte y se necesitaría una repulsión igualmente fuerte para
mantenerlas en equilibrio. Por el contrario, si la distancia entre las galaxias
fuera tan grande que apenas sintieran los campos gravitatorios de las demás,
sólo se necesitaría una repulsión débil. Por consiguiente, Einstein argumentaba
que el tamaño de la constante cosmológica debería estar íntimamente relacionado
con la distancia media entre las galaxias. Aunque desde una perspectiva
matemática la constante cosmológica podía ser cualquier cosa, si se conociera
la distancia media entre las galaxias podría determinarse fácilmente. De hecho,
en esa época Hubble estaba ocupado en medir la distancia entre galaxias.
Einstein creyó que tenía el secreto del universo. Era un mundo que se mantenía
en equilibrio por la competición entre fuerzas atractivas y repulsivas.
Hay muchos puntos erróneos en esta teoría. Desde el punto de vista
teórico, el universo que Einstein había construido era inestable. Estaba en
equilibrio pero en equilibrio inestable. La diferencia entre
equilibrio estable e inestable no es difícil de entender. Pensemos en un
péndulo. Cuando el péndulo está vertical y el peso está en su punto más bajo,
el péndulo está en equilibrio estable. Esto significa que si se perturba un
poco, dándole por ejemplo un ligero empujón, volverá a su posición original.
Imaginemos ahora que ponemos el péndulo invertido de modo que el peso
está delicadamente equilibrado en la posición superior. Si se modifica
ligeramente, quizá por nada más que la brisa del aleteo de una mariposa, la
perturbación seguirá aumentando y el péndulo caerá. Además, la dirección en que
caiga será impredecible. El universo estático de Einstein era como el péndulo
invertido inestable. La más mínima perturbación haría que creciera de forma
explosiva o que implosionara como un globo pinchado. Yo no sé si Einstein pasó
por alto este punto elemental o si simplemente decidió ignorarlo.
Pero lo peor de la teoría era que estaba tratando de explicar algo que
simplemente no era cierto. Irónicamente, no había necesidad del nuevo término.
Hubble, que trabajaba con el telescopio de cien pulgadas del Monte Wilson en el
sur de California, descubrió que el universo no estaba en reposo [29]. Las
galaxias se estaban alejando unas de otras y el universo se estaba expandiendo
como un globo que se hincha. Las fuerzas no necesitaban anularse, y el término
cosmológico, que no añadía nada a la belleza de las ecuaciones, podía
descartarse haciéndolo cero.
Pero, una vez abierta, la caja de Pandora no podía cerrarse tan
fácilmente.
La constante cosmológica es equivalente a otro término que puede ser más
fácil de representar: la energía del vacío [30] . Usted recordará este término de la discusión con la que me encontré en
la Belfer School. La energía del vacío parece una contradictio in
termini. El vacío es espacio vacío. Por definición esta vacío, así que
¿cómo puede tener energía alguna? La respuesta está en la extrañeza que trae al
mundo la mecánica cuántica, la extraña incertidumbre, la extraña granulación y
la extraña agitación incesante. Incluso el espacio vacío tiene sus «agitaciones
cuánticas». Los físicos teóricos están acostumbrados a considerar que el vacío
está lleno de partículas que aparecen y desaparecen tan rápidamente que no
podemos detectarlas en condiciones normales. Estas fluctuaciones del vacío son
como un ruido de muy alta frecuencia que está mucho más allá de lo que el oído
humano puede detectar. Pero las fluctuaciones del vacío tienen un efecto sobre
los átomos que, como los perros, están mucho mejor sintonizados a las altas
frecuencias. Los niveles precisos de energía del átomo de hidrógeno pueden
medirse con exquisita precisión y los resultados son sensibles a la presencia
del mar fluctuante de electrones y positrones en el vacío.
Estas extrañas y violentas fluctuaciones del vacío son consecuencias de
la teoría cuántica de campos y pueden visualizarse utilizando los intuitivos
diagramas de Feynman. Imaginemos un espacio-tiempo completamente vacío
inicialmente sin una sola partícula. Las fluctuaciones cuánticas pueden crear
partículas durante un corto intervalo de tiempo, como en las figuras
siguientes.
El primer diagrama muestra un electrón y un positrón creados
espontáneamente de la nada y que luego se anulan cuando se juntan. También se
puede considerar como un electrón que recorre un lazo cerrado en el
espacio-tiempo, al ser el positrón similar a un electrón que se mueve hacia
atrás en el tiempo. El segundo diagrama muestra a dos fotones creados
espontáneamente y luego anulados. El último diagrama es como el primero excepto
que un fotón salta entre el electrón y el positrón antes de que desaparezcan. Son
posibles un número infinito de «diagramas de vacío» cada vez más complejos,
pero estos tres son más o menos representativos.
¿Cuánto duran los electrones y los positrones? Aproximadamente una
milésima de trillonésima de segundo. Imaginemos ahora que estos diagramas se
dan en todo el espacio-tiempo, llenándolo con poblaciones rápidamente
fluctuantes de partículas elementales. Estas partículas cuánticas de corta vida
que llenan el vacío se denominan partículas virtuales, pero sus
efectos pueden ser muy reales. En concreto, hacen que el vacío tenga energía.
El vacío no es el estado de energía cero. Es simplemente un estado de mínima
energía.
§. Vuelta a la constante cosmológica
Ahora un lector inteligente podría preguntar: «¿A quién le preocupa si
el vacío tiene energía? Si esa energía está siempre presente, ¿por qué no
reajustamos simplemente nuestra definición de energía restándola?». La razón es
que la energía gravita. Para entender el significado de esta frase,
hay que recordar dos piezas fáciles de la física. La primera es (prometí que no
habría ecuaciones, pero creo que se me excusará por ésta). E = mc2.
Incluso los escolares conocen esta famosa fórmula que expresa la equivalencia
entre masa y energía. Masa y energía son en realidad lo mismo. Simplemente
están expresadas en unidades diferentes; para pasar de masa a energía, se
multiplica por el cuadrado de la velocidad de la luz.
La segunda pieza fácil es la ley de la gravedad de Newton, ligeramente
parafraseada en esta forma: «La masa es la fuente del campo gravitatorio». Ésta
es una manera de decir que la presencia de una masa, como el Sol, afecta al
movimiento de los objetos vecinos. Podemos decir que o bien el Sol afecta al
movimiento de la Tierra o, en términos más imaginativos, que el Sol crea un
campo gravitatorio que a su vez influye en el movimiento de otros objetos como
los planetas.
Cuantitativamente, la ley de Newton nos dice que la magnitud del campo
del Sol es proporcional a la masa del Sol. Si el Sol fuera cien veces más
pesado, su campo sería cien veces más intenso y la fuerza sobre la Tierra sería
cien veces mayor. Eso es lo que significa decir «La masa es la fuente del campo
gravitatorio».
Pero si energía y masa son lo mismo, esta frase también podría leerse:
«La energía es la fuente del campo gravitatorio». En otras palabras, todas las
formas de la energía afectan al campo gravitatorio y, por consiguiente,
influyen también en el movimiento de masas vecinas. La energía del vacío de la
teoría cuántica de campos no es una excepción. Incluso el espacio vacío tendrá
un campo gravitatorio si la densidad de energía del vacío no es nula. Los
objetos se moverán a través del espacio vacío como si hubiera una fuerza sobre
ellos. Lo interesante es que si la energía de vacío es un número positivo, su
efecto es una repulsión universal, una especie de antigravedad que tendería a
separar las galaxias. Esto, recordará usted, es exactamente lo que hemos dicho
antes de la constante cosmológica.
Este punto es tan importante que prefiero detenerme y explicarlo de
nuevo. Si, de hecho, el espacio vacío está lleno con energía de vacío (o masa
de vacío), ejercerá fuerzas sobre los objetos que serán indistinguibles de los
efectos de la constante cosmológica de Einstein. La hija mal concebida de
Einstein no es otra cosa que el contenido de energía del vacío cuántico
fluctuante. Al decidir eliminar la constante cosmológica de sus ecuaciones,
Einstein estaba afirmando, en efecto, que no hay realmente energía del vacío.
Pero desde una perspectiva moderna, tenemos muchas razones para creer que las
agitaciones cuánticas dan lugar inevitablemente a energía en el espacio vacío.
Si realmente hay una constante cosmológica, o energía del vacío, hay
límites severos a su magnitud. Si fuera demasiado grande, conduciría a
distorsiones detectables de las trayectorias de los cuerpos astronómicos. La
constante cosmológica, si no nula, debe de ser muy pequeña. El problema es que
una vez que identificamos la constante cosmológica con la energía del vacío,
nadie tiene ninguna idea de por qué debería ser cero o siquiera pequeña.
Evidentemente, combinar la teoría de las partículas elementales con la teoría
de la gravedad de Einstein es algo muy arriesgado. Parece llevar a un universo
poco prometedor con una constante cosmológica de demasiados órdenes de
magnitud.
Cada tipo de partícula elemental está presente en el mar violentamente
fluctuante de partículas reales denominado vacío. En este mar hay electrones,
positrones, fotones, quarks, neutrinos, gravitones y mucho más. La energía del
vacío es la suma total de las energías de todas estas partículas reales, donde
cada tipo de partícula hace su aportación. Algunas de las partículas reales se
están moviendo lentamente y tienen poca energía, mientras que otras se mueven
más rápidamente y tienen una energía mayor. Si sumamos todas las energías en
este mar de partículas utilizando las técnicas matemáticas de la teoría
cuántica de campos, llegamos a un desastre. Hay tantas partículas reales de
alta energía que la energía total es infinita. Infinito es una respuesta sin sentido.
Es lo que hacía que Dirac fuera escéptico sobre la energía del vacío. Pero como
decía Wolfgang Pauli, un contemporáneo de Dirac, «Sólo porque algo sea infinito
no quiere decir que sea cero».
El problema es que hemos sobreestimado los efectos de partículas reales
muy energéticas. Para dar sentido a las expresiones matemáticas, tenemos que
trabajar mejor para dar cuenta de sus efectos. Pero no entendemos mucho del
comportamiento de las partículas cuando su energía supera un cierto punto. Los
físicos han utilizado aceleradores gigantes para estudiar las propiedades de
partículas de muy alta energía, pero todo acelerador tiene un límite. Incluso
las ideas teóricas pierden fuelle en algún punto. Finalmente llegamos a un
valor de la energía tan grande que si colisionasen dos partículas con dicha
energía, crearían un agujero negro. En este punto estamos mucho más allá de lo
que podemos entender con las herramientas actuales. Ni siquiera la teoría de cuerdas
es apta para la tarea. Así que aceptamos un compromiso. Simplemente ignoramos
las contribuciones (a la energía del vacío) de todas las partículas reales cuya
energía es tan grande que formarían un agujero negro si colisionaran. A esto le
llamamos cortar las divergencias o regularizar la teoría. Pero cualesquiera que
sean las palabras que utilicemos, el significado es el mismo: simplemente
acordamos ignorar los efectos de partículas reales de muy alta energía que
todavía no entendemos.
Se trata de una situación nada satisfactoria, pero una vez que obramos
así, podemos estimar la energía del vacío almacenada en electrones, fotones,
gravitones y todas las demás partículas conocidas. El resultado ya no es
infinito, pero tampoco es pequeño. El julio es una unidad normal de energía. Se
necesitan unos cuatro mil julios para elevar un grado centígrado la temperatura
de un litro de agua. Un centímetro cúbico es una unidad habitual de volumen. Es
aproximadamente tan grande como la punta de su meñique. En el mundo corriente
el julio por centímetro cúbico es una unidad útil de densidad de energía.
Entonces, ¿cuántos julios de energía del vacío hay en forma de fotones reales
en un volumen de espacio tan grande como la punta de su meñique? La estimación
que da la teoría cuántica de campos es tan grande que necesita un 1 seguido de
116 ceros: ¡10 elevado a la potencia 116! Esa cantidad de julios de energía de
vacío está en su meñique en forma de fotones virtuales. Es una energía mucho
mayor que la que se necesitaría para hacer hervir toda el agua en el universo.
Es una energía mucho mayor que la que radiará el Sol en un millón o mil
millones de años. Es una energía mucho mayor que la que todas las estrellas en
el universo observable radiarán en toda su vida.
La repulsión gravitatoria debida a tanta energía del vacío sería
desastrosa. Desgarraría no sólo las galaxias, sino también los átomos, los
núcleos e incluso los protones y los neutrones que constituyen el material
galáctico. La constante cosmológica, si existe, debe de ser mucho más pequeña
para evitar un conflicto con todas las cosas que sabemos de la física y la
astronomía.
Ahora bien, ésta es sólo la energía del vacío debida a un tipo de
partícula, los fotones. ¿Qué pasa con los electrones reales, los quarks y todas
las demás? Ellas también fluctúan y crean energía del vacío. La cantidad
precisa de energía de cada tipo de partícula es sensible a la masa de dicha
partícula tanto como a las diversas constantes de acoplamiento. Cabría esperar
que si sumáramos la contribución de los electrones, la energía sería aún mayor.
Pero eso no es necesariamente correcto. Los fotones y otras partículas
similares aportan energía positiva al vacío. Uno de esos hechos paradójicos
cuánticos es que los electrones virtuales en el vacío tienen energía negativa.
El fotón y el electrón pertenecen a dos clases de partículas que crean energías
opuestas en el vacío.
Estos dos tipos de partículas son bosones y fermiones.
Para nuestros objetivos no es tan importante conocer la diferencia detallada
entre los dos, pero aun así necesitaré un párrafo o dos para explicarlo. Los
fermiones son partículas como el electrón. Si usted sabe algo de química
recordará el principio de exclusión de Pauli. Dice que dos electrones en el
átomo no pueden ocupar el mismo estado cuántico. Por esto es por lo que la
tabla periódica tiene la estructura que tiene. A medida que se añaden electrones
a un átomo, llenan capas atómicas cada vez más altas. Esto es propio de todas
las partículas fermiónicas. Dos fermiones del mismo tipo no pueden ocupar el
mismo estado cuántico. Son eremitas aislacionistas.
Los bosones son lo contrario, las partículas sociables. Los fotones son
bosones. Es especialmente fácil tener muchos bosones en el mismo estado. De
hecho, un haz láser es una intensa colección de fotones, todos ellos en el
mismo estado cuántico. No se puede construir un láser que dé un haz de
fermiones. Por otra parte, no se pueden hacer átomos a partir de bosones, al
menos no átomos que tengan una tabla periódica.
¿Qué tiene que ver todo esto con la energía del vacío? La respuesta es
que los bosones reales en el vacío tienen energía positiva, pero los fermiones
reales como el electrón tienen energía negativa. Las razones son técnicas, pero
aceptémoslas de momento: la energía del vacío fermiónica y la energía del vacío
bosónica pueden cancelarse porque tienen signos opuestos.
Así que si contamos todos los tipos de fermiones y bosones en la
Naturaleza —fotones, gravitones, gluones, bosones W, bosones Z y partículas de
Higgs en el lado bosónico; neutrinos, electrones, muones, quarks en el lado
fermiónico—, ¿se anulan? ¡Ni de lejos! La verdad es que no tenemos ni idea de
por qué la energía del vacío no es enorme, de por qué no es suficientemente
grande como para desgarrar los átomos, los protones y los neutrones y todos los
demás objetos conocidos.
De todas formas, los físicos han sido capaces de construir teorías
matemáticas de mundos imaginarios en los que las contribuciones positivas de
los bosones anulan exactamente la energía negativa del vacío de los fermiones.
Es simple. Todo lo que hay que hacer es asegurar que las partículas se den por
pares: un fermión por cada bosón, un bosón por cada fermión, cada uno con
exactamente la misma masa. En otras palabras, el electrón tendría un gemelo, un
bosón, con exactamente las mismas masa y carga que el electrón. El fotón
tendría también un gemelo, un fermión sin masa. En el lenguaje arcano de la
física teórica, un ajuste de este tipo, entre una cosa y otra, se
denomina simetría. El ajuste entre objetos y sus imágenes
especulares se denomina simetría de reflexión. El ajuste entre partículas y sus
antipartículas se denomina simetría de conjugación de carga. Siguiendo la
tradición, nos referimos al ajuste fermión-bosón (en este mundo ficticio) de
partículas elementales como una simetría. La palabra más pluriempleada en el
vocabulario del físico es súper: superconductores, superfluidos,
supercolisionador, supersaturado, teoría de supercuerdas. Los físicos no suelen
plantearse desafiados verbales, pero el único término en el que podrían pensar
para la hermandad fermión-bosón era supersimetría. Las teorías
supersimétricas no tienen energía del vacío porque los fermiones y los bosones
se anulan.
Pero súper o no, la simetría fermión-bosón no es propia del mundo real.
No hay supercompañera del electrón o de ninguna otra partícula elemental. Las
energías del vacío de fermiones y bosones no se anulan, y la conclusión es que
nuestra mejor teoría de las partículas elementales predice una energía del
vacío cuyos efectos gravitatorios serían demasiado grandes. No sabemos qué
hacer con ello. Déjeme poner la magnitud del problema en perspectiva.
Inventemos unidades en las que 10116 julios por centímetro cúbico
se considera la unidad. Entonces cada tipo de partícula da una energía del
vacío de aproximadamente una unidad. El valor exacto depende de la masa y de
otras propiedades de la partícula. Algunas partículas dan un número positivo de
unidades, y otras, un número negativo. Deben sumarse todas para dar una
densidad de energía increíblemente pequeña en unidades. De hecho, una densidad
de energía del vacío mayor que
0,00000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000001
unidades entraría en conflicto con los datos astronómicos. Para que un
montón de números, ninguno de ellos especialmente pequeño, se anulen mutuamente
con tal precisión se necesitaría una coincidencia numérica tan increíblemente
absurda que debe de haber otra respuesta.
Los físicos teóricos y los cosmólogos observacionales han considerado el
problema de forma diferente. En general, los cosmólogos tradicionales han
mantenido una mentalidad abierta hacia la posibilidad de que haya una minúscula
constante cosmológica. En el espíritu de los científicos experimentales, la han
considerado un parámetro a medir. Los físicos, yo mismo incluido, consideraban
el absurdo de la coincidencia exigida y se decían a sí mismos (y a los demás)
que debe de haber alguna razón matemática profundamente oculta por la que la
constante cosmológica sea exactamente cero. Esto parecía más
probable que una anulación numérica de 119 cifras decimales sin ninguna buena
razón. Hemos buscado infructuosamente esa explicación durante casi medio siglo.
Los teóricos de cuerdas son una raza especial de físicos teóricos con opiniones
muy fuertes sobre este problema. La teoría en la que trabajan ha producido a
menudo milagros matemáticos inesperados, anulaciones perfectas por razones
profundas y misteriosas. Su visión (y hasta hace no mucho tiempo también era la
mía) ha sido que la teoría de cuerdas es una teoría tan especial que debe ser
la teoría verdadera de la Naturaleza. Y siendo verdadera, debe de haber una
profunda razón matemática para el hecho supuesto de que la energía del vacío es
exactamente cero. Encontrar la razón ha sido considerado el problema más
grande, más importante y más difícil de la física moderna. Ningún otro fenómeno
ha intrigado durante tanto tiempo a los físicos como éste. Todos los intentos,
sea en teoría cuántica de campos o en teoría de cuerdas, ha fracasado.
Verdaderamente es la madre de todos los problemas de la física.
§. Weinberg pronuncia la palabra A
A mediados de los años ochenta, los físicos llevaban décadas rascándose
su cerebro colectivo por culpa de la constante cosmológica y habían salido con
las manos completamente vacías. Situaciones desesperadas requieren medidas
desesperadas y, en 1987, Steven Weinberg, uno de los científicos más eminentes
del mundo, actuó con desesperación. Dejando de lado cualquier precaución,
sugirió lo impensable: quizá la constante cosmológica es tan pequeña por
razones que no tienen nada que ver con las propiedades especiales de la teoría
de cuerdas ni de cualquier otra teoría matemática. Quizá la razón es que
si X fuera mayor, nuestra propia existencia estaría amenazada.
Este tipo de lógica llevaba el nombre de principio antrópico: alguna propiedad
del universo o las leyes de la física debe ser verdadera porque, si no lo
fuera, no podríamos existir. Hay muchos candidatos para explicaciones
antrópicas:
P:¿Por qué es grande el universo?
P:¿Por qué existe el electrón?
P:¿Por qué el espacio es tridimensional?
R:El universo debe ser tan grande al menos como el Sistema Solar para
que exista un planeta como la Tierra calentado por una estrella como el Sol.
R:Sin electrones no habría átomos ni química orgánica.
R:Hay muchas cosas especiales que suceden en tres dimensiones que no
suceden en otras dimensiones. Un ejemplo es que la estabilidad del Sistema
Solar estaría comprometida en otras dimensiones. Los sistemas solares en un
mundo de cuatro o más direcciones serían muy caóticos y no ofrecerían ambientes
estables durante los miles de millones de años necesarios para que la evolución
biológica haga su trabajo. Peor aún es que las fuerzas entre electrones y
núcleos pegarían los electrones a los núcleos, arruinando la química.
Un universo pequeño, un universo sin electrones o un universo con algún
otro número de dimensiones serían un universo estéril que no podría mantener
criaturas inteligentes que plantearan siquiera estas preguntas.
Sin duda, algunas aplicaciones legítimas del razonamiento antrópico
están justificadas. Vivimos en la superficie de un planeta y no en la
superficie de una estrella porque la vida no podría existir a temperaturas de
diez mil grados. Pero ¿utilizarlo para explicar una constante fundamental de la
física? La idea de que una constante fundamental fuera determinada apelando a
nuestra propia existencia era anatema para la mayoría de los físicos. ¿Qué
mecanismo podría ajustar una ley de la Naturaleza de modo que pudiera existir
la raza humana? ¿Qué mecanismo, aparte de una apelación a fuerzas
sobrenaturales? Los físicos suelen referirse al principio antrópico como
religión, superstición o «la palabra A», y afirman que ello supone «rendirse».
Steve Weinberg ha sido amigo mío desde que puedo recordar. Oí por
primera vez su voz de barítono en un café mexicano en Berkeley. Era en 1965: el
apogeo del movimiento por la libertad de expresión de Mario Savio, Jefferson
Poland y el movimiento por la libertad sexual, el LSD y las protestas a favor
de la paz en Vietnam. Yo estuve en esos cuatro y en algunas cosas más. Llevaba
el pelo largo y solía vestir con téjanos y una ajustada camiseta negra. Con
veinticinco años, acababa de llegar allí con un reciente doctorado de la
Universidad de Cornell en el estado de Nueva York. Steve tenía poco más de
treinta años. Ambos habíamos crecido en el Bronx y habíamos ido al mismo
instituto, pero allí se acababa el parecido. Cuando yo conocí a Steve, él ya
era un académico distinguido, el modelo de un profesor de Berkeley. Incluso
vestía como un catedrático de Cambridge.
Ese día en el café él era el centro de la escena, pontificando sobre
algo acerca de la historia de Francia o algún otro tema similar. No hace falta
decir que yo estaba dispuesto a llevarle la contraria. Pero una vez que lo
conocí, me di cuenta que Steve tenía el mejor de los atributos, la capacidad de
reírse de sí mismo. Le gustaba ser un hombre importante pero sabía que su
propia autoimportancia tenía su lado ridículo. Como usted puede deducir, a
pesar de nuestros diferentes estilos, yo quiero mucho a Weinberg.
Siempre he admirado la claridad y profundidad de la física de Steven
Weinberg. En mi opinión, él, más que cualquier otro, tiene derecho a ser el
padre del modelo estándar. Pero recientemente he llegado a admirarle todavía
más por su valor e integridad intelectuales. Es una de las voces destacadas
contra el creacionismo y otras formas de pensamiento anticientífico. Pero en
una ocasión fue suficientemente valiente como para expresar una opinión que iba
en contra de los prejuicios científicos de sus colegas. De hecho, era evidente
por sus propios escritos que a él mismo le disgustaba profundamente el
principio antrópico. Imagino que le sonaba muy parecido a lo que algunas
personas llaman ahora diseño inteligente. De todas formas, dado el estado de
desesperación con respecto a la constante cosmológica, él sentía que no podía
ignorar la posibilidad de una explicación antrópica. A su modo, adoptó una vía
práctica, preguntando si una constante cosmológica más grande que el límite
observado de 10 −120 unidades podría ser catastrófica para
el desarrollo de la vida. Si no hubiera manera de que una λ mayor pudiera
inhibir la vida, la existencia de vida no sería importante y los teóricos de
cuerdas podrían seguir tratando de encontrar una elegante solución matemática
al problema. Pero si pudiera encontrarse una razón por la que una constante
cosmológica ligeramente mayor impidiera la vida, habría que tomar en serio el
principio antrópico. Siempre me he preguntado qué es lo que Weinberg quería que
saliera.
Para ser justos, muchos cosmólogos no sólo estaban abiertos al principio
antrópico sino que incluso lo defendían. La conjetura de que la pequeñez de la
constante cosmológica podría ser antrópica ya había aparecido en un libro
pionero de dos cosmólogos, John Barrow y Frank Tipler [31]. Entre
otros que defendían al menos tener una mente abierta estaban sir Martin
Rees, el «astrónomo real» británico, y Andrei Linde y Alex Vilenkin, ambos
famosos cosmólogos rusos que vivían en Estados Unidos. Quizá los cosmólogos
fueran más receptivos a la idea que los físicos, porque una mirada al universo
real, en lugar de a las ecuaciones abstractas, es menos sugerente de
simplicidad y elegancia que de coincidencias numéricas aleatorias y
arbitrarias.
En cualquier caso, Weinberg se propuso ver si podía encontrar una razón
por la que una constante cosmológica mucho mayor que 10−120 unidades
impediría la vida. Para dar una idea del desafío que encaraba podemos preguntar
cómo serían los efectos de tal constante cosmológica sobre los fenómenos
terrestres corrientes. Recordemos que la constante cosmológica se manifiesta
como una repulsión universal. Una fuerza repulsiva entre los electrones y los
núcleos de los átomos cambiarían las propiedades de los átomos. Pero si se
hacen los números, la repulsión debida a una constante cosmológica tan pequeña
sería mucho más pequeña que cualquier cosa que pudiera detectarse a partir de
las propiedades de átomos y moléculas. Una constante cosmológica muchos órdenes
de magnitud mayor que 10 −120 unidades seguiría siendo
demasiado pequeña para tener cualquier efecto sobre la química molecular.
¿Podría una constante cosmológica pequeña afectar a la estabilidad del Sistema
Solar? Una vez más, los efectos son demasiado pequeños para ello en muchos
órdenes de magnitud. No parece haber ninguna manera en la que una constante
cosmológica pudiera afectar a la vida.
De todas formas, Weinberg encontró la forma de detectarla. No tenía que
ver con la física, la química o la astronomía actual sino con la física en la
época en que las galaxias se estaban empezando a formar a partir del material
primordial del universo primitivo. En esa época el hidrógeno y el helio que
constituían la masa del universo estaban repartidos con una distribución casi
perfectamente suave u homogénea. Las variaciones de densidad de un punto a otro
eran casi inexistentes.
Hoy, el universo está lleno de grumos de muchos tamaños diferentes:
desde planetas y asteroides pequeños hasta supercúmulos de galaxias gigantes.
Si en el pasado las condiciones hubieran sido perfectamente homogéneas, no
podrían haberse formado grumos. La simetría perfecta de un universo exactamente
esférico se hubiera mantenido para siempre. Pero el universo no era exactamente
homogéneo. En los tiempos más tempranos que podemos ver, variaciones ligeras en
la densidad y la presión equivalían a unas pocas partes en cien mil. En otras
palabras, las variaciones en densidad eran cien mil veces menores que la propia
densidad. La tendencia de la gravedad a causar aglomeración no se mide por la
densidad global de materia sino por estas pequeñas variaciones.
Incluso estas irregularidades infinitesimales fueron suficientes para
iniciar el proceso de formación de galaxias. Conforme avanzaba el tiempo,
regiones con una ligera sobredensidad atraían la materia de las regiones menos
densas. Esto tuvo el efecto de amplificar los ligeros contrastes de densidad.
Con el tiempo, el proceso se aceleró y se formaron las galaxias.
Pero puesto que estos contrastes de densidad eran inicialmente tan
pequeños, incluso una repulsión minúscula podría invertir la tendencia a la
aglomeración. Weinberg encontró que si la constante cosmológica fuera tan sólo
un orden de magnitud o dos mayor que la cota empírica, ¡nunca se habrían
formado galaxias, estrellas o planetas!
§. El caso de λ negativa
Hasta aquí le he hablado de los efectos repulsivos que acompañan a una
energía del vacío positiva. Pero supongamos que la contribución de los
fermiones superara a la de los bosones: la energía neta del vacío sería un
número negativo. ¿Es esto posible? Si lo es, ¿cómo afecta a los argumentos de
Weinberg?
La respuesta a la primera pregunta es sí, puede suceder muy fácilmente.
Todo lo que se necesita es un número de partículas de tipo fermión un poco
mayor que el de bosones y la constante cosmológica puede hacerse negativa. La
segunda pregunta tiene una respuesta igualmente simple: un cambio en el signo
de λ transforma los efectos repulsivos de una constante cosmológica en una
atracción universal; pero ésta ya no es la fuerza gravitatoria atractiva normal
sino una fuerza que aumenta con la distancia. Para argumentar de forma
convincente que una constante cosmológica grande haría automáticamente el
universo inhabitable, necesitamos demostrar que la vida no podría formarse si
la constante cosmológica fuera grande y negativa.
¿Cómo sería el universo si las leyes de la Naturaleza quedaran
inalteradas salvo por la presencia de una constante cosmológica negativa? La
respuesta es más fácil incluso que en el caso de la λ positiva.
La fuerza atractiva adicional aplastaría con el tiempo el movimiento
hacia afuera de la expansión de Hubble: el universo invertiría su movimiento y
empezaría a desaparecer como un globo pinchado. Galaxias, estrellas, planetas y
toda la vida quedarían aplastados en un big crunch final. Si
la constante cosmológica negativa fuera demasiado grande, el «crujido» no
permitiría los miles de millones de años necesarios para que evolucione vida
como la nuestra. Así pues, existe una cota antrópica para la λ negativa además
de la cota positiva de Weinberg. De hecho, los números son bastante similares.
Si la constante cosmológica es negativa, tampoco debe de ser mucho más
grande que 10−120 unidades si la vida va a tener alguna
posibilidad de evolución.
Nada de lo que hemos dicho impide que existan universos de bolsillo
lejos del nuestro con una gran constante cosmológica positiva o negativa. Pero
no son lugares donde la vida es posible. En los que tienen una gran λ positiva,
todo se separa tan rápidamente que no hay oportunidad para que la materia se
agrupe en estructuras como galaxias, estrellas, planetas, átomos o siquiera
núcleos. En los bolsillos con λ grande y negativa, la expansión del universo se
invierte rápidamente y aplasta cualquier esperanza de vida.
El principio antrópico había superado el primer test. De todas formas,
la actitud general de los físicos teóricos hacia el trabajo de Weinberg fue
ignorarlo. Los físicos teóricos tradicionales no querían nada del principio
antrópico. Parte de esta actitud negativa derivaba de una falta de cualquier
acuerdo en lo que significaba el principio. Para algunos olía a creacionismo y
a la necesidad de un agente sobrenatural para ajustar las leyes de la
Naturaleza en beneficio del hombre: una idea amenazadora y anticientífica.
Pero, en mayor medida, el malestar de los teóricos con la idea tenía que ver
con sus esperanzas en un único sistema consistente de leyes físicas en el que
todas las constantes de la Naturaleza, incluyendo la constante cosmológica,
fuera predecible a partir de algún elegante principio matemático.
Pero Weinberg llevó la vía práctica un poco más lejos. Dijo que
cualquiera que fuera el significado del principio antrópico y el mecanismo
responsable del mismo, una cosa estaba clara. El principio puede decirnos que λ
es suficientemente pequeña para no matarnos, pero no hay ninguna razón por la
que debiera ser exactamente cero. De hecho, no hay ninguna razón para que sea
mucho más pequeña que lo que se necesitaría para asegurar la vida. Sin
preocuparse por el significado más profundo del principio, Weinberg estaba
haciendo de hecho una predicción. Si el principio antrópico es correcto, los
astrónomos descubrirían que la energía del vacío no era nula y probablemente no
mucho más pequeña que 10−120 unidades.
§. La longitud de Planck
El proceso de descubrimiento siempre me ha fascinado. Me refiero al
proceso mental: ¿cuál fue la línea de razonamiento —la intuición— que llevó al
momento «¡Eureka!»? Uno de mis sueños favoritos es ponerme en la mente de un
gran científico e imaginar cómo yo podría haber hecho un descubrimiento
crucial.
Permítame compartir con usted cómo habría hecho yo la primera gran
contribución a la teoría cuántica de la gravedad. Dieciséis años antes de que
el joven Einstein inventara la teoría moderna de la gravedad y veintiséis años
antes de que esos advenedizos, Werner Heisenberg y Schrödinger, inventaran la
moderna mecánica cuántica, en la práctica, yo, Max Planck, lo hice sin siquiera
darme cuenta.
Berlín 1900, el Instituto Kaiser Wilhelm.
No hace mucho tiempo hice el descubrimiento más maravilloso de una
constante fundamental de la Naturaleza completamente nueva. La gente la llama
mi constante, la constante de Planck. Yo estaba sentado en mi
despacho preguntándome esto: ¿por qué las constantes fundamentales como la
velocidad de la luz, la constante gravitatoria de Newton y mi nueva constante
tienen valores tan complicados? La velocidad de la luz es 2,99 × 108 metros
por segundo. La constante de Newton es 6,7 × 10 −11 metros
cúbicos partido por kilogramo y por segundo al cuadrado. Y mi constante es
incluso peor, 6,626 × 10−34 kilogramos por metro cuadrado
partido por segundo. ¿Por qué son siempre tan grandes o tan pequeñas? La vida
para un físico sería mucho más fácil si fueran números de tamaño corriente.
¡Entonces me vino la idea! Hay tres unidades básicas que describen
longitud, masa y tiempo: el metro, el kilogramo y el segundo. Hay también tres
constantes fundamentales. Si cambio las unidades, digamos, a centímetros,
gramos y horas, cambiarán los valores numéricos de las tres constantes. Por
ejemplo, la velocidad de la luz será peor. Se convertirá en 1,08 × 1014 centímetros
por hora. Pero si utilizo años para el tiempo y años luz para la distancia, la
velocidad de la luz será exactamente uno puesto que la luz recorre un año luz
por año. ¿No significa eso que puedo idear unas nuevas unidades y hacer de las
tres constantes fundamentales lo que yo quiera? Puedo incluso encontrar
unidades en las que las tres constantes fundamentales de la física sean iguales
a uno. Eso simplificaría muchas fórmulas. Llamaré a las nuevas unidades
«unidades naturales», puesto que están basadas en las constantes de la
naturaleza. Quizá si tengo suerte, la gente empezará a llamarlas unidades de
Planck.
§. Calcular, calcular, calcular…
¡Ah!, he aquí mi resultado: la unidad natural de longitud es de
aproximadamente 10−33 centímetros. ¡Santo Bernoulli! Eso es más
pequeño que cualquier cosa en que jamás haya pensado. Algunas de esas personas
que creen en los átomos dicen que quizá tengan unos 10 −8 centímetros
de diámetro. ¡Eso significa que mi nueva unidad natural es tan pequeña
comparada con un átomo como un átomo lo es comparado con una galaxia!.
¿Cuánto vale la unidad natural de tiempo? Sale del orden de 10 −42 segundos.
Eso es inimaginablemente pequeño. Incluso el tiempo de oscilación de una onda
luminosa de alta frecuencia es inmensamente mayor que una unidad natural de
tiempo.
Y ahora la masa: ¡ah!, la unidad de masa no es tan extraña. La unidad
natural de masa es pequeña pero no mucho. Es 10−5 gramos:
aproximadamente la masa de una mota de polvo. Estas unidades deben de tener
algún significado especial. Todas las fórmulas de la física son mucho más
simples si trabajo en unidades naturales. Y me pregunto ¿qué significa esto?
Así es cómo Planck hizo uno de los grandes descubrimientos de la
mecánica cuántica sin darse cuenta.
Planck vivió cuarenta y siete años más, hasta los noventa y ocho, pero
no creo que imaginara siquiera el profundo impacto que iba a tener su
descubrimiento de las unidades de Planck en las siguientes generaciones de
físicos. En 1947, la teoría de la relatividad general y la mecánica cuántica
eran partes de los fundamentos básicos de la física, pero apenas nadie había
empezado a pensar en la síntesis de las dos: la gravedad cuántica.
Las tres unidades de Planck de longitud, masa y tiempo fueron decisivas en el
desarrollo de la disciplina pero, incluso ahora, tan sólo estamos empezando a
comprender la profundidad de su significado. Daré algunos ejemplos de su
importancia.
Antes discutimos el hecho de que, en la teoría de Einstein, el espacio
es extensible y deformable como la superficie de un globo. Puede extenderse
plano y uniforme o puede estar arrugado y con baches. Combinemos esta idea con
la mecánica cuántica y el espacio se hace muy poco familiar. Según los
principios de la mecánica cuántica, todo lo que puede fluctuar fluctúa. Si el
espacio es deformable, incluso él tiene «agitaciones cuánticas». Si pudiéramos
mirar a través de un microscopio muy potente, veríamos el espacio fluctuando,
agitándose y resplandeciendo, retorciéndose en nudos y formando agujeros de
donut. Sería como un trozo de tela o papel. En conjunto parece plano y suave,
pero si se mira a nivel microscópico, la superficie está llena de pozos,
baches, fibras y agujeros. El espacio es así pero peor. No sólo aparece lleno
de textura sino de textura que fluctúa con increíble rapidez.
¿Qué potencia tendría que tener el microscopio para ver la textura
fluctuante del espacio? Lo ha adivinado. El telescopio tendría que discernir
características cuyo tamaño es la longitud de Planck, por ejemplo, 10−33 centímetros.
Ésta es la escala de la textura cuántica del espacio.
¿Y cuánto duran las características antes de transformarse en algo
nuevo? De nuevo usted puede adivinar la respuesta: la escala de tiempo de estas
fluctuaciones es el tiempo de Planck, 10−42 segundos. Muchos
físicos piensan que hay un sentido en el que la longitud de Planck es la
distancia más pequeña que puede resolverse. Del mismo modo, el tiempo de Planck
puede ser el intervalo más corto de tiempo.
No dejemos fuera la masa de Planck. Para entender su importancia,
imaginemos dos partículas que colisionan con tanta fuerza que crean un agujero
negro en el punto de colisión. Sí, puede suceder; dos partículas que
colisionan, si tienen suficiente energía, desaparecerán y dejarán tras de sí un
agujero negro, uno de esos objetos misteriosos que ocuparán el capítulo 11 de
este libro. La energía necesaria para formar dicho agujero negro desempeñó un
papel en nuestra anterior discusión sobre la energía del vacío. ¿Cuánta debe
ser dicha energía (recordando que masa y energía son lo mismo)? La respuesta,
por supuesto, es la masa de Planck. La masa de Planck no es la masa más pequeña
ni la más grande posible, pero es la masa más pequeña posible de un agujero
negro. Dicho sea de paso, un agujero negro con masa de Planck tendría un tamaño
aproximado de una longitud de Planck antes de explotar en fotones y otros
residuos.
Tal como descubrió Planck, su masa es de aproximadamente una
cienmilésima de gramo. Para los patrones corrientes, ésa no es mucha masa;
incluso si la multiplicamos por la velocidad de la luz al cuadrado, no es una
enorme cantidad de energía. Corresponde más o menos a la que hay en un depósito
de gasolina en un automóvil. Pero concentrar tanta energía en dos partículas
elementales que colisionan… eso sí sería una hazaña. Se necesitaría un
acelerador de un tamaño de muchos años luz para hacerlo.
Recordemos que hemos estimado la densidad de energía del vacío debida a
partículas reales. No es sorprendente que la respuesta se traduzca en una masa
de Planck por longitud de Planck cúbica. En otras palabras, la unidad de
densidad de energía que definí como una unidad no era otra cosa que la unidad
de Planck natural de densidad de energía.
El mundo en la escala de Planck es un lugar muy poco conocido, donde la
geometría está cambiando constantemente, el espacio y el tiempo son apenas
reconocibles y las partículas reales de alta energía están colisionando
continuamente y formando minúsculos agujeros negros que no duran más que un
simple tiempo de Planck. Pero es el mundo en el que los teóricos de cuerdas
pasan sus días de trabajo.
Permítame dedicar un poco de espacio y de tiempo a resumir los dos
capítulos difíciles por los que usted ha pasado y el dilema al que llevan. Las
leyes microscópicas de las partículas elementales en forma del modelo estándar
son una base espectacularmente satisfactoria para calcular las propiedades no
sólo de las propias partículas sino de núcleos, átomos y moléculas simples.
Presumiblemente, con un ordenador suficientemente grande y tiempo suficiente,
podríamos calcular todas las moléculas y pasar a objetos aún más complicados.
Pero el modelo estándar es enormemente complejo y arbitrario. De ningún modo se
explica a sí mismo. Hay muchas otras listas de partículas y de constantes de
acoplamiento imaginables que son tan consistentes matemáticamente como las
encontradas en la Naturaleza.
Pero las cosas empeoran. Cuando combinamos la teoría de las partículas
elementales con la teoría de la gravedad, descubrimos el horror de una
constante cosmológica suficientemente grande no sólo para destruir galaxias,
estrellas y planetas sino también átomos e incluso protones y neutrones, a
menos… ¿A menos que qué? A menos que los diversos bosones, fermiones,
masas y constantes de acoplamiento que entran en el cálculo de la energía del
vacío conspiren para anular las 119 primera cifras decimales, pero ¿qué
mecanismo natural podría dar cuenta de un estado de cosas tan improbable?
¿Están las leyes de la física en equilibrio en un filo de navaja increíblemente
fino y, si es así, por qué? Éstas son las grandes preguntas.
En el próximo capítulo discutiremos qué es lo que determina las leyes de
la física y hasta qué punto son únicas. Lo que encontraremos es que dichas
leyes ¡no son únicas en absoluto! Incluso pueden variar de un lugar a otro en
el megaverso. ¿Podría ser que hubiera lugares raros especiales en el megaverso
donde las constantes conspiran de la forma precisa para cancelar la energía del
vacío con precisión suficiente para que exista la vida? La idea de un paisaje
de posibilidades que permite dicha variación es el tema del capítulo 3.
Capítulo 3
La canción de la Tierra
Contenido:
§. Campos
§. Colinas y valles
§. Rodando por el paisaje
«Marinero, ¿nos está alcanzando?». El rostro del capitán estaba sombrío
mientras las gotas de sudor resbalaban por su calva y caían de su barbilla. Las
venas de su antebrazo se hincharon cuando su mano agarró la palanca de control.
«Sí, capitán, me temo que no hay manera de evitarlo. La burbuja está
creciendo y, a menos que mi cálculo sea erróneo, va a engullirnos».
El capitán se asustó y dio un puñetazo en la mesa que tenía delante. «De
modo que así es cómo acaba. Tragados por una burbuja de vacío alterno. ¿Puedes
ver cuáles son las leyes de la física en su interior? ¿Alguna probabilidad de
que podamos sobrevivir?».
«No muchas. Calculo que nuestras probabilidades son de una frente a diez
elevado a la centésima potencia, una en un gugol. Creo que el vacío dentro de
la burbuja puede mantener electrones y quarks, pero la constante de estructura
fina es probablemente demasiado grande. Eso acabará con nuestros núcleos». El
marinero levantó la vista de sus ecuaciones y sonrió compungido. «Incluso si la
constante de estructura fina es correcta, hay una aplastante probabilidad de
que haya un gran “CC”».
«¿CC?».
«Sí, ya sabe, constante cosmológica. Probablemente es negativa y
suficientemente grande como para aplastar nuestras moléculas, así». El marinero
hizo un chasquido con los dedos. «¡Aquí llega! ¡Oh, no!, es
supersimétrica [32]. Ninguna
probabilidad…». Silencio.
Éste era el principio de una historia de ciencia-ficción muy mala que
empecé a escribir. Después de unos pocos párrafos, llegué a la conclusión de
que no tenía mucho talento y abandoné el proyecto. Pero la ciencia puede ser
mucho mejor que la ficción.
Poco a poco ha llegado a ser aceptado por muchos físicos teóricos que
las leyes de la física quizá no sólo sean cambiantes, sino que casi siempre son
letales. En cierto sentido las leyes de la Naturaleza son como el clima de la
Costa Este: tremendamente variables, casi siempre horribles, pero, en raras
ocasiones, toda una delicia. Como tormentas mortales, burbujas de ambientes
extraordinariamente hostiles pueden propagarse a través del universo
destruyendo todo a su paso. Pero en lugares raros y especiales encontramos
leyes de la física perfectamente adecuadas a nuestra existencia. Para entender
cómo llegó a ocurrir que nosotros mismos nos encontremos en un lugar tan
excepcional tenemos que entender las razones para la variabilidad de las leyes
de la física, cuál es el rango de posibilidades y cómo una región del espacio
puede cambiar repentinamente y pasar de tener un carácter letal a uno benigno.
Esto nos lleva al objetivo central de este libro, el paisaje.
Como he dicho, el paisaje es un espacio de posibilidades. Tiene
geografía y topografía con colinas, valles, llanuras, cañones, montañas y
desfiladeros. Pero, a diferencia de un paisaje normal, no es tridimensional. El
paisaje tiene cientos, quizá miles, de dimensiones. Casi todo el paisaje
describe ambientes que son letales para la vida, pero algunos de los valles más
bajos son habitables. El paisaje no es un lugar real. No existe como una
localización real en la Tierra o en ningún otro lugar. No existe en el espacio
ni en el tiempo. Es una construcción matemática, cada uno de cuyos puntos
representa un ambiente posible o, como diría un físico, un vacío posible.
En el uso corriente la palabra vacío significa espacio
vacío, espacio del que se ha extraído todo el aire, vapor de agua u otro
material. Eso es también lo que significa para un físico experimental que
trabaja con tubos de vacío, cámaras de vacío y bombas de vacío. Pero para un
físico teórico, el término vacío tiene muchas más
connotaciones. Significa una especie de fondo en el que tiene lugar el resto de
la física. El vacío representa un potencial para todas las cosas que pueden
suceder en ese fondo. Significa una lista de todas las partículas elementales
tanto como de las constantes de la Naturaleza que se pondrían de manifiesto
mediante experimentos en dicho vacío. En resumen, significa un ambiente en el
que las leyes de la física toman una forma particular. Decimos de nuestro vacío
que puede contener electrones, positrones, fotones y el resto de las partículas
elementales habituales. En nuestro vacío el electrón tiene una masa de 0,51
MeV [33] la
masa del fotón es cero y la constante de estructura fina es 0,007297351. Algún
otro vacío podría tener electrones sin masa, un fotón con una masa de 10 MeV y
ningún quark pero cuarenta tipos diferentes de neutrinos y una constante de
estructura fina igual a 15,003571. Un vacío diferente significa leyes de la
física diferentes; cada punto en el paisaje representa un conjunto de leyes que
son, con toda probabilidad, muy diferentes de las nuestras pero que son, en
cualquier caso, posibilidades consistentes. El modelo estándar es meramente un
punto en el paisaje de posibilidades.
Y si las leyes de la física pueden ser diferentes en otros vacíos,
también puede serlo toda la ciencia. Un mundo con electrones mucho más ligeros
pero fotones mucho más pesados no tendría átomos. Ausencia de átomos significa
ausencia de química, ausencia de tabla periódica, ausencia de moléculas,
ausencia de ácidos, ausencia de bases, ausencia de sustancias orgánicas y, por
supuesto, ausencia de biología.
La idea de universos con leyes de la Naturaleza alternativas parece cosa
de ciencia-ficción, pero la verdad es más trivial de lo que suena.
La tecnología médica moderna produce de manera rutinaria universos
alternativos dentro de máquinas RMI. La abreviatura RMI no era el nombre
original para esta tecnología: reemplazó a RMN, que significa resonancia
magnética nuclear. Pero los pacientes se asustaban por la palabra nuclear y
no querían acercarse. De modo que se cambió el nombre por «imagen por
resonancia magnética» para resaltar los aspectos magnéticos de la tecnología en
lugar de los nucleares. De hecho, los núcleos que están implicados en la RMN no
son núcleos de uranio o de plutonio como en las cabezas nucleares, sino los
propios núcleos del paciente que son suavemente zarandeados por el campo
magnético de la máquina.
Una máquina de RMI es básicamente un cilindro de espacio vacío con una
bobina a su alrededor. Una corriente eléctrica que pasa por la bobina crea un
potente campo magnético en el cilindro. Es en esencia un electroimán muy
fuerte. El paciente en el interior de la máquina de RMI está en un pequeño
universo privado donde, como veremos, las propiedades del vacío son ligeramente
diferentes de las del exterior. Imagine que despertara una mañana dentro de la
máquina, sin saber dónde estaba. Algo parecería ir mal en las leyes de la
física. La cosa más obvia que usted advertiría es que los objetos de hierro se
movían de formas muy extrañas, presentando incluso un serio peligro. Si usted
tuviera una brújula, ésta se quedaría rígidamente bloqueada en una dirección particular.
Probablemente no sería una buena idea tener un televisor en la máquina
de RMI, pero supongamos que usted lo tuviera. La imagen estaría distorsionada
de formas extrañas. Si usted sabe cómo funciona un televisor, atribuiría la
extraña distorsión al movimiento de los electrones. El fuerte campo magnético
que existe dentro del cilindro ejerce fuerzas sobre los electrones que curvan
sus trayectorias; éstas pasan de ser líneas rectas a líneas helicoidales
similares a un sacacorchos. Un físico teórico que conociera los diagramas de
Feynman diría que había algo diferente en el propagador electrónico. El
propagador no es tan sólo una imagen de un electrón que se mueve de un punto a
otro: es también una expresión matemática que describe el movimiento.
Las constantes de la Naturaleza también serían ligeramente inusuales. El
fuerte campo magnético interacciona con el espín de un electrón e incluso
modifica la masa del electrón. Suceden cosas divertidas con los átomos en
fuertes campos magnéticos. Las fuerzas magnéticas sobre los electrones atómicos
hacen que el átomo se comprima ligeramente en direcciones perpendiculares al
campo. Los efectos en una máquina RMI real serían minúsculos, pero si pudiera
hacerse mucho más fuerte el campo magnético, los átomos quedarían estrujados en
hebras parecidas a espaguetis a lo largo de las líneas de campo magnético.
Los efectos del campo magnético también pueden detectarse a partir de
cambios pequeños en los niveles de energía de los átomos y, por consiguiente,
en el espectro de luz que emiten. Hay cambios en la manera exacta en que
electrones, positrones y fotones interaccionan entre sí. Si el campo se hiciera
suficientemente fuerte, incluso los diagramas de vértice estarían afectados. La
constante de estructura fina sería algo diferente y dependería de la dirección
en que se mueve el electrón.
Por supuesto, el campo en la máquina RMI es muy débil y los efectos
sobre las leyes que regulan las partículas cargadas son minúsculos. Si el campo
fuera mucho más fuerte, el paciente se sentiría raro. Un campo suficientemente
fuerte para afectar seriamente a dichas leyes resultaría fatal. Los efectos
sobre los átomos tendrían consecuencias terribles para los procesos químicos y
biológicos.
Hay dos formas de ver esto, ambas correctas. Una es convencional: las
leyes de la física son exactamente las que siempre fueron, pero el ambiente
está modificado por la presencia del campo magnético. La otra manera de
considerarlo es que las leyes para los diagramas de Feynman han sido cambiadas
y algo ha sucedido con las leyes de la física. Quizá lo más preciso que se
puede decir es:
Las leyes de la física están determinadas por el ambiente.
§. Campos
Los campos, como hemos visto, son propiedades invisibles del espacio que
influyen en los objetos que se mueven a través de ellos. El campo magnético es
un ejemplo familiar. Cualquiera que haya jugado con imanes ha descubierto las
misteriosas fuerzas de acción a distancia que ejercen sobre clips, agujas y
clavos de acero. Casi todo el mundo que ha cursado una asignatura de ciencias
en la escuela ha visto el efecto de un campo magnético sobre limaduras de
hierro esparcidas en una superficie en las cercanías de un imán. El campo
ordena las limaduras en largos filamentos que parecen cabellos, alineados a lo
largo de la dirección del campo. Los filamentos siguen líneas matemáticas
llamadas líneas de fuerza del imán o líneas de campo
magnético. El campo magnético tiene dirección en cada punto, pero tiene
también una intensidad que determina qué fuerza ésta ejerciendo el campo sobre
los trozos de hierro. En la máquina RMI el campo es más de diez mil veces más
intenso que el campo magnético de la Tierra.
El campo eléctrico es un pariente próximo, aunque ligeramente menos
familiar, del campo magnético. No tiene efectos observables sobre limaduras de
hierro pero hace que pequeños trozos de papel se muevan cuando hay electricidad
estática en ellos. Los campos eléctricos no son provocados por corrientes
eléctricas sino por acumulaciones de carga eléctrica estática. Por ejemplo,
frotar un material con otro —cuando usted frota las suelas de sus zapatos con
la alfombra es un caso— provoca la transferencia de electrones. Un material se
carga negativamente y el otro positivamente. Los objetos cargados crean un
campo eléctrico a su alrededor que, como los campos magnéticos, tienen
dirección e intensidad.
En definitiva, las leyes de la física son variables porque están
determinadas por campos y los campos pueden variar. Conectar campos magnéticos
y eléctricos es una manera de cambiar las leyes, pero no es ni mucho menos la
única manera de modificar el vacío, ni siquiera la más interesante. La segunda
mitad del siglo XX fue un tiempo de descubrimiento de nuevas partículas
elementales, nuevas fuerzas y, sobre todo, nuevos campos. El campo gravitatorio
de Einstein era uno, pero había muchos más. El espacio puede llenarse con una
amplia variedad de influencias invisibles que tienen todo tipo de efectos sobre
la materia ordinaria. De todos los nuevos campos que se descubrieron, el que
tiene más que enseñarnos sobre el paisaje es el campo de Higgs.
El descubrimiento del campo de Higgs no fue un descubrimiento
experimental en el sentido usual [34]. Los
físicos teóricos descubrieron que el modelo estándar, sin el campo de Higgs, es
matemáticamente inconsistente. Sin él, las reglas de Feynman llevarían a
resultados absurdos tales como probabilidades infinitas e incluso negativas.
Pero a finales de los años sesenta y principios de los setenta del siglo pasado
los teóricos idearon una manera de corregir los problemas añadiendo una
partícula elemental adicional: la partícula de Higgs.
Partícula de Higgs, campo de Higgs… ¿cuál es la conexión entre
partículas y campos que nos lleva a llamarles con el mismo nombre? La idea de
campo apareció por primera vez a mediados del siglo XIX como campo
electromagnético. Michael Faraday imaginaba que un campo era una perturbación
suave en el espacio que afecta a los movimientos de las partículas
eléctricamente cargadas, pero no se suponía que el propio
campo estuviera hecho de partículas. Para Faraday, y Maxwell, que le siguió, el
mundo estaba compuesto de partículas y campos y no había ninguna duda sobre
cuál era cada uno. Pero en 1905 Albert Einstein, al explicar la fórmula de
Planck para la radiación térmica, propuso una teoría extravagante. Einstein
afirmaba que el campo electromagnético estaba compuesto en realidad de un
número muy grande de partículas indivisibles que llegaron a conocerse como
fotones o cuantos [35]. En
pequeño número, los fotones o, lo que es lo mismo, los cuantos de luz se
comportan como partículas, pero cuando muchos de ellos se mueven de una manera
coordinada, la colección total se comporta como un campo: un campo
cuántico. Esta relación entre partículas y campos es muy general. Por cada
tipo de partícula en la Naturaleza hay un campo y por cada tipo de campo hay
una partícula. Así, campos y partículas suelen llevar el mismo nombre. El campo
electromagnético (el nombre colectivo para los campos eléctrico y magnético)
podía denominarse campo de fotones . El electrón tiene un
campo. También lo tienen el quark, el gluón y cada miembro del reparto de
personajes del modelo estándar, incluida la partícula de Higgs.
Cuando digo que el modelo estándar no tiene sentido matemático sin el
campo de Higgs debería matizar la afirmación. La teoría sin el campo de Higgs
es matemática consistente, pero solamente si todas las
partículas se mueven con la velocidad de la luz, como el fotón. Las partículas
que se mueven con la velocidad de la luz no pueden tener masa, de modo que los
físicos ven que el campo de Higgs es necesario para «dar su masa a las partículas
elementales». En mi opinión ésta es una pobre elección de palabras, pero no
puedo pensar en una mejor. En cualquier caso éste es un ejemplo importante de
cómo el valor de un campo puede influir en las constantes de la Naturaleza.
Nadie ha visto nunca una partícula de Higgs, ni siquiera en la forma
indirecta en que los físicos experimentales «ven» partículas. La dificultad no
está en detectarlas sino para empezar en producirlas. El problema no es un
problema fundamental; para producir una partícula tan pesada como la Higgs
simplemente se necesita un acelerador más grande. Pero la partícula de Higgs y
el campo de Higgs son tan importantes para el éxito del modelo estándar que
nadie cuestiona seriamente su existencia [36].
Mientras escribo este libro está a punto de concluirse la construcción de un
acelerador en el Centro Europeo para Investigación Nuclear (CERN) que
fácilmente debería producir la partícula de Higgs. Habrán pasado unos cuarenta
años desde el momento en que la partícula de Higgs fue descubierta inicialmente
por los teóricos hasta el momento de su detección.
Si fuera tan fácil «conectar» el campo de Higgs como lo es conectar el
campo magnético, podríamos cambiar la masa del electrón a voluntad. Aumentar la
masa haría que los electrones atómicos fueran atraídos más cerca del núcleo y
la química cambiaría de forma espectacular. La masa de los quarks que componen
el protón y el neutrón aumentaría y modificaría las propiedades de los núcleos
y, en algún momento, los destruiría por completo. Más perturbador incluso sería
el desplazamiento del campo de Higgs en la otra dirección, que reduciría en
general la masa del electrón. El electrón se haría tan ligero que no podría
estar contenido dentro del átomo. Una vez más, esto no es algo que quisiéramos
hacer donde vivimos. Los cambios tendrían efectos desastrosos y harían el mundo
inhabitable. La mayoría de los cambios importantes en las leyes de la física
serían fatales y en ello hay una historia a la que volveremos una y otra vez.
Variando el campo de Higgs, podemos añadir diversidad al mundo; las
leyes de la física atómica y nuclear también variarán. Un físico de una región
no reconocería por completo las leyes de la física en otra. Pero la variedad
inherente en las variaciones del campo de Higgs es muy modesta. ¿Qué pasaría si
el número de campos variables fuera de varios centenares en lugar de sólo uno?
Esto implicaría un paisaje multidimensional, tan diverso que podría encontrarse
casi cualquier cosa. Entonces podríamos empezar a preguntar qué no es posible
en lugar de qué lo es. Como veremos, esto no es especulación ociosa.
Cada vez que los matemáticos o los físicos tienen un problema que
implica múltiples variables consideran un espacio que representa las
posibilidades. Un ejemplo sencillo es la temperatura del aire. Imaginemos una
línea con una marca que representa 0 °C, cerca de ella un punto que representa
1 °C, otro punto a 2 °C y así sucesivamente. La línea es un espacio
unidimensional que representa los valores posibles de la temperatura. Un punto
a 25 °C representaría un día bello y templado; el punto a 0 °C, un día de
invierno helador. El indicador de temperatura en un termómetro doméstico
corriente es exactamente este tipo de espacio abstracto hecho concreto.
Supongamos que, además de un termómetro, en el exterior de la ventana de
la cocina tenemos también un barómetro para medir la presión del aire. Entonces
podríamos dibujar dos ejes, uno para representar la temperatura y otro para
representar la presión atmosférica. De nuevo, cada punto, ahora en un espacio
bidimensional, representa una posible condición climática. Si quisiéramos aún
más información —por ejemplo, la humedad del aire—, podríamos añadir una
tercera dimensión al espacio de posibilidades: la humedad.
Temperatura, presión y humedad combinadas nos dicen más que sólo
temperatura, presión y humedad sueltas. Nos dicen algo sobre los tipos de
partículas que pueden existir: en este caso, no partículas elementales sino
gotas de agua. Dependiendo de las condiciones, a través de la atmósfera pueden
moverse copos de nieve, gotas líquidas o partículas.
Las leyes de la física son como el «clima del vacío», excepto que en
lugar de la temperatura, presión y humedad, el clima está determinado por los
valores de los campos. Y del mismo modo que el clima determina los tipos de
gotas que pueden existir, el ambiente del vacío determina la lista de
partículas elementales y sus propiedades. ¿Cuántos campos controladores existen
y cómo afectan a la lista de partículas elementales, sus masas y las constantes
de acoplamiento? Algunos de los campos ya son conocidos: el campo eléctrico, el
campo magnético y el campo de Higgs. El resto sólo se conocerán cuando
descubramos más sobre las leyes supremas de la Naturaleza y no sólo el modelo
estándar. Por el momento, nuestra mejor apuesta para estas leyes de nivel
superior —nuestra única apuesta— es la teoría de cuerdas. En los capítulos 7 y
8 veremos que la teoría de cuerdas tiene una respuesta inesperada a la pregunta
de cuántos campos controlan el clima del vacío local. Según el estado actual de
conocimiento, parece que son centenares o incluso miles.
Cualquiera que sea el número de campos, el principio es el mismo.
Imaginemos un espacio matemático con una dirección para cada campo. Si hay diez
campos, el espacio debe de ser decadimensional. Si hay un millar de campos, el
número de dimensiones debería ser de un millar. Este espacio es el paisaje. Un
punto en el paisaje especifica un valor para cada campo: una condición de clima
del vacío. También define un conjunto particular de partículas elementales, sus
masas y leyes de interacción. Si se pudiera mover poco a poco el universo desde
un punto en el paisaje a otro, todas estas cosas cambiarían poco a poco. En
respuesta a estos cambios, también cambiarían las propiedades de átomos y
moléculas.
§. Colinas y valles
Un mapa del terreno real no estaría completo a menos que indicase cómo
varía la altitud de un punto a otro. Éste es el objetivo de un mapa topográfico
con sus curvas de nivel que representan elevación. Aún mejor que un mapa
topográfico sería un modelo de plastilina tridimensional que muestre a escala
reducida las montañas, los valles y las llanuras. Imaginemos que tenemos dicho
modelo delante de nosotros y añadamos una pequeña bola lisa, quizá un perdigón
que pueda rodar por el paisaje modelo. Coloquemos la bola en cualquier parte y
démosle un pequeño empujón: empezará a rodar cuesta abajo hasta que finalmente
se detenga en el fondo de un valle. ¿Por qué lo hace? Se han dado muchas
respuestas a esta pregunta. Los antiguos griegos creían que todo —cualquier
material— tenía su lugar natural en el mundo y siempre buscaría su nivel
correcto. Yo no estoy seguro de qué respuesta daría usted, pero yo, como
profesor de física, explicaría que el perdigón tiene energía potencial que
depende de su elevación: cuanto mayor es la altura, mayor es su energía
potencial. El perdigón rueda a un lugar de energía más baja o, al menos, la
energía más baja que puede localizar sin tener que escalar una colina para
encontrar un valle aún más bajo. Para un físico que estudia el perdigón que
rueda, el mapa de nivel y el paisaje modelo muestran las variaciones de energía
potencial a medida que el perdigón rueda a lo largo del paisaje.
El paisaje objeto de este libro también tiene sus tierras altas, tierras
bajas, montañas y valles. No son bolas pequeñas las que ruedan por él:
universos de bolsillo completos ocupan localizaciones en el paisaje. ¿Qué
quiero decir cuando digo que un universo de bolsillo ocupa un lugar en el
paisaje? Es más o menos lo mismo que hacer un informe del clima de invierno en
Denver diciendo que «la ciudad ocupa el punto 25 en la escala del termómetro».
Suena raro, pero tiene perfecto sentido decir que las ciudades
importantes del mundo pueblan el termómetro y se mueven por él, día a día o
incluso de un instante al siguiente.
Pero ¿cuál es el significado de la altura de un punto en el paisaje?
Obviamente no tiene nada que ver con elevación sobre el nivel del mar. Pero sí
tiene que ver con energía potencial, no la energía de un perdigón, sino la
energía de un universo (de bolsillo) [37]. Y, como
en el caso del perdigón, rodar hacia el fondo de un valle representa la
tendencia de un universo a evolucionar hacia una energía potencial más baja.
Volveré a este punto.
Con esto en mente volvamos a las leyes de la física en la máquina RMI.
Si el campo magnético fuera el único campo el paisaje sería unidimensional,
como la escala de temperatura, con un único eje que indica la intensidad del
campo magnético.
Los campos magnéticos no vienen porque sí. Se necesita energía para
crear el campo. En los primeros días de la teoría electromagnética, antes de
que Michael Faraday introdujera el concepto de campo, se pensaba que la energía
estaba en las corrientes eléctricas que fluyen a lo largo de los cables de los
circuitos eléctricos. Pero la nueva visión de la Naturaleza de Faraday, en
términos de campos que llenan el espacio y afectan al comportamiento de objetos
cargados, centraba la atención en los campos y no en los cables,
transformadores, resistencias y demás elementos del circuito. Los físicos
pronto se dieron cuenta del gran valor de atribuir energía al propio campo:
dondequiera que haya un campo, hay energía. La energía en el campo
electromagnético de un haz de luz calentará el objeto frío que ilumina.
Hay también energía en el campo magnético de la máquina RMI. Más tarde
encontraremos campos con mucha más energía que el débil campo en la máquina
RMI. La energía en el campo RMI total sería apenas suficiente para hervir cien
gramos de agua.
Añadiendo un eje vertical al paisaje unidimensional, podemos representar
la energía de cada punto. La energía contenida en un campo magnético es
proporcional al cuadrado del campo, lo que implica que el paisaje es un valle
profundo y parabólico con grandes pendientes a cada lado.
El campo magnético es sólo uno de los dos campos que introdujo Faraday;
el otro es el campo eléctrico. El campo eléctrico no afecta a la aguja de una
brújula como lo haría un campo magnético, pero el campo eléctrico puede hacer
que nuestro pelo se erice. Los campos eléctricos fuertes deforman los átomos,
empujando a los electrones negativamente cargados en una dirección y al núcleo
positivamente cargado en la otra. Los átomos alargados pueden formar largas
cadenas en las que los núcleos positivos se empalman con nubes electrónicas
negativas (el grupo de electrones atómicos ligados a los núcleos). Si el campo
eléctrico fuera suficientemente fuerte los átomos no podrían existir en
absoluto. Ni, por supuesto, tampoco podría hacerlo la vida.
Tener campos eléctrico y magnético añade diversidad al paisaje. Se hace
bidimensional. Puesto que el campo eléctrico también tiene energía, la
«altitud» varía cuando nos movemos en las dos direcciones horizontales. Este
paisaje se parece a un cuenco profundo rodeado por paredes altas y con gran
pendiente.
Debido al hecho de que los campos eléctrico y magnético afectan de
diferentes maneras a las propiedades de los electrones, hay un potencial mayor
para variedad en las leyes de la física. Los electrones en el campo combinado
se mueven a lo largo de trayectorias más complicadas que en un campo puramente
magnético más simple. Los niveles de energía atómicos muestran un mayor grado
de complejidad y el paisaje es más variado. Si todo el espacio estuviese
uniformemente lleno con campos eléctrico y magnético, podríamos decir que las
leyes de la física dependen de en qué parte en el paisaje bidimensional está
«localizado» el universo. Hay muchos más campos en la Naturaleza que sólo los
campos eléctrico y magnético, pero el principio general es siempre el mismo. Cada
punto en el paisaje —en otras palabras, cada valor de los campos— tiene un
valor correspondiente de densidad de energía. Si los campos se consideran como
direcciones horizontales en el paisaje, puede añadirse otro eje vertical para
representar la energía. Si llamamos altitud al eje vertical, el paisaje puede
tener llanuras, colinas, desfiladeros y valles.
Los campos eléctrico y magnético son campos vectoriales, lo
que significa que no sólo tienen un tamaño o magnitud en cada punto del espacio
sino que también apuntan en una dirección. Una brújula situada cerca de un imán
apunta en la dirección del campo magnético. En un mundo perfecto, el campo
magnético apuntaría exactamente a lo largo del eje Norte-Sur en todo lugar en
la superficie de la Tierra. En el mundo real hay todo tipo de variaciones
respecto al ideal. Un gran depósito de hierro influirá en el campo de una forma
complicada. Es exactamente la capacidad de variar de un punto a otro lo que
hace del magnetismo un campo.
Los campos que constituyen el paisaje son, en su mayor parte, más
simples que los campos eléctrico y magnético. La mayoría son campos
escalares. Un campo escalar es una magnitud que tiene tamaño o intensidad
pero no dirección. Por ejemplo, la temperatura es un campo escalar. Usted no
oirá al hombre del tiempo decir que la temperatura es de «treinta grados al
norte nordeste». La temperatura tiene intensidad pero no dirección. La presión
del aire y la humedad también son escalares. Pero el hombre del tiempo también
informa de un campo vectorial: la velocidad del viento. La velocidad del viento
es un perfecto ejemplo de un campo vectorial: tiene magnitud y dirección.
Temperatura, presión, humedad y velocidad del viento comparten la propiedad de
que pueden variar de un lugar a otro. Eso es lo que las hace campos. Por
supuesto, son sólo analogías. No tienen nada que ver con los campos que
constituyen el paisaje.
El campo de Higgs se parece mucho al campo magnético (excepto que es
escalar), pero es mucho más difícil de manipular. Se necesitan enormes
cantidades de energía para cambiar el campo de Higgs siquiera un poco. Pero su
pudiéramos cambiarlo, la masa de cada partícula elemental (con excepción del
fotón) cambiaría.
Locomotoras, balas de cañón y partículas elementales tienen masa. Masa
es inercia; cuanta más masa tiene un cuerpo, más difícil es ponerlo en
movimiento o detenerlo. Para determinar la masa de un objeto se lo somete a una
fuerza conocida y se mide su aceleración: la razón entre la fuerza y la
aceleración es su masa. Si el objeto está en reposo cuando empieza el
experimento, la masa medida se denomina masa en reposo. En tiempos pasados se
hacía una distinción entre masa y masa en reposo, pero hoy cuando quiera que se
utiliza el término masa significa siempre masa en
reposo.
Es un hecho empírico que todos los electrones tienen la misma masa. Lo
mismo sucede con todos los protones o cualquier otro tipo de partícula.
Precisamente porque todos los electrones tienen la misma masa es por lo que
podemos hablar de la masa del electrón. Lo mismo sucede para cada
tipo de partícula pero, por supuesto, la masa de un tipo de partícula no es la
misma que la de otro tipo. Por ejemplo, la masa del protón es unas mil
ochocientas veces mayor que la masa del electrón.
Los fotones son bichos raros y excéntricos cuando se trata de asignarles
masa. La masa no puede definirse acelerándolos a partir del reposo porque
los fotones se mueven siempre a la misma velocidad. Los fotones son las
partículas de la luz y, como Einstein explicó, la luz se mueve siempre a la
velocidad de la luz. Un fotón nunca puede ser llevado al reposo; en lugar de
frenarse, simplemente desaparecería. Así, la masa de un fotón es cero. De
cualquier partícula que viaje a la velocidad de la luz se dice que carece
de masa.
De todas las partículas que se observan experimentalmente, sólo el fotón
carece de masa. Pero hay pocas dudas de que existe al menos otra partícula sin
masa. De la misma manera que un electrón que se mueve en la órbita exterior de
un átomo irradia ondas electromagnéticas, un planeta que se mueve alrededor del
Sol perturba el campo gravitatorio y emite por ello ondas gravitatorias. Estas
ondas gravitatorias son demasiado débiles para ser detectadas en la Tierra,
pero de vez en cuando tienen lugar sucesos tremendamente violentos que producen
radiación gravitatoria muy intensa. La colisión de dos agujeros negros
liberaría prodigiosas cantidades de energía en forma de ondas de gravedad para
cuya detección se están construyendo detectores en la Tierra. A menos que los
físicos teóricos estén gravemente equivocados, estas ondas se moverán a la
velocidad de la luz. La hipótesis razonable es que las ondas gravitatorias
están hechas de cuantos sin masa, gravitones.
Aunque he dicho que todos los electrones tienen la misma masa, hay un
matiz que quizá usted haya deducido. La masa de un electrón depende del valor
del campo de Higgs en la posición del electrón. Si tuviéramos la tecnología
para variar el campo de Higgs, la masa del electrón dependería de su
localización. Esto es cierto de la masa de cualquier partícula elemental, con
la excepción del fotón y del gravitón.
En nuestro estado de vacío corriente, la mayoría de los campos conocidos
son nulos. Pueden fluctuar debido a la mecánica cuántica, pero lo hacen
positivamente durante un breve tiempo y luego negativamente. Si ignoramos esta
rápida agitación, los campos promedio son cero. Cambiar el campo desde cero
cuesta energía. El campo de Higgs, sin embargo, es algo diferente. Su valor
medio en el espacio vacío no es cero. Es como si, además del mar fluctuante de
partículas reales, el espacio estuviera lleno de un fluido adicional en reposo
hecho de partículas de Higgs. ¿Por qué no notamos el fluido? En cierto sentido
supongo que podríamos decir que nos hemos acostumbrado a él. Pero si se
eliminara, ciertamente notaríamos su ausencia. Más exactamente, ni siquiera
existiríamos para notar nada.
«El campo de Higgs da a las partículas su masa». ¿Qué demonios significa
esto? La respuesta está enterrada profundamente en las matemáticas del modelo
estándar, pero trataré de darle una idea. Como he mencionado antes, si el campo
(o la partícula) de Higgs se dejara fuera del reparto de personajes, la teoría
cuántica de campos matemática que describe el modelo estándar sólo sería
matemáticamente consistente si todas las demás partículas elementales
carecieran de masa, como el fotón. Las masas reales de las partículas como los
electrones, los quarks, los bosones W y los bosones Z se deben a su movimiento
a través de las partículas del campo de Higgs. No quiero confundirle con falsas
analogías, pero hay un sentido en el que el fluido de Higgs crea una resistencia
al movimiento de las partículas. No es una forma de fricción, que frenaría las
partículas en movimiento y haría que llegaran al reposo. Más bien es una
resistencia a los cambios de velocidad: en otras palabras, inercia o masa. Una
vez más un diagrama de Feynman vale por mil palabras.
Si pudiéramos crear una zona donde el campo de Higgs fuera cero, la cosa
más singular que notaríamos (suponiendo que sobreviviéramos) es que la masa del
electrón sería cero. Los efectos sobre los átomos serían devastadores. El
electrón sería tan ligero que no podría contenerse dentro del átomo. No
existirían átomos ni moléculas. Es casi seguro que no existiría vida como la
nuestra en dicha región del espacio.
Sería muy interesante comprobar estas predicciones de la misma manera en
que podemos comprobar la física en un campo magnético. Pero manipular el campo
de Higgs es enormemente más difícil que manipular el campo magnético. Crear una
región del espacio donde el campo de Higgs sea cero costaría una enorme
cantidad de energía. Tan sólo un centímetro cúbico de espacio libre de Higgs
requeriría una energía del orden de 1040 julios. Ésta es
aproximadamente la energía total que irradia el Sol en un millón de años. Este
experimento tendrá que esperar un poco.
¿Por qué el campo de Higgs es tan diferente del campo magnético? La
respuesta está en el paisaje. Simplifiquemos el paisaje a una dimensión
ignorando los campos eléctrico y magnético e incluyendo solamente el campo de
Higgs. El «Higgs-paisaje» resultante sería más interesante que la simple
parábola que representa el paisaje-campo magnético. Tiene dos valles profundos
separados por una montaña extraordinariamente alta.
No se preocupe si no entiende por qué el Higgs-paisaje parece tan
diferente. Nadie lo entiende del todo. Es otro hecho empírico que tenemos que
aceptar por ahora. La cima de la montaña es el punto del paisaje donde el campo
de Higgs es cero. Imaginemos que un superpotente aspirador de vacío cósmico ha
succionado el campo de Higgs. Éste es el lugar en el Higgs-paisaje donde todas
las partículas del modelo estándar carecen de masa y se mueven a la velocidad
de la luz. De la gráfica podemos ver que la cima de la montaña representa un
ambiente con una gran cantidad de energía. Es también un ambienta mortal.
Por el contrario, nuestro rincón del universo está situado a salvo en
uno de los valles donde la energía es más baja. En estos valles, el campo de
Higgs no es cero, el vacío está lleno de fluido de Higgs y las partículas
tienen masa. Los átomos se comportan como átomos y la vida es posible. El
paisaje completo de la teoría de cuerdas es muy parecido a estos ejemplos pero
infinitamente más rico en posibilidades básicamente desagradables. Los valles
amigables y habitables son excepciones muy raras. Pero eso es una historia para
más tarde.
¿Por qué, en cada ejemplo, vivimos en el fondo de un valle? ¿Es un
principio general? En realidad lo es.
§. Rodando por el paisaje
Hermann Minkowski era un físico con un brillante estilo literario. Esto
es lo que tenía que decir sobre el espacio y el tiempo: «En lo sucesivo el
espacio por sí mismo y el tiempo por sí mismo están condenados a desvanecerse
en meras sombras y sólo una especie de unión de los dos conservará una
identidad independiente». Minkowski estaba hablando de la hija de dos años de
Einstein, la teoría de la relatividad especial. Fue Minkowski quien anunció al
mundo que el espacio y el tiempo debían estar unidos en un único espacio-tiempo
tetradimensional. Se sigue de la perspectiva tetradimensional que si las leyes
de la física pueden variar de un punto del espacio a otro, también debe de ser
posible que varíen con el tiempo. Hay cosas que pueden hacer que las reglas
normales —incluso la ley de la gravedad— cambien, ya sea repentina o
gradualmente.
Imaginemos una onda de radio de muy larga longitud de onda que atraviesa
un laboratorio de física. Una onda de radio es una perturbación
electromagnética que consiste en campos eléctrico y magnético oscilantes. Si la
longitud de onda es suficientemente larga, una única oscilación necesitará
mucho tiempo para atravesar el laboratorio. En función del argumento, digamos
que la longitud de onda es de dos años luz. Los campos en el laboratorio
necesitarán todo un año para pasar desde cero a un máximo y volver a cero [38]. Si en
nuestro laboratorio el campo era cero en diciembre, será máximo en junio.
Los campos lentamente variables significarán que el comportamiento de
los electrones cambiará lentamente con el tiempo. Durante los meses de
invierno, cuando los campos sean más pequeños, los electrones, átomos y
moléculas se comportarán normalmente. En verano, cuando los campos alcancen su
máximo, los electrones se moverán en órbitas extrañas y los átomos estarán
comprimidos en direcciones perpendiculares al campo magnético. El campo
eléctrico también distorsionará las formas de los átomos tirando de los electrones
y los núcleos en direcciones opuestas. ¡Las leyes de la física parecerán
cambiar con las estaciones!
¿Qué pasa con el campo de Higgs? ¿Puede cambiar con el tiempo?
Recordemos que el espacio vacío normal está lleno de campos de Higgs.
Imaginemos que un físico diabólico inventara una máquina —un «aspirador»— que
pudiera barrer el campo de Higgs. La máquina sería tan potente que podría
empujar el universo, o parte de él, cuesta arriba hasta la cima de la montaña
en medio del Higgs-paisaje. Sucederían cosas terribles; los átomos se
desintegrarían y sería el final de toda la vida. Lo que sucede a continuación es
sorprendentemente simple. Supongamos que el Higgs-paisaje es realmente un
paisaje con una alta montaña que separa dos valles. El universo actuaría como
una bola pequeña y redonda en equilibrio precario en el filo de la navaja entre
caer a la izquierda y caer a la derecha. Obviamente, la situación es inestable.
Tan sólo un minúsculo empujón en un sentido o en otro haría caer la bola en
picado hacia un valle.
Si la superficie del paisaje fuera perfectamente suave, sin ninguna
fricción, la bola sobrepasaría el valle y subiría al otro lado, luego rodaría
de nuevo hacia el valle, subiría cuesta arriba, y así una y otra vez. Pero si
hay la más mínima fricción, la bola llegará a detenerse con el tiempo en el
punto más bajo de uno de los valles [39].
Así es como se comporta el campo de Higgs. El universo «rueda» por el
paisaje hasta que llega al reposo en un valle que representa el vacío usual.
El fondo de los valles es el único lugar donde una bola imaginaria puede
estar en reposo. Colocada en una pendiente, rodará cuesta abajo. Colocada en la
cima de una colina, será inestable. De la misma manera, el único vacío posible
con leyes de la física estables e invariables es el fondo de un valle en el
paisaje.
Un valle no tiene por qué ser necesariamente el punto más bajo absoluto
en el paisaje. En una cadena de montañas con muchos valles, cada uno de ellos
rodeado por picos, algunos de los valles pueden ser muy altos, más altos de
hecho que algunas de las cimas. Pero en cuanto el universo que rueda llega al
fondo de un valle, se queda allí. El término matemático para el punto más bajo
de un valle es un mínimo local. En un mínimo local, cualquier
dirección será cuesta arriba. Así pues, llegamos a un hecho fundamental: los
posibles vacíos estables —o de forma equivalente, las posibles leyes de la
física estables— corresponden a los mínimos locales del paisaje.
Ningún científico loco va a barrer nunca el campo de Higgs. Como he
mencionado antes, barrer tan sólo un centímetro cúbico de espacio requeriría
toda la energía radiada por el Sol en un millón de años. Pero hubo un tiempo,
hace aproximadamente catorce mil millones de años, en que la temperatura del
mundo era tan alta que había energía más que suficiente para barrer el campo de
Higgs de todo el universo conocido. Me refiero al universo muy primitivo,
inmediatamente después del big bang, cuando la temperatura y la
presión eran tremendamente grandes. Los físicos creen que el universo empezó
con el campo de Higgs igual a cero, por ejemplo, en la cima de la montaña.
Cuando el universo se enfrió, rodó cuesta abajo por la pendiente hasta el valle
en el que «habitamos» ahora. Rodar por el paisaje desempeña un papel central en
todas las teorías modernas de la cosmología.
El Higgs-paisaje tiene un pequeño número de mínimos locales. Es
increíblemente improbable que uno de los mínimos tuviera una energía del vacío
tan pequeña como 10−120. Pero como veremos en el capítulo 10, el
paisaje real de la teoría de cuerdas es mucho más complejo, diverso e
interesante. Trate de imaginar un espacio de quinientas dimensiones con una
topografía que incluye 10500 mínimos locales, cada uno de ellos
con sus propias leyes de la física y constantes de la Naturaleza. Déjelo. A
menos que su cerebro sea muy diferente del mío, 10500 está
mucho más allá de nuestra imaginación. Pero una cosa parece cierta. Con tantas
posibilidades para escoger, es abrumadoramente probable que la energía de
muchos vacíos se anule hasta la precisión requerida por el argumento antrópico
de Weinberg, a saber, 119 cifras decimales.
En el próximo capítulo quiero tomarme un descanso de tantos aspectos
técnicos de la física y discutir una cuestión que tiene que ver con las
esperanzas y aspiraciones de los físicos. Volveremos «a la ciencia dura» en el
capítulo 5, pero los cambios de paradigma implican más que hechos y cifras.
Implican cuestiones estéticas y emocionales y fijaciones con paradigmas que
quizá tengan que ser abandonados. Que las leyes de la física puedan ser
contingentes en el ambiente local, como sucede con el clima, genera un profundo
malestar en muchos físicos que tienen una sensación casi espiritual de que la
Naturaleza debe ser «bella» en cierto sentido matemático especial.
Capítulo 4
El mito de la unicidad y la elegancia
«Dios utilizó bellas matemáticas al crear el mundo».
PAUL DIRAC
«Si vas a describir la verdad, deja la elegancia para el sastre».
ALBERT EINSTEIN
«La belleza es peor que el vino, intoxica al que la posee y al que la
contempla».
ALDOUS HUXLEY
Contenido:
§. Lo que entienden los físicos por bello
§. Orígenes del mito
§. La teoría de cuerdas y la caída del mito
§. ¿Es elegante la Naturaleza?
§. Lo que entienden los físicos por bello
La controversia antrópica no sólo trata de hechos científicos y
principios filosóficos. Trata de lo que constituye el buen gusto en ciencia. Y
como en todas las discusiones sobre el gusto, en ella intervienen las
sensibilidades estéticas de cada uno. La resistencia a explicaciones antrópicas
de los hechos naturales deriva, en parte, de los criterios estéticos especiales
que han influido a todos los grandes físicos teóricos —Newton, Einstein, Dirac,
Feynman— hasta la generación actual. Para entender los fuertes sentimientos
implicados debemos entender primero el paradigma estético que está siendo
desafiado y amenazado por ideas nuevas y peligrosas.
Por haber pasado una buena parte de mi vida haciendo física teórica,
estoy personalmente convencido de que ésta es la más bella y elegante de todas
las ciencias. Estoy completamente seguro de que todos mis amigos físicos
piensan lo mismo. Pero la mayoría de nosotros no tenemos una idea clara de lo
que entendemos por belleza en física. Cuando he planteado la pregunta en el
pasado, las respuestas variaban. La más común era que las ecuaciones son
elegantes. Unos pocos respondían que los fenómenos físicos reales son bellos.
Sin duda, los físicos tienen criterios estéticos por los que juzgan las
teorías. Las conversaciones están sazonadas con palabras como elegante,
bello, simple, poderoso, único y cosas así. Probablemente no hay dos
personas que entiendan exactamente lo mismo por estas palabras, pero creo que
puedo dar definiciones generales en las que los físicos estarán más o menos de
acuerdo.
Si hay una diferencia entre elegancia y simplicidad, es demasiado sutil
para mí. Matemáticos e ingenieros utilizan también estos términos de modo más o
menos intercambiable y entienden aproximadamente lo mismo que los físicos. Una
solución elegante para un problema de ingeniería significa una solución que
utiliza la mínima cantidad de tecnología para realizar la tarea requerida.
Hacer que un componente sirva para dos objetivos es elegante. La solución
mínima es la más elegante.
En los años cuarenta del siglo pasado, el dibujante Rube Goldberg se
especializó en diseñar «máquinas de Rube Goldberg», que eran soluciones
fantásticas y ridículas a problemas de ingeniería [40]. Un
reloj despertador de Rube Goldberg tendría bolas que rodaban cuesta abajo,
martillos que golpeaban a pájaros que tiraban de cuerdas y todo terminaba con
un cubo de agua que se derramaba sobre quien estaba dormido. Una máquina de
Rube Goldberg era decididamente una solución poco elegante a un problema.
Las soluciones a problemas matemáticos pueden evaluarse de modo análogo
en términos de elegancia. Una demostración de un teorema debería ser lo más
económica posible, lo que significa que el número de hipótesis, así como el
número de pasos, debería reducirse al mínimo. Un sistema matemático tal como la
geometría euclideana debería estar basado en un número mínimo de axiomas. A los
matemáticos les gusta depurar sus argumentos, a veces hasta el punto de la
incomprensibilidad.
La idea de elegancia de los físicos teóricos es fundamentalmente la
misma que la del ingeniero o el matemático. La teoría de la relatividad general
es elegante porque sale mucho de muy poco. A los físicos también les gusta que
sus axiomas sean sencillos y pocos en número.
Algo más que lo que es absolutamente esencial es poco elegante. Una
teoría elegante debería ser expresable en términos de un pequeño número de
ecuaciones, cada una de las cuales es fácil de escribir. Ecuaciones largas con
demasiados símbolos amontonados son una señal de una teoría poco elegante o
quizá una teoría que está expresada en una forma tosca.
¿De dónde procede este gusto estético por la simplicidad? [41] No
son sólo los ingenieros, matemáticos y físicos quienes obtienen una sensación
de satisfacción a partir de una solución clara a un problema. Mi padre era un
fontanero cuya única educación no pasaba de la escuela elemental. Pero a él le
gustaba la simetría y la geometría de una cañería bien colocada. Tenía un
profundo orgullo profesional por encontrar maneras inteligentes de minimizar la
cañería necesaria para llevar agua de un punto a otro sin violar las reglas
estéticas de paralelismo, rectangularidad y simetría. No era por el dinero que
podía ahorrar recortando materiales. Eso era lo de menos. El placer que sentía
con una simplificación ingeniosa y una geometría elegante no era tan diferente
del mío cuando encuentro una manera clara de escribir una ecuación.
La unicidad es otra propiedad que es especialmente valorada por los
físicos teóricos. Las mejores teorías son las que son únicas en dos sentidos.
En primer lugar, no debería haber ninguna incertidumbre sobre sus
consecuencias. La teoría debería predecir todo lo que es posible predecir y no
más. Pero hay también un segundo tipo de unicidad que sería especialmente
preciada en lo que Steven Weinberg llama una teoría final. Es una especie de
inevitabilidad, una sensación de que la teoría no podría ser de ninguna otra
manera. La mejor teoría sería no sólo una teoría de todo sino la única teoría
de todo posible.
La combinación de elegancia, unicidad y capacidad de responder a todas
las preguntas de las que cabe respuesta es lo que hace bella a una teoría. Pero
pienso que los físicos estarían generalmente de acuerdo en que ninguna teoría
concebida hasta ahora ha superado plenamente estos criterios. De hecho, no hay
ninguna razón por la que cualquier teoría que no sea la teoría final debiera
tener una belleza perfecta.
Si usted pidiera a un físico teórico que ordenara todas las teorías por
orden estético, la clara ganadora sería la teoría de la relatividad general.
Las ideas de Einstein estaban motivadas por un hecho elemental sobre la
gravedad que cualquier niño puede entender: la fuerza de la gravedad se parece
a la fuerza debida a la aceleración. Einstein realizó un experimento mental en
un ascensor imaginario. Su punto de partida era el hecho de que en un ascensor
es imposible distinguir entre los efectos de un campo gravitatorio y los
efectos de una aceleración hacia arriba. Cualquiera que haya estado en un
ascensor que se mueve a gran velocidad sabe que durante el breve período de
tiempo de aceleración hacia arriba se siente más pesado: la presión en las
plantas de los pies, el tirón sobre los brazos y los hombros son exactamente
iguales ya estén causados por la gravedad o por la velocidad en aumento del
ascensor. Y durante la deceleración usted se siente más ligero. Einstein
transformó esta observación trivial en uno de los principios de mayor alcance
de la física: el principio de equivalencia entre gravedad y aceleración o, de
manera más simple, el principio de equivalencia. De él dedujo las
reglas que gobiernan todos los fenómenos en un campo gravitatorio así como las
ecuaciones para la geometría no euclideana del espacio-tiempo. Todo se resume
en unas pocas ecuaciones, las ecuaciones de Einstein, con validez universal. Yo
lo encuentro bello.
Esto saca a la luz otra faceta de lo que significa la belleza para
algunos físicos. No es sólo el producto final del trabajo de Einstein sobre la
gravedad lo que yo encuentro agradable. Para mí, gran parte de la belleza
reside en la manera en que él hizo el descubrimiento: cómo evolucionó a partir
de un experimento mental que incluso un niño puede entender. Y, pese a todo, he
oído a físicos que afirman que si Einstein no hubiera descubierto la teoría de
la relatividad general, ellos o algún otro la habrían descubierto pronto de una
manera más moderna y más técnica, pero en mi opinión mucho menos bella. Es
interesante comparar las dos rutas a las ecuaciones de Einstein. Según estos
historiadores de un mundo alternativo, ellos habrían llegado a construir una
teoría siguiendo las líneas de la electrodinámica de Maxwell. La teoría de
Maxwell consiste en un conjunto de ocho ecuaciones cuyas soluciones describen
movimientos ondulatorios del campo electromagnético. Esas mismas ecuaciones
incluyen también las fuerzas ordinarias entre imanes y entre cargas eléctricas.
No son los fenómenos sino la forma de las ecuaciones las que habrían sido la
inspiración para los teóricos actuales. El punto de partida habría sido una
ecuación para ondas gravitatorias, de una forma similar a las ecuaciones que
describen ondas luminosas o sonoras [42].
Igual que la luz es emitida desde una carga vibrante o el sonido desde
un diapasón oscilante, las ondas de gravedad son emitidas por masas en rápido
movimiento. Aunque las ecuaciones que describen las ondas fueran
matemáticamente consistentes, aparecerían problemas cuando se permitiera que
las ondas interaccionaran con objetos con gran masa. Aparecerían
inconsistencias que no se dan en la teoría de Maxwell. Impertérritos, los
teóricos habrían buscado términos extra para añadir a las ecuaciones y hacerlas
consistentes. Por ensayo y error habrían encontrado una serie de aproximaciones
sucesivas, cada una mejor que la anterior. Pero en cualquier etapa concreta,
las ecuaciones seguirían siendo inconsistentes.
La consistencia se lograría solamente cuando se sumara un número
infinito de términos. Además, cuando se sumaran todos los términos, ¡el
resultado sería exactamente equivalente a las ecuaciones de Einstein! Mediante
una serie de aproximaciones sucesivas se habría encontrado una ruta a una
teoría única que sería equivalente a la relatividad general. No habría
necesidad de pensar nunca en ascensores acelerados. El requisito matemático de
consistencia, junto con el método de aproximaciones sucesivas, sería suficiente.
Para algunos esto es bello. Difícilmente podría calificarse de simple.
En cuanto a la elegancia de las ecuaciones, las mostraré en la forma
maravillosamente simple que obtuvo Einstein.
Esta pequeña caja con unos pocos símbolos colocados de forma sencilla
contiene toda la teoría de los fenómenos gravitatorios: la caída de las
piedras, el movimiento de la Tierra y la Luna, la formación de las galaxias, la
expansión del universo y mucho más.
El enfoque defendido por los modernistas, aun dando el mismo contenido,
llevaría a una infinidad inacabable de aproximaciones sucesivas. Así las
ecuaciones carecen de toda elegancia.
De todas formas, tengo que admitir que, aunque la «derivación moderna»
quizá carecía de la elegancia de las ecuaciones de Einstein, hacía una cosa
bastante bien. Demostraba la unicidad de la teoría. En cada nivel de
aproximación, los términos extra necesarios para restaurar la consistencia
están unívocamente determinados; la teoría no es ambigua. No sólo describe cómo
funciona la gravedad, sino que también muestra que no podría haber sido de otra
manera.
La teoría también es poderosa. Puede describir con gran precisión una
variedad muy amplia de fenómenos gravitatorios, desde la capacidad de la Tierra
para mantenernos en su superficie hasta los agujeros negros en los centros de
los cuásares y las ondas gravitatorias procedentes de colisiones violentas de
tales agujeros negros. Con sus elegantes ecuaciones, un elemento de unicidad y
el poder para describir muchos fenómenos, la teoría de la relatividad general
es la teoría física más bella jamás concebida. Pero como hemos visto, no es
sólo el contenido de una teoría —lo que dice sobre el mundo— lo que la hace
bella, sino también la forma en que están escritas las ecuaciones e incluso el
razonamiento que intervino en su descubrimiento.
Si el concurso de belleza física sería ganado por la relatividad
general, el premio a la más fea tendría que ir a la física nuclear. El problema
con la física nuclear no es que lleve a la fealdad de los reactores nucleares y
los hongos atómicos. Eso es tecnología, no física. El problema es que las leyes
de la física nuclear no son claras y concisas. Como resultado, ninguna ecuación
elegante puede capturar su contenido y ningún simple razonamiento inevitable
llevó al descubrimiento de sus reglas. Si las reglas declararan simplemente que
protones y neutrones se atraen según alguna ley de fuerzas muy simple, la
teoría sería tan elegante como la física atómica. Pero como la relatividad
revisionista, cada aproximación a la verdad es engañosa. Sin embargo, en lugar
de apelar a la consistencia matemática para mejorarla, se han introducido
varias reglas empíricas ad hoc para hacer que la teoría
concuerde con las propiedades de los núcleos. Además, las reglas empíricas que
funcionan para algunos núcleos no funcionan para otros. Hay todo un cargamento
de diferentes esquemas de aproximación y sucesivas estrategias de ensayo y
error, pero, a diferencia del caso con la relatividad general, su suma no da
algo simple, único y universalmente válido. La mayoría de los físicos teóricos
están de acuerdo en que las ecuaciones de la física nuclear no son nada
elegantes ni su lógica especialmente atractiva.
Algunos físicos afirmarían que la química es fea. La química también
está llena de recetas ad hoc que no tienen validez universal.
Las primeras líneas de la tabla periódica son bastante simples, pero a medida
que se avanza en la tabla hay que añadir más y más hipótesis. Las reglas para
el enlace molecular son aproximadas y tienen muchas excepciones. Unas veces
predicen correctamente y otras no. Cuando los físicos quieren desdeñar algo por
estar poco motivado o ser muy complicado, lo desprecian como química o incluso
química de libro de cocina.
Pero un químico podría responder que la física es aburrida y está
empobrecida. La química es la disciplina que describe y explica la belleza y la
variedad del mundo natural. Después de todo, una flor es un conjunto de
elementos químicos que sufren reacciones químicas. Para una mente científica,
comprender estos procesos se suma a su valor estético [43]. Muchos
físicos y químicos buscan belleza en la manera en que estructuras muy simples,
como los átomos, pueden combinarse en pautas macroscópicas. Estos fenómenos,
que son significativos sólo para grandes números de átomos, se denominan colectivos o emergentes.
Los fenómenos que implican el comportamiento colectivo de muchos
constituyentes emergen de las leyes de elementos simples tales
como átomos. La vida es un fenómeno colectivo. También lo es la formación de un
copo de nieve o la forma en que los átomos se alinean, uno al lado de otro,
para formar un bonito cristal como un diamante. Otro ejemplo es el
comportamiento cooperativo que permite que muchos átomos se muevan sin fricción
en un material superconductor. Esto es belleza emergente.
¿Quién puede decir que este tipo de belleza tiene menos mérito que la
versión reduccionista del físico de partículas? Yo no. Pero el tipo de belleza
de la que estoy hablando es diferente. Los físicos de partículas elementales
buscan belleza en las leyes y ecuaciones subyacentes. La mayoría ha tenido una
especie de creencia cuasireligiosa en las diosas de la unicidad y la
simplicidad. Hasta donde puedo decir, creen que «en el fondo de todo» yace una
bella teoría, un único, potente y atractivo conjunto de ecuaciones que describe
todos los fenómenos, al menos en principio, incluso si las ecuaciones son
demasiado difíciles de resolver. Estas ecuaciones maestras deberían ser simples
y simétricas. Simplicidad, hablando en general, significa que debería ser posible
escribir las ecuaciones en una caja de aproximadamente este tamaño:
Pero por encima de todo, las ecuaciones deberían predecir unívocamente
las leyes de la física que han sido descubiertas durante los últimos siglos,
incluyendo el modelo estándar de la física de partículas: la lista de
partículas elementales, sus masas, constantes de acoplamiento y las fuerzas
entre ellas. Ningunas otras reglas alternativas deberían ser posibles.
§. Orígenes del mito
El mito de la unicidad y la elegancia se originó probablemente con
nuestros predecesores intelectuales griegos. Pitágoras y Euclides creían en una
mística armonía matemática del universo. Pitágoras creía que el mundo
funcionaba de acuerdo con principios matemáticos semejantes a los que gobiernan
la música. Aunque la conexión entre música y física puede parecernos ingenua e
incluso ridícula, no es difícil ver en el credo pitagórico el mismo amor a la
simetría y la simplicidad que motiva a los físicos modernos.
La geometría euclideana también tiene un fuerte sabor estético. Las
demostraciones deberían ser tan simples y elegantes como fuera posible y el
número de axiomas sin demostrar debería ser tan pequeño como fuera posible: no
se necesitan más de cinco. La geometría euclideana se considera normalmente una
rama de las matemáticas. Pero los griegos no hacían distinción entre
matemáticas y física. Para ellos, la geometría euclideana era la teoría de cómo
se comporta el espacio físico real. No sólo se podían probar teoremas sino que
también se podía salir y medir las propiedades del espacio, que estarían
necesariamente de acuerdo (según los griegos) con los teoremas. Por ejemplo, se
puede dibujar un triángulo utilizando lápiz y regla y luego medir con un
transportador los tres ángulos internos. Uno de los teoremas de la geometría
euclideana dice que la suma de dichos ángulos es exactamente ciento ochenta
grados. Los griegos creían que cualquier triángulo real, dibujado en el espacio
real, estaría de acuerdo con el teorema. Así, ellos estaban haciendo enunciados
sobre el mundo físico, enunciados que para ellos no eran sólo verdaderos sino
también únicos. El espacio, creían, se adapta a los axiomas de Euclides y,
además, no podía ser de otra manera. O al menos así lo pensaban.
Platón y Aristóteles fueron más lejos al añadir un elemento estético
particular a las leyes de la astronomía. Para ellos el círculo era la figura
perfecta. Al estar cada punto a la misma distancia del centro, el círculo tiene
simetría perfecta; ninguna otra figura es tan simétrica. Por ello Platón,
Aristóteles y sus seguidores posteriores creían que ninguna otra figura podía
controlar y regular los movimientos de los planetas. Creían que los cielos
estaban compuestos de un conjunto de elegantes esferas de cristal,
perfectamente transparentes, perfectamente redondas y que se movían con una
perfecta precisión mecánica. No podían concebir que fuera de otra manera.
Los griegos tenían una teoría igualmente elegante de los fenómenos
terrestres, lo que prefiguraba las esperanzas de los físicos actuales en una
teoría unificada. Creían que toda la materia terrenal estaba hecha de cuatro
elementos: tierra, aire, agua y fuego. Cada uno tenía su lugar natural y tendía
a migrar hacia dicho lugar. El fuego era el más ligero y, por tanto, tendía a
ascender. La tierra, al ser el más pesado, tendía a hundirse hasta lo más bajo.
En medio estaban el agua y el aire. Cuatro elementos y un principio dinámico:
usted se sorprendería de cuánto podían explicar. La única cosa que faltaba era
la unicidad. Yo no veo por qué no puede haber elementos adicionales: tierra,
aire, fuego, agua, vino tinto, queso y ajo.
En cualquier caso, astrónomos, alquimistas y químicos echaron un pulso a
los esquemas griegos. Johannes Kepler derribó al círculo de su alto pedestal y
lo reemplazó por las más variadas y menos simétricas órbitas planetarias
elípticas. Pero también Kepler creía en la armonía matemática pitagórica. En
esa época había sólo seis planetas conocidos: Mercurio, Venus, Marte, Júpiter,
Saturno y, por supuesto, la Tierra, lo que a su vez significaba exactamente
cinco separaciones planetarias. Kepler estaba profundamente impresionado por el
hecho de que hay exactamente cinco poliedros regulares, cinco sólidos
platónicos: tetraedro, octaedro, icosaedro, cubo y dodecaedro [44]. Kepler
estaba seducido por lo que él veía como una inevitable y bella correspondencia
entre los planetas y los sólidos platónicos. Y por ello construyó un modelo
matemático del universo como un conjunto de poliedros anidados, con el objetivo
de explicar los radios de sus órbitas. Yo no estoy seguro de que nosotros lo
encontráramos elegante, pero él sí y eso es lo importante. Elegante o no, los
cinco sólidos platónicos son únicos. La teoría, por supuesto, era completamente
absurda.
Al mismo tiempo, los químicos no podían hacer progresos sin reconocer la
necesidad de más de cuatro elementos. A finales del siglo XIX, se habían
identificado casi un centenar de elementos y la Naturaleza estaba perdiendo
algo de su simplicidad. La tabla periódica puso algún orden en la química, pero
estaba muy lejos de la simplicidad y la unicidad que los griegos habían
exigido.
Pero entonces, a comienzos del siglo XX, Bohr, Heisenberg y Schrödinger
descubrieron los principios de la mecánica cuántica y la física atómica,
proporcionando con ello un fundamento preciso para la química. El número de
elementos volvía a ser sólo cuatro: no los cuatro griegos, sino el fotón, el
electrón, el protón y el neutrón. Toda la química puede derivarse sin
ambigüedad (solo en principio) de la teoría mecanocuántica de estas cuatro
partículas elementales. Simplicidad, elegancia y unicidad estaban volviendo a
ganar la mano. Los principios básicos de la relatividad, la mecánica cuántica y
la existencia de los cuatro elementos darían lugar a todos los comportamientos
químicos con tal de que tuviéramos la capacidad de resolver las ecuaciones.
Esto estaba muy cerca del ideal del físico.
Pero ¡ay!, no iba a ser así. Se descubrieron partículas elementales al
por mayor: neutrinos, muones, las denominadas partículas extrañas, mesones e
hiperones, ninguna de las cuales tiene un lugar en el simple esquema de las
cosas. No desempeñaban ningún papel importante en la descripción de la materia,
pese a que existían y enturbiaban las aguas. La física de partículas
elementales en los años sesenta era una mezcla desesperada de letras griegas y
latinas que denotaban cientos de supuestas partículas elementales. Siendo un
físico joven que esperaba encontrar belleza y elegancia en las leyes de la
Naturaleza, yo encontraba deprimente esta mezcolanza.
Pero luego, los años setenta mejoraron la perspectiva. Los quarks
reemplazaron a protones, neutrones y mesones como constituyentes del núcleo y
—como discutí en el capítulo 1— una única teoría cuántica de campos llamada
cromodinámica cuántica (QCD) pudo explicar todo sobre los protones, neutrones,
mesones, núcleos y las menos familiares partículas extrañas (partículas que
contienen quarks-extraños). El número de elementos había disminuido algo. Al
mismo tiempo, se entendió que electrones y neutrinos eran gemelos relacionados
por una profunda simetría subyacente. La balanza se estaba desplazando de nuevo
hacia la ventaja de la simplicidad. Finalmente, el modelo estándar nació en su
totalidad a mediados de los años setenta, proporcionando una descripción completa
de todos los fenómenos conocidos (o así se decía a veces) pero en términos de
unos treinta parámetros arbitrarios. La batalla entre elegancia y tosquedad
sigue su curso y no muestra ninguna señal de una resolución final victoriosa.
§. La teoría de cuerdas y la caída del mito
Llegamos a la teoría de cuerdas: ¿es bella, como le dirán los teóricos
de cuerdas, o es la monstruosidad supercomplicada que afirman los críticos a la
teoría? Pero antes de discutir la estética, permítame decir por qué necesitamos
la teoría de cuerdas. Si, como he dicho, el modelo estándar describe todos los
fenómenos conocidos, ¿por qué los físicos teóricos se ven empujados a buscar
una estructura matemática más profunda? La respuesta es que el modelo estándar
no describe todos los fenómenos conocidos. Hay al menos una excepción obvia: la
gravedad. La gravitación es la fuerza más familiar en la vida diaria, y
probablemente la más fundamental, pero no se encuentra en ninguna parte del
modelo estándar. El gravitón (el cuanto del campo gravitatorio) no está en la
lista de partículas del modelo estándar. Los objetos quizá más interesantes,
los agujeros negros, no tienen lugar en la teoría. Aunque la teoría clásica de
la gravedad de Einstein puede ser la más bella de todas las teorías, no parece
encajar en el mundo cuántico.
Para la mayoría de los fines, la gravedad carece por completo de
importancia para la física de partículas elementales. Como veremos en capítulos
posteriores, la fuerza gravitatoria entre partículas —por ejemplo, entre los
quarks de un protón— es muchos órdenes de magnitud más débil que las demás
fuerzas de la Naturaleza. La gravedad es demasiado débil para desempeñar un
papel en cualquier experimento que implique partículas elementales, al menos en
un futuro previsible. Por esta razón, los físicos de partículas elementales
tradicionales se han contentado con ignorar por completo los efectos de la
gravedad.
Pero hay dos razones prácticas para querer una comprensión más profunda
de las relaciones entre la gravedad y el mundo cuántico microscópico. La
primera tiene que ver con la estructura de las partículas elementales. Aunque
la fuerza gravitatoria es despreciable para los electrones en un átomo (o los
quarks en un protón), a medida que la distancia entre partículas se hace más
pequeña, la gravedad empieza a afirmarse. Todas las fuerzas se hacen más
intensas cuando disminuye la separación, pero la fuerza gravitatoria aumenta
más rápidamente que cualquier otra. De hecho, en el momento en que dos
partículas están a menos de una distancia de Planck la fuerza de la gravedad es
mucho más intensa que las fuerzas eléctricas o incluso las fuerzas que ligan
los quarks. Si el paradigma de la «muñeca rusa» (cosas hechas de cosas cada vez
más pequeñas) sigue siendo válido, las partículas elementales ordinarias quizá
resulten estar hechas de objetos aún más minúsculos que están en algún sentido
unidos por la gravedad.
La segunda razón práctica para entender los vínculos entre gravedad y
teoría cuántica implica a la cosmología. En el próximo capítulo veremos que la
gravedad es la fuerza que gobierna el crecimiento del universo. Cuando el
universo era muy joven y se estaba expandiendo a una enorme velocidad, la
gravedad y la mecánica cuántica eran importantes en la misma medida. Una falta
de comprensión de la conexión entre estas dos grandes teorías frustrará en
última instancia nuestros esfuerzos para llegar al fondo del big bang.
Pero hay una tercera razón por la que los físicos se ven impulsados a
combinar la teoría cuántica con la relatividad general: una razón estética.
Para un físico, a diferencia de un poeta, el mayor crimen contra la estética es
el crimen de inconsistencia. Peor aún que una teoría fea, los principios
incompatibles constituyen un ataque a los valores básicos que defendemos. Y
durante la mayor parte del siglo XX, gravedad y mecánica cuántica han sido
incompatibles.
Aquí es donde entra la teoría de cuerdas. No llegaremos a los detalles
de la teoría de cuerdas hasta el capítulo 7, pero por el momento digamos
simplemente que es una teoría matemática que unifica de manera consistente la
gravedad y la mecánica cuántica. Muchos físicos teóricos (yo me encuentro entre
ellos) tienen una fuerte sensación de que la teoría de cuerdas es nuestra mejor
esperanza para reconciliar finalmente estos dos grandes pero conflictivos
pilares de la ciencia moderna. ¿Qué hay en la teoría de cuerdas para que nos dé
esa sensación? Hemos ensayado montones de aproximaciones diferentes, pero
normalmente fracasan. Un ejemplo es el intento de construir una teoría cuántica
de campos basada en la relatividad general. Las matemáticas se hacen rápidamente
inconsistentes. Pero incluso si las ecuaciones tuvieran sentido, habría un
malestar estético. En cada uno de estos intentos, la gravedad es un «añadido»
opcional. Con ello quiero decir que la gravedad se añade simplemente a alguna
teoría preexistente como la electrodinámica cuántica. No hay nada inevitable en
ello. Pero la teoría de cuerdas es diferente. La existencia de gravedad y
mecánica cuántica es absolutamente esencial para la consistencia matemática. La
teoría de cuerdas sólo tiene sentido como una teoría de «gravedad cuántica».
Esto no es poco, dada la forma en que estos dos gigantes —gravedad y mecánica
cuántica— han estado en guerra durante la mayor parte del siglo XX. Yo diría
que esta inevitabilidad es bella.
Además de su íntima relación con la gravedad, la teoría de cuerdas
parece tener conexiones con la física de partículas elementales ordinaria. En
modo alguno hemos entendido exactamente cómo incorporar el modelo estándar en
la teoría de cuerdas, pero ésta tiene todos los elementos que entran en la
teoría de partículas moderna. Tiene partículas —fermiones y bosones— que se
parecen a los electrones, quarks, fotones, gluones y todas las demás. Además de
las fuerzas gravitatorias, entran en acción fuerzas similares a las fuerzas
eléctricas y magnéticas entre partículas cargadas e incluso fuerzas similares a
las que ligan a los quarks dentro de protones y neutrones. Ninguna de estas
cosas se ha puesto a mano. Como la gravedad, son también consecuencias
inevitables de la teoría.
Es excitante que todas las consecuencias de la teoría de cuerdas se
despliegan de una manera matemáticamente consistente. La teoría de cuerdas es
una teoría matemática muy compleja con muchas posibilidades de fallar. Por
fallo entiendo inconsistencia interna. Es como una enorme máquina de alta
precisión, con miles de piezas. A menos que todas encajen perfectamente en el
lugar correcto, todo acabara chirriando. Pero encajan, a veces como
consecuencia de milagros matemáticos. La teoría de cuerdas no es solamente una
teoría física sobre la Naturaleza. Es también una estructura matemática muy
sofisticada que ha ofrecido mucha inspiración a matemáticos puros.
Pero ¿es bella la teoría de cuerdas? ¿Satisface los cánones de elegancia
y unicidad que exigen los físicos? ¿Son sus ecuaciones pocas y simples? Y lo
que es más importante, ¿son únicas las leyes de la física implicadas por la
teoría de cuerdas?
La elegancia requiere que el número de ecuaciones definitorias sea
pequeño. Cinco es mejor que diez y una es mejor que cinco. A este respecto, se
podría decir con cierto sarcasmo que la teoría de cuerdas es el resumen
definitivo de la elegancia. Al cabo de tantos años de estudio de la teoría de
cuerdas nadie ha encontrado siquiera una sola ecuación definitoria. El número
actual es cero. No sabemos cuáles son las ecuaciones fundamentales de la teoría
ni siquiera si hay alguna. Bien; entonces ¿si no es un conjunto de ecuaciones
definitorias qué es la teoría? En realidad no lo sabemos.
En cuanto a la segunda pregunta —¿son únicas las leyes de la física
definidas por la teoría de cuerdas?—, aquí podemos ser más precisos. Aunque
nadie puede identificar las ecuaciones definitorias, la metodología de la
teoría es muy rigurosa. Fácilmente podía haber suspendido uno cualquiera del
gran número de test de consistencia matemática. No lo hizo, pero se pensaba que
las ligaduras matemáticas muy rígidas llevarían o bien a una teoría
completamente única o, como mucho, a un pequeño número de posibilidades. Había
una gran sensación de euforia a mediados de los años ochenta cuando los
teóricos de cuerdas pensaban que estaban apuntando a la respuesta final, una
teoría simple y única que explicaría por qué el mundo es como es. También se
creía que las profundas, y a veces milagrosas, propiedades matemáticas de la
teoría garantizarían que la constante cosmológica era exactamente cero.
La atmósfera superintelectual y enrarecida del Instituto para Estudios
Avanzados en Princeton —durante un tiempo el hogar de Albert Einstein y J.
Robert Oppenheimer— era el centro de esta excitación. Y en el centro del centro
estaban algunos de los más grandes físicos matemáticos del mundo. Edward Witten
y la gente que lo rodeaba parecían estar dando grandes zancadas hacia una única
respuesta. Así era entonces.
Hoy sabemos que el éxito «a la vuelta de la esquina» era un espejismo.
Cuando aprendimos más sobre la teoría, empezaron a suceder tres cosas
desafortunadas. La primera fue que comenzaron a manifestarse nuevas
posibilidades, nuevas versiones matemáticamente consistentes de lo que se
suponía que era una teoría única. Durante los años noventa el número de
posibilidades creció exponencialmente. Los teóricos de cuerdas observaban con
horror como se abría un inmenso paisaje con tantos valles que en él podía encontrarse
casi cualquier cosa.
La teoría mostraba también una desagradable tendencia a producir
máquinas de Rube Goldberg. Buscando el paisaje para el modelo estándar, las
construcciones se hacían desagradablemente complicadas. Había que introducir
cada vez más «piezas móviles» para dar cuenta de todos los requisitos y, por
ahora, parece que ningún modelo realista sería aceptable para la Sociedad
Americana de Ingenieros, en cualquier caso, no por su elegancia.
Finalmente, añadiendo sal a la herida, todos los candidatos potenciales
a un vacío como en el que vivimos tienen una constante cosmológica no nula. La
esperanza de que alguna elegante magia matemática de la teoría de cuerdas
garantizaría un valor cero para la constante cosmológica se ésta desvaneciendo
rápidamente.
Juzgada por los criterios usuales de unicidad y elegancia, la teoría de
cuerdas ha pasado de ser Bella a ser la Bestia. Y pese a todo, cuanto más
pienso en esta historia desafortunada, pienso que hay más razones para creer
que la teoría de cuerdas es la respuesta.
§. ¿Es elegante la Naturaleza?
«La gran tragedia de la ciencia: que una bella hipótesis sea destruida
por un hecho feo».
THOMAS HENRY HUXLEY
La teoría de cuerdas no carece de enemigos que le dirán que es una
perversión monstruosa. Entre ellos están los teóricos de la materia condensada
que piensan que la teoría correcta es emergente. La física de la materia
condensada es el estudio de las propiedades de la materia ordinaria en forma
sólida, líquida o gaseosa. Según esta escuela, el espacio y el tiempo emergen
de algunos objetos microscópicos no especificados de la misma manera que las
redes cristalinas y los superconductores emergen del comportamiento colectivo
de un gran número de átomos. En muchos casos el comportamiento emergente apenas
depende de los detalles microscópicos particulares. En la visión de los físicos
de la materia condensada, el mundo puede emerger de una variedad tan amplia de
puntos de partida microscópicos que no tiene sentido tratar de identificar los
detalles microscópicos. En su lugar, se argumenta, los físicos deberían estar
tratando de entender las reglas y los mecanismos de la propia emergencia. En
otras palabras, deberían estudiar la física de la materia condensada.
El problema con este punto de vista es que ningún sistema de materia
condensada corriente puede comportarse como un universo regulado por la
mecánica cuántica junto con las leyes de la gravedad de Einstein. Más adelante,
cuando encontremos el principio holográfico, en el capítulo 10, veremos que hay
profundas razones para ello. La idea de que hay muchos puntos de partida
microscópicos que pueden conducir a un mundo con gravedad puede ser verdadera,
pero ninguno de ellos se parece en nada a los materiales habituales que estudia
la física de la materia condensada.
Otra fuente de críticas son algunos (ciertamente no todos) físicos
experimentales de altas energías que están disgustados porque los nuevos
fenómenos implicados por la teoría de cuerdas están demasiado alejados del
experimento, como si eso fuera culpa de los teóricos. Estos físicos están
molestos porque no pueden ver cómo sus experimentos pueden abordar alguna vez
las cuestiones que los teóricos de cuerdas están tratando de responder.
Sugieren que los teóricos se atengan a problemas que aborden directamente la
agenda experimental en un futuro a corto plazo. Ésta es una visión
extraordinariamente miope. En la actualidad, los experimentos de física de
altas energías se han hecho tan grandes y complicados que necesitan décadas
para completarse. Los físicos teóricos jóvenes y brillantes son como
exploradores incansables. Quieren ir allí donde les lleve su curiosidad por el
mundo. Y si es al gran mar de lo desconocido, que así sea.
La mayoría de los físicos experimentales realmente buenos no prestan
mucha atención a lo que piensan los teóricos. Construyen las máquinas que
pueden construir y hacen los experimentos que pueden hacer. La mayoría de los
físicos teóricos realmente buenos no prestan mucha atención a lo que piensan
los experimentales. Construyen sus teorías basadas en sus propios instintos y
van donde su intuición les lleva. Todos esperan que, en algún momento, se
cruzarán los dos caminos, pero cuándo y dónde exactamente constituye toda una
conjetura.
Finalmente, hay propuestas de otras teorías. Así es como debería ser.
Hay que explorar otros caminos pero, por lo que puedo decir, ninguna de estas
teorías está muy bien desarrollada. Por el momento tienen poco que decir.
Lo que nunca he oído es una crítica basada en la desafortunada poca
elegancia o la carencia de unicidad de la teoría de cuerdas [45]. Una u
otra de estas tendencias podría volverse contra los teóricos de cuerdas como
prueba de que sus propias esperanzas en la teoría están equivocadas. Quizá
parte de la razón de que los enemigos de la teoría de cuerdas no lo hayan hecho
es que los teóricos de cuerdas han mantenido vendado su propio talón de Aquiles
hasta hace muy poco. Sospecho que ahora que se está haciendo más pública, en
parte por mis propios escritos y conferencias, los sabiondos que viven en los
márgenes estarán sonriendo y anunciando en voz alta: «Ja, Ja, siempre lo
supimos. La teoría de cuerdas está muerta».
Mi conjetura es que la falta de elegancia y unicidad se acabarán viendo
como virtudes de la teoría. Una mirada honesta al mundo real no sugiere una
pauta de minimalismo matemático. He aquí una lista de las masas de las
partículas elementales del modelo estándar expresadas en términos de la masa
del electrón. Los números son aproximados.
|
Partícula |
Masa |
|
fotón |
0 |
|
gluón |
0 |
|
neutrino |
menos que 10−8 pero no cero |
|
electrón |
1 |
|
quark-up |
8 |
|
quark-down |
16 |
|
muón |
207 |
|
quark-extraño |
293 |
|
quark-encantado |
2900 |
|
leptón tau |
3447 |
|
quark-fondo |
9200 |
|
bosón W |
157 000 |
|
bosón Z |
178 000 |
|
quark-cima |
344 000 |
Hay aquí muy poca estructura aparte del incremento obvio cuando
descendemos por la lista.
Los números no parecen guardar ninguna relación sencilla con cantidades
matemáticas especiales como π o la raíz cuadrada de 2. La única razón por la
que existe cualquier pauta es que yo he listado a propósito las partículas en
orden de masa creciente.
Estos números son simplemente la punta del iceberg. Sabemos con certeza
que en el modelo estándar hay al menos otras veinte constantes de acoplamiento
independientes que gobiernan un amplio rango de fuerzas diferentes que no
traslucen simplicidad. Incluso esa lista está probablemente lejos de ser
exhaustiva. Hay más cosas en el mundo que sólo el modelo estándar de la física
de partículas. La gravitación y la cosmología introducen muchas constantes
nuevas, tales como las masas de las partículas de la materia oscura [46]. Hay
consenso entre los físicos de partículas, especialmente los que esperan que la
supersimetría sea una característica de la Naturaleza, en que las más de un
centenar de constantes de la Naturaleza independientes no están relacionadas de
ninguna manera conocida. Lejos de ser la estructura simple y elegante sugerida
a veces por los físicos, la descripción actual más fundamental de la Naturaleza
se parece a algo que podría haber diseñado el propio Rube Goldberg. Entonces
quizá haya que ajustar una teoría de Rube Goldberg.
Aunque el modelo estándar es un enorme avance en la descripción de las
partículas elementales, no se explica a sí mismo. Es bastante complicado, en
absoluto único y ciertamente incompleto. ¿Qué hay entonces de especial en
nuestro querido modelo estándar? Absolutamente nada: hay otros 10 500 igual
de consistentes. Nada, salvo que permite —quizá incluso estimula— la existencia
de vida.
Los cosmólogos no están normalmente tan infectados por el virus de la
elegancia —unicidad como los teóricos de cuerdas— probablemente porque suelen
examinar mejor la Naturaleza antes que las matemáticas. Lo que algunos de ellos
ven es un grupo de coincidencias notables:
—El universo es algo con un ajuste muy fino. Se hizo grande
expandiéndose a una velocidad ideal. Si la expansión hubiera sido demasiado
rápida, todo el material en el universo se habría dispersado y separado antes
de que tuviera oportunidad de condensarse en galaxias, estrellas y planetas.
Por el contrario, si la expansión inicial no hubiera tenido un impulso inicial
suficiente, el universo se habría dado la vuelta y desaparecido en un big
crunch muy parecido a un globo pinchado.
· El universo primitivo no era demasiado grumoso ni demasiado uniforme.
Como las gachas del bebé oso, era el adecuado. Si el universo hubiera empezado
mucho más grumoso de lo que lo hizo, en lugar de tener hidrógeno y helio
condensado en galaxias se habría agrupado en agujeros negros. Toda la materia
habría caído en dichos agujeros negros y habría quedado aplastada bajo fuerzas
tremendamente poderosas en el interior de los agujeros negros. Por el
contrario, si el universo primitivo no hubiera sido tan uniforme, no se habría
agrupado en absoluto. Un mundo de galaxias, estrellas y planetas no es el
producto genérico de los procesos físicos en el universo primitivo; es la
excepción rara y, para nosotros, muy afortunada.
· La gravedad es suficientemente fuerte para mantenernos en la superficie
de la Tierra, pero no tan fuerte como para que la presión extra en el interior
de las estrellas hubiera hecho que éstas se consumieran en pocos millones de
años en lugar de los miles de millones de años necesarios para que la evolución
darwiniana cree vida inteligente.
· Las leyes de la física microscópicas permiten la existencia de núcleos y
átomos que con el tiempo se ensamblan, como un mecano, en las grandes moléculas
de la vida. Además, las leyes son las adecuadas, de modo que el carbono, el
oxígeno y otros elementos necesarios pueden ser «cocinados» en estrellas de
primera generación y dispersados en supernovas.
El marco básico parece demasiado bueno para ser cierto. Más que seguir
una pauta de simplicidad o elegancia matemática, las leyes de la Naturaleza
parecen hechas especialmente a medida de nuestra propia existencia. Como he
dicho repetidamente, los físicos odian esta idea. Pero como veremos, la teoría
de cuerdas parece ser un marco ideal para explicar por qué el mundo es así.
Volvamos ahora a las cuestiones científicas difíciles. En el próximo
capítulo explicaré los sorprendentes —increíbles quizá no sea una palabra
demasiado fuerte— desarrollos cosmológicos que han estado empujando a la física
y la cosmología hacia un nuevo paradigma. Lo que es más importante, explicaré
lo que hemos aprendido sobre la temprana prehistoria de nuestro universo —cómo
llegó a su precaria condición actual— y los hechos escandalosos que conciernen
a la cifra decimal número ciento veinte de la constante cosmológica.
Capítulo 5
Un rayo del cielo
«Me sorprende la gente que quiere “conocer” el universo cuando ya es
bastante difícil orientarse en China-town».
WOODY ALLEN
Contenido:
§. El universo de Alexander Friedmann
§. El principio cosmológico y las tres geometrías
§. Los tres destinos
§. Geometría es destino
§. La edad del universo y las estrellas más viejas
§. La solución
§. Supernovas tipo I
§. Luz de la creación
§. Inflación
§. El universo de Alexander Friedmann
La mención del año 1929 produce estremecimientos en cualquiera que sea
suficientemente viejo como para recordarlo: quiebras, suicidios en Wall Street,
ejecución de hipotecas y desempleo. Fue el año que trajo la Gran Depresión.
Pero no todo fue malo. En Wall Street la Bolsa se hundió como un globo que
explota, pero en la soleada California Edwin Hubble descubrió el big
bang, una explosión de la que nació todo el universo conocido. Como ya se
ha señalado, contrariamente a lo que Einstein había pensado en 1917, el
universo cambia y crece con el tiempo. Según las observaciones de Hubble, las
galaxias distantes se alejan velozmente de nosotros, como si hubieran sido
disparadas por un cañón gigantesco, un cañón que podía disparar en todas
direcciones, y desde cualquier lugar, simultáneamente. Hubble no sólo descubrió
que el universo está cambiando: descubrió que ¡está creciendo como un globo en
expansión!
La técnica de Hubble para medir el movimiento de una galaxia era una
técnica conocida. La luz procedente de una galaxia se hace pasar a través de un
espectroscopio que la descompone en sus longitudes de onda componentes. Ya en
el siglo XVII, Isaac Newton hizo eso mismo cuando hizo pasar la luz blanca del
Sol a través de un prisma triangular. El prisma, un sencillo espectroscopio,
descompone la luz del Sol en todos los colores del arco iris. Newton concluyó,
correctamente, que la luz del Sol está compuesta de luz roja, naranja,
amarilla, verde, azul y violeta. Hoy sabemos que cada color del espectro
corresponde a una onda de una longitud (de onda) particular.
Si examinamos con mucho cuidado el espectro de la luz estelar, podemos
ver algunas líneas espectrales oscuras muy estrechas
superpuestas al arco iris de colores.
Estas misteriosas líneas donde no hay luz se denominan líneas de
absorción. Indican que algo situado a lo largo de la visual ha absorbido
ciertas longitudes de onda (colores) discretas sin perturbar el resto del
espectro. ¿Qué provoca este curioso fenómeno? El comportamiento mecanocuántico
de los electrones.
Según la teoría cuántica original del átomo de Bohr, los electrones en
los átomos se mueven en órbitas cuantizadas. La mecánica newtoniana permitiría
que los electrones orbiten a cualquier distancia del núcleo. Pero la mecánica
cuántica les restringe a moverse como vehículos a motor que están obligados,
por ley, a permanecer en carriles definidos. Moverse entre carriles viola las
leyes del tráfico: moverse entre órbitas cuantizadas viola las leyes de la
mecánica cuántica. Cada órbita tiene su propia energía y, para que un electrón
salte de una órbita a otra, la energía del electrón tiene que cambiar. Si un
electrón salta de una órbita externa a una interna, debe radiar un fotón que se
lleve el exceso de energía. Al revés, un electrón interno sólo puede saltar a
una órbita más distante si gana cierta energía, posiblemente por la absorción
de un fotón.
Normalmente un electrón se mueve en la órbita más interna disponible que
no esté ocupada por otros electrones (recordemos que el principio de exclusión
de Pauli impide que dos electrones ocupen el mismo estado cuántico). Pero si el
átomo es golpeado por otro objeto, un electrón puede absorber cierta energía y
dar un salto cuántico a una nueva órbita más alejada del
núcleo. El átomo está temporalmente excitado, pero finalmente el
electrón emitirá un fotón y volverá a su órbita original. La luz radiada de esta
manera tiene longitudes de onda definidas que son propias del tipo de átomo.
Cada elemento químico individual tiene su propia firma, un conjunto de líneas
espectrales que corresponden a los saltos cuánticos.
Si un fotón del color correcto incide en un átomo no excitado puede
suceder el proceso inverso: el fotón puede ser absorbido mientras el electrón
salta a una órbita más energética. Esto tiene un efecto interesante sobre la
luz estelar que atraviesa gas de hidrógeno en la atmósfera que rodea a una
estrella. El hidrógeno robará de la luz estelar precisamente aquellos colores
que caracterizan el espectro del hidrógeno. Si hay presente helio o carbono o
cualquier otro elemento, también dejarán su marca distintiva en la luz estelar.
A partir del estudio de los espectros de la luz estelar, sabemos qué elementos
químicos constituyen las estrellas. Pero lo que nos interesa ahora no es la
composición química sino más bien la velocidad de la estrella. El punto importante
es que los detalles exactos del espectro de absorción, visto desde la Tierra,
dependen de la velocidad relativa entre nosotros y la estrella. La clave es el
efecto Doppler.
Si usted ha oído la sirena de un coche de policía cuando pasa a gran
velocidad, usted ha experimentado el efecto Doppler. El sonido estridente
agudo, «iiiii», cuando se acerca da paso al sonido más grave, «oooo», cuando la
sirena se aleja. Durante la aproximación las ondas sonoras que se dirigen hacia
usted se amontonan, y al revés, cuando el coche se aleja, se estiran. Puesto
que longitud de onda y frecuencia están íntimamente relacionadas, usted oye
«iiiioooo». Usted podría entretenerse tratando de estimar a qué velocidad se
está moviendo el coche de la policía por la magnitud del cambio de frecuencia.
Pero el efecto Doppler no es sólo una diversión para profanos. Para los
astrónomos es nada menos que la clave de la estructura y la historia del
universo. El efecto Doppler sucede con todo tipo de ondas: ondas sonoras, ondas
vibratorias en cristales, incluso ondas de agua. Mueva el dedo en el agua
mientras su brazo cuelga por la borda de una barca que se mueve
lentamente [47]. Los
rizos que se dispersan a lo largo de la dirección de movimiento se amontonan.
Los que van en la dirección opuesta se separan.
Afortunadamente para los astrónomos, la luz emitida por un objeto en
movimiento hace lo mismo. Un limón a reacción que se alejara de usted podría
tener el color de una naranja o incluso de un tomate si fuese suficientemente
rápido [48].
Mientras se está moviendo hacia usted, usted podría confundirlo con una lima o
incluso una frambuesa gigante. Esto se debe a que la luz procedente de fuentes
que se alejan del observador está desplazada hacia el rojo y
la luz procedente de fuentes que se aproximan está desplazada hacia el
azul. Esto se aplica tanto a la luz procedente de galaxias como a la
procedente de limones. Además, la cantidad de desplazamiento es una medida de
la velocidad de la galaxia con respecto a la Tierra.
Hubble utilizó este fenómeno para determinar la velocidad de un gran
número de galaxias. Él tomó espectros muy precisos de la luz procedente de cada
galaxia y comparó las líneas espectrales con espectros similares tomados en el
laboratorio. Si el universo fuera estático como Einstein pensó originalmente,
los espectros galáctico y de laboratorio habrían sido idénticos. Lo que Hubble
encontró le sorprendió a él y a todos. La luz procedente de todas las galaxias
lejanas estaba desplazada hacia el rojo. Sin ninguna duda, Hubble supo que
todas se estaban alejando de nosotros. Algunas galaxias se movían lentamente y
otras lo hacían a gran velocidad, pero, salvo unas pocas galaxias muy próximas,
todas se movían hacia fuera. Esto debió de intrigar a Hubble. Significaba que
en el futuro las galaxias se dispersarían a distancias cada vez mayores. Y más
extraño todavía, significaba que en el pasado las galaxias estaban más próximas
a nosotros, ¡en algún momento quizá incluso encima de nosotros!
Hubble fue capaz también de hacer una determinación aproximada de las
distancias a las diversas galaxias y encontró una pauta: cuanto más lejanas
están las galaxias, mayor es su velocidad de recesión. Las galaxias más
próximas apenas se estaban moviendo, pero las más lejanas se estaban alejando a
velocidades enormes. En una hoja de papel, Hubble trazó dos ejes: en el eje
horizontal representó la distancia a cada galaxia; en el eje vertical, su
velocidad. Cada galaxia se representaba como un único punto en la gráfica. Lo
que encontró era extraordinario: la mayoría de los puntos caían sobre o cerca
de una línea recta.
Esto significaba que la velocidad de recesión no sólo aumentaba con la
distancia sino que era directamente proporcional a la distancia. Una galaxia a
distancia doble que otra parecía alejarse a doble velocidad. Ésta era una nueva
y totalmente inesperada regularidad en el universo. Una nueva ley cosmológica,
la ley de Hubble. Las galaxias se están alejando de nosotros con
velocidad proporcional a su distancia . Una formulación aún más
precisa es la siguiente: las galaxias se están alejando de nosotros con
una velocidad igual al producto de su distancia por un parámetro numérico
llamado constante de Hubble [49].
Bueno, en realidad no era completamente algo inesperado. Alexander
Friedmann era un matemático ruso que había estudiado la teoría de Einstein del
universo y en 1922 publicó un artículo afirmando que Einstein podría haberse
equivocado en su artículo de 1917. Argumentaba que si el universo no fuera
estático, si estuviera cambiando con el tiempo, la constante cosmológica sería
superflua. El universo de Friedmann era, como el de Einstein, una 3-esfera
cerrada y acotada. Pero, a diferencia del de Einstein, el universo de Friedmann
crecía con el tiempo. Si el universo de Einstein era similar a un globo
estático, el de Friedmann era similar a la superficie de un globo en expansión.
Coja un globo y marque en su superficie puntos que representen las galaxias.
Salpíquelos de manera más o menos uniforme. Luego hínchelo lentamente. Cuando
el globo se expande, los puntos se alejan; cada punto se aleja de cualquier
otro punto. Ningún punto es especial, sino que cada uno de ellos ve que todos
los demás se alejan. Ésta era la esencia del universo matemático de Friedmann.
Lo que usted también podría notar si fuera capaz de observar los puntos
es que cuanto más alejados están uno de otro, a más velocidad se separan. De
hecho, los puntos harían exactamente lo que hacían las galaxias de Hubble. La
ley de Hubble es la ley de los puntos en la superficie de un globo en
expansión. Por desgracia Friedmann murió en 1925, antes de que pudiera saber
del descubrimiento de Hubble o del hecho de que su trabajo —el de Friedmann—
había sentado las bases para toda cosmología futura.
Revisemos algo de dicha cosmología.
§. El principio cosmológico y las tres geometrías
«Sólo dos cosas son infinitas, el universo y la estupidez humana, y no
estoy seguro de lo primero».
ALBERT EINSTEIN
Hace un par de años tuve la buena fortuna de ser invitado a Sudáfrica
para dar unas conferencias en una de sus universidades. Durante mi estancia, mi
mujer y yo hicimos un viaje al Parque Nacional Krueger. El parque es una enorme
extensión de sabana africana y hogar de todos los grandes mamíferos del
continente. Fue una experiencia fabulosa. Por las mañanas y por las tardes
salíamos en un Land Rover a ver y fotografiar la vida salvaje. Vimos
hipopótamos, un rinoceronte, un búfalo africano, una manada de leones devorando
un antílope y, lo más impresionante, un elefante macho enfadado. Pero para mí
la vista más poderosa de todas fue la del cielo austral por la noche en una
noche sin Luna. El cielo austral es mucho más rico que el cielo septentrional
al que yo estaba acostumbrado y, además, Krueger está casi completamente libre
de contaminación lumínica. La vista de la Vía Láctea extendida a lo largo del
cielo realmente inspira respeto. Pero la humilde sensación de inmensidad es
engañosa. Toda la Vía Láctea con todas las estrellas visibles es un rincón
infinitesimal de un espacio mucho más vasto, lleno homogéneamente de cien mil
millones de galaxias, que sólo pueden verse a través de un gran telescopio. E
incluso eso es una porción minúscula de un cosmos mucho mayor.
Según mi diccionario, la palabra homogéneo significa
«de estructura o composición uniforme». Cuando se aplica a un puré significa
agradable y suave, es decir, sin grumos. Por supuesto, si usted mira el puré
con una lupa, difícilmente se ve homogéneo. Lo importante es que cuando usted
dice que algo es homogéneo, debe matizar la afirmación añadiendo «en escalas
mayores que cierto tamaño especificado». El puré bien removido es homogéneo a
escalas mayores de dos o tres milímetros. El campo de trigo del granjero Brown
en el centro de Kansas es homogéneo en escalas mayores que dos o tres metros.
Bueno, no del todo. El puré es sólo homogéneo en escalas que van desde
unos milímetros al tamaño del plato. El campo del granjero Brown es homogéneo a
escalas mayores de tres metros pero menores de un kilómetro. A escalas de un
kilómetro o más, el terrero parece un edredón de campos rectangulares. Lo
correcto es decir que el campo del granjero Brown es homogéneo a escalas entre
tres metros y una fracción de kilómetro.
A simple vista el cielo nocturno africano es muy heterogéneo.
La Vía Láctea es una banda luminosa brillante y estrecha que divide un fondo
mucho más oscuro. Pero una mirada a través de un gran telescopio revela miles
de millones de galaxias que están, en general, distribuidas de manera homogénea
a lo largo del universo observable. Según los astrónomos el universo parece ser
homogéneo e isótropo a escalas mayores de cien millones de
años luz y hasta al menos quince mil millones de años luz. El límite de quince
mil millones de años luz es una subestimación que simplemente representa
nuestra incapacidad para ver más lejos.
Volviendo a mi diccionario, encuentro la siguiente definición para el
término isótropo: «idéntico en todas direcciones; invariante con
respecto a la dirección». Isótropo no es lo mismo que homogéneo. He aquí un
ejemplo. En cierta ocasión, mientras estaba buceando cerca de un arrecife de
coral en el mar Rojo, vi un enorme cardumen de peces pequeños y estrechos, muy
juntos, que llenaban un gran volumen de forma homogénea. Por alguna extraña
razón, hasta que no estuve demasiado cerca, todos ellos se orientaban en la
misma dirección. El cardumen parecía homogéneo en cierto rango de escalas, pero
decididamente no isótropo. Cada lugar dentro del cardumen era como cualquier
otro lugar, pero cada dirección no era como cualquier otra dirección. La
dirección en la que se orientaban los peces era especial.
Cosmólogos y astrónomos suponen casi siempre que el universo es
homogéneo e isótropo; independientemente de dónde esté uno en el universo y en
qué dirección se oriente, ve lo mismo. No me refiero a los detalles más
pequeños, sino a las características globales a gran escala del universo. Los
cosmólogos llaman a esta hipótesis principio cosmológico. Por supuesto,
llamarlo principio no le hace justicia. Originalmente era sólo una conjetura,
pero poco a poco observaciones cada vez mejores de distinto tipo han convencido
a astrónomos y cosmólogos de que el universo es realmente homogéneo e isótropo
a escalas que van desde unos pocos cientos de millones de años luz hasta al
menos unas pocas decenas de miles de millones de años luz. Más allá, no estamos
seguros porque hay un límite a nuestras observaciones. Por muy grande que sea
nuestro telescopio, es imposible observar objetos que estén a más de catorce
mil millones de años luz. La razón es el simple hecho de que el universo sólo
tiene catorce mil millones de años. En ese tiempo la luz no podría haber
viajado más que catorce mil millones de años luz; la luz procedente de lugares
más distantes simplemente no nos ha llegado todavía. De hecho, es una apuesta
muy segura decir que el universo es homogéneo e isótropo a escalas de
distancias mucho mayores que la parte observable del universo. Pero como el
campo del granjero Brown, el universo puede convertirse en un edredón
desordenado a una distancia suficientemente grande: un mosaico de universos de
bolsillo.
Adoptemos de momento el punto de vista muy convencional de que el
principio cosmológico es correcto hasta las escalas más grandes. Esto plantea
una pregunta interesante: ¿qué tipo de geometría espacial global es compatible
con el principio cosmológico? Por geometría espacial entiendo la forma del
espacio. Empecemos con ejemplos bidimensionales. Una 2-esfera es una geometría
particular.
También lo son los elipsoides, las formas de pera y las formas de
plátano. [50]
De esta lista, sólo una esfera es homogénea e isótropa. Como un círculo,
una esfera tiene simetría perfecta; cualquier punto es exactamente igual que
cualquier otro punto. Un elipsoide, aunque no tan simétrico como una esfera,
aún tiene bastante simetría. Por ejemplo, su imagen especular es igual a sí
mismo. Pero no todo lugar en el elipsoide es igual que cualquier otro. La pera
y el plátano son aún menos simétricos.
Una manera de describir las propiedades de una superficie es por su
curvatura. La curvatura de la esfera es absolutamente uniforme.
Matemáticamente hablando es un espacio de curvatura positiva uniforme.
El elipsoide es también un espacio curvado positivamente, pero está más curvado
en algunos lugares que en otros. Por ejemplo, el elipsoide prolato, que tiene
una forma parecida a un submarino, está más curvado cerca de sus extremos que
en el centro. De todos estos ejemplos, sólo la esfera es homogénea y
uniformemente curvada.
Esferas, elipsoides y las superficies de frutas son geometrías cerradas
y acotadas, lo que significa que son de extensión finita pero sin bordes. Pero
la verdad es que nadie sabe si el universo es de extensión finita. Ningún
Magallanes cósmico lo ha circunnavegado. Es totalmente posible que el universo
se prolongue indefinidamente, en cuyo caso, es no acotado o infinito.
Si admitimos la posibilidad de que el universo sea infinito, hay otras
dos geometrías homogéneas e isótropas. La primera es obvia: el plano infinito.
Pensemos en una hoja de papel que se extiende indefinidamente. No hay mojones
en el plano infinito que le digan dónde está usted o en que dirección se mueve.
Y a diferencia de la superficie de la esfera, el plano no está curvado:
matemáticamente tiene curvatura nula. Curvatura positiva para la esfera,
curvatura cero para el plano y, finalmente, la última geometría homogénea
isótropa, la «geometría hiperbólica» con curvatura negativa. Para ayudar a
visualizarla, pensemos en un trozo de tubería doblado en ángulo recto. En el
exterior del «codo», la lámina de metal está curvada positivamente como la
esfera. La superficie curvada interior es el lugar donde la curvatura es
negativa.
Pero, por supuesto, el tubo acodado no es homogéneo. La región curvada
interna no es ni mucho menos igual que la región externa con curvatura
positiva. Un ejemplo mejor es la superficie de una silla de montar. Imaginemos
que la forma de la silla de montar se prolonga indefinidamente para formar una
superficie no acotada y con curvatura negativa. No es fácil de visualizar, pero
es perfectamente posible.
Estas tres superficies —esfera, plano y geometría hiperbólica— son
homogéneas. Además, las tres tienen análogos tridimensionales: la 3-esfera, el
espacio ordinario euclideano tridimensional y, el más difícil de visualizar, el
espacio hiperbólico tridimensional.
Para imaginar los tres tipos estándar de cosmologías, piense en cada
superficie como una lámina elástica (o globo en el caso de la esfera) y llene
la superficie con puntos que representan galaxias. Luego empiece a estirar la
superficie de modo que los puntos comienzan a separarse y la distancia entre
dos cualesquiera crece con el tiempo. Eso es todo lo que hay. Ahora tiene usted
una idea aproximada de las tres cosmologías homogéneas e isótropas. Los
cosmólogos se refieren a estos tres casos como k = 1, k = 0 y k = −1. Es
simplemente una abreviatura para curvatura positiva (la esfera), curvatura cero
(el espacio plano) y curvatura negativa (espacio hiperbólico).
¿Es el universo finito y acotado como pensaba Einstein o es no acotado y
está lleno con una infinidad inacabable de estrellas y galaxias? La pregunta
fascinó a los cosmólogos a lo largo del siglo XX, pero la respuesta se ha
mostrado esquiva. En el resto de este capítulo le contaré lo que se ha
descubierto en el pasado reciente y cómo afecta a la respuesta.
§. Los tres destinos
Hace aproximadamente un mes estaba en casa trabajando en este libro
cuando me sobresaltó un golpe en la puerta de entrada. Cuando abrí, tres
jóvenes pulcramente vestidos me pasaron un panfleto. Normalmente no me molesto
en discutir con proselitistas, pero cuando vi el título del folleto — ¿Está
usted preparado para el fin del universo?— no pude resistirme a hacerles
alguna pregunta. Cuando les pregunté como sabían algo sobre el fin del universo
me dijeron que los científicos modernos habían confirmado la narración bíblica
del Armagedón y que el fin del universo era una certeza científica.
Probablemente tenían razón. Los científicos modernos predicen que el
universo —al menos el universo tal como lo conocemos— tendrá un
final. Cualquier teoría cosmológica razonable lo dice. Cuándo y cómo sucederá
varía de un conjunto de hipótesis a otro, pero todos coinciden en que no
sucederá antes de unas decenas de miles de millones de años.
Hablando en general, hay dos escenarios para «el fin del mundo». Para
entenderlos, pensemos en una piedra arrojada verticalmente al aire. En
realidad, quiero olvidarme del aire. Arrojemos la piedra desde un asteroide sin
aire. Puede suceder una de dos cosas. La atracción gravitatoria del asteroide
puede ser suficiente como para traer de nuevo la piedra al suelo o puede no
serlo. En el primer caso, la piedra invertirá su movimiento hacia arriba y
volverá a dar en el suelo, pero en el segundo, superará la atracción
gravitatoria y seguirá indefinidamente. Todo depende de si la velocidad inicial
de la piedra es mayor que la velocidad de escape. La velocidad de escape
depende de la masa del asteroide: cuanto mayor es la masa, mayor es la
velocidad de escape.
Según la teoría de la relatividad general, el destino del universo es
muy parecido al destino de esa piedra [51]. Las
galaxias (y otros materiales en el universo) han salido disparadas de la
explosión del big bang y ahora se están alejando unas de
otras. Mientras, la gravedad está trabajando para juntarlas de nuevo. Para
decirlo de otra manera, el universo está creciendo como un globo, pero la
materia gravitante está frenando lentamente la expansión. ¿Continuará la
expansión o la gravedad la invertirá y hará que finalmente el universo empiece
a contraerse? La respuesta es bastante similar al caso del asteroide y la piedra.
Si hay suficiente masa en el universo, la expansión se invertirá y finalmente
el universo desaparecerá en un gran y terrible crujido supercalentado. Por el
contrario, si no hay suficiente masa, el universo seguirá expandiéndose
indefinidamente. En este caso, el final puede ser más suave, pero con el tiempo
el universo se hará tan tenue que tendrá una muerte fría.
Para la piedra y el universo hay una tercera posibilidad. La piedra
podría llevar precisamente la velocidad de escape. Esto requeriría un
equilibrio perfecto entre atracción gravitatoria y velocidad hacia arriba. Si
se hacen los cálculos en este caso se encuentra que la piedra sigue subiendo
aunque a una velocidad cada vez menor. Lo mismo es cierto para el universo. Si
hay un equilibrio exacto entre densidad de masa y expansión hacia fuera, el
universo se expandirá eternamente pero a una velocidad cada vez menor.
§. Geometría es destino
Tres geometrías posibles y tres destinos posibles; ¿hay una conexión? La
hay. La teoría de la gravedad de Einstein (sin una constante cosmológica)
relaciona la geometría con la presencia de masa; la masa afecta a la geometría.
El lema newtoniano «la masa es la fuente del campo gravitatorio» es reemplazado
por «la masa curva y dobla el espacio». Éste es el vínculo que relaciona las
tres geometrías con los tres destinos. Los detalles están en las matemáticas
difíciles (cálculo tensorial y geometría riemanniana) de la relatividad
general, pero el resultado (sin constante cosmológica) es fácil de entender.
· Si la densidad de masa en el universo es suficientemente grande como
para invertir la expansión, distorsionará el espacio dando una esfera, es
decir, una 3-esfera. Éste es el caso de un universo cerrado-y-acotado. Y su
destino es un crujido final o, en la jerga técnica, una singularidad. Este caso
se denomina universo cerrado o universo k = 1.
· Si la densidad de masa es menor que la mínima cantidad necesaria para
cerrar el universo, también es insuficiente para invertir el movimiento. En
este caso, distorsiona el espacio dando una geometría hiperbólica. El universo
hiperbólico se expande para siempre. Se denomina universo abierto o
caso k = −1.
· Si el universo está exactamente en el filo de la navaja, entre abierto y
cerrado, la geometría del espacio es un espacio plano, no curvado, euclideano,
pero el universo se expande incesantemente, aunque a una velocidad cada vez
menor. Esto se denomina universo plano, y está etiquetado como k = 0.
Así que, ¿cuál es?
Unos dicen que el mundo terminará en fuego,
otros dicen que en hielo.
Por lo que he saboreado del deseo,
estoy con quienes prefieren el fuego.
Pero si tuviera que morir dos veces,
creo que sé suficiente del odio
para saber que para la destrucción el hielo
también es grande y bastaría.
Robert Frost, «Fuego y hielo».
Cuando pregunté a los tres jóvenes misioneros si sería muerte caliente o
muerte fría, me dijeron que todo dependía de mí. Muy probablemente a menos que
yo cambiase mi modo de vida sería la muerte caliente.
Físicos y cosmólogos están menos seguros del resultado final. Durante
décadas han tratado de determinar cuál de los tres destinos regirá los días
finales. La primera forma de descubrirlo es muy directa: utilizar telescopios
para mirar a los confines del espacio y contar toda la masa que puede verse
—estrellas, galaxias, gigantescas nubes de polvo y cualquier otra cosa que
pueda verse o deducirse—. ¿Es la atracción gravitatoria de todo ese material
suficiente como para invertir la expansión?
Sabemos a qué velocidad se expande hoy el universo. Hubble determinó que
la velocidad de una galaxia distante es proporcional a su distancia, siendo el
factor de proporcionalidad la constante de Hubble. Esta cantidad es la mejor
medida de la velocidad de expansión: cuanto mayor es la constante de Hubble,
más rápidamente se están alejando de nosotros todas las galaxias. Las unidades
de la constante de Hubble son velocidad por unidad de distancia. Los astrónomos
suelen decir «kilómetros por segundo por megaparsec». Todo el mundo reconocerá
kilómetros por segundo como una unidad de velocidad. Un kilómetro por segundo
es aproximadamente tres veces la velocidad del sonido, es decir, Mach 3. El
megaparsec es menos familiar. Es una unidad de longitud conveniente para el
estudio de la cosmología. Un megaparsec es unos tres millones de años luz, o
treinta trillones de kilómetros, un poco más que la distancia a nuestra galaxia
vecina, Andrómeda.
El valor de la constante de Hubble ha sido medido repetidamente durante
años y ha sido tema de un vivo debate. Los astrónomos estaban de acuerdo en que
está entre cincuenta y cien kilómetros por segundo por megaparsec, pero sólo en
el pasado reciente se ha decidido que la respuesta está en unas setenta y cinco
unidades. La consecuencia es que a una distancia de un megaparsec, las galaxias
se están alejando con una velocidad de 75 km/s. A dos megaparsec, su velocidad
es 150 km/s.
Ahora bien, 75 km/s suena terriblemente rápido para patrones terrestres.
A esa velocidad se tardaría unos diez minutos en dar la vuelta a la Tierra.
Pero no es en absoluto rápida desde el punto de vista de un físico o un
astrónomo. Por ejemplo, el movimiento en molinillo de la Vía Láctea imparte a
la Tierra una velocidad que es tres veces mayor. Y en comparación con la
velocidad de la luz, es un paso de caracol.
De hecho, según la ley de Hubble, la galaxia Andrómeda debería estar
alejándose de nosotros a unos 50 km/s, pero en realidad se está moviendo hacia
nosotros. Está tan cerca que la expansión de Hubble está contrarrestada por la
atracción gravitatoria de nuestra galaxia. Sin embargo, nunca se pretendió que
la ley de Hubble fuera exacta para una galaxia tan cercana como Andrómeda.
Cuando consideramos galaxias que están suficientemente alejadas como para
escapar de la gravedad de las demás, la ley funciona muy bien.
De todas formas, la expansión es lenta y se necesitaría muy poca
densidad de masa para darle la vuelta.
Conociendo la velocidad de expansión, una aplicación directa de las
ecuaciones de Einstein nos permite calcular cuánta densidad de masa se
requeriría para impedir que el universo siga creciendo eternamente. ¿La
respuesta? Tan sólo 10−25 kilogramos por metro cúbico sería el
valor del filo de la navaja: un poco más y se invertiría finalmente el flujo
hacia afuera de las galaxias. Eso no es mucho. Es aproximadamente la masa de
cincuenta protones en un metro cúbico. Una pizca más sería suficiente para
curvar el universo en una 3-esfera y convertir el big bang en
un desastroso big crunch. Si la densidad tuviera exactamente ese
valor crítico, el universo sería plano (es decir, k = 0).
Los astrónomos buscan en el cielo materia en forma de estrellas, gas y
nubes de polvo: toda la materia en el universo que emite o dispersa luz.
Suponiendo que el universo es homogéneo, podemos contar toda la masa brillante
que hay en la vecindad de nuestra galaxia y medir la densidad media de masa
cósmica. El número es extraordinariamente pequeño, sólo una masa de un protón
por metro cúbico: demasiado pequeño en un factor de cincuenta para cerrar el
universo. La consecuencia obvia es que estamos viviendo en un universo abierto
infinito (k = −1) con curvatura negativa y que se expandirá para siempre.
Pero astrónomos y cosmólogos siempre han sido reacios a saltar a esta
conclusión. A diferencia de la física, donde estar equivocado en un factor de
cincuenta es una desgracia, la astronomía, hasta muy recientemente, ha sido una
ciencia algo tosca. No era infrecuente que las estimaciones difirieran del
valor correcto en factores de diez o cien por defecto o por exceso. Dado que la
densidad de masa podría haber tenido cualquier valor, el hecho de que resultara
tan próxima a la densidad crítica hacía recelar a los cosmólogos. Y tenían
razón en recelar.
Aparte de medir simplemente la luz que procede de una galaxia, hay otra
manera mucho más directa y fiable de determinar su masa, y es utilizar las
leyes de Newton. Volvamos al asteroide y la piedra. Ahora, en lugar de moverse
verticalmente, la piedra se está moviendo en una órbita circular alrededor del
asteroide. La gravedad del asteroide mantiene la piedra en órbita. La
observación clave, que se remonta a Newton, es que midiendo la velocidad de la
piedra y el radio de su órbita se puede determinar la masa del asteroide. De un
modo similar, midiendo la velocidad de las estrellas en las zonas más
exteriores de una galaxia en rotación, los astrónomos pueden medir la masa de
la galaxia. ¿Y qué es lo que encuentran?
Las galaxias son mucho más pesadas de lo que los astrónomos habían
pensado. Hablando de manera aproximada, cada galaxia tiene unas diez veces más
masa que todas las estrellas visibles y todo el gas interestelar que contiene.
Las otras nueve décimas partes de la masa son un misterio. Es prácticamente
seguro que no están hechas de las cosas que forman la materia corriente:
protones, neutrones y electrones. Los cosmólogos la llaman materia oscura:
oscura porque no emite luz [52]. Tampoco
esta materia fantasmal dispersa luz ni se hace visible de ninguna forma,
excepto a través de su gravedad. Así de extraña es la ciencia moderna. Durante
todos estos años —desde la época de John Dalton—, se pensó que toda la materia
era el material usual de la química. Pero ahora parece que del noventa por
ciento de toda la materia del universo no sabemos nada.
Mientras los astrónomos estaban en el lento proceso de convencerse de
que la materia oscura existe realmente, los físicos teóricos estaban muy
ocupados postulando todo tipo de nuevas partículas elementales por todo tipo de
razones. Los neutrinos fueron un primer ejemplo, las partículas supercompañeras
fueron otro, pero ciertamente no agotan la lista imaginaria de partículas
hipotéticas que se postularon por una razón u otra. Nadie sabe con seguridad
qué es la materia oscura, pero la solución más probable es que sean nuevas
partículas elementales pesadas que todavía no hemos descubierto. Quizá sean las
supercompañeras gemelas no idénticas de las partículas ordinarias —los
compañeros bosónicos de los neutrinos o incluso el compañero fermiónico del
fotón—. Quizá sean una clase totalmente insospechada de partículas elementales
que ningún teórico ha imaginado nunca. Sean lo que sean, son pesadas —tienen
masa y gravitan— pero no tienen carga eléctrica para dispersar o emitir luz. Es
todo lo que sabemos en realidad. Deben de estar a nuestro alrededor,
atravesando constantemente la Tierra e incluso nuestros cuerpos, pero nunca
podemos verlas, sentirlas u olerías. Sin carga eléctrica, no tienen ninguna
manera directa de interaccionar con nuestros sentidos. Se están construyendo
detectores de partículas muy sensibles a fin de que podamos aprender más sobre
estos objetos misteriosos, pero por ahora basta con saber que hacen las
galaxias diez veces más pesadas de lo que pensábamos.
La pregunta de si el universo es abierto e infinito o cerrado y finito
ha perseguido a la astronomía desde que ha habido astrónomos. Un universo
cerrado con un número finito de galaxias, estrellas y planetas es
intuitivamente comprensible, pero un universo no acotado es casi
incomprensible. Hemos llegado más cerca de tener materia suficiente para cerrar
el universo, tentadoramente cerca. Originalmente estábamos lejos de la densidad
crítica en un factor de cincuenta. Ahora es solo un factor de cinco, pero nuestra
confianza en que conocemos la cantidad de masa que hay es mucho mayor. ¿Podría
ser que la constante de Hubble no estuviera medida con precisión? Si fuera
menor en un factor de dos o tres, la densidad de masa estaría muy cerca de
cerrar el universo. Por ello, si queremos evitar cualquier circulo vicioso en
el razonamiento, tenemos que obtener el valor correcto.
Los astrónomos han estado acercándose al valor de la constante de Hubble
durante casi ochenta años con instrumentos cada vez más sofisticados. Ahora
parece muy poco probable que pueda ser suficientemente pequeña como para
permitir que el universo sea cerrado. Si éste fuera el final de la historia,
tendríamos que concluir que la densidad de masa cósmica era insuficiente para
cerrar el universo, pero aún no lo hemos hecho.
La otra manera de determinar si el universo es abierto, cerrado o plano
es muy directa. Imaginemos un triángulo muy grande en el espacio, un triángulo
de proporciones cósmicas. Para asegurar que los lados son rectos, deberíamos
tomarlos como trayectorias de rayos de luz. Un topógrafo cósmico podría medir
los ángulos del triángulo y, si fuera un estudiante de geometría euclideana,
podría concluir que la suma de los ángulos debería ser de ciento ochenta
grados, dos ángulos rectos. Los antiguos griegos estaban seguros de ello: no
podían concebir que el espacio fuera de otra manera.
Pero los geómetras modernos saben que la respuesta depende de la
geometría del espacio. Si el espacio es plano como pensaba Euclides, la suma de
los tres ángulos sería de ciento ochenta grados. Por el contrario, si el
espacio es una esfera, los ángulos sumarían más de ciento ochenta grados. Menos
fáciles de visualizar, los ángulos de un triángulo en un espacio curvado
negativamente siempre sumarán algo menos de ciento ochenta grados.
Enviar un equipo de topógrafos cósmicos a miles de millones de años luz
hasta los vértices de un inmenso triángulo no es factible e, incluso si lo
fuera, se necesitarían miles de millones de años para llegar allí y miles de
millones de años más para tener los resultados de vuelta en la Tierra. Pero el
ingenio de los astrofísicos no tiene límites y, créalo o no, ellos idearon una
manera de hacer el trabajo sin siquiera dejar la Tierra. Volveré a cómo lo
hicieron después de explicar el fondo cósmico de microondas o CMB. Pero el
resultado es fácil de enunciar: el espacio parece ser plano. Los ángulos suman
precisamente lo que Euclides suponía. O al menos suman ciento ochenta grados
dentro de la precisión del experimento.
Ahora, querido lector, usted debe darse cuenta de que hay algo
terriblemente erróneo. Tenemos dos maneras de determinar si el universo es
abierto, cerrado o plano y dos respuestas incompatibles. La cantidad de masa en
el universo parece ser cinco veces demasiado pequeña para cerrar el universo o
incluso para hacerlo plano. Pero la medida de triángulos cósmicos parece dejar
poca duda de que la geometría del universo es plana.
§. La edad del universo y las estrellas más viejas
Imaginemos una película cósmica, una biografía que sigue al universo
desde su nacimiento en fuego a su edad actual. Pero en lugar de ver la película
de la forma acostumbrada —desde el nacimiento a la vejez—, la pasamos hacia
atrás, rebobinándola por así decir. En lugar de expandirse, lo vemos
contraerse. Las galaxias parecen moverse según una versión inversa de la ley de
Hubble, con una velocidad proporcional a su distancia pero acercándose a
nosotros en lugar de alejarse. Sigamos una de estas galaxias lejanas mientras
se acerca a nosotros. Usando la ley de Hubble (hacia atrás) podemos determinar
su velocidad. Digamos que la galaxia está a un megaparsec. La ley de Hubble nos
dice que se está aproximando a una velocidad de 75 kilómetros por segundo.
Sabiendo a qué distancia está y con qué velocidad se está moviendo, es un
ejercicio fácil determinar cuánto tiempo pasará hasta que la galaxia esté
encima de nosotros. Yo lo haré por usted. La respuesta es de unos quince mil
millones de años. Ésa es la respuesta si suponemos que la galaxia se mueve a
una velocidad constante.
¿Qué pasa si empezamos con una galaxia a dos megaparsecs en lugar de
uno? La ley de Hubble nos dice que se está moviendo a una velocidad doble que
la galaxia anterior: dos veces más lejos pero dos veces más rápida. También
llegará hasta nosotros dentro de quince mil millones de años. De hecho, lo
mismo es cierto para cualquier galaxia lejana. Según este cálculo, todas las
galaxias se fundirán en una masa indiferenciada en unos quince mil millones de
años en la película al revés.
Pero las galaxias no se mueven con velocidad uniforme a medida que se
aproximan. En la versión hacia adelante de la película, la gravedad las frena
cuando se alejan. Por tanto, en la versión hacia atrás, cuando se acercan unas
a otras la gravedad las acelera. Esto significa que tardarían menos tiempo en
colisionar. Cuando los cosmólogos hacen el cálculo correcto (en la versión
hacia adelante), encuentran que las galaxias estuvieron amontonadas en una
densa masa hace unos diez mil millones de años. Esto significaría que sólo han
pasado diez mil millones de años desde que los gases hidrógeno y helio
empezaran a diferenciarse en los grumos que con el tiempo se convirtieron en
galaxias. Para decirlo de forma concisa, el universo, según este cálculo, tiene
diez mil millones de años.
Determinar la edad del universo ha sido un viaje lleno de baches.
Originalmente Hubble subestimó las distancias a las galaxias en aproximadamente
un factor de diez. Esto le llevó a concluir que el universo empezó su expansión
hace simplemente mil millones de años. Pero en la época de Hubble ya se habían
datado rocas de dos mil millones de años a partir de su radioactividad.
Obviamente había un error, pronto se encontró. Pero sigue existiendo una
versión moderna del problema. Astrónomos y astrofísicos, que estudian las
propiedades detalladas de estrellas en nuestra galaxia, encuentran que las
estrellas más viejas son más viejas que el universo. Tienen unos trece mil
millones de años. ¡Las hijas son más viejas que el padre!
En resumen, tres grandes problemas afectan a nuestro pensamiento sobre
el universo. En primer lugar, hay pruebas contradictorias con respecto a la
geometría del espacio, si es abierto, cerrado o plano. Segundo, ¿es realmente
más joven que las estrellas más viejas? Y tercero, la madre de todos los
problemas: ¿hay una constante cosmológica como creía Einstein originalmente y,
si no, por qué no la hay? ¿Están relacionados estos problemas? Por supuesto que
lo están.
§. La solución
Quizá la solución sea que nuestra teoría de la gravedad —la teoría de la
relatividad general— es simple y llanamente falsa. De hecho, algunos físicos
han llegado a esta conclusión. Normalmente estos físicos tratan de hacer
modificaciones en la teoría que sólo afectarán a la fuerza gravitatoria a
distancias muy grandes. Personalmente no encuentro mucho mérito en estos
esquemas. En general son muy retorcidos, suelen violar principios fundamentales
y, en mi opinión, son completamente innecesarios.
Otra salida posible es suponer que los astrónomos están tomando
demasiado en serio la precisión de sus datos. Uno puede perfectamente apostar
contra los datos experimentales que contradicen las expectativas dominantes.
Tales datos son casi siempre falsos, como suele demostrar la experimentación
posterior. En este caso, yo habría apostado contra los datos astronómicos, no
contra la teoría. Pero parece que habría perdido mi apuesta. A medida que han
ido mejorando durante los últimos años, los datos refuerzan el hecho de que
observación y teoría no se llevan bien. Realmente hay algún error.
Pero hay una posibilidad oculta bajo la superficie que no puede ser
descartada fácilmente. ¿Qué pasa si después de todo existe una constante
cosmológica? ¿Qué pasa si el mayor patinazo de Einstein fuera realmente uno de
sus más grandes descubrimientos? ¿Podría eso resolver los conflictos?
Cuando consideramos si la masa observable del universo sería suficiente
para hacerlo plano o cerrado, ignoramos por completo la posibilidad de una
energía del vacío. Eso sería un error en un mundo con una constante
cosmológica. Las ecuaciones de Einstein dicen que todas las
formas de energía afectan a la curvatura del espacio. Energía y masa son lo
mismo, de modo que la energía del vacío debe contarse como parte de la densidad
de masa del universo. La materia corriente y la materia oscura juntas suman
aproximadamente un treinta por ciento de la masa necesaria para aplanar o
cerrar el universo. La solución obvia del dilema es poner el setenta por ciento
que falta en forma de una constante cosmológica. Esto significaría que la
densidad de energía del vacío era un poco más que el doble de la masa de la
materia ordinaria y la materia oscura combinadas, unas treinta masas de protón
por metro cúbico.
Puesto que la constante cosmológica representa una fuerza repulsiva,
tendría un efecto en la manera en que el universo se expande. La fase primitiva
de la expansión no estaría muy afectada, pero a medida que crece la distancia
entre galaxias, también lo hace la fuerza repulsiva. Finalmente, la constante
cosmológica puede acelerar el movimiento hacia afuera de las galaxias, haciendo
que la expansión de Hubble cobre velocidad.
Pasémoslo hacia atrás. Las galaxias están cayendo hacia adentro, pero
ahora la repulsión extra las frena. La estimación inicial de su velocidad hacia
adentro (la que hacemos hoy) sobreestima la rapidez con que se están moviendo a
medida que se acercan. El no tener en cuenta la energía del vacío nos llevaría
a subestimar el tiempo que transcurre hasta que todas las galaxias se funden.
En otras palabras, si hubiera una constante cosmológica pero no lo supiéramos,
encontraríamos que el universo parece más joven de lo que realmente es. De
hecho, si incluimos los efectos de una energía del vacío igual a
aproximadamente treinta masas de protón por metro cúbico, el tiempo de vida del
universo de diez mil millones de años se estiraría hasta unos catorce mil
millones de años. Eso es perfecto porque hace al universo un poco más viejo que
las estrellas más viejas.
Estas conclusiones relativas a la existencia de una constante
cosmológica son tan importantes que quiero repetirlas. La existencia de una
pequeña constante cosmológica, que representa el setenta por ciento de la
energía del universo, resuelve los dos mayores enigmas de la cosmología.
Primero, la energía adicional es suficiente para hacer el universo plano. Este
hecho elimina la molesta discrepancia entre la planicie observada del espacio y
el hecho de que la masa del universo sea insuficiente para hacerlo plano.
La segunda paradoja que queda eliminada por la constante cosmológica es
la discrepancia igualmente molesta que supone el hecho de que las estrellas más
viejas parecen más viejas que el universo. De hecho, la misma energía del vacío
—setenta por ciento de la total— es exactamente la que se necesita para hacer
el universo un poco más viejo que estas antiguas estrellas.
§. Supernovas tipo I
Durante la última década, la precisión histórica de la biografía del
universo ha sido enormemente mejorada. Ahora conocemos la historia de la
expansión con mucho más detalle. La clave está en una clase de sucesos lejanos
llamados supernovas tipo I. Una supernova es un suceso
cataclísmico en el que una estrella moribunda desaparece bajo su propio peso y
se convierte en una estrella de neutrones. La supernova es tan
inimaginablemente violenta que cuando ocurre en una galaxia su brillo puede superar
el de los miles de millones de estrellas que comprende dicha galaxia. Las
supernovas son fáciles de detectar incluso en galaxias muy lejanas.
Todas las supernovas son interesantes, pero hay algo especial en las
supernovas tipo I. Se originan a partir de sistemas de estrellas dobles en los
que una estrella ordinaria y una enana blanca orbitan cada una alrededor de la
otra a una distancia relativamente próxima. La estrella enana blanca es una
estrella muerta que no tiene masa suficiente para desaparecer en una estrella
de neutrones.
Conforme las dos estrellas giran cada una alrededor de la otra, la
gravedad de la enana blanca succiona poco a poco materia de la estrella
ordinaria y de esta manera aumenta lentamente su propia masa. En un momento muy
preciso, cuando la masa es la justa, la enana blanca ya no puede soportar su
propio peso e implosiona creando una supernova tipo I. El comportamiento de la
desaparición final no depende de la masa original de la enana blanca o, para el
caso, de su compañera. De hecho se cree que estos sucesos ocurren de una única
manera y siempre dan la misma cantidad de luz. Un astrónomo diría que todos
tienen la misma luminosidad [53]. Y a
partir de su brillo aparente, los astrónomos pueden decir, con un buen grado de
certidumbre, a qué distancia están.
La velocidad de la galaxia en la que está inmersa la supernova también
puede determinarse fácilmente utilizando el método Doppler. Y una vez que
conocemos la distancia y la velocidad de la galaxia lejana, es fácil determinar
la constante de Hubble. Pero lo que hay de especial en las galaxias muy lejanas
es que su luz fue emitida hace mucho tiempo. Una galaxia que está a cinco mil
millones de años luz de distancia irradió la luz que ahora vemos hace cinco mil
millones de años. Cuando medimos el parámetro de Hubble hoy en la Tierra,
estamos midiendo realmente el valor que tenía hace cinco mil millones de años.
Fijándonos en galaxias a muchas distancias diferentes, medimos
efectivamente la historia del parámetro de Hubble. En otras palabras, las
supernovas tipo I nos permiten conocer muchas cosas sobre la historia del
universo en las diversas etapas de su evolución. Y lo que es más importante,
nos permiten comparar nuestro universo real con modelos matemáticos, con y sin
constantes cosmológicas. Los resultados son inequívocos. La expansión del
universo se está acelerando bajo la influencia de una constante cosmológica o
algo muy parecido a ella. Para físicos teóricos como yo, esto es un contundente
cambio de fortuna que no puede hacer otra cosa que cambiar toda nuestra
perspectiva. En efecto, durante mucho tiempo hemos tratado de explicar por qué
la energía del vacío es exactamente cero. Bien, parece que no es cero. Las 119
primera cifras decimales de la constante cosmológica se anulan, pero luego, en
el lugar 120, increíblemente, aparece un valor no nulo. Para hacer las cosas
aún más interesantes, su valor es aproximadamente el que Weinberg predijo que
sería basado en el principio antrópico.
§. Luz de la creación
Puesto que la luz viaja a velocidad finita, los grandes telescopios que
miran a tremendas distancias están mirando también muy atrás en el pasado.
Vemos el Sol como era hace ocho minutos, la estrella más cercana como era hace
cuatro años. Los humanos primitivos estaban empezando a ponerse erguidos cuando
la luz empezó su viaje de dos millones de años desde la galaxia más próxima,
Andrómeda.
La más vieja es la luz que ha estado viajando hacia nosotros durante
unos catorce mil millones de años. Esta luz salió antes de que se hubiera
formado la Tierra o incluso las estrellas más viejas. De hecho, el hidrógeno y
el helio todavía no habían iniciado el proceso de diferenciación en galaxias.
Tan calientes y densos eran estos gases que todos los átomos estaban ionizados.
Era la época más cercana a la creación que la Naturaleza nos permitirá ver, al
menos si el mensajero es la radiación electromagnética.
Pensemos en el universo como una serie de capas concéntricas con
nosotros en el centro. Por supuesto, no hay capas reales, pero nada nos impide
dividir el espacio de ese modo. Cada capa sucesiva está más alejada que la
anterior. Cada capa representa también una época (tiempo) anterior a la que le
precede. Mirando cada vez más lejos, lo que estamos haciendo, de hecho, es
pasar la película del universo hacia atrás.
Cuanto más lejos miramos, más densamente poblado parece el universo. En
la película del universo al revés la materia se hace cada vez más densa, como
si un pistón gigante la estuviera comprimiendo cada vez más. Ese pistón es, por
supuesto, la gravedad. Además, una propiedad de la materia es que cuando se
comprime se hace más caliente, además de más densa. Hoy, la temperatura media
del universo es sólo de unos tres grados por encima del cero absoluto o −270
°C. Pero conforme seguimos el universo hacia el pasado, la temperatura crece,
primero hasta temperatura ambiente, luego a la temperatura de ebullición y, con
el tiempo, a la temperatura en la superficie del Sol.
El Sol está tan caliente que los átomos que lo componen han sido
desgarrados por su violento movimiento térmico. Los núcleos están intactos,
pero los electrones más débilmente ligados se han liberado y pueden deambular
por los gases calientes del Sol, que son ahora un plasma conductor
eléctrico [54].
Los conductores eléctricos son generalmente los materiales menos
transparentes. Los electrones que se mueven libremente dispersan la luz con
facilidad. Esta dispersión de la luz hace el Sol opaco. Pero cuando nos movemos
hacia afuera hasta la superficie del Sol, la temperatura y la densidad decrecen
hasta el punto que se hace transparente. Ahí es donde vemos la superficie del
Sol.
Viajemos ahora hacia atrás en el tiempo y hacia afuera en el espacio
hasta la última capa visible, donde las condiciones son similares a las de la
superficie del Sol. De nuevo la luz nos llega desde una superficie como la del
Sol: una capa gigantesca de plasma caliente que nos rodea por todos lados. Los
astrónomos la llaman la superficie de última dispersión. Por
desgracia, mirar a través del plasma conductor a una capa aún más antigua y más
alejada es tan imposible como mirar a través del Sol.
Inmediatamente después del big bang, la luz procedente de la
superficie de última dispersión era tan brillante como la superficie del Sol.
Esto plantea una pregunta interesante: ¿por qué, cuando miramos el cielo que
nos rodea, no vemos ese resplandor brillante de plasma primordial caliente e
ionizado? Para preguntarlo de otra manera, ¿por qué no está el cielo
uniformemente iluminado con el mismo brillo que veríamos si miráramos
directamente al Sol? Por fortuna, el efecto Doppler nos salva de esa terrible
perspectiva. Debido a la expansión de Hubble, el plasma que emitió
originalmente la luz primordial se está alejando de nosotros a gran velocidad.
De hecho, utilizando la ley de Hubble podemos calcular la velocidad de esta
recesión y el resultado es sólo ligeramente menor que la velocidad de la luz.
Esto significa que la radiación emitida sufrió un desplazamiento Doppler hacia
el rojo hasta el visible y el infrarrojo, en todo el espectro de microondas.
Aquí, uno de los más antiguos descubrimientos de la mecánica cuántica desempeña
un papel importante: la energía de un fotón depende de la longitud de onda de
tal manera que un fotón de microondas tiene una energía unas mil veces menor
que un fotón de luz visible. Por esta razón, los fotones que finalmente nos llegan
desde la superficie de última dispersión no son muy potentes. No tienen más
efecto en nuestra retina que las radio-ondas que nos rodean continuamente.
Hay otra forma de entender por qué esta radiación cósmica nos llega con
una potencia muy reducida. Los fotones procedentes de la superficie de última
dispersión eran muy calientes, aproximadamente tan calientes como la superficie
del Sol. Llenaban el espacio, formando una especie de gas de fotones; y como
todos los gases, cuando se expanden, se enfrían. La expansión del universo,
desde el momento del big bang, enfrió el gas de fotones hasta el
punto de que perdió la mayor parte de su energía. Hoy, la radiación del CMB
(fondo cósmico de microondas) es muy fría: menos de tres grados por encima del
cero absoluto. Las dos explicaciones de la pérdida de potencia del CMB son
completamente equivalentes desde el punto de vista matemático.
George Gamow fue el primero en tener la idea del big bang.
Poco después, dos de sus colegas más jóvenes, Ralph Alpher y Robert Herman,
llegaron a la idea del CMB como una especie de resplandor residual. Incluso
estimaron la temperatura que tendría hoy la radiación, y obtuvieron cinco
grados: un error de menos de dos grados respecto a la respuesta correcta. Pero
en esa época los físicos creían que una radiación tan débil nunca podría
detectarse. Estaban equivocados, pero hubo que esperar hasta 1964 para que el
CMB se descubriera por casualidad.
En esa época, el cosmólogo de Princeton Robert Dicke quería poner a
prueba la idea del CMB midiendo la radiación residual del big bang caliente.
Mientras estaba construyendo un detector, dos jóvenes científicos de los
Laboratorios Bell estaban haciendo precisamente un experimento del tipo que
pretendía Dicke. Arno Penzias y Robert Wilson estaban explorando el cielo en
busca de señales minúsculas, no con el objetivo de descubrir el nacimiento del
universo, sino para desarrollar la tecnología de comunicaciones. No podían
identificar un extraño ruido de fondo que estaba obstaculizando su objetivo
real. Se cuenta que ellos pensaban que se trataba de excrementos de pájaro en
el detector.
La Universidad de Princeton y los Laboratorios Bell son vecinos en el
centro de Nueva Jersey. Como si fuera cosa del destino, Dicke se enteró del
«ruido» de Penzias-Wilson y comprendió que era el CMB del big bang.
Dicke contactó con los científicos de los Laboratorios Bell y les dijo lo que
él pensaba que estaba sucediendo. Posteriormente, Penzias y Wilson obtuvieron
el premio Nobel por el descubrimiento. Si por un giro del destino Princeton y
los Laboratorios Bell hubieran estado separados, Dicke podría haber acabado su
experimento y ser el primero en hacer el descubrimiento.
El detector de Penzias-Wilson era un tosco aparato montado en el tejado
de los Laboratorios Bell. Por el contrario, los detectores de CMB modernos son
extraordinariamente sofisticados y están montados en el
espacio, por encima de la atmósfera. Los detectores pueden apuntarse en
diferentes direcciones para medir el CMB procedente de cada punto del cielo.
Los resultados se presentan como una especie de mapa del cielo.
Una de las características más sorprendentes del CMB es lo aburridos que
son estos mapas. Con un grado de precisión muy alto, el cielo de microondas es
una extensión homogénea y monótona. Parece que en tiempos primitivos el
universo era casi perfectamente homogéneo e isótropo. La radiación de
microondas procedente de la superficie de última dispersión es casi idéntica en
todas las direcciones del cielo. Este extraordinario grado de homogeneidad es
algo intrigante y necesita una explicación.
Por suave que el universo fuera en esa época primitiva, no podía haber
sido perfectamente suave. Tenía que haber algunos grumos pequeños y
primordiales para sembrar la formación de galaxias. Si las semillas fueran
demasiado débiles, las galaxias no se habrían formado; si fueran demasiado
fuertes, los grumos habrían crecido demasiado rápidamente y habrían
desaparecido en agujeros negros. Los cosmólogos tenían fuertes sospechas de que
bajo este aburrido fondo homogéneo tenían que verse las semillas de las futuras
galaxias. Aún mejor, los cosmólogos teóricos tenían una idea muy buena de cómo
tenía que ser el contraste de densidad para crear galaxias tal como las vemos
ahora. La diferencia entre la intensidad de microondas en direcciones
diferentes tendría que ser unas cien mil veces menor que la intensidad media.
¿Cómo demonios es posible detectar contrastes de densidad tan
increíblemente pequeños? La respuesta es que no se puede hacer en la superficie
de la Tierra. Hay que subir muy alto por encima del ambiente contaminado del
planeta. Los primeros experimentos para ver pequeñas variaciones en la
radiación de microondas fueron realizados por detectores suspendidos de globos
que flotaban sobre el Polo Sur. El Polo Sur es bueno por varias razones; una de
ellas, y no la menor, es el hecho de que un globo no se desplaza demasiado de
su lugar de lanzamiento. Los vientos dominantes arrastrarían a un globo
alrededor del mundo, pero alrededor del mundo no es muy lejos cuando se está en
el Polo Sur. ¡El experimento se llamó Bumerán!
A gran altura sobre el Polo Sur, los detectores de microondas compararon
la intensidad en pares de localizaciones y determinaron automáticamente la
diferencia entre ellas. Los teóricos tenían sus expectativas, pero nadie sabía
con seguridad si se vería algo de interés. Quizá el cielo seguiría siendo un
fondo monótono y gris. Entonces tendrían que volver a empezar y replantear las
teorías de formación de galaxias. Todos los interesados en la cosmología
esperaban el veredicto del jurado con nerviosismo. El veredicto final fue todo
lo que podía esperar un abogado defensor. Los teóricos decían la verdad. Los
grumos en el puré cósmico estaban allí y exactamente con la intensidad
correcta: 10−5, una parte en cien mil.
El espacio exterior es un lugar todavía mejor desde el que medir las
microondas cósmicas. Los datos procedentes de la sonda Wilkinson de anisotropía
de microondas, conocida por las siglas WMAP, son tan increíblemente precisos
que no sólo midieron la grumosidad 10−5, sino que también detectaron
los movimientos oscilantes de enormes gotas de plasma caliente que radiaban el
CMB.
Las grandes gotas de plasma en movimiento coherente no eran inesperadas
en absoluto. Los cosmólogos teóricos habían predicho que la expansión del
universo haría que los grumos del plasma empezaran a vibrar como campanas. Al
principio, los grumos más pequeños empezarían a contraerse y expandirse. Más
tarde, con una frecuencia menor, se les unirían gotas más grandes: una sinfonía
perfectamente predecible. Los cálculos detallados indicaban que en cualquier
instante las mayores gotas oscilantes visibles tendrían cierto tamaño definido.
Así, cuando WMAP vio tales gotas oscilantes, los cosmólogos ya sabían mucho
sobre el tamaño de las más grandes.
Conocer el tamaño de las gotas oscilantes más grandes tuvo una increíble
recompensa añadida: ahora era posible trazar triángulos cósmicos y medir la
curvatura del espacio. Así es como se hizo. Supongamos que se conoce el tamaño
de un objeto y también a qué distancia está. Esto nos permitirá predecir con
qué tamaño se verá en el cielo. Consideremos la Luna. La Luna tiene unos tres
mil doscientos kilómetros de diámetro y está a unos trescientos ochenta mil
kilómetros. A partir de dicha información, yo puedo predecir que ocupará un
ángulo de medio grado en el cielo. Por pura coincidencia, el Sol es
cuatrocientas veces más grande que la Luna pero también está cuatrocientas
veces más lejos. El resultado es que el Sol y la Luna parecen del mismo tamaño
en el cielo, a saber medio grado. Si estuviéramos en la Luna mirando a la
Tierra de unos trece mil kilómetros de diámetro, parecería cuatro veces más
grande que la Luna vista desde la Tierra, es decir, dos grados.
En realidad, al decir esto he hecho una hipótesis tácita, a saber, que
el espacio es plano. Consideremos el diámetro de la Luna como el tercer lado de
un triángulo. Los otros dos lados son líneas rectas trazadas desde nuestro
punto de observación en la Tierra a dos puntos diametralmente opuestos en la
Luna.
Si el espacio es plano entre la Luna y la Tierra, mis afirmaciones son
correctas. Pero si el espacio está curvado de manera apreciable, la situación
es diferente. Por ejemplo, si el espacio está curvado positivamente la Luna
parecerá más grande que medio grado. Lo contrario es cierto si la curvatura es
negativa.
Supongamos ahora que tuviéramos una confirmación independiente de que el
diámetro de la Luna es de tres mil doscientos kilómetros y que está a
trescientos ochenta mil kilómetros de distancia. Podemos utilizar el tamaño
aparente para deducir la curvatura del espacio. Con un grado de precisión muy
alto, el espacio es plano entre nosotros y la Luna.
Volvamos a la cartografía del cosmos. Esto es lo que sabemos: las gotas
oscilantes más grandes que estaban activas en la época en que se emitió el CMB
tenían un diámetro de unos doscientos mil años luz. Las gotas más grandes que
eso todavía no habían empezado a vibrar. Hoy, la fuente del CMB está a unos
diez mil millones de años luz, pero en la época en que el CMB empezó su viaje
nuestra distancia a la superficie de última dispersión era mil veces menor, es
decir, diez millones de años luz. Esto es suficiente para calcular con qué
tamaño se verían desde WMAP las gotas de CMB más grandes si el espacio es
plano, a saber, unos dos grados, tan grandes como la Tierra vista desde la
Luna. Si el espacio no es plano, el tamaño aparente de las gotas nos diría cuan
curvado está.
¿Qué encontró WMAP? ¡Encontró que Euclides tenía razón! El espacio es
plano.
Permítame matizar un poco. Midiendo triángulos en la superficie de la
Tierra es posible decir que la Tierra es una esfera curva. Pero en la práctica,
a menos que podamos medir triángulos muy grandes, encontraríamos que se
comportan como si la Tierra fuera plana. Obviamente, Colón no podía convencer a
Isabel la Católica de que la Tierra era redonda dibujando algunos triángulos
cerca del palacio real. Habría tenido que medir triángulos de al menos varios
cientos de kilómetros de lado, e incluso entonces hubiera tenido que hacerlo
con gran precisión. Todo lo que Colón podía decir midiendo pequeños triángulos
era que la Tierra es muy grande.
Lo mismo es cierto de la cartografía cósmica: todo lo que podemos
concluir realmente es que el universo es plano en escalas de diez o veinte mil
millones de años luz. Si el universo es finito, es mucho más grande que la
porción que podemos ver.
Así que esto es lo que sabemos con plena confianza. Primero, la masa
ordinaria en el universo, estrellas, nubes de gas y polvo, no es suficiente
como para hacer el universo plano. Para los patrones del pasado, no está tan
lejos, sólo a un factor de cincuenta. Pero la cosmología ya no es una ciencia
cualitativa. Para los patrones de hoy en día, no está nada cerca. Sin otras
fuentes ocultas de materia, el universo sería abierto y curvado negativamente.
Pero hay más materia en el universo, unas diez veces más, que conocemos sólo
por sus efectos gravitatorios. Puede estar hecha de nuevas partículas
elementales que apenas interaccionan con las de tipo usual. Estas partículas de
materia oscura, si eso es lo que son, llenarán la galaxia, atravesando
limpiamente el Sol, la Tierra e incluso a nosotros. Pero todavía no son
suficientes para hacer el universo plano o cerrado. Si el universo es plano,
otro tipo de masa o de energía debe de estar llenando el espacio.
Segundo, la edad del universo parece ser demasiado corta a menos que la
historia de su expansión sea diferente de la esperada. La única explicación
convencional es que hay una constante cosmológica que acelera la expansión.
Aunque completamente inesperada, es confirmada por los datos de supernovas tipo
I que proporcionan una especie de película al revés de la evolución. La mejor
explicación del problema de la edad es que existe una constante cosmológica del
nivel aproximado predicho por el argumento antrópico de Weinberg.
Tercero, los datos del fondo cósmico de microondas muestran directamente
que el universo era extraordinariamente homogéneo en épocas primitivas. Además,
es también muy grande, suficientemente grande como para parecer plano a los
cartógrafos cósmicos. La conclusión es que el universo es muchas veces mayor
que la porción que podemos ver, y su expansión se está acelerando bajo la
influencia de una constante cosmológica muy pequeña.
§. Inflación
Solían hacerse bromas en Estados Unidos sobre los ideólogos comunistas
soviéticos que afirmaban que todo había sido inventado por primera vez en
Rusia. Esto incluía la radio, la televisión, la bombilla, el aeroplano, la
pintura abstracta y el béisbol. En mi propio campo de la física, la broma era
verdad a veces. Los físicos soviéticos estaban tan penosamente aislados que
varios descubrimientos extraordinariamente importantes pasaron inadvertidos en
Occidente. Uno de ellos era una notable conjetura acerca de cómo nació el
universo. Hace más de un cuarto de siglo, el joven cosmólogo Alexy Starobinsky
tuvo la idea de que el universo nació con un breve período de prodigiosa
expansión exponencial. No estoy seguro de cuál fue su motivación exacta pero,
en cualquier caso, sólo algunos otros rusos aislados apreciaron la idea de
Starobinsky hasta que, años más tarde, la redescubrió un joven físico de mi
propia universidad. Alan Guth era un joven doctor que trabajaba en física
teórica de altas energías en el Centro del Acelerador Lineal de Stanford
(SLAC).
Cuando yo lo conocí, en 1980, supuse que estaba trabajando en los
problemas corrientes de la física de partículas. En esa época, muy pocos
físicos de partículas elementales sabían mucho de cosmología. Yo era una
excepción porque dos años antes Savas Dimopoulos y yo habíamos trabajado sobre
el problema de por qué la Naturaleza hizo muchas más partículas que
antipartículas. Mi amigo Bob Wagoner, uno de los pioneros de la cosmología, me
había preguntado si la física de partículas proporcionaba alguna explicación
para la abrumadora preponderancia de materia sobre antimateria. Dimopoulos y yo
teníamos la idea correcta, pero desconocíamos tanto la cosmología básica que
habíamos confundido el tamaño del horizonte con el factor de escala. Eso es
como un mecánico de automóviles que no supiera distinguir el volante de un
agujero en el silenciador. Pero con la ayuda de Bob aprendimos rápidamente y,
con el tiempo, escribimos el primer artículo fuera de la Unión Soviética sobre
un tema que iba a llamarse bariosíntesis. Irónicamente, la bariosíntesis era
otro tema que había sido concebido por primera vez en la Unión Soviética, esta
vez por el gran Andrei Sakharov, doce años antes.
En cualquier caso, pese a que yo estaba interesado en el tema, creo que
no sabía que Guth estaba interesado en cosmología; mejor dicho, no lo supe
hasta que él dio un seminario sobre algo que llamaba cosmología inflacionaria.
Imagino que yo era una de las dos o tres personas en la sala que sabían lo
suficiente como para quedar impresionado.
Guth iba tras una gran presa, la más grande. ¿Por qué era el universo
tan grande, plano y tan extraordinariamente homogéneo? Para ver por qué esto es
un gran enigma, volvamos al CMB y fijémonos en dos puntos separados en el
cielo. En el momento en que el CMB fue producido por el plasma caliente, estos
dos puntos estaban separados una cierta distancia. De hecho, si estaban
separados más de unos pocos grados, la distancia en esa época hubiera sido
suficientemente grande como para que ninguna señal luminosa o de ningún otro
tipo pudiera haber ido de un punto al otro. El universo sólo tenía unos
quinientos mil años, de modo que si los puntos estaban separados por más de
quinientos mil años luz, nunca habrían estado en contacto. Si nunca habían
estado en contacto, ¿qué hizo a estos dos lugares tan similares? En otras
palabras, ¿cómo se hizo el universo tan homogéneo como para que el CMB
pareciera exactamente igual en todas direcciones?
Para aclarar este punto, volvamos a la teoría del universo como un
globo. Imaginemos que el globo empezó en un estado deshinchado, flácido, con un
montón de arrugas como una pasa seca. Conforme el globo se expandía, las
arrugas habrían empezado a alisarse. Al principio, lo harían las arrugas
pequeñas; más tarde, se alisarían las arrugas más grandes. Hay una regla para
la suavización de las arrugas: una arruga de un tamaño dado sólo puede
suavizarse si hay tiempo suficiente para que una onda se propague a lo largo de
la arruga. En el caso del universo, esto significa tiempo suficiente para que
una onda luminosa cubra la distancia.
Si no hubo tiempo suficiente para que las arrugas grandes se suavizaran
cuando se originó el CMB, las veríamos impresas en el mapa del cielo. Pero no
vemos tales arrugas. ¿Por qué era el universo tan suave? ¿Podría haber tenido
una larga prehistoria oculta a la vista por el plasma primitivo opaco, durante
la cual se estiraron las arrugas? De eso trata la teoría de la inflación: de
una prehistoria durante la que se eliminaron las arrugas.
Alan captó inmediatamente la posibilidad de que la expansión exponencial
de Starobinsky pudiera ser muy bien la clave para este rompecabezas. El
universo, según Guth, se había inflado como un globo, pero un globo
extraespecial. Un globo real se inflará sólo hasta cierto punto y entonces
estallará. El universo de Guth creció exponencialmente y en
poco tiempo se hizo enorme. Podemos considerar la inflación como algo que tiene
lugar antes de que empezara la cosmología usual. En el momento en que empezó
el big bang convencional el universo ya había crecido hasta
proporciones inmensas. Y, al crecer, todas las arrugas y defectos se estiraron
de modo que el universo se hizo extraordinariamente suave.
Yo sabía que la idea era muy buena, pero no hasta qué punto. Supongo que
ni siquiera Alan sabía lo buena que era. Nadie podía conjeturar que en menos de
veinticinco años la inflación sería la pieza central de un nuevo modelo
estándar de cosmología.
Para entender el mecanismo que hay tras la inflación tenemos que
entender cómo se comporta un universo con una constante cosmológica positiva.
Recordemos que una constante cosmológica positiva da lugar a una fuerza
repulsiva universal proporcional a la distancia. El efecto es obligar a que
crezca la distancia entre galaxias. Esto sólo puede suceder si el globo sobre
el que actúa —el propio espacio— se expande.
La energía o masa del vacío tiene una propiedad inusual. La densidad de
masa ordinaria, como la debida a las galaxias, se diluye cuando el universo
crece. La densidad de masa en forma de materia corriente es de aproximadamente
un protón por metro cúbico. Supongamos que el radio del universo se duplicara
en algunos miles de millones de años pero el número de protones en el universo
permaneciera fijo. Entonces la densidad de masa disminuiría obviamente. De
hecho disminuiría en un factor de ocho. Dupliquemos el radio de nuevo y el
número de protones por metro cúbico se hace 64 veces menor que su valor actual.
Lo mismo es cierto para la componente de materia oscura.
Pero la energía del vacío es muy diferente. Es una propiedad del espacio
vacío. Cuando el espacio vacío se expande, sigue siendo tan sólo espacio vacío
y la densidad de energía es exactamente la que era originalmente. ¡Por muchas
veces que dupliquemos el tamaño del universo, la densidad del vacío sigue
siendo la misma y su efecto repulsivo nunca disminuye!
Por el contrario, la materia ordinaria se hace más tenue y con el tiempo
se hace ineficaz para frenar la expansión. Tras una cantidad de expansión
suficiente, todas las formas de energía estarán diluidas excepto la energía del
vacío. Una vez que esto sucede, no hay nada que pueda contrarrestar los efectos
repulsivos de la energía del vacío y el universo se expande exponencialmente.
Si la constante cosmológica fuera suficientemente grande como para duplicar el
tamaño del universo en un segundo (no lo es), se haría cuatro veces más grande
en dos segundos, ocho veces más grande en tres segundos, 16 veces, 32 veces y
así sucesivamente. Las cosas que están cerca de nosotros ahora estarían pronto
alejándose a una velocidad mayor que la de la luz.
El universo real está en las fases primitivas de este tipo de expansión
exponencial. No nos preocupamos mucho puesto que la constante cosmológica sólo
llega a duplicar el tamaño del universo en un período de decenas de miles de
millones de años. Pero imaginemos que, por alguna razón desconocida, en el
universo muy primitivo la constante cosmológica fuera mucho mayor, quizá cien
órdenes de magnitud mayor. Esto puede sonar como un extraño experimento mental,
pero recordemos que lo difícil de entender es por qué la constante cosmológica
de hoy es tan ridículamente pequeña. Hagámosla cien órdenes de magnitud mayor y
se hace ordinaria, al menos desde el punto de vista de un físico teórico.
Si la constante cosmológica fuera tan grande al principio, haría que el
universo se duplicara en una minúscula fracción de segundo. En un segundo, el
universo crecería desde el tamaño de un protón hasta algo inmensamente mayor
que el universo conocido. Esto es inflación real del tipo que concebían
Starobinsky y Guth.
El lector puede preguntarse qué tipo de doble lenguaje me permite hablar
de constantes cosmológicas diferentes en el universo primitivo y en el universo
tardío, es decir, durante la inflación y ahora. Después de todo, ¿no son
constantes las constantes? Detengámonos ahora y pensemos en el paisaje.
La constante cosmológica en una zona dada del paisaje no es otra cosa que la
altitud local. Una imagen de un trozo de paisaje vale por mil palabras [55]. La
imagen inferior es una versión muy simplificada de un paisaje que podría
parecerse a nuestra vecindad. La bola representa el universo, que rueda por el
mismo buscando un valle donde la energía del vacío es mínima.
Alguna historia desconocida del universo lo colocó en una terraza alta y
relativamente ancha sobre un profundo valle de altitud casi nula (aquí es donde
empieza la inflación de Guth). Cómo llegó el universo a la terraza es una
pregunta para abordar otro día. Puesto que la terraza es tan llana, el universo
rodó muy lentamente al principio. Mientras estaba en la terraza, la energía del
vacío (la altitud) era prácticamente invariable. Para decirlo de forma
diferente, la altitud del rellano servía como constante cosmológica mientras el
universo descansaba sobre la terraza.
Y, como estoy seguro de que usted ya ha supuesto, conforme rodaba
lentamente se inflaba porque la energía del vacío era grande y positiva. Si la
terraza fuera suficientemente llana y la rodadura suficientemente lenta, el
universo se duplicaría muchas veces antes de llegar a la pendiente que
desciende hasta el valle. Ésta era la era inflacionaria, aunque en una forma
más moderna que la que Starobinsky y Guth propusieron inicialmente. Si el
universo se hubiera duplicado cien veces o más durante este período, habría
crecido hasta proporciones tan grandes que sería tan plano y homogéneo como
requiere el CMB.
Finalmente la rodadura llevó al universo al borde de la terraza y luego
hasta el fondo del valle, donde quedó en reposo. Si la altitud en dicho punto
no es exactamente cero, el futuro a largo plazo del universo tendrá una pequeña
constante cosmológica. Si, por azar, la constante cosmológica es
suficientemente pequeña en el valle y además otras condiciones son adecuadas,
podrían formarse galaxias, estrellas, planetas y vida. Si no, ese bolsillo
particular sería estéril. Toda la cosmología conocida tuvo lugar durante una
rodadura desde un valor de la constante cosmológica a otro mucho más pequeño.
¿Puede alguien dudar seriamente de que había más en la historia y geografía del
universo que este breve episodio y este minúsculo bolsillo?
¡Pero espere! Algo está mal en esta imagen. Si el universo se infla en
un grado tan grande, puede esperarse que sea increíblemente homogéneo. Todas
las arrugas se habrían alisado tan completamente que no habría variaciones en
el CMB. Pero sabemos que sin algunas pequeñas arrugas para sembrar las
galaxias, el universo habría permanecido suave para siempre. Parece que hemos
exagerado la homogeneización.
La solución a este rompecabezas implica una idea tan radical y
sorprendente que al principio usted estaría tentado a rechazarla como si fuera
un castillo en el aire. Pero ha superado el test del tiempo y actualmente es
una de las piedras angulares de la cosmología moderna. Una vez más su
descubrimiento tuvo lugar en Rusia, por parte de un joven cosmólogo llamado
Slava Mukhanov que estaba estudiando el trabajo de Starobinsky. La historia se
repite: el trabajo de Mukhanov no fue conocido fuera de la Unión Soviética
hasta que varios grupos que trabajaban en Estados Unidos lo redescubrieron por
su parte.
Normalmente se piensa que la mecánica cuántica y las consecuencias de
sus agitaciones se aplican al mundo de lo muy pequeño, no a las galaxias y
otros fenómenos a escala cósmica. Pero ahora parece casi seguro que las
galaxias y otras estructuras a gran escala son remanentes de minúsculas
fluctuaciones cuánticas originales que se expandieron y ampliaron por el efecto
inexorable de la gravedad.
La idea de que el universo está en un punto exacto en el paisaje es
demasiado simple. Como cualquier otra cosa, los campos cuánticos como el campo
de Higgs tienen agitaciones. La mecánica cuántica es suficiente para asegurar
que los campos fluctúan de un punto a otro en el espacio. Ninguna cantidad de
inflación puede alisar las fluctuaciones cuánticas aleatorias que debe tener
todo campo. Esto es cierto en nuestro vacío hoy y era cierto durante la rápida
expansión exponencial de la inflación. Pero la inflación rápida hace con estas
fluctuaciones algo que no sucede en ninguna medida apreciable en nuestro
universo en muy lenta expansión. Estira las viejas arrugas pero las reemplaza
por otras nuevas. Nuevas arrugas sobre viejas arrugas, todas ellas expandiéndose
conforme el universo se expande. Para cuando la inflación terminó y el universo
quedó al borde de la terraza, las arrugas cuánticas acumuladas habían aumentado
y formado los mínimos contrastes de intensidad que con el tiempo crecieron para
formar galaxias.
Estas arrugas cuánticas congeladas también dejaron su huella en la
superficie de última dispersión y podemos verlas como las minúsculas
variaciones de brillo en el vacío cósmico de microondas. La relación entre la
teoría cuántica del mundo microscópico y la estructura a gran escala del mundo
astronómico y cosmológico es uno de los grandes logros de la cosmología.
Permítame acabar este capítulo resumiendo las dos cosas más importantes
que hemos aprendido de las observaciones cosmológicas durante la última década.
La primera ha sido un auténtico bombazo: hay realmente una constante
cosmológica. Las 119 primeras cifras decimales se anulan pero,
sorprendentemente, en el lugar 120 el resultado no es ¡cero!
El segundo punto de enorme interés es que la teoría de la inflación
recibe fuerte apoyo del estudio de la radiación cósmica de fondo. Al parecer el
universo creció exponencialmente durante cierto período de tiempo. Es casi
seguro que el universo entero es muchísimos órdenes de magnitud mayor que la
parte que podemos ver.
Ambos son grandes descubrimientos, pero también son perturbadores. Si
metemos la mano en una bolsa con números aleatorios y extraemos valores
genéricos de las constantes de la naturaleza, los resultados más probables no
serían ni una constante cosmológica pequeña ni un período de inflación
adecuado. Ambas cosas requieren un enorme grado de fino ajuste. Como hemos
visto antes, el universo parece haber sido especialmente diseñado. Más sobre
este carácter especial en el próximo capítulo.
Capítulo 6
Sobre peces congelados y peces hervidos
Contenido:
§. Un regalo de cumpleaños para Tini
§. Paisajes antrópicos
§. ¿Cuándo tienen sentido las explicaciones antrópicas?
§. Objeciones filosóficas
Para explicar física a una audiencia de legos en física, las analogías y
metáforas son obviamente inestimables. Pero para mí son también herramientas de
pensamiento, mis propias herramientas idiosincrásicas. A menudo yo mismo me
convenzo de la verdad de algún punto difícil inventando una analogía que trata
cuestiones similares en un contexto más habitual.
El principio antrópico ha generado más confusión y paparruchas
filosóficas irrelevantes que cualquier otra cosa que haya salido de la ciencia
en mucho tiempo. Hay inagotables discusiones sobre su significado, sobre cómo
debería utilizarse para explicar y predecir, cuándo es legítimo y cuándo no lo
es, cuándo es razonable y cuándo es absurdo. La guía más segura para mí es
elaborar una analogía en el mundo más familiar, donde el viejo y sano sentido
común puede introducir claridad. Hace más de una década elaboré una parábola
para convencerme de que el principio antrópico podía tener sentido.
§. Un regalo de cumpleaños para Tini
Una vieja tradición del mundo de la ciencia es la de celebrar el
sexagésimo cumpleaños de los científicos famosos con fiestas, pero estas
fiestas de cumpleaños consisten normalmente en un par de largos días de
continuos seminarios de física… sin música. Yo tuve que dar una conferencia en
una de esas fiestas en honor de un viejo amigo, Martinus Veltman. Tini —un
pintoresco ogro holandés con larga barba— parecía un cruce entre Orson Welles
representando a Macbeth y Sadam Hussein cuando salió de su escondrijo. Tini
ganó recientemente el premio Nobel por su trabajo con Gerard’t Hooft en el que
desarrollaron las matemáticas de modelo estándar.
Puesto que Tini fue una de las primeras personas en reconocer el
problema de la energía del vacío, yo pensé en dar una charla de cumpleaños
llamada «Tini y la constante cosmológica». De lo que yo quería hablar era del
principio antrópico y del cálculo de Steven Weinberg sobre la formación de
galaxias. Pero también quería explicar cómo el principio antrópico podía tener
perfecto sentido científico. Así que, como de costumbre, hice una analogía.
En lugar de preguntar por qué la constante cosmológica está ajustada con
tanta precisión, la sustituí por una pregunta similar: ¿por qué la temperatura
de la Tierra está tan precisamente ajustada para caer en el estrecho rango en
el que puede existir agua líquida? Ambas preguntas plantean cómo es posible que
vivamos en un ambiente muy improbable que parece perfectamente hecho a medida
de nuestra propia existencia. Para responder a mi pregunta yo propuse la
siguiente parábola sobre unos peces inteligentes [56].
§. Una historia de peces
Erase una vez un planeta completamente cubierto de agua en el que vivía
una raza de peces con un gran cerebro. Estos peces sólo podían sobrevivir a
cierta profundidad, así que ninguno de ellos había visto nunca la superficie
del agua por encima ni el fondo por debajo. Pero sus grandes cerebros los
hacían muy inteligentes y también muy curiosos. Con el tiempo sus preguntas
sobre la naturaleza del agua y otras cosas se hicieron muy sofisticadas. Los
más brillantes entre ellos se llamaban físicos. Los físicos eran
maravillosamente inteligentes y en pocas generaciones llegaron a comprender
muchas cosas sobre los fenómenos naturales, incluyendo dinámica de fluidos,
química, física atómica e incluso los núcleos de los átomos.
Finalmente, algunos de los físicos empezaron a preguntarse por qué las
leyes de la Naturaleza son las que son. Su sofisticada tecnología les permitía
estudiar el agua en todas sus formas, especialmente hielo, vapor y, por
supuesto, el estado líquido. Pero pese a todos sus esfuerzos, todavía quedaba
algo ante lo que se sentían perplejos. Con todos los valores posibles desde
cero hasta infinito, ¿cómo se podía explicar el hecho de que la temperatura
ambiente, T, estaba ajustada para caer en el estrecho rango que
permitía que el H2O existiera en forma líquida? Ensayaron muchas
cosas, incluyendo varios tipos de simetrías, mecanismos de relajación dinámica
y muchas otras ideas, pero nada podía explicarlo.
En estrecha alianza con los físicos había otro grupo, los cosmólogos,
que también estaban estudiando su mundo acuoso. Los cosmólogos estaban menos
interesados en las profundidades corrientes, en las que vivían los peces de
gran cerebro, que en descubrir si existía un límite superior a su mundo
acuático. Los cosmólogos eran perfectamente conscientes de que gran parte del
mundo acuático no era habitable, pues la presión no era apropiada para sus
cerebros. Viajar aleteando hasta los confines superiores no era en absoluto
posible; si se expusieran a las bajas presiones del agua en estas zonas, sus
grandes cerebros explotarían. De modo que, en su lugar, especulaban.
Sucedió que una escuela de pensamiento entre los cosmólogos sostenía una
idea muy radical (algunos decían ridícula) sobre el ajuste fino de T .
Y tenían un nombre para esta idea: el principio ictrópico. El P. I. sostenía
que la temperatura estaba en el rango del agua líquida ¡porque sólo en este
caso podían existir peces para observarlo!
«¡Basura! —decían los físicos—. Eso no es ciencia. Es religión. Eso es
rendirse. Y además, si nos ponemos de acuerdo con vosotros, todos se reirán de
nosotros y nos quitarán la financiación».
Ahora bien, no todos los cosmólogos entendían lo mismo por el principio
ictrópico. De hecho, era difícil encontrar dos que estuvieran de acuerdo. Unos
pensaban que significaba que el Pez Cabeza de Ángel había hecho el mundo con el
objetivo de acomodar a los peces de gran cerebro. Otros pensaban que la función
de onda cuántica del aguaverso era una superposición de todos los valores
de T y, sólo al observarla, algún pez ancestral «colapsaba la
función de onda».
Un pequeño número de cosmólogos, dirigido por
Andrei-el-de-Cerebro-Muy-Grande y Alexander-El-Que-Nada-Profundo, sostenían una
idea extraordinaria. Creían que más allá de la frontera superior del agua
existía un espacio inmensamente grande. En este inmenso espacio, podían existir
muchos otros reinos similares en algún aspecto a su mundo acuático pero
diferentes en otros aspectos. Algunos mundos estarían inimaginablemente
calientes, tan calientes que incluso los núcleos de hidrógeno podrían
fusionarse para formar helio y quizá hacerse todavía más calientes. Otros
mundos serían tan fríos que existiría metano congelado. Sólo una minúscula
fracción de los mundos estaría a una temperatura favorable para la formación de
peces. Entonces no habría ningún misterio en por qué T estaba
bien ajustada. Como sabe cualquier pescador, la mayoría de los lugares carecen
de peces, pero de vez en cuando se dan las condiciones correctas. Y ahí es
donde están los peces.
Pero los físicos suspiraban y decían, «Señor, ahí están de nuevo con sus
ideas inverosímiles [57].
Ignorémoslos». Fin.
La historia fue un completo fracaso. Durante el seminario se oyeron
quejas y suspiros ruidosos. Después la gente me evitaba. El propio Tini se
mostraba indiferente. El principio antrópico afecta a la mayoría de los físicos
teóricos de la misma forma que un camión cargado de turistas en África afecta a
un elefante enfadado.
§. Paisajes antrópicos
Nadie, sabiendo lo que sabemos sobre astronomía, dudaría que los
cosmólogos tenían razón. La historia sugiere que hay situaciones en las que una
explicación antrópica (o ictrópica) tiene sentido. Pero ¿cuáles son las reglas?
¿Cuándo es apropiado un razonamiento antrópico? ¿Cuando es inapropiado?
Necesitamos algunos principios guía.
En primer lugar, hay algo obvio: una explicación antrópica de la
proposición X sólo tiene sentido si hay una poderosa razón para creer que la
existencia de vida inteligente sería imposible a menos que X fuera cierta. En
el caso de los peces de gran cerebro, está claro: demasiado caliente y tenemos
sopa de pescado; demasiado frío y tenemos pescado congelado. En el caso de la
constante cosmológica, Weinberg proporcionó el razonamiento.
Cuando uno empieza a pensar en lo que se necesita para que la vida sea
posible, el paisaje se convierte en un campo de minas de pesadilla. Ya he
explicado por qué una gran constante cosmológica habría sido fatal, pero hay
otros muchos peligros. Los requisitos que debe satisfacer un universo caen en
tres categorías principales: las leyes de la física deben llevar a la química
orgánica; deben existir elementos químicos esenciales en abundancia suficiente,
y, finalmente, el universo debe evolucionar para crear un ambiente suave,
amplio, uniforme y duradero.
La vida es por supuesto un proceso químico. Hay algo en la forma en que
los átomos están construidos que los hace adherirse en las más extrañas
combinaciones: las gigantes y locas moléculas del mecano de la vida —ADN, ARN,
cientos de proteínas y todo lo demás—. Aunque la química es considerada
normalmente una rama independiente de la ciencia— tiene sus propios
departamentos universitarios y sus propias revistas— es realmente una rama de
la física: la rama que trata de los electrones más externos de los átomos.
Estos electrones de valencia, saltando de un lado a otro o
compartidos entre átomos, dan a los átomos sus sorprendentes capacidades para
combinarse en un variado conjunto de moléculas.
¿Cómo es que las leyes de la física permiten estructuras
maravillosamente intrincadas como el ADN que las mantiene unidas sin
desaparecer, disgregarse o destruirse de alguna otra manera? En cierta medida
es suerte.
Como vimos en el capítulo 1, las leyes de la física empiezan con una
lista de partículas elementales como electrones, quarks, fotones, neutrinos y
demás, cada una de ellas con propiedades especiales tales como masa y carga.
Nadie sabe por qué la lista es la que es o por qué las propiedades son
exactamente las que son. Un número infinito de listas diferentes es posible.
Pero un universo lleno de vida no es en absoluto lo que cabría esperar de una
elección al azar de la lista. Eliminar cualquiera de estas partículas
(electrones, quarks o fotones) o incluso cambiar mínimamente sus propiedades
destruiría la química convencional. Éste es el caso obviamente para electrones
y quarks, que constituyen el átomo y su núcleo, pero quizá es menos obvio para
el fotón. Los fotones son, por supuesto, los «balines» que constituyen la luz.
Ciertamente sin ellos no podríamos ver, pero aún podríamos oír, tocar y oler,
de modo que quizá el fotón no sea tan importante. Pensar así, sin embargo, es
un gran error: resulta que el fotón es el pegamento que mantiene unidos los
átomos.
¿Qué mantiene a los electrones de valencia en órbita alrededor del
núcleo central del átomo? ¿Por qué no salen despedidos y dicen adiós a los
protones y neutrones? La respuesta es la atracción eléctrica entre los
electrones y los núcleos atómicos con carga opuesta. La atracción eléctrica es
diferente de la atracción entre una mosca y una tira de papel matamoscas. El
papel matamoscas puede ser muy pegajoso y sujetar con fuerza, pero en cuanto
separamos un poco la mosca, el papel la suelta inmediatamente. La mosca escapa
y, a menos que sea lo bastante estúpida como para volver, está completamente
libre. En la jerga de la física el papel matamoscas es fuerte pero de corto
alcance: su influencia no se extiende a grandes distancias.
Una fuerza de corto alcance del tipo del papel matamoscas sería inútil
para ligar los electrones a los núcleos. El átomo es un sistema solar en
miniatura y los importantes electrones de valencia son los planetas más
alejados: los Plutones y Neptunos del átomo. Sólo una fuerza que se extienda a
grandes distancias puede impedir que escapen al «espacio exterior» más allá de
las fronteras del átomo.
Las fuerzas de largo alcance, del tipo de las que atrapan a
distancia, son poco comunes. De los muchos tipos diferentes de fuerzas en la
Naturaleza, sólo dos son de largo alcance. Las dos son familiares, siendo la
gravedad la más conocida. Cuando damos un salto en la Tierra, la gravedad nos
atrae de nuevo al suelo. Se extiende a centenares de millones de kilómetros
para mantener a los planetas en sus órbitas alrededor del Sol y a decenas de
miles de años luz para mantener a las estrellas confinadas dentro de las
galaxias. Una fuerza del mismo tipo se necesita para ligar los electrones
externos al núcleo central. Por supuesto no es la gravedad la que mantiene
unido al átomo: es demasiado débil.
Otra fuerza familiar de largo alcance actúa entre un imán y un clip de
papel de hierro. El imán no tiene que estar en contacto directo con el clip
para atraerlo. Un imán potente tira del clip incluso desde una gran distancia.
Pero más relevante para el átomo es que el pariente eléctrico de la fuerza
magnética es una fuerza de largo alcance que actúa entre partículas
eléctricamente cargadas. Muy similar a la fuerza gravitatoria, salvo que
inmensamente más fuerte, la fuerza eléctrica liga a los electrones de valencia
de la misma forma que la gravedad liga Plutón al Sol.
Como expliqué en el capítulo 1, las fuerzas eléctricas entre partículas
cargadas están causadas por fotones que se intercambian entre las cargas [58]. Los
fotones ultraligeros (recordemos que no tienen masa) son capaces de saltar
grandes distancias para crear fuerzas de largo alcance que ligan los lejanos
electrones de valencia al núcleo. Eliminemos el fotón de la lista y no habrá
nada que mantenga unido al átomo.
El fotón es muy excepcional. Es la única partícula elemental, aparte del
gravitón, que no tiene masa. ¿Qué pasaría si fuera menos excepcional y tuviera
masa? La teoría de Feynman nos dice cómo calcular la fuerza cuando un
hipotético fotón masivo salta entre núcleo y electrón. Lo que se encuentra es
que cuanto más pesado es el fotón, a menos distancia es capaz de saltar. Si la
masa del fotón fuera siquiera una minúscula fracción de la masa del electrón,
las interacciones eléctricas, en lugar de ser una fuerza de largo alcance, se
convertirían en «fuerzas de papel matamoscas» de corto alcance, totalmente
incapaces de sujetar a los electrones de valencia lejanos. Átomos, moléculas y
vida son totalmente dependientes del hecho curioso de que el fotón no tiene masa.
El alcance de la fuerza eléctrica no es la única característica esencial
para que los átomos funcionen correctamente. La intensidad de la fuerza (cuánto
tira de los electrones) es crucial. La fuerza que liga el electrón al núcleo no
es muy grande para los patrones de la experiencia humana ordinaria. Se mide en
milmillonésimas de kilogramo. ¿Qué es lo que determina la intensidad de las
fuerzas eléctricas entre partículas cargadas? Una vez más, nos lo dice la
teoría de Feynman. Los otros ingredientes en un diagrama de Feynman, además de
las partículas, son diagramas de vértice. Recordemos que cada diagrama de
vértice tiene un valor numérico —la constante de acoplamiento— y para la
emisión del fotón la constante de acoplamiento es la constante de estructura fina
a, un número aproximadamente igual a 1⁄137. La
pequeñez de a es la razón matemática última por la que las fuerzas eléctricas
son mucho más débiles que sus homologas nucleares.
¿Qué pasaría si la constante de estructura fina fuera más grande,
digamos aproximadamente uno? Esto provocaría varios desastres, uno de los
cuales sería poner en peligro al núcleo. La fuerza nuclear que mantiene unidos
a los nucleones (protones y neutrones) es una fuerza de papel matamoscas: de
corto alcance e intensa. El propio núcleo es como una bola de moscas pegadas.
Cada nucleón está pegado a sus vecinos más próximos, pero sólo con que pueda
separarse de los otros en una cantidad minúscula, queda libre para escapar.
Hay algo que trabaja en contra de la fuerza nuclear, compitiendo con
ella, para que los protones se repelan mutuamente. Los protones tienen carga
eléctrica. Atraen a los electrones negativos porque tienen carga opuesta
(cargas opuestas se atraen, cargas iguales se repelen). Los neutrones son
eléctricamente neutros y, por consiguiente, no desempeñan un papel en el
equilibrio de las fuerzas eléctricas. Los protones, por el contrario, están
positivamente cargados y se repelen eléctricamente unos a otros. De hecho, si
un núcleo tiene más de unos cien protones, las fuerzas eléctricas repulsivas de
largo alcance son suficientes para separarlos.
¿Qué sucedería si la fuerza eléctrica fuera tan fuerte como la fuerza
nuclear? En ese caso, todos los núcleos complejos serían inestables. De hecho,
la fuerza eléctrica podría ser mucho más débil que la fuerza nuclear y todavía
pondría en peligro núcleos como los del carbono y el oxígeno. ¿Por qué es
pequeña la constante de estructura fina? Nadie lo sabe, pero si fuera grande no
habría nadie para plantear la pregunta.
Los protones y los neutrones ya no se consideran partículas elementales.
Cada uno está compuesto de tres quarks. Como se discutió en el capítulo 1, hay
varias especies diferentes de quarks etiquetados up, down, extraño, encantado,
fondo y cima. Aunque los nombres carecen de significado, las diferencias entre
los tipos de quarks son importantes. Una rápida mirada a la lista de masas de
partículas en el capítulo 3 revela que las masas de los quarks varían sobre un
rango enorme que va desde aproximadamente diez masas electrónicas para los
quarks-up y down hasta 344 000 masas electrónicas para el quark-cima. Durante
algún tiempo los físicos se preguntaron por qué el quark-cima era tan pesado,
pero recientemente hemos llegado a entender que no es el quark-cima el que es
anormal sino que son los quarks-up y down los que son absurdamente ligeros. Lo
que necesita una explicación es el hecho de que sean aproximadamente veinte mil
veces más ligeros que partículas como el bosón Z y el bosón W. El modelo
estándar no ha ofrecido una.
Por ello, podemos preguntar cómo sería el mundo si los quarks-up y down
fueran mucho más pesados de lo que son. Una vez más, ¡el desastre! Protones y
neutrones están hechos de quarks-up y down. (Las partículas hechas de quarks
extraño, encantado, fondo y cima no desempeñan ningún papel en la física y la
química ordinarias; son de interés principalmente para los físicos de altas
energías). Según la teoría de quarks de los protones y neutrones, la fuerza
nuclear (fuerza entre nucleones) puede rastrearse hasta los quarks que saltan
de un lado a otro entre dichos nucleones [59]. Si los
quarks fueran mucho más pesados, sería mucho más difícil intercambiarlos y la
fuerza nuclear desaparecería prácticamente. Sin una fuerza de papel matamoscas
pegajoso que mantenga unido al núcleo, no podría haber química. La suerte está
de nuevo con nosotros.
Recordemos que, en términos del paisaje, nuestro universo descansa en un
valle donde se dan todas las coincidencias afortunadas. Pero en regiones
genéricas del paisaje, las cosas pueden ser muy diferentes. La constante de
estructura fina podría ser mayor, el fotón masivo, los quarks más pesados o,
incluso peor, en la lista podrían faltar electrones, fotones o quarks.
Cualquiera de estos casos sería suficiente para eliminar nuestra presencia.
Incluso si todas las partículas estándar existieran con la masa correcta
y las fuerzas correctas, la química podría seguir fallando. Se necesita algo
más: los electrones deben ser fermiones. El hecho de que los fermiones sean tan
excluyentes —no se puede poner más de uno en un estado cuántico— es esencial
para la química. Sin el principio de exclusión de Pauli, todos los electrones
en un átomo se hundirían hasta las órbitas atómicas más bajas, de donde serían
mucho más difíciles de desalojar. Si los electrones se convirtieran
repentinamente en los más sociables bosones, la vida basada en la química del
carbono desaparecería. Ya ve usted que un mundo con química ordinaria no es ni
mucho menos genérico.
Los físicos suelen utilizar palabras de forma diferente de como se
utilizan a diario. Cuando se dice que algo existe, probablemente se quiere
decir que puede encontrarse en algún lugar en el universo. Por ejemplo, si yo
le dijera que existen los agujeros negros, usted podría preguntarme dónde puede
encontrar uno. Los agujeros negros existen en el sentido corriente: son objetos
astronómicos reales que se encuentran, por ejemplo, en los centros de las
galaxias. Pero supongamos que yo le dijera que existen minúsculos agujeros
negros no más grandes que una mota de polvo. De nuevo, usted podría preguntar
dónde se encuentran. Esta vez yo le respondería que no hay ninguno; se necesita
una enorme cantidad de masa comprimida en un agujero negro. Sin duda usted se disgustaría
y diría: «¡Deje de marear la perdiz! ¡Usted me dijo que existen!».
Lo que los físicos (especialmente los teóricos) entienden por el
término existe es que el objeto en cuestión puede
existir en teoría. En otras palabras, el objeto existe como una
solución de las ecuaciones de la teoría. Por ese criterio, existen diamantes
perfectamente tallados de cientos de kilómetros de diámetro. También existen
planetas hechos de oro puro. Pueden o no pueden encontrarse realmente en algún
lugar, pero son objetos posibles compatibles con las leyes de la física.
Fuerzas débiles de largo alcance y fuerzas fuertes de corto alcance,
actuando entre fermiones, llevan a la existencia de átomos complejos como
carbono, oxígeno y hierro. Esto está bien, pero yo lo entiendo en el sentido
teórico. «¿Qué más se necesita —podría usted preguntar— para garantizar que
existen átomos complejos en mi sentido corriente? ¿Qué se requiere para
producir realmente dichos átomos y hacerlos abundantes en el universo?». La
respuesta no es tan simple. No es probable que núcleos atómicos complejos sean
resultado de colisiones aleatorias de partículas, ni siquiera en el universo
caliente primitivo.
En los primeros minutos después del big bang no había
átomos o siquiera núcleos. Un plasma caliente compuesto de protones, neutrones
y electrones llenaba todo el espacio. La alta temperatura impedía que los
nucleones se adhirieran para formar núcleos. Conforme el universo se enfrió,
protones y neutrones se adhirieron y formaron los elementos primordiales [60]. Pero,
aparte de trazas minúsculas de otros elementos, sólo se formaron los núcleos
más simples: hidrógeno y helio.
Además, como descubrieron los alquimistas medievales, no es fácil
transmutar un elemento en otro. Entonces, ¿de dónde proceden todo el carbono,
el oxígeno, el nitrógeno, el silicio, el azufre, el hierro y otros elementos
químicos familiares? La respuesta es que el horno nuclear intensamente caliente
de una estrella puede hacer lo que los alquimistas nunca pudieron: transformar
unos elementos en otros. El proceso de cocinado es la fusión nuclear, el mismo
tipo de fusión que da su potencia a las armas nucleares. La fusión combina los
núcleos de hidrógeno en todo tipo de permutaciones y combinaciones. Los
resultados de estas reacciones nucleares fueron los elementos familiares.
La cadena de reacciones nucleares en las estrellas que empieza en los
elementos más ligeros y lleva al hierro es complicada. Un par de ejemplos
ilustrarán este punto. El ejemplo más familiar es la reacción de fusión que
empieza con hidrógeno y produce helio. Aquí es donde intervienen las
interacciones débiles (diagramas con bosones W y Z). El primer paso es la
colisión de dos protones [61]. Muchas
cosas pueden suceder cuando colisionan dos protones, pero si se conocen los
diagramas de Feynman para el modelo estándar se puede encontrar uno que termina
con un protón, un neutrón, un positrón y un neutrino.
El positrón encuentra a un electrón deambulante en la estrella y juntos
se autodestruyen, dando fotones que con el tiempo se convierten en la energía
térmica (calor) de la estrella. El neutrino simplemente sale disparado y
desaparece a casi la velocidad de la luz. Esto deja un protón pegajoso y un
neutrón pegajoso que se adhieren para formar un isótopo del hidrógeno llamado
deuterio.
A continuación, un tercer protón choca con el núcleo de deuterio y se
adhiere a él. El núcleo con dos protones y un neutrón es una forma de helio
llamada helio-tres (3He), pero no es el tipo estable de helio con el
que solemos hinchar los globos. Este material se denomina helio-cuatro (4He).
La historia continúa: dos núcleos 3He colisionan En
total, eso significa cuatro protones y dos neutrones. Pero no todos se quedan
adheridos. Dos de los protones escapan y dejan un núcleo con dos protones y dos
neutrones. Ése es un núcleo 4He corriente. Usted no necesita
recordar todo esto. Muy pocos físicos lo hacen.
La mayoría de las reacciones nucleares que tienen lugar en las estrellas
consisten en un simple protón que colisiona con un núcleo ya presente y aumenta
su peso atómico en una unidad. A veces el protón se convierte en un neutrón
cediendo un positrón y un neutrino. A veces un neutrón se convertirá en un
protón, un electrón y un antineutrino. En cualquier caso, en el interior de la
estrella los núcleos de hidrógeno y helio originales se convierten, paso a
paso, en elementos más pesados.
Pero ¿qué tienen de bueno los elementos complejos encerrados dentro de
las estrellas? Las historias de ciencia-ficción podrían proponer formas
extrañas de vida hechas de plasma caliente giratorio que crecen a millones de
grados, pero la vida real necesita un ambiente más frío. Por desgracia, el
carbono y el oxígeno quedaban prisioneros en el interior de la estrella a lo
largo de la vida de la estrella.
Pero las estrellas no viven para siempre.
Con el tiempo todas las estrellas, nuestro Sol incluido, agotarán su
combustible. En ese momento una estrella colapsa bajo su propio peso. Antes de
que se agote el combustible, las estrellas se mantienen en equilibrio por el
calor y la presión generados por reacciones nucleares. Hay dos tendencias en
competición en la estrella. Como una bomba nuclear, quiere explotar, aunque al
mismo tiempo la gravedad está tratando de aplastarla bajo su enorme peso. Estas
dos tendencias, explotar e implotar, se mantienen en equilibrio mientras haya
combustible que quemar. Pero una vez que se agota el combustible, no hay nada
que resista la atracción de la gravedad y la estrella implosiona.
Hay tres posibles puntos finales para la implosión. Una estrella como
nuestro Sol es relativamente ligera y sólo colapsará hasta que forme una enana
blanca. Una enana blanca está hecha de material más o menos corriente
—protones, neutrones y electrones— pero los electrones están comprimidos unos
contra otros en un grado mucho mayor que en los materiales corrientes. Es el
principio de exclusión de Pauli el que impide que los electrones colapsen aún
más. Si todas las estrellas terminasen como enanas blancas, los elementos
recién cocinados permanecerían aprisionados en su interior.
Por el contrario, si la estrella es muchas veces más pesada que el Sol,
la fuerza de la gravedad será irresistible. El inevitable colapso desastroso
terminará en el proceso más violento imaginable: la formación de un agujero
negro. Los elementos atrapados en agujeros negros estarían incluso menos
disponibles que los que están atrapados en enanas blancas.
Pero hay un término medio. Las estrellas dentro de un cierto rango de
masas colapsan hasta una fase que supera a las enanas blancas pero no llega a
un agujero negro. En estas estrellas los electrones, en cierto sentido, son
exprimidos, mientras que los protones se convierten en neutrones y el resultado
es una bola sólida de materia neutrónica increíblemente densa: una estrella de
neutrones. Sorprendentemente, las interacciones débiles desempeñan un papel
indispensable. Cada protón, cuando se convierte en un neutrón, libera dos
partículas, un positrón y un neutrino. Los positrones se combinan rápidamente
con los electrones en la estrella y desaparecen.
Este suceso, llamado supernova, no es suave. Una supernova puede superar
en brillo a una galaxia entera con cien mil millones de estrellas.
En la física y la química cotidianas los neutrinos no tienen ninguna
importancia. Pueden atravesar años luz de plomo sin perturbarlo en lo más
mínimo. Los neutrinos procedentes del Sol están atravesando continuamente la
Tierra, nuestros alimentos y bebidas y nuestros cuerpos sin tener ningún
efecto. Pero nuestra existencia depende por completo de ellos. Los neutrinos
que salen de la explosión de supernova son tan numerosos que, pese a su
debilidad, crean una enorme presión que empuja a la materia que tienen delante.
La presión ejercida por los neutrinos expulsa las capas exteriores de la
estrella que colapsa y, con ello, dispersa los núcleos complejos que fueron
cocinados antes de que colapsara la estrella. De modo que, como acto final, la
estrella en sus estertores de muerte dona sus núcleos complejos para llenar de
materia el universo.
Nuestro Sol es joven. El universo tiene unos catorce mil millones de
años, pero el Sol nació en una época tardía de su historia, hace sólo cinco mil
millones de años. Para entonces se habían formado y muerto generaciones de
estrellas y ya había suficientes elementos pesados para formar el Sistema
Solar. Somos afortunados, en efecto, porque el fantasmal neutrino existe en el
sentido corriente de la palabra.
La Nebulosa del Cangrejo es el residuo de una explosión de supernova. La
explosión se vio en la Tierra en 1054.
Hay muchas maneras de que las cosas pudieran salir mal en el cocinado
nuclear. Si no hubiera interacciones débiles o si los neutrinos fueran
demasiado pesados, los protones no podrían convertirse en neutrones durante el
cocinado. El cocinado del carbono es sensible a los detalles del núcleo de
carbono. Uno de los grandes éxitos científicos del siglo XX tuvo lugar cuando
el cosmólogo Fred Hoyle fue capaz de predecir uno de estos detalles a partir
tan sólo del hecho de que nosotros estamos aquí. A comienzos de los años
cincuenta del siglo pasado, Hoyle argumentó que había un «cuello de botella» en
el cocinado de elementos en las estrellas como el Sol. Parecía que no había
ninguna manera de que el cocinado llegase más allá del elemento químico número
4: el helio. Normalmente el cocinado nuclear añade protones de uno en uno para
formar un elemento más pesado, pero no hay núcleo estable con número atómico 5,
de modo que no hay una manera fácil de pasar del helio.
Hay una vía de escape. Dos núcleos de helio pueden colisionar y
adherirse para formar un núcleo con número atómico 8. Dicho núcleo sería el
isótopo de berilio 8. Más tarde, otro núcleo de helio podría colisionar con el
berilio y formar un núcleo con número atómico 12: el viejo carbono 12, la
materia de la química orgánica. Pero hay un inconveniente.
El berilio 8 es un isótopo muy inestable. Se desintegra tan rápidamente
que no hay tiempo suficiente para que el tercer núcleo de helio colisione antes
de que desaparezca el berilio… a menos que se dé una coincidencia improbable.
Si por azar hubiera un estado excitado —una denominada resonancia— del núcleo
de carbono con las propiedades correctas, la probabilidad de que el berilio
capture un núcleo de helio sería mucho más probable de lo esperado. La
probabilidad de tal coincidencia es muy pequeña, pero cuando Hoyle sugirió que
tal coincidencia podría resolver el problema de cocinar los elementos pesados,
los físicos nucleares experimentales se pusieron a la tarea. Y ¡BINGO!, se
descubrió el estado excitado con las propiedades correctas que Hoyle había conjeturado.
Tan sólo un pequeño aumento o disminución en la energía del núcleo de carbono
excitado y todo el trabajo de hacer galaxias y estrellas habría sido en vano;
pero tal como es, los átomos de carbono —y con ello la vida— pueden existir.
Las propiedades de la resonancia del carbono de Hoyle son sensibles a
varias constantes de la naturaleza, incluyendo la importantísima constante de
estructura fina. Un cambió de tan solo unos pocos por ciento en su valor y no
habría carbono ni habría vida [62]. Esto es
lo que Hoyle quería decir cuando afirmaba que «parece como si un superintelecto
hubiera jugado con la física tanto como con la química y la biología».
Pero, una vez más, de nada serviría que la física nuclear sea «la
adecuada» si el universo no tuviera estrellas. Recordemos que un universo
perfectamente homogéneo nunca daría nacimiento a estos objetos. Estrellas,
galaxias y planetas son el resultado de la ligera grumosidad inicial. Al
principio, el contraste de densidad era de una magnitud de 10−5,
pero ¿qué pasaría si hubiera sido algo menor o algo mayor? Si la grumosidad en
el universo primitivo hubiera sido mucho menor, digamos 10−6, las
galaxias serían pequeñas y las estrellas estarían muy dispersas. No habrían
tenido gravedad suficiente para atraer a los átomos complejos que fueron
escupidos por las supernovas; estos átomos no habrían estado disponibles para
las siguientes generaciones de estrellas. Hagamos el contraste de densidad un
poco menor que eso y no se formarían galaxias ni estrellas.
¿Qué sucedería si la grumosidad fuera mayor que 10−5? Un
factor de cien mayor y el universo estaría lleno de monstruos voraces y
violentos que engullirían y digerirían galaxias antes de que hubieran terminado
de formarse. No se preocupe, no me he vuelto loco. Los «megamonstruos» son
enormes agujeros negros. Recordemos que la gravedad es el agente que actúa en
las regiones con ligero exceso de densidad de masa y las atrae para formar
galaxias. Pero si las sobredensidades fueran demasiado grandes, la gravedad
actuaría con demasiada rapidez. El colapso gravitatorio de estas regiones
superaría el estado de galaxia y evolucionaría hasta agujeros negros. Toda la
materia sería engullida y destruida en la violenta singularidad central del
agujero negro. Incluso contrastes de densidad de un factor diez veces mayor
pondrían en peligro la vida al crear demasiadas colisiones entre objetos
celestes en el Sistema Solar.
Una grumosidad de aproximadamente 10−5 es esencial para
que tenga comienzo la vida. Pero ¿es fácil conseguir esta cantidad de contraste
de energía? La respuesta es decididamente no. Los diversos parámetros que
gobiernan la inflación del universo deben escogerse con gran cuidado para obtener
el resultado deseado. ¿Más diabluras de Hoyle?
Hay mucho más. Las leyes de la física de partículas incluyen el
requisito de que cada partícula tenga una antipartícula. ¿Qué hizo entonces el
universo para tener una preponderancia tan grande de materia sobre antimateria?
Esto es lo que pensamos que sucedió. Cuando el universo era muy joven y
caliente, estaba lleno de plasma que contenía casi exactamente las mismas
cantidades de materia y antimateria. El desequilibrio era extraordinariamente
pequeño. Por cada cien millones de antiprotones había cien millones y un
protones. Luego, conforme el universo se enfrió, partículas y antipartículas se
combinaron en pares y se aniquilaron dando fotones. Cien millones de
antiprotones encontraron con cien millones de compañeros y juntos se
suicidaron, dejando doscientos millones de fotones y tan solo un protón
residual. Estos residuos son la materia de la que estamos hechos. Hoy, si
tomamos un metro cúbico de espacio intergaláctico, éste contendrá
aproximadamente un protón y doscientos millones de fotones. Sin el ligero
desequilibrio inicial, yo no estaría aquí para contarle estas cosas a usted
(que no estaría aquí para leerlas).
Otro requisito esencial para la vida es que la gravedad sea
extremadamente débil. En la vida ordinaria la gravedad apenas parece débil. De
hecho, a medida que envejecemos la perspectiva diaria de combatir la gravedad
se hace cada vez más temible. Aún puedo oír a mi abuela diciendo, «Oh, vaya. Me
siento como si pesara media tonelada». Pero no recuerdo haberla oído quejarse
de las fuerzas eléctricas o las fuerzas nucleares. De todas formas, si
comparamos la fuerza eléctrica entre el núcleo y un electrón atómico con la
fuerza gravitatoria, encontraremos que la fuerza eléctrica es unas 1042 veces
mayor. ¿De dónde sale una razón tan enorme? Los físicos tienen algunas ideas,
pero lo cierto es que en realidad no sabemos el origen de la enorme
discrepancia entre electricidad y gravedad pese al hecho de que es tan
fundamental para nuestra existencia. Pero podemos preguntar qué habría sucedido
si la gravedad hubiera sido un poco más fuerte de lo que es. Una vez más, la
respuesta es que no estaríamos aquí para hablar de ello. La presión aumentada
debida a la gravedad más intensa haría que las estrellas se quemaran con
demasiada rapidez —tanta rapidez que la vida no tendría oportunidad de
evolucionar—. Aún peor, los agujeros negros lo habrían consumido todo,
condenando la vida mucho antes de que empezara. La gran atracción gravitatoria
podría incluso haber abortado la expansión de Hubble y provocado un big
crunch muy poco después del big bang.
¿Hasta qué punto debemos tomar en serio esta colección de felices
coincidencias? ¿Realmente constituyen un alegato a favor de algún tipo de
principio antrópico? Mi sensación es que son muy convincentes, pero no tan
convincentes como para haberme empujado a rebasar el punto crítico y abrazar
una explicación antrópica. Ninguna de estas afortunadas casualidades, con la
excepción de la extraordinaria debilidad de la gravedad, implica una precisión
extraordinariamente alta (precisión con muchas cifras decimales) en el ajuste
fino. E incluso la debilidad de la gravedad tiene una posible explicación que
apela a la magia de la supersimetría. En conjunto, estas coincidencias parecen
un racimo poco probable de accidentes pero, después de todo, los accidentes
ocurren.
Sin embargo, la pequeñez de la constante cosmológica es otro cantar. Es
prácticamente seguro que el que sean cero las 119 primera cifras decimales de
la energía del vacío no es un accidente. Pero no es sólo que la constante
cosmológica sea muy pequeña. Si hubiera sido aún más pequeña que eso, si
hubiera seguido siendo cero dentro del nivel de precisión actual, se podría
haber llegado a creer que un desconocido principio matemático haría que fuera
exactamente cero. Lo que nos cayó como la losa proverbial fue el hecho de que
en la cifra decimal 120 la respuesta no era cero. Ninguna magia matemática aún
desconocida va a explicar eso.
Pero, para mí, ni siquiera la constante cosmológica habría sido
suficiente para inclinar la balanza. Para mí el punto decisivo vino con el
descubrimiento del inmenso paisaje al que parece obligarnos la teoría de
cuerdas.
§.¿Cuándo tienen sentido las explicaciones antrópicas?
Supongamos que usted y yo fuéramos socios en el negocio de crear
universos favorables para la vida. Su trabajo consiste en considerar todos los
ingredientes necesarios y elaborar un diseño. Mi trabajo consiste en buscar en
el paisaje una localización que satisfaga sus requisitos. Usted elaboraría un
diseño. Entonces yo iría y lo buscaría en el paisaje. Si el paisaje tuviera
sólo un puñado de valles, estoy casi seguro de que yo no encontraría lo que
usted estaba buscando. Le diría que su encargo era una locura porque lo que
estaba buscando es increíblemente improbable.
Pero si usted supiera algo sobre teoría de cuerdas, podría cuestionar mi
valoración: «¿Está usted seguro de que ha mirado en todas partes: en cada
rincón y cada grieta, en cada valle? Hay 10500 de ellos, ya
sabe. Seguro que con este número debe ser posible encontrar lo que estamos
buscando. ¡Ah!, y no se moleste en buscar en los valles medios. Busque en los
excepcionales».
Esto sugiere un segundo criterio para una explicación antrópica
aceptable. El número de posibilidades matemáticamente compatibles debe ser tan
grande que incluso requisitos muy improbables se satisfarán al menos en algunos
valles.
Este segundo requisito tiene fuerza real sólo en el contexto de una
teoría precisa del paisaje. Para dar un ejemplo, los peces cosmólogos de
nuestra parábola podían apelar a la teoría de la gravedad de Newton y
argumentar que las ecuaciones permiten órbitas planetarias circulares a
cualquier distancia de una estrella. Las órbitas muy lejanas tienen planetas
congelados, donde el agua, e incluso el metano, se hielan. Las órbitas que
están próximas a la estrella tienen planetas calientes, donde el agua hierve instantáneamente.
Pero en algún lugar intermedio debe existir un punto donde la temperatura es la
adecuada para el H2O líquida. La teoría tiene tantas soluciones que
entre ellas debe haber alguna que sea la correcta.
Estrictamente hablando, un planeta no puede orbitar a cualquier
distancia. Los sistemas solares se parecen mucho a los átomos, con el sol y los
planetas en lugar de los núcleos atómicos y los electrones. Como Niels Bohr
entendió por primera vez, los electrones sólo pueden orbitar en órbitas
cuantizadas definidas. El mismo razonamiento se aplica a los planetas. Pero,
por desgracia, las órbitas posibles son tan numerosas y están tan densamente
apretadas que a efectos prácticos cualquier distancia es posible.
No era suficiente para los peces cosmólogos saber que los requisitos
para la vida son matemáticamente consistentes. También necesitaban un universo
que fuera tan grande y diverso que realmente contuviera casi todo lo que puede
existir. El universo conocido tiene 1011 galaxias, cada una con
1011 planetas, con un total de 1022 oportunidades
para satisfacer el requisito especial del agua líquida. Con tantos planetas hay
casi certeza de que muchos serán habitables.
A continuación se exponen los requisitos:
Para explicar antrópicamente la proposición X deberíamos ante todo creer
que no-X sería fatal para la existencia de nuestro tipo de vida. En el caso de
la constante cosmológica, esto es exactamente lo que Weinberg encontró.
Incluso si la probabilidad de X parece despreciable, un paisaje
suficientemente rico con suficientes valles podrá compensarla. Aquí es donde
las propiedades de la teoría de cuerdas empiezan a tener un impacto. La
exploración del Paisaje ha empezado en unas pocas universidades en Estados
Unidos y en Europa. Como veremos, todos los indicios apuntan a una inimaginable
diversidad de valles, quizá más de 10500 de ellos.
Y finalmente, pero ciertamente no menos importante, la cosmología
implicada por la teoría debería llevar de forma natural a un supermegaverso,
tan grande que todas las regiones del paisaje estarán representadas en al menos
un universo de bolsillo. Una vez más, la teoría de cuerdas, cuando se combina
con la idea de inflación, cuadra la cuenta. Pero eso queda para capítulos
posteriores.
El principio antrópico es la bête noire de la física
teórica. Muchos físicos expresan una relación casi violenta hacia el mismo. La
razón no es difícil de imaginar. Amenaza su paradigma, el paradigma que dice
que todo en la Naturaleza puede explicarse sólo por las matemáticas. ¿Están justificados
sus argumentos? ¿Tienen siquiera sentido?
Examinemos algunas de las objeciones desde el punto de vista de los
peces de gran cerebro. La objeción de que el principio antrópico es religión,
no ciencia, está claramente equivocada. En la visión de Andrei y Alexander no
se necesita la mano de Dios para ajustar bien el mundo en beneficio de sus
criaturas. Si acaso, la mayor parte del mundo es un lugar muy inhóspito, mucho
más letal de lo que los físicos imaginaran nunca. De hecho el principio
ictrópico, en la forma propuesta por Andrei y Alexander, elimina por completo
lo misterioso del misterio de los peces físicos.
Una objeción más relevante es que la física pierde su poder predictivo.
En gran medida esto es cierto si lo que queremos predecir es la temperatura de
nuestro planeta, la cantidad de luz solar que recibe, la longitud exacta del
ciclo anual, la altura de las mareas, la cantidad de sal en el océano y otros
hechos ambientales. Pero rechazar la explicación ictrópica de algunos de los
parámetros del ambiente sobre la base de que se perdería dicha predecibilidad
es claramente irracional. Requerir una predecibilidad completa tiene una base
emocional que no tiene nada que ver con los hechos duros de la ciencia
planetaria.
La queja de que los peces de gran cerebro están abandonando la búsqueda
tradicional de explicación científica está expresando también un malestar
psicológico, pero obviamente no tiene mérito científico. En algún momento las
esperanzas de los físicos se convierten en religión dogmática.
De todas las críticas del principio antrópico que he oído, hay una que
me parece ciencia seria. Fue planteada por dos íntimos amigos míos, Tom Banks y
Mike Dine [63], a
quienes no les gustan mis ideas. He aquí cuál es:
Supongamos que existe un ajuste fino en la Naturaleza que no tiene valor
antrópico. Le daré un ejemplo. El Sol y la Luna tienen el mismo tamaño aparente
en el cielo. De hecho, el disco de la Luna tiene un tamaño tan próximo al disco
del Sol que, durante un eclipse de Sol, la Luna bloquea casi exactamente el
disco solar. Esto es una gran suerte para los astrónomos solares: les permite
hacer observaciones que no podrían hacer de otro modo. Por ejemplo, pueden
estudiar la corona del Sol durante el eclipse. También pueden medir la cantidad
exacta en que los rayos luminosos son curvados por la gravedad del Sol. Pero
este ajuste fino inusualmente preciso no tiene ningún valor particular para
hacer posible la vida en la Tierra. Además, es probable que la mayoría de los
planetas habitables no tengan lunas que encajen con sus soles de forma tan
exacta. La probabilidad de seleccionar un planeta con dicho ajuste fino
solar-lunar si seleccionáramos arbitrariamente un planeta habitable al azar es
muy pequeña. De modo que, a menos que creamos en coincidencias improbables, la
explicación para nuestro mundo debe ser otra cosa que una elección aleatoria
sujeta sólo a la restricción antrópica.
La coincidencia Luna-Sol no es realmente mucho problema. La precisión
con la que la Luna encaja con el Sol no es extraordinaria. La diferencia es de
aproximadamente un uno por ciento. Coincidencias de un uno por ciento suceden
aproximadamente un uno por ciento de las veces. No es nada más que un accidente
feliz. Pero ¿qué pasaría si la Luna y el Sol encajaran hasta una parte en un
trillón de trillones? Eso parece tan improbable que requeriría una explicación.
Tendría que estar actuando algo además del principio antrópico. Podría arrojar
dudas sobre la idea de que el inexplicable carácter especial del universo tiene
algo que ver con el éxito de la vida.
Hay al menos una característica muy inusual de las leyes de la física
que parece muy bien ajustada sin ninguna explicación antrópica a la vista.
Tiene que ver con el protón, pero repasemos primero las propiedades de su
gemelo casi idéntico, el neutrón. El neutrón es un ejemplo de partícula
inestable. Los neutrones, si no estuvieran ligados dentro de un núcleo, sólo
durarían unos doce minutos antes de desaparecer. Por supuesto el neutrón tiene
masa o, lo que es equivalente, energía, que no puede desaparecer sin más. La
energía es una magnitud que los físicos dicen que se conserva. Eso significa
que su cantidad total nunca puede cambiar. La carga eléctrica es otra magnitud
exactamente conservada. Cuando el neutrón desaparece, algo con la misma energía
y carga total debe reemplazarlo. De hecho el neutrón se desintegra en un
protón, un electrón y un antineutrino. La energía y carga eléctrica inicial y
final son las mismas.
¿Por qué se desintegra el neutrón? Si no lo hiciera, la pregunta real
sería, ¿por qué no se desintegra? Como una vez dijo Murray Gell-Mann citando a
T. H. White: «Todo lo que no está prohibido es obligatorio». Gell-Mann estaba
expresando un hecho sobre la mecánica cuántica: las fluctuaciones cuánticas
—las agitaciones cuánticas— harán que con el tiempo suceda cualquier cosa a
menos que alguna ley especial de la Naturaleza lo prohíba expresamente.
¿Qué pasa con los protones? ¿Pueden desintegrarse, y si es así, en qué
se convierten? Una posibilidad sencilla es que el protón se desintegre en un
fotón y un positrón. El fotón no tiene carga y el protón y el positrón tienen
exactamente la misma carga. Debería ser posible que los protones se desintegren
en fotones y positrones. Ningún principio de la física lo impide. La mayoría de
los físicos esperan que, dado el tiempo suficiente, el protón se desintegrará.
Pero si el protón puede desintegrarse, eso significa que todos los
núcleos atómicos pueden desintegrarse. Sabemos que núcleos atómicos de átomos
como el hidrógeno son muy estables. La vida media de un protón debe ser muchas
veces la edad del universo.
Debe haber una razón por la que el protón vive tanto tiempo. ¿Puede
dicha razón ser antrópica? Ciertamente nuestra existencia pone limitaciones a
la vida media del protón. Obviamente no puede ser demasiado pequeña. Supongamos
que el protón vive un millón de años. Entonces yo no tendría que preocuparme
mucho porque mis protones desaparezcan durante mi vida. Pero puesto que el
universo tiene unos diez mil millones de años, si el protón viviera sólo un
millón de años todos habrían desaparecido mucho antes de que yo hubiera nacido.
De modo que el requisito antrópico para la vida media del protón es mucho más
largo que una vida media humana. El protón debe durar al menos catorce mil
millones de años.
Desde una perspectiva antrópica, la vida media del protón quizá tenga
que ser mucho más larga que la edad del universo. Para ver por qué, supongamos
que la vida media del protón fuera de veinte mil millones de años. La
desintegración de una partícula inestable es un suceso impredecible que puede
ocurrir en cualquier instante. Cuando decimos que la vida media del protón es
de veinte mil millones de años queremos decir que, estadísticamente, el protón
medio durará ese tiempo. Algunos se desintegrarán en un año, y otros, en
cuarenta mil millones de años.
Su cuerpo tiene unos 1028 protones. Si la vida media del
protón fuera de veinte mil millones de años, aproximadamente 1018 de
dichos protones se desintegrarían cada año [64]. Ésta es
una fracción despreciable de sus protones, de modo que usted no tiene por qué
preocuparse porque vaya a desaparecer. Pero cada protón que se desintegra en su
cuerpo dispara partículas energéticas: fotones, positrones y piones. Estas
partículas, moviéndose a través de su cuerpo, tienen los mismos efectos que una
exposición a la radioactividad: daños celulares y cáncer. Si 1018 protones
se desintegran en su cuerpo, le matarán. De modo que las restricciones
antrópicas sobre la desintegración del protón pueden ser más fuertes de lo que
usted pensaría ingenuamente. Hasta donde sabemos, una vida media de un millón
de veces la edad del universo —1016 años— es suficientemente
larga para no poner en peligro la vida. Sobre bases antrópicas podemos
descartar todos los valles del paisaje en donde la vida media del protón sea
menor que ésta.
Pero sabemos que el protón vive muchísimo más tiempo que 1016 años.
En un tanque de agua con aproximadamente 1033 protones
esperaríamos ver una desintegración de un protón cada año si la vida media
fuera de 1033 años. Los físicos, confiando en ser testigos de
la desintegración de unos pocos protones, han construido enormes cámaras
subterráneas, llenas de agua y detectores fotoeléctricos. Los detectores
sofisticados modernos pueden detectar la luz procedente de una única
desintegración. Pero hasta ahora, nada de nada; no se ha visto desintegrarse a
un solo protón. Evidentemente el tiempo de vida del protón es aún más largo que
1033 años, pero la razón es desconocida.
Para complicar el problema, tampoco conocemos ninguna razón por la que
el paisaje de la teoría de cuerdas no debiera tener valles en los que las leyes
de la física son favorables para la vida pero en donde los protones vivan sólo
1016 o 1017 años. Potencialmente el número de
tales valles podría compensar con creces aquéllos con tiempos de vida mucho
mayores.
Ésta es una seria preocupación pero probablemente no un impedimento
radical. Por desgracia, no tenemos información suficiente sobre el paisaje para
saber qué porcentaje de sus valles habitables tienen vidas medias de protones
tan largas. Pero hay una razón para el optimismo. ¡El modelo estándar sin
modificación no permite que el protón se desintegre en absoluto! Esto no tiene
nada que ver con el principio antrópico; el hecho de que el protón no pueda
desintegrarse es simplemente una propiedad matemática del modelo estándar. Si
el ambiente habitable típico requiere algo similar al modelo estándar, la
estabilidad del protón puede continuar así.
Pero sabemos que el modelo estándar no es toda la historia. No contiene
a la gravedad. Incluso si el modelo estándar puede ser una descripción muy
buena de la física ordinaria, debe fallar en cualquier caso. Esto podría
suceder de muchas maneras. Las teorías denominadas teorías de gran unificación
(GUT) son, pese a su horrible nombre [65], muy
atractivas. La generalización más simple del modelo estándar en una GUT lleva
la vida media del protón hasta aproximadamente 1033 o 10 34 años.
Otras extensiones del modelo estándar no son tan seguras. Una de ellas,
basada en la supersimetría, puede llevar a vidas medias del protón
significativamente más cortas a menos que se ajuste adecuadamente. Necesitamos
más información antes de que podamos extraer conclusiones de gran alcance. Por
fortuna, experimentos de física de partículas en el próximo futuro pueden
influir en la validez del modelo estándar y también en las razones para la
inestabilidad inusual del protón. Permanezcamos atentos durante algunos años.
§. Objeciones filosóficas
En el resumen de un artículo titulado «Alternativas científicas al
principio antrópico», el físico Lee Smolin escribe: «Se explica con detalle por
qué el principio antrópico no puede hacer ninguna predicción falsable y, por
tanto, no puede formar parte de la ciencia» [66].
El artículo de Smolin sigue diciendo en la introducción:
He escogido un título deliberadamente provocativo para comunicar la
sensación de frustración que he experimentado durante muchos años al ver como
otras personas, por lo demás inteligentes, algunas de las cuales están entre
los científicos que más respeto y admiro, defienden una aproximación a los
problemas cosmológicos que no es científica, como es fácil de ver. Me estoy
refiriendo, por supuesto, al principio antrópico. Al llamarlo anticientífico
entiendo algo muy específico, y es que carece de una propiedad necesaria para
ser considerado una hipótesis científica. Y dicha propiedad es la de ser
falsable. Según el filósofo Popper, una teoría es falsable si de ella pueden
derivarse predicciones inequívocas para experimentos factibles, de modo que, si
se vieran resultados contrarios, quedaría demostrado que al menos una premisa
de la teoría no se aplica a la naturaleza.
Richard Feynman comentó en cierta ocasión: «Los filósofos hablan mucho
de lo que es absolutamente necesario para la ciencia y lo que dicen es siempre,
por lo que puedo ver, bastante ingenuo y probablemente falso». Feynman entre
otros se refería a Popper. La mayoría de los físicos, como Feynman, no suelen
pensar mucho sobre filosofía: no a menos que estén tratando de utilizarla para
demostrar que la teoría de algún otro no es científica.
Francamente hubiera preferido evitar el tipo de discurso filosófico que
suscita el principio antrópico. Pero la pontificación, por parte de los
«popperazzi», sobre lo que es y no es ciencia se ha hecho tan vehemente en los
noticiarios y los blogs de internet que creo que debo abordarla. Mi opinión
sobre el valor de las reglas filosóficas rígidas en ciencia es la misma que la
de Feynman. Permítame citar un debate que apareció en la página de internet
edge.org. La cita es de un corto ensayo que escribí en respuesta al artículo de
Smolin. Los argumentos de Smolin también pueden encontrarse allí. Son profundos
e interesantes:
A lo largo de mi larga experiencia como científico he oído tantas veces
la acusación de infalsabilidad lanzada contra ideas importantes que me inclino
a pensar que ninguna idea puede tener gran mérito a menos que atraiga esta
crítica.
De la psicología: uno pensaba que todo el mundo estaría de acuerdo en que los
seres humanos tienen una vida emocional oculta. B. F. Skinner no lo estaba. Fue
el gurú de un movimiento científico llamado conductismo que descartaba como no
científica cualquier cosa que no pudiera ser directamente observada. Según el
conductista, el único tema válido para la psicología es la conducta externa.
Los enunciados sobre las emociones o el estado mental de un paciente eran
desechados como infalsables y no científicos. Hoy, la mayoría de nosotros diría
que éste es un extremo ridículo. Hoy los psicólogos están profundamente
interesados en las emociones y en cómo se desarrollan.
De la física: en los primeros días de la teoría de los quarks, sus muchos
adversarios la despreciaban como infalsable. Los quarks están ligados
permanentemente en protones, neutrones y mesones. Nunca pueden ser aislados y
estudiados por separado. Están, por así decir, ocultos tras un tipo de velo
diferente. La mayoría de los físicos que hacían estas afirmaciones tenían sus
propios programas y los quarks simplemente no encajaban en ellos. Pero ahora,
aunque nunca se ha detectado un quark aislado, nadie cuestiona seriamente la
corrección de la teoría de quarks. Es parte de los cimientos de la física
moderna.
Otro ejemplo es la teoría inflacionaria de Alan Guth. En 1980 parecía imposible
mirar atrás a la era inflacionaria y ver prueba directa del fenómeno. Otro velo
impenetrable llamado «superficie de última dispersión» impedía cualquier
observación del proceso inflacionario. A muchos de nosotros nos preocupaba que
no pudiera haber una buena manera de poner a prueba la inflación. Otros
—normalmente personas con buenas ideas— afirmaban que la inflación era
infalsable y, por tanto, no científica.
Puedo imaginar a los partidarios de Lamarck criticando a Darwin: «Tu teoría es
infalsable, Charles. Tú no puedes retroceder en el tiempo, a través de los
millones de años durante los que ha actuado la selección natural. Todo lo que
tendrás alguna vez son pruebas circunstanciales y una hipótesis infalsable. Por
el contrario, nuestra teoría lamarckiana es científica porque es falsable. Todo
lo que tenemos que hacer es reunir a un grupo de personas que levante pesas en
el gimnasio todos los días durante unas horas. Al cabo de algunas generaciones,
los músculos de sus hijos ya se verán al nacer». Los lamarckianos tenían razón.
La teoría se falsea con facilidad, con demasiada facilidad. Pero eso no la
hacía mejor que la teoría de Darwin.
Hay personas que argumentan que el mundo se creó hace seis mil años con todas
las formaciones geológicas, abundancias de isótopos, huesos de dinosaurios,
etcétera, en su sitio. Casi todos los científicos apuntarán con el dedo
acusador y dirán: «¡No falsable!»: Y yo estaría de acuerdo. Pero tampoco es
falsable lo contrario —que el universo no fue creado de esta manera—. De hecho,
esto es exactamente lo que dicen los creacionistas. Por el rígido criterio de
falsabilidad la «ciencia-creación» y la ciencia− ciencia son igualmente no
científicas. Espero que al lector no se le pase por alto lo absurdo de esta
posición.
La buena metodología científica no es un conjunto abstracto de reglas dictadas
por los filósofos. Está condicionada y determinada por la propia ciencia y los
científicos que crean la ciencia. Lo que puede haber constituido demostración
científica para un físico de partículas de los años sesenta —a saber, la
detección de una partícula aislada— es inadecuado para un físico de quarks
moderno que nunca puede esperar en extraer y aislar un quark. No hay que poner
la carreta antes que los bueyes. La ciencia es el buey que tira del carro de la
filosofía.
En cada uno de los casos que he descrito —quarks, inflación, evolución
darwiniana—, los acusadores estaban cometiendo el error de subestimar el
ingenio humano. Sólo se necesitaron unos pocos años para poner a prueba
indirectamente la teoría de quarks con gran precisión. Se necesitaron veinte
años para realizar los experimentos que confirmaron la inflación. Y se
necesitaron cien años o más para poner a prueba decisivamente a Darwin (algunos
dirían incluso que aún está por comprobar). Los poderosos métodos que los
biólogos iban a descubrir un siglo después eran inimaginables para Darwin y sus
contemporáneos. ¿Será posible poner a prueba la inflación eterna y el paisaje?
Yo ciertamente lo creo, aunque quizá, como en el caso de los quarks, los test
serán menos directos e incluirán más teoría de la que a algunos les gustaría.
Tras escribir esto pensé en un par de ejemplos adicionales de popperismo
excesivo. Uno obvio es la teoría de la matriz S de los años sesenta [67], que
decía que puesto que las partículas elementales son tan pequeñas, cualquier
teoría que intente discutir su estructura interna es infalsable y, por
consiguiente, no es ciencia. Una vez más, nadie la toma hoy en serio.
Un ejemplo famoso de finales del siglo XIX implica a uno de los héroes
de Einstein, Ernst Mach. Mach era a la vez físico y filósofo. Fue una
inspiración para Wittgenstein y los positivistas lógicos. En la época en que
estaba activo, la hipótesis de que la materia estaba compuesta de átomos era
todavía una conjetura indemostrada, y siguió así hasta que el famoso artículo
de Einstein de 1905 sobre el movimiento browniano demostró inequívocamente que
la materia tenía estructura atómica.
Incluso si Boltzmann había demostrado que las propiedades de los gases
podían explicarse por la hipótesis atómica, Mach insistía en que no era posible
demostrar la realidad de los átomos. Admitía que podía ser un recurso
mnemotécnico útil, pero argumentaba enérgicamente que la imposibilidad de
falsarios socavaba su estatus como ciencia real.
La falsificación es, en mi opinión, una pista falsa, pero la
confirmación es otra historia. (Quizá esto es lo que realmente quería decir
Smolin). Por confirmación entiendo evidencia directa positiva a favor de una
hipótesis antes que ausencia de evidencia negativa. Es cierto que la teoría de
la inflación eterna descrita en el capítulo 9 y la existencia de múltiples
universos de bolsillo no puede ser confirmada de la misma manera que los peces
de gran cerebro podían confirmar su versión del principio ictrópico. Sin violar
ninguna ley de la Naturaleza, los peces cosmólogos podrían construir un
submarino lleno de agua, presurizado, que les llevara a la superficie y
observar la existencia de planetas, estrellas y galaxias. Incluso podrían
visitar estos cuerpos astronómicos y confirmar por sí mismos la enorme variedad
de ambientes. Por desgracia, hay razones insuperables (véase, sin embargo, el
capítulo 12) por las que una opción análoga no está a nuestra disposición. El
concepto clave es la existencia de horizontes cósmicos que nos separan de otros
universos de bolsillo. En los capítulos 11 y 12 discuto los horizontes y la
cuestión de si son realmente barreras definitivas para recoger información.
Pero ciertamente los críticos tienen razón en que en la práctica,
durante un previsible futuro, estamos atrapados en nuestro propio bolsillo, sin
ninguna posibilidad de observar otros directamente. Como en el caso de la
teoría de quarks, la confirmación no será directa y se basará en mucha teoría.
En cuanto a las reglas filosóficas rígidas, sería el colmo de la
estupidez descartar una posibilidad sólo porque rompe el lema de algún filósofo
sobre la falsabilidad. ¿Qué pasa si resulta ser la respuesta correcta? Creo que
lo único que se puede decir es que apostamos por encontrar explicaciones de las
regularidades que vemos en el mundo. El tiempo separará las buenas ideas de las
malas, y pasarán a formar parte de la ciencia. Las malas irán al cubo de la
basura. Como resaltaba Weinberg, no tenemos explicación para la constante
cosmológica distinta de algún tipo de razonamiento antrópico. ¿Será una de las
buenas ideas que se convertirá en ciencia o será una que vaya a la basura?
Ninguna regla rígida de los filósofos, o incluso de los científicos, puede servir
de mucho. De la misma manera que los generales están luchando siempre la última
guerra, los filósofos siempre están analizando la última revolución científica.
Antes de concluir este capítulo quiero discutir otra objeción favorita
al principio antrópico. Este argumento dice que el principio antrópico no es
falso, es simplemente una tonta tautología. Por supuesto, el mundo tiene que
ser de tal manera que soporte vida. La vida es un hecho observado. Y por
supuesto es cierto que si no hubiera vida, no habría nadie para observar el
universo y plantear las preguntas que estamos planteando. Pero ¿y qué? El
principio no dice nada más allá del hecho de que la vida se formó.
Ésta es una forma deliberada de eludir la cuestión. Como de costumbre
encuentro útil recurrir a una analogía. La llamo principio cerebrotrópico. El
principio cerebrotrópico pretende responder a la pregunta «¿Cómo sucedió que
desarrolláramos un cerebro tan grande y poderoso?». Esto es lo que dice el
principio:
«Las leyes de la biología requieren la existencia de una criatura con un
cerebro extraordinariamente inusual de unos mil cuatrocientos centímetros
cúbicos porque sin tal cerebro no habría nadie para preguntar cuáles son las
leyes de la biología».
Esto es bastante tonto, incluso si fuera cierto. Pero el principio
cerebrotrópico es en realidad una abreviatura para una historia más larga y
mucho más interesante. De hecho, son posibles dos historias. La primera es
creacionista: Dios hizo al hombre con un objetivo que incluía la capacidad del
hombre para apreciar y rendir culto a Dios. Olvidemos esa historia. La clave de
la ciencia es evitar tales historias. La otra historia es mucho más compleja y,
creo yo, mucho más interesante. Tiene varios aspectos. Ante todo dice que las
leyes de la física y de la química permiten la posible existencia de sistemas
de neuronas similares a un computador que pueden mostrar inteligencia. En otras
palabras, el paisaje de diseños biológicos incluye un pequeño número de diseños
muy especiales que tienen lo que llamamos inteligencia. Eso no es trivial.
Pero la historia requiere más: un mecanismo para convertir estos planos
en modelos operativos reales. Aquí es donde entra Darwin: los errores
aleatorios de copiado, junto con la selección natural, tienen una tendencia a
crear un árbol de vida cuyas ramas llenan cada nicho, incluyendo un nicho para
criaturas que sobreviven gracias a su potencia cerebral. Una vez que se
entiende todo esto, la pregunta «¿Por qué me desperté esta mañana con un gran
cerebro?» es exactamente respondida por el principio cerebrotrópico. Sólo un
gran cerebro puede plantear la pregunta.
También el principio antrópico puede ser tonto. «Las leyes de la física
tienen que ser tales que permitan la vida porque, si no fueran así, no habría
nadie para preguntar sobre las leyes de la física». Los críticos tienen toda la
razón; por sí solo, es tonto. Simplemente afirma lo obvio —estamos aquí, de
modo que las leyes de la Naturaleza deben permitir nuestra existencia— sin
proporcionar ningún mecanismo de cómo nuestra existencia influyó en la elección
de leyes. Pero tomado como abreviatura de la existencia de un paisaje
fantásticamente rico y un mecanismo para poblar el paisaje (capítulo 11) con
universos de bolsillo, no es nada trivial. En los capítulos siguientes veremos
pruebas de que nuestra mejor teoría matemática nos proporciona dicho paisaje.
Capítulo 7
Un mundo impulsado por una banda elástica
Contenido:
§. Hadrones
§. Orígenes de la teoría de cuerdas
El gran número de felices casualidades que he descrito hasta ahora,
incluyendo el increíble ajuste fino de la constante cosmológica, constituye un
fuerte alegato para mantener al menos una mente abierta hacia los argumentos
antrópicos. Pero estas casualidades por sí solas no me habrían persuadido para
adoptar una posición decidida sobre la cuestión. El éxito de la inflación (la
inflación implica un universo enorme) y el descubrimiento de un poco de energía
del vacío hacía atractivo el principio antrópico; pero, para mí, la «gota que
colmó el vaso» fue la comprensión de que la teoría de cuerdas se estaba
moviendo en lo que parecía una dirección difícil. En lugar de apuntar a un
único sistema de leyes físicas, estaba generando una colección cada vez mayor
de inventos de Rube Goldberg. Yo tenía la sensación de que el objetivo de un
único mundo de cuerdas era un espejismo cada vez más lejano y que los teóricos
que buscaban semejante mundo único estaban en una misión condenada al fracaso.
Pero también tenía la sensación de que había una oportunidad
extraordinaria en el descarrilamiento que se avecinaba: la teoría de cuerdas
podría proporcionar el marco técnico en el que el pensamiento antrópico tendría
sentido. El único problema era que la teoría de cuerdas, aunque ofrecía muchas
posibilidades, no parecía ofrecer las suficientes. Yo seguía preguntando a mis
amigos: «¿Estáis seguros de que el numero de variedades de Calabi Yau es sólo
de unos pocos millones?». Sin jerga matemática, lo que les estaba preguntando
era si estaban completamente seguros de que el número de vacíos de la teoría de
cuerdas (en otras palabras, valles en el paisaje) se medía en millones. Unos
pocos millones de posibilidades cuando uno está tratando de explicar la anulación
de ciento veinte cifras decimales no sirve de mucho.
Pero todo eso cambió en el año 2000. Raphael Bousso, entonces un joven
ya doctorado en Stanford, junto con un viejo amigo, Joe Polchinski, de la
Universidad de California, en Santa Bárbara, escribieron un artículo que
explicaba cómo el número de posibles vacíos podía ser tan grande que fácilmente
sería suficiente para superar la improbabilidad de ajustar 120 cifras.
Inmediatamente después, mis colegas de Stanford Shamit Kachru, Renata Kallosh y
Andrei Linde y el físico indio Sandip Trivedi confirmaron la conclusión. Eso
era lo que estaba esperando. Deduje que la única explicación racional para el
ajuste fino de la Naturaleza tendría que incluir la teoría de cuerdas y alguna
forma de razonamiento antrópico. Escribí un artículo titulado «El paisaje
antrópico de la teoría de cuerdas» que removió un avispero que aún está
zumbando. Éste es el primero de tres capítulos (7, 8 y 10) dedicados a explicar
la teoría de cuerdas.
§. Hadrones
«Tres quarks para muster mark», dijo James Joyce. «Tres quarks para el
protón, tres quarks para el neutrón y un quark-antiquark [68] para
el mesón», dijo Murray Gell-Mann. Murray, que disfruta con las palabras,
inventó una gran parte del vocabulario de la física de altas energías: quark,
extrañeza, cromodinámica cuántica, álgebra de corrientes, el óctuple
camino y varias más. No estoy seguro de si la curiosa palabra hadrón fue
una de las palabras de Murray. Los hadrones fueron definidos originalmente, de
forma algo imprecisa, como partículas que compartían ciertas propiedades con
los nucleones (protones y neutrones). Hoy tenemos una definición muy clara y
simple: los hadrones son las partículas que están hechas de quarks, antiquarks
y gluones. En otras palabras, son las partículas que están descritas por la
cromodinámica cuántica (capítulo 1).
¿Qué significa la palabra hadrón? El prefijo hadr en
griego significa «fuerte». No son las propias partículas las que son fuertes
—es mucho más fácil romper un protón que un electrón— sino más bien las fuerzas
entre ellas. Uno de los primeros logros de la física de partículas elementales
fue reconocer que existen cuatro tipos distintos de fuerzas entre partículas
elementales. Lo que distingue estas fuerzas es su intensidad: con qué fuerza
atraen o empujan. La más débil de todas es la interacción gravitatoria entre
partículas; luego vienen las denominadas interacciones débiles; algo más
fuertes son las familiares fuerzas electromagnéticas, y finalmente, están las
más fuertes de todas: las interacciones nucleares o fuertes. Quizá usted
encuentre extraño que la más familiar —la gravedad— sea la más débil. Pero
piense en ello por un momento: se requiere la masa entera de la Tierra para
mantenernos en la superficie. La fuerza entre una persona media de pie en la
superficie de la Tierra y la propia Tierra es sólo de setenta kilos. Dividamos
esa fuerza por el número de átomos en un cuerpo humano y se hace evidente que
la fuerza sobre cualquier átomo es minúscula.
Pero si las fuerzas eléctricas son mucho más fuertes que la gravedad,
¿por qué la interacción eléctrica no nos expulsa de la superficie o nos aplasta
contra ella? La fuerza gravitatoria entre dos objetos cualesquiera es siempre
atractiva (ignorando los efectos de una constante cosmológica). Cada electrón y
cada núcleo en nuestros cuerpos atraen gravitatoriamente a cada electrón y cada
núcleo en la Tierra. Eso suma mucha atracción, incluso si las fuerzas
individuales entre las partículas microscópicas son totalmente despreciables.
Por el contrario, las fuerzas eléctricas pueden ser atractivas o repulsivas.
Cargas opuestas —un electrón y un protón, por ejemplo— se atraen. Dos cargas
iguales, un par de electrones o un par de protones, se repelen mutuamente, tanto
nuestros propios cuerpos como la sustancia de la Tierra tienen ambos tipos de
carga —nucleones positivos y electrones negativos— en cantidades iguales. Las
fuerzas eléctricas de atracción y repulsión se anulan. Pero supongamos que
pudiéramos eliminar temporalmente todos los electrones en nosotros mismos y en
la Tierra. Las cargas positivas restantes se repelerían con una fuerza total
que sería incomparablemente más fuerte que la fuerza gravitatoria. ¿Cuántas
veces más fuerte? Aproximadamente un uno con cuarenta ceros detrás, 1040.
Usted sería expulsado de la Tierra con tal fuerza que estaría moviéndose
prácticamente a la velocidad de la luz en nada de tiempo. En realidad, esto no
podría suceder nunca. Las cargas positivas en su propio cuerpo se repelerían
con tanta fuerza que usted estallaría en pedazos instantáneamente. Y también lo
haría la Tierra.
Las fuerzas eléctricas no son ni las más fuertes ni las más débiles de
las fuerzas no gravitatorias. La mayoría de las partículas familiares
interaccionan a través de las denominadas interacciones débiles. El neutrino es
un buen ejemplo porque sólo siente las fuerzas débiles (ignorando la gravedad).
Como ya he explicado, las fuerzas débiles no son realmente tan débiles, pero
son de muy corto alcance. Dos neutrinos tienen que estar increíblemente
próximos, a aproximadamente una milésima del diámetro de un protón, para
ejercer una fuerza apreciable entre sí. Si están a esa distancia, la fuerza es
aproximadamente la misma que la fuerza eléctrica entre electrones, pero bajo
condiciones ordinarias las fuerzas débiles son sólo una minúscula fracción de
las eléctricas.
Finalmente, llegamos a las más fuertes de todas las fuerzas, aquellas
que mantienen unido el núcleo atómico. Un núcleo está compuesto de neutrones
eléctricamente neutros y protones cargados positivamente. No se encuentran
cargas negativas en el núcleo. ¿Por qué no estalla? Porque los protones y los
neutrones individuales se atraen con una fuerza no eléctrica unas cincuenta
veces más fuerte que la repulsión eléctrica. Los quarks que forman un único
protón sienten fuerzas aún más fuertes que los ligan. ¿Cómo es que nuestros
protones y neutrones no están atraídos hacia los protones y neutrones de la
Tierra por fuerzas tan poderosas? La respuesta es que, aunque la fuerza nuclear
es poderosa, también es de muy corto alcance. Es suficientemente fuerte como
para superar la repulsión eléctrica de los protones, pero sólo cuando las
partículas están muy próximas. Una vez que se separan por más de un par de
diámetros de protón, la fuerza se hace despreciable.
Subyacentes a las interacciones fuertes están las fuerzas poderosas
entre quarks, las partículas elementales que constituyen los hadrones.
A menudo siento una incomodidad, una especie de embarazo, cuando explico
física de partículas elementales a los profanos. Todo parece muy arbitrario: la
ridícula colección de partículas fundamentales, la falta de pautas en sus
masas, y especialmente las cuatro fuerzas, tan diferentes unas de otras, sin
ninguna rima o razón aparente. ¿Es el universo «elegante» como nos cuenta Brian
Greene? No por lo que yo puedo decir, ni lo son en cualquier caso las leyes
usuales de la física de partículas. Pero en el contexto de un megaverso de
diversidad incontrolada hay una pauta. Todas las fuerzas y la mayoría de las
partículas elementales son absolutamente esenciales. Cambiemos cualquiera de
ellas en lo más mínimo y la vida tal como la conocemos se hace imposible.
§. Orígenes de la teoría de cuerdas
Una peculiar ideología se insinuó en la física teórica de altas energías
en los años sesenta del siglo pasado. Tenía un paralelo casi exacto en una
falacia que había dominado en psicología. B. F. Skinner era el gurú de
los conductistas, que insistían en que sólo la conducta externa de
un ser humano era el material adecuado de la ciencia de la mente. Según
Skinner, los psicólogos no tenían nada que hacer investigando los estados
mentales internos de sus sujetos. Incluso llegó a declarar que no existían
tales cosas. El trabajo de la psicología consistía en observar, medir y
registrar la conducta externa de sujetos sin siquiera indagar en los
sentimientos, pensamientos o emociones internas. Para el conductista un ser
humano era una caja negra que convertía input sensorial
en output conductual. Aunque probablemente es cierto que los
freudianos fueron demasiado lejos en la otra dirección, los conductistas
llevaron su ideología al extremo.
El conductismo de la física se denominaba teoría de la matriz S. En
algún momento a principios de los sesenta, siendo yo estudiante de doctorado,
algunos físicos teóricos muy influyentes, con centro en Berkeley, decidieron
que los físicos no tenían que ocuparse en tratar de explicar el funcionamiento
interno de los hadrones. En su lugar, deberían considerar las leyes de la
física como una caja negra: una caja negra denominada matriz de dispersión, o
matriz S para abreviar. Como los conductistas, los defensores de la matriz S
querían que la física teórica permaneciera próxima a los datos experimentales y
no se perdiera en especulaciones sobre sucesos inobservables que tienen lugar
dentro de las (que entonces se consideraban) dimensiones absurdamente pequeñas
características de las partículas como el protón.
El input de la caja negra es un conjunto especificado
de partículas que se dirigen unas hacia a otras, a punto de colisionar. Podrían
ser protones, neutrones, mesones o incluso núcleos de átomos. Cada partícula
tiene un momento especificado, así como muchas otras propiedades como espín,
carga eléctrica y demás. Dentro de la caja negra metafórica desaparecen. Y lo
que sale de la caja negra es también un grupo de partículas: los productos de
la colisión, de nuevo con propiedades específicas. El dogma de Berkeley
prohibía mirar dentro de la caja para desvelar los mecanismos subyacentes. Las
partículas iniciales y finales lo son todo. Esto está muy próximo a lo que los
físicos experimentales hacen con los aceleradores para producir las partículas
incidentes y con los detectores para detectar lo que emerge de la colisión.
La matriz S es básicamente una tabla de probabilidades mecano-cuánticas.
Uno introduce el input y la matriz S le da la probabilidad de
un output dado. La tabla de probabilidades depende de la
dirección y energía de las partículas entrantes y salientes y, según la
ideología dominante a mediados de los años sesenta, la teoría de las partículas
elementales debería limitarse a estudiar cómo depende la matriz S de esas
variables. Todo lo demás estaba prohibido. Los ideólogos habían decidido que
ellos sabían lo que constituía buena ciencia y se convirtieron en los
guardianes de la pureza científica. La teoría de la matriz S era un sano
recordatorio de que la física es una disciplina empírica pero, como el
conductismo, la filosofía de la matriz S fue demasiado lejos. Para mí convertía
toda la maravilla del mundo en la esterilidad gris de las tablas actuariales de
un contable. Yo era un rebelde, pero un rebelde carente de teoría.
En 1968 Gabriele Veneziano era un joven físico italiano que vivía y
trabajaba en el Instituto Weizmann de Israel. No tenía una ideología especial
sobre la teoría de la matriz S, pero le atraía el desafío matemático de
explicar la matriz S. Se suponía que la matriz S satisfacía ciertos requisitos
técnicos, pero nadie entonces podía señalar una expresión matemática concreta
que satisficiera las reglas. Así que Veneziano trató de encontrar una. El
ataque fue brillante. El resultado, hoy conocido como la «amplitud de
Veneziano» era extraordinariamente claro. Pero no era una imagen de lo que
estaban hechas las partículas o de cómo podía visualizarse el proceso de
colisión. La amplitud de Veneziano era una expresión matemática elegante, una
elegante tabla matemática de probabilidades.
El descubrimiento de la teoría de cuerdas, que en cierto sentido aún
está en curso, estuvo lleno de giros del destino, reveses de fortuna y
casualidades. Empecé a involucrarme en ella en algún momento en 1968 o
principios de 1969. Yo estaba comenzando a cansarme de los problemas de
partículas elementales, especialmente hadrones, que parecían tener poco que
ofrecer en forma de principios profundos y nuevos. Encontraba aburrida la
aproximación de la matriz S y estaba empezando a pensar en la relación entre mecánica
cuántica y gravedad. Unir la teoría de la relatividad general con los
principios de la mecánica cuántica parecía mucho más excitante, incluso si
todos los datos experimentales eran sobre hadrones. Pero precisamente en esa
época, un amigo de Israel me visitó en Nueva York. El amigo, Héctor Rubinstein,
estaba extraordinariamente excitado por el trabajo de Veneziano. Al principio
no me sentí muy interesado. Los hadrones eran exactamente lo que yo quería
olvidar. Sólo por cortesía decidí escuchar a Héctor.
Héctor se puso tan excitado mientras explicaba la idea del italiano que
yo no podía seguir realmente los detalles. Por lo que podía deducir, Veneziano
había desarrollado una fórmula para describir lo que sucede cuando colisionan
dos hadrones. Finalmente Héctor escribió la formula de Veneziano en la pizarra
de mi despacho. Una luz se encendió en mi cabeza. Era extraordinariamente
simple y las características de la fórmula me resultaban familiares. Recuerdo
que pregunté a Héctor: «¿Representa esta fórmula algún tipo de sistema
mecano-cuántico sencillo? Parece que tiene algo que ver con osciladores
armónicos». Héctor no conocía una imagen física que acompañara a la fórmula, de
modo que yo la apunté en una hoja de papel para recordarla.
Quedé bastante intrigado para posponer la reflexión sobre gravedad
cuántica y dar otra oportunidad a los hadrones. El caso es que no volví a
pensar seriamente sobre gravedad durante más de una década. Reflexioné sobre la
fórmula anterior durante varios meses antes de que empezara a ver lo que
representaba realmente.
El término oscilador armónico es una expresión en el
lenguaje de la física para algo que pueda vibrar o moverse de un lado a otro
con movimiento periódico (repetitivo). Un niño en un columpio o un peso que
cuelga en el extremo de un muelle son osciladores armónicos familiares. Las
vibraciones de una cuerda de violín o incluso las oscilaciones del aire cuando
una onda sonora lo atraviesa son también buenos ejemplos. Si el sistema
vibrante es suficientemente pequeño —las vibraciones de los átomos en una molécula
son un ejemplo— entonces la mecánica cuántica se hace importante y sólo puede
añadirse energía al oscilador en pasos discretos. Yo había mencionado el
oscilador armónico a Héctor porque ciertas características de la fórmula de
Veneziano me recordaban las propiedades matemáticas de los osciladores
armónicos mecanocuánticos. Yo imaginaba un hadrón como dos pesos unidos por un
muelle, vibrando con una oscilación periódica: los pesos se acercan primero y
luego se alejan uno de otro. Claramente estaba jugando con la fruta prohibida,
tratando de imaginar la maquinaria interna dentro de las partículas
elementales, y yo lo sabía.
Estar tentadoramente próximo a la respuesta pero no acertar con ella es
enloquecedor. Ensayé todo tipo de sistemas oscilantes mecano-cuánticos,
intentando encajarlos con la fórmula de Veneziano. Pude generar fórmulas que se
parecían mucho a la de Veneziano a partir del modelo sencillo de masas y
muelles, pero no eran completamente correctas. Durante ese período pasé largas
horas aislado, trabajando en el ático de mi casa. Apenas salía y, cuando lo
hacía, estaba irritable. Discutía con mi mujer e ignoraba a mis hijos. No podía
sacar la fórmula de mi cabeza, ni siquiera para comer. Pero entonces, sin
ninguna buena razón, una tarde en el ático tuve repentinamente un «momento
eureka». No sé qué es lo que provocó la idea. Un minuto yo veía un muelle y, al
siguiente, podía visualizar un muelle elástico, extendido entre dos quarks y
vibrando en muchas pautas de oscilación diferentes. Supe al momento que
reemplazar el muelle matemático por el material continuo de una cuerda vibrante
sería la solución. En realidad, la palabra cuerda no es lo que
destellaba en mi mente. Para mí se trataba de una banda elástica:
una banda elástica cortada de modo que se convertía en una cuerda elástica con
dos extremos. En cada extremo yo imaginaba un quark, o más exactamente, un
quark en un extremo y un antiquark en el otro.
Rápidamente hice algunos cálculos en mi cuaderno para poner a prueba la
idea, pero ya sabía que funcionaría. Su simplicidad era sorprendente. La
fórmula de la matriz S de Veneziano describía exactamente dos «bandas
elásticas» que colisionan. No sabía por qué no había pensado antes en ello.
Nada es comparable a la excitación de un nuevo descubrimiento. No sucede
a menudo, ni siquiera con los más grandes físicos. Uno se dice: «Aquí estoy, la
única persona en el planeta que sabe esto. Pronto lo sabrá el resto del mundo,
pero por el momento yo soy el único». Yo era joven y desconocido pero con
ambición de gloria.
Pero no era el único. Aproximadamente al mismo tiempo, un
físico en Chicago estaba haciendo los mismos cálculos. Yoichiro Nambu era
bastante mayor que yo y hacía tiempo que era uno de los físicos teóricos más
eminentes del mundo. Nacido en Japón, llegó a la Universidad de Chicago como un
joven físico después de la segunda guerra mundial: Nambu era una estrella que
tenía reputación de ver las cosas mucho antes que cualquier otro. Más tarde
descubrí que otro físico más en Dinamarca, Holger Bech Nielsen, estaba pensando
en ideas muy similares. No quiero negar que me supo mal descubrir que no estaba
solo en pensar en la «teoría de la banda elástica», pero estar en la compañía
del gran Nambu tenía sus propias satisfacciones.
La moderna teoría de cuerdas de hoy trata de la escurridiza unificación
de la mecánica cuántica y la gravedad, a la que los físicos han dedicado su
cerebro colectivo durante gran parte del siglo XX. Eso significa que es una
teoría de lo que parece el mundo en la escala fabulosamente minúscula de la
longitud de Planck, 10−33 centímetros. Como he explicado,
empezó de forma mucho más modesta como una teoría de hadrones. En el próximo
capítulo veremos cómo se metamorfoseó en una teoría fundamental mucho más profunda,
pero sigamos con su primitiva encarnación.
Los hadrones son objetos pequeños, típicamente unas cien mil veces más
pequeños que un átomo. Esto les da un diámetro de unos 10−13 centímetros.
Se necesita una fuerza enorme para ligar los quarks con una separación tan
pequeña. Las cuerdas hadrónicas, las bandas elásticas en mi imaginación, aunque
microscópicamente pequeñas, son prodigiosamente fuertes. Si se pudiera
encontrar una manera de unir un extremo de un mesón (un tipo de hadrón) a un
automóvil y el otro a una grúa, se podría levantar el automóvil con facilidad.
Las cuerdas hadrónicas no son particularmente pequeñas en la escala de los
experimentos actuales. Los aceleradores modernos están sondeando la naturaleza
a escalas cien o mil veces menores. Sólo para comparar, déjeme adelantarme en
la historia y contarle cuál es la intensidad de la cuerda en la reencarnación
moderna. Para mantener las partículas unidas en la escala de Planck, una cuerda
tendría que ser unas 1040 veces más fuerte que las cuerdas
hadrónicas: una de ellas podría soportar un peso igual a toda la masa de
nuestra galaxia si pudiéramos concentrar de algún modo la galaxia en la
superficie de la Tierra.
Todos los hadrones pertenecen a una de tres familias: bariones, mesones
y gluebolas. Los nucleones, los protones y neutrones ordinarios de la física
nuclear, son los hadrones más familiares. Pertenecen a la primera familia,
llamada bariones [69]. Todos
los bariones están compuestos de tres quarks. Los quarks están interconectados
por medio de tres cuerdas a la manera de unas boleadoras de gaucho: tres
cuerdas unidas en el centro, con tres quarks en sus extremos. Lo único erróneo
en la imagen de la boleadora es que las cuerdas hadrónicas son elásticas, muy
similares a pulpos extensibles. El protón y el neutrón ordinarios son las
configuraciones de más baja energía de la boleadora, con los quaks en reposo en
los extremos de cuerdas muy cortas no estiradas. Los quarks en los extremos de
las cuerdas pueden ponerse en movimiento de varias maneras. La boleadora puede
girar alrededor de su centro, la fuerza centrífuga estira las cuerdas y aleja
los quarks del centro. Este movimiento rotatorio requiere energía
(recordemos E = mc2) y eso hace más
pesados a los hadrones giratorios. Como se señaló antes, en la jerga se dice
que una partícula con energía extra está excitada. Los quarks también pueden
excitarse sin rotación. Una forma es mediante movimientos oscilantes,
acercándose y alejándose del centro. Además, las propias cuerdas pueden
combarse en pautas curvas y vibrantes casi como si fueran punteadas con una púa
de guitarra. Todos estos movimientos, o al menos pruebas indirectas de los
mismos, se ven rutinariamente en experimentos reales con nucleones. Los
bariones se comportan realmente como boleadoras cuánticas elásticas.
¿Qué significa que sean bolas cuánticas? La mecánica cuántica implica
que la energía (masa) de cualquier sistema vibrante solo puede añadirse en
pasos discretos e indivisibles. En los inicios de la física de hadrones
experimental, los físicos no se daban cuenta de que los diferentes estados
cuánticos discretos del sistema vibrante eran realmente el mismo objeto. Daban
a cada nivel de energía un nombre diferente y los consideraban partículas
diferentes. El protón y el neutrón eran los bariones con la mínima energía. Los
más masivos tenían nombres extraños que hoy no significarán absolutamente nada
para la mayoría de los físicos jóvenes. Estas partículas no son otra cosa que
estados excitados, rotacionales o vibracionales, del protón y el neutrón. Por
supuesto, cuando esto se entendió trajo mucho orden y unidad a lo que había
sido un zoo de partículas muy desordenado.
A continuación vienen los mesones, las partículas que yo estudiaba en mi
ático en 1969. Son más simples que los bariones. Cada mesón está formado por
una única cuerda con un quark en un extremo y un antiquark en el otro. Los
mesones, como los bariones, pueden rotar y vibrar en pasos cuánticos discretos.
El cálculo que yo hice en el ático representaba un proceso fundamental de
interacción entre dos cuerdas mesónicas.
Cuando dos mesones colisionan pueden hacer varias cosas. Puesto que la
mecánica cuántica es una teoría de probabilidades, es imposible predecir con
certeza cómo se desarrollará la historia de la colisión. Una posibilidad, de
hecho la más probable, es que los dos mesones pasen uno al lado del otro,
incluso si eso significa que las cuerdas se crucen. Pero una segunda
posibilidad más interesante es que pueden fusionarse para formar una sola
cuerda más larga.
Imaginemos que cada cuerda es un grupo de bailarines cogidos de la mano
para formar una línea. Los bailarines en cada extremo tienen una mano libre (un
quark o un antiquark) y todos los demás tienen las dos manos ocupadas.
Imaginemos dos líneas que se dirigen una hacia otra. La única manera en que se
les permite interaccionar es que un bailarín en el extremo de una línea agarre
una mano libre del otro grupo. Una vez que se han unido forman una sola cadena.
En esta composición, se mueven una alrededor de la otra en una danza complicada
hasta que en algún lugar de la cadena un bailarín suelta la mano de su vecino.
Entonces la cadena se divide en dos cadenas independientes, y salen sueltas,
alejándose en una nueva dirección. Dicho de forma más precisa pero menos
pintoresca, el quark del extremo de una cuerda se junta con el antiquark de la
otra cuerda. Colisionan y se aniquilan, como siempre que se juntan una
partícula y una antipartícula. Lo que dejan es una única cuerda más larga con
un único quark y un único antiquark.
La única cuerda resultante queda normalmente en un estado excitado
vibracional y rotacional. Pero tras un corto tiempo, como la cadena de
bailarines, la cuerda puede romperse en dos invirtiendo el proceso que unió las
cuerdas originales. El resultado neto es una operación en la que se une un par
de cuerdas y forman una cuerda compuesta que luego se vuelve a dividir en dos
cuerdas.
El problema que yo había resuelto en el ático era éste: supongamos que
dos mesones (cuerdas) se estuvieran moviendo originalmente con una energía dada
en direcciones opuestas antes de colisionar. ¿Cuál es la probabilidad
mecanocuántica de que, después de colisionar, el par de cuerdas resultante se
esté moviendo a lo largo de una nueva dirección especificada? Suena como un
problema terriblemente complicado y que pudiera resolverse tuvo algo de milagro
matemático.
El problema matemático de describir una cuerda elástica ideal ya había
sido resuelto a principios del siglo XIX. Una cuerda vibrante puede verse como
una colección de osciladores armónicos, uno por cada tipo independiente de
movimiento oscilante. El oscilador armónico es uno de los pocos sistemas
físicos que pueden analizarse completamente con simples matemáticas de
instituto de enseñanza media.
Añadir la mecánica cuántica para hacer de la cuerda un objeto cuántico
también era sencillo. Todo lo que se necesitaba era recordar que los niveles de
energía de cualquier sistema oscilante se dan en unidades discretas de energía
(véase el capítulo 1). Esta simple observación era suficiente para entender las
propiedades de una sola cuerda vibrante, pero describir dos cuerdas
interactuantes era mucho más complicado. Para ello tuve que elaborar mis
propias reglas desde cero. Lo que lo hacía posible era que la complejidad sólo
dura un instante de tiempo infinitesimal cuando los extremos se tocan y se
unen. Una vez que eso sucede las dos cuerdas se convierten en una cuerda, y
entonces domina la matemática de una sola cuerda. Un poco después, la cuerda
única se divide pero, una vez más, el complicado suceso solo dura un instante.
Así pues, pude seguir con gran precisión las dos cuerdas mientras se unían y
separaban. Los resultados del cálculo matemático podían compararse con la
fórmula de Veneziano y, para mi gran satisfacción, coincidían exactamente.
Los bariones son tres cuerdas unidas en el centro y los mesones son una
única cuerda con dos extremos, pero ¿qué son las gluebolas? Cuando los
bailarines se mueven en pasos complicados existe la posibilidad de que en
ocasiones los dos bailarines en los extremos choquen uno con otro. Sin darse
cuenta de que pertenecen a la misma cadena, se cogen las manos. El resultado es
un círculo centrado de bailarines sin extremos libres. Lo mismo puede suceder
con un mesón vibrante. En el curso de su movimiento, vibrando y rotando, los
dos extremos se acercan. El quark en un extremo ve al antiquark en el otro y no
se preocupa de que esté unido a la misma cuerda. Agarra el extremo como una
serpiente que confunde su cola con una sabrosa comida. El resultado es una
gluebola: un lazo de cuerda cerrado sin extremos y sin quarks. Se sabía que
existían muchos mesones y bariones mucho antes de que llegara la teoría de
cuerdas, pero las gluebolas son una predicción de la teoría de cuerdas. Hoy, si
se examina una lista de las partículas conocidas, las gluebolas y sus masas
figuran en ella junto con bariones y mesones.
Mesones, bariones y gluebolas son objetos complejos que pueden vibrar y
oscilar en todo tipo de pautas. Por ejemplo, la cuerda que conecta los extremos
de un mesón puede vibrar como un muelle o incluso una cuerda de violín: incluso
puede girar alrededor de un eje y la fuerza centrífuga la
estira para formar un hadrón en torbellino, similar a una hélice. Estos
«estados excitados» de hadrones son también objetos bien conocidos, algunos de
los cuales se descubrieron en experimentos ya en los años sesenta del siglo
pasado.
La relación entre la teoría de cuerdas de hadrones y las leyes de la
física, particularmente su expresión en términos de diagramas de Feynman, está
lejos de ser obvia. Una manera de considerarlo es que la teoría de cuerdas es
una generalización de diagramas de Feynman en los que una cuerda reemplaza a
cada partícula puntual. Los diagramas de Feynman están compuestos de unidades
básicas que discutimos en el capítulo 1: propagadores y vértices. Propagadores
y vértices tienen mucho sentido para las partículas puntuales infinitamente
pequeñas del campo cuántico. Por ejemplo, el propio vértice es el punto en el
que se juntan las trayectorias de las partículas. Si las propias partículas no
son puntos, no está en absoluto claro qué se entiende por el punto en que se juntan.
He aquí cómo las ideas de propagador y vértice tienen sentido para cuerdas. Si
partimos de una partícula puntual y la imaginamos moviéndose en el
espacio-tiempo, traza una curva. En cada instante es un punto, pero conforme
transcurre el tiempo, el punto traza una cuerda. El gran Minkowski llamó a
dicha trayectoria a través del espacio–tiempo una línea de universo,
y la terminología caló.
Tratemos ahora de imaginar la historia de una cuerda. Tómenos el caso de
una cuerda cerrada sin extremos. En un instante de tiempo la cuerda es sólo una
curva cerrada (lazo) en el espacio. Imaginemos un estroboscopio que ilumina la
cuerda. En el primer instante vemos un lazo. Al instante siguiente vemos el
mismo lazo, pero ahora puede haberse movido a una posición ligeramente
diferente en el espacio. Esta pauta se repite de modo que a medida que
transcurre el tiempo vemos una serie de lazos en el espacio− tiempo, cada uno
apilado sobre el anterior.
Pero el tiempo evoluciona en realidad de forma continua, no en destellos
fugaces como una discoteca iluminada estereoscópicamente. Para representar la
historia de la cuerda necesitamos llenar los espacios entre destellos. El
resultado es un tubo a través del espacio: un cilindro bidimensional.
El tamaño del lazo de cuerda podría cambiar de un instante al siguiente.
Después de todo, las cuerdas se parecen a bandas elásticas que se pueden
estirar. Incluso pueden retorcerse formando ochos o formas más complejas. En
ese caso, el cilindro completo estará deformado pero seguirá siendo
reconocible.
Las superficies barridas de esta manera podrían llamarse muy bien tubos
de universo, en analogía con la línea de universo de la partícula puntual. El
caso es que no fue el término que yo utilicé originalmente para describirlas.
En su lugar, yo utilicé el término hoja de universo y, de
nuevo, la terminología caló. Pero como quiera que se les llame, la hoja de
universo tipo cilindro de una cuerda reemplaza al propagador de la partícula
puntual.
Un mesón con sus quarks en los extremos también puede describirse
mediante una hoja de universo: no un cilindro, sino una cinta con dos extremos.
Empezamos de nuevo con la historia estroboscópica. Esta vez vemos una secuencia
de cuerdas abiertas, cada una de ellas con un quark y un antiquark en sus
extremos. Llenar los espacios da una hoja de universo de tipo cinta.
Pero una teoría interesante que pueda describir toda la complejidad de
partículas que interaccionan y colisionan necesita más que sólo propagadores.
También necesita diagramas de vértice, bifurcaciones en la carretera que
permiten que las partículas emitan y absorban otras partículas. La teoría de
cuerdas no es diferente.
En el caso de una cuerda abierta el vértice se reemplaza por el proceso
de separación en el que una única cuerda se divide en dos con un nuevo par
quark-antiquark creado en los extremos recién formados. Las cuerdas cerradas
también pueden dividirse mediante una especie de diagrama de fontanería, donde
se divide una única tubería: se le llama una unión-Y.
Si seguimos la acción de abajo a arriba (de pasado a futuro), veremos
una única cuerda cerrada que se divide y se convierte en dos cuerdas separadas,
cada una de las cuales sigue su propia dirección. También podemos poner el
diagrama al revés y ver que dos cuerdas se juntan y se funden para formar una
única cuerda.
La idea es que las redes de tuberías, construidas a partir de
propagadores de cuerdas y uniones-Y, reemplazan a los diagramas de Feynman
habituales. Muy pronto se entendió que la división de un diagrama en
propagadores cilíndricos y uniones-Y era artificial y que la teoría trataba
realmente con hojas de universo de cualquier forma y topología. Los diagramas
tenían aberturas que representan las gluebolas tipo cuerda entrantes y
salientes, pero por lo demás pueden ser de cualquier complejidad.
Esta manera de considerar los hadrones es difícil de relacionar con el
modelo estándar, una teoría basada en diagramas de Feynman convencionales (es
decir, partículas puntuales). El modelo estándar moderno tiene lo que a primera
vista parece ser una teoría de hadrones completamente diferente, la teoría
conocida como cromodinámica cuántica, o QCD.
Según la QCD, los hadrones están hechos de quarks y antiquarks. Eso
tiene en común la QCD con la teoría de cuerdas que Nambu y yo descubrimos. Pero
la fuerza de ligadura —el pegamento— que mantiene los quarks unidos no tiene
nada que ver con cuerdas. De la misma manera que un electrón puede emitir un
fotón, los quarks pueden emitir (y absorber) gluones. Estos gluones, que son
intercambiados entre quarks, explican las fuerzas que ligan los quarks en los
hadrones.
Los gluones tienen una característica que les hace más complicados que
los fotones. Las partículas cargadas pueden emitir y absorber fotones, pero los
propios fotones no tienen la capacidad de emitir fotones. Otra manera de
decirlo es que no hay vértices en los que un único fotón se divide en dos
fotones. Los gluones sí tienen esta capacidad. Hay un diagrama de vértice en el
que tres gluones se juntan en el vértice. Esto es lo que hace en definitiva que
los gluones y los quarks sean mucho más pegajosos que los electrones y los
positrones.
Suena como si hubiera dos teorías diferentes de hadrones: la QCD y la
teoría de cuerdas. Pero ya casi desde los comienzos de la teoría de cuerdas se
entendió que estos dos tipos de teorías podrían ser realmente dos caras de la
misma teoría. De hecho, la idea clave precedió en un par de años al
descubrimiento de la QCD.
El puente entre los diagramas de Feynman ordinarios y la teoría de
cuerdas se hizo claro cuando en 1970 recibí una carta de Dinamarca. Holger Bech
Nielsen estaba entusiasmado con mi artículo sobre la teoría de la banda
elástica y quería compartir algunas de sus ideas conmigo. Explicaba en su carta
que también él había estado pensando en algo muy similar a las cuerdas
elásticas, pero desde un ángulo diferente.
Aproximadamente en esa época, Dick Feynman estaba argumentando que mucho
de lo que se sabía sobre hadrones indicaba que estaban hechos de algún tipo de
objetos más pequeños y más fundamentales. No era muy concreto acerca de qué
eran estos objetos. Simplemente les llamaba partones para
indicar que eran las partes que constituían los hadrones. La idea de combinar
la teoría de cuerdas con las ideas de los partones de Feynman era algo en lo
que yo había estado pensando durante un tiempo. Nielsen había pensado en
profundidad sobre esto y tenía una visión extraordinariamente interesante.
Sugería que la hoja de universo suave y continua es realmente una red o malla
de líneas y vértices muy apretados. En otras palabras, es un diagrama de
Feynman muy complicado, pero por lo demás normal, compuesto de muchos
propagadores y vértices. La malla se hace cada vez más fina cuanto más
propagadores y vértices se añaden, y cada vez se aproxima más a una hoja suave.
La teoría de cuerdas de los hadrones puede representarse de esta manera. Las
hojas de universo, tubos y uniones-Y son en realidad tan sólo diagramas de
Feynman muy complicados que incluyen quarks y un número muy grande de gluones.
Cuando se mira la hoja de universo a distancia, parece suave. Pero bajo un
microscopio parece una «red de pesca» o una «red de baloncesto» [70]. Las
líneas de la red de pesca representan los propagadores de partículas puntuales,
partones de Feynman o quarks de Gell-Mann y gluones. Pero la «trama» creada por
estas líneas de universo microscópicas forma una hoja de universo suave y casi
continua.
Como ya he dicho antes, podemos representar una cuerda como un grupo de
partones ensartados como un collar de perlas. La teoría de partones de Feynman,
la teoría de quarks de Gell-Mann y la teoría de banda elástica son diferentes
facetas de la QCD.
El modelo de cuerdas o bandas elásticas de los hadrones no tuvo un éxito
inmediato. Muchos físicos teóricos que trabajaban en física de hadrones en los
años sesenta tenían una actitud muy negativa hacia cualquier teoría que
intentara visualizar el fenómeno. Como se ha señalado, los celosos abogados de
la teoría de la matriz S mantenían que la colisión es una caja negra
incognoscible, una visión perversa sostenida con fervor casi mesiánico. Sólo
tenían un mandamiento: «No dejarás la capa de masas». Es decir, no mires dentro
de la colisión para descubrir los mecanismos que tienen lugar. No trates de
entender la composición de las partículas como el protón. La hostilidad hacia
la idea de que la fórmula de Veneziano representaba dispersión de dos bandas
elásticas persistió, en alguna medida, hasta un día en que Gell Mann puso su
sello de aprobación en ella.
Murray era el rey de la física cuando yo le encontré por primera vez en
Coral Gables, Florida, en 1970. En aquella época el punto culminante de la
temporada de conferencias de los físicos teóricos era la conferencia de Coral
Gables. Y el punto culminante de la conferencia era la charla de Murray. El
evento de 1970 era la primera gran conferencia a la que yo había sido invitado
—no a hablar, por supuesto, sino a formar parte de la audiencia—. Murray dio su
charla sobre el tema de la rotura espontánea de simetría de dilatación,
uno de sus trabajos menos fructíferos. Apenas puedo recordar la charla, pero sí
recuerdo muy bien lo que sucedió después. Murray y yo nos quedamos atrapados en
un ascensor.
Yo era entonces un físico totalmente desconocido y los físicos tenían un
enorme respeto por Murray. No hace falta decir que quedarme atrapado con él
desencadenó todas mis inseguridades.
Necesitando entablar conversación, Murray me preguntó qué hacía yo.
Intimidado, respondí: «Estoy trabajando en una teoría de hadrones que los
representa como una especie de cuerda elástica, como una banda elástica». En el
momento inolvidablemente terrible que siguió, él empezó a reírse. No una
pequeña sonrisa, sino una gran carcajada. Me sentí como un gusano. Entonces la
puerta del ascensor se abrió y yo salí sin decir nada y rojo de vergüenza.
No volví a ver a Murray hasta dos años después. Nuestro siguiente
encuentro fue en otra conferencia que tuvo lugar en Fermilab, un gran
acelerador de partículas en Illinois. La conferencia Fermilab fue realmente
grande: participaban aproximadamente mil personas, incluyendo a los más
influyentes físicos teóricos y experimentales de altas energías de todo el
mundo. Una vez más yo era un espectador.
El primer día de la conferencia, antes de la primera charla, yo estaba
hablando con un grupo de amigos y Murray se acercó. Delante de todas estas
personas dijo: «Siento haberme reído de usted aquel día en el ascensor. Creo
que el trabajo que está haciendo es fantástico y voy a dedicar la mayor parte
de mi charla a hablar de ello. Nos sentaremos y hablaremos de ello cuando
tengamos una oportunidad». Dejé de sentirme como un gusano para sentirme como
un príncipe. ¡El rey iba a otorgarme realeza!
Al cabo de un par de días, yo perseguía a Murray preguntando: «¿Es ahora
una buena ocasión, Murray?». Cada vez su respuesta era: «No, tengo que hablar
con alguien importante».
El último día de la conferencia había una gran cola esperando para
hablar con un agente de viajes. Yo necesitaba cambiar mis pasajes de avión y
llevaba esperando casi una hora en la cola. Finalmente sólo tenía dos o tres
personas delante cuando Murray llegó y me cogió diciendo: «Ahora. Hablemos
ahora. Tengo quince minutos». Muy bien, me dije, aquí está. Hazlo bien y serás
un príncipe. Hazlo mal y serás carnaza.
Nos sentamos en una mesa vacía y empecé a explicar qué relación había
entre la nueva teoría de bandas elásticas y sus ideas y las de Feynman. Quería
explicar la idea del diagrama red de pesca. Recuerdo que dije: «Empezaré
explicándolo en términos de partones».
«¿Partones?, ¿partones? ¿Qué demonio es un partón? ¿O es pasten? ¿De qué
me está hablando?». Supe que había cometido un grave error, pero no sabía
exactamente cómo. Traté de explicarlo, pero todo lo que conseguí era: «¿Pastón?
¿Qué es eso?». Catorce de mis quince preciosos minutos se habían esfumado
cuando él dijo: «¿Tienen carga estos pastones?». «Sí», respondí. «¿Tienen
SU(3)?». De nuevo dije que sí. Entonces todo se aclaró. Él dijo, lentamente:
«Oooh, ¡usted quiere decir quarks!». Yo había cometido el imperdonable pecado
de llamar a los constituyentes con el nombre que les daba Feynman en lugar del
que les daba Murray. Parece que yo era la única persona en el mundo que no
conocía la extraña rivalidad entre los dos grandes físicos de Caltech.
En cualquier caso, tuve uno o dos minutos para decir lo que estaba
pensando y luego Murray miró su reloj: «Muy bien, gracias. Ahora tengo que
hablar con alguien importante antes de mi charla».
Tan cerca y pese a todo tan lejos. Ningún tratamiento real para mí: sólo
sucio y embarrado. Y luego, la siguiente cosa que oí fue a Murray hablando
largo y tendido. Estaba contando a un grupo de acompañantes todo lo que yo le
había contado: «Susskind dice esto, y Susskind dice lo otro. Tenemos que
estudiar la teoría de cuerdas de Susskind». Y luego Murray dio su gran charla.
La última de la conferencia, si recuerdo correctamente. Aunque la teoría de
cuerdas fue sólo una pequeña parte de la charla, había recibido la bendición de
Murray. Todo fue como un viaje en una montaña rusa.
Aunque Murray no trabajó en teoría de cuerdas, su mente estaba abierta a
nuevas ideas y desempeñó un papel importante en animar a otros. Sin duda, fue
uno de los primeros en reconocer la importancia potencial de la teoría de
cuerdas como una teoría de hadrones y, más tarde, como una teoría de fenómenos
en la escala de Planck.
La teoría de cuerdas tiene muchas versiones. Las versiones que
conocíamos a principios de los años setenta eran matemáticamente muy precisas,
demasiado precisas. Aunque desde el punto de vista moderno está absolutamente
claro que los hadrones son cuerdas, la teoría tendría que sufrir varias
modificaciones antes de que pudiera describir bariones y mesones reales.
Tres enormes problemas plagaban la teoría de cuerdas original. Uno era
tan extraño que para los físicos conservadores, en particular los entusiastas
de la matriz S, era motivo de risa. Era el problema de demasiadas dimensiones.
La teoría de cuerdas, como todas las teorías físicas, tiene lugar en el espacio
y el tiempo. Antes de Einstein, espacio y tiempo eran dos cosas separadas; pero
bajo la influencia de Minkowski las dos se fundieron en el espacio-tiempo, el
mundo tetradimensional en el que cada suceso tiene una localización en el
espacio y un momento en el tiempo. Einstein y Minkowski convirtieron el tiempo
en la «cuarta dimensión». Pero tiempo y espacio no son completamente similares.
Incluso si la teoría de la relatividad mezcla a veces espacio y tiempo en
varias transformaciones matemáticas, tiempo y espacio son diferentes. Se
«sienten» diferentes. Por esta razón, en lugar de describir el espacio-tiempo
como tetradimensional, decimos que es tres-más-uno dimensional para indicar que
hay tres dimensiones de espacio y una de tiempo. ¿Es posible tener más
dimensiones de espacio? Sí, eso es un lugar común en la física moderna. No es
demasiado difícil imaginar un movimiento en más, o para el caso menos, que tres
dimensiones. El famoso libro del siglo XIX Planilandia de
Edwin Abbott describe la vida en un mundo de sólo dos dimensiones espaciales.
Pero un mundo con más (o menos) de una dimensión temporal es incomprensible. No
parece tener ningún sentido. Por ello, en su mayor parte, cuando los físicos
quieren jugar con el número de dimensiones del espacio-tiempo trabajan con 3 +
1,4 + 1,5 + 1 o cualquier número de dimensiones espaciales, pero con sólo una
dimensión temporal.
Los físicos han confiado siempre en que algún día serán capaces de
explicar por qué el espacio tiene tres dimensiones y no dos o siete u ochenta y
cuatro. Por ello, en teoría, los teóricos de cuerdas deberían haber estado
encantados al descubrir que sus matemáticas trabajan consistentemente solo en
un número particular de dimensiones. El problema estaba en que el número era 9
+ 1 dimensiones, no 3 + 1. Algo muy sutil va mal en las matemáticas a menos que
el número de dimensiones espaciales sea nueve: ¡el triple de dimensiones
espaciales que el mundo en que vivimos realmente! Parecía que la broma estaba
en los teóricos de cuerdas.
Como profesor de física, odio contar a los estudiantes algo importante y
luego decirles que no puedo explicarlo. Que es demasiado avanzado. O es
demasiado técnico. Paso mucho tiempo imaginando la forma de explicar cosas
difíciles en términos elementales. Una de mis mayores frustraciones es que
nunca he conseguido encontrar una explicación elemental de por qué la teoría de
cuerdas es acertada sólo si el número de dimensiones es 9 + 1. Ni lo ha
conseguido nadie. Lo que le diré es que tiene que ver con el violento
movimiento de agitación cuántica de una cuerda. Estas fluctuaciones cuánticas
pueden acumularse y desbocarse por completo a menos que se satisfagan unas
condiciones muy delicadas. Y estas condiciones se satisfacen sólo en 9 + 1
dimensiones.
Excederse en un factor de tres en cosmología no era tan malo en aquellos
días, pero era muy malo en física de partículas. Los físicos de partículas
estaban acostumbrados a una gran exactitud en sus cifras. En ningún número
confiaban más que en el número de dimensiones del espacio. Ninguna
incertidumbre experimental podía explicar la pérdida de seis dimensiones. Era
una catástrofe. El espacio-tiempo, de toda la vida, es 3 + 1 dimensional sin
ninguna incertidumbre.
Estar equivocado en la dimensionalidad del espacio ya era bastante malo
pero, para complicar el problema, la ley de fuerza nuclear entre hadrones salía
equivocada. En lugar de producir el tipo de fuerza de corto alcance que existe
entre partículas en el núcleo, la teoría de cuerdas daba lugar a fuerzas de
largo alcance que, para todo el mundo, eran casi exactamente iguales a fuerzas
eléctricas y gravitatorias. Si la fuerza nuclear de corto alcance se ajustaba a
la intensidad correcta, la fuerza eléctrica sería unas cien veces demasiado
fuerte, y la fuerza gravitatoria sería demasiado fuerte en un factor
espectacular, aproximadamente 1040. Identificar estas fuerzas de
largo alcance con las fuerzas gravitatorias y eléctricas reales era algo
impensable, pero solo si uno quería utilizar las mismas cuerdas para describir
hadrones. Todas las fuerzas en la Naturaleza —sean gravitatorias, eléctricas o
nucleares— tienen el mismo origen. Pensemos en un electrón en órbita en torno a
un núcleo central. De cuando en cuando emite un fotón, pero ¿dónde va el fotón?
Si el átomo está excitado, el fotón puede escapar mientras el electrón salta a
una órbita de menor energía. Pero si el átomo está ya en su estado de más baja
energía, el fotón no puede llevarse ninguna energía. La única alternativa para
el fotón es ser absorbido, o bien por otro electrón o por el núcleo cargado.
Así, en un átomo real, los electrones y núcleos están lanzando continuamente
fotones de un lado a otro en una especie de juego malabar atómico. Este «intercambio»
de partículas, en este caso de fotones, es la fuente de todas las fuerzas de la
Naturaleza. La fuerza —ya sea eléctrica, magnética, gravitatoria o cualquier
otra— se remite en última instancia a «diagramas de intercambio» de Feynman en
que los cuantos saltan de una partícula a otra. En el caso de la fuerza
eléctrica y magnética, los fotones son los cuantos intercambiados; en el caso
de las fuerzas gravitatorias es el gravitón el que hace la tarea. Usted y yo
nos mantenemos anclados a la Tierra por gravitones que saltan entre la Tierra y
nuestros cuerpos. Pero en el caso de las fuerzas que unen protones y neutrones
en los núcleos, los objetos intercambiados son piones. Si profundizamos más en
los protones y neutrones encontramos a los quarks lanzándose gluones entre
ellos. Esta conexión entre fuerza y partículas «mensajeras» intercambiadas era
uno de los grandes temas de la física del siglo XX.
Si los orígenes de las fuerzas nucleares, electromagnéticas y
gravitatorias son tan similares, ¿cómo es que los resultados son tan
diferentes? Las fuerzas electromagnéticas y gravitatorias son de largo alcance,
suficientemente largo para que la gravedad mantenga a los planetas en órbita,
mientras que la fuerza nuclear se hace despreciable cuando las partículas
nucleares están separadas por tan sólo el diámetro de un protón. Si usted está
pensando que la diferencia tiene que ver con alguna propiedad de los mensajeros
—gravitón, fotón, pión, gluón— tiene toda la razón. El factor determinante para
el alcance de una fuerza particular es la masa del mensajero: cuanto más ligero
es el mensajero, mayor es el alcance. La razón de que la gravedad y las fuerzas
eléctricas sean de largo alcance es que el gravitón y el fotón carecen de masa.
Pero el pión no carece de masa, pues es casi trescientas veces más pesado que
el electrón. El resultado de tanta masa transportada por el mensajero es que,
como un atleta con sobrepeso, no puede saltar más que una pequeña distancia
para salvar el espacio entre partículas distantes.
La teoría de cuerdas es también una teoría de fuerzas. Volvamos a la
danza de las cuerdas. Como antes, dos líneas de bailarines se acercan. Esta
vez, en lugar de unirse temporalmente para formar una única cuerda, bailan una
danza diferente. Antes de encontrarse, una de las cuerdas desprende algunos de
sus miembros para formar una tercera cuerda corta. Luego la tercera cuerda da
con el otro grupo y se une a él. En conjunto, los dos grupos iniciales de
bailarines intercambian una cuerda corta y, al hacerlo, se produce una fuerza
entre los dos grupos.
A distancia, la hoja de universo que describe esta extraña danza se
parecería a la letra H, pero bajo el microscopio las líneas que forman se
revelarían como una red de tuberías. La barra horizontal de la H es la hoja de
universo de una cuerda intercambiada que salta a través del espacio entre las
patas verticales y crea una fuerza entre ellas. En el arranque de la teoría de
cuerdas, quienes confiábamos en explicar todo sobre los hadrones estábamos
encantados con la posibilidad de explicar la fuerza nuclear que une protones y
neutrones para formar núcleos.
Por desgracia nuestras esperanzas pronto saltaron en pedazos. Cuando se
hicieron los cálculos, la ley de fuerzas entre partículas no se parecía en nada
a las fuerzas reales que mantienen unidos a los núcleos. En lugar de la fuerza
de corto alcance de la física nuclear, encontramos fuerzas de largo alcance que
se parecen mucho más a las fuerzas eléctrica y gravitatoria, como mencioné
antes. La razón no fue difícil de encontrar. Entre las cuerdas vibrantes tipo
partícula había dos objetos particulares con una propiedad muy especial: uno
era una cuerda abierta del tipo que describe a los mesones, y el otro, una
gluebola cerrada. Ambos tenían la característica excepcional de no tener masa
en absoluto, ¡igual que el fotón y el gravitón! Cuando son intercambiados entre
otras partículas, crean fuerzas casi exactamente iguales a la fuerza eléctrica
entre partículas cargadas y las fuerzas gravitatorias entre masas. La cuerda
abierta imitaba al fotón, pero para mí la mayor sorpresa era la similitud entre
la gluebola cerrada y el misterioso y evasivo gravitón. Esto habría sido una
fuente de alegría incontenible si estuviéramos tratando de crear una nueva
teoría de la gravedad y la electricidad, pero ése no era nuestro objetivo ni
mucho menos. Estábamos tratando de describir fuerzas nucleares y habíamos
fracasado indiscutiblemente. Se había llegado a un punto muerto.
La teoría de cuerdas tenía otra dificultad. Era o una «teoría de todo» o
«una teoría de nada». El objetivo original de la teoría de cuerdas era
describir hadrones, nada más. El electrón, el fotón y el gravitón iban a seguir
siendo partículas puntuales. Experimentos realizados durante años nos habían
enseñado que electrones y fotones, si tenían siquiera un tamaño, eran muchísimo
menores que los hadrones. También podrían ser meros puntos, hasta donde se
podía decir. Por el contrario, los hadrones obviamente no son puntos. Un punto
no puede ser girado en torno a un eje. Cuando pienso en girar un objeto, pienso
en un cocinero que hace pizzas haciendo girar una masa o en un
jugador de baloncesto girando el balón sobre la punta de su dedo. Pero no se
puede girar un punto infinitamente pequeño. Los hadrones pueden ser girados
fácilmente: los hadrones giratorios excitados se encontraron regularmente en
muchos aceleradores. Los hadrones deben parecerse más a un trozo de masa que a
un punto matemático. Pero nadie ha girado nunca un fotón y un electrón [71].
Los hadrones reales pueden interaccionar y lo hacen con partículas
puntuales. Un protón puede absorber y emitir un fotón de la misma forma que lo
hace un electrón. Pero cuando tratábamos de desarrollar la teoría de modo que
los hadrones tipo cuerdas pudieran interaccionar con fotones, se armó un gran
revuelo. Una contradicción matemática tras otra obstruían nuestros intentos.
A muchos se les ocurrió la idea obvia. Ciertamente las cuerdas vibrantes
no eran puntos, pero siempre habíamos supuesto que los extremos de la cuerda
eran quarks puntuales. ¿Por qué no permitir que toda la carga eléctrica
residiera en los quarks? Después de todo, hacer que una carga puntual
interaccione con un fotón puntual era un trabajo de niños. Pero como sabemos,
los mejores planes salen mal a veces. Las matemáticas no los mantendrían
unidos.
El problema era que las cuerdas de la teoría de cuerdas son un caso
excepcionalmente violento de las agitaciones cuánticas. Las fluctuaciones
cuánticas de muy alta frecuencia son tan salvajes e incontroladas que es muy
probable que los quarks extremos se encuentren en los mismos límites
del universo. Suena absurdo, pero los trozos de cuerda tiemblan y se agitan
tan violentamente que si echáramos una ojeada fugaz descubriríamos que ¡están
infinitamente alejados!
Déjeme tratar de explicar este extraordinario comportamiento
contraintuitivo de las cuerdas. La forma más fácil consiste en imaginar una
cuerda de guitarra. La cuerda de guitarra es algo diferente de las cuerdas con
las que tenemos que trabajar en teoría de cuerdas. Por una parte, sus extremos
están sujetos por el resto de la guitarra. Pero ésta no es ahora una
consideración importante. Lo importante es que ambos tipos de cuerdas pueden
vibrar en una amplia variedad de pautas. La cuerda de guitarra puede vibrar
como un todo, adoptando una forma similar a un arco que oscila como una larga
cuerda. En dicha configuración, la cuerda suena en su nota fundamental.
Pero como sabe cualquiera que toca la guitarra, una cuerda puede hacerse
vibrar en armónicos o modos de oscilación de
un tono superior. Éstos son vibraciones en las que la cuerda vibra por partes,
como si hubiera múltiples cuerdas más cortas. Por ejemplo, en el primer
armónico las dos mitades de la cuerda se mueven por separado.
En principio, una cuerda ideal infinitamente fina podría oscilar en un
número infinito de armónicos con frecuencias cada vez más altas, aunque en la
práctica la fricción y otras influencias contaminantes amortiguan estas
vibraciones casi antes de empezar.
Recordemos ahora la lección de mecánica cuántica del capítulo 1. Cada
oscilación tiene un poco de movimiento de agitación de punto cero que es
inevitable. Esto tiene una consecuencia muy espectacular para una cuerda
perfectamente ideal: todas las vibraciones posibles, todos los infinitos modos
de oscilación, vibran simultáneamente en una loca sinfonía de puro ruido. Todas
las diversas oscilaciones acumulan su influencia en la localización de trozos
de la cuerda y la harían vibrar hasta distancia infinita.
¿Por qué no sucede esta oscilación desbocada en una cuerda de guitarra
real? La razón es que una cuerda corriente está hecha de átomos espaciados a lo
largo de la cuerda. No hay significado en vibraciones en las que la cuerda
vibra en más piezas que el número de átomos que contiene. Pero una cuerda
matemática ideal, no hecha de átomos sino continua a lo largo de su longitud,
vibraría de esta manera incontrolada.
Quizá el milagro matemático más sorprendente de la teoría de cuerdas es
que si todo se monta de la forma correcta, incluyendo el hecho de que el número
de dimensiones espacio-temporales es diez, las vibraciones salvajes de cuerdas
diferentes encajan exactamente unas con otras y no causan daños. Sus cuerdas y
mis cuerdas podrían oscilar salvajemente hasta los extremos del universo pero,
si el mundo es decadimensional, estas oscilaciones son milagrosamente
indetectables.
Pero este milagro de las cuerdas funciona solo si todo lo que hay en el
mundo está hecho de cuerdas. Si el fotón fuera una partícula puntual y el
protón una cuerda, ocurriría un choque terrible. Por esta razón, las únicas
cosas con las que pueden interaccionar las cuerdas son otras cuerdas. Esto es
lo que yo quería decir cuando dije que la teoría de cuerdas es o una teoría de
todo o una teoría de nada.
Cuerdas que se agitan violentamente, fluctuando hasta los límites del
universo, parecían una perspectiva tan deprimente que durante más de una década
dejé de pensar en las matemáticas inflexibles de la teoría de cuerdas. Pero al
final, este comportamiento enloquecido se convirtió en la base de uno de los
desarrollos más extraños y excitantes de la física teórica moderna. En el
capítulo 10 encontraremos el principio holográfico, que afirma que el mundo es
una especie de holograma cuántico en las fronteras del espacio. En parte fue
inspirado por las agitaciones extremas de las cuerdas. Pero el principio
holográfico es una característica de la mecánica cuántica de la gravedad, no de
la física nuclear.
Algunas teorías son tan matemáticamente precisas que son inflexibles.
Eso es bueno si la teoría es acertada, pero si no funciona, la in-flexibilidad
puede convertirse en un incordio. Las cuerdas de la teoría de cuerdas que
existía en los años setenta, ochenta y la mayor parte de los noventa no podían
interaccionar con objetos que no fueran cuerdas. Si el propósito era describir
hadrones, la teoría no era prometedora: implicaba demasiadas dimensiones,
gravitones y fotones sin masa, y la imposibilidad de interaccionar con objetos
más pequeños. La teoría de cuerdas estaba en dificultades, al menos en su
versión como una teoría de hadrones. De todas formas, no se podía negar que los
hadrones se comportaban como cuerdas extensibles con quarks en los extremos. En
los treinta y cinco años transcurridos desde la formulación de la teoría de
cuerdas, la naturaleza de cuerda de los hadrones se ha convertido en un hecho
experimental bien establecido. Pero mientras tanto, la teoría de cuerdas
encontró otra vida por sí misma. Cómo renació la teoría de cuerdas como una
teoría fundamental que unifica mecánica cuántica y gravedad es el tema del
próximo capítulo.
Capítulo 8
Reencarnación
Contenido:
§. Compactificación
§. ¿El elegante universo supersimétrico?
§. La mágica misteriosa y asoMbrosa teoría-M
Aunque la teoría de cuerdas de hadrones había fracasado en su forma
matemática más precisa, algunos espíritus valientes vieron una oportunidad en
los restos del naufragio. «Si la montaña no viene a Mahoma, Mahoma irá a la
montaña». Si no se puede hacer una teoría de cuerdas de hadrones porque la
teoría insiste en comportarse como la gravedad, entonces hagamos que la
gravedad sea descrita por la teoría de cuerdas. ¿Por qué no utilizarla para
describir todo: gravedad, fuerzas electromagnéticas, quarks y todo lo demás?
Los problemas dos y tres del capítulo anterior han desaparecido; el alcance
predicho de las fuerzas encaja ahora con la realidad y todo está hecho de
cuerdas. La inflexibilidad de la teoría se convierte en una ventaja. Una visión
radicalmente nueva del mundo, hecho de hilos de energía unidimensionales que
fluctúan salvajemente hasta los límites del universo, iba a reemplazar una
visión más vieja de la materia hecha de partículas puntuales.
Para darle una idea de lo que significaba esta transformación de la
teoría de cuerdas, hablemos de las escalas de tamaño. Los hadrones tienen un
tamaño en algún lugar entre 10−13 y 10−14 centímetros.
Hay cierta variación, pero los mesones, bariones y gluebolas están en este
rango. Aunque 10−13 puede parecer terriblemente pequeño, cien
mil veces más pequeño que un átomo, para los patrones de la física de
partículas moderna es muy grande. Los aceleradores han sondeado objetos mil
veces más pequeños y están empezando a descender hasta objetos diez mil veces
menores.
El tamaño natural de un gravitón es muchísimo más pequeño. Después de
todo, los gravitones son el resultado de mezclar la gravedad con la naturaleza
cuántica de la materia. Y siempre que uno trabaja en el nivel cuántico, siempre
descubrirá exactamente lo que Planck descubrió en 1900: la unidad natural de
longitud es la minúscula longitud de Planck: 10−33 cm. Los
físicos esperan que ése sea más o menos el tamaño de un gravitón.
¿Cuánto más pequeño es un gravitón que un protón? Si el gravitón se
expandiera hasta que fuera tan grande como la Tierra, ¡el protón se haría cien
veces mayor que todo el universo conocido! Al utilizar exactamente la misma
teoría de cuerdas que había fracasado como una teoría de hadrones, teóricos de
cuerdas como John Schwarz y Joel Sherk estaban proponiendo un salto sobre este
enorme rango de escalas. Como el salto de MacArthur a través del Pacífico, era
una jugada muy atrevida y heroica o una verdadera tontería.
Si el alcance de las fuerzas ya no era un problema, la dimensionalidad
del espacio lo era; la consistencia matemática seguía requiriendo nueve
dimensiones de espacio y una más para el tiempo. Pero en el nuevo contexto,
esto resultaba ser una bendición. La lista de partículas elementales del modelo
estándar —las partículas que se suponía que son puntos— es larga. Incluye 36
tipos distintos de quarks, ocho gluones, electrones, muones, leptones tau [72] y
sus antipartículas, dos tipos de bosones W, un bosón Z, la partícula de Higgs,
fotones y tres neutrinos. Cada tipo de partícula es diferente de todos los
demás. Cada uno tiene sus propias propiedades particulares. Se podría decir que
tienen sus propias personalidades. Pero si las partículas son meros puntos,
¿cómo pueden tener personalidades? ¿Cómo podemos explicar todas sus
propiedades, sus números cuánticos, tales como espín, isospín, extrañeza,
encanto, número bariónico, número leptónico y color? Las partículas tienen
evidentemente mucha maquinaria interna que no puede verse a distancia. Su
apariencia puntual y carente de estructura es, por supuesto, una consecuencia
transitoria del limitado poder de resolución de nuestros mejores microscopios,
es decir, aceleradores de partículas. En realidad, el poder de resolución de un
acelerador sólo puede ser mejorado aumentando la energía de las partículas
aceleradas y la única manera de hacerlo es aumentar el tamaño del acelerador.
Si, como creen la mayoría de los físicos, la maquinaria interna de las
partículas elementales se revelara sólo en la escala de Planck, ¡sería
necesario construir un acelerador tan grande al menos como toda nuestra
galaxia! Así que seguimos pensando en las partículas como puntos, pese al hecho
de que obviamente tienen muchas propiedades.
Pero la teoría de cuerdas no es una teoría de partículas puntuales.
Desde el punto de vista de un teórico, la teoría de cuerdas ofrece muchas
oportunidades para que las partículas tengan propiedades. Entre otras cosas las
cuerdas pueden vibrar en muchas pautas de vibración cuantizadas diferentes.
Cualquiera que haya tocado la guitarra sabe que una cuerda de guitarra puede
vibrar en muchos armónicos. La cuerda puede vibrar como un todo o puede vibrar
en dos piezas con un nodo en el centro. También puede vibrar en tres o
cualquier número de secciones separadas, produciendo así una serie de
armónicos. Lo mismo es cierto en las cuerdas de la teoría de cuerdas. La
diferentes pautas de vibración producen partículas de tipos diferentes, pero
esto en sí mismo no es suficiente para explicar la diferencia entre electrones
y neutrinos, fotones y gluones o quarks-up y quarks-encantados.
Aquí es donde los teóricos de cuerdas hicieron un uso brillante de lo
que previamente había sido su mayor problema. De un lodazal —demasiadas
dimensiones— sacaron petróleo. La clave de la inexplicada diversidad de
partículas elementales —su carga eléctrica, color, extrañeza, isospín y más— es
muy parecida a las seis dimensiones extra que previamente obstaculizaban
nuestros esfuerzos para explicar los hadrones.
A primera vista esto no parece ser una conexión obvia. ¿Cómo es que el
movimiento en seis dimensiones extra explica la carga eléctrica o la diferencia
entre tipos de quarks? La respuesta está en los cambios profundos en la
naturaleza del espacio que explicó Einstein con su teoría de la relatividad
general: la posibilidad de que el espacio, o alguna parte del espacio pueda
ser compacto.
§. Compactificación
Los ejemplos más fáciles de compactificación son
bidimensionales. Imaginemos una vez más que el espacio es una hoja de papel
plana. El papel podría no tener límites, una hoja infinita que se extiende
indefinidamente en cada dirección. Pero hay otras posibilidades. Cuando
discutíamos los universos de Einstein y de Friedmann era necesario concebir un
espacio bidimensional con la forma de una 2-esfera: un espacio cerrado y
acotado. En cualquier dirección que viajemos, volveremos finalmente al punto de
partida.
Einstein y Friedmann estaban imaginando que el espacio es una esfera
gigantesca, suficientemente grande para moverse en ella durante miles de
millones de años sin encontrar dos veces la misma galaxia o la misma estrella.
Pero imaginemos ahora que esta esfera se contrae cada vez más hasta que es
demasiado pequeña para contener a un ser humano o incluso una molécula, un
átomo o siquiera un protón. Si la 2-esfera se ha contraído hasta proporciones
microscópicas, se hace difícil distinguirla de un punto: un espacio sin
dimensiones en que moverse. Éste es el ejemplo más simple de
dimensiones ocultas por compactificación o contracción.
¿Podemos escoger de alguna manera la forma de un espacio bidimensional
de modo que para la mayoría de los fines se parezca a un espacio
unidimensional? ¿Podemos ocultar efectivamente una de las dos dimensiones de la
hoja de papel? Sí podemos. He aquí cómo hacerlo: empezamos con una imaginaria
hoja de papel infinita. Recortemos una franja infinita de unos pocos
centímetros de anchura. Pongamos que la franja está a lo largo del eje x.
La punta de su lápiz puede moverse indefinidamente a lo largo del eje x,
pero si usted la mueve en la dirección y pronto llegará a uno de los bordes.
Tomemos ahora la franja y doblémosla para hacer un cilindro, de modo que los
bordes superior e inferior se unen en una costura suave. El resultado es un
cilindro infinito que puede describirse como compacto (finito) en la dirección
y pero infinito en la dirección x.
Imaginemos tal espacio, pero en lugar de hacer la dirección y de unos
pocos centímetros de circunferencia, pongamos que es de una micra (una
diezmilésima de centímetro). Si miráramos el cilindro sin un microscopio
parecería un espacio unidimensional, un «pelo» infinitamente fino. Sólo si
miramos a través de un microscopio se revelará que es bidimensional. De esta
manera un espacio bidimensional se disfraza como unidimensional.
Supongamos que reducimos más el tamaño de la dirección compacta hasta la
longitud de Planck. Entonces ningún microscopio existente podría resolver la
segunda dimensión. Para cualquier fin práctico el espacio sería unidimensional.
Este proceso de hacer algunas direcciones finitas y dejar las restantes
infinitas se denomina compactificación.
Hagamos ahora las cosas un poco más difíciles. Tomemos el espacio
tridimensional con tres ejes: x, y, y ahora z.
Dejemos las direcciones x e y infinitas pero
enrollemos el eje z. Es difícil de visualizar, pero el principio es
el mismo. Si uno se mueve en la dirección x o y continuará
indefinidamente, pero si se mueve a lo largo de z volverá al
punto de partida tras recorrer una cierta distancia. Si esa distancia fuera
microscópica sería difícil decir que el espacio no era bidimensional.
Podemos ir un poco más lejos y compactificar la dirección z y
la dirección y. Por el momento ignoremos por completo la
dirección x y concentrémonos en las otras direcciones. Una
cosa que podemos hacer con dos direcciones es enrollarlas en una 2-esfera. En
este caso uno puede moverse para siempre a lo largo de la dirección x,
pero moverse en la dirección y y en la dirección z es
como moverse en la superficie de un globo. Una vez más, si la 2-esfera fuera
microscópica sería difícil decir que el espacio no era unidimensional. Vemos
así que podemos ocultar cualquier número de dimensiones que escojamos
enrollándolas en un pequeño espacio compacto.
La 2-esfera es sólo una manera de compactificar dos dimensiones. Otra
manera muy simple es utilizar un toro. Así como la 2-esfera es la superficie de
una bola, el toro es la superficie de una rosquilla. Se podrían usar muchas
otras formas, pero el toro es la más habitual.
Volvamos al cilindro e imaginemos una partícula que se mueve en él. La
partícula puede moverse arriba y abajo a lo largo del eje x infinito
exactamente como si el espacio fuera sólo unidimensional. Tiene una velocidad a
lo largo de la dirección x. Pero moverse en la dirección x no
es lo único que la partícula puede hacer: también puede moverse a lo largo de
la dirección y compacta, dando vueltas al eje y incesantemente.
Con este nuevo movimiento la partícula tiene velocidad a lo largo de la
dirección microscópica oculta. Puede moverse en la dirección x, en
la dirección y, o incluso con ambos movimientos simultáneamente en
un movimiento helicoidal (de sacacorchos), girando alrededor de y mientras
viaja a lo largo de x. Para el observador que no puede resolver la
dirección y, ese movimiento adicional representa una nueva
propiedad peculiar de la partícula. Una partícula que se mueve con velocidad a
lo largo del eje y es diferente de una partícula que no tiene
tal movimiento, y pese a todo el origen de esta diferencia estaría oculto por
la pequeñez de y. ¿Qué deberíamos hacer de esta nueva propiedad de
la partícula?
La idea de que podría haber una dirección extra inobservada en el
espacio no es nueva. Se remonta a los primeros años del siglo XX,
inmediatamente después de que Einstein completara la teoría de la relatividad
general. Un contemporáneo de Einstein llamado Theodor Franz Eduard Kaluza
empezó a pensar sobre esta precisa cuestión: ¿cómo estaría influida la física
si hubiera una dimensión espacial extra? En esa época las dos fuerzas
importantes de la Naturaleza eran la fuerza electromagnética y la fuerza gravitatoria.
En algunos aspectos eran similares, pero la teoría de la gravedad de Einstein
parecía tener un origen mucho más profundo que la teoría del electromagnetismo
de Maxwell. La gravedad trataba de la geometría misma: las propiedades
elásticas y flexibles del espacio. La teoría de Maxwell parecía una especie de
«añadido» arbitrario que no tenía ninguna razón fundamental en el esquema de
las cosas. La geometría del espacio era adecuada para describir las propiedades
del campo gravitatorio y no más. Si las fuerzas eléctrica y magnética tuvieran
que unificarse de algún modo con la gravedad, las propiedades geométricas
básicas del espacio tendrían que ser más complejas que las imaginadas por
Einstein.
Lo que descubrió Kaluza era sorprendente. Si se añadiera una dirección
adicional del espacio a las 3 + 1 dimensiones habituales, la geometría del
espacio no sólo abarcaría el campo gravitatorio de Einstein sino también el
campo electromagnético de Maxwell. Gravedad, electricidad y magnetismo estarían
unificados bajo una teoría global. La idea de Kaluza era brillante y llamó la
atención de Einstein, a quien le gustó mucho. Según Kaluza, las partículas no
sólo podían moverse en las tres dimensiones habituales sino también en una
cuarta dimensión oculta. Sin embargo, la teoría tenía un obvio y enorme
problema. Si el espacio tiene una dimensión extra, ¿por qué no la advertimos?
¿Cómo está oculta la cuarta dimensión extra del espacio a nuestros sentidos? Ni
Kaluza ni Einstein tenían una respuesta. Pero en 1926 el físico sueco Oscar
Klein tuvo una respuesta. Añadió el nuevo elemento que daba sentido a la idea
de Kaluza: la dimensión extra debe estar enrollada en un minúsculo espacio
compacto. Hoy las teorías con dimensiones compactas extra se conocen como
teorías de Kaluza-Klein.
Kaluza y Klein descubrieron que la fuerza gravitatoria entre dos
partículas se modificaba si ambas partículas se movían en la dirección
adicional. Lo sorprendente era que la fuerza extra era idéntica a la fuerza
eléctrica entre partículas cargadas. Además, la carga eléctrica de cada
partícula no era otra cosa que la componente del momento en la dimensión extra.
Si las dos partículas daban vueltas en la misma dirección alrededor del espacio
compacto, se repelían mutuamente. Si se movían en direcciones opuestas, se
atraían. Pero si una u otra de ellas no daba vueltas en la dirección compacta,
entonces sólo las afectaba la atracción gravitatoria ordinaria. Esto huele a un
principio de explicación de por qué algunas partículas (el electrón, por
ejemplo) son eléctricamente cargadas, mientras que otras partículas similares
(neutrinos) son eléctricamente neutras. Las partículas cargadas se mueven en la
dirección compacta del espacio, mientras que las partículas sin carga no tienen
movimiento en esta dirección. Incluso empieza a explicar la diferencia entre el
electrón y su antipartícula, el positrón. El electrón da vueltas alrededor de
la dirección compacta en un sentido, digamos el de las agujas del reloj,
mientras que el positrón se mueve en el sentido contrario a las agujas.
Otra idea fue aportada por la mecánica cuántica. Como todos los demás
movimientos cíclicos u oscilantes, el movimiento alrededor del eje y compacto
está cuantizado. La partícula no puede dar vueltas alrededor
del eje y con un valor arbitrario del momento y:
su movimiento está cuantizado en unidades discretas igual que el movimiento de
un oscilador armónico o del electrón en la teoría del átomo de Bohr. Esto
significa que el movimiento y, y por consiguiente la carga
eléctrica, no pueden ser cualquier número. La carga eléctrica en la teoría de
Kaluza está cuantizada: se da en múltiplos enteros de la carga del electrón.
Una partícula con una carga doble o triple de la del electrón sería posible,
pero no una con carga 1⁄2 o 0,067 veces la
carga del electrón. Éste es un estado de cosas muy deseable. No se ha
descubierto nunca en el mundo real un objeto que lleve una carga eléctrica
fraccionaria: todas las cargas eléctricas se miden en múltiplos enteros de la
carga del electrón.
Esto fue un descubrimiento espectacular, que básicamente quedó latente
durante el resto de la vida de Kaluza. Pero es el corazón de nuestra historia.
La teoría de Kaluza es un modelo de cómo pueden aparecer propiedades de
partículas a partir de las dimensiones extra del espacio. De hecho, cuando los
teóricos de cuerdas descubrieron que su teoría requería seis dimensiones
espaciales extra, captaron la idea de Kaluza. Simplemente enrollar las seis
direcciones extra de alguna manera y utilizar el movimiento en las nuevas
direcciones para explicar la maquinaria interna de las partículas elementales.
La teoría de cuerdas es más rica en posibilidades que las teorías de
partículas puntuales. Volviendo al cilindro, supongamos que una pequeña cuerda
cerrada se está moviendo en un cilindro. Empecemos con un cilindro de
circunferencia suficientemente grande para ser visible a simple vista. Una
minúscula cuerda cerrada se mueve sobre el cilindro de forma muy parecida a
como lo haría una partícula puntual. Puede moverse a lo largo de la longitud
del cilindro o alrededor del mismo. A este respecto no es diferente de la
partícula puntual. Pero la cuerda puede hacer algo más que el punto no puede
hacer. La cuerda puede enrollarse alrededor del cilindro igual que una banda
elástica real puede enrollarse alrededor de un cilindro de cartulina. La cuerda
enrollada es diferente de la cuerda desenrollada. De hecho, la banda elástica
puede enrollarse cualquier número de veces alrededor de un cilindro de
cartulina, al menos mientras no se rompa. Esto nos da una nueva propiedad de
las partículas: una propiedad que depende no sólo de la compacticidad de una
dimensión, sino también del hecho de que las partículas son cuerdas o bandas
elásticas. La nueva propiedad se denomina número de enrollamiento y representa
el número de veces que la cuerda está enrollada alrededor de la dirección
compacta.
El número de enrollamiento es una propiedad de la partícula que no
podríamos entender si nuestro microscopio no fuera suficientemente potente para
resolver la minúscula distancia alrededor de la dirección compacta. Así que, ya
ve usted, las dimensiones extra que necesita la teoría de cuerdas son una
bendición, no un maleficio: son esenciales para entender las propiedades
complejas de las partículas elementales.
Un cilindro bidimensional es fácil de visualizar, pero un espacio
nonodimensional con seis dimensiones enrolladas en una especie de minúsculo
espacio hexadimensional está más allá de los poderes de visualización de
cualquiera. Pero hacer imágenes en la cabeza o en un papel no es la única
manera de entender la desconcertante geometría hexadimensional de la teoría de
cuerdas. Con frecuencia la geometría puede reducirse a álgebra de la misma
forma que usted aprendió en el instituto cuando utilizaba una ecuación para
representar una línea recta o un círculo. Pero incluso los métodos matemáticos
más potentes apenas son suficientes para escarbar la superficie de la geometría
hexadimensional.
Por ejemplo, el número de formas posibles en que la teoría de cuerdas
permite enrollar seis dimensiones se cuenta por millones. No voy a tratar de
describirlas sino que me limitaré a darle el nombre matemático especial que
reciben estos espacios: se denominan espacios de Calabi Yau por
los dos matemáticos que los estudiaron por primera vez. No sé por qué estaban
interesados los matemáticos en estos espacios, pero resultaron útiles para los
teóricos de cuerdas. Por suerte para nosotros, lo único que tenemos que saber
es que son extraordinariamente complicados, con centenares de «agujeros de
donut» y otras características.
Volvamos al cilindro bidimensional. La distancia alrededor del cilindro
se denomina escala de compactificación. Para un cilindro de
cartulina podría ser de algunos centímetros, pero para la teoría de cuerdas lo
más probable es que fuera de algunas longitudes de Planck. Usted podría pensar
que esta escala es tan pequeña que no tendría que preocuparnos, pero no es así.
Aunque no podamos ver realmente escalas tan pequeñas, de todas formas tienen su
efecto en la física ordinaria. La escala de compactificación en la teoría de
Kaluza fija la magnitud de la carga eléctrica de una partícula como el
electrón. También fija las masas de muchas de las partículas. En otras
palabras, la escala de compactificación determina varias constantes que
aparecen en las leyes de la física ordinarias. Variemos el tamaño del cilindro
y cambian las leyes de la física. Variemos los valores de los campos escalares
como en el capítulo 1 y cambian las leyes de la física. ¿Hay una conexión?
Absolutamente. Y volveremos a ello.
Para especificar el cilindro necesitamos especificar sólo un parámetro,
la escala de compactificación, pero otras formas requieren más. Por ejemplo, un
toro está determinado por tres parámetros. Vea si puede visualizarlos. En
primer lugar, está el tamaño global del toro. Manteniendo la forma fija, el
toro puede ser ampliado o reducido. Además, el toro puede ser «fino» como un
anillo estrecho, o «grueso» como una rosquilla muy gorda. El parámetro que
determina el grosor es una razón la razón entre el tamaño del agujero y el
tamaño total. En el caso del anillo estrecho, el tamaño total y el tamaño del
agujero son casi iguales, de modo que la razón está cercana a uno. En el caso
del anillo grueso, el agujero es mucho más pequeño que el tamaño total y la
razón es correspondientemente pequeña. Hay otra cantidad que es más difícil de
representar. Imaginemos que tomamos un cuchillo y cortamos el anillo, no por la
mitad, sino de modo que pueda abrirse como si fuera un trozo de un cilindro.
Giremos ahora un extremo del cilindro, manteniendo el otro extremo fijo.
Finalmente, reconectemos los extremos del cilindro de modo que se convierta en
un anillo pero con una torsión. El ángulo de torsión es otra variable. Si usted
puede visualizarlo, está bien. No necesita hacerlo.
Los matemáticos llaman moduli (plural de modulus) a estos
parámetros que determinan el tamaño y forma del toro. Un toro tiene tres
moduli. El cilindro, o más exactamente, la sección circular del cilindro, tiene
sólo un modulo. Pero un espacio de Calabi Yau típico tiene centenares. Quizá
usted pueda ver dónde nos lleva esto, pero si no, yo se lo diré. Nos está
llevando a un paisaje, a uno increíblemente complicado.
Una cuestión muy importante es si el tamaño y forma de la componente
compacta del espacio puede variar de un punto a otro. Visualicemos un cilindro
torpemente construido. Supongamos que conforme usted se mueve a lo largo de la
longitud del cilindro, la circunferencia de la sección transversal varía: aquí
el cilindro es estrecho, allí es más ancho.
Tenga en cuenta que incluso si el cilindro es muy fino, demasiado fino
para detectar su dimensión compacta, el tamaño de dicha dimensión determina
varias masas y constantes de acoplamiento. Evidentemente hemos hecho un mundo
donde las leyes de la física pueden variar de un punto a otro. ¿Qué hace con
todo esto un físico ordinario que no puede ver la dimensión pequeña? Dice: «Las
condiciones están variando de un punto a otro. Parece que algún tipo de campo
escalar controla el valor de la masa y la carga eléctrica de las partículas, y
puede variar de un punto a otro». En otras palabras, los moduli forman una
especie de paisaje, un paisaje de cientos de dimensiones.
Un espacio de Calabi Yau es muchísimo más complicado que la sección
circular del cilindro, pero el principio es el mismo: el tamaño y la forma del
espacio compacto pueden variar con la posición igual que si hubiera cientos de
campos escalares controlando las leyes de la física. Ahora empezamos a ver por
qué el paisaje de la teoría de cuerdas es tan complicado.
§.¿El elegante universo supersimétrico?
Los verdaderos principios subyacentes a la teoría de cuerdas están
básicamente envueltos en misterio. Casi todo lo que sabemos de la teoría se
refiere a una porción muy especial del paisaje donde las matemáticas estaban
extraordinariamente simplificadas por una propiedad que se mencionó en el
capítulo 2 llamada supersimetría. Las regiones supersimétricas del paisaje
forman una llanura perfectamente plana a altitud cero exactamente, con
propiedades tan simétricas que pueden deducirse muchas cosas sin tener un
dominio completo del paisaje entero. Si estuviéramos buscando simplicidad y
elegancia, la llanura de la teoría de cuerdas supersimétrica, también conocida
como teoría de supercuerdas, es el lugar donde mirar. De hecho, hasta hace un
par de años era el único lugar donde miraban los teóricos de cuerdas. Pero
algunos físicos teóricos están despertando finalmente y tratando de dejar las
elegantes simplificaciones del supermundo. La razón es simple: el mundo real no
es supersimétrico.
El mundo de la experiencia que incluye el modelo estándar y una pequeña
constante cosmológica no está localizado en esta llanura de altitud cero. Está
en alguna parte en las regiones accidentadas del paisaje con colinas, valles,
altas mesetas y pendientes pronunciadas. Pero hay al menos una razón para
pensar que nuestro valle está próximo a la parte supersimétrica del paisaje y
que puede haber vestigios de supermilagros matemáticos que nos ayudarían a
entender características del mundo empírico. Un ejemplo que encontraremos en
esta sección concierne a la masa del bosón de Higgs. En realidad, todos los
descubrimientos que hicieron posible este libro son fruto de las tímidas
exploraciones iniciales lejos de la seguridad de la llanura supersimétrica.
La supersimetría trata de las diferencias y similitudes entre bosones y
fermiones. Como sucede con tantas otras cosas en física moderna, los principios
se remontan a Einstein. El año 2005 marca el centenario del anno
mirabilis —el «año milagroso»— de la física moderna. Einstein puso en
marcha ese año dos revoluciones y completó una tercera [73]. Fue por
supuesto el año de la teoría de la relatividad especial, pero lo que mucha
gente no sabe es que 1905 fue mucho más que el «año de la relatividad». También
marcó el nacimiento del fotón, el comienzo de la moderna mecánica cuántica.
Einstein recibió sólo un premio Nobel en física, aunque creo que es
justo decir que casi todos los premios dados después de 1905 fueron de una
forma u otra un tributo a sus descubrimientos. El premio fue concedido
finalmente no por la relatividad sino por el efecto fotoeléctrico. Éste, la más
radical de las contribuciones de Einstein, es la idea de que la luz está
compuesta de cuantos de energía discretos. La física estaba lista para la
teoría de la relatividad especial. De hecho ya debía haberse dado este paso.
Pero la teoría fotónica de la luz fue un acontecimiento inesperado. Como se ha
señalado antes, Einstein argumentó que un haz luminoso, normalmente considerado
un fenómeno puramente ondulatorio, tenía una estructura discreta o granular. Si
la luz tuviera un color (longitud de onda) definido, todos los fotones estarían
marchando al paso, cada fotón idéntico a todos los demás.
Las partículas que pueden estar todas en el mismo estado cuántico, como
sucede con los fotones, se denominan bosones, por el físico indio Satyendra
Nayh Bose.
Casi veinte años más tarde, trabajando sobre la obra de Einstein, Louis
de Broglie cerró el círculo mostrando que los electrones, las partículas
quintaesencíales, tienen un lado ondulatorio. Como las otras ondas, los
electrones pueden reflejarse, refractarse, difractarse e interferir. Pero hay
una diferencia fundamental entre electrones y fotones: a diferencia de los
fotones, dos electrones nunca pueden ocupar el mismo estado cuántico. El
principio de exclusión de Pauli asegura que cada electrón en un átomo debe
existir en su propio estado cuántico y que ningún otro electrón puede abrirse
camino a un estado ya ocupado. Incluso fuera de un átomo, dos electrones por lo
demás idénticos no pueden tener la misma posición o el mismo momento. Las
partículas de este tipo se denominan fermiones, por el físico italiano Enrico
Fermi, aunque deberían llamarse pauliones. De todas las partículas del modelo
estándar, aproximadamente la mitad son fermiones (electrones, neutrinos y
quarks) y la mitad son bosones (fotones, bosones W y Z, gluones y bosones de
Higgs).
Fermiones y bosones desempeñan papeles muy diferentes en el gran diseño.
Normalmente consideramos la materia hecha de átomos, y eso significa electrones
y núcleos. Para resumir, en un nivel los núcleos son grupos de protones y
neutrones adheridos por medio de la fuerza nuclear, pero en un nivel más
profundo, los protones y neutrones están hechos de bloques constituyentes aún
más pequeños: quarks. Todas estas partículas —electrones, protones, neutrones y
quarks— son fermiones. La materia está hecha de fermiones. Pero sin bosones,
los átomos y los núcleos, además de los protones y los neutrones, se caerían a
pedazos. Son los bosones, especialmente los fotones y los gluones, saltando de
un lado a otro entre fermiones los que crean la atracción que mantiene a todo
unido. Aunque fermiones y bosones son de importancia crucial para hacer el
mundo como es, siempre fueron considerados tipos de criaturas muy diferentes.
Pero en algún momento a principios de los años setenta, como
consecuencia de descubrimientos por parte de los teóricos de cuerdas, los
físicos empezaron a jugar con una nueva idea matemática, la idea de que
fermiones y bosones no son en realidad tan diferentes. La idea es que todas las
partículas se dan en pares exactamente encajados, gemelos idénticos que son
iguales en todo excepto que uno es un fermión y otro es un bosón. Ésta era una
hipótesis atrevida. Si fuera cierta en el mundo real, significaría que los
físicos habían pasado por alto la mitad de las partículas de la Naturaleza, que
no habían conseguido descubrirlas en sus laboratorios. Por ejemplo, este nuevo
principio requeriría que exista una partícula exactamente igual que el electrón
—misma masa y carga— excepto que sería un bosón. ¿Cómo podríamos haber dejado
de detectarla en los laboratorios de física de partículas como SLAC y CERN? La
supersimetría implica que tendría que existir un fermión gemelo del fotón, sin
masa y sin carga eléctrica. Análogamente, se necesitarían compañeros bosónicos
para electrones y quarks. Un mundo completo de «opuestos» estaba
misteriosamente ausente si esta nueva idea fuera correcta. De hecho, todo el
ejercicio era sólo un juego matemático, una pura exploración teórica de un
nuevo tipo de simetría que un mundo —algún mundo que no fuera nuestro— podría
poseer.
Los gemelos idénticos no existen. Los físicos no habían patinado y
pasado por alto todo un mundo paralelo. ¿Por qué, entonces, hay interés en
semejante especulación matemática ociosa, interés que se ha intensificado en
los últimos treinta años? Los físicos siempre están interesados en posibles
simetrías matemáticas, incluso si la única pregunta es por qué no son parte de
la Naturaleza. Pero también el mundo real y la descripción que hace de él el
físico están llenos de simetría. La simetría es una de las armas más potentes y
de largo alcance en el arsenal de la física teórica. Impregna cada rama de la
física moderna, en especial aquellas que tienen que ver con la mecánica
cuántica. En muchos casos, todo lo que realmente sabemos de un sistema físico
son sus simetrías, pero estas simetrías son tan poderosas que a veces nos dicen
casi todo lo que queremos saber. Las simetrías suelen estar en el corazón de lo
que los físicos encuentran estéticamente agradable en sus teorías. Pero ¿qué
son?
Empecemos con un copo de nieve. Cualquier niño sabe que no hay dos copos
de nieve exactamente iguales, pero en cualquier caso todos comparten cierta
característica: una simetría. Sólo con mirar un copo de nieve se puede ver
fácilmente su simetría. Tomemos el copo de nieve y rotémoslo cierto ángulo.
Parecerá diferente, inclinado. Pero si lo rotamos exactamente sesenta grados,
parecerá invariable. Un físico diría que la rotación de sesenta grados de un
copo de nieve es una simetría.
Las simetrías se refieren a las operaciones que se pueden hacer con un
sistema sin que cambien los resultados de los experimentos. En el caso del copo
de nieve, la operación es rotarlo sesenta grados. He aquí otro ejemplo:
supongamos que construimos un experimento para determinar la aceleración debida
a la gravedad en la superficie de la Tierra. La versión más simple sería dejar
caer una piedra desde una altura conocida y medir el tiempo de caída. La
respuesta es aproximadamente diez metros por segundo cada segundo. Note que no
me he molestado en decirle dónde dejaba caer la piedra, si era en California o
en Calcuta. Con una aproximación muy buena, la respuesta es la misma en
cualquier lugar en la superficie de la Tierra: el resultado del experimento no
cambiaría si usted moviera todo el experimento desde un punto de la superficie
de la Tierra a otro. En la jerga de la física mover o desplazar algo de un
punto a otro se denomina una traslación. De modo que hablamos de la simetría
del campo gravitatorio de la Tierra «bajo traslación». Por supuesto, algún
molesto efecto irrelevante podría contaminar la simetría. Por ejemplo, si
hiciéramos el experimento precisamente encima de un depósito mineral muy grande
y pesado, obtendríamos un resultado ligeramente mayor. En ese caso, diríamos
que la simetría es sólo aproximada. Las simetrías aproximadas se denominan
también simetrías rotas. La presencia del depósito de mineral
localizado «rompe la simetría de traslación».
¿Puede romperse la simetría de un copo de nieve? Sin duda los copos de
nieve no son perfectos. Si el copo se formó en unas condiciones menos que
ideales, un lado podría ser algo diferente de los otros. Aún podríamos detectar
la forma hexagonal global del cristal, pero tendría una simetría imperfecta, o
rota.
En el espacio exterior, lejos de cualquier influencia contaminante,
podríamos medir la fuerza gravitatoria entre dos masas y deducir la ley de la
gravedad de Newton. No importa dónde hiciéramos el experimento, obtendríamos la
misma respuesta. De modo que la ley de la gravedad de Newton tiene invariancia
de traslación.
Para medir la ley de fuerzas entre dos objetos hay que separarlos a lo
largo de alguna dirección en el espacio. Por ejemplo, podríamos medir la fuerza
separando las masas a lo largo del eje x o a lo largo del
eje y o de cualquier otra dirección para el caso. ¿Podría
depender la fuerza entre los dos objetos de la dirección a lo largo de la que
se separan? En principio sí, pero sólo si las leyes de la Naturaleza fueran
diferentes de las que son. Es un hecho de la Naturaleza que la ley de la
gravedad de Newton —fuerza igual al producto de las masas dividido por el
cuadrado de la distancia— es la misma en todas direcciones. Si todo el
experimento fuera rotado para reorientar la separación, los resultados no
cambiarían. Esta insensibilidad a la rotación se denomina simetría de
rotación. La simetrías de traslación y rotación son dos de las simetrías
más importantes del mundo en que vivimos.
Mírese en el espejo cuando se viste por la mañana. Su imagen en el
espejo parece exactamente igual a usted. La imagen de sus pantalones parece
exactamente igual que sus pantalones reales. La imagen especular de su guante
izquierdo parece exactamente igual que su guante izquierdo.
¡Espere! Eso no es cierto. Mire de nuevo. La imagen especular de su
guante izquierdo no es en absoluto como su guante izquierdo real. Es idéntica
al guante derecho real. Y la imagen del guante derecho es en realidad un guante
izquierdo.
Mire un poco más de cerca su propia imagen especular. No es usted. La
peca de su mejilla izquierda está en la mejilla derecha de su imagen en el
espejo. Si pudiera abrir su cavidad torácica encontraría algo realmente extraño
en la imagen. Su corazón estaría en el lado derecho. No es como ningún ser
humano real. Llamémosla un onamuh.
Imaginemos que tuviéramos una tecnología futurista que nos permitiera
construir cualquier objeto que nos gustara ensamblando átomos uno a uno. He
aquí un proyecto interesante. Construyamos un ser humano cuya imagen especular
es exactamente como usted, el corazón en la izquierda, la peca en la izquierda,
y demás. Ahora el original sería un onamuh.
¿Funciona el onamuh? ¿Respirará? ¿Trabajará su corazón? Si le
alimentamos, ¿metabolizará el azúcar que le demos? La mayoría de las respuestas
son sí. Funcionará tan bien como lo hace usted. Pero encontraremos un problema
con su metabolismo. No procesará el azúcar ordinario.
La razón es que el azúcar se da en dos tipos, igual que los guantes
—mano izquierda y mano derecha—. Los seres humanos sólo pueden metabolizar
azúcar. Un onamuh sólo puede metabolizar racùza. La molécula de azúcar
ordinaria se da en dos variedades —el tipo que usted puede comer y su imagen
especular, que usted no puede comer. Los nombres técnicos para el azúcar y el
racùza son por supuesto levulosa (moléculas de azúcar de mano izquierda que
podemos comer) y dextrosa (moléculas de mano derecha que no metabolizamos). Los
seres sonamuh funcionarán tan bien como los seres humanos pero sólo si también
reemplazamos todo en su entorno, incluyendo su alimento, por sus homólogos
reflejados.
Reemplazar todo por su imagen especular se denomina simetría de
reflexión o, a veces, simetría de paridad. Probablemente
la consecuencia de esta simetría está clara, pero expliquémosla en detalle. Si
todo en el mundo se reemplaza por su imagen especular, el mundo se comportará
de una manera completamente invariable.
En realidad, la simetría de reflexión no es exacta. Es un ejemplo de una
simetría rota. Algo hace que la imagen especular de un neutrino sea muchas
veces más pesada que el original. Esto se contagia a otras partículas pero sólo
en un grado minúsculo Es como si el espejo de la Naturaleza fuera un espejo
ligeramente distorsionado, un espejo de feria que da una imagen distorsionada,
pero muy poco. La distorsión es tan insignificante para la materia ordinaria
que los sonamuh no la advertirían. Pero las partículas elementales de alta
energía advierten la distorsión y se comportan de maneras en que no lo hacen
sus imágenes especulares. Sin embargo, ignoremos la distorsión por ahora y
admitamos que la simetría de reflexión es una simetría exacta de la Naturaleza.
¿Qué queremos decir cuando decimos que «una simetría relaciona las
partículas»? Dicho simplemente, significa que por cada tipo de partícula hay
una compañera o gemela con propiedades íntimamente relacionadas. En el caso de
la simetría de reflexión significa que si es posible un guante izquierdo,
también lo es un guante derecho, si puede existir la levulosa, también puede
hacerlo la dextrosa. Y si la simetría de reflexión no estuviera rota, esto se
aplicaría a cualquier partícula elemental. Cualquier partícula tendría una
gemela idéntica pero reflejada. Cuando los humanos se reflejan para hacer
sonamuh, cada partícula elemental debe ser reemplazada por su gemela.
La antimateria es otra manifestación de simetría llamada simetría
de conjugación de carga. Una vez más, la simetría implica reemplazar todo
por otra cosa: en este caso, cada partícula es reemplazada por su
antipartícula. Esto reemplaza una carga eléctrica positiva, tal como el protón,
por una carga negativa: el antiprotón. Análogamente, un positrón reemplaza a
cualquier electrón negativo ordinario. Los átomos de hidrógeno se convierten en
átomos de antihidrógeno, compuestos de un positrón y un antiprotón. Estos
antiátomos se han hecho realmente en el laboratorio, sólo un puñado,
insuficientes para hacer siquiera una antímolécula. Pero nadie duda de que las
antimoléculas son posibles.
Los antihumanos son posibles, pero no hay que olvidarse de alimentarlos
con antialimento. De hecho, usted haría mejor en mantenerse apartado de las
antipersonas. Cuando la materia se encuentra con antimateria se aniquila de
forma explosiva en una ráfaga de fotones. La explosión que ocurriría si usted
inadvertidamente se diese la mano con un antihumano sería similar a la
explosión de una bomba nuclear.
El caso es que nuestra simetría de conjugación de carga es también una
simetría ligeramente rota. Pero como sucede con las reflexiones, el efecto
sería completamente insignificante excepto para partículas de muy alta energía.
Volvamos ahora a fermiones y bosones. La teoría de cuerdas original, la
que descubrimos Nambu y yo, se denomina teoría de cuerdas bosónica porque
todas las partículas que describe son bosones. Esto no era bueno para describir
hadrones: después de todo, el protón es un fermión. Tampoco sería bueno si el
objetivo de la teoría de cuerdas fuera una teoría de todo. Electrones,
neutrinos, quarks… son todos fermiones. Pero no pasó mucho tiempo antes de que
se descubrieran nuevas versiones de la teoría de cuerdas que contenían
fermiones tanto como bosones. Y una de las extraordinarias propiedades
matemáticas de estas denominadas teorías de supercuerdas es la supersimetría:
la simetría entre bosones y fermiones que requiere que las partículas se den
pares exactamente ajustados, un bosón por cada fermión y viceversa.
La supersimetría es, de nuevo, una herramienta matemática indispensable
y muy poderosa para los teóricos de cuerdas. Sin ella, las matemáticas son tan
difíciles que es muy difícil estar seguro de la consistencia de la teoría. Casi
todos los trabajos fiables sobre el tema suponían que el mundo era
supersimétrico. Pero como he resaltado, la simetría no es decididamente una
simetría exacta de la Naturaleza. Como mucho es una simetría mal rota, el tipo
de simetría distorsionada que supondría un espejo de feria combado. De hecho,
no se ha descubierto nunca ninguna supercompañera para cualquiera de las
partículas elementales conocidas. Si existiera un bosón con las mismas masa y
carga que el electrón, habría sido descubierto hace tiempo. De todas formas, si
usted va a su buscador web y busca artículos de investigación en física de
partículas elementales, encontrará que desde mediados de los años setenta del
siglo pasado la aplastante mayoría tiene que ver con supersimetría. ¿Por qué es
así? ¿Por qué los físicos teóricos no desecharon de mala gana la supersimetría
y, con ella, la Teoría de Supercuerdas? Las razones varían.
La disciplina que en un tiempo se llamó física teórica de altas
energías, o física teórica de partículas elementales, se dividió hace tiempo en
dos disciplinas separadas llamadas fenomenología y teoría.
Si usted teclea el URL http://arXiv.org en
su buscador web, encontrará el lugar donde los físicos colocan su artículos de
investigación. Las subdisciplinas separadas están listadas por temas: teoría
nuclear, física de materia condensada y demás. Si usted busca física de altas
energías (hep) encontrará cuatro archivos separados, sólo dos de los cuales
están dedicados a los aspectos teóricos del tema que nos concierne (los otros
dos son para física experimental y simulaciones por computador). Un archivo
(hep-ph) es para fenomenología (cuyo significado se aclarará dentro de poco).
El otro (hep-th) es para los artículos más teóricos y matemáticos. Abra ambos.
Encontrará que todos los artículos hep-ph tratan de problemas de física de
partículas convencional. A veces se refieren a experimentos, ya sea pasados o
futuros, y los resultados de los artículos suelen ser números y gráficas. Por
el contrario, los artículos hep-th son generalmente sobre teoría de cuerdas y
gravedad. Son más matemáticos, y en su mayoría tienen poco que ver con
experimentos. Sin embargo, en los últimos años las líneas divisorias entre
estas subsubdisciplinas se han difuminado mucho, y creo que es una buena señal.
Pero en ambos archivos encontrará que muchos de los artículos tienen
algo que ver con la supersimetría. Cada bando tiene sus propias razones para
esto. En el caso de la gente de la hep-th, las razones son matemáticas. La
supersimetría conduce a simplificaciones sorprendentes para problemas que de
otra manera serían demasiado difíciles. Recordemos que en el capítulo 2
expliqué que está garantizado que la constante cosmológica es nula si las
partículas se dan en pares de supercompañeras. Éste es uno de los muchos
milagros matemáticos que ocurren en las teorías supersimétricas. No voy a
describirlos, pero el punto importante es que la supersimetría simplifica las
matemáticas de la teoría cuántica de campos y la teoría de cuerdas de tal
manera que permite a los teóricos saber cosas que de otra manera estarían más
allá del cálculo. Quizá el mundo real no sea supersimétrico, pero quizá haya
fenómenos interesantes que puedan ser estudiados con ayuda de la supersimetría:
fenómenos que normalmente serían demasiado difíciles de comprender para
nosotros. Un ejemplo es los agujeros negros. Toda teoría que incluya la fuerza
de gravedad tendrá agujeros negros entre los objetos que describe. Los agujeros
negros tienen propiedades muy misteriosas y paradójicas a las que llegaremos
más tarde en este libro. Las especulaciones sobre estas paradojas han sido
demasiado complicadas para comprobar en una teoría ordinaria. Pero, como por
arte de magia, la existencia de supercompañeras hace los agujeros negros
fáciles de estudiar. Para el teórico de cuerdas esta simplificación es
esencial. Las matemáticas de la teoría tal como se utiliza ahora se basan casi
por entero en la supersimetría. Incluso muchas viejas preguntas sobre la
mecánica cuántica de quarks y gluones se hacen fáciles si añadimos
supercompañeros. El mundo supersimétrico no es el mundo real (al menos en
nuestro universo de bolsillo), pero está suficientemente próximo para sacar
muchas lecciones sobre partículas elementales y gravedad.
Aunque los objetivos últimos de los hep-ph y los hep-th pueden ser los
mismos, los fenomenólogos tienen una agenda inmediata diferente de la de los
teóricos de cuerdas. Su objetivo es utilizar los métodos más viejos y a veces
las nuevas ideas de la teoría de cuerdas para describir las leyes de la física
tal como se habían entendido durante la mayor parte del siglo XX. Normalmente
no tratan de construir una teoría a partir de primeros principios, una teoría
que fuera matemáticamente completa, ni esperan descubrir la teoría última. Se
interesan en la supersimetría como una posible simetría aproximada o rota de la
Naturaleza, algo que puede descubrirse en futuros experimentos de laboratorio.
Para ellos, los descubrimientos más importantes serían los de una familia
entera de nuevas partículas: las supercompañeras ausentes.
Las simetrías rotas, recordémoslo, no son perfectas. En un espejo
perfecto un objeto y su imagen especular son idénticos excepto que izquierda y
derecha están intercambiadas, pero en un espejo de feria la simetría es
imperfecta. Quizá sea suficiente para reconocer la imagen de un objeto, pero
imagen y objeto son versiones distorsionadas una de otro. La imagen de un
hombre delgado podría ser un hombre grueso que, si fuera real, pesaría el doble
que su gemelo delgado.
En la feria que llamamos nuestro universo, la simetría «espejo»
matemática que refleja cada partícula en su supercompañera está distorsionada,
tan distorsionada que las supercompañeras tienen una imagen muy gruesa. Si
existen, son muchas veces más pesadas —con más masa— que las partículas
conocidas. Nunca se ha descubierto ninguna supercompañera: ni la pareja del
electrón ni la del fotón ni la del quark. ¿Significa eso que no existen y que
la supersimetría es un juego matemático irrelevante? Quizá sí, pero también
podría significar que la distorsión es suficiente para hacer las
supercompañeras tan pesadas que están más allá del alcance de los aceleradores
de partículas actuales. Si, por alguna razón, las supercompañeras fueran
demasiado masivas —un par de cientos de veces la masa del protón— no podrían
descubrirse hasta que se construyera la próxima generación de aceleradores.
Las supercompañeras tienen nombres similares a sus gemelas normales. No
es demasiado difícil recordarlos si se conoce la regla. Si la partícula
ordinaria es un bosón como el fotón o el bosón de Higgs, entonces el nombre de
la gemela fermiónica se obtiene añadiendo —ino. Así tenemos el fotino,
el higgsino, el zino y el gluino. Si, por el contrario, la partícula original
es un fermión, entonces simplemente se añade la letra s al principio:
selectrón, smuón, sneutrino, squark y así sucesivamente. Esta última regla ha
generado algunas de las palabras más feas en el vocabulario de los físicos.
Siempre hay una fuerte tendencia a esperar que los nuevos
descubrimientos estén «a la vuelta de la esquina». Si las supercompañeras no
llegaran a manifestarse a un centenar de veces la masa del protón, entonces
habría que revisar las estimaciones y habría que construir un acelerador para
descubrirlas a un millar de masas de protón. O a diez millares de masas de
protón. Pero ¿son todo ello buenos deseos y nada más? Yo no lo creo así. Hay un
enigma profundo en la partícula de Higgs para el que la supersimetría puede
tener la clave. El problema está íntimamente relacionado con la «madre de todos
los problemas de la física» tanto como con la sorprendente debilidad de la
gravedad.
Las mismas agitaciones cuánticas que crean una enorme energía del vacío
pueden tener también un efecto sobre las masas de las partículas elementales.
He aquí la razón. Supongamos que se coloca una partícula en un vacío agitado.
Dicha partícula interaccionará con las fluctuaciones cuánticas y perturbará la
forma en que se agita el vacío en la inmediata vecindad de la partícula. El
efecto global es modificar la energía debida a las agitaciones. Este cambio en
la energía de las agitaciones, debido a la presencia de la partícula, debe
contarse como parte de su masa (recordemos E = mc2).
Un ejemplo particularmente violento es el efecto sobre la masa del bosón de
Higgs. Los físicos saben cómo estimar la masa extra adicional del Higgs y el
resultado es casi tan absurdo como la estimación de la propia energía del
vacío. Las agitaciones del vacío en la vecindad del bosón de Higgs deberían
añadir a éste masa suficiente para hacerlo ¡tan pesado como la masa de Planck!
¿Por qué es esto tan problemático? Aunque los teóricos se centran
normalmente en la partícula de Higgs, el problema se contagia realmente a todas
las partículas elementales, con excepción del fotón y del gravitón. Cualquier
partícula situada en un vacío agitado experimentará un enorme aumento en su
masa. Si todas las partículas vieran su masa aumentada, toda la materia se
haría más pesada y eso implicaría que las fuerzas gravitatorias entre objetos
se harían más intensas. Sólo se necesita un modesto incremento en la intensidad
de la gravedad para hacer un mundo sin vida. Este dilema se denomina
convencionalmente el problema de la masa de Higgs y es otro problema de ajuste
fino que fustiga los intentos de los teóricos por entender las leyes de la
física. Los dos problemas —la constante cosmológica y la masa de Higgs— son
similares en muchos aspectos. Pero ¿qué tienen que ver con la supersimetría?
Recordemos que en el capítulo 2 expliqué que un emparejamiento exacto de
fermiones y bosones cancelaría la energía fluctuante del vacío. Exactamente lo
mismo es cierto para la masa extra indeseada de las partículas. En un mundo
supersimétrico, los efectos violentos debidos a las fluctuaciones cuánticas
estarían domesticados, dejando invariables las masas de las partículas. Además,
incluso una supersimetría distorsionada aliviaría mucho el problema si la
distorsión no fuera demasiado severa. Ésta es la razón primaria por la que los
físicos de partículas elementales esperan que la supersimetría esté «a la
vuelta de la esquina». Habría que advertir, no obstante, que la supersimetría
distorsionada no puede explicar el valor absurdamente pequeño de la constante
cosmológica. Sencillamente es demasiado pequeño.
Hay otro aspecto en que el problema de la masa de Higgs es similar al
problema de la energía del vacío. De la misma forma que Weinberg demostró que
la vida no podría existir en un mundo con demasiada energía del vacío, las
partículas elementales más pesadas también serían desastrosas. Quizá la
explicación del problema de la masa de Higgs reside no en la supersimetría sino
más bien en la enorme diversidad del paisaje y la necesidad antrópica de que la
masa sea pequeña. En pocos años quizá sepamos si la supersimetría está
realmente a la vuelta de la esquina o si es un espejismo que parece alejarse
cuando nos acercamos a él.
Una pregunta que parece que no ha sido planteada por los físicos
teóricos es: «Si la supersimetría es una simetría matemática tan maravillosa y
elegante, ¿por qué el mundo no es supersimétrico? ¿Por qué no vivimos en el
tipo de universo elegante que los teóricos de cuerdas mejor conocen y aman?».
¿Podría la razón para ello ser antrópica?
La mayor amenaza para la vida en un universo exactamente supersimétrico
no tiene que ver con la cosmología sino más bien con la química. En un universo
supersimétrico cada fermión tiene un compañero bosónico con exactamente la
misma masa, y ahí está el problema. Los culpables son los supercompañeros del
electrón y el fotón. Estas dos partículas, llamadas selectrón (¡ajj!). Y
fotino, conspiran para destruir todos los átomos ordinarios. Tomemos un átomo
de carbono. Las propiedades químicas del carbono dependen básicamente de los
electrones de valencia, los electrones más débilmente ligados en las órbitas
más externas. Pero en un mundo supersimétrico, un electrón externo puede emitir
un fotino y convertirse en un selectrón. El fotino sin masa sale despedido con
la velocidad de la luz, dejando al selectrón en sustitución del electrón en el
átomo. Eso es un gran problema: el selectrón, siendo un bosón, no está sometido
al principio de exclusión de Pauli que le impediría caer en la órbita de
energía más baja cerca del núcleo. En muy poco tiempo todos los electrones se
convertirán en selectrones atrapados en la órbita más interna. Adiós a las
propiedades químicas del carbono, y a cualquier otra molécula necesaria para la
vida. Un mundo supersimétrico puede ser muy elegante pero no puede soportar la
vida, no la de nuestro tipo, en cualquier caso.
Si usted vuelve a la página web citada, encontrará otros dos archivos,
uno llamado «relatividad general y cosmología cuántica», y el otro
«astrofísica». En estos archivos la supersimetría desempeña un papel mucho
menos destacado. ¿Por qué un cosmólogo debería prestar atención a la
supersimetría si el mundo no es supersimétrico? Para parafrasear a Bill
Clinton, «Es el paisaje, estúpido». Aunque una simetría particular puede estar
rota en mayor o menor grado en nuestro pequeño valle doméstico, eso no significa
que la simetría esté rota en todos los rincones del paisaje. De hecho, la
porción del paisaje de la teoría de cuerdas que mejor conocemos es la región
donde la supersimetría es exacta e intacta. Llamada espacio de moduli
supersimétrico (o espacio supermoduli), es la porción de paisaje donde
cada fermión tiene su bosón y cada bosón tiene su fermión. Como consecuencia,
la energía del vacío es exactamente cero en todo lugar en el espacio
supermoduli. Desde el punto de vista topográfico, eso lo hace una llanura a
altitud exactamente cero. La mayor parte de lo que sabemos sobre teoría de
cuerdas procede de nuestra exploración de esta llanura durante treinta y cinco
años. Por supuesto, esto implica que algunos bolsillos del megaverso serán
supersimétricos. Pero no hay teóricos de supercuerdas para disfrutarlos.
§. La mágica misteriosa y asoMbrosa teoría-M
En 1985 la teoría de cuerdas —ahora llamada teoría de supercuerdas—
tenía cinco versiones distintas [74].
Diferían en varios aspectos. Dos de ellas tenían cuerdas abiertas (cuerdas con
dos extremos) tanto como cuerdas cerradas, y tres no lo hacían. Los nombres de
la cinco no son particularmente ilustrativos, pero aquí están. Las dos con
cuerdas abiertas se llaman teorías de cuerdas tipo Ia y Ib. Las tres restantes,
con sólo cuerdas cerradas, se conocen como teorías de cuerdas tipo IIa, tipo
IIb, y heterótica. Las diferencias son demasiado técnicas para describir sin
aburrir al lector. Pero una cosa que tienen en común es mucho más interesante
que cualquiera de las diferencias: aunque algunas tienen cuerdas abiertas y
otras no las tienen, las cinco versiones tienen cuerdas cerradas.
Para apreciar por qué esto es tan interesante tenemos que entender una
característica muy desagradable de todas las teorías anteriores. En las teorías
ordinarias —teorías tales como la electrodinámica cuántica o el modelo
estándar— la gravedad es un «añadido» opcional. Uno puede ignorar la gravedad o
añadirla al grupo. La receta es simple: tomamos el modelo estándar y añadimos
una partícula más, el gravitón. Sea el gravitón sin masa. Añadamos también
algunos nuevos vértices: cualquier partícula puede emitir un gravitón. Ya está.
Pero eso no funciona muy bien. Las matemáticas son intrincadas y sutiles, pero
a la postre los nuevos diagramas de Feynman que incluyen gravitones dan al
traste con los primeros cálculos. Todo sale infinito. No hay manera de dar sentido
a la teoría.
En un aspecto creo que es bueno que el procedimiento simple fallara. No
contiene ningún indicio de una explicación de las propiedades de las
partículas, ninguna explicación de por qué el modelo estándar es especial y no
explica nada sobre el ajuste fino de la constante cosmológica o la masa de
Higgs. Francamente, si funcionase sería muy decepcionante.
Pero las cinco teorías de cuerdas son muy claras en este punto:
simplemente no pueden formularse sin gravedad. La gravedad no es un ingrediente
arbitrario: es un producto inevitable. Para ser consistente la teoría de
cuerdas debe incluir al gravitón y las fuerzas que él medía por intercambio. La
razón es simple. El gravitón es una cuerda cerrada, la más ligera. Las cuerdas
abiertas son opcionales, pero las cuerdas cerradas están siempre allí.
Supongamos que tratamos de crear una teoría con sólo cuerdas abiertas. Si
tuviéramos éxito tendríamos una teoría de cuerdas sin gravedad. Pero siempre
fracasamos. Los dos extremos de una cuerda abierta siempre pueden encontrarse y
unirse para formar una cuerda cerrada. Las teorías ordinarias sólo son
consistentes si la gravedad queda fuera. La teoría de cuerdas sólo es
consistente si incluye la gravedad. Ese hecho, más que cualquier otro, es lo
que da confianza a los teóricos de cuerdas en que están en el camino correcto.
Las cuatro teorías etiquetadas tipos I y II fueron descubiertas
inicialmente en los años setenta. Cada una de ellas tenía defectos fatales, no
en su consistencia matemática interna sino en la comparación detallada con
hechos experimentales sobre las partículas. Cada una describía un mundo
posible. Sencillamente no describían nuestro mundo. Por ello se produjo una
enorme excitación cuando se descubrió la quinta versión en Princeton en 1985.
La teoría de cuerdas heterótica parecía ser el sueño del teórico de cuerdas. Se
parecía lo suficiente al mundo real como para ser quizá la real. Se anunció un
éxito inminente.
Incluso entonces había razones para recelar de las afirmaciones fuertes.
Por una parte, seguía estando el problema de demasiadas dimensiones: nueve de
espacio y una de tiempo. Pero los teóricos ya sabían lo que hacer con las seis
dimensiones extra: «¡Compactifiquemos!», decían. Pero hay millones de
elecciones posibles entre los espacios de Calabi Yau. Además, cada una de ellas
da una teoría consistente. Peor aún, una vez que se escogía una variedad de
Calabi-Yau había centenares de moduli asociados con su forma y tamaño. También
éstos tenían que ser fijados a mano. Además, todas las teorías conocidas eran
supersimétricas: en cada caso las partículas se daban en pares exactamente
ajustados, lo que sabemos que no encaja en nuestra realidad.
De todas formas, los teóricos de cuerdas estaban tan cegados por el mito
de la unicidad que durante los años ochenta y principios de los noventa
siguieron afirmando que había sólo cinco teorías de cuerdas. En su imaginación
el paisaje era muy exiguo: sólo tenía cinco puntos. Por supuesto esto era
absurdo, puesto que cada compactificación viene con muchos moduli que podrían
variarse; pero a pesar de ello, los físicos se agarraban a la ficción de que
sólo había cinco teorías para revisar. Incluso si sólo había cinco
posibilidades, ¿qué principio seleccionaba, entre ellas, la que describe el
mundo real? Ninguna idea afloraba. Pero en 1995 llegó un avance transcendental,
no para descubrir la versión correcta que describe el mundo, sino para entender
las relaciones entre las diversas versiones.
Universidad del Sur de California, 1995
Todos los años, a finales de primavera o comienzos del verano, los
teóricos de cuerdas de todo el mundo se reúnen para su congreso anual.
Estadounidenses, europeos, japoneses, coreanos, indios, pakistaníes, israelíes,
latinoamericanos, chinos, musulmanes, judíos, cristianos, hindúes; creyentes y
ateos: todos nos reunimos durante una semana para oír las últimas ideas de los
demás. Casi todos los cuatrocientos o quinientos participantes se conocen. Los
veteranos son en general viejos amigos. Cuando nos encontramos hacemos lo que
los físicos hacen siempre: dar y escuchar conferencias sobre los últimos temas
calientes. Y tenemos un banquete.
El año 1995 fue memorable, al menos para mí, por dos razones. En primer
lugar, yo era el orador de sobremesa en el banquete. La segunda razón fue un
suceso de importancia transcendental para las personas ahí reunidas: Ed Witten
dio una conferencia en la que expuso avances espectaculares que orientaban el
campo en direcciones totalmente nuevas. Por desgracia, la conferencia de Witten
se me pasó, no porque no pudiera estar allí, sino porque estaba soñando
alegremente en lo que iba a decir en la charla de sobremesa.
Lo que yo quería contar esa noche era una hipótesis escandalosa: una
conjetura sobre cómo la física de hoy podría haber sido descubierta por
teóricos muy inteligentes incluso si la física hubiera sido privada de
cualquier experimento después de que acabara el siglo XIX. El propósito era en
parte divertir, pero también dar alguna perspectiva a lo que nosotros (los
teóricos de cuerdas) estábamos intentando. Volveré a ello en el capítulo 9.
Lo que mi ensoñación me hizo perderme fue una nueva idea que se iba a
hacer capital en mi concepción del paisaje. Ed Witten, no sólo un gran
físico-matemático sino también una figura destacada entre los matemáticos
puros, venía siendo desde hacía tiempo la fuerza impulsora tras el desarrollo
matemático de la teoría de cuerdas. Él es profesor (algunos dirían “el profesor”)
y luz guía en el intelectualmente abarrotado Instituto para Estudios Avanzados.
Más que cualquier otro, Witten ha impulsado decididamente los avances en el
campo.
En 1995 se estaba haciendo evidente que el vacío descrito por la teoría
de cuerdas estaba lejos de ser único. Había muchas versiones de la teoría, cada
una de las cuales llevaba a leyes de la física diferentes. Esto no se veía como
algo bueno, sino más bien como un inconveniente. Después de todo, diez años
antes los teóricos de cuerdas de Princeton habían prometido no sólo que la
teoría era casi única sino también que estaban a punto de encontrar la
verdadera versión que describe a la Naturaleza. El objetivo primario de Witten
había sido demostrar que todas las versiones salvo una eran matemáticamente
inconsistentes. Pero en su lugar, él encontró un Paisaje, o más exactamente la
porción del Paisaje a altitud cero, es decir, la parte supersimétrica del paisaje.
Esto es lo que sucedió:
Imaginemos que los físicos hubieran descubierto dos teorías de
electrones y fotones: la electrodinámica cuántica usual pero también una
segunda teoría. En la segunda teoría, los electrones y los positrones, en lugar
de moverse libremente a través del espacio tridimensional, podían moverse
solamente en una dirección, digamos la dirección x. Sencillamente
eran incapaces de moverse en cualquier otra dirección. Los fotones, por el
contrario, se movían a la manera usual. La segunda teoría era un incordio.
Hasta donde los físicos podían decir era matemáticamente tan consistente como
la electrodinámica cuántica que gobernaba el mundo real de átomos y fotones,
pero no tenía sitio en su visión del mundo real. ¿Cómo podía haber dos teorías,
igualmente consistentes, sin ninguna forma de explicar por qué una debería ser
descartada mientras que la otra describe la Naturaleza? Confiaban y rezaban
para que alguien descubriera un fallo, una contradicción matemática, que
eliminase la teoría indeseada y les diese razón para creer que el mundo es como
es porque ningún otro mundo es posible.
Entonces, mientras intentaban demostrar que la segunda teoría era
inconsistente, dieron con unos hechos interesantes. No sólo no encontraron
ninguna inconsistencia sino que también empezaron a entender que las dos
teorías eran parte de la misma teoría. Se dieron cuenta de que la segunda
versión era meramente una versión límite de la teoría usual en una región del
espacio con un campo magnético enormemente intenso: una máquina super RMI. Como
le dirá cualquier físico, un campo magnético muy fuerte obligará a las
partículas cargadas a moverse en una sola dirección: siguiendo las líneas de
fuerza del campo magnético. Pero el movimiento de una partícula no cargada,
como el fotón, no se ve afectado por el campo [75]. En
otras palabras, sólo hay una teoría, un conjunto de ecuaciones, pero dos
soluciones. Aún mejor, variando el campo magnético de forma continua se
interpola toda una familia de teorías entre ambos extremos. Los físicos
ficticios habían descubierto un paisaje continuo y se disponían a explorarlo.
Por supuesto, aún no tenían ninguna idea de qué mecanismo podría escoger entre
el continuo de soluciones, por qué el mundo de la realidad no tiene ningún
campo magnético de fondo. Esperaban explicarlo más tarde.
Ésta es exactamente la situación en que nos dejó Witten después de su
charla de 1995 en Los Ángeles. Él había descubierto que las cinco versiones de
la teoría de cuerdas eran en realidad soluciones de una única teoría: no muchas
teorías, sino muchas soluciones. De hecho, todas pertenecían a una familia que
incluye un miembro más, una teoría que Witten llamó teoría M. Además,
cada una de las seis teorías corresponde a un valor extremo de los moduli:
algún lejano rincón límite del paisaje. Como en el ejemplo del campo magnético,
los moduli pueden variarse de forma continua de modo que una teoría se
transforme en las otras. «Una teoría, muchas soluciones»: ése se convirtió en
el eslogan guía.
Hay muchas conjeturas sobre lo que representa la M. He aquí algunas de
las posibilidades: madre, milagro, membrana, magia, misterio y maestra. Más
adelante se añadió matriz. Nadie parece saber con certeza lo que Witten tenía
en mente cuando acuñó el término teoría M. A diferencia de las cinco teorías
previamente conocidas, la nueva pariente no es una teoría con nueve dimensiones
de espacio y una de tiempo. En su lugar es una teoría con diez dimensiones de
espacio y una de tiempo. Y lo que es incluso más alarmante, la teoría M no es
una teoría de cuerdas: los objetos básicos de la teoría M son membranas, hojas
de energía bidimensionales que se parecen a hojas elásticas en lugar de bandas
elásticas unidimensionales. La buena noticia era que la teoría M parecía
ofrecer un marco unificador en el que aparecen las diversas teorías de cuerdas
cuando una o más de las diez dimensiones de espacio se enrollan por
compactificación. Éste fue un avance real que mantenía la promesa de una base
unificadora para la teoría de cuerdas. Pero también había un lado negativo. No
se sabía casi nada de la mezcla de la relatividad general oncedimensional con
la mecánica cuántica. Las matemáticas de las membranas son terriblemente
complicadas, mucho más que las de las cuerdas. La teoría M era tan oscura y
misteriosa como cualquier teoría cuántica de la gravedad que hubiera existido
antes de que la teoría de cuerdas hiciera su aparición. Parecía como si se
hubiera dado un paso adelante y dos pasos atrás.
Eso no duró mucho tiempo. En la siguiente reunión de cuerdas, en el
verano de 1996, tuve el placer de informar que tres de mis amigos y yo habíamos
descubierto el secreto de la teoría M. Habíamos encontrado los objetos
subyacentes en la teoría, y las ecuaciones que los gobernaban eran
increíblemente simples. Tom Banks, Willy Fischler, Steve Shenker y yo
descubrimos que las entidades fundamentales de la teoría M no eran membranas
sino objetos más simples, «partones» básicos de un nuevo tipo. Similares en algunos
aspectos a los viejos partones de Feynman, estos nuevos constituyentes tenían
una sorprendente capacidad para ensamblarse y formar todo tipo de objetos. El
propio gravitón, en un tiempo considerado la partícula más fundamental, era un
compuesto de muchos partones. Ensamblamos los mismos partones en una pauta
diferente y emergían membranas. En otra pauta formaban un agujero negro. Las
ecuaciones detalladas de la teoría eran mucho más sencillas que las ecuaciones
de la teoría de cuerdas, incluso más sencillas que las ecuaciones de la
relatividad general. La nueva teoría se llama teoría matriz o a veces teoría
M(atriz) para resaltar su conexión con la teoría M.
Witten no fue el primero en especular sobre una conexión entre una
teoría oncedimensional y la teoría de cuerdas. Durante años varios físicos
habían tratado de llamar la atención hacia una teoría oncedimensional con
membranas. Mike Duff en Texas A&M (ahora en el Imperial College de Londres)
había tenido muchas de las ideas años antes, pero los teóricos de cuerdas no
las creían. Las membranas eran demasiado complicadas, y las matemáticas
demasiado mal entendidas, para que la idea seminal de Duff fuera tomada en
serio. Pero tratándose de Witten, los teóricos de cuerdas se adhirieron a la
teoría M y nunca la dejaron.
¿Qué hay en la teoría M que captó de esa forma la imaginación de los
físicos teóricos? No es una teoría de cuerdas. Ningún filamento de energía
unidimensional habita este mundo de once dimensiones espacio-temporales. De
modo que ¿por qué, de repente, los teóricos de cuerdas se interesaron en hojas
de energía bidimensionales, membranas, como son llamadas? Las respuestas a
estos enigmas residen en los sutiles misterios de la compactificación.
Volvamos al cilindro infinito y recordemos cómo lo obtuvimos. Empezando
con una hoja de papel infinito, recortamos primero una franja infinita de
algunos centímetros de anchura. Pensemos en los dos bordes como si fueran el
techo y suelo de una habitación bidimensional. La habitación es
extraordinariamente grande. Se prolonga indefinidamente en la dirección x,
pero en la dirección y está acotada por encima y por debajo
por el techo y el suelo. En el paso siguiente el techo se une con el suelo para
hacer un cilindro.
Imaginemos una partícula que se mueve por la habitación infinita. En
algún momento puede llegar al techo. ¿Qué sucede a continuación? Si la franja
estuviera enrollada en un cilindro no habría problema: la partícula seguiría su
curso, atravesando el techo y reapareciendo en el suelo. De hecho no
necesitamos realmente doblar el papel Para hacer un cilindro; basta saber que
cada punto en el techo está emparejado con un único punto en el suelo de modo
que cuando la partícula cruza un borde salta de repente al otro. Podemos
enrollar el papel o dejarlo plano: sólo necesitamos seguir la regla por la que
cada punto del techo se identifica con el punto del suelo que tiene por debajo
en vertical.
Ahora avancemos un poco más: nuestra habitación es ahora tridimensional
como una habitación real, excepto que es infinita, esta vez en la
dirección x y en la dirección z. Pero la
dirección y, la dirección vertical, está acotada por encima y por
debajo por el techo y el suelo. Como antes, cuando una partícula atraviesa el
techo reaparece al instante en el punto correspondiente del suelo. El espacio
tridimensional se ha compactificado a dos dimensiones. Si la altura de la
habitación —en otras palabras, la distancia alrededor de la dirección y—
se contrajera a un tamaño microscópico, el espacio sería prácticamente
bidimensional.
Como he dicho, la teoría M no tiene cuerdas sino sólo membranas. Así que
¿cuál es su relación con la teoría de cuerdas? Imaginemos una cinta, cuya
anchura es exactamente la altura de la habitación, con su anchura extendida del
suelo al techo. La longitud de la cinta recorre la habitación siguiendo una
curva inscrita en el suelo. La única regla es que el borde superior de la cinta
debe estar exactamente sobre el borde inferior. De hecho, la cinta no tiene más
bordes que los que tenía el cilindro de papel. Pero es más fácil visualizar una
larga cinta serpenteando a lo largo de la habitación infinita con sus bordes
siguiendo el techo y el suelo.
Ahora usted debe tener una buena idea de cómo la cinta, en sí misma una
membrana bidimensional, imita a una cuerda unidimensional. Si la dirección
compacta fuera tan pequeña que no pudiera verse sin un microscopio, la cinta
sería una cuerda para cualquier fin práctico. Si la cinta se cerrara sobre sí
misma sería indistinguible de una cuerda cerrada: una cuerda tipo IIa, para ser
precisos. Ésta es la conexión entre la teoría M y la teoría de cuerdas. Las
cuerdas son en realidad cintas muy estrechas o membranas que se parecen cada
vez más a cuerdas finas a medida que se contrae la distancia en la
dirección y. Eso no es tan difícil.
Pero las cosas pueden ser más extrañas. Demos ahora otro paso y
compactifiquemos dos dimensiones: llamémoslas z e y.
Para visualizar esto, imaginemos la habitación infinita reemplazada por un
corredor infinito. Tenemos paredes a la izquierda y derecha, y un techo y un
suelo por encima y por debajo. Pero si miramos a lo largo del corredor podemos
ver indefinidamente en una u otra dirección. Una vez más, si un objeto llega al
techo reaparece en el suelo. Pero ¿qué pasa si se aproxima a una de las paredes
que acotan la dirección z? Usted ya sabe probablemente la
respuesta: aparece en la pared opuesta, directamente enfrente del lugar donde
tocó a la primera pared.
Exactamente el mismo truco puede hacerse en el espacio diez-dimensional
de la teoría M, sólo que esta vez, el «corredor» se extiende indefinidamente en
ocho de las diez direcciones espaciales. Como se podría esperar, cuando la
altura y la anchura del corredor se hacen muy pequeñas el observador a gran
escala piensa que está viviendo en un mundo de ocho dimensiones (más una de
tiempo).
Ahora viene una consecuencia chocante y extraña de la teoría de cuerdas.
Si la anchura y la altura del corredor se hacen más pequeñas Que un cierto
tamaño, una nueva dimensión sale de ninguna parte. Esta nueva dirección del
espacio no es ninguna de las direcciones con las que empezamos. Sabemos de ella
sólo a través de las matemáticas indirectas de la teoría de cuerdas.
Cuanto más pequeñas hacemos las direcciones compactas
originales, más grande se hace la dirección compacta recién
creada. Finalmente, cuando el corredor se contrae hasta altura y anchura nulas,
la nueva dirección se hace infinitamente grande. Sorprendentemente, al contraer
dos de las dimensiones espaciales encontramos nueve, y no ocho, grandes
direcciones restantes. Este hecho peculiar —que, «diez menos dos igual a
nueve»— es una de las más extrañas consecuencias de la teoría de cuerdas. La
geometría del espacio no es siempre la que Euclides o incluso Einstein
pensaban. Evidentemente a las distancias más pequeñas el espacio es diferente
de cualquier cosa que los físicos o los matemáticos imaginaron en sus sueños
más alocados.
Quizá ahora esté usted ligeramente confundido sobre la diferencia exacta
entre la teoría de cuerdas y la teoría M. Los teóricos de cuerdas también están
confundidos sobre la terminología. Por ejemplo, ¿es la teoría once-dimensional,
que contiene membranas pero no cuerdas, parte de la teoría de cuerdas? ¿Sigue
siendo teoría M la versión compactificada de la teoría M cuando se transforma
en teoría de cuerdas? Me temo que el campo ha sido bastante impreciso sobre
estas cuestiones. Mi propia terminología consiste en llamar teoría de cuerdas a
todo lo que salió de la teoría de cuerdas original. Eso incluye a todo lo que
ahora se llama teoría M. Yo utilizo el término teoría M cuando
quiero resaltar las características oncedimensionales de la teoría.
La historia de la teoría de cuerdas continúa en el capítulo 10, pero
ahora quiero darme un respiro de los aspectos técnicos difíciles de la teoría
de cuerdas y volver a una cuestión que preocupa profundamente a todo físico
serio. De hecho, preocupa a cualquiera que tenga interés en entender la
Naturaleza en su nivel más profundo.
Capítulo 9
¿Por nuestra cuenta?
La búsqueda de los principios fundamentales de la física es un asunto
muy arriesgado. Es como cualquier otra exploración en las profundidades
desconocidas. No hay garantía de éxito y hay muchas posibilidades de perderse
irremediablemente. Los físicos se han guiado siempre por los datos
experimentales, pero a este respecto las cosas son más difíciles que nunca.
Todos nosotros (los físicos) somos muy conscientes de que los experimentos
diseñados para sondear cada vez más profundo en la estructura de la materia se
están haciendo mucho más grandes, más difíciles y más costosos. La economía del
mundo entero durante cien años no sería suficiente para construir un acelerador
que pudiera penetrar en la escala de Planck, es decir, 10−33 centímetros.
Con la tecnología de aceleradores actual, necesitaríamos un acelerador que
fuera al menos del tamaño de toda la galaxia. Incluso si la tecnología futura
pudiera reducirlo a un tamaño más manejable, se seguiría necesitando un billón
de barriles de petróleo por segundo para alimentarlo.
¿Cómo podemos entonces confiar en conseguirlo? Sin pruebas
experimentales y nuevos descubrimientos que nos mantengan en el camino
correcto, ésa puede ser una empresa fútil. Por el contrario, quizá un gran
salto, tal vez relacionado con la teoría de cuerdas, nos permita ignorar las
dificultades experimentales y crear una teoría que describa tan exactamente las
leyes de la física que no haya duda de su corrección. Lo cierto es que no
sabemos si esto es posible. Lo que estamos intentando es tan atrevido que no
hay ningún precedente histórico. Algunos piensan que es quijotesco: el desvarío
de un loco. Incluso los que lo hacen dudan del éxito final. Descubrir las leyes
fundamentales de la Naturaleza que gobiernan un mundo 16 órdenes de magnitud
más pequeño que lo que cualquier microscopio verá nunca es mucho pedir. Se
necesitará no sólo inteligencia y perseverancia, sino también tremendas
cantidades de suerte.
¿Está la especie humana cerca de ser lo bastante inteligente? Quiero
decir colectiva, no individualmente. ¿Son los talentos combinados de la
humanidad suficientes para resolver el gran enigma de la existencia? ¿Está la
mente humana siquiera cableada de la manera correcta para ser capaz de entender
el universo? ¿Cuáles son las posibilidades de que los intelectos combinados y
diversos de los más grandes físicos y matemáticos del mundo sean capaces de
descubrir la teoría final solo con los experimentos absurdamente limitados que
serán posibles?
Eran estas preguntas las que yo quería explorar con mis colegas aquella
noche de 1995, en el banquete de los físicos. Siento que son también
importantes para discutir en este libro, aunque no sea por otra razón que dar
al lector una idea de las dificultades con que los físicos se encontrarán en el
siglo XXI. Para tener alguna perspectiva en ese momento me valí de un pequeño
artificio, un experimento mental. Traté de imaginar cómo podría haber
evolucionado la física si los físicos del siglo XX hubieran sido privados de
cualquier resultado experimental después del 31 de diciembre de 1899. La
mayoría de la gente le dirá que la física, o la ciencia en general, habría
quedado atascada. Quizá estén en lo cierto. Pero, de nuevo, quizá carezcan de
imaginación.
La cuestión exacta que yo quería explorar en el banquete era si buena
parte de la física del siglo XX podía haber sido descubierta por físicos
teóricos prodigiosamente inteligentes sin ninguna guía experimental nueva.
¿Podrían haber descubierto todo o la mayoría de lo que sabemos hoy? No afirmo
que hubieran tenido éxito sino sólo que habría líneas de razonamiento que les
podrían haber llevado hacia buena parte de la física de hoy. En el resto de
este capítulo, le llevaré a través de mi pensamiento.
Los dos pilares de la física del siglo XX fueron la teoría de la
relatividad y la mecánica cuántica. Ambas nacieron durante los primeros años
del siglo. Planck descubrió su constante en 1900 y Einstein interpretó el
trabajo de Planck en término de fotones en 1905. El descubrimiento de Planck no
implicaba otra cosa que las propiedades de la radiación térmica: el brillo de
la radiación electromagnética emitida por un objeto caliente. Los físicos la
llaman radiación de cuerpo negro porque sería emitida incluso
por un objeto perfectamente negro si se calentara. Por ejemplo, incluso el más
negro de los cuerpos se pondría al rojo vivo si se calentara a miles de grados.
Hacía el año 1900 los físicos no sólo estaban familiarizados con el problema de
la radiación de cuerpo negro, sino que también estaban profundamente molestos
por una aparente contradicción. La teoría matemática demostraba que la cantidad
de energía total en la radiación de cuerpo negro era infinita. La cantidad de
energía almacenada en cada longitud de onda individual era finita pero, según
la física del siglo XIX, cuando se sumaba toda, una cantidad infinita de
energía residiría en las longitudes de onda muy cortas; de aquí el
término catástrofe ultravioleta. En cierto sentido era un problema
del mismo tipo que la madre de todos los problemas de la física: demasiada
energía almacenada en longitudes de onda muy cortas. Einstein lo resolvió (el
problema de la radiación térmica) con la hipótesis radical pero muy bien
justificada de que la luz consiste en cuantos indivisibles. Ningún papel
desempeñó aquí ningún experimento del siglo XX.
El año del fotón fue también el año de la teoría de la relatividad
especial. El famoso experimento de Michelson-Morley, que no pudo detectar el
movimiento de la Tierra a través del éter, ya tenía trece años cuando acabó el
siglo [76]. De
hecho no está claro que Einstein conociera siquiera el trabajo de Michelson y
Morley. Según sus propios recuerdos, la clave principal fue la teoría de
Maxwell de la luz, que databa de los años sesenta del siglo XIX. Einstein,
maestro de los experimentos mentales, se preguntó a los dieciséis años —era el
año 1895— qué aspecto tendría un rayo luminoso para alguien que se moviese al
lado del mismo con la velocidad de la luz. Incluso a esta temprana edad se dio
cuenta de que resultaría una contradicción. Esto, y no nuevos experimentos, fue
el terreno del que brotó su gran descubrimiento.
A finales del siglo XIX los físicos habían empezado la exploración del
mundo microscópico de los electrones y la estructura de la materia. El gran
físico teórico holandés Hendrik Antoon Lorentz había postulado la existencia de
los electrones y en 1897 el físico británico J. J. Thomson los había
descubierto y estudiado sus propiedades. Wilhelm Conrad Roentgen había hecho su
espectacular descubrimiento de los rayos X en 1895. Tras el descubrimiento de
Roentgen, Antoine Henri Becquerel descubrió la radioactividad un año más tarde.
Pero algunas cosas no se conocieron hasta años después. Fue necesario
esperar hasta 1911 para que Robert Millikan determinara el valor preciso de la
carga eléctrica del electrón. Y hasta que Ernst Rutherford ideó un astuto
experimento para sondear el átomo, no se conoció la imagen de los electrones
orbitando en torno a un núcleo minúsculo, aunque algunas especulaciones en este
sentido se remontan al siglo XIX [77]. Y por
supuesto la idea moderna del átomo se remonta a John Dalton en los primeros
años del siglo XIX.
El descubrimiento por Rutherford de la estructura «planetaria» del átomo
—electrones ligeros orbitando en torno a un núcleo minúsculo y pesado— fue
clave. Condujo, en sólo dos años, a la teoría de Bohr de las órbitas
cuantizadas. Pero ¿era absolutamente necesario? Lo dudo. Recientemente quedé
sorprendido al enterarme de que el primer intento acertado de Heisenberg para
crear una nueva mecánica cuántica no tenía ninguna relación con el átomo [78].
Inicialmente aplicó su radical «mecánica de matrices» a la teoría de los
sistemas vibrantes simples, denominados osciladores armónicos. De hecho, la
teoría de Einstein-Planck se entendía como una teoría de la oscilación
(vibración) armónica del campo de radiación. Que la energía de un oscilador se
da en cuantos discretos es algo análogo a las órbitas discretas de Bohr. No
parece muy probable que el átomo de Rutherford fuera esencial para el
descubrimiento de la mecánica cuántica.
Pero todavía estaba el problema del átomo. ¿Podría haberse conjeturado
su estructura similar a un sistema solar? Aquí pienso que la clave tendría que
haber sido la espectroscopia, el estudio de las mismas líneas espectrales que
utilizó Hubble para determinar la velocidad de las galaxias. Había una enorme
cantidad de datos espectroscópicos del siglo XIX. Los detalles del espectro del
hidrógeno eran bien conocidos. Por otra parte, la idea de que el átomo consiste
en electrones y un objeto con carga eléctrica positiva ya llevaba en el aire
algunos años para cuando corría 1900. Recientemente supe por un amigo japonés
que la primera especulación sobre un átomo planetario (electrones en órbita en
torno a un núcleo) se debió a un físico japonés, Hantaro Nagaoka. Hay incluso
un sello de correos japonés con una imagen de Nagaoka y su átomo.
El artículo de Nagaoka, disponible en internet, data de 1903, ocho años
antes del experimento de Rutherford. Si la idea hubiera llegado unos años más
tarde, cuando se sabía más sobre la teoría cuántica, la historia podría haber
sido diferente. Dada la riqueza de datos espectroscopios, el comportamiento
cuántico de los osciladores y la idea de Nagaoka, ¿habría tenido un joven y
brillante Heisenberg o Dirac el necesario «momento eureka»? «¡Ah, lo encontré!
La carga positiva está en el centro, y el electrón órbita a su alrededor en
órbitas cuantizadas». Quizá el propio Bohr lo habría hecho. Los físicos han
dado saltos mucho mayores que eso: lo atestigua la teoría de la relatividad
general o, para el caso, el descubrimiento de la teoría de cuerdas a partir de la
espectroscopia de hadrones.
¿Y que pasa con la teoría de la relatividad general? ¿Podría haber sido
conjeturada sin un experimento del siglo XX? Por supuesto. Todo lo que se
necesitaba era el experimento mental de Einstein que le llevó al principio de
equivalencia. Reconciliar el principio de equivalencia con la relatividad
especial fue el camino que tomó Einstein.
Ningún físico teórico serio actual se contenta con dos teorías
aparentemente incompatibles. Me refiero, por supuesto, a la mecánica cuántica y
la teoría de la relatividad general. A finales de los años veinte existía un
problema muy similar: cómo reconciliar la mecánica cuántica con la relatividad
especial. Físicos del calibre de Dirac, Pauli y Heisenberg no iban a descansar,
y no lo hicieron, hasta que vieron la teoría de la relatividad especial
reconciliada con la mecánica cuántica. Esto implicaría una teoría cuántica
relativista del electrón en interacción con el campo electromagnético. En
realidad, aquí no tengo que especular. El motivo para el desarrollo inicial de
la electrodinámica cuántica no fue otro que el deseo de Dirac de una síntesis
de mecánica cuántica y relatividad especial. Pero ¿habría sabido él que su
ecuación de Dirac era correcta?
Aquí hace Pauli su espectacular entrada con el principio de exclusión.
Lo que motivaba a Pauli era la química: la tabla periódica y cómo se construía
colocando electrones sucesivamente en órbitas atómicas. Para entender cómo los
electrones llenan las órbitas atómicas e impiden que otros electrones vayan a
órbitas ya llenas, Pauli tuvo que invocar una nueva propiedad de los
electrones, su denominado espín. ¿Y de dónde procedía la idea del espín? No de
nuevos experimentos del siglo XX sino más bien de la espectroscopia y la
química del siglo XIX. La adición del nuevo grado de libertad de espín
significaba que Pauli podía colocar dos electrones en cada órbita,
uno con su espín apuntando hacia arriba y otro apuntando hacia abajo. Así, en
el helio dos electrones llenan la órbita más baja de Bohr. Ésta fue la clave
para la tabla periódica de Mendeleev. La idea de Pauli fue una conjetura basada
en la química del siglo XIX, pero la teoría relativista del electrón de Dirac
explicaba de forma precisa esta nueva y misteriosa propiedad del espín.
Pero la teoría de Dirac tenía un grave problema. En el mundo real la
energía asociada con cada partícula es una cantidad positiva. Al principio la
teoría de Dirac parecía inconsistente: tenía electrones que llevaban energía
negativa. Partículas con energía negativa es una mala señal. Recordemos que en
un átomo los electrones de energía más alta terminan por «caer» a órbitas de
energía más baja emitiendo fotones. Los electrones buscan la órbita de más baja
energía que no esté bloqueada por el principio de exclusión de Pauli. Pero ¿qué
pasa si un número infinito de órbitas de energía negativa estuviera disponible
para los electrones? ¿No empezarían todos los electrones del mundo a caer en
cascada a órbitas de energía cada vez más negativa cediendo enormes cantidades
de energía en forma de fotones? De hecho lo harían. Esta característica
potencialmente dañina de la idea de Dirac amenazaba con socavar toda su
teoría…, a menos que algo pudiera impedir que los electrones ocupasen los
estados de energía negativa. De nuevo Pauli acude en ayuda. El principio de
exclusión de Pauli iba a salvar a Dirac del desastre. Supongamos simplemente
que lo que normalmente llamamos vacío es en realidad un estado lleno de
electrones de energía negativa, uno en cada órbita de energía negativa. ¿Cómo
se vería el mundo? Bien, podríamos seguir poniendo electrones en las órbitas de
energía positiva normales, pero ahora cuando un electrón llega a la órbita de
energía positiva más baja, está bloqueado para ir más allá. Para cualquier fin
práctico, las órbitas de energía negativas podrían perfectamente no existir,
puesto que un electrón tiene efectivamente prohibido caer a estas órbitas por
la presencia del denominado mar de Dirac de electrones de energía negativa.
Dirac declaró el problema resuelto, y así lo estaba.
La idea llevó pronto a algo nuevo y totalmente inesperado. En un átomo
ordinario un electrón puede absorber la energía de fotones vecinos y ser
«empujado» a una configuración más energética [79]. Dirac
demostró ahora su auténtico brillo. Argumentó que lo mismo podía suceder con
los electrones de energía negativa que llenan el vacío; los fotones podían
empujar a los electrones de energía negativa a estados de energía positiva. Lo
que quedaría sería un electrón con energía positiva y un electrón de energía
negativa ausente: un agujero en el mar de Dirac. Siendo un electrón ausente, el
agujero parecería tener la carga eléctrica opuesta del electrón y parecería una
partícula de carga positiva. Ésta era entonces la predicción de Dirac: deberían
existir partículas idénticas a los electrones, excepto con carga eléctrica
opuesta. Estos positrones, que Feynman interpretaría más tarde como electrones
que van hacia atrás en el tiempo, fueron representados por Dirac como agujeros
en el vacío. Además, deberían ser creados junto con electrones ordinarios
cuando colisionasen fotones con energía suficiente.
La predicción de Dirac de la antimateria fue uno de los grandes momentos
en la historia de la física. No sólo llevó al posterior descubrimiento
experimental de los positrones, sino que anunció la nueva disciplina de la
teoría cuántica de campos. Fue el precursor del descubrimiento por Feynman de
los diagramas de Feynman y más tarde llevó al descubrimiento del modelo
estándar. Pero no nos apartemos de la historia.
Dirac no estaba pensando en ningún experimento cuando descubrió su
extraordinaria ecuación para la mecánica cuántica relativista de los
electrones. Estaba pensando en cómo podían hacerse matemáticamente compatibles
la ecuación de Schrödinger no relativista y la teoría de la relatividad
especial de Einstein. Una vez que tenía la ecuación de Dirac, el camino estaba
abierto para toda la electrodinámica cuántica. Los teóricos que estudiaban la
QED habrían encontrado con seguridad las inconsistencias que fueron aliviadas
por la teoría de renormalización [80]. No
había ningún obstáculo para el descubrimiento de la moderna teoría cuántica de
campos. Y los físicos no dejarían de sentirse intrigados por la enorme energía
del vacío y por qué no gravitaba. Podríamos preguntar sí los teóricos habrían
estado dispuestos a hacerlo sin confirmación experimental de sus ideas.
Podríamos preguntar si los jóvenes querrían seguir una empresa tan puramente
teórica. Pero no creo que podamos cuestionar la posibilidad de que la física
progresara hasta este punto. Además, los treinta y cinco años de historia de
teoría de cuerdas sugieren que mientras alguien les pagase los físicos teóricos
seguirían empujando las fronteras matemáticas hasta el fin de los tiempos.
¿Qué hay sobre el núcleo, el «Sol» positivamente cargado en el centro
del minúsculo sistema solar atómico? ¿Cómo podrían haberse deducido el protón y
el neutrón? El protón no habría sido demasiado difícil. Dalton había dado el
primer paso en 1808. La masa de cualquier átomo es un múltiplo entero de cierto
valor numérico. Eso sugiere ciertamente una colección discreta de
constituyentes básicos en el núcleo. Además, puesto que la carga eléctrica de
un núcleo es en general más pequeña que el número atómico, no todos los
constituyentes pueden tener la misma carga. La posibilidad más simple con mucho
habría sido un único tipo de partícula cargada positivamente y una única
partícula neutra con prácticamente la misma masa. Los teóricos astutos habrían
imaginado esto enseguida.
¿O no? Una cosa podría haberles despistado, no sé por cuanto tiempo.
Había una posibilidad aún más simple que el neutrón: una posibilidad que no
requería ninguna partícula nueva. El núcleo podía entenderse como varios
protones adheridos a un número más pequeño de electrones. Por ejemplo, un
núcleo de carbono con seis protones y seis neutrones podría haber sido
confundido con seis electrones adheridos a doce protones. De hecho, la masa de
un neutrón está próxima a la masa combinada de un protón y un electrón. Por
supuesto tendría que introducirse un nuevo tipo de fuerza pues la fuerza
electrostática ordinaria entre electrón y protón no habría sido suficientemente
fuerte para ligar los electrones extra a los protones, y con una nueva fuerza,
una nueva partícula mensajera. Quizá al final habrían decidido que el electrón
no era una idea tan mala.
Mientras tanto, Einstein había desarrollado su teoría de la gravedad y
los físicos curiosos estaban explorando sus ecuaciones. Tampoco aquí
necesitamos conjeturar. Karl Schwarzschild, antes incluso de que Einstein
hubiera completado su teoría, encontró la solución de las ecuaciones de
Einstein que ahora llamamos el agujero negro de Schwarzschild. El propio
Einstein dedujo la existencia de ondas gravitatorias, lo que con el tiempo
llevó a la idea del gravitón. Eso no requirió ningún experimento u observación.
Las consecuencias de la teoría de la relatividad general fueron desarrolladas
sin apelar a ninguna prueba empírica de que la teoría era correcta. Incluso la
moderna teoría de los agujeros negros, que encontraremos en el capítulo 12 de
este libro, sólo implicaba la solución de Schwarzschild combinada con ideas
primitivas de la teoría cuántica de campos.
¿Podrían haber conjeturado los teóricos la estructura completa del
modelo estándar? Protones y neutrones, quizá, pero ¿quarks, neutrinos, muones y
todo lo demás? No veo ninguna forma de que estas cosas pudieran haberse
conjeturado. Pero ¿y los fundamentos teóricos subyacentes, la teoría de
Yang—Mills? Aquí pienso que estoy en suelo muy firme. El experimento se ha
hecho y existen los datos. En 1953, sin ninguna otra motivación que generalizar
la teoría de Kaluza de una dimensión extra, uno de los más grandes físicos
teóricos de la historia inventó la teoría matemática que hoy se llama teoría
gauge no abeliana. Recordemos que Kaluza había añadido una dimensión extra a
las tres dimensiones del espacio y, al hacerlo, dio una descripción unificada
de la gravedad y la electrodinámica. Lo que Pauli hizo fue añadir una dimensión
más hasta un total de 5 + 1. Él enrolló las dos dimensiones extra en una
minúscula 2-esfera. ¿Y qué encontró? Encontró que las dos dimensiones extra
daban lugar a un nuevo tipo de teoría, similar a la electrodinámica pero con un
nuevo matiz. En lugar de un único fotón, la lista de partículas tenía ahora
tres partículas tipo fotón. Y, curiosamente, cada fotón llevaba carga; podía
emitir uno cualquiera de los otros dos. Ésta fue la primera construcción de una
teoría gauge no abeliana o de Yang-Mills [81]. Hoy
reconocemos la teoría gauge no abeliana como la base de todo el modelo
estándar. Gluones, fotones, partículas Z y partículas W son simples
generalizaciones de las tres partículas tipo fotón de Pauli.
Como he dicho, hubo poca o ninguna oportunidad de que los teóricos
hubieran sido capaces de deducir el modelo estándar con sus quarks, neutrinos,
muones y bosones de Higgs. E incluso si la hubiera habido, probablemente habría
sido una entre docenas de ideas. Pero creo que hay una posibilidad de que
pudieran haber encontrado los ingredientes teóricos básicos.
¿Podrían haber descubierto la teoría de cuerdas? El descubrimiento de la
teoría de cuerdas es un buen ejemplo de cómo suelen trabajar las mentes sagaces
de los teóricos. Una vez más sin ninguna base experimental, los teóricos de
cuerdas construyeron un edificio matemático monumental. El desarrollo histórico
de la teoría de cuerdas fue algo accidental. Pero fácilmente podría haber
aparecido a través de otro tipo de accidentes. Objetos de tipo cuerda
desempeñan un papel importante en teorías gauge no abelianas. Otra posibilidad
plausible es que pudiera haberse desarrollado a través de la hidrodinámica, la
teoría del flujo de los fluidos. Pensemos en los vórtices arremolinados que se
forman cuando se vacía el agua por el sumidero. El centro real del vórtice forma
un largo núcleo unidimensional que en muchos aspectos se comporta como una
cuerda. Tales vórtices pueden formarse en el aire: los tornados son un ejemplo.
Las volutas de humo proporcionan un ejemplo más interesante, lazos de vórtice
que se parecen a cuerdas cerradas. ¿Podrían haber inventado la teoría de
cuerdas los expertos en dinámica de fluidos que intentaran construir una teoría
de vórtices idealizada? Nunca lo sabremos, pero no parece imposible. Y si los
teóricos de fluidos hubieran encontrado cuerdas cerradas que se comportaban
como gravitones, ¿podrían haberlo captado los físicos que trataban de explorar
la teoría cuántica de la gravedad? Yo creo que lo habrían hecho.
Por el contrario, un escéptico podría argumentar razonablemente que por
cada buena idea se habrían seguido cien direcciones irrelevantes y mal
encaminadas. Sin ningún experimento para guiar y disciplinar a los teóricos,
éstos se habrían lanzado en todas las direcciones imaginables, con el
consiguiente caos intelectual. ¿Cómo se distinguirían las buenas ideas de las
malas? Tener todas las ideas posibles es tan malo como no tener ideas.
Los escépticos tienen un buen argumento; quizá estén en lo cierto. Pero
también es posible que las buenas ideas tengan un valor de supervivencia
darwiniano que las malas ideas no tienen. Las buenas ideas tienden a generar
más buenas ideas; las malas tienden a no llevar a ninguna parte. Y la
consistencia matemática es un criterio irrenunciable. Quizá habría
proporcionado algo de la disciplina que de lo contrario tiene que venir del
experimento.
En un siglo sin experimentos, ¿habría avanzado la física de la manera
que he sugerido? ¿Quién sabe? No digo que lo hubiera hecho, sólo que podría
haberlo hecho. Cuando se trata de calibrar los límites del ingenio humano,
estoy seguro de que es mucho más probable subestimar dónde están los límites
que sobreestimarlos.
Mirando atrás me doy cuenta de que en 1995 pequé de una falta de
imaginación muy seria al hablar sólo del ingenio de los teóricos. Tratando de
consolarme a mí mismo y a los demás físicos presentes en el banquete por las
pobres perspectivas de futuros datos experimentales, subestimé tristemente el
ingenio, la imaginación y la creatividad de los físicos experimentales. Desde
entonces, ellos han avanzado hasta generar la explosión revolucionaria de datos
cosmológicos que he descrito en el capítulo 5. En el último capítulo de este
libro discutiré otros experimentos excitantes que tendrán lugar en el próximo
futuro, pero por ahora volvamos a la teoría de cuerdas y a cómo ella genera un
enorme paisaje de posibilidades.
Capítulo 10
Las branas tras la máquina máxima de Rube Goldberg
Contenido:
§. D-branas
§. Branas de cualquier dimensión
§. Branas y compactificación
§. Flujos
§. Singularidades «conifold»
§. El discretuum de Bousso y Polchinski
Llegamos ahora al corazón de la materia. El aparente diseño irrazonable
del universo y la apelación a alguna forma de principio antrópico es cosa
vieja. Lo realmente nuevo, el terremoto que ha causado enorme consternación y
controversia entre los físicos teóricos, y la razón por la que escribo este
libro, es el reconocimiento de que el paisaje de la teoría de cuerdas tiene un
número inconcebible de valles diversos. Las teorías anteriores como la QED (la
teoría de fotones y electrones) y la QCD (la teoría de quarks y gluones), que
habían dominado a lo largo del siglo XX, tenían paisajes muy aburridos. El
modelo estándar, aun siendo complicado, tiene solo un único vacío. No hay que
hacer ninguna elección, ni siquiera puede hacerse, respecto al vacío en que vivimos
realmente.
La razón para la escasez de vacíos en las antiguas teorías no es difícil
de entender. No es que las teorías cuánticas de campos con ricos paisajes sean
matemáticamente imposibles. Añadiendo al modelo estándar algunos centenares de
campos no observados similares al campo de Higgs, puede generarse un enorme
paisaje. La razón de que el vacío del modelo estándar sea único no tiene nada
que ver con una extraordinaria elegancia matemática del tipo que expliqué en el
capítulo 4. Tiene mucho más que ver con el hecho de que fue construido con el
objetivo concreto de describir algunos hechos limitados sobre nuestro mundo.
Las antiguas teorías fueron construidas por partes, a partir de datos
experimentales, con el objetivo concreto de describir (no explicar) nuestro propio
vacío. Estas teorías hacen admirablemente el trabajo para el que fueron
diseñadas, pero no más. Con este objetivo limitado en mente, los teóricos no
tenían ninguna razón para añadir montones de estructura adicional sólo para
hacer un paisaje. De hecho, la mayoría de los físicos a lo largo del siglo XX
(con la excepción de visionarios previsores como Andrei Linde y Alex Vilenkin)
hubieran considerado que un paisaje diverso era una lacra antes que una
ventaja.
Hasta muy recientemente los teóricos de cuerdas estaban cegados por este
viejo paradigma de una teoría con un único vacío. Pese al hecho de que podrían
utilizarse al menos un millón de variedades de Calabi Yau diferentes para
compactificar (enrollar y ocultar) las dimensiones extra implicadas por la
teoría de cuerdas, los líderes del campo seguían confiando en que se
descubriría un principio matemático que eliminaría todas las posibilidades
salvo una. Pero, a pesar de todo el esfuerzo que se dedicó a la búsqueda de tal
principio de selección de vacío, no salió nada. Dicen que «la esperanza es lo
último que se pierde». Pero ahora la mayoría de los teóricos de cuerdas se han
dado cuenta de que, aunque la teoría puede ser correcta, sus aspiraciones eran
incorrectas. La propia teoría está pidiendo que se la vea como una teoría de
diversidad, no de unicidad.
¿Qué hay en la teoría de cuerdas que hace su paisaje tan rico y diverso?
La respuesta incluye la enorme diversidad de geometrías minúsculas y enrolladas
que ocultan las seis o siete dimensiones espaciales extra. Pero antes de que
lleguemos a esta complejidad, quiero exponer un ejemplo mucho más simple y
familiar de similar complejidad. De hecho, este ejemplo fue la inspiración
original para el término paisaje.
El término paisaje no tuvo su origen en los teóricos de
cuerdas o los cosmólogos. Cuando yo lo utilicé por primera vez en 1993 para
describir el gran número de vacíos de teoría de cuerdas, lo estaba tomando
prestado de un campo de la ciencia mucho más viejo: la física y la química de
las moléculas grandes. Las configuraciones posibles de una molécula grande,
hecha de centenares de miles de átomos, han sido descritas hace tiempo como
paisajes o, a veces, paisajes de energía. El paisaje de la teoría de cuerdas
tiene mucho menos en común con los paisajes empobrecidos de la teoría cuántica
de campos que con el «espacio de configuración» de las moléculas grandes.
Sigamos este punto antes de volver a la exploración de la teoría de cuerdas.
Empecemos con un único átomo. Se necesitan tres números para especificar
la posición de un átomo: las coordenadas del átomo a lo largo de los ejesx, y y z.
Si a usted no le gusta x, y y z puede
utilizar en su lugar longitud, latitud y altitud. Así, las configuraciones
posibles de un único átomo son los puntos del espacio tridimensional corriente.
El siguiente sistema más simple hecho de átomos es una molécula
diatómica: una molécula compuesta de dos átomos. Especificar la posición de dos
átomos requiere seis coordenadas: tres para cada átomo. Sería natural llamar a
las seis coordenadas x1, y1, z1 y x2, y2, z2,
donde los subíndices 1 y 2 se refieren a los dos átomos. Estos seis números
describen dos puntos del espacio tridimensional, pero también podemos combinar
las seis coordenadas para formar un espacio hexadimensional abstracto. Este
espacio hexadimensional es el paisaje que describe a una molécula diatómica.
Saltemos ahora a una molécula compuesta de mil átomos. Para la química
inorgánica está sería una molécula muy grande, pero para una biomolécula
orgánica es bastante normal. ¿Cómo describimos todas las maneras en que pueden
disponerse los mil átomos? Esta pregunta no es enteramente académica: los
bioquímicos y biofísicos que quieren entender cómo se pliegan y despliegan las
moléculas de proteína piensan en términos de un paisaje molecular.
Evidentemente, para especificar la configuración de los mil átomos
necesitamos dar tres mil números, que pueden considerarse las coordenadas de un
paisaje trimilidimensional: un paisaje de «diseños» moleculares posibles.
La colección de átomos tiene una energía potencial que varía cuando se
mueven los átomos. Por ejemplo, en el caso de la molécula diatómica, si los dos
átomos están apretados uno contra otro, la energía potencial se hace grande. Si
los átomos se alejan, llegarán eventualmente a un punto de mínima energía. Por
supuesto, es mucho más difícil de visualizar la energía de un millar de átomos,
pero en principio es lo mismo: la energía potencial de la molécula varía cuando
nos movemos a lo largo del paisaje. Si, como en el capítulo 3, pensamos en la
energía potencial como altitud, el paisaje tendrá una rica topografía con
montañas, valles, cordilleras y llanuras. No debería sorprender que las
configuraciones estables de las moléculas correspondan a los fondos de los
valles.
Lo llamativo es que el número de estos valles es enorme: crece
exponencialmente con el número de átomos. En el caso de una molécula grande, el
número de valles separados está por encima de los millones o miles de millones.
El paisaje de una molécula con mil átomos puede tener fácilmente 10100 valles.
¿Qué tiene que ver todo esto con el paisaje de vacíos y la teoría de cuerdas?
La respuesta es que, como ocurre con una molécula, una compactificación de
teoría de cuerdas tiene muchas «piezas móviles». Ya hemos encontrado algunas de
estas piezas. Los moduli de compactificación eran las cantidades que determinan
los tamaños y formas de las diversas características geométricas de las
variedades de Calabi Yau. En este capítulo vamos a explorar algunas piezas móviles
adicionales y ver por qué el paisaje es tan complejo y extraordinariamente
rico.
§. D-branas
En el capítulo 8 he descrito cómo la idea de Ed Witten en 1995 combinaba
la variedad de teorías de cuerdas en una gran teoría M(aestra). Pero dicha
teoría tenía un serio problema: necesitaba nuevos objetos, objetos que la
teoría de cuerdas no había predicho con anterioridad. La teoría tendría que
hacer algo parecido a esto: cada una de las teorías de cuerdas debe contener
objetos previamente insospechados ocultos profundamente en sus matemáticas. Las
cuerdas fundamentales de una versión no eran los mismos objetos que las cuerdas
fundamentales en otra versión. Pero cuando los moduli variaban —cuando uno se
movía a lo largo del paisaje— los nuevos objetos de la versión A se
metamorfoseaban en los viejos objetos de la versión B. Un ejemplo que ya hemos
visto es cómo las membranas de la teoría M se metamorfosean en las cuerdas de
la teoría tipo IIa. Las ideas de Witten eran atractivas —incluso convincentes—
pero la naturaleza de los nuevos objetos y su lugar matemático en la teoría
eran un completo misterio. Mejor dicho, lo eran hasta que Joe Polchinski
descubrió sus branas.
Joe Polchinski tiene el buen porte y el alegre carácter del «muchacho
cercano». Hablando de la comida, Joe Polchinski dijo una vez, «Sólo hay dos
tipos de comida: el tipo en el que pones chocolate y el tipo en el que
pones ketchup». Pero el exterior juvenil oculta una de las mentes
más profundas y poderosas para atacar los problemas de la física en el último
medio siglo. Incluso antes de que Witten introdujera su teoría M, Joe había
estado experimentando con una idea nueva en teoría de cuerdas. Un poco como
juego matemático, él postuló que podría haber lugares en el espacio donde
podrían terminar las cuerdas. Imaginemos a un niño que mantiene el extremo de
una comba y la agita para hacer ondas. Las ondas viajan hasta el extremo lejano
de la comba, pero lo que sucede a continuación depende de si el extremo lejano
esta libre para moverse o está anclado a algo. Antes de Polchinski, las cuerdas
abiertas siempre tenían extremos libres —la opción blanda— pero la nueva idea
de Joe era que podía haber anclas en el espacio que impedían moverse a los
extremos de la cuerda. El ancla podía ser un punto simple en el espacio: sería
más o menos como una mano que impide férreamente el movimiento del extremo.
Pero hay otras posibilidades. Supongamos que el final de la cuerda estuviera
atado a un anillo que puede deslizar arriba y abajo por un eje. El extremo
estaría parcialmente fijo pero parcialmente libre para moverse. Aunque atado al
eje, el extremo estaría libre para deslizar a lo largo de una línea: el propio
eje. Lo que pueden hacer las combas unidas a ejes, lo pueden hacer las cuerdas,
o así razonó Polchinski. ¿Por qué no tener líneas especiales en el espacio a
las que podrían estar atados los extremos de las cuerdas? Como en el caso de la
comba y el eje, el extremo de la cuerda estaría libre para deslizar a lo largo
de la línea. La línea podría incluso estar curvada. Pero puntos y líneas no
agotan las posibilidades. El extremo de la cuerda podría estar unido a una
superficie, una especie de membrana. Libre para deslizar en cualquier dirección
a lo largo de la superficie, el extremo de la cuerda no podría escapar de la
membrana.
Estos puntos, líneas y superficies donde podrían terminar las cuerdas
necesitaban un nombre. Joe las llamó Dirichlet-branas o simplemente D-branas.
Peter Dirichlet fue un matemático alemán del siglo XIX que no tuvo nada que ver
con la teoría de cuerdas. Pero ciento cincuenta años antes había estudiado las
matemáticas de las ondas y cómo se reflejaban en objetos fijos. Con todo
derecho los nuevos objetos deberían llamarse Polchinski-branas, pero el término
P-branas ya era usado por los teóricos de cuerdas para otro tipo de objeto.
Joe es un buen amigo mío. Durante veinticinco años habíamos trabajado
juntos en varios proyectos de física. La primera vez que oí hablar de D-branas
fue tomando café en el bar Café y Expresso Intergaláctico de Quackenbush en
Austin, Texas. Creo que era en 1994. La idea parecía divertida pero no
revolucionaria. No fui el único en subestimar su importancia. En esa época las
D-branas no ocupaban lugares preferentes en la agenda de nadie, quizá ni
siquiera en la agenda de Joe. Solo poco después de la conferencia de Witten de
1995 las D-branas irrumpieron en la conciencia de los físicos teóricos.
¿Cuál es la relación con la conferencia de Witten? Unos meses después,
en noviembre, Joe escribió un artículo que ha tenido tremendas repercusiones en
todas las áreas de la física teórica. Los nuevos objetos que necesitaba Witten
eran exactamente las D-branas de Joe. Armados con las D-branas, los físicos
podían ahora completar el proyecto de Witten de reemplazar varias teorías
aparentemente diferentes por una única teoría con muchas soluciones.
§. Branas de cualquier dimensión
¿Qué hay de especial en las cuerdas? ¿Qué hay en los
filamentos unidimensionales de energía para que los teóricos estén tan seguros
de que son los bloques constituyentes de toda la materia? Cuanto más sabemos de
la teoría, más seguros vamos estando que no hay nada muy especial en ellas. En
los capítulos anteriores hemos encontrado la mágica misteriosa y asombrosa
teoría M oncedimensional. Esa teoría no tiene cuerdas en absoluto. Tiene
membranas y gravitones, pero no cuerdas. Como vimos, las cuerdas aparecen sólo
cuando compactifícamos la teoría M, e incluso entonces las cuerdas son tan sólo
límites de membranas tipo cinta que sólo se hacen verdaderamente parecidas a
cuerdas cuando la dimensión compacta se contrae hasta un tamaño prácticamente
nulo. En otras palabras, la teoría de cuerdas es una teoría de cuerdas
únicamente en ciertas regiones límite del paisaje.
En un mundo con tres dimensiones espaciales hay tres tipos de objetos
que los teóricos de cuerdas llaman branas. El más simple es una partícula
puntual. Puesto que un punto no tiene extensión en ninguna dimensión, es
habitual considerar el punto como un espacio cerodimensional. La
vida en un punto sería muy aburrida: no hay direcciones que explorar. Los
teóricos de cuerdas llaman a las partículas puntuales 0-branas, donde el 0
representa la dimensionalidad de la partícula. En el lenguaje de la teoría de
cuerdas, una 0-brana, en la que las cuerdas pueden terminar, se denomina una
D0-brana.
Después de las 0-branas vienen las 1-branas o cuerdas. Una cuerda
tiene extensión en solo una dirección. Vivir en una cuerda
sigue siendo muy limitado, pero al menos uno tendría una dimensión en la que
moverse. Hay dos tipos de 1-branas en teoría de cuerdas: las cuerdas originales
y las D1-cuerdas (los objetos unidimensionales en donde pueden terminar las
cuerdas ordinarias).
Finalmente hay 2-branas, o membranas, hojas de materia flexibles. La
vida es infinitamente más variada en una 2-brana, pero aún no tan interesante
como en el espacio tridimensional. De hecho, podíamos llamar a nuestro mundo
tridimensional una 3-brana pero, a diferencia de las 0, 1 y 2-branas, no
podemos mover la 3-brana en el espacio. Es espacio. Pero supongamos que
viviéramos en un mundo con cuatro dimensiones espaciales. La dirección extra
del espacio daría a una 3-brana libertad para moverse. En un mundo con cuatro
dimensiones, es posible tener 0, 1, 2 y 3-branas.
¿Qué pasa en el mundo 9+1 dimensional de la teoría de cuerdas? Es
posible que las branas pudieran existir en todo el recorrido desde las 0-branas
a las 8-branas. Esto no significa en sí mismo que una teoría dada tenga
realmente tales objetos; eso depende de los constituyentes básicos de la
materia y de cómo pueden ensamblarse. Pero sí significa que hay dimensiones
suficientes para contener tales branas. Las diez direcciones espaciales de la
teoría M son suficientes para contener un tipo más de brana: la 9-brana.
El hecho de que diez tipos diferentes de branas pueden encajar en las
diez dimensiones del espacio no significa que la teoría M tenga realmente a
todas ellas como objetos posibles. De hecho, la teoría M no lo hace. Es una
teoría de gravitones, membranas y 5-branas. No existen otras branas. Explicar
por qué nos llevaría muy lejos en las matemáticas abstractas de la relatividad
general supersimétrica, pero no necesitamos llegar a ello: basta con saber que
la supergravedad oncedimensional (es decir, 10+1 dimensional) es una teoría de
membranas y 5-branas que interaccionan gravitatoriamente lanzando gravitones de
un lado a otro.
Cada una de las teorías de cuerdas decadimensionales tiene una variedad
de D-branas. Una versión —la teoría de cuerdas Tipo IIa— tiene membranas de
dimensión par: D0, D2, D4, D6 y D8. La teoría tipo IIb tiene branas de
dimensión impar: D1, D3, D5, D7 y D9.
Igual que se podría atar más de una comba al mismo eje, cualquier número
de cuerdas puede terminar en una D-brana. De hecho, una única cuerda puede
tener sus dos extremos atados a la misma D-brana de la misma forma que los dos
extremos de una comba podrían estar atados al mismo eje. Estos segmentos de
cuerda estarían libres para moverse a lo largo de la brana, pero no podrían
abandonarla. Son criaturas confinadas a vivir su vida en la D-brana.
Lo que hace tan interesantes a estos pequeños segmentos de cuerda es que
se comportan igual que partículas elementales. Tomemos, por ejemplo, D3-branas.
Las cuerdas cortas, con ambos extremos atados a la brana, son libres de moverse
a lo largo del volumen tridimensional de la D3-brana. Pueden juntarse, unirse
para formar un único segmento, vibrar y desconectarse. Se mueven e
interaccionan igual que las partículas para cuya explicación fue ideada
originalmente la teoría de cuerdas. Pero ahora viven en una brana.
La D-brana es un modelo de un mundo con partículas elementales que se
comportan de forma muy parecida a las partículas elementales reales. La única
cosa que falta en la D-brana es la gravedad. Ello se debe a que el gravitón es
una cuerda cerrada, una cuerda sin extremos. Una cuerda sin extremos no estaría
pegada a la brana.
¿Podría el mundo real de electrones, fotones y todas las demás
partículas elementales (con la excepción del gravitón) —así como átomos,
moléculas, personas, estrellas y galaxias— tener lugar en una brana? Para la
mayoría de los teóricos que trabajan en estos problemas, esto parece la
posibilidad más probable.
§. Branas y compactificación
Con branas pueden hacerse todo tipo de cosas. Tomemos una D2-brana —una
membrana— y curvémosla para formar una 2-esfera. Habremos hecho un globo. El
problema es que la tensión de la membrana hace que desaparezca rápidamente,
como un globo pinchado. Podríamos dar a la D2-brana la forma de un toro, pero
también éste colapsaría.
Pero imaginemos ahora una brana que se extiende de un extremo a otro del
universo. El ejemplo más simple de visualizar es una D1-brana infinita
extendida a través de todo el universo como un cable infinito. Una D-brana
infinita no tiene manera de contraerse y desaparecer. Podemos imaginar que dos
gigantes cósmicos mantienen fijos sus extremos, pero puesto que la D-brana es
infinita, los gigantes están infinitamente alejados.
No hay por qué detenerse en D1-branas: una hoja infinita extendida a
través del universo también es estable. Esta vez necesitaríamos muchos gigantes
para mantener fijos los bordes pero, de nuevo, estarían infinitamente alejados.
La membrana infinita sería un mundo con partículas elementales que podría
parecerse a una versión «planilandesa» de nuestro propio universo. Quizá usted
piense que las criaturas de la membrana no tendrían ninguna forma de saber que
existen más dimensiones, pero eso no es completamente cierto. Las dimensiones
serían delatadas por las propiedades de la fuerza gravitatoria. Recordemos que
la gravedad es debida a gravitones que saltan entre los objetos. Pero los
gravitones son cuerdas cerradas sin extremos. No tienen ninguna razón para
adherirse a la brana. En su lugar, viajan libremente por todo el espacio.
Pueden seguir siendo intercambiados entre objetos en la brana pero solamente si
viajan a través de las dimensiones extra y luego vuelven a la brana. La
gravedad sería como un «mensaje» de ciencia-ficción que dice a las criaturas
planilandesas que hay más dimensiones y que ellas están prisioneras en una
superficie bidimensional.
Las dimensiones «inobservadas» de la gravedad serían de hecho fáciles de
detectar. Cuando los objetos colisionan, pueden radiar gravitones, igual que
los electrones radian fotones cuando colisionan. Pero normalmente los
gravitones radiados escaparán al espacio y nunca volverán a la brana. De este
modo se perdería la energía de la brana. Las criaturas planilandesas
descubrirían que la energía no se convierte en calor, energía potencial o
energía química; simplemente desaparece.
Imaginemos ahora que el espacio tiene más dimensiones que las tres
usuales. D3-branas infinitas podrían extenderse a través del espacio de la
misma manera, y en una 3-brana podrían existir todas las cosas habituales de
nuestro mundo, excepto que la gravedad sería errónea. La ley de la fuerza
gravitatoria reflejaría el hecho de que el gravitón se mueve a través de más
dimensiones. La gravedad estaría «diluida» por dispersarse en las dimensiones
extra. El resultado sería calamitoso. La gravedad sería mucho más débil, y
galaxias, estrellas y planetas estarían pobremente unidos. De hecho, la
gravedad sería demasiado débil para mantenernos en la Tierra incluso si la
Tierra se mantuviera unida de algún modo.
Tomemos las dimensiones extra —las que nosotros no podemos explorar pero
sí puede hacerlo el gravitón— y enrollémoslas en un espacio compacto
microscópicamente pequeño. Las tres dimensiones de la experiencia ordinaria
forman una habitación infinita, pero las otras direcciones tienen paredes,
techos y suelos. Los puntos en paredes opuestas o en el techo y el suelo están
emparejados como describí en el capítulo 8.
Para ayudar a la visualización, volvamos al ejemplo en el que
compactificábamos el espacio tridimensional enrollando una dirección. Empezando
con una habitación infinita, cada punto del techo se identificaba con el punto
del suelo que tiene directamente debajo. Pero ahora el suelo tiene una alfombra
que se extiende hasta el infinito en infinitas direcciones. La alfombra es una
D-brana. Imaginemos que la alfombra-brana se mueve lentamente en La dirección
vertical. Se eleva lentamente desde el suelo como una alfombra mágica en
las Las mil y una noches. Sigue levitando y ascendiendo hasta que
toca el techo. Y abracadabra, ¡zap! La alfombra reaparece instantáneamente en
el suelo.
El gravitón sigue sin estar unido a la alfombra-brana, pero ahora no
puede ir muy lejos. Hay muy poco espacio para moverse en la dimensión extra. Y
si la dimensión extra es microscópicamente pequeña, entonces es difícil decir
si el gravitón está fuera de la brana. Resultado: la gravedad es casi
exactamente la que sería si, como todo lo demás, el gravitón se moviera en la
brana. Y, por supuesto, no hay nada nuevo si reemplazamos la membrana por una
D3-brana en un espacio de dimensión más alta. Una D3-brana en el espacio
nonodimensional de la teoría de cuerdas sería muy similar a nuestro mundo si
las dimensiones extra estuvieran apretadamente enrolladas.
La mayoría de los teóricos de cuerdas piensan que realmente vivimos en
un mundo-brana que flota en un espacio con seis dimensiones extra. Y quizá hay
otras branas flotando cerca, separadas microscópicamente de nosotros pero
invisibles (para nosotros) porque nuestros fotones se pegan a nuestra propia
brana, y los suyos se pegan a su brana. Aunque invisibles, estas otras branas
no serían imposibles de detectar: la gravedad, formada por cuerdas cerradas,
salvaría la separación. Pero ¿no es así precisamente la materia oscura: materia
invisible cuya atracción gravitatoria es sentida por nuestras propias estrellas
y galaxias? Las D-branas de Polchinski abren todo tipo de nuevas direcciones.
Desde nuestro punto de vista, un universo con muchos mundo-branas viviendo
pacíficamente unos al lado de otros es tan solo una posibilidad más que puede
encontrarse en el paisaje. Espacios de Calabi Yau de complejidad increíble,
centenares de moduli, mundo-branas, flujos (aún por llegar): el universo está
empezando a parecer un mundo que solo podría gustar a la madre de Rube
Goldberg. Para parafrasear al famoso físico experimental I. I. Rabi, «¿Quién ha
encargado todo esto?» [82].
Pero no hemos agotado ni mucho menos todos los ardides y artilugios con
los que Rube puede jugar. He aquí otro: además de flotar en el espacio
compacto, las branas también pueden estar enrolladas en las direcciones
compactas. El ejemplo más simple es volver al cilindro infinito y enrollar una
D1-brana a su alrededor. Esto sería lo mismo que enrollar una cuerda ordinaria
alrededor del cilindro, excepto que la cuerda está reemplazada por una
D1-brana. Este objeto, visto a distancia, se parecería a una partícula puntual
en una línea unidimensional. Por el contrario, supongamos que el espacio
compacto fuera una 2-esfera ordinaria. Podríamos tratar de enrollar una cuerda
o una D1-brana alrededor del ecuador de la esfera como un cinturón alrededor de
la cintura de un hombre gordo. Pero el cinturón podría resbalar y soltarse del
hombre gordo. Una cuerda o una D1-brana enrollada en una esfera no es estable,
no se quedaría allí mucho tiempo. En palabras del físico Sidney Coleman, «No se
puede poner un lazo a un balón de baloncesto».
¿Qué pasa con el toro —la superficie de una rosquilla? ¿Puede enrollarse
una D1-brana en el toro de una forma estable? Sí y, además, en más de una
forma. Hay dos formas de «poner un cinturón a la rosquilla». Una manera es
pasar el cinturón por el agujero. Inténtelo. Tome una rosquilla o un donut y
pase una cuerda a través del agujero. Enróllela y átela. La cuerda no puede
escaparse. ¿Puede ver la otra manera de poner el cinturón al toro?
El factor decisivo es la «topología» del toro. La topología es la
disciplina matemática que distingue esferas de tori (el plural de toros) y
espacios más complicados. Una extensión interesante del toro es una superficie
con dos agujeros. Tomemos un trozo de arcilla y moldeemos una bola. La
superficie es una esfera. Ahora hagamos un agujero que la atraviese de modo que
se parezca a un donut: la superficie es un toro. A continuación, hagamos un
segundo agujero: la superficie es una generalización doblemente agujereada de
un toro. Hay más formas de enrollar una D1-brana en el toro doblemente
agujereado que en el toro con un agujero. Un matemático llamaría a la esfera
unasuperficie de género cero, al toro unasuperficie de género uno y,
al toro de dos agujeros, una superficie de género dos. Cuanto más
alto es el género, más maneras hay de enrollar branas.
Teniendo nueve dimensiones espaciales, la teoría de cuerdas tiene seis
dimensiones extra a ocultar por compactificación. Los espacios
hexadimensionales son enormemente más complicados que los espacios
bidimensionales. No solo se pueden enrollar DI-branas sino que también hay
versiones en dimensiones más altas de donuts con agujeros que le permitirán
enrollar D2, D3, D4, D5 y D6-branas en cientos de maneras.
Hasta ahora hemos considerado básicamente branas de una en una. Pero
podemos tener montones de ellas. Pensemos en la alfombra en una habitación
infinita. ¿Por qué no tener dos alfombras, una encima de la otra? De hecho es
posible apilarlas como pilas de alfombras en un bazar persa. Igual que las
alfombras podrían flotar libremente por separado, una pila de D-branas puede
separarse en varias branas que flotan libremente. Pero las D-branas se parecen
un poco a alfombras pegajosas. Si usted las junta, se pegan, formando una brana
compuesta. Esto da a Rube Goldberg más opciones para diseñar su máquina. Puede
colocar varias alfombras apiladas a diferentes alturas en la habitación. Tiene
nueva flexibilidad para hacer mundos con todo tipo de propiedades. De hecho,
con cinco alfombras, pegadas en un pila de dos y otra de tres, puede hacer un
mundo con leyes de la física que tienen muchas similitudes con el modelo
estándar.
Las localizaciones de las branas en el espacio compacto son nuevas
variables que añadir a los moduli cuando se cuentan las posibilidades para
crear un universo. Vistas a distancia, cuando las direcciones compactas son
microscópicas —demasiado pequeñas para ver—, las posiciones de la brana parecen
ser simples campos escalares adicionales que definen el paisaje.
§. Flujos
Los flujos han surgido como uno de los ingredientes más importantes en
el paisaje. Ellos, más que cualquier otra cosa, hacen el paisaje
prodigiosamente grande. Los flujos son un poco más abstractos, y más difíciles
de visualizar, que las branas. Son nuevos ingredientes interesantes, pero la
conclusión es simple. A distancia parecen más campos escalares. Los ejemplos
más familiares de flujos son los campos eléctrico y magnético de Faraday y
Maxwell. Faraday no era un matemático pero tenía una prodigiosa capacidad de
visualización. Parecía que podía ver los campos electromagnéticos en sus
aparatos experimentales. Su imagen del campo de un imán eran las líneas
de fuerza que emanaban del Polo Norte y volvían a entrar por el Polo
Sur. En cada punto del espacio, las líneas de fuerza especifican la dirección
del campo magnético, mientras que la densidad de las líneas (lo próximas que
están) especifica la densidad del campo.
Faraday imaginaba el campo eléctrico de la misma manera: líneas que
fluyen desde las cargas positivas hasta las cargas negativas. Imaginemos una
superficie esférica que rodea a un objeto cargado aislado con líneas de fuerza
eléctrica que fluyen hacia fuera y se alejan hasta el infinito. Las líneas de
fuerza deben atravesar la superficie esférica. Estas líneas imaginarias que
atraviesan la esfera son un ejemplo del flujo eléctrico a través de una
superficie.
Hay una medida de la cantidad total de flujo que atraviesa una
superficie. Faraday la imaginaba como el número de líneas de fuerza que
atraviesan la superficie. Si hubiera conocido el cálculo infinitesimal, podría
haberlo descrito como una integral de superficie del campo eléctrico. La idea
del número de líneas era incluso mejor de lo que Faraday
pensaba. Resulta que el flujo a través de una superficie es una de esas cosas
que la moderna mecánica cuántica nos dice que están cuantizadas. Como los
fotones, la unidad de flujo no puede subdividirse en fracciones. De hecho, el
flujo, no puede variar de forma continua sino que debe considerarse en términos
de líneas discretas, de modo que el flujo a través de cualquier superficie es
un entero.
Los campos eléctrico y magnético corrientes apuntan a lo largo de
direcciones del espacio tridimensional, pero también es posible considerar
flujos que apuntan a lo largo de las seis direcciones compactas del espacio. En
un espacio hexadimensional las matemáticas de los flujos son más complicadas,
pero aún se pueden considerar líneas o superficies de fuerza que serpentean en
un espacio de Calabi Yau y atraviesan sus agujeros de donut.
Entrar en más detalles sobre el flujo en un espacio de Calabi Yau
requeriría mucho más de geometría y topología modernas. Pero las conclusiones
importantes no son tan difíciles. Como en el caso de los campos magnéticos, el
flujo a través de los diversos agujeros de donut está cuantizado. Es siempre un
múltiplo entero de una unidad básica de flujo. Esto significa que para
especificar el flujo por completo todo lo que necesitamos especificar es un
número de enteros: cuántas unidades de flujo hay a través de cada agujero en el
espacio.
¿Cuántos enteros se necesitan para describir el flujo en un espacio de
Calabi Yau? La respuesta depende del número de agujeros que tiene la
superficie. Las superficies de Calabi Yau son mucho más complicadas que un
simple toro y típicamente tienen varios cientos de agujeros. Por lo tanto,
centenares de flujos enteros son parte de la descripción de un punto en el
paisaje.
§. Singularidades «conifold»
Hasta ahora un montaje típico puede incluir algunos centenares de moduli
para fijar el tamaño y forma del espacio compacto, algunas branas localizadas
en varias posiciones del espacio, y ahora algunos centenares de flujos enteros
adicionales. ¿Qué más podemos proporcionarle a Rube?
Hay muchas más cosas con las que jugar, pero para que este libro tenga
un tamaño manejable solo explicaré una más: la singularidad conifold. Un balón
de fútbol es una esfera. Si ignoramos la textura y las costuras de la
superficie, es suave. Un balón de rugby, por el contrario, es suave en todas
partes excepto en los extremos, donde termina en punta. Una punta infinitamente
aguda en algún lugar de una superficie suave es un ejemplo de una singularidad.
En el caso del balón de rugby, las singularidades se denominan singularidades
cónicas. La forma puntiaguda de los extremos se parece a la punta de un cono.
Las singularidades en espacios de dimensiones más altas —lugares donde
el espacio no es suave— son más complicadas. Tienen una topología más compleja.
La «conifold» es una de estas singularidades que pueden existir en un espacio
de Calabi Yau. Aunque complicada, es similar a la punta de un cono, como su
nombre sugiere. Para nuestros propósitos podemos considerar la «conifold» un
lugar cónico puntiagudo en la geometría.
Algo interesante sucede cuando se combinan «conifolds» y flujos en el
mismo espacio de Calabi Yau. El flujo ejerce una fuerza sobre la punta del cono
y lo estira para formando un cuello largo y estrecho como el morro de un oso
hormiguero. De hecho podemos tener más de una singularidad «conifold» de modo
que el espacio se hace espinoso con puntas puntiagudas que sobresalen como si
fuera un erizo de mar hexadimensional.
Ahora Rube tiene las piezas. ¿Qué tipo de máquina disparatada puede
construir? Las posibilidades son enormes, pero voy a describir una máquina
denominada la construcción KKLT, por las iniciales de los apellidos de sus
fundadores [83]. KKL y T
empezaron con un espacio de Calabi Yau. Hay millones para escoger. Hagamos
nuestra elección. En algún lugar en el espacio hay una singularidad «conifold».
A continuación, KKLT llenan los diversos agujeros con flujos: un entero por
cada agujero. Todo esto supone especificar unos quinientos parámetros: moduli y
flujos. El resultado es un valle en el paisaje, pero diferente de cualquiera de
los que hemos hablado hasta ahora. Este punto es el Valle de la Muerte del
paisaje, no porque sea tórrido, sino porque está por debajo del nivel del mar.
La altitud es negativa. Esto significa, por supuesto, que la energía del vacío,
y por consiguiente la constante cosmológica, es negativa —el signo equivocado
para nuestro universo—. En lugar de dar lugar a una repulsión universal,
provocaría una atracción cósmica universal. En lugar de acelerar la expansión
del universo, aceleraría la tendencia a colapsar.
Pero KKLT tenían otro truco de Rube Goldberg. Añadieron una antibrana
—una antibrana-alfombra—. Las D-branas son como partículas. Igual que cada
partícula tiene su antipartícula, cada brana tiene su antibrana. Como las
partículas ordinarias, si se juntan una brana y su antibrana pueden aniquilarse
en una explosión de energía. Pero KKLT solo ponen antibranas en su
construcción.
El caso es que la antibrana experimenta una fuerza que la atrae hacia la
punta de la singularidad «conifold». Ésa es la única localización posible de la
antibrana. La masa de la antibrana extra añade la energía suficiente para hacer
la altitud positiva. Así, mezclando un poco de todo, KKLT descubrieron un punto
del paisaje, un valle en realidad, con una pequeña constante cosmológica
positiva, el primero de su tipo.
La importancia del valle que descubrieron KKLT no reside en que se
parezca mucho a nuestro propio valle. No tiene ningún modelo estándar de física
de partículas y, en la forma original, no tenía los ingredientes para describir
la inflación. Su importancia radica en que es el primer intento acertado de
alejarse de la llanura supersimétrica y encontrar un valle «por encima del
nivel del mar». Era una prueba de un principio: que el paisaje de la teoría de
cuerdas tiene valles con una pequeña constante cosmológica positiva.
La máquina KKLT tiene un aire de complejidad de Rube Goldberg, pero
tiene una característica que Rube nunca hubiera permitido. Tiene una pieza que
sirve para dos propósitos. La antibrana no sólo eleva la energía y hace la
constante cosmológica positiva sino que también hace otra tarea importante.
Nuestro mundo, el mundo en que vivimos, no es supersimétrico. No hay ningún
compañero fermiónico sin masa del fotón, ningún gemelo idéntico bosónico del
electrón. Antes de colocar la antibrana en la garganta «conifold», la
construcción KKLT seguía siendo supersimétrica. Pero la antibrana deforma el
espejo de feria de modo que la supersimetría se rompe. Eso es muy poco Goldberg
—utilizar una pieza con una doble función—.
El punto KKLT en el paisaje no es nuestro mundo. Pero quizá no sea tan
difícil incorporar el modelo estándar incluyendo algunas membranas más. En
algún lugar alejado de la antibrana, cinco D-branas adicionales podrían
proporcionar los ingredientes extra.
El discretuum de Bousso y Polchinski
Lo que KKLT encontraron no era un único valle sino más bien una enorme
colección de valles. Como mencioné al principio del capítulo 7, Polchinski y
Raphael Bousso, entonces un estudiante postdoctoral en Stanford, ya habían
explicado la idea básica en un artículo que fue generalmente ignorado. Para
entender cómo la compactifícación puede conducir a un número fabuloso de
vacíos, Bousso y Polchinski se habían centrado en una única geometría de Calabi
Yau y preguntaban cuántas maneras hay de llenar con flujos centenares de
agujeros de donut en el espacio.
Supongamos que la variedad de Calabi Yau tiene una topología
suficientemente rica para permitir quinientos agujeros de donut distintos a
través de los que pasan flujos. El flujo a través de cada agujero debe de ser
un entero, de modo que hay que especificar una cadena de quinientos enteros.
Teóricamente, no hay límites al tamaño de los enteros, pero en la
Práctica no queremos poner demasiado flujo a través de cualquier agujero. El
efecto de un flujo muy grande sería extender el tamaño de la variedad a
proporciones que podrían ser peligrosas. Así que pongamos algunos límites.
Supongamos que el valor de un flujo en enteros no puede ser mayor que nueve. Es
decir, cada uno de los flujos es un entero entre cero y nueve. ¿Cuántas
posibilidades supone eso?
Empecemos con un ejemplo más fácil. Supongamos que, en lugar de
quinientos, sólo hay un agujero con el que tratar. Si el flujo a través del
agujero puede ser un entero entre cero y nueve, entonces hay diez
posibilidades: cero, uno, dos, tres, cuatro, cinco, seis, siete, ocho y nueve.
La idea es que cada una de estas posibilidades define un vacío potencial, un
ambiente con sus propias leyes y, lo que es más importante, su propia energía
de vacío. Aunque diez vacíos son muchos desde la perspectiva de una teoría
cuántica de campos ordinaria del siglo XX, apenas es un número prometedor para
compensar la increíble improbabilidad de que se anulen 119 cifras decimales.
Pero sigamos.
Supongamos que hay dos agujeros, cada uno de los cuales puede tener un
flujo entre cero y nueve. Entonces el número de configuraciones posibles es 102,
un centenar. Esto es algo mejor, pero todavía demasiado modesto. Pero notemos
que cada vez que se añade un agujero, el número de posibilidades se hace diez
veces mayor. Seis agujeros dan un millón de posibilidades; doce agujeros dan un
billón. Con quinientos agujeros tenemos el número increíblemente grande de 10500 configuraciones.
Además, cada valle en esta lista gargantuesca tiene una energía de vacío, y
probablemente no hay dos que tengan exactamente el mismo valor.
Hagamos una gráfica para mostrar todos los valores posibles de la
constante cosmológica. Tomemos una hoja de papel y tracemos un eje horizontal.
En mitad de la línea marcamos un punto y le llamamos cero. A la derecha
marcamos un punto y le llamamos uno. El valor uno representa
el valor de referencia de la energía de vacío: una unidad. Ahora empezamos a
marcar todos los puntos que corresponden a las energías de vacío de los
10 500 valles. Con un lápiz muy fino usted quizá sea capaz
de marcar mil puntos aleatorios antes de que empiecen a tocarse y hacer una
línea continua.
Para hacerlo mejor tomemos una hoja más grande. Con una hoja tan grande
como el Empire State Building, puede tener un millón de puntos colocados
aleatoriamente antes de que empiecen a tocarse. Con una página del tamaño de la
galaxia quizá puedan mostrarse 1024 puntos. Ninguno de estos
números se acerca ni por asomo a 10500. Incluso si se espaciaran los
puntos a una longitud de Planck y se hiciera la hoja tan grande como el
universo conocido, tendríamos sólo 1060 puntos. El número 10500 es
tan escandalosamente grande que no se me ocurre ninguna manera de representar
gráficamente tantos puntos.
La palabra que denota todos los números posibles en un
rango dado es continuum. Los puntos en nuestra gráfica de energía
del vacío no forman realmente un continuo, pero su representación es tan densa
que para fines prácticos están representados todos los números. Para describir
un conjunto de valores tan terriblemente grande y denso, los teóricos de
cuerdas como Bousso y Polchinski acuñaron la palabra discretuum,
discreto pero casi un continuo.
Pero el punto importante es que con tantos valores aleatoriamente
escogidos para la constante cosmológica, habrá un número enorme en la minúscula
«ventana de vida» que calculó Weinberg. No se necesita ningún ajuste fino para
asegurarlo. Por supuesto, será sólo una mínima fracción de los valles los que
estén en la ventana de oportunidad antrópica: aproximadamente uno entre 10120.
El crecimiento del paisaje durante los años transcurridos desde que se
descubrió la teoría de cuerdas ha sido una fuente de preocupación para la
mayoría de los teóricos de cuerdas. Durante los primeros días felices, cuando
el paisaje empobrecido estaba compuesto solamente de un único punto o, como
máximo, un número que podía contarse con los dedos de una mano, los teóricos de
cuerdas no pudieron contener su alegría cuando encontraron que las pocas
teorías conocidas eran en realidad tan sólo diferentes soluciones de una única
teoría. Pero, al mismo tiempo, que se producía esta consolidación, se estaba
desarrollando otra tendencia más ominosa que horrorizó a muchos teóricos de
cuerdas. El número de soluciones distintas se estaba expandiendo en un paisaje
inimaginablemente grande. Pero sospecho que, con el tiempo, estos mismos
teóricos de cuerdas empezarán a ver el paisaje como la característica singular
más importante y convincente de su teoría. Podríamos preguntar: «¿No hemos
sustituido simplemente un problema imposible por otro? Ya no tenemos que
preguntarnos por qué la constante cosmológica está tan bien ajustada. Quizá sea
cierto que el paisaje es tan prodigioso que puede encontrarse cualquier cosa
que estemos buscando. Pero ¿qué principio de la física selecciona nuestro valle
benigno de entre otros 10500?». La respuesta a la que llegaremos en
el capítulo siguiente es que nada lo hace. Como veremos, la pregunta es una
pregunta errónea.
Capítulo 11
Un universo burbuja
Contenido:
§. Estabilidad y metaestabilidad
§. Una catástrofe de hielo real
§. Clonando el espacio
§. Espacio de De Sitter metaestable
§. Inflación eterna
§. Una relación paradójica entre hijo y padre
§. Dos visiones de la historia
§. Muchos mundos
Una cosa es argumentar que la teoría da lugar a muchas posibilidades
para las leyes de la física, pero otra muy diferente es decir que la Naturaleza
saca provecho realmente de todas las posibilidades. ¿Cuál de los muchos
ambientes posibles se materializó como mundo real? Las ecuaciones de la física
tienen sin duda soluciones que describen capas esféricas gigantes de acero
inoxidable en órbita alrededor de «estrellas» masivas hechas de oro puro. Para
un teórico, tales soluciones de las ecuaciones existen. Pero ¿hay
tales objetos en el universo? Probablemente no, y las razones son históricas.
Nada en la manera en que evolucionó el universo —nada en la cosmología
del big bang— podría explicar cómo se habrían formado tales
objetos. La existencia matemática no es lo mismo obviamente que la existencia
física. Descubrir que la teoría de cuerdas tiene 10 500 soluciones
no explica nada de nuestro mundo a menos que también entendamos cómo nacieron
los ambientes correspondientes.
Algunos físicos creen que debe haber un principio de selección
de vacío que discrimina un único punto en el paisaje —presumiblemente
nuestro punto. Dicho principio, si existe, podría ser matemático, quizá una
demostración de que sólo una de las muchas soluciones aparentes de la teoría de
cuerdas es realmente consistente. Pero, si lo hay, las matemáticas de la teoría
de cuerdas han ido en sentido contrario, hacia una no unicidad cada vez mayor.
He oído decir a algunos que el Principio de selección de vacío debe ser
cosmológico; el nacimiento del universo sólo pudo suceder de una única manera
que condujo a un ambiente igualmente único. Pero el principio de selección de
vacío es muy parecido al monstruo del lago Ness: a menudo se afirma que existe,
pero nadie lo ha visto nunca. En consecuencia, muchos de nosotros empezamos a
sospechar que no existe en absoluto. Incluso si existe un mecanismo semejante,
las probabilidades de que las leyes de la física resultantes estuvieran bien
ajustadas con la increíble precisión necesaria para nuestra existencia
seguirían siendo despreciables. Yo tengo la sensación de que un genuino
principio de selección de vacío sería con gran probabilidad un desastre.
¿Cuál es la alternativa? La respuesta es que la Naturaleza hace uso de
algún modo de todas las posibilidades. ¿Hay un mecanismo natural que habría
poblado un megaverso con todos los ambientes posibles, transformándolos de
posibilidades matemáticas en realidades físicas? Esto es lo que cree un número
cada vez mayor de físicos teóricos —yo mismo incluido—. Llamo a esta idea
el paisajepoblado[84].
En este capítulo explicaré la idea principal del punto de vista del
paisaje poblado: mecanismos que descansan en principios físicos bien
comprobados dan lugar a un número enorme, o incluso infinito, de universos de
bolsillo, y todos y cada uno de los valles están representados en el paisaje.
Los mecanismos que subyacen al paisaje poblado se basan sólo en los
principios de la relatividad general y en aplicaciones muy convencionales de la
mecánica cuántica. Para entender cómo se puebla el paisaje tenemos que examinar
dos conceptos muy básicos de la física. El primero es la metaestabilidad
del vacío. Se refiere al hecho de que las propiedades del vacío pueden
cambiar súbitamente con poco o ningún calentamiento. El segundo concepto es que
el espacio se clona a si mismo.
§. Estabilidad y metaestabilidad
En la sombríamente divertida sátira de ciencia ficción Cunas de
gato de Kurt Vonnegut, el físico Félix Hoenikker descubre una nueva
forma de agua sólida llamada hielonina. La estructura cristalina de la
hielonina es algo diferente de la del hielo corriente —una nueva manera de
apilar las balas de cañón, por así decir— y, como resultado, la nueva red
cristalina es tan estable que no se funde hasta que la temperatura llega a los
50 °C. En la fantasía de Vonnegut, la razón de que las aguas de la Tierra
permanecieran líquidas con anterioridad es que se necesitaría una minúscula
semilla del nuevo cristal para «enseñar» a las moléculas de agua a
reensamblarse en la red de hielonina más estable. Una vez que se introdujera
dicho minúsculo «cristal maestro», el agua circundante se coagularía a su
alrededor, formando una burbuja de hielonina en rápida expansión. Hasta el
pequeño experimento Indico de Hoenikker nadie había hecho nunca un cristal de
hielonina, de modo que el H2O de la Tierra no estaba corrompida por
el primo más mortífero del hielo ordinario.
Incorrupta… hasta que un trozo del nuevo material de Hoenikker cae en
las manos de «Papá» Monzano, presidente y dictador de San Lorenzo. Papá termina
con su vida tragando un poco de ello, con lo que desestabiliza sus propios
fluidos. Éstos se convierten en la letal hielonina y todo su cuerpo se congela
en una fracción de segundo. Cuando la fortaleza de Papá se derrumba y cae al
mar, su cadáver cargado de hielonina inicia una reacción en cadena. Un cristal
se expande a gran velocidad e inmediatamente congela toda el agua en la Tierra,
terminando así con toda la vida.
La hielonina es por supuesto una ficción. No hay ninguna fase del agua
que sea sólida por encima de los 0 °C Cunas de gato es
realmente una historia aleccionadora sobre la locura e inestabilidad de un
mundo lleno de armas nucleares. Pero, aunque ficticia, la historia de la
hielonina está basada en serios principios de física y química: en particular,
el concepto de metaestabilidad.
La estabilidad implica un grado de resistencia a cambios súbitos e
impredecibles. Un péndulo que cuelga en posición vertical es muy estable. La
inestabilidad es lo contrario: un lápiz de pie sobre su punta caerá en una
dirección impredecible. La metaestabilidad es algo intermedio. Algunos sistemas
tienen la notable propiedad de que parecen estables durante largos períodos de
tiempo pero finalmente sufren cambios catastróficos muy repentinos e
imprevistos.
En el mundo real, un tanque cerrado de agua líquida a temperatura
ambiente es estable. Pero en el mundo ficticio de Félix Hoenikker y Papá
Monzano, sólo es metaestable. El agua real también puede ser metaestable, pero
no a temperatura ambiente. Sorprendentemente, si se enfría con cuidado por
debajo del punto de congelación o se calienta por encima del punto de
ebullición, el agua puede permanecer líquida durante mucho tiempo hasta que
repentinamente se transforma en hielo o en vapor. Más extraño incluso es que
los vacíos de la teoría de cuerdas suelen ser metaestables. Pero antes de
sumergirnos en el agua metaestable, o incluso en el espacio vacío, quiero
exponer un ejemplo de metaestabilidad más simple.
Algunas cosas son lisa y llanamente imposibles. Por mucho que esperemos,
nunca sucederán. Otras son sólo muy improbables, pero si esperamos lo
suficiente ocurrirán finalmente. He aquí algo que según la física clásica es
imposible. Imaginemos una vez más una bola pequeña que rueda por un paisaje
unidimensional sencillo. De hecho no está rodando; está atrapada en el fondo de
un valle entre dos altas montañas. Hay otro valle más bajo al otro lado de una
de las montañas, pero la bola está atascada donde está. Para rodar por encima
de la montaña y llegar al valle más bajo tendría que tener energía cinética
suficiente para compensar la energía potencial extra en la cima. Al estar
quieta, carece de la energía para subir siquiera un corto trecho cuesta arriba.
Llegar al otro lado sin un empujón no es sólo improbable sino totalmente
imposible. Éste es un ejemplo de estabilidad perfecta.
Pero añadamos ahora un poco de calor. La bola podría estar expuesta a
colisiones aleatorias con las moléculas de un gas caliente. Tiene agitaciones
térmicas. Si esperamos lo suficiente, en algún momento una molécula
inusualmente energética, o una sucesión aleatoria de colisiones, le dará un
golpe suficiente para llegar al otro lado y caer en el valle más bajo. La
probabilidad de que tal accidente aleatorio ocurra en la próxima hora puede ser
extraordinariamente pequeña. Pero por pequeña que sea, siempre que no sea cero,
con tiempo suficiente la bola cruzará finalmente la barrera y acabará en el
valle más bajo.
¡Pero espere! Hemos olvidado las agitaciones cuánticas. Incluso sin
ningún calor —incluso a la temperatura del cero absoluto— la bola fluctúa
debido a las agitaciones cuánticas. Quizá usted sospeche que incluso en
ausencia de energía térmica, las fluctuaciones cuánticas golpearán finalmente
la bola para hacerle rebasar la colina. Si es así, usted está en lo cierto. Una
bola mecanocuántica atrapada en un valle de energía no es completamente
estable; tiene una pequeña probabilidad de aparecer en el otro lado de la
montaña. Los físicos llaman a este salto cuántico extraño e impredecible efecto
túnel cuántico. Normalmente, el efecto túnel cuántico es un suceso muy
improbable que puede necesitar tanto tiempo como el que tardan los proverbiales
monos que teclean aleatoriamente en máquinas de escribir hasta escribir una
obra de Shakespeare.
Los sistemas de este tipo, que no son verdaderamente estables pero
pueden durar un tiempo extraordinariamente grande, son metaestables. Hay muchos
ejemplos de metaestabilidad en física y química: sistemas que parecen estables
pero que eventualmente pasan por efecto túnel a nuevas configuraciones sin
necesidad de calentamiento. En la sátira de Vonnegut el agua ordinaria a
temperatura ambiente es metaestable. Antes o después se formará un minúsculo
cristal de hielonina, aunque sólo sea por los movimientos aleatorios de
moléculas, y entonces una reacción en cadena reordenará el agua líquida
metaestable en hielonina más estable. Como pronto veremos, existen ejemplos
reales que no incluyen otra cosa que hielo y agua corrientes. Pero, y esto es
lo que más nos importa para este libro, los vacíos pueden ser metaestables.
Pueden aparecer y crecer espontáneamente burbujas de espacio con propiedades
extrañamente diferentes, de forma muy parecida a lo que hacía la hielonina
en Cunas de gato. Así es como se puebla el paisaje y el universo se
hace diverso.
§. Una catástrofe de hielo real
El agua se congela a una temperatura de 0 °C. Sin embargo, podemos
enfriar agua muy pura a una temperatura inferior sin que se haga sólida siempre
que lo hagamos lentamente y con mucho cuidado. El agua líquida por debajo de la
temperatura de congelación se llama agua sobre-enfriada.
El agua sobre-enfriada sólo algo por debajo de la temperatura de
congelación usual puede durar mucho tiempo. Pero la introducción de un trozo
pequeño de hielo corriente hará que el agua cristalice repentinamente a su
alrededor y forme un cubo de hielo rápidamente creciente. Igual que la
hielonina destruyó el mundo, el cubo de hielo real dominará rápidamente todo el
volumen del agua.
Poner el cristal de hielo en el agua sobre-enfriada es muy similar a
darle a la bola rodante un empujón por encima de la colina vecina. Es el suceso
que empuja al sistema «por encima del borde». En el caso de la bola rodante, el
empujón tiene que ser suficientemente fuerte para llevarla por encima de la
barrera. Un empujón minúsculo no lo hará. La bola volverá rodando a la posición
de partida. Lo mismo es cierto para el agua sobre-enfriada. Si el cristal de
hielo es más pequeño que un cierto tamaño crítico, simplemente se volverá a
fundir en el líquido que le rodea. Por ejemplo, un cristal de hielo de sólo
unas moléculas de diámetro no llegará a crecer y dominar.
Pero incluso sin alguien que añada un poco de hielo, el agua
sobre-enfriada no durara eternamente. La razón es que las moléculas del líquido
están fluctuando continuamente, rebotando unas en otras y re-ordenándose. Este
movimiento se debe a las agitaciones térmicas y a las agitaciones cuánticas. De
vez en cuando, por accidente, un grupo de moléculas se ordenarán en un pequeño
cristal. La mayor parte de las veces el cristal será tan pequeño que
rápidamente se fundirá en su entorno.
En raras ocasiones, sin embargo, se formará espontáneamente un cristal
grande por accidente aleatorio. Entonces el cristal crecerá de forma explosiva
y todo se congelará. El fenómeno se denomina nucleación de burbuja, pues el
cristal que crece es como una burbuja en expansión. Algo muy similar sucederá
con el agua que está sobrecalentada por encima del punto de ebullición. La
única diferencia es que ahora se nucleará espontáneamente y crecerá una burbuja
de vapor.
La frontera entre el hielo sólido y el agua líquida (o entre el vapor y
el agua) se denomina una pared de dominio. Es como una membrana
entre las dos fases diferentes [85]. De
hecho, la pared de dominio tiene sus propiedades características, por ejemplo,
la tensión superficial que trata de contraer la burbuja. Otro ejemplo de una
pared de dominio es la frontera entre el agua ordinaria y el aire. Cuando era
pequeño me fascinaba el truco de hacer flotar un alfiler de acero en la
superficie del agua en un vaso. La frontera de dominio que separa aire y agua
es como una piel estirada sobre el líquido. Tiene tensión superficial y,
realmente, tiene que ser perforada para que un objeto penetre en ella.
Un vacío con una constante cosmológica positiva es muy parecido a un
líquido sobre-enfriado o sobrecalentado. Es metaestable y puede decaer
nucleando burbujas. Cada vacío corresponde a un valle en el paisaje con una
altitud o densidad de energía particular. Sin embargo, aunque el vacío puede
parecer tranquilo y monótono a nuestros sentidos toscos, las fluctuaciones
cuánticas crean continuamente minúsculas burbujas de espacio cuyas propiedades
corresponden a valles vecinos. Normalmente las burbujas se contraen rápidamente
y desaparecen. Pero si el valle vecino tiene una altitud menor, entonces de
cuando en cuando aparecerá una burbuja que sea suficientemente grande para
empezar a crecer. ¿Dominará todo? Pronto lo veremos.
Las paredes de dominio que separan una burbuja de su entorno son
superficies bidimensionales que se parecen a membranas. Éstas no son las
primeras membranas que hemos encontrado. En el capítulo 10 supimos de las
D-branas de Polchinski. En muchos casos las paredes de dominio no son otra cosa
que las D2-branas tipo membrana.
§. Clonando el espacio
Una cosa falta en la analogía entre el burbujeo cósmico de los universos
de bolsillo y el burbujeo de los cristales de hielo en los fluidos
sobre-enfriados, a saber, la tendencia del espacio a expandirse. Cada punto del
paisaje tiene una constante cosmológica. Recordemos que una constante
cosmológica positiva significa una repulsión universal, que hace que la materia
se separe. Un teórico moderno de la relatividad general diría que el propio
espacio se está expandiendo, o inflando, y que la materia simplemente está
siendo arrastrada.
Hace tiempo, cuando Einstein todavía estaba experimentando con la
constante cosmológica, el astrónomo holandés Willem de Sitter empezó a estudiar
el espacio en inflación. El espacio o, más exactamente, el espacio–tiempo que
descubrió De Sitter, y que lleva su nombre, es la solución a las ecuaciones de
Einstein cuando no hay energía o materia gravitante distinta de la ubicua
energía del espacio vacío, es decir, una constante cosmológica. Como Einstein,
De Sitter supuso que la constante cosmológica era positiva. Lo que encontró fue
un espacio en inflación que crece exponencialmente con el tiempo La expansión
exponencial significa que en un cierto período de tiempo los intervalos
espaciales se duplican; luego, en el siguiente intervalo de tiempo, se duplican
de nuevo, y luego otra vez. Crece hasta dos veces, cuatro veces, ocho veces, 16
veces… su tamaño original, de manera similar a como el interés compuesto
aumenta el dinero. A una tasa del cinco por ciento de interés su capital se
doblaría en catorce años. La constante cosmológica es como la tasa de interés:
cuanto mayor es la constante cosmológica, con más rapidez se infla el espacio.
Como cualquier espacio en expansión, el espacio de De Sitter satisface la ley
de Hubble: velocidad proporcional a la distancia.
Nos hemos acostumbrado a la analogía de un globo elástico en expansión
para visualizar un universo que crece. Pero el espacio de De Sitter difiere en
un aspecto importante de la goma elástica de un balón que se expande
exponencialmente. En el caso de un globo, la goma —el tejido del globo— se
vuelve cada vez más estirada, tensa y adelgazada por la expansión. Con el
tiempo, alcanza sus límites y el globo explota. Pero el tejido del espacio de
De Sitter no cambia nunca. Es como si las moléculas de goma estuvieran dando
nacimiento continuamente a nuevas moléculas de goma para llenar los espacios
creados por la expansión. Piense en las moléculas de goma como si se clonasen a
sí mismas para llenar los espacios.
Por supuesto, ninguna molécula de goma real se está creando
continuamente. El propio espacio se está reproduciendo para llenar los huecos.
Se podría decir que el espacio se está clonando a sí mismo: cada pequeño
volumen crea descendencia y con ello crece exponencialmente.
Supongamos un observador en el espacio de De Sitter que se mueve con la
expansión general y mira a su alrededor: ¿qué vería? Usted podría esperar que
vería que el universo cambia con el tiempo, haciéndose más y más grande.
Sorprendentemente no es así. Vería que a su alrededor el espacio fluye de
acuerdo con la ley de Hubble: las cosas cercanas se mueven lentamente, las
cosas distantes se mueven más rápidas. A cierta distancia el fluido del espacio
se estaría alejando tan rápidamente que la velocidad de recesión llegaría a ser
igual a la velocidad de la luz. A distancias aún más lejanas los puntos
salientes se alejarían con una velocidad aún mayor. El espacio en dichas
regiones estaría alejándose tan rápidamente que incluso las señales luminosas
emitidas directamente hacia el observador se alejarían. Puesto que ninguna
señal puede viajar más rápida que la luz, el contacto con estas regiones
distantes se corta por completo. Los puntos más alejados que se pueden
observar, es decir, los puntos donde la velocidad de recesión es la velocidad
de la luz, se denominan el horizonte o, más propiamente,
el horizonte de sucesos.
El concepto de un horizonte de sucesos cósmicos —una barrera ultima para
nuestras observaciones o un punto de no retorno— es una de las consecuencias
más fascinantes de un universo que se acelera. Como el horizonte de la Tierra,
no es ni mucho menos un final del espacio. Es meramente el final de lo que
podemos ver. Cuando un objeto cruza el horizonte, dice adiós para siempre.
Algunos objetos Pueden incluso haberse formado inicialmente más allá del
horizonte. El observador nunca puede tener ningún conocimiento de ellos. Pero
si tales objetos están permanentemente más allá de los límites de nuestro
conocimiento, ¿importan siquiera? ¿Hay alguna razón para incluir las regiones
más allá del horizonte en una teoría científica? Algunos filósofos
argumentarían que son construcciones metafísicas que no pintan más en una
teoría científica que los conceptos de cielo, infierno y purgatorio. Su
existencia es una señal de que la teoría contiene elementos inverificables y
por consiguiente acientíficos, o eso dicen.
El problema con esta visión es que no nos permite apelar a un vasto y
diverso megaverso de universos de bolsillo, una idea que tiene poder
explicativo; fundamental aquí, el poder de explicar el ajuste fino antrópico de
nuestra región del espacio. Pronto veremos que todos los demás bolsillos están
en las partes fantasmales y misteriosas del espacio más allá de nuestro
horizonte. Sin la idea de un megaverso de bolsillo, no hay ninguna manera
natural de formular un principio antrópico razonable. Mi propia visión de este
dilema será explicada en el capítulo siguiente, pero la presentaré aquí
brevemente. Creo que toda esta discusión se basa en una falacia. En un universo
gobernado por la mecánica cuántica, las barreras aparentemente definitivas no
son tan definitivas. En principio los objetos detrás de los horizontes están
dentro de nuestro alcance. Pero sólo en principio. Más sobre esto en el
capítulo siguiente.
Curiosamente, en un universo que se acelera bajo la influencia de una
constante cosmológica, la distancia al horizonte de sucesos nunca cambia. Está
fijada por el valor de la constante cosmológica: cuanto mayor es la constante
cosmológica, menor es la distancia al horizonte. El observador vive en un mundo
invariable de radio finito acotado por su horizonte, pero exactamente de la
misma manera que el horizonte de la Tierra elude a cualquiera que trata de
acercarse a él, el horizonte cósmico del espacio de De Sitter nunca puede
alcanzarse. Ésta siempre a una distancia finita, pero cuando uno se aproxima a
él, ¡allí no hay nada! Sin embargo, si pudiéramos salir fuera del espacio de
Sitter —observarlo a distancia, por así decir—, veríamos que todo el espacio está
creciendo exponencialmente con el tiempo.
§. Espacio de De Sitter metaestable
Quiero volver al tema de las sustancias metaestables, pero con un nuevo
matiz: supongamos que la sustancia en cuestión se ésta inflando. Para ayudar a
visualizar la sustancia metaestable en expansión, imaginemos un lago infinito y
poco profundo de agua sobre-enfriada. Para simular la clonación del espacio, el
fondo del lago podría estar lleno de pequeñas tuberías de alimentación que
continuamente proporcionan nueva agua sobre-enfriada. Para dejar espacio para
el nuevo fluido, el agua se difunde horizontalmente: dos moléculas cualesquiera
se apartan cada vez más porque nuevas moléculas vienen a llenar el espacio
creciente entre ellas. El lago se infla igual que el espacio de de Sitter.
En dicho volumen en inflación de agua sobre-enfriada se nuclearán
espontáneamente cristales de hielo de cuando en cuando. Si son suficientemente
grandes, crecerán y se convertirán en islas de hielo en expansión. Pero, puesto
que están siendo arrastradas con el fluido que se difunde, las islas crecientes
pueden separarse con tanta rapidez que nunca se encontrarán. Las regiones entre
las islas se inflan e impiden que todo el lago se convierta en hielo sólido. El
espacio entre islas crece eternamente, permaneciendo líquido, incluso si las
islas de hielo también crecen indefinidamente. De todas formas, cualquier
observador que flote con el flujo terminará rodeado de hielo: dado el tiempo
suficiente, un minúsculo cristal de hielo se nucleará eventualmente en la
vecindad de la persona y la engullirá. Ésta es una conclusión algo paradójica,
pero conecta de todas formas: siempre hay mucha agua líquida pero cualquier
porción de ella está más pronto o más tarde envuelta en hielo.
Lo que he descrito es una precisa analogía del fenómeno denominado inflación
eterna: islas crecientes de vacío alterno en un vacío en un mar de espacio
que se infla eternamente. No es una idea nueva ni mucho menos. Mi colega en
Stanford, Andrei Linde, es uno de los grandes pensadores que han sido pioneros
en muchas de las ideas de la cosmología moderna. Desde que le conozco
—ciertamente desde que llegó a Estados Unidos desde Rusia, hace aproximadamente
quince años—. Andrei ha estado predicando la doctrina de un universo que se
infla eternamente, produciendo constantemente burbujas de todo tipo. Alexander
Vilenkin es otro cosmólogo ruso-estadounidense que ha tratado decididamente de
impulsar la cosmología en la dirección de un megaverso superinflado de enorme
diversidad. Pero, en su gran mayoría, los físicos han ignorado estas ideas, al
menos hasta muy recientemente. Lo que está agitando el campo precisamente ahora
es la comprensión de que la teoría de cuerdas —nuestra mejor conjetura para una
teoría de la Naturaleza— tiene características que encajan muy bien con estas
ideas más viejas.
La combinación de la relatividad general, la mecánica cuántica y un
universo de alta densidad inicial, junto con el paisaje de la teoría de
cuerdas, sugiere que un universo metaestable que se infla eternamente puede ser
inevitable.
§. Inflación eterna
Si usted compró este libro esperando encontrar la respuesta definitiva a
cómo empezó el universo, me temo que estará desilusionado. Ni yo ni nadie lo
sabe. Algunos piensan que empezó con una singularidad, un estado infinitamente
violento de densidad de energía infinita. Otros, en especial Stephen Hawking y
sus seguidores, creen en un efecto túnel cuántico desde la nada. Pero
comoquiera que empezara, sabemos una cosa. En algún momento en el pasado el
universo existía en un estado de densidad de energía muy grande, probablemente
atrapado en una expansión inflacionaria. Casi todos los cosmólogos coincidirán
en que una historia de rápida expansión exponencial es la explicación más
probable para muchos enigmas de la cosmología. En el capítulo 5 aprendimos la
base observacional para esta creencia. Parece casi seguro que la historia observable de
nuestro universo empezó hace catorce mil millones de años en un punto en el
paisaje con una densidad de energía suficiente para inflar nuestra región del
espacio hasta multiplicarla al menos por 1020. Ésta es probablemente
una enorme subestimación. La densidad de energía durante este período era muy
grande —no estamos seguro de cuan grande, pero enormemente mayor que cualquier
cosa que podamos conseguir en el laboratorio, incluso durante las más violentas
colisiones de partículas elementales en los mayores aceleradores—. Parece que
en esa época el universo no estaba completamente atrapado en un valle del
paisaje, sino que descansaba en un terreno llano ligeramente inclinado.
Conforme se infló, nuestro bolsillo de espacio (el universo observable) rodó
lentamente por la ligera pendiente hasta una terraza que daba a una pendiente
pronunciada, y cuando llegó al borde de la terraza descendió rápidamente,
convirtiendo energía potencial en calor y partículas. Este suceso, que creó el
material del universo, se denomina recalentamiento. Finalmente, el
universo rodó cuesta abajo hasta nuestro valle actual con su minúscula
constante cosmológica antrópica. Es decir: la cosmología tal como la conocemos
fue una breve rodadura desde un valor de la energía del vacío a otro. Todas las
cosas interesantes sucedieron durante este período transitorio.
¿Cómo llegó a la terraza nuestro universo de bolsillo? Eso es lo que no
sabemos. Pero es muy conveniente que empezara donde lo hizo. Sin la inflación
debida a la densidad de energía de la terraza, el universo no podría haber
evolucionado hasta el gran universo lleno de materia que vemos a nuestro
alrededor: un universo suficientemente grande, suficientemente suave y con los
contrastes de energía adecuados para nuestra propia existencia.
El problema con una teoría que nos coloca de entrada en la terraza es
que éste es sólo uno entre un inmenso número de puntos de partida. Lo único que
la distingue es que proporciona un comienzo particularmente acertado para un
universo con posibilidades de que evolucione la vida. Colocar arbitrariamente
el universo en un punto tan especialmente afortunado del paisaje sería
renunciar al objetivo de explicar el mundo sin un diseñador inteligente. Pero
como voy a explicar, una teoría con un paisaje enorme no requiere elección. En
mi opinión, es totalmente inevitable —matemáticamente cierto— que algunas
partes del espacio evolucionarán para encontrarse en el lugar feliz. Pero no
todos están de acuerdo.
El cosmólogo de Princeton Paul Steinhardt, en una crítica del principio
antrópico, dice: «El principio antrópico hace un número enorme de hipótesis con
respecto a la existencia de universos múltiples… ¿Por qué necesitamos postular
un número infinito de universos con todo tipo de propiedades diferentes tan
solo para explicar el nuestro?». La respuesta es que no necesitamos
postularlos. Son consecuencias inevitables de principios convencionales bien
comprobados de la relatividad general y de la mecánica cuántica.
Resulta una ironía que el propio trabajo de Steinhardt contuviera el
germen original de la idea de inflación eterna, incluyendo los argumentos que
yo encuentro tan inevitables. El burbujeo de una infinidad de universos de
bolsillo es tan cierto como el burbujeo de una botella de champán abierta. Hay
sólo dos hipótesis: la existencia de un Paisaje y el hecho de que el universo
empezó con una densidad de energía muy alta, es decir, que empezó a gran
altitud. En cuanto a la primera, quizá se demuestre que no es una hipótesis en
absoluto. Las matemáticas de la teoría de cuerdas parecen hacer el paisaje
inevitable. Y la segunda —alta densidad de energía— es una característica de
cualquier cosmología científica que empiece con el big bang. Déjeme
explicar por qué yo, junto con muchos otros cosmólogos, encontramos tan
convincente la idea de inflación eterna.
Las ideas de las que voy a hablarle no son mías. Fueron avanzadas por
los cosmólogos Alan Guth, Andrei Linde, Paul Steinhardt y Alexander Vilenkin y
deben mucho al trabajo seminal de uno de los grandes físicos de mi generación,
Sidney Coleman. Empecemos con un universo, o quizá sólo con una región de
espacio, localizado en un punto arbitrario del paisaje con el único requisito
de que la densidad de energía sea bastante grande. Como cualquier sistema
mecánico, empezará a evolucionar hacia zonas de energía potencial más baja.
Pensemos en una bola que rueda desde lo alto del Monte Everest. ¿Cuál es
la probabilidad de que ruede todo el camino hasta el nivel del mar sin quedarse
atascada en algún lugar? No demasiado alta. Mucho más probable es que se quede
en reposo en algún valle local no lejos de la montaña. Las condiciones
iniciales —de dónde partió exactamente y con qué velocidad empezó a rodar—
apenas importan.
Lo mismo que sucede con la bola sucede con la región del espacio que
estamos siguiendo: muy probablemente caerá en algún valle, donde empezará a
inflarse. Se clonará un enorme volumen de espacio, todo él localizado en el
mismo valle. Por supuesto hay valles más bajos, pero para llegar a ellos el
universo tendría que subir por pasos montañosos a elevaciones más altas que el
valle de partida, y no puede hacerlo porque no tiene energía. De modo que se
asienta allí y se infla para siempre.
Pero hemos olvidado una cosa. El vacío tiene agitaciones cuánticas.
Igual que las agitaciones térmicas del agua sobre-enfriada, las agitaciones
cuánticas hacen que se formen y desaparezcan pequeñas burbujas. El interior de
estas burbujas puede estar en un valle vecino, con menor altitud. Este burbujeo
sucede constantemente, pero la mayoría de las burbujas son demasiado pequeñas
para crecer. La tensión superficial de las paredes de dominio que separan la
burbuja del resto del vacío las comprime. Pero como en el caso del agua
sobre-enfriada, de vez en cuando se forma una burbuja que es suficientemente
grande como para empezar a crecer.
Las matemáticas que describen esta formación de burbujas en un universo
que se infla se conocían desde hacía muchos años. En 1977, Sidney Coleman y
Franck DeLuccia escribieron un artículo que iba a convertirse en un clásico. En
su artículo calculaban el ritmo al que aparecerían tales burbujas en un
universo que se infla, y aunque el ritmo podía ser muy pequeño —muy pocas
burbujas por unidad de volumen— con toda probabilidad no es cero. Los cálculos
utilizaban solamente los métodos mejor comprobados y más dignos de confianza de
la teoría cuántica de campos y son considerados terreno firme por los físicos
modernos. Así, a menos que haya algo terriblemente erróneo, el vacío que se
infla producirá burbujas crecientes localizadas en valles vecinos.
¿Colisionan las burbujas y se unen finalmente de modo que todo el
espacio termina en un nuevo valle? ¿O se expande el espacio entre las burbujas
con demasiada rapidez para permitir que se fusionen las islas? La respuesta
depende de la competencia entre dos ritmos: el ritmo al que se forman las
burbujas y el ritmo al que se reproduce el espacio, o ritmo de clonación. Si
las burbujas se forman muy rápidamente, colisionarán y se fusionarán con mucha
rapidez y todo el espacio se moverá a un punto nuevo en el paisaje. Pero si el
ritmo al que se reproduce el espacio es mayor que el ritmo al que se forman las
burbujas, la clonación gana y las burbujas nunca se alcanzan unas a otras. Como
las islas de hielo en el lago sobre-enfriado inflado, las burbujas evolucionan
por separado y cada una de ellas llega a estar finalmente más allá de los
horizontes de las demás. La mayor parte del espacio sigue inflándose
eternamente.
¿Cuál gana, la nucleación de burbujas o la clonación del espacio? La
respuesta general no está ni siquiera próxima. La nucleación de burbujas, como
todos los demás procesos de efecto túnel, es rara e improbable. Normalmente
transcurrirá mucho tiempo antes de que se nuclea por azar una burbuja
suficientemente grande para expandirse. Por otra parte, la clonación del
espacio, es decir, el crecimiento exponencial debido a la energía del vacío, es
extraordinariamente rápido si la constante cosmológica no es ridículamente
pequeña. En todos los ejemplos salvo los más retorcidos, el espacio continúa
clonándose exponencialmente, mientras que las islas o burbujas se nuclean
lentamente en los valles vecinos del paisaje. La clonación del vacío gana la
competición por un margen muy amplio.
Echemos una mirada al interior de una de las burbujas. ¿Qué encontramos?
Normalmente nos encontramos localizados en un valle con altitud algo más baja
que la de partida. El espacio dentro de la burbuja también se estará inflando.
No estoy hablando del crecimiento ordinario de la burbuja sino de la clonación
del espacio dentro de la burbuja. Así pues, empezamos de nuevo. Una nueva
región del espacio está ahora localizada en un nuevo valle. Pero hay todavía
otros valles más bajos. Dentro de la burbuja original puede formarse una
burbuja de una siguiente generación en otro valle próximo con una altitud
menor. Y, si esa burbuja es mayor que un tamaño crítico, empieza a crecer: una
burbuja que crece dentro de otra burbuja.
Como regla general, no me gustan las analogías biológicas en física. La
gente tiende a tomarlas de forma demasiado literal. Voy a utilizar una ahora
pero, por favor, no saque la idea de que yo pienso que los universos o los
agujeros negros o los electrones están vivos, se enzarzan en una competición
darwiniana o tienen relaciones sexuales.
Pensemos en el megaverso como una colonia de organismos que se
reproducen por clonación. Para evitar confusión, déjeme repetirlo: los
organismos no son criaturas vivas; son zonas de espacio que se reproducen.
Puesto que los clones son idénticos a sus padres, podemos considerar que ocupan
el mismo valle en el paisaje. Podríamos incluso pensar en un paisaje de diseños
biológicos: diferentes valles corresponden a diferentes especies. No se
preocupe de que unos organismos se pongan en el camino de los otros. En este
mundo ficticio siempre hay espacio para más. Cuando se forma una burbuja con
propiedades diferentes de las de la madre, la descendencia ocupa un nuevo valle
vecino. Puesto que el espacio dentro de la burbuja también se infla, la
descendencia empieza el proceso de clonación y el proceso de habitar nuevos
valles para formar burbujas de nueva generación. De esta manera la colonia
metafórica empieza a dispersarse por el paisaje. Los reproductores más rápidos
son las regiones del espacio a las mayores altitudes, donde la constante
cosmológica es máxima. En estas regiones del paisaje la clonación tiene lugar
de forma especialmente rápida y la población de las altitudes mayores crece con
la mayor rapidez. Pero los organismos a altas altitudes también alimentan las
altitudes inferiores, de modo que la población en las regiones bajas también
crece con el tiempo [86].
Finalmente, cada nicho del paisaje llegará a estar poblado, no solo una vez
sino con una población que crece exponencialmente. La única cosa que falla en
la analogía es que los organismos reales compiten y se matan cuando su valle se
hace superpoblado. Por el contrario, no existe ningún mecanismo de competencia
entre universos de bolsillo, de modo que la población de cada valle sigue
creciendo indefinidamente. Se podría pensar que cada uno de estos organismos es
totalmente invisible para los demás en cada valle.
¿Cómo mueren las burbujas? Si aparece una burbuja con una constante
cosmológica exactamente cero, no podrá inflarse y dejara de reproducirse. Los
únicos vacíos semejantes son las partes supersimétricas del paisaje. Así pues,
la región supersimétrica del paisaje es la sepultura de los universos en más de
un sentido. La vida corriente no puede existir en ambientes supersimétricos y,
más importante para lo que nos ocupa, la reproducción de burbujas cesa.
Aunque las analogías suelen captar alguna verdad en un sentido que es
fácil de entender, siempre son confusas en otros aspectos. La analogía entre
inflación eterna y evolución de especies es engañosa en otras aspectos además
de la falta de competencia. La evolución darwiniana depende de la continuidad
entre generaciones. La descendencia se parece mucho a sus padres. Si tuviéramos
una secuencia de fotografías de todas las generaciones de simios, empezando con
el «eslabón perdido» hace cinco millones de años y terminando con usted o
conmigo, podríamos alinearlas en una hilera para ver con qué rapidez hizo su
trabajo la evolución. Si ignoramos aquellos cambios que distinguen a los
individuos en una época dada, encontraríamos que los cambios de una generación a
la siguiente son demasiado minúsculos para ser detectados. Sólo el cambio
acumulado durante miles de generaciones sería apreciable y, aun así, sólo
apenas. Lo mismo sería cierto para todos los tipos de vida. Los cambios
estructurales grandes son muy infrecuentes y, cuando ocurren, llevan casi
siempre a vías muertas evolutivas. Cualquiera que nazca con dos cabezas, tres
piernas o ningún riñón no vivirá más que un corto tiempo (excepto en los
modernos hospitales) y, en cualquier caso, es extraordinariamente poco probable
que tales criaturas tengan éxito en el juego de apareamiento darwiniano.
El contraste con la evolución en el paisaje cósmico no podría ser mayor.
El cambio que tiene lugar cuando nuclea una burbuja en una región del espacio
que se infla no es imperceptible como sucede en la evolución biológica.
Pensemos geológicamente: los valles vecinos no se parecen. El valle de Aspen,
en la Montañas Rocosas de Colorado, a una altitud de dos mil setecientos
metros, está más de setecientos metros por debajo de los Lagos Gemelos,
precisamente al otro lado del Paso de la Independencia. También son diferentes
de otro valles. Si hay un valle tan similar al de Aspen que sea difícil
advertir la diferencia, lo más probable es que esté muy apartado.
Así es el paisaje cósmico. La altitud de los valles vecinos no es
especialmente parecida. Si los vecinos difieren en la composición de branas o
flujos, eso conducirá a diferencias en la lista de partículas elementales, las
constantes de la Naturaleza e incluso la dimensionalidad del espacio. Cuando un
vacío padre engendra una burbuja, el resultado será normalmente una mutación
monstruosa antes que un pequeño cambio imperceptible.
¿Es la inflación eterna, con su prolífica y desbocada creación de
mundos— burbuja de cualquier tipo posible, una salvaje alucinación
fantasmagórica? Yo no lo creo. La expansión exponencial del espacio parece un
hecho firme; ningún cosmólogo la cuestiona. La posibilidad de más de un valle
no es en nada inusual, ni lo es la hipótesis de que una región que se infla
producirá burbujas de menor altitud. Todos están de acuerdo en eso.
Lo que es nuevo es que la teoría de cuerdas da lugar a un número
exponencialmente grande de valles con una tremenda variedad de ambientes.
Muchos físicos están muy alarmados por esta idea. Pero incluso aquí, los
teóricos de cuerdas más serios admiten que el argumento parece sólido [87].
Consideremos las últimas etapas de la evolución cósmica justo antes de
que nuestra región entrara en la era convencional de Inflación seguida de
recalentamiento y eventualmente vida. ¿De dónde veníamos antes de aparecer
milagrosamente en la terraza inflacionaria? Muy probablemente la respuesta es
que veníamos de un valle vecino con una mayor elevación. ¿Cómo difiere ese
valle del nuestro? La teoría de cuerdas da respuestas: los flujos tenían otros
valores, las branas estaban en localizaciones diferentes, y los moduli de la
compactificación eran diferentes. Quizá al pasar por encima de la montaña hacia
la terraza, las branas se aniquilaron mutuamente y se reordenaron, los flujos
cambiaron y los tamaños y formas de varios cientos de moduli cambiaron a algo nuevo
para dar una nueva máquina de Rube Goldberg. Y con la nueva configuración
vinieron nuevas leyes de la física.
§. Una relación paradójica entre hijo y padre
La teoría de la relatividad general de Einstein puede llevar a
consecuencias que desafían nuestra capacidad normal para visualizar relaciones
geométricas; los agujeros negros son un claro ejemplo. Otra curiosidad
extraordinariamente interesante atañe a la geometría dentro de las burbujas que
se forman en un espacio que se infla. Desde el exterior, la burbuja parece una
esfera que se infla acotada por una pared de dominio o membrana. La energía
liberada por los cambios dentro de la burbuja se convierte en energía cinética
de la pared de dominio, que se acelera rápidamente. Al cabo de poco tiempo, la
burbuja se expandirá a una velocidad próxima a la de la luz. Cabría esperar que
un observador en el interior de la burbuja experimente un mundo finito que en
todo instante está acotado por una pared que crece. Pero no es eso ni mucho
menos lo que ve. La visión desde dentro de la burbuja es muy sorprendente.
En el capítulo 5 encontramos los tres tipos básicos de universos en
expansión: el universo cerrado y acotado de Alexander Friedmann, el universo
plano y el universo abierto infinito con curvatura negativa. Todos los
universos estándar son homogéneos y ninguno de ellos tiene un borde o pared.
Cabría pensar que un habitante en el interior de una burbuja observaría la
pared de dominio que se expande y concluiría que él no vivía en ninguno de los
universos estándar. Sorprendentemente, esto es incorrecto: ese habitante de la
burbuja observaría ¡un universo abierto infinito con un espacio curvado
negativamente! Que una burbuja finita que se expande pueda parecer un universo
infinito desde el interior es una de esas misteriosas paradojas de la geometría
einsteniana no euclídea.
Trataré de darle una idea de cómo se resuelve la paradoja. Empezamos con
un mapa de la Tierra. Puesto que la superficie de la Tierra es curva, no puede
dibujarse en un plano sin sufrir distorsiones. Por ejemplo, en una proyección
de Mercator, Groenlandia parece casi tan grande como América del Norte y mucho
más grande que América del Sur y África; pero, por supuesto, está muy lejos de
tener el tamaño de estos continentes. Lo que ocurre es que para aplanar la
superficie de la Tierra se necesita un gran estiramiento.
Lo mismo es cierto si tratamos de aplanar una superficie negativamente
curvada de modo que pueda dibujarse en un plano. No es fácil dibujar tal
espacio pero, afortunadamente, un artista famoso ya ha hecho el trabajo. El
famoso grabado en madera Círculo límite IV de M. C. Escher no
es otra cosa que un espacio con curvatura uniforme y negativa dibujado en una
hoja de papel plana. Todos los ángeles son del mismo tamaño, como también lo
son todos los demonios. Pueden considerarse aproximadamente como galaxias. Pero
para aplanar el espacio hay que estirar el centro y comprimir las partes
distantes.
De hecho, la distancia desde el centro del espacio a la frontera es
infinita. Hay que cruzar un número infinito de demonios (o de ángeles) para
llegar al borde. Puesto que cada demonio es del mismo tamaño que cualquier
otro, la distancia es también infinita. Sin embargo, el espacio infinito entero
aparece como el interior de un círculo cuando es aplanado. Teniendo esto en
mente no es tan difícil imaginar la geometría infinita encajada en una burbuja
finita.
Círculo límite IV, de M. C. Escher
Lo que es especialmente extraño es que si el astrónomo quisiera estudiar
la pared de dominio en expansión, siempre la encontraría infinitamente lejana.
En el interior de la burbuja, la geometría del espacio no está acotada, pese al
hecho de que en cualquier instante un observador exterior ve la burbuja como
una esfera acotada. No es que un astrónomo dentro de la burbuja no pueda
detectar luz procedente de la pared de dominio. Lo que sucede es que esa luz no
parece venir de una frontera del espacio; más bien, parece venir de una
frontera del tiempo, de lo que parece ser un big bang que tuvo
lugar en el pasado. Ésta es una situación muy paradójica, un universo en
expansión infinita dentro de una burbuja en expansión finita.
Saber que vivimos en un universo abierto y con curvatura negativa sería
una poderosa razón para creer que nuestro universo de bolsillo evolucionó a
partir de un momento de la historia durante el que había en un espacio en
expansión exponencial. Esto parece una predicción clara, pero puede ser
imposible de confirmar. El universo observable es demasiado grande y, hasta
ahora, sólo hemos visto una minúscula parte del mismo. Sencillamente no vemos
suficiente para saber si es curvo o plano.
¿Qué pasa con nuestro universo hoy? ¿Pueden formarse en otro ambiente
burbujas que se expandan, crezcan y dominen nuestro universo de bolsillo? ¿Que
nos sucedería si fuéramos engullidos por una burbuja semejante? La respuesta
que sugiere la teoría de cuerdas es que un día estaremos envueltos en un
ambiente destructivo, fatal para toda la vida. Recordemos que toda la evidencia
apunta a que nuestro mundo tiene una constante cosmológica —un poco de energía
de vacío—. No hay ninguna razón por la que no pueda producir una burbuja con
menor energía. Y sabemos que hay tales lugares en el paisaje, a saber, la
sepultura de universos: regiones supersimétricas donde la constante cosmológica
es exactamente cero. Esperemos el tiempo suficiente y nos encontraremos en un
vacío de este tipo. Por desgracia, como he explicado en el capítulo 7, ni
siquiera formas de vida tan extrañas como teóricos de supercuerdas podrían
sobrevivir en un mundo supersimétrico. Un universo supersimétrico podría ser
extraordinariamente elegante, pero las leyes de la física en un mundo semejante
no permiten la química ordinaria. No es solo la sepultura de universos: anuncia
la muerte de toda la vida basada en la química.
Si es cierto que finalmente seremos engullidos en un ambiente
supersimétrico hostil, ¿cuánto tiempo tendrá que transcurrir para eso? ¿Es algo
que pueda suceder mañana, el año que viene, dentro de un millón de años? Como
sucede con todas las fluctuaciones de las agitaciones cuánticas, la respuesta
es que podría suceder en cualquier momento. La mecánica cuántica nos dice
solamente qué probabilidad tiene en un momento dado. Y la respuesta es que es
increíblemente poco probable que suceda pronto. De hecho, es poco probable que
suceda en los próximos mil millones, un billón o mil billones de años. Las
mejores estimaciones aproximadas sugieren que nuestro mundo durará ¡al menos un
gugolplex de años y, probablemente, mucho más tiempo! [88].
§. Dos visiones de la historia
Es difícil ver en qué podría estar equivocado el punto de vista del
paisaje poblado. Se sigue de principios bien comprobados. De todas formas, hay
cosas que preocupan seriamente. Quizá la cuestión más incómoda pueda resumirse
en la siguiente crítica, compuesta de varias que he oído.
¿No es cierto que todos los demás universos de bolsillo están más allá
de nuestro horizonte? Por definición, el horizonte divide el mundo en aquellos
lugares de los que podemos obtener información y aquellos lugares que son
absolutamente imposibles de observar. ¿No implica esto que, en teoría, los
otros bolsillos son inobservables? Si es así, ¿qué diferencia pueden suponer?
¿Por qué deberíamos tener que apelar a la existencia de mundos que no tienen
significado operacional para nosotros? El paisaje poblado suena más a
metafísica que a física.
Puesto que pienso que esta cuestión es muy importante, el siguiente
capítulo se dedica por entero a ello. De hecho, podría escribir fácilmente un
libro entero sobre el tema de los horizontes, probablemente lo haré. Pero por
ahora me limitaré a contrastar dos maneras de describir la historia del
universo. La primera manera corresponde muy aproximadamente a la manera
convencional de observar el universo. Observamos el universo desde dentro, por
medio de diversos tipos de telescopios desde la superficie de la Tierra.
Incluso si las observaciones se realizan desde el espacio —desde un satélite—
los resultados de las observaciones son reenviados a la Tierra para análisis.
Las observaciones desde la Tierra están limitadas a cosas dentro de
nuestro horizonte. No sólo no podemos ver nada que esté más allá del horizonte
sino que tampoco nada de lo que haya detrás del horizonte puede tener ninguna
influencia en nuestras observaciones. De modo que, ¿por qué no construir una
historia que restrinja la atención a una única región causal? Ésta es una buena
actitud pragmática que apruebo por completo.
¿Cuál es la historia del universo vista desde el punto de vista de un
observador típico? Un buen punto de partida podría ser una región del espacio
atrapada en un valle a gran altitud. La energía de vacío enormemente grande
conduce a fuerzas repulsivas tan violentas que incluso partículas como los
protones son destrozadas casi al instante. Ese mundo primordial es
extraordinariamente inhóspito. Es también muy pequeño: el horizonte está sólo a
una distancia minúscula, menor que el radio de un protón, y la región accesible
al observador es microscópica, quizá no mucho mayor que la longitud de Planck.
Obviamente, ningún observador real puede sobrevivir en este ambiente, pero
ignoremos eso.
Al cabo de algún tiempo, se nuclea una burbuja y crece, ocupando toda la
región accesible al observador. El propio observador se encuentra rodeado por
un ambiente que es solamente un poco más amigable: la constante cosmológica es
muy pequeña y el horizonte ha crecido, dejando algo más de espacio en el que
deambular. Pese a todo, la constante cosmológica en el nuevo valle es demasiado
grande para sentirse cómodo. Pero de nuevo crece una burbuja, que esta vez da
como resultado un ambiente con una constante cosmológica algo menor. Tales
cambios repentinos pueden suceder varias veces. El observador ve una sucesión
de ambientes, ninguno de ellos adecuado para la vida. Finalmente se forma una
burbuja con una energía de vacío exactamente cero: una burbuja de vacío
supersimétrico. La burbuja evoluciona hasta un mundo abierto con curvatura
negativa y deja de evolucionar. La probabilidad de pasar, en el camino hacia la
sepultura, por uno de los ambientes extraordinariamente raros que soportan vida
es extraordinariamente pequeña.
Pero supongamos que se hubiera formado una burbuja de nuestro tipo de
universo antes de que se alcanzara el paisaje supersimétrico. Éste es un suceso
muy improbable, dado lo escasos que son tales valles, pero puede suceder.
¿Evolucionaría la vida? Eso depende de cómo llegó allí exactamente la región
del espacio. Una posibilidad entre muchas es que llegara inicialmente a la
terraza inflacionaria. Eso es bueno. La inflación lleva a un universo
hospitalario. Pero si la región llegó a nuestro valle desde otra dirección en
el paisaje, se acaban todas las apuestas. Si no puede mantenerse durante un
tiempo en la terraza, es muy probable que el universo nunca produzca suficiente
calor y partículas que sean más tarde la materia de la vida.
Desde la perspectiva de un observador que ve una sucesión de ambientes
que terminan en la sepultura, la probabilidad de vida es minúscula. Pero
imaginemos ahora que pudiéramos salir del universo y verlo en conjunto. Desde
la perspectiva de un megaverso entero, la historia no es una secuencia o serie
de sucesos. La descripción del megaverso es una visión más paralela de
las cosas: muchos universos de bolsillo que evolucionan en paralelo. A medida
que evoluciona el megaverso, los universos de bolsillo se dispersan sobre todo
el paisaje. Es absolutamente seguro que algunos —muy probablemente una fracción
muy pequeña— acabarán en la terraza de vida. ¿A quién le importan todos las
demás que terminaron mal? La vida se formará donde pueda hacerlo y sólo donde
pueda.
Una vez más, una analogía biológica puede ser útil. Imaginemos el árbol
de la vida, en el que cada rama es una especie. Si seguimos el árbol desde el
tronco principal (las bacterias) hacia las ramas, procediendo aleatoriamente en
cada bifurcación, llegaremos rápidamente hasta la extinción; todas las especies
se extinguen. Pero si la tasa de evolución de nuevas especies supera a la tasa
de extinción, el árbol continúa abriéndose. Si seguimos cualquier camino
particular a la extinción, la probabilidad de encontrar vida inteligente es
nula. Pero es prácticamente seguro que el árbol acabará dando una rama
inteligente si crece el tiempo suficiente. La visión paralela es una visión
mucho más optimista.
§. Muchos mundos
¿Qué pasaría si Alemania hubiera ganado la segunda guerra mundial? ¿O
cómo sería la vida si el asteroide que mató a los dinosaurios hace sesenta y
cinco millones de años no hubiera chocado con la Tierra? La idea de un mundo
paralelo que tomó un curso diferente en una coyuntura histórica crítica es un
tema favorito de los autores de ciencia ficción. Sin embargo, como ciencia
real, yo siempre he descartado tales ideas como un absurdo frívolo. Pero para
mi sorpresa me encuentro hablando y pensando precisamente en tales cosas. De
hecho, todo este libro trata de universos paralelos: el megaverso es un mundo
de universos de bolsillo que se hacen inconexos —totalmente fuera de contacto—
cuando se alejan más allá del horizonte de los demás.
No soy ni mucho menos el primer físico que sostiene seriamente la
posibilidad de que la realidad —cualquier cosa que esto signifique— contiene,
además de nuestro propio mundo de experiencia, mundos alternativos con
historias diferentes del nuestro. El tema ha sido parte de un debate continuado
sobre la interpretación de la mecánica cuántica. A mitad de los años cincuenta,
un joven estudiante de doctorado, Hugh Everett III, propuso una
reinterpretación radical de la mecánica cuántica a la que llamó interpretación
de los muchos mundos. La teoría de Everett consiste en que en cada
coyuntura en la historia el mundo se desdobla en universos paralelos con
historias alternativas. Aunque suena como una especulación extrema, algunos de
los más grandes físicos modernos se han visto empujados por la extrañeza de la
mecánica cuántica a abrazar las ideas de Everett —entre ellos Richard Feynman,
Murray Gell-Mann, Steven Weinberg, John Wheeler y Stephen Hawking—. La
interpretación de los muchos mundos fue la inspiración para el principio
antrópico cuando Brandon Cárter lo formuló por primera vez en 1974.
A primera vista, puede parecer que los muchos mundos de Everett son una
concepción muy diferente de la del megaverso que se infla eternamente. Sin
embargo, creo que las dos pueden ser realmente lo mismo. He resaltado varias
veces que la mecánica cuántica no es una teoría que predice el futuro a partir
del pasado, sino que más bien determina las probabilidades para los posibles
resultados alternativos de una observación. Estas probabilidades se resumen en
el objeto matemático básico de la mecánica cuántica: la función de onda.
Si usted ha estudiado algo sobre mecánica cuántica y sabe que
Schrödinger descubrió una ecuación de ondas que describe a los electrones,
entonces usted ha oído hablar de funciones de onda. Quiero que olvide todo eso.
La función de onda de Schrödinger era un caso muy especial de una idea mucho
más amplia, y es en esta idea más general en la que quiero concentrarme. En
cualquier instante dado —precisamente ahora, por ejemplo— hay muchas cosas que
podríamos observar en el mundo. Yo podría decidir mirar por la ventana por
encima de la mesa y ver si la Luna está arriba. O podría planear un experimento
de doble rendija (véase el capítulo 1) y observar la localización de una mancha
particular en la pantalla. Otro experimento implicaría un único neutrón que fue
preparado algún tiempo atrás —digamos, hace diez minutos. Quizá usted recuerde
del capítulo 1 que un neutrón, si no está ligado en un núcleo, es inestable. En
promedio (pero sólo en promedio), en doce minutos se desintegrará en un protón,
un electrón y un antineutrino. La observación en este caso consistiría en
determinar si, después de diez minutos, el neutrón se ha desintegrado o sigue
estando presente en su forma original. Cada uno de estos experimentos u
observaciones tiene más de un resultado posible. En su sentido más general, la
función de onda es una lista de las probabilidades para todos los resultados
posibles de posibles observaciones del sistema bajo consideración. Más
exactamente, es una lista de las raíces cuadradas de todas estas probabilidades.
El neutrón que se desintegra es una buena ilustración para empezar. Con
algunas simplificaciones, podemos suponer que hay sólo dos resultados posibles
cuando observamos el neutrón: o se ha desintegrado o no lo ha hecho. La lista
de posibilidades es corta, y la función de onda tiene sólo dos entradas.
Empezamos con el neutrón en su forma no desintegrada de modo que la función de
onda toma el valor uno para la primera posibilidad y cero para la segunda. En
otras palabras, inicialmente la probabilidad de que el neutrón no se haya
desintegrado es uno, mientras que la probabilidad de que se haya desintegrado
(cuando empezamos) es cero. Pero al cabo de un corto tiempo, hay una pequeña
probabilidad de que el neutrón haya desaparecido. Las dos entradas para la función
de onda han cambiado de uno y cero a algo un poco menor que uno y un poco mayor
que cero. Al cabo de unos diez minutos, las dos entradas se han hecho iguales.
Sigamos otros diez minutos y las probabilidades estarán invertidas: la
probabilidad de que el neutrón siga intacto será próxima a cero y la
probabilidad de que se haya convertido en un protón/electrón/antineutrino habrá
aumentado hasta casi uno. La mecánica cuántica contiene un conjunto de reglas
para actualizar la función de onda de un sistema a medida que pasa el tiempo.
En su forma más general, el sistema de interés es todo: el universo observable
entero, incluyendo al observador que hace las observaciones. Puesto que puede
haber más de un bulto material que podría denominarse un observador, la teoría
debe dar lugar a observaciones consistentes. La función de onda contiene todo
esto y de una manera que se demostrará consistente cuando se junten dos
observadores para discutir sus hallazgos.
Examinemos el mejor conocido de todos los experimentos mentales en
física: el famoso (¿o debería decir infame?), experimento del gato de
Schrödinger. Imaginemos que a mediodía se coloca un gato en una caja cerrada
junto con un neutrón y una pistola. Cuando el neutrón se desintegra
(aleatoriamente), el electrón expulsado activa un circuito que hace que la
pistola se dispare y mate al gato.
Un practicante de la mecánica cuántica —llamémosle S— analizaría el
experimento construyendo una función de onda: una lista de las probabilidades
para los diversos resultados. S no puede tener en cuenta razonablemente todo el
universo, así que limita el sistema de modo que incluya solo aquellas cosas que
hay en la caja. A mediodía solo existiría una entrada: «El gato está vivo en la
caja con la pistola cargada y el neutrón». Luego S hará algunas matemáticas,
similares a las que se hacen al resolver las ecuaciones de Newton, para
descubrir lo que sucederá a continuación, digamos a las 00:10 h. Pero el
resultado no es una predicción de si el gato estará muerto o vivo. Es una
actualización de la función de onda, que ahora tendrá dos entradas: «el neutrón
está intacto / la pistola está cargada / el gato está vivo» y «el neutrón se ha
desintegrado / la pistola está vacía / el gato está muerto». La función de onda
se ha dividido en dos ramas —las ramas muerta y viva— cuyos valores numéricos
dan las raíces cuadradas de las probabilidades para los dos resultados.
S puede abrir la caja y ver si el gato está muerto o vivo. Si el gato
está vivo, S puede descartar la rama gato-muerto de la función de onda. Esa
rama, si se siguiera en el tiempo, contendría toda la información sobre el
mundo en el que murió el gato, pero puesto que S encontró el gato vivo ya no
necesita más esta información. Hay un término para este proceso de desechar las
ramas inobservadas de la función de onda cada vez que se hace una observación.
Se denomina colapso de la función de onda. Es un truco muy conveniente que
permite al físico concentrarse sólo en las cosas que pueden ser de interés
posteriormente. Por ejemplo, la rama viva tiene información que puede seguir
interesando a S. Si él sigue esta rama de la función de onda un poco más en el
tiempo, sería capaz de determinar la probabilidad de que saliera el tiro por la
culata y matara a S (le está bien empleado). El colapso de la función de onda
cada vez que tiene lugar una observación es el ingrediente principal de la
famosa interpretación de Copenhague de la mecánica cuántica defendida por Niels
Bohr.
Pero el colapso de la función de onda no es una parte de las matemáticas
de la mecánica cuántica. Es algo extraño a las reglas matemáticas, algo que
Bohr tuvo que añadir para terminar el experimento con una observación. Esta
regla arbitraria ha molestado a generaciones de físicos. Una gran parte del
problema es que S limitó su sistema a las cosas que había en la caja, pero al
final del experimento el propio S entra en escena para hacer la observación.
Ahora se entiende en general que una descripción consistente debe incluir
necesariamente a S como parte del sistema.
Ésta es la manera en que procedería la nueva descripción: la función de
onda describe ahora todo lo que hay en la caja además del bulto de materia que
hemos llamado S. La función de onda inicial sigue teniendo sólo una entrada,
pero ahora se describe así: «El gato vivo está en la caja con la pistola
cargada y el neutrón, y el estado mental de S está en blanco». Pasa el tiempo y
S abre la caja. Ahora la función de onda tiene dos entradas: «El neutrón está
intacto / la pistola está cargada / el gato está vivo / el estado mental de S
es consciente del gato vivo», y la segunda rama, «El neutrón se ha desintegrado
/ la pistola está vacía/el gato está muerto / el estado mental de S es
consciente del gato muerto». Nos las hemos arreglado para describir las percepciones
de S sin colapsar la función de onda.
Pero supongamos ahora que hay otro observador llamado B. B ha estado
fuera de la habitación mientras S ha estado haciendo su extraño experimento.
Cuando abre la puerta para mirar, lo que ve es uno de los dos resultados. No
vale la pena seguir la pista de la rama inobservada de la función de onda, de
modo que B colapsa la función de onda. Parece que no hemos evitado la extraña
operación. Evidentemente, lo que tenemos que hacer es incluir a B en la función
de onda. El punto de partida sería un sistema compuesto de todo lo que hay en
la caja y dos bultos llamados S y B. El estado inicial es: «El gato vivo está
en la caja con la pistola cargada y el neutrón, el estado mental de S está en
blanco, y el estado mental de B (que está fuera de la habitación) está en
blanco». Cuando S abre la caja, la función de onda desarrolla dos ramas: «El
neutrón está intacto / la pistola está cargada / el gato está vivo / el estado
mental de S es consciente de que el gato está vivo / el estado mental de B
sigue estando en blanco» y «El neutrón se ha desintegrado / la pistola está
vacía / el gato esta muerto / el estado mental de S es consciente del gato
muerto / el estado mental de B sigue estando en blanco». Finalmente B abre la
puerta, y la primera rama se convierte en: «El neutrón está intacto / la
pistola está cargada / el gato está vivo / el estado mental de S es consciente
del gato vivo / el estado mental de B es consciente del gato vivo y también del
estado mental de S». Dejaré que el lector elaboré la otra rama. Lo importante
es que el experimento ha sido descrito sin colapsar la función de onda.
Pero supongamos ahora que hay otro observador llamado E. No importa.
Usted debería ser capaz de ver la pauta. Lo que es evidente es que la única
manera de evitar el colapso de la función de onda es incluir el universo
observable entero así como todas las ramas de la función de onda en la
descripción cuántica. Ésa es la alternativa a la regla pragmática de Bohr de
terminar la historia colapsando la función de onda.
Si pensamos al modo de Everett, la función de onda describe un árbol con
una ramificación infinita de resultados posibles. Siguiendo a Bohr, la mayoría
de los físicos han tendido a considerar las ramas como ficciones matemáticas,
excepto la rama real en la que se encuentra uno mismo después de una
observación. Colapsar la función de onda es un artificio útil para eliminar
todo el equipaje innecesario, pero para muchos físicos esta regla parece ser
una intervención externa arbitraria por parte del observador, un procedimiento
que no esta basado en modo alguno en las matemáticas de la mecánica cuántica.
¿Por que deberían las matemáticas dar lugar a todas las demás ramas si su único
papel es quedar descartadas?
Según los abogados de la interpretación de los muchos mundos, todas las
ramas de la función de onda tienen la misma realidad. En cada coyuntura el
mundo se desdobla en dos o más universos alternativos, que viven para siempre
uno al lado del otro. La visión de Everett era la de una realidad que se
ramifica incesantemente, pero con la salvedad de que las diferentes ramas nunca
interaccionan entre sí una vez que se han separado. En la rama gato-vivo, la
rama gato-muerto nunca volverá a molestar a S. La regla de Bohr es simplemente
un truco para podar todas las ramas que, aunque muy reales, no tienen efecto
posterior sobre el observador.
Hay otro punto que vale la pena señalar. Para cuando llegamos a la fase
actual de la historia, la función de onda se ha ramificado tantas veces que hay
un enorme número de réplicas de toda eventualidad posible. Consideremos al
pobre B mientras está fuera de la habitación. La función de onda se ramificó
cuando S abrió la caja, desdoblando así a todos ellos, incluyendo a B, en dos
ramas. El número de ramas que le contienen a usted, sentado y leyendo este
libro, es prácticamente infinito. En este marco el concepto de probabilidad
tiene perfecto sentido como la frecuencia relativa de los diferentes
resultados. Un resultado es más probable que otro si más ramas lo contienen.
La interpretación de los muchos mundos no puede distinguirse
experimentalmente de la más convencional interpretación de Copenhague. Todo el
mundo está de acuerdo en que, en la práctica, la regla de Copenhague da
correctamente las probabilidades de los resultados experimentales. Pero las dos
teorías difieren profundamente en el significado filosófico de dichas
probabilidades. Los copenhaguistas adoptan la visión conservadora de que las
probabilidades se refieren a la estadística de un gran número de experimentos
repetidos. Pensemos en arrojar una moneda al aire. Si la moneda es «limpia», la
probabilidad para cualquier resultado (cara o cruz) es un medio. Esto significa
que si la moneda se lanza un gran número de veces, la fracción de caras y la
fracción de cruces serán ambas de un medio. Cuanto mayor es el número de
lanzamientos, más próxima estará la respuesta al resultado ideal un medio.
Cosas similares se aplican al lanzamiento de dados. Si uno lanza un único dado
muchas veces, el dado mostrará cada uno de los seis resultados posibles una
sexta parte de las veces (dentro del margen de error). Normalmente nadie
aplicaría la estadística a un único lanzamiento de la moneda o un único
lanzamiento del dado. Pero la interpretación de los muchos mundos hace justamente
eso. Trata con sucesos únicos de una manera que parecería ridícula para el
lanzamiento de monedas. La idea de que cuando se lanza una moneda el mundo se
desdobla en dos mundos paralelos —un mundo-cara y un mundo-cruz— no parece ser
una idea útil.
¿Por qué, entonces, están los físicos tan molestos con las
probabilidades que ocurren en mecánica cuántica que se ven empujados a ideas
extrañas como la interpretación de los muchos mundos? ¿Por qué era Einstein tan
insistente en que «Dios no juega a los dados»? Para entender el enigma que
acompaña a la mecánica cuántica es útil preguntar por qué, en un mundo
newtoniano de certeza absoluta, habría que hablar siquiera de la probabilidad.
La respuesta es simple: las probabilidades entran en la física newtoniana por
la sencilla razón de que casi siempre se ignoran las condiciones iniciales de
un experimento. En el experimento de lanzar la moneda, si se conocieran los
detalles exactos de la mano que arroja la moneda, las corrientes de aire en la
habitación y todos los demás detalles relevantes, no habría necesidad de
probabilidades. Cada lanzamiento llevaría a un resultado definido. La
probabilidad es un truco conveniente para compensar nuestra incapacidad
práctica para conocer los detalles. No tiene un papel fundamental en las leyes
newtonianas.
Pero la mecánica cuántica es diferente. Debido al principio de
incertidumbre no hay ninguna manera de predecir el resultado de un experimento…
ninguna manera, en teoría. Las ecuaciones fundamentales de la teoría determinan
una función de onda y nada más. La probabilidad entra en la teoría desde el
principio. No es un truco de conveniencia utilizado para compensar nuestra
ignorancia. Además, las ecuaciones que determinan cómo cambia la función de
onda con el tiempo no tienen ninguna cláusula para colapsar repentinamente las
ramas inobservadas. El colapso de la función de onda es el truco de
conveniencia.
El problema se hace especialmente grande en el contexto cosmológico. Los
experimentos ordinarios, similares al experimento de la doble rendija que he
descrito en el capítulo 1, pueden repetirse una y otra vez, igual que el
lanzamiento de la moneda. De hecho, cada fotón que atraviesa el aparato puede
considerarse como un experimento independiente. No hay problema en acumular
enormes cantidades de datos estadísticos. Pero el problema con esta concepción
de la mecánica cuántica es que no podemos aplicarla al gran experimento
cósmico. Difícilmente podemos repetir el big bang una y otra
vez y reunir estadísticas de los resultados. Por esta razón, muchos cosmólogos
reflexivos han adoptado el soporte filosófico de la interpretación de los
muchos mundos.
La primitiva idea pionera de Cárter para hacer una síntesis del
principio antrópico con la interpretación de los muchos mundos era ésta:
supongamos que la función de onda incluye ramas no sólo para cosas tan
ordinarias como la localización de un electrón, la desintegración o no
desintegración del neutrón o la vida y la muerte de un gato, sino también para
diferentes leyes de la física. Si suponemos que todas las ramas son igualmente
reales, entonces hay mundos con muchos ambientes alternativos. En lenguaje moderno,
diríamos que hay ramas (tanto como mundos reales) para cada localización en el
paisaje. El resto de la historia no es diferente de lo que he explicado antes
en este libro, excepto que en lugar de hablar de diferentes regiones del
megaverso, uno hablaría de diferentes ramas de la realidad. Para puntualizar,
déjeme hacer una cita del capítulo 1 y luego modificar la cita reemplazando
algunas palabras. La cita original era ésta: «En algún lugar en el megaverso,
la constante es igual a este número: en algún otro lugar
es ese otro número. Vivimos en un bolsillo minúsculo donde el
valor de la constante es compatible con nuestro tipo de vida». La cita
modificada es la siguiente: «En algún lugar en la función de onda, la constante
es igual a este número: en algún otro lugar es ese otro
número. Vivimos en una rama minúscula donde el valor de la constante es
compatible con nuestro tipo de vida». Aunque las dos citas parecen muy
similares, se están refiriendo a dos ideas en apariencia completamente
diferentes de universos alternativos. Parece que tenemos más de una manera de
conseguir el tipo de diversidad que permitiría que el razonamiento antrópico
tenga sentido. Podría añadir que diferentes proponentes del principio antrópico
tienen opiniones diferentes sobre qué versión es la verdadera teoría de los
universos paralelos. ¿Mi opinión? Creo que las dos versiones son versiones
complementarias de exactamente la misma cosa.
Examinemos la situación con un poco más de detalle. Antes, en este mismo
capítulo, he descrito dos visiones de una historia que se infla eternamente,
las visiones paralela y serial. La visión paralela reconoce al megaverso entero
con todos sus múltiples universos de bolsillo que, una vez separados por
horizontes, están fuera de contacto. Eso suena muy parecido a los muchos mundos
de Everett. Pero ¿qué pasa con la visión serial?
Consideremos un ejemplo. Supongamos que se ha formado una burbuja de
espacio, con propiedades asociadas con un valle en el paisaje. Será útil tener
algunos nombres para el valle y sus vecinos, de modo que le llamaremos Valle
Central. Al este y al oeste del Valle Central hay valles Éste y Oeste, cada uno
de ellos a altitudes algo menores. Desde el Valle Oeste puede llegarse a otros
valles vecinos, uno llamado Shangri La y el otro Valle de la Muerte. El Valle
de la Muerte no es realmente un valle, sino más bien una llanura a altitud
exacta mente cero. El Valle Éste también tiene algunos vecinos a los que puede
llegarse fácilmente, pero no nos molestaremos en darles nombres.
Imagínese a usted mismo en el Valle Central conforme se infla su
universo de bolsillo. Puesto que hay valles vecinos más bajos, su vacío es
metaestable: pueden formarse burbujas y envolverle. Después de cierto período
de tiempo usted podría mirar alrededor y observar las propiedades de su
entorno. Quizá encontrara que sigue estando en el Valle Central. O podría
encontrar que ha hecho una transición al Valle Éste o al Valle Oeste. La
decisión respecto a en qué valle habita usted ahora está determinada aleatoriamente
de acuerdo con la mecánica cuántica, de manera muy parecida a cómo la mecánica
cuántica determina el destino del gato de S.
Digamos que usted se encuentra ahora en el Valle Oeste. Podría descartar
entonces la rama de su función de onda que corresponde al Valle Éste; es
irrelevante para su futuro. De nuevo, espere un poco, y si tiene suerte quizá
le engulla a continuación una burbuja en el agradable Valle Shangri La que
soporta la vida. Pero también podría acabar en el Valle de la Muerte. En cada
coyuntura Bohr y su banda de Copenhague le dirían cómo calcular la probabilidad
de cada resultado.
Luego le instruirían para colapsar la función de onda para deshacerse
del exceso de equipaje de aquellas ramas que no correspondían a su experiencia.
Ésta es la visión serial de la historia.
Mi propia visión debería ser ahora obvia. La visión serial —quedarse en
su propio bolsillo, dentro de su horizonte, observando sucesos y eliminando el
equipaje inobservado— es la interpretación de Bohr de la mecánica cuántica. La
visión paralela y más costosa de la historia, la del megaverso, es la
interpretación de Everett. Encuentro en esta correspondencia una consistencia
agradable. Quizá al final encontraremos que la mecánica cuántica tiene sentido
solamente en el contexto de un megaverso que se ramifica y que el megaverso
sólo tiene sentido como la realidad ramificante de la interpretación de
Everett. Ya utilicemos el lenguaje del megaverso o la interpretación de los
muchos mundos, la visión paralela, junto con el enorme paisaje de la teoría de
cuerdas, nos proporciona los dos elementos que pueden hacer que el principio
antrópico pase de ser una tautología estúpida a ser un poderoso principio
organizador. Pero la visión paralela descansa en la realidad de regiones de
espacio y tiempo que, en apariencia, están permanentemente más allá del alcance
de cualquier observación concebible. Para algunas personas eso es turbador. A
mí me perturba. Si el vasto mar de universos de bolsillos está realmente más
allá de un horizonte definitivo, la visión paralela se parece más a metafísica
que a ciencia. El capítulo siguiente trata de los horizontes y de si son
realmente barreras definitivas.
Capítulo 12
La guerra del agujero negro
«A veces ha creído hasta seis cosas imposibles antes del desayuno».
LEWIS CARROLL
Contenido:
§. Complementariedad de agujero negro
§. El principio holográfico
§. Burbujas a nuestro alrededor
Sólo podemos mirar impotentes mientras el calor le envuelve. Pronto sus
preciosos fluidos corporales empezarán a hervir y luego a vaporizarse. El calor
será tan intenso que los propios átomos de su ser se descompondrán. Pero se ha
predicho que finalmente usted nos será devuelto en una forma vaporosa de pura
luz y radiación.
Pero no tenga miedo. Usted pasará al otro lado a salvo y sin dolor. En su forma
presente le perderemos para siempre, sin poder comunicarnos nunca más, al menos
no hasta que nosotros mismos crucemos. Pero, amigo mío, desde su lugar usted no
tendrá problemas para vernos cuando continuemos sin usted. Buena suerte.
¿Una historia de martirio y resurrección? ¿Un clérigo consolando al
mártir antes del acto de fe? ¿El cruce del velo que separa a los vivos de los
muertos? En absoluto. Es la imaginaria, pero perfectamente posible, sesión
informativa de un futuro viajero a las estrellas, suficientemente valiente y
curioso para entrar en un agujero negro gigante y cruzar su horizonte. No es
una información que da un capellán sino la de un físico teórico residente en la
nave estelar.
O, más a propósito para este libro, podría ser el cruce del horizonte
cósmico de un universo en eterna inflación. Pero llegaremos al horizonte
cósmico un poco más tarde.
Los espiritistas creen que la comunicación con los muertos es posible:
todo lo que se requiere es el médium correcto, un adepto a las ciencias
ocultas. Ya puede usted suponer lo que yo pienso de tales afirmaciones, pero,
irónicamente, he sido uno de los primeros combatientes en una
guerra de ideas sobre la posibilidad de comunicar con los desaparecidos al otro
lado de un horizonte de sucesos. Esta guerra duró un cuarto de siglo, pero
ahora está acabada.
Los protagonistas fueron Stephen Hawking y su ejército de relativistas
generales de un lado [89]. Del
otro lado, durante los primeros quince años, fuimos principalmente Gerard’t
Hooft y yo mismo. Más tarde un grupo de teóricos de cuerdas vino en nuestra
ayuda.
Gerard ’t Hooft es holandés. Si se mide por el número de grandes
contribuciones a la física per cápita, los holandeses son seguramente los más
grandes físicos del mundo. Christiaan Huygens, Hendrik Antoon Lorentz, Willem
de Sitter, Heike Kammerling Onnes, George Uhlenbeck, Johannes Diderik van der
Waals, Hendrik Gerhaard Casimir, Martinus Veltman, Gerard’t Hooft son sólo
algunos de los nombres mayores. Lorentz y ’T Hooft están presumiblemente entre
las más grandes figuras de la historia de la física. Para mí, ’T Hooft, más que
ningún otro físico vivo, representa el espíritu de Einstein, Lorentz y Bohr.
Aunque es seis años más joven que yo, siempre he sentido admiración por ’T
Hooft.
Estoy orgulloso de decir que ’T Hooft no es sólo uno de mis héroes sino
que también es un buen amigo. Aunque es muy superior a mí en matemáticas,
siempre he encontrado que de todos mis colegas es con el que me siento más
cercano en puntos de vista. A lo largo de los años, nos hemos visto con
frecuencia trabajando en los mismo enigmas, inquietos por las mismas paradojas
y con conjeturas similares sobre la solución de estos problemas. Pienso que,
como yo, Gerard es un físico muy conservador que no abrazaría una solución
radical a un problema a menos que sienta que todos los demás caminos se han
mostrado fútiles. Pero entonces él es audaz.
Si Gerard es conservador, yo tendría que decir que Stephen Hawking es el
Evel Knievel de la física [90].
Valiente hasta el punto de la temeridad, Stephen es una bien conocida amenaza
para el tráfico en Cambridge, donde su silla de ruedas suele verse circulando a
toda velocidad, superando con creces la velocidad máxima para trasladarse con
seguridad. Su física es en muchos aspectos como su conducción de la silla de
ruedas: atrevida, aventurera, audaz al máximo. Como Evel Knievel, ha tenido sus
accidentes.
Hace tres años, Stephen cumplió los sesenta. La fiesta fue como ninguna
otra celebración del sexagésimo cumpleaños de un físico. Seminarios y
conferencias de física —por supuesto, muchas de ellas— pero también música,
bailarinas de cancán, una famosa estrella de rock de U2, una imitadora de
Marilyn Monroe y físicos cantando. Fue un estupendo suceso mediático.
Para darle una idea de la relación que hemos mantenido Stephen y yo
durante años, daré una cita de la charla de cumpleaños que di en la
celebración:
Stephen, como todos sabemos, es con mucho la persona más terca y
exasperante del universo. Creo que en nuestra relación científica podemos
calificamos de contrincantes. Hemos discrepado profundamente sobre cuestiones
relativas a agujeros negros, información y todo este tipo de cosas. A veces ha
hecho que me tirara de los pelos por frustración… y a la vista está el
resultado. Les aseguro que cuando empezamos a discutir hace más de dos décadas,
yo tenía la cabeza cubierta de pelo.
En ese momento pude ver a Stephen en la parte de atrás del auditorio con
su picara y malévola sonrisa. Continué:
También puedo decir que, de todos los físicos que he conocido, él ha
tenido la mayor influencia sobre mí y mi pensamiento. Casi todo lo que he
pensado desde 1980 aproximadamente ha sido de una manera u otra una respuesta a
su intuitiva y profunda pregunta sobre el destino de la información que cae
dentro de un agujero negro. Aunque creo firmemente que su respuesta era
errónea, la pregunta y su insistencia en una respuesta convincente nos ha
obligado a replantear los fundamentos de la física. El resultado es un
paradigma totalmente nuevo que ahora está tomando forma. Estoy profundamente
orgulloso de estar aquí para celebrar las monumentales contribuciones de
Stephen y especialmente su magnífica terquedad.
Eso fue hace tres años. Entonces Stephen aún creía que él tenía razón y
que ’T Hooft y yo estábamos equivocados.
En los primeros días de la guerra había muchos chaqueteros que trataban
de colocarse en el bando vencedor, cualquiera que fuera. Pero Stephen, para su
crédito imperecedero, se mantuvo en sus trece hasta que ya no era posible
seguir resistiendo. Entonces se rindió cortés e incondicionalmente. De hecho,
si Hawking hubiera combatido con menos convicción, probablemente hubiéramos
sabido mucho menos de lo que hoy sabemos.
El punto de vista de Stephen era simple y directo. El horizonte de un
agujero negro es un punto de no retorno. Cualquier cosa que cruce
el horizonte queda atrapada. Para cruzarlo hacia atrás sería necesario superar
la velocidad de la luz: una imposibilidad total según Einstein. Personas,
átomos, fotones, cualquier tipo de señal que pueda portar un mensajero está
limitada por la velocidad límite de Einstein. Ningún objeto o señal puede
cruzar desde detrás del horizonte al mundo exterior. El horizonte del agujero
negro es el muro de una prisión perfecta. Los observadores que, fuera de la
prisión, aguardan un informe procedente del interior esperarían una eternidad
para obtener siquiera un solo bit de información de dentro. Al menos ésa era la
visión de Hawking.
Para tener una buena idea de cómo funcionan los agujeros negros sin
entrar en las difíciles matemáticas de la relatividad general, necesitamos una
analogía. Por fortuna tenemos una muy buena que es familiar y fácil de
entender. No estoy seguro de quién fue el primero que la utilizó, pero yo la
aprendí o, al menos, una similar, del físico canadiense Bill Unruh. Volvamos al
lago infinito y poco profundo que utilizamos en el capítulo anterior para
ilustrar un universo que se infla. Pero ahora no necesitamos las tuberías de
alimentación que inyectan agua nueva en el lago. En su lugar introducimos un
desagüe en el centro. El desagüe es un agujero en el fondo del lago que permite
que el agua escape, quizá vaciándose en algún lecho rocoso que hay debajo.
Introduzcamos también algunas barcas con observadores en el lago.
Los observadores deben obedecer dos reglas. La primera es que sólo
pueden comunicarse por medio de ondas de superficie, es decir, rizos en la
superficie del lago. Pueden agitar sus dedos en el agua para irradiar ondas. La
segunda regla es respetar una velocidad límite en el lago. A ninguna barca,
bajo ninguna circunstancia, se le permite moverse a través del agua a más
velocidad que la de estas ondas.
Empecemos con observadores alejados del centro, donde el agua apenas
está perturbada por el desagüe. No está completamente quieta: migra muy
lentamente hacia el centro aunque de forma casi imperceptible. Pero conforme
nos movemos hacia el desagüe, el flujo toma velocidad, y muy cerca del desagüe
la velocidad hacia el mismo se hace mayor que la velocidad de los rizos
superficiales. Las ondas emitidas desde esta región son arrastradas hacia el
desagüe incluso si estaban dirigidas hacia fuera. Obviamente, cualquier barca
que sin saberlo se acercara tanto está condenada a ser arrastrada a su
destrucción. De hecho hay una frontera concreta donde la velocidad del agua
iguala la velocidad de las ondas de superficie. Ese lugar es el punto de no
retorno. Una vez cruzado no hay vuelta atrás. Ni siquiera puede enviarse un
mensaje al exterior. Ese punto de no retorno es como el horizonte de un agujero
negro, excepto que en el caso del agujero negro el espacio está siendo
arrastrado hacia adentro con la velocidad de la luz. Ninguna señal puede
escapar desde detrás del horizonte sin superar la velocidad límite final de
Einstein. Ahora debería estar claro por qué Stephen estaban seguro de que la
información que cruza el horizonte de un agujero negro se pierde irremediablemente
para el exterior.
El propio Stephen fue responsable del arma que se volvió contra él.
Basándose en la gran obra de Jacob Bekenstein a principios de los años setenta,
Stephen había demostrado que los agujeros negros tienen energía térmica: calor.
No son gélidamente fríos como los físicos habían supuesto. Es cierto que cuanto
más grande es el agujero negro, menor es su temperatura, pero por grande que
sea siempre hay un calor térmico residual. En el caso del tipo de agujero negro
que resultaría del colapso final de una estrella, la temperatura de Hawking
sería sólo de aproximadamente una diezmillonésima de grado sobre el cero
absoluto. Pero no es cero.
Hawking argumentó que un agujero negro, como cualquier otro objeto con
contenido térmico, radiaría energía. Un atizador caliente que ha sido dejado al
fuego irradia luz de color naranja o rojo. Los objetos más fríos irradian
radiación infrarroja invisible a simple vista. Por frío que esté, siempre que
no esté en el cero absoluto, un objeto irradiará energía en forma de radiación
electromagnética. En el caso de un agujero negro, se llama radiación de
Hawking. Ése fue el gran descubrimiento de Hawking.
Cualquier cosa que irradie perderá energía. Pero masa y energía son dos
lados de la misma moneda, según Einstein. De modo que, con el tiempo, los
agujeros negros pierden su masa y, al perder masa, se contraen hasta que se
evaporan por completo, dejando sólo los fotones de la radiación de Hawking en
su lugar. Curiosamente, entonces, la masa de cualquier objeto que cae dentro de
un agujero negro es inevitablemente radiada de nuevo como radiación de Hawking.
La energía del valeroso viajero estelar que se atrevió a cruzar el horizonte
reaparece eventualmente como «pura luz y radiación».
Pero, decía Hawking, puesto que ninguna señal puede superar la velocidad
de la luz, ninguna información del interior puede salir del horizonte junto con
la radiación de Hawking. Tal información está atrapada en una bola que se
contrae, hasta desaparecer, simplemente desaparece cuando lo ha hecho el
agujero negro.
La primera vez que yo oí esto fue en 1980, cuando Stephen, Gerard’t
Hooft y yo asistimos a una pequeña conferencia en San Francisco. Gerard y yo
quedamos perturbados por la conclusión de Stephen y estábamos seguros de que
era errónea. Pero ninguno de nosotros podía ver exactamente qué había
incorrecto en el razonamiento. Yo tenía una sensación de profunda incomodidad.
Una paradoja de gran magnitud había sido anunciada por Hawking: el tipo de
paradoja que podría finalmente abrir la puerta a una comprensión más profunda
de la escurridiza conexión entre gravedad y mecánica cuántica.
El problema era que la conclusión de Hawking violaba uno de los lemas
centrales de la física. Por supuesto Hawking lo sabía. Por eso encontró tan
excitante la idea de la pérdida de información en la
evaporación del agujero negro. Pero ’T Hooft y yo pensábamos que la conservación
de la información estaba demasiado arraigada en los fundamentos
lógicos de la física para descartarla, incluso en presencia de un objeto tan
extraño como un agujero negro. Si estábamos en lo cierto, entonces los bits de
información que caen en el horizonte de un agujero negro son de algún modo
radiados de vuelta con la radiación de Hawking, abriendo así la vía para que la
información prisionera sea enviada al exterior.
No habría que sacar la idea de que la información sale del agujero negro
en una forma fácilmente accesible. Sale en una forma tan revuelta que en
términos prácticos sería imposible de desenredar. Pero el debate no trataba de
cuestiones prácticas. Trataba de las leyes de la Naturaleza y los principios de
la física.
¿Qué, exactamente, constituye información, especialmente si está
enredada más allá de cualquier reconocimiento? Para entender las ideas
implicadas, continuemos la analogía con una prisión. Un capo de la mafia en «la
gran casa» quiere enviar un mensaje a uno de sus lugartenientes en el exterior.
Primero escribe su mensaje: «Di a los hermanos Piraña que apuesten diez mil al
Kid». Para ponérselo difícil a los censores, él añade, al final, un mensaje
falso mucho más largo, digamos el texto de la Encyclopaedia
Britannica. A continuación, la mente criminal coloca el mensaje en una
serie de tarjetas, una letra por tarjeta. El orden de las tarjetas retiene el
mensaje original, incluyendo la parte interesante y el añadido falso al final.
Ahora revuelve el mensaje. El capo tiene un código para hacerlo. Toma el
mensaje entero y baraja las letras, no en forma aleatoria sino según una regla.
A continuación baraja el resultado, de nuevo con la misma regla. Hace esto una
y otra vez diez millones de veces. El mensaje es entonces transmitido al
lugarteniente.
Las tarjetas son los equivalentes a los fotones de Hawking que son
radiados desde el agujero negro.
¿Qué hace el lugarteniente con ello? Si él no sabe la regla de barajado,
no tiene nada sino una secuencia aleatoria y sin sentido de letras que no
transmiten ninguna información. Pero en cualquier caso la información está
allí. Dada la regla del barajar, el lugarteniente puede desenredar el mensaje
barajando a la inversa diez millones de veces. El mensaje reaparece encima de
la mesa y el lugarteniente escoge fácilmente la parte relevante. La información
estaba allí incluso si estaba revuelta. Incluso si el lugarteniente no tuviera
la regla del barajar —quizá la perdió—, la información estaba de todas formas
en las tarjetas.
Comparemos eso con una situación diferente. Esta vez el censor de la
prisión intercepta el mensaje cuando sale y lo baraja, pero lo hace de acuerdo
con una regla que tiene una aleatoriedad intrínseca incorporada. Baraja una
vez, dos veces, diez millones de veces. Ahora, incluso si el lugarteniente sabe
que las letras fueron revueltas aleatoriamente, no hay manera de recuperar el
mensaje. La información está realmente perdida. La aleatoriedad del barajar no
sólo revolvió el mensaje sino que también destruyó la información que contenía.
La controversia real por la que Hawking, ‘T Hooft y yo estábamos en
guerra no tenía nada que ver con las cuestiones prácticas de reconstruir
realmente los mensajes procedentes del interior de un agujero negro. Tenía que
ver con la existencia de reglas y los tipos de reglas que utiliza la
Naturaleza. Gerard y yo afirmábamos que la Naturaleza revuelve la información
pero nunca la destruye. Stephen afirmaba que los agujeros negros crean una
forma de aleatoriedad —un tipo de ruido en el sistema— que degrada cualquier
información antes de que la radiación de Hawking escape del entorno inmediato
del agujero negro. Una vez más no se trataba de una cuestión de tecnología,
sino que más bien tenía que ver con la naturaleza de las leyes de la física
futuras, cuando mecánica cuántica y gravedad sean ambas importantes.
El lector puede encontrar una cosa confusa, incluso perturbadora. ¿No
introduce la mecánica cuántica un elemento de aleatoriedad en las leyes de la
Naturaleza? ¿No destruyen información las agitaciones cuánticas? La razón no es
simple, pero la respuesta es no. La información cuántica no es tan detallada
como la información en una secuencia clásica de símbolos. Pero la aleatoriedad
de la mecánica cuántica es de un tipo muy especial y controlado. Hawking estaba
afirmando un grado de aleatoriedad por encima del tipo permitido por las reglas
estándar de la mecánica cuántica: un nuevo tipo de aleatoriedad que estaba
catalizada por la presencia de un agujero negro.
Sigamos un poco más con la analogía de la prisión. Imaginemos que el
lugarteniente envió un mensaje a la prisión con alguna información
irreemplazable. De hecho, podemos imaginar incluso un flujo continuo de
información que fluye hacia adentro. La prisión tiene sus límites. No puede
seguir absorbiendo trozos de papel indefinidamente. En algún momento tendrá que
arrojarlos a la basura. Según Hawking, los mensajes entran, la basura sale,
pero dentro de la prisión la información que había en el mensaje queda destruida
por este nuevo tipo de aleatoriedad. Pero ’T Hooft y yo decíamos que no: el
mensaje está en la basura. Es indestructible. Argumentábamos que los bits
cuánticos que caen en el agujero negro están siempre allí para poder ser
recuperados, pero sólo si uno conoce el código [91].
La posición que manteníamos ’T Hooft y yo no carecía de problemas.
Nosotros insistíamos en que la información escapa del horizonte, ¿pero cómo
podía hacerlo si eso requiere superar la velocidad de la luz? ¿Cuál es el
mecanismo? La respuesta debía ser que nunca entra.
Enviemos un mensaje al interior de un agujero negro con el viajero
estelar. Según las reglas usuales de la teoría de la relatividad general, el
mensaje junto con el viajero deberían cruzar el horizonte. Por el contrario, ‘T
Hooft y yo, para salvar los principios básicos de la mecánica cuántica,
estábamos afirmando que los bits de información en el mensaje serían
transferidos a la radiación de Hawking saliente inmediatamente antes de cruzar
el horizonte y serían radiados fuera. Era como si el mensaje fuera arrancado de
las manos de su mensajero y puesto en la basura saliente inmediatamente antes
de atravesar el punto de no retorno.
Este conflicto de principios creó un dilema muy serio. La relatividad
general decía que los bits entran en el horizonte y continúan su camino hacia
el interior profundo del agujero negro. Pero las reglas de la mecánica cuántica
prohíben que la información se pierda para el mundo exterior. Una posibilidad
podría resolver el dilema. Volvamos a la analogía de la prisión. Supongamos que
a la entrada de la prisión hubiera un guardia estacionado con una fotocopiadora
y que cada mensaje entrante fuera fotocopiado: una copia entra en la prisión y
otra es enviada de vuelta después de un barajado no aleatorio. Eso satisfaría a
todo el mundo. Dentro de la prisión verían que el mensaje entraba como si no
fuera perturbado en su camino. Fuera, los observadores encontrarían que la
información no se perdía nunca. Todo el mundo tenía razón.
Aquí el problema cobra interés. Un principio muy básico de la mecánica
cuántica dice que una fotocopiadora cuántica es imposible. La información
cuántica no puede ser copiada fielmente. Por muy bien que la máquina copie
algunos tipos de información, siempre fracasará lamentablemente con otros
tipos. Yo llamo a esto el principio de imposibilidad de fotocopia cuántica. Los
expertos en información cuántica le llaman teorema de imposibilidad de
clonación. Lo que afirma es que ningún sistema físico puede replicar con total
fidelidad información en un mundo cuántico.
He aquí una manera de entender el principio de imposibilidad de
fotocopia cuántica. Empecemos con un único electrón. El principio de
incertidumbre de Heisenberg nos dice que nunca es posible conocer a la vez la
posición de un electrón y su velocidad. Pero supongamos ahora que pudiéramos
hacer una fotocopia cuántica del electrón en su estado original exacto.
Entonces podríamos medir la posición de una copia y la velocidad de la otra,
obteniendo con ello el conocimiento prohibido.
De modo que éste es el nuevo dilema: la relatividad general nos dice que
la información debería atravesar directamente el horizonte hacia el interior
profundo del agujero negro. Por otra parte, los principios de la mecánica
cuántica nos dicen que la misma información debe quedar fuera del agujero
negro. Y el teorema de imposibilidad de clonación nos dice que sólo es posible
una copia de cada bit. Ésa es la situación confusa en la que nos encontrábamos
Hawking, ‘‘T Hooft y yo. A principios de los años noventa la situación había
llegado a una crisis: ¿quién tiene razón? ¿El observador en el exterior que
espera que se respeten las reglas de la mecánica cuántica? Para él los bits de
información deberían estar localizados justo por encima del horizonte, donde son
revueltos y luego reenviados fuera por la radiación de Hawking. ¿O tiene razón
el observador que cae a través del horizonte en esperar que los bits le
acompañen hasta el corazón del agujero negro?
La solución a la paradoja fue proporcionada finalmente por dos nuevos
principios de la física que ’T Hooft y yo introdujimos a comienzos de los años
noventa. Ambos son muy extraños, mucho más extraños que la idea de Hawking de
que la información puede perderse; tan extraños que, de hecho, nadie más,
aparte de ’T Hooft y yo, los creyó al principio. Pero como Sherlock Holmes le
dijo en cierta ocasión a Watson, «Cuando has eliminado todo lo que es
imposible, lo que queda debe ser la verdad, por improbable que sea».
§. Complementariedad de agujero negro
Con la posible excepción de Einstein, Niels Bohr fue el más filosófico
de los padres de la física moderna. Para Bohr, la revolución filosófica que
acompañó al descubrimiento de la mecánica cuántica era la complementariedad.
Esta complementariedad de la mecánica cuántica se manifestaba de muchas
maneras, pero el ejemplo favorito de Bohr era la dualidad onda-partícula que
había sido impuesta en la física por el fotón de Einstein. ¿Es la luz una
partícula? ¿O es una onda? Las dos son tan diferentes que parecen totalmente
irreconciliables.
De todas formas, la luz es a la vez una onda y una partícula. O más
exactamente, en ciertos tipos de experimentos la luz se comporta como una
partícula. Un haz de luz muy débil que incide en una placa fotográfica deja
minúsculos puntos negros: evidencia discreta de la naturaleza de partícula
indivisible del fotón. Por otra parte, dichos puntos se sumarán finalmente para
dar una figura de interferencia ondulatoria, un fenómeno que sólo tiene sentido
para ondas. Todo depende de cómo se observe la luz y qué experimentos se hagan.
Las dos descripciones son complementarias, no contradictorias.
Otro ejemplo de complementariedad tiene que ver con el principio de
incertidumbre de Heisenberg. En la física clásica el estado de movimiento de
una partícula incluye a la vez su posición y su momento. Pero en mecánica
cuántica se describe una partícula por su posición o por su momento, nunca
ambos. La sentencia «Una partícula tiene una posición Y un momento», debe
reemplazarse por «Una partícula tiene una posición O un momento». Análogamente,
la luz es partículas. O la luz es ondas. El que se utilice una descripción u
otra depende del experimento.
La complementariedad del agujero negro es el nuevo tipo de
complementariedad que resulta de combinar la mecánica cuántica con la teoría de
la gravedad. No hay una única respuesta a la pregunta «¿Quién tiene razón: el
observador que permanece fuera del agujero negro y ve que toda la información
se irradia desde por encima del horizonte, o el observador que lo cruza con los
bits que se dirigen hacia el centro del agujero negro?». Cada uno tiene razón
en su propia contexto: son descripciones complementarias de dos experimentos
diferentes. En el primero, el experimentador se queda fuera del agujero negro.
Puede arrojar cosas dentro, recoger fotones cuando salen, dejar caer sondas
hasta justo por encima del horizonte, observar los efectos sobre las
trayectorias de la partículas que pasan cerca del agujero negro y así
sucesivamente.
Pero en el segundo tipo de experimento, el físico prepara un experimento
en su laboratorio. Luego, con laboratorio y todo, salta dentro del agujero
negro, cruzando el horizonte mientras realiza el experimento.
Las descripciones complementarias de los dos experimentos son tan
radicalmente diferentes que difícilmente parece creíble que ambas pudieran ser
correctas. El observador externo ve que la materia cae hacia el horizonte, se
frena y queda suspendida exactamente por encima del mismo [92]. La
temperatura inmediatamente por encima del horizonte es elevada y reduce toda la
materia a partículas, que finalmente son radiadas hacia fuera. De hecho el
observador externo, que controla al observador en caída, lo ve vaporizado y
reemitido como radiación de Hawking.
Pero esto no se parece en nada a lo que experimenta el observador en
caída libre. En su lugar, él atraviesa a salvo el horizonte sin siquiera
notarlo. Ningún bache o sacudida, ninguna alta temperatura, ninguna advertencia
de ningún tipo señala el hecho de que ha cruzado el punto de no retorno. Si el
agujero negro es suficientemente grande, digamos de algunos millones de años
luz de radio, viajaría durante otro millón de años sin ninguna incomodidad.
Mejor dicho, ninguna incomodidad hasta que llega al corazón del agujero negro,
donde las fuerzas de marea—las fuerzas distorsionadoras de la gravedad— se
hacen finalmente tan fuertes que… dejémoslo, es demasiado terrible.
Dos descripciones tan diferentes suenan contradictorias. Pero lo que
hemos aprendido de Bohr, Heisenberg y otros que les siguieron es que las
paradojas aparentes de este tipo señalan contradicciones genuinas sólo cuando
llevan a expectativas en conflicto para un único experimento. Ahora no hay
peligro de resultados experimentales incompatibles porque el observador en
caída libre nunca puede comunicar al exterior que ha pasado sin problemas. Una
vez que ha cruzado a salvo el horizonte, está permanentemente fuera de contacto
con todos los observadores que permanecen fuera del agujero negro. La
complementariedad es extraña pero cierta.
La otra revolución importante de principios del siglo XX fue la teoría
de la relatividad de Einstein. Algunas cosas son relativas al estado de
movimiento del observador. Dos observadores diferentes que se cruzan
rápidamente discreparán acerca de si dos sucesos ocurrieron al mismo tiempo. Un
observador podría ver dos destellos de flash exactamente al
mismo tiempo. El otro vería que un destello tiene lugar antes que el otro.
El principio de complementariedad del agujero negro es también un
principio de relatividad nuevo y más fuerte. Una vez más, la descripción de los
sucesos depende del estado de movimiento del observador. Permaneciendo en
reposo fuera del agujero negro se ve una cosa. Cayendo en caída libre hacia el
interior del agujero negro se ven los mismos sucesos de forma completamente
diferente.
Complementariedad y relatividad —los productos de las grandes mentes de
los principios del siglo XX— se están ahora unificando en una visión
radicalmente nueva del espacio, el tiempo y la información.
§. El principio holográfico
Quizá el error que cometió Hawking es pensar que un bit de información
tiene una localización definida en el espacio. Un ejemplo sencillo de un bit
cuántico es la polarización de un fotón. Cada fotón tiene un sentido de giro.
Imagine el campo eléctrico de un fotón cuando se mueve. La punta del campo
eléctrico se mueve con un movimiento helicoidal, un movimiento de tipo
sacacorchos. Piense que usted mismo va tras el rayo de luz. El movimiento de
sacacorchos puede ser o en el sentido de la agujas del reloj o en sentido
contrario. En el primer caso, los fotones que constituyen el haz se llaman
fotones dextrógiros; en el segundo caso, son levógiros. Es el sentido en el que
usted tendría que girar un destornillador para introducir un tornillo en la
pared que tiene delante. Los tornillos corrientes son dextrógiros, pero ninguna
ley de la Naturaleza prohíbe tornillos levógiros. Los fotones se dan en ambos
tipos. La diferencia se denomina polarización circular del fotón.
La polarización de un único fotón está compuesta de un único bit
cuántico de información. Pueden enviarse mensajes de código Morse en forma de
una secuencia de fotones: en lugar de una secuencia de puntos y rayas, la
codificación consiste en la secuencia de polarizaciones.
¿Qué pasa con la localización de ese bit de información? En mecánica
cuántica la localización de un fotón puede no estar definida. Después de todo,
no se puede especificar a la vez la localización y el momento del fotón. ¿No
significa eso que el bit de información no está en un lugar definido?
Usted quizá no sepa exactamente dónde está el fotón, pero puede medir su
localización si decide hacerlo. Lo que no puede es medir a la vez su posición y
su momento. Y una vez que mide la localización del fotón, sabe exactamente
dónde está ese bit de información. Además, en la mecánica cuántica convencional
y en la relatividad, cualquier otro observador coincidirá en eso. En ese
sentido el bit cuántico de información tiene una localización definida. Al
menos así es como siempre se pensó que era.
Pero el principio de complementariedad del agujero negro dice que la
localización de la información no está definida, ni siquiera en ese sentido. Un
observador encuentra que los bits que constituyen su propio cuerpo están en
algún lugar detrás del horizonte. El otro ve esos mismos bits radiados hacia
afuera desde una región justo fuera del horizonte. De modo que parece que la
idea de que la información tiene una localización definida en el espacio es
errónea.
Hay una manera alternativa de considerarlo. En esta visión los bits
tienen una localización, pero no están en absoluto en donde uno piensa que
están. Ésta es la visión holográfica de la Naturaleza que surgió de la
reflexión sobre los agujeros negros. ¿Cómo funcionan los hologramas?
Una imagen, una fotografía o una pintura no son el mundo real que
representan. Son planas, no tienen la profundidad tridimensional del objeto
real. Mirémoslas desde un lado, casi de perfil. No se parecen nada a la escena
real vista desde un ángulo. En resumen, son bidimensionales, mientras que el
mundo es tridimensional. El artista, utilizando su destreza perceptual, nos ha
engañado para que generemos una imagen tridimensional en nuestro cerebro, pero
la información no está allí para formar un modelo tridimensional de la escena.
No hay manera de decir si esa figura es un gigante lejano o un enano próximo.
No hay manera de decir si la figura está hecha de plastilina o es de carne y
hueso. El cerebro está ofreciendo información que no está realmente presente en
las pinceladas en el lienzo o en los granos oscurecidos de plata en la
superficie fotográfica.
La pantalla de un ordenador es una superficie bidimensional llena de
píxeles. Los datos reales almacenados en una única imagen están en forma de
información digital sobre color e intensidad, una colección de bits por cada
píxel. Como la pintura o la foto, es en realidad una representación muy pobre
de la escena tridimensional.
¿Qué tendríamos que hacer para almacenar fielmente todos los datos
tridimensionales, incluyendo información profunda, así como los datos de
«carne-y-hueso» sobre el interior de los objetos? La respuesta es obvia: en
lugar de una colección de píxeles que llenan dos dimensiones, necesitaríamos
una colección de «vóxeles» que llenen el espacio, minúsculos elementos que
llenan el volumen del espacio.
Llenar el espacio con vóxeles es mucho más costoso que llenar una
superficie con píxeles. Por ejemplo, si la pantalla de su ordenador es de mil
píxeles de lado, el número total de píxeles es mil al cuadrado, o un millón.
Pero si queremos llenar un volumen del mismo tamaño con vóxeles, el número
requerido sería de mil al cubo, o mil millones.
Eso es lo que hace a los hologramas tan sorprendentes. Un holograma es
una imagen bidimensional —una imagen en un trozo de película— que le permite
reconstruir sin ambigüedad imágenes tridimensionales. Usted puede caminar
alrededor de la imagen holográfica reconstruida y verla desde todos los lados.
Sus poderes de percepción de profundidad le permiten determinar qué objeto en
un holograma está más cercano o más lejano. De hecho, si usted se mueve, el
objeto más lejano puede convertirse en el objeto más cercano. Un holograma es
una imagen bidimensional, pero una imagen que tiene la información plena de una
escena tridimensional. Sin embargo, si miramos realmente muy de cerca la
película bidimensional que contiene la información, no vemos absolutamente nada
reconocible. La imagen está completamente revuelta.
La información en un holograma, aunque revuelta, puede estar localizada
en píxeles. Por supuesto, nada es gratis. Para describir el volumen de espacio
de mil píxeles de lado, el holograma tendría que estar compuesto de mil
millones de píxeles, no de un millón.
Uno de los descubrimientos más extraños de la física moderna es que el
mundo es una especie de imagen holográfica. Pero aun más sorprendente, el
número de píxeles que comprende el holograma es proporcional solamente al área
de la región que se está describiendo, no al volumen. Es como si el contenido
tridimensional completo de una región, de mil millones de vóxeles de volumen,
pudiera describirse en una pantalla de ordenador que sólo contiene un millón de
píxeles. Imagínese en una habitación limitada por paredes, un techo y un suelo.
Mejor aún, piense que está en un gran espacio esférico. Según el
principio holográfico, esa mosca que tiene delante de su nariz es en realidad
una especie de imagen holográfica de datos almacenados en la frontera
bidimensional de la habitación. De hecho, usted y todo lo demás en la
habitación son imágenes de datos almacenados en un holograma cuántico
localizado en la frontera. El holograma es una matriz bidimensional de
minúsculos píxeles —no vóxeles— cada uno de ellos del tamaño de una longitud de
Planck. Por supuesto, la naturaleza del holograma cuántico y la manera en que
codifica datos tridimensionales es muy diferente de la manera en que trabajan
los hologramas ordinarios. Pero tienen en común que el mundo tridimensional
esta completamente revuelto.
¿Qué tiene que ver esto con los agujeros negros? Coloquemos un agujero
negro en nuestra gran habitación esférica. Todo —agujero negro, viajero
espacial, nave nodriza— está almacenado como información en las paredes
holográficas del espacio. ¡Las dos imágenes diferentes que trata de reconciliar
la complementariedad del agujero negro son simplemente dos reconstrucciones
diferentes del mismo holograma por dos algoritmos de reconstrucción diferentes!
El principio holográfico no fue generalmente aceptado cuando ’T Hooft y
yo lo propusimos a comienzos de los noventa. Yo pensaba que era correcto pero
que pasarían muchas décadas antes de que supiéramos lo suficiente sobre la
mecánica cuántica y la gravedad para confirmarlo de una forma precisa. Pero
sólo tres años más tarde, en 1997, todo eso cambió cuando un joven físico
teórico —Juan Maldacena— electrizó el mundo de la física con un artículo
titulado «El límite a gran N de las teorías de campos superconformes y de la
gravedad». No importa lo que significan esas palabras. Maldacena, utilizando
inteligentemente la teoría de cuerdas y las D-branas de Polchinski, había
descubierto una descripción holográfica completamente explícita de, si no
nuestro mundo, sí un mundo suficientemente parecido para hacer un argumento
convincente a favor del principio holográfico. Poco después Ed Witten puso su
sello de aprobación en el principio holográfico con una continuación del
artículo de Maldacena titulada «Espacio anti de Sitter y holografía». Desde
entonces el principio holográfico ha madurado para convertirse en una de las
piedras angulares de la física teórica moderna. Se ha utilizado de muchas
maneras para iluminar problemas que, aparentemente, no tienen nada que ver con
agujeros negros.
¿Qué tiene que ver el principio holográfíco con la complementariedad de
agujero negro? La respuesta es que tiene todo que ver. Los
hologramas son increíbles revoltijos de datos que hay que decodificar. Eso
puede hacerse mediante un algoritmo matemático o iluminando el holograma con un
láser. La luz láser implementa el algoritmo matemático.
Imaginemos una escena que contiene un gran agujero negro y otras cosas
que podrían caer en el agujero negro así como la radiación saliente. Toda la
escena puede describirse por un holograma cuántico localizado muy lejos en
alguna frontera distante del espacio. Pero ahora hay dos maneras posibles —dos
algoritmos— para decodificar el holograma. La primera reconstruye la escena tal
como se ve desde el exterior del agujero negro, en la que la radiación de
Hawking se lleva todos los bits que caen dentro. Pero la segunda reconstrucción
muestra la escena tal como la vería alguien que cae dentro del agujero negro.
Hay un holograma, pero dos maneras de reconstruir su contenido.
§. Burbujas a nuestro alrededor
Probablemente es demasiado decir que el mundo tridimensional es una
completa ilusión. Pero la idea de que la localización de un bit de información
no está necesariamente donde cabría esperar que esté es ahora un hecho
ampliamente aceptado. ¿Cuáles son sus implicaciones para el universo burbuja
del capítulo 11? Déjeme recordarle dónde nos quedamos al final de ese capítulo.
En el capítulo anterior he explicado las dos visiones de la historia,
una serial y otra paralela. Según la visión serial, cada observador ve a lo
sumo una pequeña porción del megaverso entero. Nunca verá el resto porque se
está alejando tan rápidamente que la luz no puede salvar la distancia. La
frontera entre lo que puede y no puede verse es el horizonte. Por desgracia, el
resto del megaverso de universos de bolsillo está en esta tierra de nunca jamás
más allá del horizonte. Según los principios clásicos de la relatividad general
podemos preguntar todo lo que queramos sobre la existencia y realidad de estos
otros mundos, pero nunca podemos conocerlos. Son irrelevantes. Carecen de
significado en el sentido científico. Son metafísica, no física.
Pero exactamente la misma conclusión fue extraída incorrectamente acerca
del horizonte de los agujeros negros. De hecho, el horizonte de sucesos cósmico
de un universo que se infla eternamente es matemáticamente muy similar al
horizonte de un agujero negro. Volvamos al lago infinito lleno de barcas y
observadores. El agujero negro era muy parecido al peligroso desagüe, siendo el
horizonte el punto de no retorno. Comparemos esa situación con el lago que se
infla eternamente, es decir, el lago alimentado por tuberías de modo que todos
los observadores flotantes se separan de acuerdo con la ley de Hubble. Si el
lago está alimentado a un ritmo constante, proporciona una analogía precisa
para la inflación eterna.
Cualquier barca concreta estará rodeada por una frontera similar al
punto de no retorno que rodeaba al desagüe. Imaginemos un bote que se mantiene
alrededor de su buque nodriza. Si, ya sea por accidente o a propósito, llega
más allá del punto de no retorno, simplemente no puede volver o siquiera
comunicarse con el buque nodriza. La única diferencia entre la frontera de un
agujero negro y el horizonte cósmico del espacio que se infla es que en un caso
nosotros estamos en el exterior mirando adentro, y en el otro caso, estamos en
el interior mirando afuera. Pero en todo lo demás, el agujero negro y los
horizontes cósmicos son iguales.
Para alguien en el exterior de un agujero negro, los sucesos en la vida
del explorador transhorizonte están detrás del horizonte. Pero estos sucesos
son física, no metafísica. Son telegrafiados al exterior en un código
holográfico revuelto en forma de radiación de Hawking. Como sucedía en el
mensaje del prisionero, no importa que se haya perdido el código, ni siquiera
si lo hubo alguna vez. El mensaje está en las tarjetas.
¿Hay también «tarjetas» procedentes de detrás del horizonte cósmico con
mensajes de miles de millones de universos de bolsillo? Los horizontes cósmicos
no se entienden tan bien como los agujeros negros. Pero si la similitud obvia
entre ellos sirve de guía, los horizontes cósmicos ofrecen tales tarjetas y son
muy similares a los fotones que componen la radiación de Hawking. Quizá ahora
usted haya conjeturado que son los fotones de la radiación de fondo cósmico de
micro-ondas que nos bañan desde todas direcciones y en todo instante.
Mensajeros del horizonte cósmico, son también mensajes codificados del
universo.
George Smoot [93], uno de
los líderes en la detección de microondas cósmicas, en un momento de entusiasmo
comparó un mapa de microondas cósmicas del cielo con «el rostro de Dios». Creo
que para las mentes curiosas que se preguntan sobre el mundo, un holograma
revuelto de una infinidad de universos de bolsillo es una imagen mucho más
interesante y aproximada.
Capítulo 13
Resumiendo
Contenido:
§. Eslóganes
§. ¿Consenso?
§. Las leyes de la Naturaleza son emergentes
§. La selección natural y el universo
§. El comienzo de la inflación
§. Supercuerdas en el cielo
§. Física de altas energías
§. Eslóganes
Un tema ha sido el hilo conductor en nuestro largo y sinuoso viaje desde
los diagramas de Feynman hasta los universos burbujeantes: nuestro universo es
un lugar extraordinario que parece estar fantásticamente bien diseñado para
nuestra propia existencia. Este carácter especial no es algo que podamos
atribuir a un feliz accidente, lo que es demasiado improbable. Las
coincidencias aparentes piden a gritos una explicación.
Una historia muy popular, no solo entre el gran público sino también
entre muchos científicos, es que un «superarquitecto» benevolente diseñó el
universo con un propósito [94]. Los
abogados de esta idea, el diseño inteligente, dicen que es completamente
científica y encaja perfectamente los hechos de la cosmología tanto como los de
la biología. El diseñador inteligente no sólo escogió leyes de la física
excelentes sino que también guió la evolución biológica a lo largo de su cadena
improbable, desde las bacterias al Homo sapiens. Pero, aunque
emocionalmente reconfortante, está es una explicación intelectualmente
insatisfactoria. Quedan sin responder: quién diseño al diseñador, mediante qué
mecanismo interviene el diseñador para guiar la evolución, si el diseñador
viola las leyes de la física para conseguir sus objetivos y si el diseñador
está sometido a las leyes de la mecánica cuántica.
Hace ciento cincuenta años, Charles Darwin propuso una respuesta para
las ciencias de la vida que se ha convertido en clave de la biología moderna:
un mecanismo que no necesita diseñador ni propósito. Las mutaciones aleatorias,
combinadas con competición en la reproducción, explican la proliferación de
especies que finalmente llenan cada nicho, incluyendo criaturas que sobreviven
gracias a su ingenio. Pero la física, la astronomía se quedaron rezagadas. El
darwinismo puede explicar el cerebro humano, pero el carácter especial de las
leyes de la física ha seguido siendo un rompecabezas. Dicho rompecabezas quizá
esté dando, finalmente, teorías físicas que igualan a la teoría biológica de
Darwin.
Los mecanismos físicos que he explicado en este libro comparten dos
ingredientes claves con la teoría de Darwin. El primero es un enorme paisaje de
posibilidades, un espacio enormemente rico de diseños posibles [95]. Hay más
de diez mil especies de aves, trescientas mil especies de escarabajos y
millones de especies de bacterias. El número total de especies posibles es
sin duda inmensamente mayor.
¿Es el número de diseños biológicos tan grande como el número de diseños
de universos? Eso depende de lo que entendamos exactamente por un diseño
biológico. Una manera de listar todas las posibilidades biológicas es enumerar
las maneras de asignar los pares de bases en una larga molécula de ADN. Una
hebra de ADN humano tiene unos mil millones de pares de bases, y hay cuatro
posibilidades para cada una. El número total de posibilidades es el número
ridículamente grande 41 000 000 000 (ó 10 600 000 000).
Esto es mucho mayor que los 10500 (obtenidos de modo similar
contando el número de maneras de asignar flujos enteros) que los teóricos de
cuerdas conjeturan para el número de valles del paisaje, pero por supuesto casi
ninguno de ellos corresponde a formas de vida viables. Por otra parte, la
mayoría de los 10500 vacíos son también vías muertas. En
cualquier caso, ambos números son tan grandes que están mucho más allá de
nuestros poderes de visualización.
El segundo ingrediente clave es un mecanismo superprolífico para
convertir los planos en enormes números de entidades reales. El mecanismo de
Darwin incluía replicación, competencia y montones y montones de carbono,
oxígeno e hidrógeno sobre los que operan estos mecanismos. La inflación eterna
implica también replicación exponencial, pero de volúmenes de espacio.
Como discutí en el capítulo 11, el proceso de población del paisaje
tiene sus similitudes con la evolución biológica, pero también tiene al menos
dos grandes diferencias. La primera fue discutida en el capítulo 11. La
evolución biológica a lo largo de una línea de descendencia dada procede a
través de cambios minúsculos e indetectables de una generación a otra. Pero la
descendencia a través de una serie de nucleaciones de burbujas incluye, en cada
etapa, grandes cambios de la energía de vacío, las masas de las partículas y el
resto de las leyes de la física. Desde la perspectiva biológica, si sólo fueran
posibles esos cambios grandes la evolución darwiniana sería imposible. Los
mutantes monstruosos tendrían una desventaja tan grande con respecto a la descendencia
normal que su supervivencia en un mundo competitivo sería imposible.
¿Cómo, entonces, llega a poblarse el megaverso con diversidad si la
evolución biológica, en las mismas condiciones, se estancaría? La respuesta
reside en la segunda gran diferencia entre los dos tipos de evolución: no hay
competencia por los recursos entre universos de bolsillo. Es interesante
contemplar un mundo imaginario en el que la evolución biológica tiene lugar en
un ambiente donde los recursos son tan ilimitados que no hay necesidad de
competición. ¿Evolucionaría la vida inteligente en un mundo semejante? En la
mayoría de las descripciones de la evolución darwiniana, la competencia es un
ingrediente clave. ¿Qué sucedería sin ella? Tomemos un caso concreto, el paso
final en la evolución de nuestra propia especie. Hace unos cien mil años los
hombres de Cromañón estaban en lucha por la supervivencia con los neandertales.
Los cromañones ganaron porque eran más inteligentes, más grandes, más fuertes o
con más potencia sexual. Así, el acervo genético medio de la raza humana
mejoró. Pero supongamos que los recursos fueran ilimitados y que el sexo fuera
innecesario para la reproducción. ¿Habría menos cromañones? En absoluto.
Cualquiera de los que sobrevivió habría sobrevivido más fácilmente sin
competencia. Y muchos de los que no sobrevivieron también lo habría hecho. Pero
también habría más neandertales. De hecho, habría más de ambos. Todas las
poblaciones aumentarían exponencialmente. En un mundo de recursos ilimitados,
la ausencia de competición no habría frenado la evolución de las criaturas más
inteligentes, pero habría hecho muchas más criaturas estúpidas.
Hay un tercer contexto, después de la física y la biología, donde los
dos mismos ingredientes —un paisaje y un megaverso— son esenciales para nuestra
existencia. Los planetas y otros cuerpos astronómicos se dan en un número muy
grande de diseños posibles. Estrellas calientes, asteroides fríos, nubes de
polvo gigantes, son sólo unos pocos. Una vez más, el paisaje de posibilidades
es extraordinariamente rico. Solo la variación en distancia a la estrella madre
ya da gran diversidad a los planetas. En cuanto a los mecanismos que convierten
posibilidades en realidades, el big bang, y la aglomeración
posterior por medio de la gravedad crearon 10 22 planetas
dentro de la parte observable de nuestro universo solamente.
En cada uno de los casos las respuestas a las preguntas de nuestra
existencia son las mismas. Hay muchas criaturas / planetas / universos de
bolsillo y muchos diseños posibles. Los números son tan grandes que,
estadísticamente, algunos de ellos serán inteligentes o proclives a la vida
inteligente. La mayoría de las criaturas/universos/astros son vías muertas
desde este punto de vista. Nosotros somos de los pocos afortunados. Éste es el
significado del principio antrópico. No hay magia, no hay diseñador sobrenatural:
solo las leyes de los muy grandes números.
A mi amigo Steve Shenker, que es uno de los físicos más sabios que
conozco, le gusta reducir las cosas a eslóganes. Piensa que a menos que una
idea importante pueda ser resumida en una o dos frases cortas, su esencia no ha
sido realmente captada. Creo que tiene razón. He aquí algunos ejemplos del
pasado.
De la mecánica newtoniana.
El espacio y el tiempo son absolutos
Einstein y la relatividad especial:
El espacio y el tiempo son relativos
y
La velocidad de la luz es una constante universal
De Einstein y la relatividad general.
El principio de equivalencia: la gravedad es indistinguible de la
aceleración
De la mecánica cuántica:
El principio de incertidumbre de Heisenberg: no se puede determinar
simultáneamente la posición y la velocidad
De la cosmología:
El big-bang
Los mejores eslóganes científicos que conozco no proceden de la física o
la cosmología sino de la teoría de la evolución:
Supervivencia de los más aptos, selección natural, el gen egoísta
Si este libro tuviera que reducirse a una simple idea, ésa sería que el
gran principio organizador de la biología y la cosmología es:
Un paisaje de posibilidades poblado por megaverso de realidades
Hay una diferencia frustrante entre el mecanismo biológico o planetario
y la inflación eterna que puebla el paisaje. En los dos primeros casos, podemos
observar directamente los resultados del prolífico mecanismo de creación. Vemos
la diversidad de bioformas a nuestro alrededor. Los objetos astronómicos son
algo más difíciles de observar, pero incluso sin telescopios podemos ver
planetas, lunas y estrellas. Pero el enorme mar de universos de bolsillo
creados por la inflación eterna está oculto tras nuestro horizonte de sucesos cósmico.
El problema es, por supuesto, la velocidad límite de Einstein. Si pudiéramos
superar la velocidad de la luz, no habría ningún problema en viajar a universos
de bolsillo lejanos y volver. Podríamos navegar por el megaverso entero. Pero
¡ay!, perforar un agujero de gusano a través del espacio hasta un universo de
bolsillo lejano es una fantasía que viola principios fundamentales de la
física. La existencia de otros universos de bolsillo sigue y seguirá siendo una
conjetura, pero una conjetura con poder explicativo.
§.¿Consenso?
Si las ideas que he expuesto resultan correctas, nuestra visión del
mundo va a expandirse mucho más allá de las actuales fronteras provincianas
hasta algo mucho más imponente: mayor en el espacio, mayor en el tiempo y mayor
en posibilidades. Si esto es correcto, ¿cuánto hará falta para el cambio de
paradigma? Aunque el terreno está cambiado, las cosas son a menudo demasiado
confusas, las aguas demasiado turbias para ver claramente, siquiera a pocos
años vista. Durante ese tiempo es casi imposible que los ajenos al tema sepan
qué ideas son serias y cuáles son especulaciones marginales. Incluso para los
iniciados es difícil saberlo. Mi objetivo principal al escribir este libro no
es el de convencer al lector de mi propio punto de vista; las discusiones científicas
se hacen mejor en las páginas de las revistas técnicas y las pizarras de las
aulas de seminarios. Mi objetivo es exponer la batalla de ideas que va a tener
un lugar central en la corriente principal de la ciencia, de modo que los
lectores normales puedan seguir las ideas conforme se desarrollen y
experimenten así el drama y la emoción que yo siento.
Siempre me ha fascinado la historia de las ideas científicas. Cómo llegaron
los grandes maestros a sus ideas me interesa tanto como las propias ideas. Pero
no todos los grandes maestros están muertos. El presente —exactamente ahora— es
un tiempo maravilloso para observar a los Weinbergs, Wittens, ‘T Hoofts, Polchinskis,
Maldacenas, Lindes, Vilenkins… mientras luchan por un nuevo paradigma. Por lo
que puedo deducir, esto es lo que piensan mis colegas más distinguidos.
Abordaré primero a los físicos y luego a los cosmólogos.
Steven Weinberg, más que cualquier otro físico, es responsable del
descubrimiento del modelo estándar de la física de partículas. Steve no es una
persona imprudente y es probable que sopese la evidencia al menos con tanto
cuidado como cualquiera. Sus escritos y conferencias dan a entender claramente
que para él la prueba, si no definitiva, sí sugiere con fuerza que alguna
versión del principio antrópico puede desempeñar un papel en determinar las
leyes de la física. Pero sus propios escritos expresan pesar, pesar por un
«paradigma perdido». En su libro de 1992, El sueño de una teoría final,
escribe:
Por consiguiente, si tal constante cosmológica es confirmada por la
observación, será razonable inferir que nuestra propia existencia desempeña un
papel importante en la explicación de por qué el universo es como es.
Por si sirve de algo… me gustaría vernos capaces de hacer predicciones
precisas, no afirmaciones vagas de que ciertas constantes tienen que estar en
un intervalo que es más o menos favorable para la vida. Espero que la teoría de
cuerdas nos proporcione realmente una base para una teoría final y que esta
teoría resultará tener suficiente poder predictivo para que podamos ser capaces
de asignar valores a todas las constantes de la naturaleza, incluida la
constante cosmológica. Veremos.
Weinberg escribía estas palabras durante la resaca de los
descubrimientos de la teoría de cuerdas heterótica y la compactificación de
Calabi Yau. Pero él sabe ahora que la teoría de cuerdas no será la esperada
alternativa al principio antrópico.
Ed Witten es uno de los más grandes matemáticos del mundo y un
pitagórico de corazón. Ha hecho su carrera en torno a las elegantes y bellas
matemáticas que salieron de la teoría de cuerdas. Su capacidad para sondear las
profundidades matemáticas de la disciplina es impresionante. No es sorprendente
que sea uno de los más reacios de mis colegas a abandonar la búsqueda de una
mágica bala de plata matemática, una bala que seleccionaría un único conjunto
consistente de leyes físicas para las partículas elementales. Si existe esa
bala, Witten tiene la profundidad y potencia para encontrarla. Pero ha estado
buscando durante mucho tiempo sin éxito. Aunque ha hecho más que cualquiera por
crear las herramientas necesarias para explorar el paisaje, no creo que se sienta
nada feliz con la dirección que la teoría está tomando en la actualidad.
Si Witten es la fuerza impulsora tras las herramientas matemáticas de la
teoría de cuerdas, Joe Polchinski ha sido la fuente primaria de «piezas» para
la gran máquina. Joe, junto con el brillante y joven físico de Stanford Raphael
Bousso [96], hizo el
primer uso de estas piezas para construir un modelo del paisaje con un
enorme discretuum de vacíos. En muchas conversaciones Joe ha
expresado una creencia en que no hay alternativa al punto de vista del paisaje
poblado.
Mi viejo camarada de armas Gerard’t Hooft siempre ha sido escéptico
respecto a la pretensión de la teoría de cuerdas de acercarse a una teoría de
todo y recientemente lo expuso en un mensaje por correo electrónico:
Nadie ha podido explicarme realmente lo que quiere decir que la teoría
de cuerdas tiene 10100 estados de vacío. Antes de que se pueda
decir una cosa semejante, hay que dar primero una definición rigurosa de lo que
es la teoría de cuerdas, y no hemos obtenido dicha definición. ¿O eran 10300 vacua,
o 10 1 000 000 000? En tanto que estos detalles están todavía
en el aire, me siento extraordinariamente incómodo con el argumento antrópico.
Sin embargo, no puedo descartar alguna forma de principio antrópico. Después de
todo, vivimos en la Tierra, no en Marte, Venus o Júpiter, por razones
antrópicas. Eso, sin embargo, me hace distinguir el principio antrópico
discreto del principio antrópico continuo. Discreto significa algo como: la
constante de estructura fina es el recíproco de un número entero, resulta ser
1⁄137, al que hay que sumar correcciones de orden superior. Continuo significa
que esta constante es 1⁄137,01894569345982349763978634913498724082734 y así
sucesivamente, estando determinadas todas estas cifras decimales por el princ.
antrop. [sic]. Encuentro esto inaceptable. La teoría de cuerdas parece estar
diciendo que los quinientos primeros decimales son antrópicos, y el resto,
matemáticos. Creo que es demasiado pronto para hacer tales especulaciones.
Traducido aproximadamente, lo que ’T Hooft entiende por el principio
antrópico discreto es que el paisaje no debería contener tantos vacíos como
para que puedan encontrarse todos los valores de las constantes de la
naturaleza. En otras palabras, sería más feliz con el razonamiento antrópico si
el número de posibilidades diferentes fuera finito en oposición a infinito.
Lo que creo que es digno de mención es que, escéptico o no, Gerard no
descarta nuestras explicaciones antrópicas ni ofrece una explicación
alternativa para el increíble ajuste fino de la constante cosmológica. Pero
respecto a su actitud escéptica hacia una teoría de todo final, pienso que
probablemente tiene razón.
Tom Banks es otro escéptico. Tom es uno de los pensadores más profundos
en física y uno de los más abiertos. Su escepticismo, como el de ’T Hooft, no
es tanto por el razonamiento antrópico sino más bien por la determinación del
paisaje a partir de la teoría de cuerdas. El propio Tom ha hecho numerosas
contribuciones importantes a la teoría de cuerdas. Pero su opinión es que el
paisaje de vacíos metaestables puede ser ilusorio. Él argumenta que la teoría
de cuerdas y la inflación eterna no están suficientemente bien entendidas como
para estar seguros de que el paisaje es una realidad matemática. Si la certeza
es el criterio, entonces estoy de acuerdo con él. Pero Banks cree que las
matemáticas no son sólo incompletas sino que quizá sean en realidad erróneas.
Hasta ahora sus argumentos no han sido convincentes, pero plantean serias
preocupaciones.
¿Qué piensan los físicos jóvenes de hoy? En general, no tienen
prejuicios. Juan Maldacena, que tiene poco más de treinta años, ha tenido más
impacto en la física teórica que cualquiera de su generación. Fue básicamente
su trabajo el que convirtió el principio holográfico en ciencia útil. Como
Witten, ha aportado nuevas e importantes ideas matemáticas y, como Polchinski,
ha tenido un profundo impacto en la interpretación de las matemáticas. Respecto
al paisaje comentó: «Espero que no sea verdad». Él, como Witten, confiaba en la
unicidad, tanto en las leyes de la física como en la historia del universo. De
todas formas, cuando yo le pregunté si veía alguna esperanza en que el paisaje
pudiera no existir, respondió, «No, me temo que no».
En la Universidad de Stanford —mi casa—, hay casi unanimidad sobre el
tema, al menos entre los físicos teóricos: el paisaje existe. Tenemos que
hacernos exploradores y aprender a navegar y cartografiar. Shamit Kachru y Eva
Silverstein, ambos de poco más de treinta años, son dos de los líderes jóvenes
en el mundo. Ambos están ocupados construyendo las montañas, valles y terrazas
del paisaje. De hecho, si tuviera que atribuir a alguien el título de Rube
Goldberg Moderno, sería a Shamit. No me malinterprete; no quiero decir que haga
malas máquinas. Por el contrario, Shamit ha utilizado mejor que nadie las
complicadas piezas de la teoría de cuerdas mejor para diseñar modelos del
paisaje. ¿Y el principio antrópico? Va implícito. Es parte de la hipótesis de
trabajo de todos mis colegas cercanos en Stanford, jóvenes y viejos.
En el otro extremo del país, Nueva Jersey es la sede de dos de los
mayores centros de física teórica del mundo. El primero y más importante es
Princeton, con el departamento de física de su universidad y el Instituto para
Estudios Avanzados; pero a treinta kilómetros al norte, en New Brunswick, hay
otra central: la Universidad Rutgers. Michael Douglas es una de las estrellas
de Rutgers. Como Witten, es a la vez un físico brillante y un gran matemático.
Pero, más importante para esta historia, es un audaz explorador del paisaje.
Douglas se ha impuesto la tarea de estudiar la estadística del paisaje antes
que las propiedades detalladas de los valles individuales. Utiliza las leyes de
los grandes números —la estadística— para estimar qué propiedades son más comunes,
qué porcentaje de valles hay a las diferentes altitudes y cuál es la
probabilidad de que un valle que puede soportar vida manifieste una
supersimetría aproximada. Aunque él prefiere utilizar el término aproximación
estadística en lugar de principio antrópico, probablemente es justo
decir que Douglas está en el lado antrópico de la divisoria.
Los cosmólogos también están divididos sobre la cuestión. Jim Peebies de
la Universidad de Princeton es el «gran anciano» de la cosmología
estadounidense. Peebies ha sido un pionero en todos los aspectos de la
disciplina. De hecho, a finales de los años noventa fue una de las primeras
personas en sospechar que los datos cosmológicos indicaban la presencia de algo
parecido a una constante cosmológica. Discutiendo con él los problemas de la
cosmología quedé sorprendido por su aceptación casi automática de que muchas
características del universo solo podrían explicarse por algún tipo de
razonamiento antrópico.
Sir Martin Rees, el
astrónomo real británico, es un entusiasta total del paisaje, el megaverso y el
principio antrópico. Martin es un cosmólogo y astrofísico destacado de Europa.
Muchos argumentos detallados que he utilizado para motivar el principio antrópico
los aprendí de él y del cosmólogo estadounidense Max Tegmark.
Usted ya ha conocido a Andrei Linde y Alexander Vilenkin. Como Rees y
Tegmark, están firmemente en el bando del paisaje antrópico. Linde ha expresado
su opinión: «Quienes rechazan el principio antrópico están simplemente a la
negativa. Éste principio no es un arma universal, sino una herramienta útil que
nos permite concentrarnos en los problemas fundamentales de la física
separándolos de los problemas puramente ambientales, que pueden tener una
solución antrópica. Uno puede amar u odiar el principio antrópico, pero apuesto
a que con el tiempo todos van a utilizarlo».
Stephen Hawking es colega de Martin Rees en la Universidad de Cambridge,
pero no tengo duda de que sus ideas son muy personales. He aquí una cita de una
conferencia que impartió Stephen en 1999: «Voy a describir lo que veo como el
marco para la cosmología cuántica, sobre la base de la teoría M. Adoptaré la
propuesta de ausencia de frontera, y argumentaré que el principio antrópico es
esencial si hay que escoger una solución que represente nuestro universo de
entre todo el zoo de soluciones permitidas por la teoría M».
Así que parece que finalmente Stephen y yo coincidimos en algo.
Pero no todos los cosmólogos están de acuerdo. Entre los estadounidenses
mejor conocidos en el campo, Paul Steinhardt y David Spergel son enemigos
vehementes de todo lo que huela vagamente antrópico. Steinhardt, cuyas ideas
son más o menos representativas, dice que él odia el paisaje y espera que
desaparezca. Pero, como Maldacena, no puede encontrar ninguna manera de
deshacerse de él. De los escritos de Steinhardt (en «The Edge Annual
Question-2005», en <www.edge.org>): «Espero que dentro de unas décadas los
físicos estarán persiguiendo de nuevo sus sueños de una “teoría final”
verdaderamente científica, y retrospectivamente verán la manía antrópica actual
como una locura del milenio».
Alan Guth, el padre de la inflación, ve las cosas desde la barrera. Alan
es un firme creyente en el paisaje poblado. De hecho fue el quien acuñó el
término universo de bolsillo. Pero al no ser un teórico de cuerdas,
adopta una actitud de esperar —y ver— respecto al discretuum, en
otras palabras, está menos comprometido con la afirmación de que el número de
posibles entornos vacíos es exponencialmente grande. En cuanto al principio
antrópico, sospecho que Alan es un creyente no confeso. Cada vez que le veo digo:
«Bien, Alan, ¿todavía no has “salido”?». Invariablemente responde: «Todavía
no» [97].
He dejado para el final a mi viejo amigo David Gross. David y yo hemos
sido buenos amigos durante cuarenta años. Durante ese tiempo hemos luchado y
discutido sin cesar, a veces violentamente, pero siempre con gran respeto por
las opiniones del otro. Mi conjetura es que nos convertiremos en dos viejos
cascarrabias irritables, combatiendo hasta el final. Quizá ya lo somos.
David es, sin duda, uno de los más grandes físicos vivos. Es mejor
conocido como uno de los principales arquitectos de la Cromodinámica Cuántica,
es decir, la dinámica de los hadrones [98]. Pero,
más importante para esta historia, ha sido desde hace tiempo uno de los
generales más veteranos en el ejército de la teoría de cuerdas. A mediados de
los años ochenta, mientras era profesor en Princeton, David y sus colaboradores
Jeff Harvey, Emil Martinec y Ryan Rohm causaron sensación cuando descubrieron
la teoría de cuerdas heterótica. Esta nueva versión de la teoría de cuerdas se
parecía mucho más al mundo real de las partículas elementales que cualquier
versión anterior. Además, casi al mismo tiempo Ed Witten (también en Princeton)
estaba ocupado con sus colaboradores —Andy Strominger, Gary Horowitz y Philip
Candelas— ideando la compactificación de Calabi Yau. Cuando se unieron las dos,
el mundo de la física quedó boquiabierto: los resultados se veían tan realistas
que parecía sólo cuestión de meses el tener a mano una teoría definitiva, final
y única de las partículas elementales. El mundo contuvo la respiración… y se
puso azul.
El destino no fue amable. Cuanto más tiempo pasa, más claro se hace que
el entusiasmo de Princeton era, cuando menos, prematuro. Pero David no ha
abandonado nunca la esperanza de que la bala de plata aparecerá y justificará
el entusiasmo anterior. ¿Y yo? Sospecho que, al final, la teoría heterótica
resultará ser un componente muy importante de la gran máquina de Rube. Su
parecido con el modelo estándar es impresionante. Pero también conjeturaría que
no es el único componente. Flujos, branas, singularidades y otras
características pueden expandir el paisaje heterótico mucho más allá de lo que
originalmente pensaban los autores de la teoría.
Gross, como dije, es un formidable adversario intelectual, y es
totalmente contrario al principio antrópico. Aunque sus razones son más
ideológicas que científicas, son importantes para discutir. Lo que le molesta
es una analogía con la religión. ¿Quién sabe? Quizá Dios sí hizo el
mundo. Pero los científicos —los científicos reales— se resisten a la tentación
de explicar los fenómenos naturales, incluyendo la propia creación, por
intervención divina. ¿Por qué? Porque como científicos entendemos que hay una imperiosa
necesidad humana para creer —la necesidad de ser reconfortados— que fácilmente
nubla el juicio de las personas. Es demasiado fácil caer en la trampa seductora
de un cuento de hadas reconfortante. De modo que nos resistimos, hasta la
muerte, a todas las explicaciones del mundo basadas en algo que no sea las
leyes de la física, las matemáticas y la probabilidad.
David, junto con muchos otros, expresa el temor a que el principio
antrópico sea como la religión: demasiado reconfortante, demasiado fácil. Teme
que si empezamos a abrir la puerta, siquiera una rendija, el principio
antrópico nos seducirá con una falsa creencia y detendrá a los jóvenes físicos
futuros que buscan la bala de plata. David cita elocuentemente la alocución de
Winston Churchill en 1941 a los estudiantes en su propia escuela: «No hay que
abandonar nunca jamás, jamás, jamás, jamás, jamás, jamás. No hay que abandonar
nunca. No hay que abandonar nunca. No hay que abandonar nunca». Pero el campo
de la física está lleno de cadáveres de viejos testarudos que nunca supieron
cuándo abandonar.
La preocupación de David es muy real, y no pretendo minimizarla, pero
pienso también que no es tan grave como él piensa. No me preocupa ni por un
momento que la generación más joven carezca de la fibra moral para evitar la
trampa. Si el paisaje poblado es la idea equivocada, nosotros (o quizá debería
decir ellos) lo descubriremos. Si los argumentos que indican la existencia de
10500 vacíos son erróneos, los teóricos de cuerdas y los
matemáticos lo descubrirán. Si la propia teoría de cuerdas es errónea, quizá
porque es matemáticamente inconsistente, quedará en la cuneta, y con ella el
paisaje de la teoría de cuerdas. Pero si eso sucede, tal como están
las cosas ahora no nos dejaría ninguna otra
explicación racional para la ilusión de un universo diseñado.
Por el contrario, si la teoría de cuerdas y el paisaje
son correctos, entonces, con nuevas y mejoradas herramientas, podremos
localizar nuestro valle. Podremos saber de las características en
localizaciones vecinas, incluyendo la terraza inflacionaria y la aproximación a
la pendiente pronunciada. Y, finalmente, podremos confirmar que el uso riguroso
de las matemáticas lleva a muchos otros valles, que no se distinguen en nada
especial del nuestro excepto por su ambiente inhóspito. David tiene
preocupaciones sinceras, pero rehuir una posible respuesta porque va contra
nuestras esperanzas anteriores es en sí mismo un tipo de religión.
Gross tiene otro argumento. Pregunta: «¿No es increíblemente arrogante
por nuestra parte presumir que toda la vida debe ser igual que nosotros: basada
en el carbono, necesitada de agua» y todo lo demás? «¿Cómo sabemos que la vida
no puede existir en ambientes radicalmente diferentes?». Supongamos, por
ejemplo, que pudieran evolucionar algunas formas extrañas de vida en el
interior de las estrellas, en frías nubes de polvo en el espacio interestelar y
en los gases nocivos que rodean a los gigantescos planetas gaseosos como
Júpiter. En ese caso, el principio ictrópico de los cosmólogos perdería su
poder explicatorio. El argumento de que la necesidad de la vida de agua líquida
explica el ajuste fino de la temperatura perdería su fuerza. En una línea
similar, si la vida puede formarse sin galaxias, la explicación de Weinberg de
la pequeñez de la constante cosmológica también pierde su fuerza.
Creo que la respuesta correcta a esta crítica es que hay una hipótesis
oculta que es parte integral del principio antrópico, a saber: la
existencia de la vida es extremadamente delicada y requiere condiciones muy
excepcionales . Esto no es algo que yo pueda demostrar. Es simplemente
parte de la hipótesis que da al principio antrópico su poder explicatorio.
Quizá deberíamos volver el argumento del revés y decir que el éxito de la
predicción de Weinberg apoya la hipótesis de que la vida inteligente robusta requiere
galaxias, o al menos estrellas y planetas.
¿Cuáles son las alternativas al paradigma del paisaje poblado? Mi
opinión es que, una vez que eliminamos los agentes sobrenaturales, no hay nadie
que pueda explicar el sorprendente y asombroso ajuste fino de la Naturaleza. El
paisaje poblado desempeña el mismo papel para la física y la
cosmología que la evolución darwiniana para las ciencias de la vida. Los
errores de copiado aleatorios, junto con la selección natural, son la única
explicación natural conocida de cómo podría formarse un órgano tan bien ajustado
como un ojo a partir de la materia ordinaria. El paisaje poblado, junto con la
rica diversidad predicha por la teoría de cuerdas, es la única explicación
conocida de las propiedades extraordinariamente especiales de nuestro universo
que permiten nuestra propia existencia.
Éste es un buen lugar para que haga una pausa y aborde una crítica
potencial que podría levantarse contra este libro, a saber, que carece de
equilibrio. ¿Dónde están las explicaciones alternativas del valor de la
constante cosmológica? ¿No hay ningún argumento técnico en contra de la
existencia de un gran paisaje? ¿Qué pasa con otras teorías distintas de la
teoría de cuerdas?
Le aseguro que no estoy ocultando el otro lado de la historia. A lo
largo de los años, muchas personas, incluyendo algunos de los más ilustres
nombres de la física, han tratado de explicar por qué la constante cosmológica
es pequeña o nula. El aplastante consenso es que estos intentos no han sido
satisfactorios. No queda nada que informar sobre eso.
En cuanto a los intentos matemáticos serios de desacreditar el Paisaje,
yo solo conozco un caso. El autor de ese intento es un buen físico matemático
que, por lo que yo sé, sigue creyendo en sus criticas a la construcción KKLT
(véase el capítulo 10). La objeción implica un punto matemático extremadamente
técnico acerca de los espacios de Calabi Yau. Varios autores han criticado la
crítica, pero ahora puede ser irrelevante. Michael Douglas y sus colaboradores
han encontrado muchos ejemplos que evitan el problema. De todas formas, una
evaluación honesta de la situación tendría que incluir la posibilidad de que el
paisaje sea un espejismo matemático.
Finalmente, como alternativas a la teoría de cuerdas, una bien conocida
es la llamada gravedad de lazo. La gravedad de lazo es una propuesta
interesante, pero no está tan bien desarrollada como la teoría de cuerdas. En
cualquier caso, ni siquiera su más famoso abogado, Lee Smolin, cree que la
gravedad de lazo sea realmente una alternativa a la teoría de cuerdas aunque
puede ser una formulación alternativa de la teoría de cuerdas.
Por mucho que quisiera equilibrar las cosas explicando el lado opuesto,
simplemente no puedo encontrar el lado opuesto. Los argumentos opositores se
reducen a un rechazo visceral del principio antrópico (lo odio) o una queja
ideológica contra el mismo (eso es abandonar).
Dos argumentos específicos han sido los temas de recientes libros de
divulgación de físicos bien conocidos, pero en mi opinión ambos han fracasado.
Necesitaré un momento para explicar por qué.
§. Las leyes de la Naturaleza son emergentes
Ésta es una de las ideas favoritas de algunos teóricos de la materia
condensada que trabajan en las propiedades de materiales hechos de átomos y
moléculas ordinarios. Su proponente principal es el ganador del premio Nobel
Robert Laughhn, que describe sus ideas en su libroUn universo diferente[99]. La idea central es la vieja «teoría del éter» que mantiene que el
vacío es un material especial. La idea del éter fue popular en el siglo XIX,
cuando Faraday y Maxwell trataban de considerar los campos electromagnéticos
como tensiones en el éter. Pero después de Einstein, el éter cayó en
descrédito. A Laughhn le gustaría resucitar la vieja idea imaginando el
universo como un material con propiedades similares al helio superfluido. El
helio superfluido es un ejemplo de un material con propiedades «emergentes»
especiales, propiedades que se manifiestan (emergen) sólo cuando se reúnen
enormes números de átomos en cantidades macroscópicas. En el caso del helio
líquido, el fluido tiene sorprendentes propiedades superfluidas tales como
fluir sin ninguna fricción. En muchos aspectos, los superfluidos son similares
al fluido de Higgs que llena el espacio y da a las partículas sus propiedades.
Hablando en general, la misión de Laughlin puede resumirse diciendo que vivimos
en un material de este tipo que llena el espacio. Podría decirlo incluso con
más fuerza: el espacio es dicho material emergente. Además, él cree que la
gravedad es un fenómeno emergente.
Uno de los temas principales de la física moderna es que los fenómenos
emergentes tienen un tipo de estructura jerárquica. Pequeñas colecciones de
moléculas o átomos se agrupan para formar entidades mayores. Una vez que se
conocen las propiedades de estas nuevas entidades, se puede olvidar de dónde
proceden. A su vez, las nuevas entidades se combinan y arraciman en otras
nuevas de tamaño aún mayor. Una vez más, podemos olvidar de dónde proceden y
agruparlas en grupos aún mayores hasta que todo el material macroscópico queda
explicado. Una de las propiedades más interesantes de todos estos sistemas es
que no importa dónde se empiece exactamente. Las entidades microscópicas
originales no suponen ninguna diferencia para el comportamiento emergente —el
material siempre sale con el mismo comportamiento a gran escala— dentro de
ciertos límites [100] .
Por esta razón, Laughlin cree que no tiene sentido buscar los objetos
fundamentales de la naturaleza, puesto que una amplia variedad de objetos
básicos llevarían a las mismas leyes de la física —gravedad, modelo estándar y
demás— en el mundo a gran escala. De hecho, hay todo tipo de «excitaciones» en
materiales que se parecen a partículas elementales pero son en realidad
movimientos colectivos de los átomos subyacentes. Las ondas sonoras, por
ejemplo, se comportan como si estuvieran hechas de cuantos llamados fonones.
Además, estos objetos de comportan a veces de forma increíble como fotones u
otras partículas.
Hay dos razones serias para dudar de que las leyes de la Naturaleza sean
similares a las leyes de los materiales emergentes. La primera razón se refiere
a las propiedades especiales de la gravedad. Para ilustrarlo, consideremos las
propiedades del helio superfluido, aunque también serviría cualquier otro
material. En los superfluidos tienen lugar todo tipo de cosas interesantes. Hay
ondas que se comportan de modo similar a campos escalares y objetos llamados
vórtices que se parecen a tornados que se mueven a través del fluido. Pero no
hay ningún tipo de objeto aislado que se mueva en el fluido y se parezca a un
agujero negro. Esto no es casual. Los agujeros negros deben su existencia a la
fuerza gravitatoria descrita por la teoría de la relatividad general de
Einstein. Pero ningún material conocido tiene las características que la teoría
de la relatividad general adscribe al espacio-tiempo. Hay muy buenas razones
para ello. En el capítulo 10, donde traté de los agujeros negros, vimos que las
propiedades de un mundo con mecánica cuántica y gravedad son radicalmente
diferentes de cualquier cosa que pueda ser producida sólo con materia
corriente. En particular, el principio holográfico —un pilar del pensamiento
actual— perece requerir tipos totalmente nuevos de comportamiento no vistos en
ningún sistema de materia condensada conocido. De hecho, el propio Laughlin
ilustra el punto argumentando que los agujeros negros (en esta teoría) no
pueden tener propiedades, tales como radiación de Hawking, que prácticamente todos
los demás creen que tienen.
Pero supongamos que se encuentra un sistema emergente que tuviera
algunas de las propiedades que buscamos. Las propiedades de los sistemas
emergentes no son muy flexibles. Puede haber una enorme variedad de puntos de
partida para el comportamiento microscópico de los átomos pero, como dije,
tienden a conducir un número muy pequeño de puntos finales a gran escala. Por
ejemplo, podemos cambiar los detalles de los átomos de helio de muchas maneras
sin cambiar el comportamiento macroscópico del helio superfluido. La única cosa
importante es que los átomos de helio se comportan como pequeñas bolas de
billar que simplemente rebotan unas en otras. Esta insensibilidad al punto de
partida microscópico es lo que más gusta de los sistemas emergentes a los
físicos de la materia condensada. Pero la probabilidad de que a partir del
pequeño número de puntos fijos (puntos extremos) posibles hubiera uno con las
propiedades increíblemente bien ajustadas de nuestro mundo antrópico es
despreciable. En particular, no hay explicación del más espectacular de estos
ajustes finos, la pequeña pero no nula constante cosmológica. Un universo
basado en la emergencia de la materia condensada convencional me parece una
idea que no lleva a nada.
§. La selección natural y el universo
Lee Smolin ha intentado explicar las propiedades muy especiales del
mundo —las propiedades antrópicas— por una analogía directa con la evolución
darwiniana, no en el sentido probabilístico general que expliqué antes sino de
una manera mucho más específica [101] .
En su favor hay que decir que Smolin comprendió pronto que la teoría de cuerdas
es capaz de describir un tremendo conjunto de posibles universos, e intentó
utilizar esto de una manera imaginativa. Aunque creo que la idea de Smolin
falla en última instancia, es un valiente esfuerzo que merece una seria
reflexión.
La idea esencial es la siguiente: en cualquier universo con fuerzas
gravitatorias pueden formarse agujeros negros. Smolin especula sobre lo que
podría tener lugar dentro de un agujero negro, en particular, en su violenta
singularidad. Cree, en mi opinión sin tener buenas pruebas, que el espacio no
colapsa hasta una singularidad sino que tiene lugar una resurrección del
universo. Un nuevo universo bebé nace dentro del agujero negro. En otras
palabras, los universos son replicadores que se reproducen en
el interior de los agujeros negros. Si es así, argumenta Smolin, entonces, por
un proceso de replicación repetida —agujeros negros que se forman en el
interior de universos, que están dentro de agujeros negros, que están dentro de
universos, y así sucesivamente— tendrá lugar una evolución hacia universos
máximamente aptos. Por apto Smolin entiende tener la capacidad de producir un
gran número de agujeros negros y, por lo tanto, un gran número de
descendientes. Smolin conjetura entonces que nuestro universo es el más apto de
todos: las leyes de la naturaleza en nuestro universo de bolsillo son tales que
producen el máximo número posible de agujeros negros. Afirma que el principio
antrópico es totalmente innecesario. El universo no está puesto a punto para la
vida. Está puesto a punto para hacer agujeros negros.
La idea es ingeniosa, pero no creo que explique los hechos. Adolece de
dos serios problemas. El primero es que la idea de Smolin de la evolución
cósmica sigue demasiado de cerca a la de Darwin y requiere que los cambios de
una generación a otra sean cambios imperceptibles. Como ya he dicho, la pauta
sugerida por el paisaje de la teoría de cuerdas es exactamente la contraria. En
defensa de Smolin debería señalar que casi todo nuestro conocimiento del
paisaje se obtuvo después de que se publicase su teoría. En el momento en que
Smolin estaba publicando sus ideas, el paradigma vigente para los teóricos de
cuerdas era la parte supersimétrica plana del paisaje, donde es realmente
cierto que los cambios son infinitesimales.
El otro problema es cosmológico y tiene poco que ver con la teoría de
cuerdas. No hay ninguna razón para creer que vivamos en un universo que es
máximamente eficiente para producir agujeros negros. Smolin hace una serie de
argumentos retorcidos para demostrar que cualquier cambio en nuestro universo
daría como resultado menos agujeros negros, pero yo los encuentro muy poco
convincentes. Vimos en el capítulo 5 que es un «milagro» afortunado el que el
universo no esté catastróficamente lleno de agujeros negros. Un aumento
relativamente pequeño en la grumosidad inicial del universo haría que casi toda
la materia colapsara en agujeros negros antes que en galaxias y estrellas que
alimentan la vida. Además, aumentar las masas de las partículas elementales
haría que se formaran más agujeros negros puesto que serían más sensibles a la
atracción gravitatoria. La pregunta real es por qué el universo tiene tan pocos
agujeros negros. La respuesta que para mí tiene más sentido es que muchos,
quizá la mayoría, de los bolsillos tienen muchos más agujeros negros que
nuestro bolsillo, pero son lugares violentos en los que no podría haberse
formado la vida.
El argumento general de que vivimos en un mundo que es máximamente apto
para reproducirse también falla, en mi opinión, en aspectos fundamentales. El
espacio se reproduce realmente —un mecanismo bien entendido es la inflación—
pero el universo máximamente reproductor no se parece en nada al nuestro. El
universo más apto en el sentido de Smolin, el que se replica con más rapidez,
sería el universo con la mayor constante cosmológica. Pero no hay solapamiento
entre la aptitud para reproducirse y la aptitud para soportar vida inteligente.
Con su constante cosmológica ultrapequeña y su escasez de agujeros negros,
nuestro universo es especialmente poco apto para reproducirse.
Volviendo a la analogía del árbol de la vida, tampoco en biología hay
solapamiento entre la aptitud reproductiva y la inteligencia. Las criaturas
máximamente aptas no son humanas: son bacterias. Las bacterias se replican con
tanta rapidez que un único organismo puede tener hasta diez billones de
descendientes en un período de veinticuatro horas. Según algunas estimaciones,
la población de bacterias en la Tierra es más de un billón de trillones. Los
seres humanos pueden ser muy especiales en muchos aspectos pero no en su
capacidad para reproducirse. Un mundo que puede soportar vida es también muy
especial, pero, de nuevo, no en su capacidad para reproducirse.
Para decirlo de otro modo, imaginemos a Gregor Samsa —el protagonista
de La metamorfosis, de Franz Kafka— en ese fatídico día en que se
despierta como una cucaracha gigante. ¿Podría haberse preguntado, todavía
nublado por el sueño?; «¿Qué tipo de criatura soy?». Siguiendo la lógica de
Smolin la respuesta sería: «Con aplastante probabilidad, debo pertenecer a la
clase de criaturas que son más aptas para reproducirse y son por lo tanto las
más abundantes. En resumen, debo de ser una bacteria».
Pero unos pocos segundos de reflexión podrían convencerle de lo
contrario. Citando mal a Descartes, él concluiría: «Pienso, luego no soy una
bacteria. Soy algo muy especial, una notable criatura con un extraordinario
poder cerebral. No soy un promedio: estoy extremadamente lejos de la media».
Tampoco nosotros tardaríamos más de un momento en concluir que no estamos en la
media. No pertenecemos a la rama del megaverso que es más apta para
reproducirse. Pertenecemos a la rama que puede decir: «Pienso, luego la
constante cosmológica debe ser muy pequeña».
Mi reacción a la idea de Smolin ha sido dura. Pero la dureza se dirige
contra puntos técnicos concretos, no contra la filosofía general de Smolin.
Creo que Smolin merece gran crédito por acertar en la mayoría de las cosas.
Smolin fue el primero en reconocer que la diversidad de vacíos en la teoría de
cuerdas puede desempeñar un importante papel positivo en explicar por qué el
mundo es como es. Fue también el primero en tratar de utilizar esta diversidad
de una manera creativa para explicar nuestro ambiente especial. Y lo más
importante, entendió que había una pregunta urgente que responder: «¿Cómo
pueden ofrecer las ideas más profundas y poderosas de la física moderna una
explicación genuinamente científica del aparente “diseño inteligente” que vemos
a nuestro alrededor?». En todo esto, él se enfrentaba directamente a los
fuertes prejuicios de los teóricos de cuerdas y creo que él estaba entonces más
acertado que ellos.
Como he resaltado repetidamente, no hay ninguna explicación conocida de
las propiedades especiales de nuestro bolsillo distinta de la del paisaje
poblado, al menos ninguna explicación que no requiera fuerzas sobrenaturales.
Pero hay problemas reales en nuestra comprensión actual del paisaje poblado, y
algunos son potencialmente muy serios. En mi opinión, los mayores desafíos
tienen que ver con la inflación eterna, el mecanismo que puede poblar el
paisaje. La clonación del espacio no está cuestionada seriamente por nadie, ni
lo está la producción de burbujas por el vacío metaestable. Ambas ideas se
basan en algunos de los principios más fiables de la relatividad general y de
la mecánica cuántica. Pero nadie tiene una comprensión clara de cómo estas
observaciones van a convertirse en predicciones —incluso conjeturas
estadísticas— sobre nuestro universo.
Dado un megaverso, incesantemente lleno con universos de bolsillo, el
principio antrópico es una herramienta efectiva para eliminar la mayoría de
ellos como candidatos para nuestro universo. Los que no soportan nuestro tipo
de vida pueden ser arrojados a la basura. Eso ofrece un maravilloso poder
explicatorio para preguntas como ¿por qué es pequeña la constante cosmológica?
Pero gran parte de la controversia sobre el principio antrópico tiene que ver
con un programa más ambicioso, la esperanza de que pueda sustituir a la bala de
plata en predecir toda la Naturaleza.
Ésta es una expectativa poco razonable. No hay ninguna razón por la que
todas las características de la Naturaleza debieran estar determinadas por la
existencia de vida. Algunas características estarán determinadas por
razonamiento matemático de tipo tradicional, otras por razonamiento antrópico y
otras características quizá sean sólo hechos ambientales casuales.
Como siempre, el mundo de los peces de gran cerebro (capítulo 5) es un
buen lugar para obtener alguna perspectiva. Sigamos a los peces a medida que
aprenden más obre su mundo:
Con el tiempo, con ayuda de los cosmólogos, los peces llegaron a darse
cuenta de que habitaban en un planeta que giraba alrededor de un reactor
nuclear brillante —una estrella— que proporcionaba el calor que calentaba su
agua. La pregunta que había obsesionado a sus mejores mentes iba a tomar una
forma totalmente nueva. El universo es grande. Tiene muchas estrellas y
planetas, y una pequeña fracción está a la distancia adecuada para que haya
agua líquida y peces.
Pero algunos físicos no están contentos con la respuesta. Afirman correctamente
que la temperatura depende de algo más aparte de la distancia orbital. La
luminosidad de la estrella —el ritmo al que irradia energía— entra en la
ecuación. «Podríamos estar cerca de una pequeña estrella oscura o lejos de una
gigante brillante. Hay todo un abanico de posibilidades. El principio ictrópico
es un fracaso. No hay ninguna manera en que pueda explicar la distancia a
nuestra estrella».
Pero nunca fue la intención de los peces cosmólogos explicar todas las
características de la Naturaleza. Su afirmación de que el universo es grande y
contiene una amplia variedad de ambientes es tan válida como siempre. La
crítica de que el principio ictrópico no puede explicar todo es un hombre de
paja, montado por los peces físicos solo para derribarlo.
Hay paralelos muy estrechos entre esta historia y el caso del principio
antrópico. Un ejemplo incluye la constante cosmológica y la grumosidad del
universo primitivo. En el capítulo 2, he contado cómo Weinberg explicó el hecho
de que la constante cosmológica sea tan increíblemente pequeña: si fuera mucho
mayor, los muy pequeños contrastes de densidad (grumosidad) en el universo no
podrían haber crecido para dar galaxias. Pero supongamos que los contrastes de
densidad iniciales fueran un poco más fuertes. Entonces una constante
cosmológica algo mayor podría ser tolerada. Como en el caso de la distancia y
la luminosidad de la estrella, hay un rango de valores posibles para la
constante cosmológica y la grumosidad que permiten la vida, o al menos las
galaxias. El principio antrópico por sí mismo es impotente para escoger entre
ellos. Algunos físicos toman esto como evidencia en contra del principio
antrópico. Una vez más, lo considero un hombre de paja.
Pero es posible que con ingredientes adicionales los peces físicos y los
físicos humanos podríamos hacerlo mejor. Acudamos a los peces astrofísicos: los
expertos en cómo se forman y evolucionan las estrellas. Estos peces científicos
han estudiado la formación de estrellas a partir de nubes de gas gigantes y,
como se esperaba, encuentran que es posible un rango de luminosidades. No hay
forma de estar seguros de la luminosidad estelar sin elevarse por encima de la
superficie y observar la estrella, pero aun así parece que algunos valores de
la luminosidad son más probables que otros. De hecho, los peces astrofísicos
encuentran que la mayoría de las estrellas de larga vida deberían tener una
luminosidad de entre 1026 y 10 27 vatios.
Su estrella está probablemente en este rango.
Ahora intervienen los peces cosmólogos. Con tal luminosidad el planeta
tendría que estar a unos ciento cincuenta millones de kilómetros para tener un
clima suficientemente templado para que haya agua líquida. Esa predicción no es
tan absoluta como a ellos les gustaría. Como todas las afirmaciones
probabilísticas, podría ser errónea. Pese a todo, es mejor que ninguna
predicción.
Lo que tienen en común estas dos situaciones —una que incluye agua
líquida y otra la formación de galaxias— es que las consideraciones antrópicas
(o ictrópicas) por sí solas no son suficientes para determinar o predecir todo.
Esto es inevitable si hay más de un valle en el Paisaje que puede soportar
nuestro tipo de vida. Con 10500 valles parece casi seguro que
será así. Llamemos a tales vacíos antrópicamente aceptables. La física y la
química comunes pueden ser muy similares en muchos de ellos: hay electrones,
núcleos, gravedad, galaxias, estrellas y planetas muy similares a las que
conocemos en nuestro mundo. Las diferencias pueden estar en aquellas cosas en
las que sólo podría estar interesado un físico de partículas de altas energías.
Por ejemplo, hay muchas partículas en la naturaleza —el quark-cima, el leptón
tau, el quark-fondo y otras— cuyas propiedades detalladas apenas cuentan para
el mundo ordinario. Son demasiado pesadas para suponer ninguna diferencia
excepto en colisiones de alta energía en aceleradores gigantes. Algunos de
estos vacíos (incluyendo el nuestro) pueden tener muchos nuevos tipos de
partículas que suponen poca o ninguna diferencia para la física corriente. ¿Hay
alguna manera de explicar en cuáles de estos vacíos antrópicamente aceptables
vivimos? Obviamente, el principio antrópico no puede ayudarnos a predecir en
cuál vivimos; cualquiera de estos vacíos es aceptable.
Esta conclusión es frustrante. Deja abierta la teoría a la seria crítica
de que no tiene poder predictivo, algo a lo que los científicos son muy
sensibles. Para abordar esta deficiencia muchos cosmólogos han tratado de
complementar el principio antrópico con hipótesis probabilísticas adicionales.
Por ejemplo, en lugar de preguntar cuál es exactamente el valor de la masa del
quark-cima, podríamos tratar de preguntar cuál es la probabilidad de que el
quark-cima tenga una masa en un rango particular.
He aquí una propuesta tal: con el tiempo conoceremos lo suficiente sobre
el paisaje para saber cuántos valles existen para cada rango de la masa del
quark-cima. Algunos valores de la masa pueden corresponder a un enorme número
de valles; otros pueden corresponder a un número mucho más pequeño. La
propuesta es bastante simple: los valores de la masa del quark-cima que
corresponden a muchísimos valles son más probables que los valores que
corresponden a pocos valles. Para realizar un programa de este tipo tendríamos
que conocer mucho más sobre el paisaje que lo que conocemos ahora. Pero
situémonos en el futuro, cuando los detalles del paisaje hayan sido
cartografiados por la teoría de cuerdas y conozcamos el número de vacíos con
cualquier conjunto de propiedades concebible. Entonces, la propuesta natural
sería que la probabilidad relativa para dos valores distintos de alguna
constante fuera la razón entre el número de vacíos apropiados. Por ejemplo, si
hubiera el doble de vacíos con valor de masa M1 que con valor
de masa M2, se seguiría que M 1 sería el doble
de probable que M2. Si tenemos suerte podríamos encontrar que un
valor de la masa del quark-cima corresponde a un número excepcionalmente grande
de valles. Entonces podríamos avanzar suponiendo que este valor es cierto para
nuestro mundo.
Ninguna única predicción de este tipo, basada como lo está en la
probabilidad, puede confirmar o refutar la teoría, pero muchas predicciones
estadísticas acertadas añadirían mucho peso a nuestra confianza.
La idea que acabamos de esbozar es tentadora, pero hay serias razones
para cuestionar el argumento. Recordemos que el paisaje es meramente el espacio
de posibilidades. Si fuéramos peces físicos pensando en el paisaje de planetas
posibles, podríamos contar todo tipo de posibilidades extrañas siempre que
fueran soluciones a las ecuaciones de la física: planetas con núcleos de oro
puro entre otras. Las ecuaciones de la física tienen tantas soluciones
correspondientes a enormes bolas de oro como a bolas de hierro [102] .
El argumento de contar posibilidades diría que no es más probable que un
planeta con núcleo de hierro sea el hogar de los peces físicos que lo sea un
planeta de oro, obviamente un error [103] .
Lo que realmente queremos saber no es cuántas posibilidades de
cada tipo hay: lo que queremos saber es cuántos planetas de
cada tipo hay. Para ello necesitamos mucho más que el recuento abstracto de
posibilidades. Necesitamos saber cómo se producen el hierro y el oro durante la
lenta combustión nuclear en el interior de las estrellas.
El hierro es el más estable de todos los elementos. Es más difícil
extraer un protón o un neutrón de un núcleo de hierro que de cualquier otro. En
consecuencia, la combustión nuclear procede a lo largo de la tabla periódica,
de hidrógeno a helio, de helio a litio… hasta que finalmente acaba en el
hierro. Como resultado, el hierro es mucho más abundante en el universo que
cualquiera de los elementos con número atómico alto, incluido el oro. Por eso
es por lo que el hierro es barato y el oro cuesta casi dieciséis euros el
gramo. El hierro es omnipresente en el universo; el oro, por el contrario, es
muy raro. Casi todos los planetas sólidos tendrán mucho más hierro en sus
núcleos que oro. En comparación con los planetas de hierro, el número de
planetas de oro sólido en el universo es mínimo, muy posiblemente cero.
Queremos contar realidades y no posibilidades.
El mismo argumento que se aplica a los planetas debería aplicarse a los
universos de bolsillo. Pero ahora encontramos un problema terrible con la
inflación eterna. Puesto que continúa para siempre, la inflación eterna (tal
como ahora se concibe) creará un número infinito de bolsillos; de hecho, un
número infinito de cada tipo de universo de bolsillo. Así, nos enfrentamos a un
viejo problema matemático de comparar números infinitos. ¿Qué infinito es mayor
que cual otro y cuánto mayor?
El problema de comparar números infinitos se remonta a Georg Cantor,
quién a finales del siglo XIX planteó exactamente esta pregunta: ¿cómo se puede
comparar el tamaño de dos conjuntos, cada uno de los cuales tiene
un infinito número de elementos? Primero empezó preguntando cómo se pueden
comparar números ordinarios. Supongamos, por ejemplo, que tenemos un montón de
manzanas y un montón de naranjas. La respuesta obvia es contar ambos números,
pero si todo lo que queremos saber es cuál es más grande, podemos hacer algo
más primitivo, algo que ni siquiera requiere ningún conocimiento de los
números: alineamos las manzanas y junto a ellas alineamos las naranjas,
emparejando cada naranja con una manzana. Si sobran algunas
manzanas, entonces hay más manzanas. Si sobran naranjas, entonces hay más
naranjas. Si naranjas y manzanas encajan, su número es el mismo.
Cantor dijo que lo mismo podía hacerse con conjuntos infinitos (o los
que él llamaba transfinitos). Tomemos, por ejemplo, los enteros pares y los
enteros impares. Hay un número infinito de cada tipo, pero ¿es el mismo número
infinito? Alineémoslos y veamos si podemos hacer que se emparejen de tal forma
que haya un impar por cada par. Los matemáticos llaman a esto una correspondencia
uno-a-uno.
|
1 |
3 |
5 |
7 |
9 |
11 |
13 |
|
2 |
4 |
6 |
8 |
10 |
12 |
14 |
Notemos que las dos listas contienen finalmente a cada entero par y cada
entero impar; ninguno queda fuera. Además, encajan exactamente, de modo que
Cantor concluyó que el número de impares y el de pares son el mismo numero,
incluso si ambos son infinitos.
¿Qué pasa con el número total de enteros, pares e impares? Ése es obviamente
mayor que el número de enteros pares —dos veces mayor. Pero Cantor discrepaba.
Los enteros pares pueden emparejarse exactamente con la lista de todos los
enteros.
|
1 |
2 |
3 |
4 |
5 |
6 |
7 |
|
2 |
4 |
6 |
8 |
10 |
12 |
14 |
Según la única teoría matemática de los números infinitos, la teoría que
construyó Cantor, ¡el número de enteros pares es igual al número de todos los
enteros! Lo que es más, el conjunto de números divisibles por 10 —10, 20, 30,
40, etcétera— tiene exactamente el mismo tamaño infinito. Los enteros, los
enteros pares o impares, los enteros que son divisibles por diez… todos son
ejemplos de lo que los matemáticos llaman conjuntos infinitos numerables y
todos son igualmente grandes [104] .
Hagamos un experimento mental que implique números infinitos. Imaginemos
una bolsa infinita llena con todos los enteros escritos en trozos de papel.
Éste es el experimento: agitamos primero la bolsa hasta mezclar completamente
los trozos. Ahora metemos la mano y sacamos un único entero. La pregunta es:
¿cuál es la probabilidad de que hayamos sacado un entero par?
La respuesta ingenua es simple. Puesto que la mitad de los enteros son
pares, la probabilidad debe ser un medio, el cincuenta por ciento. Pero no
podemos hacer este experimento realmente porque nadie puede hacer una bolsa
infinita de enteros. De modo que, para poner a prueba la teoría, podemos
trampear un poco y utilizar una bolsa finita que contenga, digamos, los mil
primeros enteros. Es casi seguro que si hacemos el experimento una y otra vez,
encontraremos que la probabilidad de sacar un entero par es un medio. A
continuación hacemos el mismo experimento con una bolsa llena con los diez mil
primeros enteros. Una vez más, puesto que la mitad de las papeletas llevan
números pares y la otra mitad llevan números impares, encontraremos que la
probabilidad para un entero par es un medio. Hagámoslo de nuevo con los
primeros cien mil enteros, el primer millón de enteros, los primeros mil
millones, y así sucesivamente. Cada vez la probabilidad es un medio. Es
razonable extrapolar a partir de esto que si la bolsa tuviera un número
infinito de papeletas, la probabilidad seguiría siendo un medio.
Pero espere. Podríamos modificar el contenido de la bolsa de la
siguiente manera. Empezamos con el primer millar de enteros pares y los
primeros dos millares de enteros impares. Ahora hay el doble de enteros pares
que de impares y la probabilidad de sacar un número par es solo un tercio. A
continuación repetimos el experimento con los primeros diez mil enteros pares y
los primeros veinte mil enteros impares. De nuevo la probabilidad es un tercio.
Como antes, podemos extrapolar al límite de una bolsa infinita, pero cada vez
el resultado será un tercio. De hecho, podemos hacer que la respuesta sea la
que queramos variando la forma en que definimos el límite de un experimento
infinito.
El universo que se infla eternamente es una bolsa infinita, no de
papeletas con números sino de universos de bolsillo. De hecho, es una bolsa en
la que cada tipo de universo posible —cada valle del paisaje— está representado
un número infinito numerable de veces. No hay ninguna manera matemáticamente
obvia de comparar un tipo de universo de bolsillo con otro y declarar que uno
es más probable que el otro. La conclusión es muy preocupante: parece que no
hay ninguna manera de definir la probabilidad relativa de diferentes vacíos
antrópicamente aceptables.
El problema de la medida (el término medida se refiere
a las probabilidades relativas de los diferentes vacíos) ha molestado a algunas
de las grandes mentes de la cosmología, Vilenkin y Linde en especial. Podría
considerarse el talón de Aquiles de la inflación eterna. Por una parte, es
difícil ver cómo puede evitarse la inflación eterna en una teoría con un tipo
de paisaje interesante. Pero es igualmente difícil ver cómo puede utilizarse
para hacer predicciones científicas del tipo que la establecerían como ciencia
en el sentido tradicional.
En el pasado, la física se ha enfrentado a otros muchos problemas que
implican números infinitos: la catástrofe ultravioleta a la que se enfrentó
Planck o los extraños infinitos que eran la cruz de la teoría cuántica de
campos en los primeros días. Incluso los problemas de los agujeros negros que
debatimos Hawking, ’T Hooft y yo son problemas del infinito. Según los cálculos
de Hawking, un horizonte de agujero negro es capaz de almacenar una cantidad
infinita de información sin devolverla al entorno. Todos éstos eran problemas
profundos de números transfinitos o infinitos. En cada caso hubo que descubrir
nuevos principios físicos antes de que pudieran hacerse progresos. En el caso
de Planck fue la propia mecánica cuántica, el reconocimiento por parte de Einstein
de que la luz estaba hecha de cuantos. Los números infinitos que plagaban la
teoría cuántica de campos sólo se purgaron cuando los nuevos principios de la
teoría de la renormalización fueron descubiertos y finalmente
entendidos por Kenneth Wilson. La historia del agujero negro aún se ésta
entendiendo, pero ya hay esbozos de una solución en términos del principio
holográfico. En cada caso se encontró que las reglas de la física clásica
sobreestimaban los grados de libertad que describen el mundo.
Creo que el problema de la medida requerirá también una nueva idea
importante antes de que podamos entender la forma de hacer predicciones sobre
el paisaje. Si yo tuviera que hacer una conjetura, diría que tiene algo que ver
con el principio holográfico y la forma en que la información más allá de
nuestro horizonte está contenida en la radiación cósmica en nuestro propio
bolsillo. Pero si yo fuera un enemigo del paisaje poblado, dirigiría mi ataque
contra estos problemas conceptuales de la inflación eterna.
Dejando aparte el problema de la medida, la dificultad práctica de hacer
predicciones comprobables que puedan compararse con experimentos u
observaciones es un serio problema. Pero creo que la situación no es ni mucho
menos desesperada. Hay algunas pruebas que podrían obtenerse en un futuro
próximo.
§. El comienzo de la inflación
En el capítulo 4 he explicado cómo los minúsculos contrastes de densidad
en el universo primitivo (observados en el fondo cósmico de microondas) se
crearon durante la inflación final que tuvo lugar en una terraza que daba a
nuestro valle. Ellos fueron las semillas que evolucionaron hasta dar galaxias.
Había grumosidad en muchas escalas diferentes, unas que ocupan minúsculas
porciones del cielo y otras estructuras mucho mayores que ocupan casi todo el
cielo. Los grumos y protuberancias cósmicos que podemos observar ahora son
residuos fósiles que datan de eras diferentes. La correlación importante a
recordar es que los grumos más grandes se congelaron en las épocas más
tempranas.
Si tenemos mucha, mucha suerte, los grumos más grandes en el CMB podrían
datar de un tiempo inmediatamente anterior a que empezara la inflación usual;
en otras palabras, justo cuando el universo se estaba asentando en la terraza
inflacionaria. Si fuera así, los grumos más grandes serían un poco menos
compactos que los grumos ligeramente más pequeños que se produjeron cuando la
Inflación llevaba actuando algún tiempo. De hecho, hay alguna prueba de que los
grumos más grandes son más débiles que los otros. No es seguro ni mucho menos,
pero estos contrastes de densidad a gran escala podrían contener información
sobre la formación de nuestra burbuja a partir de una época anterior con una
constante cosmológica más grande.
Si tenemos esa suerte, la inflación no duró lo suficiente como para
borrar la evidencia de la curvatura del espacio. Aquí de nuevo la nucleación de
burbujas tiene una rúbrica característica. Si nuestro universo de bolsillo
nació en un suceso de nucleación de burbuja, el universo debería estar curvado
negativamente. Los ángulos interiores de triángulos cósmicos sumarían menos
de ciento ochenta grados.
En el nivel de precisión con el que se ha medido la curvatura del
espacio, no hay indicio de tal curvatura. La idea puede fallar porque
probablemente la inflación estándar llevaba tiempo en acción cuando se formaron
los grumos visibles más grandes. Pero si detectamos curvatura negativa, eso
será una señal que nos estará diciendo que nuestro universo nació en una
burbuja minúscula en un vacío con una constante cosmológica más grande.
§. Supercuerdas en el cielo
Todavía no hemos agotado todas nuestras opciones para observar el
universo. ¿Realmente es posible que podamos ver supercuerdas? La respuesta
obvia es que son demasiado pequeñas para verse. Pero lo mismo podría haberse
dicho de las minúsculas fluctuaciones cuánticas que ocurrieron durante la
inflación. En el capítulo 5 vimos que la expansión del universo y los efectos
de la gravedad inflaron de algún modo estas fluctuaciones hasta que se
convirtieron primero en los contrastes de densidad en el fondo cósmico de
microondas y finalmente en las galaxias manifiestamente visibles en el cielo
actual. Es un hecho increíble que podamos ver los efectos de fenómenos
cuánticos microscópicos congelados en el cielo como una pintura abstracta
puntillista que se expande. Eso llegó como una completa sorpresa para la
mayoría de los físicos, que estaban acostumbrados a considerar el mundo
cuántico como algo estrictamente microscópico. De modo que quizá no deberíamos
precipitarnos en suponer que objetos a pequeña escala como cuerdas no puedan
hacer algo similar: quizá conviertan el cielo en un gigantesco lienzo de
Jackson Pollock.
Basándose en el trabajo de sus colegas, Thibault Damour, Alex Vilenkin,
Joe Polchinski y otros han empezado a explorar una nueva oportunidad
enormemente excitante, una vez más con origen en fenómenos conectados con la
inflación. La inflación esta causada por la energía del vacío que había
presente hace tiempo. Dicha energía del vacío desapareció a medida que el
universo se deslizaba por el paisaje hasta su actual altitud muy baja, pero la
energía del vacío no desapareció sin dejar algo detrás. Se convirtió en formas
de energía más ordinarias, a saber, calor y partículas, la materia del universo
actual.
Pero la energía también puede tomar otra forma. Parte de ella puede
transformarse en una colección enmarañada de cuerdas que semejan un sedal
increíblemente enredado o un ovillo de lana después de que un gato le pusiera
las garras encima. La maraña podría incluir no sólo las cuerdas ordinarias de
la teoría de cuerdas, sino también las D1-branas tipo cuerda ideadas por
Polchinski.
Si semejante maraña se creó en el universo primitivo, la expansión
posterior extendería la maraña hasta proporciones enormes: lazos y remolinos
microscópicos, que crecen hasta un tamaño de cientos de millones de años luz.
Pero alguna porción de las cuerdas permanecería hasta hoy, agitándose en una
enorme escala de espacio y tiempo. Las cuerdas no serían visibles por medio de
luz o de cualquier otra radiación electromagnética, pero afortunadamente hay
otra manera de detectarlas. Damour y Vilenkin han demostrado que tales cuerdas
cósmicas emitirían ondas gravitatorias (ondas como perturbaciones del campo
gravitatorio) que muy bien pueden ser detectables en la próxima década.
Observar tales cuerdas en el cielo sería un triunfo extraordinario para la
teoría de cuerdas.
El estudio de estas supercuerdas cósmicas, si realmente existen, puede
decirnos mucho, no sobre el paisaje entero pero sí al menos sobre nuestra
vecindad inmediata. Polchinski y colaboradores han estudiado las condiciones
detalladas bajo las que ocurren los enredos de las cuerdas y el carácter de las
redes que se forman. Los detalles son muy sensibles a cosas como la
dimensionalidad del paisaje, la presencia de branas y flujos en las dimensiones
compactas y más. El cielo, más que los aceleradores de partículas, puede ser el
lugar donde buscar los indicios de la teoría de cuerdas.
§. Física de altas energías
Las observaciones astronómicas y cosmológicas son probablemente la ola
del futuro, pero todavía no hemos llegado a los límites de la ciencia de
laboratorio. Nuestra mayor esperanza a corto plazo para obtener nueva
información original sobre las leyes de la física es la que siempre fue: la
física experimental (de partículas elementales) de altas energías realizada en
aceleradores. Quizá sea cierto que estamos llegando a los límites de este tipo
de ciencia, pero sin duda vamos a empujar las fronteras al menos a un nivel
más. El mayor acelerador en el mundo, y probablemente el único suficientemente
grande para darnos mucha nueva información, está actualmente próximo a su
finalización y debería estar operativo en 2007. Ginebra, en Suiza, la sede del
CERN, es el lugar donde está emplazado el Gran Colisionador de Hadrones, o LHC,
como se le llama. Concebido originalmente con el objetivo de estudiar el bosón
de Higgs, es también la máquina ideal para descubrir las gemelas
supersimétricas de las partículas elementales.
En el capítulo 7 expliqué por qué muchos físicos creen que la
su-persimetría está «a la vuelta de la esquina». El argumento, presentado
inicialmente hace veinticinco años, es que la supersimetría aseguraría que las
violentas fluctuaciones cuánticas del vacío no crean una enorme masa para el
bosón de Higgs y, por consiguiente, no arruinan el modelo estándar. La simetría
puede estar muy bien a la vuelta de la esquina. La mayoría de los físicos
teóricos esperan que sea así, al menos a juzgar por el número de artículos
publicados sobre el tema. Pero hay otra posibilidad. Como sucede con la energía
del vacío (o la constante cosmológica), una masa de Higgs demasiado grande
arruinaría la posibilidad de que la vida evolucione en nuestro universo de
bolsillo. Si el mundo es suficientemente grande y el paisaje suficientemente
diverso, entonces una minúscula fracción del megaverso tendrá una masa de Higgs
suficientemente pequeña para que florezca la vida: fin de la historia. Como en
el caso de la constante cosmológica, la supersimetría sería irrelevante e
innecesaria.
Las dos explicaciones no son necesariamente excluyentes. La oportunidad
más probable para encontrar un valle con masa de Higgs suficientemente pequeña
puede ser encontrar uno con supersimetría justo a la vuelta de la esquina. Es
incluso posible que todos los valles con masas de Higgs pequeñas sean de este
tipo.
O puede ser cierto lo contrario: la inmensa mayoría de los vacíos con
pequeñas masas de Higgs pueden carecer por completo de cualquier tipo de
supersimetría. La exploración del paisaje está aún en su temprana infancia, y
no sabemos la respuesta a esta pregunta. Mi conjetura original era que la
supersimetría no estaba favorecida, y así lo dije por escrito. Pero desde
entonces he cambiado de opinión —dos veces— y probablemente no por última vez.
Al tratar de predecir la probabilidad relativa de supersimetría versus
no supersimetría, topamos con el problema de la medida. Quizá deberíamos
detenernos allí. Pero hay una fuerte tentación a menospreciar las sutilezas y
seguir adelante. Físicos teóricos como Michael Douglas, Shamit Kachru y muchos
otros están desarrollando métodos para contar el número de lugares en el
paisaje con diferentes propiedades. Aquí entiendo el número de posibilidades,
no el número de universos de bolsillo reales. Luego, sin tener otra
información, podríamos conjeturar que si hay muchísimos más vacíos antrópicos
con supersimetría aproximada que vacíos sin ella, la supersimetría aproximada
es aplastantemente probable. Pero el problema de la medida es otro enorme
elefante en la habitación que quizá se esté riendo silenciosamente de nosotros.
En cualquier caso, las dificultades para poner a prueba el paisaje, la
inflación eterna y el principio antrópico son reales, pero hay muchas maneras
de poner a prueba una teoría. La consistencia matemática quizá no impresione a
los físicos experimentales más tercos, pero no debería ser subestimada. Las
teorías consistentes que combinan mecánica cuántica y relatividad general no
son muy habituales. De hecho, ésta es la razón de que la teoría de cuerdas
tenga tan poca competencia. Si no aparecen alternativas y si se demuestra que
la teoría de cuerdas tiene un paisaje tan variado como parece, entonces el
paisaje poblado será la posición por defecto, la teoría a batir, por así decir.
Pero abandonar la posibilidad de pruebas más directas es ciertamente
prematuro. Es cierto que teoría y experimento avanzan normalmente «de la mano»,
pero no siempre es así. Se necesitaron más de dos décadas para que el universo
inflacionario de Alan Guth pudiera ponerse a prueba mediante observación. Al
principio, casi todo el mundo pensaba que la idea era interesante, pero que
nunca podría ser puesta a prueba. Creo que incluso el propio Alan era escéptico
acerca de poder confirmar alguna vez su verdad.
Más extrema incluso era la teoría de Darwin. Se basaba en observaciones
generales sobre el mundo y en una intuición muy sagaz. Pero un test
experimental directo y controlado debió de parecer completamente imposible: se
necesitaría una máquina del tiempo que nos llevara millones, si no miles de
millones, de años atrás. El hecho es que se necesitaron unos cien años para que
biólogos y químicos ingeniosos descubrieran la forma de someter la teoría a
rigurosas pruebas de laboratorio. A veces la teoría tiene que avanzar
rápidamente para iluminar el camino.
Epílogo
Antes de embarcar en el avión Hércules que iba a llevarnos a Punta
Arenas desde la Estación Antártica Chilena, di un abrazo de despedida a mi
amigo Víctor. Siendo un ruso emocional y sentimental, Víctor estaba triste por
nuestra partida. Lo último que le dije antes de salir a la ventisca fue:
«Víctor, ¿no piensas que la Antártida es bella?». Él se perdió durante unos
momentos en pensamientos melancólicos y luego esbozó una sonrisa y dijo: «Sí,
como algunas mujeres: bella, pero cruel». Si Víctor me hubiera preguntado si yo
pensaba que nuestro universo y sus leyes de la física son bellos, podría
haberle respondido: «No, bello no. Pero sí bastante amable».
A lo largo de este libro he desestimado la belleza, la unicidad y la
elegancia como falsos espejismos. Las leyes de la física (en el sentido en que
las he definido en el capítulo 1) no son ni únicas ni elegantes. Parece que el
mundo, o la parte del mismo en la que vivimos, es una máquina de Rube Goldberg.
Pero lo confieso: soy tan vulnerable a los seductores encantos de la unicidad y
la elegancia como cualquiera de mis colegas. También yo quiero creer que los
grandes principios supremos que trascienden las reglas que gobiernan cualquier
bolsillo particular del universo son únicos, elegantes y maravillosamente
simples. Pero los resultados de dichas reglas no tienen por qué ser elegantes
en absoluto. La mecánica cuántica, que gobierna el mundo microscópico de los
átomos, es muy elegante; pero no todo lo que está hecho de átomos lo es. Las
leyes simples que dan lugar a moléculas, líquidos, sólidos y gases de gran
complejidad producen hierbas hediondas tanto como rosas. Creo que yo podría
encontrar los principios universales de la teoría de cuerdas más elegantes…
sólo con que supiera que existían.
Suelo bromear diciendo que si las mejores teorías son las que tienen el
mínimo número de principios y ecuaciones definitorias, entonces la teoría de
cuerdas es con mucho la mejor: nadie ha encontrado nunca un solo principio o
una ecuación definitoria. Todo en la teoría de cuerdas parece indicar que es
una estructura matemática muy elegante con un grado de consistencia mucho mayor
que cualquier otra teoría física. Pero nadie sabe cuáles son sus reglas
definitorias, ni nadie sabe cuáles son los «bloques constituyentes» básicos.
Recordemos: los bloques constituyentes son los objetos simples de los
que esta hecho todo lo demás. Para un constructor, los bloques constituyentes
pueden ser exactamente eso: los bloques o ladrillos que componen las paredes y
los cimientos. La relación entre los bloques constituyentes y los objetos
compuestos que aquéllos componen es muy asimétrica: las casas están hechas de
ladrillos. Sólo alguien con un grave trastorno de percepción —quizá un paciente
de Oliver Sacks, «el hombre que confundió su casa con un ladrillo»— invertiría
esta relación.
Los bloques constituyentes básicos de la ciencia dependen del contexto y
el estado de conocimiento en la época. En el siglo XIX, los bloques
constituyentes de la materia eran los átomos de la tabla periódica. Los mismos
92 elementos pueden combinarse en una inacabable diversidad de compuestos
llamados moléculas. Más tarde se descubrió que los átomos eran compuestos, y
dieron paso a electrones, protones y neutrones. De ello hemos aprendido que las
cosas grandes parecen estar hechas de cosas más pequeñas. Para un físico que
sondea a más profundidad en las leyes de la Naturaleza, esto ha significado
normalmente el descubrimiento de una subestructura de bloques constituyentes
más pequeños. En el estado actual de la física se cree que la materia ordinaria
está compuesta de electrones y quarks. Las preguntas que plantea la gente,
tanto legos como científicos, son las siguientes: «¿Piensas que esto seguirá
indefinidamente, o piensas que hay un bloque constituyente mínimo?». Estos días
la pregunta suele tomar la forma: «¿Hay algo más pequeño que la longitud de
Planck?» o «¿Son las cuerdas los objetos más fundamentales o están hechas de
cosas más pequeñas?».
Éstas pueden ser preguntas equivocadas. La teoría de cuerdas parece
trabajar de una forma más sutil. Lo que encontramos es que si centramos la
atención en una región particular del paisaje, todo está construido a partir de
un conjunto específico de bloques constituyentes. En unas regiones pueden ser
cuerdas cerradas o abiertas de un tipo específico. En otras regiones toda la
materia está compuesta de D-branas. Y en otras partes del paisaje, objetos
similares a cuantos de campos ordinarios pueden ensamblarse para dar cuerdas,
branas, agujeros negros y más. Cualesquiera que sean los objetos que se
distingan como «más fundamentales», los demás objetos de la teoría se comportan
como compuestos, en el mismo sentido en que átomos y moléculas están compuestos
de electrones, protones y neutrones.
Pero cuando nos movemos en el paisaje, de una localización a otra,
suceden cosas extrañas. Los bloques constituyentes intercambian su lugar con
los objetos compuestos. Algún compuesto particular se contrae, comportándose de
una forma cada vez más simple, como si se estuviera convirtiendo en un bloque
constituyente elemental. Al mismo tiempo, los bloques constituyentes originales
empiezan a crecer y manifiestan signos de tener la estructura de compuestos. El
paisaje es como el escenario de un sueño en el que, conforme nos movemos,
ladrillos y casas intercambian gradualmente sus papeles. Todo es
fundamental y nada es fundamental.
¿Cuáles son las ecuaciones básicas de la teoría? Por supuesto son las
ecuaciones que gobiernan el movimiento de los bloques constituyentes. Pero ¿qué
bloques constituyentes: cuerdas abiertas, cuerdas cerradas, membranas,
D0-branas? La respuesta depende de la región del Paisaje en la que estemos
momentáneamente interesados. ¿Qué pasa con las regiones intermedias entre una
descripción y otra? En esas regiones la elección de bloques constituyentes y
ecuaciones definitorias es ambigua. Parece que estamos trabajando con un nuevo
tipo de teoría matemática en la que las ideas tradicionales de conceptos
fundamentales versus conceptos derivados se hacen exasperantemente
escurridizas. O quizá tiene razón Gerad ’t Hooft y los verdaderos bloques
constituyentes están ocultos más profundamente. La conclusión es que no tenemos
una idea clara de cómo describir la estructura matemática general de la teoría
de cuerdas o qué bloques constituyentes, si los hay, ganarán el título de «más
fundamentales».
Pese a todo, espero que los principios de la teoría de cuerdas, o
cualquier cosa que subyazca, tendrán la elegancia, simplicidad y belleza que
ansían los teóricos. Pero incluso si las ecuaciones satisfacen todos los
criterios estéticos que un físico pudiera esperar, eso no significa que las
soluciones particulares de las ecuaciones sean simples o elegantes. El modelo
estándar es tan complicado —con treinta parámetros aparentemente no
relacionados, replicación inesperada de tipos de partículas, y fuerzas cuya
intensidad varía en un amplio rango— que la versión de ello de la teoría de
cuerdas tendrá casi con certeza la complejidad y redundancia de Rube Goldberg.
Para mi gusto, puede encontrarse a veces una elegancia y simplicidad en
los principios que en absoluto se transmiten a las ecuaciones. No conozco
ningunas ecuaciones que sean más elegantes que los dos principios que sustentan
la teoría de la evolución de Darwin: mutaciones aleatorias y competición. Este
libro trata de un principio de organización que es también poderoso y simple.
Creo que merece ser llamado elegante pero, una vez más, no conozco ninguna
ecuación que lo describa, solo un eslogan: «Un paisaje de posibilidades poblado
por un megaverso de realidades».
¿Y qué pasa con las preguntas mayores de todas?: ¿quién o qué hizo el
universo y por qué razón? ¿Hay un propósito en todo ello? No pretendo saber las
respuestas. Quienes vieran el principio antrópico como señal de un creador
benevolente no han encontrado consuelo en estas páginas. Las leyes de la
gravedad, la mecánica cuántica y un rico paisaje junto con las leyes de los
grandes números son todo lo que se necesita para explicar la amabilidad de
nuestra región del universo.
Pero, por otra parte, nada en este libro disminuye la probabilidad de
que un agente inteligente creara el universo con algún propósito. La pregunta
existencial definitiva, «¿Por qué hay Algo en lugar de Nada?», no tiene ahora
más o menos respuesta que antes de que alguien hubiera oído hablar de la teoría
de cuerdas. Si hubo un momento de creación, está oculto a nuestros ojos y
nuestros telescopios por el velo de la inflación explosiva que tuvo lugar
durante la prehistoria del big bang. Si hay un Dios, se ha tomado
un gran trabajo para hacerse irrelevante.
Déjeme entonces cerrar este libro con las palabras de Pierre-Simon de
Laplace que lo abrían: «Yo no necesito esa hipótesis».
Una palabra sobre la diferencia entre paisaje y megaverso
Los dos conceptos —paisaje y megaverso— no
deberían confundirse. El paisaje no es un lugar real. Piense en él como una
lista de todos los diseños posibles de universos hipotéticos. Cada valle
representa uno de tales diseños. Listar los diseños uno tras otro, como los
nombres en un listín telefónico, no captaría el hecho de que el espacio de
diseños es multidimensional.
El megaverso, por el contrario, es muy real. Los universos de bolsillo
que lo llenan son lugares que existen realmente, no posibilidades hipotéticas.
Glosario
|
Agitaciones cuánticas |
El movimiento fluctuante e impredecible de partículas y campos que
deriva de los principios de la mecánica cuántica. |
|
Agua sobre-enfriada |
Agua que ha sido enfriada por debajo de la temperatura de congelación
pero que ha permanecido líquida. |
|
Antipartícula |
Gemela de una partícula que es idéntica a ésta salvo que tiene carga
opuesta. |
|
Armónicos |
Los pautas de vibración de una cuerda, como las de una cuerda de
guitarra. |
|
Bosón |
Un tipo de partícula no limitado por el principio de exclusión de
Pauli. Cualquier número de fotones idénticos puede ocupar el mismo estado
cuántico. |
|
Bosón de Higgs |
El cuanto del campo de Higgs. |
|
Bosón W |
Una de las partículas cuyo intercambio da lugar a las interacciones
débiles. |
|
Bosón Z |
Un pariente próximo del bosón W, también implicado en las
interacciones débiles. |
|
Campo |
Una influencia invisible en el espacio que afecta al movimiento de los
objetos. Los ejemplos incluyen los campos eléctrico, magnético y
gravitatorio. |
|
Campo de Higgs |
El campo en el modelo estándar cuyo valor controla las masas de las
partículas elementales tales como el electrón y el quark. |
|
Campo eléctrico |
El campo que rodea a las partículas cargadas en reposo. Junto con los
campos magnéticos, los campos eléctricos están compuestos de radiación
electromagnética tal como luz. |
|
Campo escalar |
Un campo que tiene magnitud (intensidad) pero no dirección. El campo
de Higgs es un escalar; los campos eléctrico y magnético no lo son. |
|
Campo magnético |
El pariente del campo eléctrico que es creado por cargas en movimiento
(corrientes). |
|
Campo vectorial |
Un campo que, además de una intensidad, tiene una dirección en el
espacio. Los campos eléctrico y magnético son vectoriales. |
|
Compactificación |
El enrollamiento de las dimensiones extra de la teoría de cuerdas en
espacios microscópicos. |
|
Constante cosmológica |
El término que introdujo Einstein en sus ecuaciones para contrarrestar
el efecto de la atracción gravitatoria. |
|
Constante de acoplamiento |
La constante de la naturaleza que determina la probabilidad de un
suceso elemental. |
|
Constante de estructura fina (0,007297351) |
La constante de acoplamiento que gobierna la emisión de un fotón por
un electrón. |
|
Constante de Hubble |
La constante que aparece en la ley de Hubble. |
|
Constante de Planck |
Constante numérica muy pequeña que determina el límite para la
determinación simultánea de la posición y el momento (principio de
incertidumbre de Heisenberg). |
|
Contraste de densidad |
Variaciones de la densidad de energía en el universo primitivo que
finalmente evolucionaron hasta dar las galaxias. |
|
Corto alcance |
Se refiere a las fuerzas que no se extienden a grandes distancias, es
decir, fuerzas entre objetos que solo actúan cuando los objetos están en
contacto o casi en contacto. |
|
Cota de Weinberg |
La cota sobre el tamaño de la constante cosmológica que se deriva de
la condición de que pudieran formarse galaxias en el universo primitivo. |
|
Cromodinámica Cuántica (QCD) |
La teoría de quarks y gluones que explica la existencia y propiedades
de nucleones y núcleos. La física nuclear moderna. |
|
D-brana |
Los puntos o superficies donde pueden terminar las cuerdas de la
teoría de cuerdas. |
|
Desplazamiento Doppler |
El desplazamiento en la frecuencia de las ondas debido al movimiento
relativo de la fuente de las ondas y el detector de las ondas. |
|
Diagrama de intercambio |
Un diagrama de Feynman en el que una partícula tal como el fotón es
emitida por una partícula y absorbida por otra. Tales diagramas se utilizan
para explicar las fuerzas entre objetos. |
|
Diagrama de Feynman |
Forma gráfica de Feynman para explicar las interacciones entre
partículas elementales. |
|
Diagrama de vértice |
El diagrama de Feynman que representa el suceso elemental en el que
una partícula es emitida por otra partícula. |
|
Electrodinámica Cuántica (QED) |
La teoría de electrones y fotones. La base de toda la física atómica y
la química. |
|
Electrón |
Partícula elemental cargada que constituye las corrientes eléctricas y
las partes exteriores de los átomos. |
|
Emergente |
Se refiere a las propiedades de la materia que sólo se manifiestan
cuando grandes números de átomos se comportan de una manera colectiva o
coordinada. |
|
Energía del vacío |
Energía almacenada en las fluctuaciones cuánticas del espacio vacío. |
|
Espacio de Calabi-Yau |
Lo mismo que variedad de Calabi Yau. |
|
Espacio de De Sitter |
La solución de las ecuaciones de Einstein con una constante
cosmológica positiva. El espacio de de Sitter describe un universo en
expansión en el que el espacio se clona exponencialmente. |
|
Espacio-tiempo |
El mundo tetradimensional que incluye el tiempo en que todos los
fenómenos tienen lugar. |
|
Fermión |
Cualquier partícula que está sometida al principio de exclusión de
Pauli. Esto incluye a electrones, protones, neutrones, quarks y neutrinos. |
|
Fluctuación del vacío |
La fluctuación agitada de los campos cuánticos en el espacio vacío. |
|
Flujo |
Uno de los muchos componentes de una compactificación de cuerdas. Un
flujo es similar a un campo magnético excepto que esta orientado a lo largo
de las direcciones compactas del espacio. |
|
Fondo cósmico de microondas (CMB) |
La radiación electromagnética residuo del big bang. |
|
Fotón |
Cuanto del campo electromagnético. La base de la teoría de partículas
de la luz de Einstein. |
|
Gluebola |
Partículas compuestas hechas de colecciones de gluones y que tienen la
estructura de cuerdas cerradas. |
|
Gluón |
Partícula cuyo intercambio da cuenta de las fuerzas entre quarks. |
|
Gravitón |
El cuanto del campo gravitatorio. Su intercambio da cuenta de la
fuerza gravitatoria. |
|
Homogéneo |
Igual en todas partes; completamente uniforme e invariable de un punto
a otro. |
|
Horizonte |
El punto de no retorno en el que un observador se estaría alejando a
la velocidad de la luz. Se aplica tanto a agujeros negros como a un espacio
cósmico que experimenta una rápida inflación. |
|
Inflación |
La rápida expansión exponencial del espacio que alisó todas las
arrugas y creó un universo grande y uniforme. La inflación se ha convertido
en la teoría estándar del universo primitivo. |
|
Inflación eterna |
La clonación exponencial del espacio que genera burbujas que pueblan
el paisaje. |
|
Interacciones débiles |
Fenómenos que son similares a la desintegración del neutrón. |
|
Isótropo |
Igual en todas direcciones. |
|
Julio |
Una unidad ordinaria de energía. Es la energía necesaria para elevar
un grado la temperatura de 0,24 gramos de agua. |
|
Largo alcance |
Se refiere a fuerzas que se extienden a grandes distancias para atraer
o repeler objetos. Las fuerzas gravitatoria, eléctrica y magnética son de
largo alcance. |
|
Ley de Hubble |
La ley que establece que la velocidad de recesión de las galaxias es
proporcional a su distancia. Puede expresarse como una ecuación V = HD, donde
V es la velocidad, D es la distancia y H es la constante de Hubble. |
|
Líneas de absorción |
Líneas oscuras superpuestas a un espectro de colores similar a un arco
iris. Las líneas oscuras se deben a la absorción de ciertos colores por el
gas. |
|
Líneas espectrales |
Las líneas discretas y estrechas en el espectro de la luz que aparecen
de las transiciones atómicas en las que un electrón hace un salto cuántico de
un nivel de energía a otro y al hacerlo emite un fotón. |
|
Longitud de Planck o distancia de Planck |
La unidad natural de longitud determinada por la constante de Planck,
la constante gravitatoria de Newton y la velocidad de la luz. Es
aproximadamente 10 −33 centímetros. |
|
Máquina de Rube Goldberg |
Una solución poco elegante y demasiado complicada a un problema de
ingeniería. Lleva el nombre del dibujante Rube Goldberg, cuyos dibujos
representaban máquinas fantásticas y ridículas. |
|
Máquina RMI |
Máquina de imagen médica que utiliza un espacio con un gran campo
magnético. |
|
Masa de Planck |
La unidad natural de masa determinada por la constante de Planck, la
constante gravitatoria de Newton y la velocidad de la luz. Es aproximadamente
10−5 gramos. |
|
Megaverso |
La inmensa vastedad de universos de bolsillo. |
|
Modelo estándar |
La teoría cuántica de campos actualmente aceptada que describe las
partículas elementales. Incluye la QED, la QCD y las interacciones débiles
así como los fenómenos que implican al bosón de Higgs. |
|
Modo de oscilación |
Lo mismo que armónico. |
|
Moduli |
Los parámetros que determinan el tamaño y la forma de las direcciones
compactas del espacio, particularmente en teoría de cuerdas. |
|
Neutrino |
La partícula «fantasmal» emitida por un neutrón, junto con un
electrón, cuando el neutrón se desintegra y se convierte en un protón. |
|
Neutrón |
Una de las dos partículas que componen el núcleo. El neutrón es
eléctricamente neutro. |
|
Nucleón |
Protón o neutrón. |
|
Ondas gravitatorias |
Perturbaciones del campo gravitatorio que se propagan a través del
espacio a la velocidad de la luz. |
|
Paisaje |
El espacio de vacíos (ambientes) posibles permitidos por la teoría
fundamental. En la práctica, el sistema de vacíos de la teoría de cuerdas. |
|
Pared de dominio |
La frontera que separa dos fases de un material tales como agua y
hielo. |
|
Partícula virtual |
Una partícula en el interior de un diagrama de Feynman. No una de las
partículas que entra o sale al principio o al final del proceso. |
|
Plasma |
Gas que ha sido calentado hasta el punto de que algunos o todos los
electrones han sido arrancados de los átomos y están libres para moverse a
través del material. Los plasmas son buenos conductores eléctricos y son
opacos a la luz. |
|
Positrón |
La antipartícula del electrón. |
|
Principio Antrópico |
El principio que requiere que las leyes de la naturaleza sean
compatibles con la existencia de vida inteligente. |
|
Principio de complementariedad del agujero negro |
El principio que permite dos descripciones aparentemente
contradictorias de la materia que cae dentro de un agujero negro. |
|
Principio de exclusión de Pauli |
El principio que dice que dos fermiones no pueden ocupar el mismo
estado cuántico. |
|
Principio holográfico |
El principio que dice que una región del espacio puede describirse por
completo por grados de libertad en su frontera, con no más de un grado de
libertad por área de Planck, un área igual a una longitud de Planck al
cuadrado. |
|
Principio de incertidumbre de Heisenberg |
El principio que dice que es imposible determinar a la vez la posición
y la velocidad de cualquier objeto. |
|
Principio de selección de vacío |
Un principio matemático que seleccionaría un único vacío de teoría de
cuerdas de entre los diversos vacíos que describe la teoría. Hasta ahora no
se ha encontrado ningún principio semejante. |
|
Propagador |
La componente de los diagramas de Feynman que representa el movimiento
de una partícula desde un punto del espacio-tiempo a otro; también la
expresión matemática que controla la probabilidad de dicho proceso. |
|
Protón |
El nucleón con carga positiva. |
|
Quarks |
Las partículas elementales que se combinan, de tres en tres, para
formar nucleones. |
|
Reduccionismo |
La filosofía que dice que la naturaleza puede entenderse reduciendo
todos los fenómenos a sucesos microscópicos definitivamente simples. |
|
Simetría |
Una operación que deja invariables las leyes de la física. |
|
Simetría de conjugación de carga |
Una simetría (rota) de la naturaleza bajo la que cada partícula se
reemplaza por su antipartícula. |
|
Simetría rota |
Una simetría aproximada de la naturaleza que por alguna razón no es
exacta. |
|
Supernova |
El suceso final en la vida de ciertas estrellas que acaba en el
colapso en una estrella de neutrones. Al mismo tiempo una explosión dispersa
elementos químicos en el espacio circundante. |
|
Supersimetría |
Una simetría matemática que relaciona fermiones y bosones. |
|
Teoría cuántica de campos |
La teoría matemática de las partículas elementales que se originó al
combinar la mecánica cuántica con la teoría de la relatividad especial. |
|
Teoría gauge no abeliana |
Un tipo de teoría cuántica de campos que constituye la base del modelo
estándar de la física de partículas. |
|
Teoría M |
La teoría oncedimensional que unifica muchas de las diversas teorías
de cuerdas. La teoría M tiene membranas pero no cuerdas. |
|
Teoría de matrices |
El armazón matemático subyacente a la teoría M. |
|
Teoría de Yang-Mills |
Lo mismo que teoría gauge no abeliana. |
|
Tiempo de Planck |
La unidad natural de tiempo determinada por la constante de Planck, la
constante gravitatoria de Newton y la velocidad de la luz. Es aproximadamente
10 −42 segundos. |
|
Universo de bolsillo |
Una porción de universo en la que las leyes de la física toman una
forma particular. |
|
Vacío |
Un fondo o ambiente en el que las leyes de la física toman una cierta
forma. |
|
Variedad de Calabi Yau |
Las geometrías hexadimensionales especiales que utiliza la teoría de
cuerdas para compactificar las dimensiones extra del espacio. |
Nota sobre terminología
Cuando empecé a escribir este libro me encontré con un problema de
terminología con el que aún estoy luchando. Yo no sabía cómo llamar a la nueva
inmensidad que está reemplazando al viejo concepto de universo. El término que
era (y es) más común es multiverso. No tengo ninguna objeción a
multiverso salvo que no me gusta como suena. Me recuerda a los multicines, que
trato de evitar. Ensayé otras varias posibilidades, incluyendo poliverso,
gugolplexus, poliplexus y gugolverso, sin éxito. Finalmente me decidí por megaverso,
sabiendo muy bien que estaba cometiendo el crimen lingüístico de combinar el
prefijo griego mega con el término latino verso.
Tras decidir utilizar el término megaverso, busqué en Google
y encontré que yo no era el primero en utilizarlo ni mucho menos. Obtuve ocho
mil setecientos resultados para megaverso. Por otra parte, la misma
técnica aplicada a multiverso dio doscientos sesenta y cinco
mil resultados.
Finalmente, debería añadir que algunos de mis mejores amigos son
usuarios del término multiverso y, hasta ahora, no hemos
llegado a las manos por ello.
F I N
Notas al pie de página
[1] Un
sistema de estrellas binarias consiste simplemente en dos estrellas que orbitan
alrededor de su centro de masas.
[2] Samuel
Wilberforce, un obispo anglicano, era apodado Jabonoso por su carácter
escurridizo en el debate teológico. Thomas Huxley, el principal discípulo de
Darwin, era apodado el Bulldog de Darwin por razones obvias. Los dos se
enfrentaron en 1860 en un debate acerca de Sobre el origen de las
especies por selección natural. Sam el Jabonoso preguntó con sorna a Huxley
si era su abuela o su abuelo quien había sido el mono. Huxley se dirigió a él y
dijo: «Preferiría descender de un mono que de alguien que prostituyera la
verdad de esta forma».
[3] No
sé cuáles son las ideas religiosas de Davies o Greenstein, pero yo recelaría de
una interpretación demasiado literal. Los físicos utilizan a veces palabras
como diseño, agente o incluso Dios como
metáforas de algo que no se conoce, punto. He utilizado el término agente por
escrito y lo he lamentado desde entonces. Einstein hablaba a menudo de Dios:
«Dios es sutil, pero no malicioso», «Dios no juega a los dados», «Quiero saber
cómo creó Dios el mundo». La mayoría de los comentaristas cree que Einstein estaba
utilizando el término Dios como una metáfora de un conjunto ordenado de leyes
de la naturaleza.
[4] ¿Aparecerá
esta frase fuera de contexto en una página religiosa de internet? Espero que
no.
[5] Para
los expertos, la debilidad de la gravedad es equivalente a la liviandad de las
partículas elementales usuales. La pequeñez de la masa de las partículas se
conoce como el problema de la jerarquía gauge. Aunque se han propuesto ideas
interesantes, no hay consenso en su solución.
[6] Para
la definición de una máquina de Rube Goldberg véase el capítulo 3.
[7] También
conocida como energía oscura.
[8] Alfred
Russel Wallace (1823-1913), contemporáneo de Darwin, fue el codescubridor de la
selección natural como mecanismo que impulsa la evolución de las especies. Fue
la lectura de una nota corta de Wallace lo que convenció a Darwin para que
publicara su propio trabajo.
[9] Richard
Dawkins, The Blind Watchmaker: Why the Evidence of Evolution Reveals a
Univers without Design (Norton, Nueva York, 1996). Dawkins invoca la
metáfora de un relojero ciego para describir cómo la evolución creó ciegamente
el universo de la biología. La metáfora podría extenderse fácilmente a la
creación del cosmos.
[10] Un
año luz es, por supuesto, la distancia que recorre la luz en un año. Equivale a
unos diez billones de kilómetros.
[11] El
término multiverso ha sido ampliamente utilizado en lugar
de megaverso. Personalmente, prefiero cómo suena megaverso. Mis
disculpas para los entusiastas de multiverso.
[12] En
nuestro mundo, los núcleos atómicos son miles de veces más pesados que los
electrones.
[13] El
momento de un objeto se define como el producto de su velocidad por su masa.
[14] El
símbolo para la constante de Planck es la letra h y su valor
numérico es 6,626068 × 10−34 m2 kg/s.
[15] El
término cuanto (utilizado como sustantivo) es algo más general
que fotón. Cuanto se refiere a cualquier paquete discreto de
energía mientras que fotón es el término más específico que se
refiere a la energía electromagnética. Por ello se podría decir que el fotón es
el cuanto de radiación electromagnética.
[16]Brian
Green , The Elegant
Universe: Sperstrings, Hidden Dimensions, and the Quest for the Ultímate
Theory (Norton, Nueva York, 2003). [Hay traducción en castellano: El
universo elegante. Crítica, Barcelona, 2005.].
[17] Es
una cuestión controvertida si el reduccionismo funciona para el estudio de la
mente. Mi opinión es que el comportamiento de la materia animada está sujeto a
las mismas leyes de la física que la materia inanimada. No conozco ninguna
prueba en contra. Por otra parte, el fenómeno de la consciencia no ha sido aún
plenamente explicado por la ciencia reduccionista.
[18] Además
de escribir Poor Richard’s Almanack y firmar la Declaración de
Independencia, Benjamin Franklin fue uno de los científicos más destacados del
siglo XVIII.
[19] La
fuerza electrostática se conoce también como la fuerza de Coulomb.
[20] El
término estructura fina tiene que ver con los detalles del
espectro atómico del hidrógeno.
La constante de estructura fina apareció por primera vez en la teoría del
espectro del hidrógeno.
[21] La
respuesta de Bohr fue ésta: «Einstein, no le digas a Dios lo que tiene que
hacer».
[22] Iniciales
de up, down, strange, charmed, bottom y top. (N. de t.).
[23] La
existencia del quark-extraño tiene un efecto menor sobre las propiedades de los
nucleones, pero los otros no tienen importancia.
[24] Del
inglés to glue = pegar. (N. del t.).
[25] Hermano
Conejo para los yanquis.
[26] Treinta
es un mínimo absoluto que no incluye los parámetros numéricos que se requieren
para la cosmología o para varias extensiones del modelo estándar. Si se
incluyen estas constantes adicionales, su número se eleva fácilmente a más de
un centenar.
[27] Las
líneas espectrales se tratan en el capítulo 4.
[28] En
realidad, Magallanes nunca regresó a Europa. Lo mataron en las islas Filipinas.
Pero parte de su tripulación consiguió dar la vuelta al globo, probando con
ello que era una esfera.
[29] Cien
pulgadas (dos metros y medio) parece un tamaño modesto para un telescopio, pero
esto se refiere solamente al diámetro del espejo colector de luz, no al tamaño
total del instrumento. De hecho el telescopio del Monte Wilson era el mayor del
mundo hasta que se terminó el telescopio de doscientas pulgadas del Monte
Palomar en 1949.
[30] El
tercer término preferido por la prensa es energía oscura.
[31] John
Barrow y Frank Tipler, The Anthropic Cosmological Principie (University
Press, Oxford, 1986).
[32] Para
una explicación del temor del marinero por la supersimetría, véase el capítulo
8.
[33] Un
MeV es una minúscula unidad de masa utilizada por los físicos de partículas
elementales. Un kilogramo es aproximadamente cinco veces diez elevado a
veintinueve (5 × 1029) MeV.
[34] Varias
personas estuvieron involucradas en el descubrimiento del campo de Higgs.
Además de Peter Higgs, en Gran Bretaña, Robert Brout y François Englert de
Bélgica estuvieron entre los primeros en darse cuenta de su necesidad.
[35] El
término fotón fue acuñado por el químico de Berkeley G. N.
Lewis en 1926.
[36] Tan
importante que el físico León Lederman escribió un libro sobre ello, que en un
rapto de sobre entusiasmo tituló:La partícula divina (Lederman
podía haber titulado su libro El campo divino. Supongo que La
partícula divina suena mejor.).
[37] Incluso
en el caso del clima, hay una noción de energía. La energía de todas las
moléculas en un metro cúbico de atmósfera depende de la temperatura y de la
presión. Así, podríamos añadir un concepto de altitud al paisaje del clima. Por
supuesto, no tendría nada que ver con la altitud ordinaria.
[38] Tenga
en cuenta que en un ciclo completo una oscilación empieza en cero, aumenta,
decrece pasando por cero hasta valores negativos y luego aumenta de nuevo hasta
cero. Los campos eléctrico y magnético pasarán dos veces por cero en una sola
longitud de onda.
[39] Mientras
el universo está en la cima de la montaña, la energía del vacío hace que el
universo se expanda como si hubiera una constante cosmológica. La expansión
causa un tipo de fricción llamada fricción cósmica.
[40] Rube
Goldberg tuvo imitadores en muchos países. En España se hicieron famosos los
«inventos del profesor Franz de Copenhague» que se publicaban en el TBO.
(N. del t.).
[41] Estos
comentarios sobre la simplicidad pretenden ser aplicables solamente al tipo de
simplicidad del ingeniero/matemático/físico. No tengo ninguna opinión sobre la
simplicidad y la complejidad en música, poesía o cualquier otra forma de arte.
[42] Ecuaciones
muy similares describen perturbaciones electromagnéticas tales como la luz, las
perturbaciones de presión llamadas ondas sonoras y las ondas que viajan de un
lado a otro de una larga cuerda cuando se agita un extremo dé la misma. En conjunto,
las ecuaciones para fenómenos de este tipo se denominan ecuaciones de ondas.
[43] Al
parecer no todos están de acuerdo. Walt Whitman escribió:
«Cuando oía al astrónomo erudito, cuando ante mí se alineaban en columnas las
demostraciones y las cifras, cuando se me mostraban los mapas y los diagramas,
para sumar, dividir y medirlos, cuando me senté para oír al astrónomo que
impartía su lección con gran aplauso en la sala de conferencias, pronto me
sentí inexplicablemente cansado y enfermo, hasta que me levanté y sin hacer
ruido salí al místico y húmedo aire de la noche y, de cuando en cuando,
levantaba la vista en perfecto silencio hacia las estrellas».
Cuando oía al astrónomo erudito.
Personalmente prefiero el sentimiento de Alexander Pope:
«La Naturaleza y las leyes de la Naturaleza estaban ocultas en la noche; Dios
dijo “Hágase Newton” y todo fue luz».
Epitafio por Isaac Newton.
[44] Los
cinco sólidos platónicos son los únicos poliedros (los homólogos
tridimensionales de los polígonos) cuyas caras son todas polígonos idénticos.
El tetraedro, el octaedro y el icosaedro están formados por triángulos. El cubo
y el dodecaedro están hechos de cuadrados y pentágonos, respectivamente.
[45] Este
comentario fue escrito en la primavera de 2004, pero en la época en que terminé
de escribir El paisaje cósmico, un año después, los buitres ya
habían acudido en masa.
[46] Para
una explicación de la materia oscura véase el capítulo 5.
[47] La
barca tiene que estar moviéndose a una velocidad menor que la de las ondas
superficiales.
[48] Para
que el cambio de color fuera observable, el limón tendría que moverse a una
fracción significativa de la velocidad de la luz.
[49] El
término constante de Hubble es algo confuso, puesto que cambia
con el tiempo. En el pasado lejano la constante de Hubble era mucho mayor que
hoy en día.
[50] La
forma se refiere, por supuesto, a la superficie de la figura.
[51] Por
el momento estoy ignorando por completo la posibilidad de que exista una
constante cosmológica. Como veremos, una constante cosmológica puede alterar
las conclusiones de manera significativa.
[52] No
hay que confundir materia oscura con energía oscura. Energía oscura es otro
término para energía de vacío.
[53] La
luminosidad es una medida del ritmo al que un objeto emite energía en forma de
luz. La luminosidad de una bombilla se mide en vatios. Si dos objetos tienen la
misma luminosidad, el que está más próximo parece más brillante. Midiendo el
brillo aparente de las imágenes fotográficas de supernovas tipo I puede
determinarse a qué distancia están de nosotros.
[54]Plasma es sólo otra palabra para gas cuyos átomos están ionizados. En
otras palabras, algunos de los electrones han sido separados de los núcleos y
están libres para moverse a través del gas, sin estar ligados a los átomos.
[55] La
figura muestra un paisaje bidimensional, pero el real es multidimensional.
Considere la ilustración como un corte bidimensional a través de un paisaje
multidimensional mucho más complicado. Una analogía sería una carretera
unidimensional que atravesara montañas y valles en un paisaje bidimensional.
[56] La
historia fue publicada previamente en The New Scientist (1 de
noviembre de 2003).
[57] Hay
varios juegos de palabras en esta parábola que resultan intraducibles: en
primer lugar, en lugar de physicists (físicos) el autor
escribe fyshicists, que es fonéticamente equivalente pero remite
también a fish (pez). Asimismo, en lugar de cosmologists el
autor utiliza codmologists, que incluye el término cod (bacalao).
Finalmente: en ingles fishy tiene el doble sentido de
inverosímil y con olor a pescado. (N. del t.).
[58] Este
tema será abordado de nuevo en el capítulo 7 en el contexto de la teoría de
cuerdas.
[59] Una
descripción técnicamente más correcta es que los piones —partículas compuestas
de quarks y antiquarks— transmiten la fuerza entre nucleones. Si las masas de
los quarks-up y down fueran mayores, la masa de los piones también aumentaría.
Esto tendría el efecto de que la fuerza nuclear sería drásticamente modificada.
[60] Cuando
digo elementos me estoy refiriendo normalmente al núcleo. La unión de
electrones a los núcleos necesitó mucho más tiempo.
[61] El
hidrógeno es el más simple de los elementos. Su núcleo consiste en un único
protón.
[62] Hay
un debate abierto acerca de hasta qué punto la existencia del carbono es
sensible a las diversas constantes. Algunos lo pondrían en un dos por ciento.
Otros, Steven Weinberg entre ellos, pondría el número en aproximadamente un
diez o quince por ciento. Pero todos coincidirían en que se necesita un ajuste
fino para asegurar un suministro importante de carbono.
[63] Para
cuando terminé de escribir El paisaje cósmico, Dine se había
convertido en uno de los principales defensores de la idea de que es probable
que algunas características de la Naturaleza sean ambientales y puedan
entenderse solo desde una Perspectiva antrópica. Banks sigue siendo escéptico.
[64] La
diferencia entre veinte mil millones y diez mil millones de años no es
importante para nuestra discusión. Si la vida media del protón fuera de diez
mil millones (1010) de años, eso significaría que cada año se
desintegraría un protón de cada diez mil millones. Si entonces multiplicamos
esto por los 10 28 protones de su cuerpo, el número que se
desintegraría en un año sería 1028/1010 = 1018.
[65] En
inglés guts significa también «tripas» o «entrañas». (N.
del t.).
[66] Para
que nadie saque la idea de que Smolin y yo somos enemigos, debo decir que no es
así en absoluto. De hecho, Smolin es un buen amigo por quien siento gran
admiración. De todas formas, nuestras opiniones sobre este tema en concreto son
fuertemente discordantes.
[67] Véase
el capítulo 7.
[68] Los
antiquarks son, por supuesto, las antipartículas gemelas de los quarks.
Pueden considerarse partículas por derecho propio o como quarks que van hacia
atrás en el tiempo.
[69] El
prefijo bary significa «pesado» en griego. Cuando se acuñaron
los nombres inicialmente, los nucleones y sus parientes próximos eran las
partículas más pesadas conocidas. Mesón indica algo intermedio. Los mesones son
más ligeros que los nucleones pero mucho más pesados que el electrón.
[70]Diagrama
red de pesca era el término
utilizado por Nielsen.
[71] Esto
puede resultar confuso porque electrones y protones tienen una propiedad
llamada espín. Pero el espín de una partícula elemental no se debe al tipo de
movimiento rotacional que pueden tener un balón de baloncesto, una masa
de pizza o un hadrón. En particular, el espín de un electrón
nunca puede cambiar: siempre es un medio de la constante de Planck. El giro de
un balón o un hadrón puede acelerarse Para aumentar su momento angular.
[72] Electrones,
muones, partículas tau y neutrinos son ejemplos de partículas que los físicos
llaman leptones. El término designa simplemente a fermiones que no entran en
interacciones fuertes como hacen los quarks.
[73] La
revolución que Einstein completó en 1905 fue la teoría molecular de la materia.
En su artículo sobre el movimiento browniano estableció más allá de toda duda
que las moléculas existían y determinó su número y tamaño.
[74] El súper se
refiere al hecho de que todas estas teorías tienen gemelos fermión-bosón y
eran, por consiguiente, supersimétricas.
[75] Las
líneas de fuerza pueden verse fácilmente colocando un imán bajo una hoja de
papel y esparciendo limaduras de hierro sobre la hoja. Las limaduras se alinean
a lo largo de las líneas de campo y forman filamentos.
[76] Según
la física del siglo XIX, el éter era el material elástico hipotético que llena
todo el espacio. Yo siempre lo imagino como gelatina incolora. Se suponía que
la luz consistía en vibraciones en el éter. En el siglo XIX se esperaba que
alguien que se moviera con respecto al éter encontraría que la velocidad de la
luz era alterada por el movimiento del observador.
[77] Rutherford
bombardeó átomos de oro con partículas alfa (núcleos de helio) y a partir de la
desviación de las partículas alfa, dedujo que el átomo contenía electrones
ligeros en órbita en torno a un núcleo minúsculo y pesado. Éste fue el primer
experimento de la física de partículas moderna.
[78] Abraham
Pais, Niels Bohr’s Times: In Physics, Philosophy, and Polity (Oxford
University Press, Oxford, 1991).
[79] Esto
era conocido a partir del espectro de absorción de los átomos: una vez más
física del siglo XIX.
[80] La
electrodinámica cuántica estaba afectada por serias inconsistencias
matemáticas. Las reglas del cálculo llevaban a respuestas infinitas que no
tenían sentido. En los años cincuenta se ideó una cura temporal, llamada renormalización.
Pero los problemas no se resolvieron hasta que Kenneth Wilson desarrolló una
teoría mas profunda a principios de los años setenta.
[81] Chen
Ning Yang y Robert Mills elaboraron independientemente una teoría gauge no
abeliana un año después del trabajo de Pauli. La única razón para no incluirlo
en mi historia es que Yang y Mills estaban motivados en parte por ciertos
hechos empíricos sobre núcleos que no fueron conocidos hasta después de mi
fecha corte de 1 de enero de 1900.
[82] Cuando
se descubrió el muón (una partícula similar al electrón pero doscientas veces
más pesado), Rabi dijo, «¿Quién lo encargó?». Sin duda se estaba refiriendo a
la aparente arbitrariedad de las partículas elementales.
[83] KKLT
son siglas de Kachru Kallosh Linde y Trivedi. Shamit Kachru, Renata Kallosh y
Andrei Linde son profesores en la Universidad de Stanford. Sandip Trivedi es
profesor en el Instituto Tata, en India.
[84] El
paisaje poblado es completamente familiar para cosmólogos como Linde, Vilenkin
y Guth, que lo han abrazado, o a algo muy parecido a ello, durante muchos años.
[85] Físicos
y químicos se refieren al hielo, el agua sólida y el vapor como tres fases
diferentes del agua: las fases sólida, líquida y gaseosa.
[86] Una
cuestión interesante e importante es si existe cualquier movilidad hacia arriba
en el paisaje. En otras palabras, ¿puede uno de nuestros organismos ficticios
subir a una altitud mayor? La respuesta que sale de las reglas estándar de la
mecánica cuántica es que si cualquier cosa puede suceder, también puede suceder
en sentido contrario.
[87] No
quiero decir que haya un consenso universal. Al menos un teórico de cuerdas muy
experimentado y bien considerado, Tom Banks, ha argumentado que el razonamiento
relativo al paisaje es sospechoso.
[88] Un
gugol se define como 10100, es decir, un uno con cien ceros detrás.
Un gugolplex es diez elevado a un gugol.
[89]Relativista
general : un experto en la
teoría de la relatividad general de Einstein.
[90] Motorista
estadounidense famoso por sus espectaculares saltos y sus no menos
espectaculares accidentes. (N.del t.).
[91] Un bit es
un término técnico para una unidad indivisible de información, una respuesta sí
o no a una pregunta.
[92] Se
está utilizando la palabra ver en el sentido del físico.
Significa reconstruir los sucesos a partir del resultado —en este caso, la
radiación de Hawking—. Tal reconstrucción sería increíblemente compleja, pero
en principio, es tan posible como ver el mundo corriente a través de la luz
emitida y reflejada por objetos.
[93] Smoot
recibió el premio Nobel de Física de 2006. (N. del t.) .
[94] Véase,
por ejemplo, el libro de 1983 de Paul Davies, God and the New Physics (Simón
and Schuster, Nueva York).
[95] Mucho
tiempo después de que hubiera escrito este capítulo, mientras El
paisaje cósmico estaba en las últimas fases de edición, leí por
casualidad un ensayo de Richard Dawkins titulado «Darwin Triumphant» (reimpreso
en A Devil’s Chaplain: Reflections on Hope, Lies, Science, and
Love , Houghton Mifflin, Nueva York, 2003) en el que Dawkins utiliza
el término paisaje exactamente en el mismo sentido en que yo lo estoy
utilizando aquí. Algunos de los conceptos son tan similares a los de este libro
que inicialmente pensé que Dawkins había tenido acceso a los ficheros de mi
ordenador. Pero para plagiar mi obra tenía que haber resuelto el problema del
viaje en el tiempo. «Darwin Triumphant» fue escrito en 1991 y publicado ese año
en Man and Beasts Revisited, ed. M. H. Robinson and L. Tiger
(Smíthsonian Institution Press, Washington D. C.).
[96] Actualmente,
Bousso es profesor de física en la Universidad de California en Berkeley.
[97] Nota:
Precisamente cuando estaba a punto de terminar de escribir este libro, Guth
escribió un artículo (Alan Guth y David I. Kaiser, «Inflationary Cosmology:
Exploring the Universe from the Smallest to the Largest Scales», Science 307
[2005]: 884-890) en el que dice: «Esta idea —que las leyes de la física que
observamos están determinadas no por leyes fundamentales, sino más bien por el
requisito de que pueda existir vida inteligente para observarlas— se suele
denominar principio antrópico. Aunque en algunos contextos este principio
podría sonar manifiestamente religioso, la combinación de cosmología
inflacionaria y el paisaje de la teoría de cuerdas da al principio antrópico un
marco viable». ¿Ha abierto Alan la puerta del armario?
[98] Estoy
encantado de informar que, mientras estoy escribiendo este libro, se ha
anunciado que Gross, y otros dos colegas, han sido galardonados con el premio
Nobel por sus trabajos sobre QCD.
[99]Robert
Laughlin , A Different
Universe: Reinventing Physics from the Bottom Down ( Basic Books, Nueva
York, 2005).
[100] Por
supuesto, un cambio demasiado grande en el punto de partida microscópico podría
llevar a un resultado macroscópico completamente diferente, por ejemplo, un
cristal en lugar de un superfluido.
[101] Véase
Lee Smolin, The Life of the Cosmos (Oxford University Press,
Oxford, 1997).
[102] También
cabría pensar que planetas con forma de elipsoides alargados, cubos e incluso
erizos de mar serían soluciones de las ecuaciones de la física. Pero no es así.
Si el planeta fuera suficientemente grande para mantener una atmósfera, la
gravedad tiraría rápidamente del material para formar una bola. No todo es
posible.
[103] El
núcleo de la Tierra está compuesto principalmente de hierro.
[104] No
todos los infinitos son iguales, según Cantor. Los enteros —los
enteros pares y los enteros impares— son lo que los matemáticos llaman un
conjunto infinito numerable. El número de números reales, todos los decimales
posibles, es un conjunto mucho mayor que no puede ponerse en correspondencia
uno-a-uno con los enteros, ¡pero todos los conjuntos numerables son del mismo
tamaño! Los universos de bolsillo son como los enteros, pues son cosas que se
pueden contar.
Nota al fin del libro:
[*] Hoy,
por cambio de apellido, es Bunster (Nota de PB)

No hay comentarios:
Publicar un comentario