© Libro N° 13831. Del Mundo
Cuántico Al Universo En Expansión. Shahen Hacyan. Emancipación.
Mayo 17 de 2025
Título Original: © Del Mundo Cuántico Al Universo En
Expansión. Shahen Hacyan
Versión
Original: © Del Mundo Cuántico Al
Universo En Expansión. Shahen Hacyan
Circulación conocimiento libre, Diseño y edición digital de Versión
original de textos:
https://omegalfa.es/downloadfile.php?file=libros/del-mundo-cuantico-al-universo-en-expansion.pdf
Licencia Creative Commons:
Emancipación Obrera utiliza una
licencia Creative Commons, puedes copiar, difundir o remezclar nuestro
contenido, con la única condición de citar la fuente.
La Biblioteca Emancipación Obrera es un
medio de difusión cultural sin fronteras, no obstante los derechos sobre los
contenidos publicados pertenecen a sus respectivos autores y se basa en la
circulación del conocimiento libre. Los Diseños y edición digital en su mayoría
corresponden a Versiones originales de textos. El uso de los mismos son
estrictamente educativos y está prohibida su comercialización.
Autoría-atribución: Respetar la autoría del texto y el nombre de los
autores
No comercial: No se puede utilizar este trabajo
con fines comerciales
No derivados: No se puede alterar, modificar o
reconstruir este texto.
https://i.pinimg.com/736x/69/c5/21/69c52180b6a5a44b3e2b9aa777fa430b.jpg
Portada E.O. de Imagen original:
https://omegalfa.es/downloadfile.php?file=libros/del-mundo-cuantico-al-universo-en-expansion.pdf
© Edición, reedición y Colección Biblioteca Emancipación: Guillermo Molina
Miranda
LEAMOS SIN RESERVAS,
ANALICEMOS SIN PEREZA Y SOMETAMOS A CRÍTICA TODA LA CULTURA
DEL MUNDO CUÁNTICO AL
UNIVERSO EN EXPANSIÓN
Shahen Hacyan
Del Mundo
Cuántico Al Universo En Expansión
Shahen Hacyan
COLOFÓN
CONTRAPORTADA
COMITÉ DE SELECCIÓN
Dr. Antonio Alonso
Dr. Juan Ramón de
la Fuente
Dr. Jorge Flores
Dr. Leopoldo
García-Colín
Dr. Tomás Garza
Dr. Gonzalo
Halffter
Dr. Guillermo Haro
†
Dr. Jaime
Martuscelli
Dr. Héctor Nava
Jaimes
Dr. Manuel Peimbert
Dr. Juan José
Rivaud
Dr. Emilio
Rosenblueth †
Dr. José Sarukhán
Dr. Guillermo
Soberón
Coordinadora
Fundadora:
Física Alejandra
Jaidar †
Coordinadora:
María del Carmen
Farías
3
Primera edición, 1994
La Ciencia para
Todos es proyecto y propiedad del Fondo de Cultura Económica, al que pertenecen
también sus derechos. Se publica con los auspicios de la Subsecretaría de
Educación Superior de Investigación Científica de la SEP y del Consejo Nacional
de Ciencia y Tecnología.
D.R. © 1994, FONDO DE CULTURA
ECONÓMICA, S. A.
DE C. V.
Carretera Picacho-Ajusco 227; 14200
México, D.F.
ISBN- 968-16-4435-2
Impreso en México
DEDICATORIA
"It ain't necessarily so.
De t'ings dat yo li'ble
To read in de Bible.
It ain't.
necessarily so."
Porgy and Bess
Acto II, escena 2
GERSHWIN &
HEYWARD
INTRODUCCIÓN
¿Puede la materia
dividirse indefinidamente? Demócrito afir-maba, hace más de dos mil años que la
materia esta formada de átomos, partículas diminutas e
indivisibles. El tiempo le dio la razón. A principios del siglo XX
quedó plenamente establecido que todos los cuerpos materiales están formados
por átomos, cuyo tamaño es del orden de unas cuantas millonésimas de milímetro.
La palabra átomo
significa "indivisible" en griego y se utilizó hace menos de un siglo
para designar lo que parecía ser el constituyente más pequeño de la materia.
Pero pronto se des-cubrió que lo que se había identificado como un átomo está
formado, a su vez, por partículas aún más pequeñas. A éstas se les llamó partículas
elementales con la esperanza de que fueran efectivamente elementales,
es decir, sin más constituyentes.
Pero el Universo no
se puede reducir sólo a partículas elemen-tales. El Universo es dinámico; todos
los cuerpos interactúan entre sí por medio de fuerzas —de las cuales la
gravitacional es la más familiar. Las partículas, junto con sus interacciones,
son los elementos fundamentales del Universo.
Para explicar las
fuerzas de la naturaleza, los físicos inventaron un nuevo concepto, el campo, que
resultó ser de enorme utili-dad para describir los fenómenos físicos.
Partículas y campos resultaron ser dos facetas, inseparables, de una misma
realidad. Pero si bien el concepto de partícula es intuitivamente claro, el de
campo es un desafío a nuestra capacidad de comprender el mundo. Esta dificultad
se hace más manifiesta cuando se des-
6
cribe el comportamiento de la materia a nivel de los átomos. Ahí rige
la física cuántica y todas nuestras ideas intuitivas se
esfuman; sólo quedan partículas y campos cuánticos.
Uno de los
objetivos del presente libro es reseñar, para los lec-tores que no son
especialistas en física, los conocimientos ac-tuales acerca de las partículas
elementales, de los campos cuán-ticos y sus comportamientos de acuerdo con la
física del mun-do atómico. Otro objetivo es mostrar cómo estos conocimien-tos
del mundo cuántico se aplican al estudio de la evolución inicial del Universo.
Con base en lo que sabemos del mundo subatómico, pasaremos revista a lo que
pudieron ser los prime-ros instantes del Universo, de acuerdo con la teoría
cosmológi-ca más aceptada en la actualidad: la famosa teoría de la Gran
Explosión.
Con los primeros
cuatro capítulos de este libro esperamos pro-porcionar un panorama general de
las teorías modernas respec-to al mundo cuántico: de las moléculas a los
átomos, de los átomos a las partículas elementales que los componen, así co-mo
las fuerzas con las que la materia interacciona consigo misma. La síntesis de
la física de partículas elementales y las interacciones entre ellas es el
llamado modelo estándar, que presentamos en el capítulo III.
Más allá del modelo estándar se han elaborado teorías que por ahora son sólo
especulativas, pero que tienen profundas implicaciones para la cosmología.
Así, después de un
paseo por el mundo microscópico de las partículas elementales, daremos un salto
del capítulo VII para pasar al Universo en toda su inmensidad. Antes, en el
capítulo VI, reseñamos de modo breve las propiedades más importantes del Universo
como la existencia que se conocen en la actuali-dad.
7
Quienes ya leyeron El descubrimiento del Universo 1
Como veremos en los
capítulos VII y VIII , la física del mi-cromundo se puede unir con la
cosmología para explicar las propiedades más importantes del Universo —como la
existen-cia de las galaxia— a partir de las condiciones físicas en los primeros
trillonésimos de trillonésimos de segundo de existen-cia; el resultado de tal
unión es la hipótesis del Universo infla-cionario. Finalmente, se
describirá el panorama cósmico justo después de la inflación y
hasta la época en la que al parecer se formaron las primeras galaxias.
I. MATERIA, LUZ Y
ANTIMATERIA
PRESENTAREMOS en
este y los siguientes capítulos el Uni-verso en la escala microscópica,
estudiaremos las partículas más fundamentales de la materia y echaremos un
vistazo al mundo cuántico, con sus extrañas leyes, donde los entes
fun-damentales son partículas y ondas a la vez.
MATERIA
Lo que llamamos
átomo en la actualidad no es, estrictamente hablando, el átomo de Demócrito.
Ernest Rutherford demostró, en 1911, que el llamado átomo consta de un núcleo,
alrededor del cual giran pequeñas partículas llamadas electrones.
Los electrones son
partículas con una carga eléctrica negativa, mientras que el núcleo atómico
posee una carga eléctrica posi-tiva. Debido a que cargas eléctricas de signo
contrario se atra-en, el núcleo ejerce una fuerza de atracción en los
electrones que se encuentran a su alrededor.
Para visualizar un
átomo, podemos pensar en un sistema solar microscópico en el que el núcleo
sería el Sol y los electrones los planetas. La diferencia es que el Sol
mantiene unidos a los planetas por la fuerza gravitacional que ejerce sobre
ellos, mientras que el núcleo atrae a los electrones por medio de la fuerza
eléctrica.
Pero el núcleo
atómico no es una partícula, sino que está for-mado, a su vez, de dos tipos de
partículas: los protones y los neutrones (Figura 1). La existencia de los
primeros fue estable-
9
cida por el mismo Rutherford en 1919, mientras que los segun-dos fueron
descubiertos, años más tarde, por J. Chadwick. En resumen, parecía que tres
tipos de partículas eran los constitu-yentes fundamentales de la materia.
Figura 1. Esquema de un átomo de
helio. Dos electrones "giran" alre-dedor de un núcleo compuesto de
dos protones y dos neutrones.
Los protones y los
electrones son partículas con cargas eléctri-cas exactamente de la misma
magnitud pero de signos contra-rios.
Esta carga fundamental es de 1 .602 x
10-19 coulombs. 2
Para tener una idea
de lo diminutas que son estas partículas, señalemos que la masa de un electrón
es de unos 9. 109 X 10-28 gramos, mientras que un protón
es 1 836 veces más masivo que un electrón —pesa cerca de 1. 673 X 10-24 gramos— y el
neutrón es ligeramente más pesado que el protón — 1.675 X 10-24 gramos. El
cuerpo humano, por ejemplo, está hecho de 20000 billones de
billones (2 X 1028) de protones, otros tantos electrones y un número un poco mayor de
neutrones.
En la naturaleza
existen, en estado natural, 92 tipos de elemen-tos químicos. Un elemento
químico está determinado entera-mente por el número de protones en el átomo que
lo constituye. El núcleo del átomo de hidrógeno consta de un único protón, el
del helio posee dos protones y dos neutrones, el del litio tres protones y
cuatro neutrones,... el carbón seis protones y seis neutrones... el hierro 26
protones y 30 neutrones... y así hasta el uranio, cuyo núcleo está formado por
92 protones y 146 neu-trones. Además, los átomos de diversos elementos químicos
suelen unirse entre sí para formar moléculas; por ejemplo, la molécula del agua
consta de dos átomos de hidrógeno y uno de oxígeno. Los átomos se mantienen
unidos en las moléculas gracias a las atracciones eléctricas y magnéticas.
Como veremos con
más detalle en el próximo capítulo, los protones y neutrones se encuentran
amarrados en el núcleo por las fuerzas nucleares. Para transmutar un elemento
químico en otro es necesario cambiar el número de protones en el núcleo, lo
cual es posible en principio, pero requiere de una enorme cantidad de energía,
muchísimo mayor de la que soñaron los alquimistas. La razón es que las fuerzas
nucleares son tan in-tensas, que no se puede despegar fácilmente un protón del
núcleo.
En cambio, las
fuerzas eléctricas son menos intensas, por lo que es factible despegar uno o
varios electrones de un átomo. En condiciones normales en la Tierra, los átomos
constan gene-ralmente de un igual número de electrones que de protones y, por
lo tanto, la carga neta de un átomo es cero. Pero puede su-ceder que algunos
electrones se escapen de la atracción del núcleo, dejando así al átomo con una
carga positiva neta; en tal caso se dice que el átomo se ha
convertido en un ion. En los metales, los átomos se pueden acomodar
de tal manera que sus electrones viajan de un átomo a otro; la corriente
eléctrica, por ejemplo, se debe al flujo de electrones en un cable metálico.
En resumen, los
ladrillos fundamentales con los que está hecha toda la materia que existe a
nuestro alrededor son los electro-nes, los protones y los neutrones. Pero,
además de la materia, existe la radiación es decir, la luz...
LUZ
Ya en el siglo
XVII, los físicos empezaron a preocuparse por la naturaleza de la luz. Isaac
Newton pensaba que la luz estaba hecha de partículas, mientras que otros como
Christian Huy-gens, sostenían que la luz es una onda que, al igual que una ola
en el agua o el sonido en el aire, se propaga en algún misterioso medio al que
llamaron éter.
La naturaleza de la
luz quedó aparentemente elucidada a me-diados del siglo XIX, cuando James
Maxwell encontró las ecuaciones que describen la electricidad y el magnetismo,
y demostró, a partir de esas ecuaciones, que la luz es una onda
electromagnética. La consecuencia más lógica sería que si la luz es una onda,
debería existir el éter para transportarla.
Quizás sería más
apropiado decir que la luz presenta caracterís-ticas propias de una onda
incluso con esta aclaración, la reali-dad resultó más complicada. El primer
problema era el éter mismo, esa extraña sustancia impalpable que sólo se
manifiesta como transmisora de la luz. Los intentos por detectarlo, aunque
fuese de manera indirecta, resultaron inútiles.4
Por otra parte, a
fines del siglo XIX, ya se habían descubierto algunos fenómenos físicos que
sencillamente no se podían explicar con base en una teoría
ondulatoria de la luz. Max Planck demostró que la luz debía consistir de
paquetes de energía, o cuantos y que la energía E de cada
paquete es:
E= hv
donde h es
ahora llamada constante de Planck 5
Así pues, la luz es
una onda y a la vez una partícula. Esta dua-lidad onda-partícula es una de las
características más notorias del mundo cuántico y tendremos oportunidad de
volver a ella. Por el momento recordemos que la longitud de una onda de luz
—que se define como la distancia entre dos crestas o dos valles (Figura 2 ) —
es inversamente proporcional a la frecuencia y, por lo tanto, a la energía del
fotón asociado. A mayor energía del fotón, mayor frecuencia de vibración y
menor longitud de la onda.
13
Figura 2. La
longitud de onda es la distancia entre dos crestas, y es inversamente
proporcional a la frecuencia (número de vibraciones por segundo).
Los fotones con más
energía que se conocen son los fotones gamma, aquellos que
constituyen los llamados rayos gamma cuyas longitudes de onda
son menores que unos 10 -8 cm. Les siguen los rayos X, cuyas
longitudes de onda se encuentran entre los 10- 8 y los 10-6; cm; y luego los
rayos ultravioleta, entre 10- 6 y 10-5, cm. Nuestros ojos
sólo perciben la luz cuya longitud de onda se encuentra entre las 380
millonésimas de milímetro (luz violeta) y las 760 millonésimas de milímetro
(luz roja); entre esas dos longitudes de onda se hallan todos los colores del
arco iris; cada color corresponde a una longitud de onda bien definida. Si
seguimos aumentando la longitud de onda pasamos a la luz infrarroja, a la que
ya no son sensibles nuestros ojos, luego las microondas y finalmente las ondas
de radio de uso tan común y cuya longitud de onda se sitúan entre pocos
centímetros hasta varios cientos de metros. Entre los rayos gamma y las ondas
de radio tenemos un muy amplio es-pectro de luz, y solo una pequeña zona de ese
espectro es direc-tamente perceptible a la visión. Para captar fotones fuera de nuestro rango de percepción visual necesitamos detectores
arti-ficiales.
ANTIMATERIA
Las partículas del
mundo atómico se comportan de manera totalmente ajena a nuestra experiencia
diaria. Por eso, los físi-cos tienen que recurrir a las matemáticas para
describir ade-cuadamente la realidad. En 1929 el gran físico inglés P. A. M.
Dirac encontró una descripción matemática del electrón que explicaba las
características de esa partícula. Sin embargo, su teoría adolecía de ciertas
fallas que hubieran desanimado a un físico con menos imaginación, pero que le
sirvieron para hacer una atrevida predicción. En efecto, la teoría matemática
de Di-rac podía ser congruente a condición de redefinir el concepto mismo de
vacío. Esto, a su vez, implicaba la existencia de una partícula idéntica al
electrón, excepto en la carga eléctrica, que debía ser de signo contrario. Más
aún, esa partícula debía tener la propiedad de aniquilarse totalmente con un
electrón tan pronto entrara en contacto con él. A esa partícula Dirac la
llamó antielectrón, o también positrón, por
tener carga positi-va.
Pero dos partículas
no pueden esfumarse sin dejar rastro. Cuando un electrón y un positrón se
destruyen mutuamente la masa de las dos se transforma totalmente en energía.
Este fenómeno es una excelente demostración de la equivalencia entre masa y
energía descubierta por Albert Einstein y resumi-da en la famosa fórmula:
E = mc2,
(energía igual a masa por la
velocidad de la luz al cuadrado)7
. La fórmula de Einstein implica que,
en condiciones apropia-
15
das, la materia puede transformarse en energía y viceversa. Así, Dirac
predijo que un electrón y un positrón, al entrar en contac-to, se aniquilarían
transformando toda su masa en fotones de muy alta energía, más precisamente,
dos fotones gamma.
El espacio cósmico
está lleno de todo tipo de partículas sueltas (fotones, electrones, etc). Las
que llegan a la Tierra producen los llamados rayos cósmicos. En
1932, Carl Anderson estudia-ba estas partículas cuando descubrió una que, según
indicaba su movimiento, tenía la misma masa que un electrón, pero car-ga
eléctrica positiva. ¡Se trataba del positrón!
Una vez establecida
la existencia del antielectrón, los físicos se percataron de que, de acuerdo
con la teoría de Dirac, también deberían existir antiprotones y antineutrones.
Y en efecto, éstos fueron descubiertos en los años cincuenta. Más aún, es perfec-tamente
factible que existan antiátomos, formados por un núcleo de antiprotones y
antineutrones, alrededor del cual giran positrones. Y con esos antiátomos se
pueden formar objetos de antimateria, quizá antiplanetas, antiestrellas y
¡hasta antiseres vivos!
En resumen, a cada
tipo de partícula corresponde una antipartí-cula con la cual se puede aniquilar
si hacen contacto. La única excepción es la luz, ya que el fotón es su propia
antipartícula. Dicho de otro modo, la luz no distingue entre materia y antima-teria.
En consecuencia, un objeto de antimateria se ve exacta-mente como si estuviera
hecho de materia ordinaria.
Para dar una idea
de las cantidades de energía implicadas, mencionemos que una tonelada de
antimateria produce, al ani-quilarse con una cantidad igual de materia, tanta
energía como la que se consume actualmente en la Tierra durante un año.
Desgraciadamente, no poseemos reservas de antimateria ni es factible producirla
en grandes cantidades y almacenarla. Para producir una
cierta cantidad de antimateria es necesario invertir la misma cantidad de
energía que produciría su aniquilación. Y esa energía, a su vez, habría que
sacarla de alguna fuente tradi-cional —petróleo, uranio, etcétera. (Una ley
fundamental de la física es que la energía no se crea ni se destruye, sólo
cambia de forma).
¿Qué tanta
antimateria hay en el Universo? No se puede dar respuesta definitiva a esta
pregunta porque, como la luz no distingue entre materia y antimateria, estas se
ven idénticas. En principio, algunas de las estrellas o galaxias que vemos en
el firmamento podrían ser de antimateria. Quizá existen antimun-dos habitados
por seres de antimateria. La única manera de comprobarlo es ir a ellos o
esperar su visita. Pero si algún ser formado de antimateria llegara a la
Tierra, las consecuencias serían catastróficas para todos: al entrar en
contacto con nues-tra atmósfera explotaría, liberando tanta energía como varias
explosiones nucleares juntas.
Para nuestra
tranquilidad, es poco probable que abunde la an-timateria en las cercanías del
Sistema Solar. El encuentro de antimateria con materia produce enormes
cantidades de energía en forma de rayos gamma; si hubiera mucha antimateria en
nuestra vecindad cósmica, presenciaríamos continuas explosio-nes de rayos
gamma, lo cual no es el caso.8
Por otra parte, es
importante señalar que así como una partícula y una antipartícula pueden
convertir sus masas enteramente en energía —energía de los fotones gamma que
producen—, el proceso contrario también ocurre en la naturaleza. Dos fotones
gamma que choquen entre sí pueden producir una pareja de partícula y
antipartícula, transformando así toda su energía en masa. Para que ello ocurra,
los fotones deben poseer suficiente energía para generar una partícula y una
antipartícula. La masa
17
de un electrón es de 9 X 10-28 gramos; de
acuerdo con la fórmula de Einstein, esta masa equivale a una energía 8 X 10-7 ergs; a su
vez, esta energía es la que posee un fotón gamma cuya longitud de onda es de
unos 2 x 10-10cm. Por lo tanto, dos fotones gamma con esa longitud de onda o una menor
pueden producir un electrón y un positrón. 9
Sólo hay una
situación en la naturaleza en que materia y anti-materia pueden coexistir. Un
gas a una temperatura de unos 5 000 000 000 de grados Kelvin l0
Como veremos más
adelante en este libro, los físicos han cal-culado que, de acuerdo con la
teoría de la gran Explosión, hab-ía en el principio del Universo casi la
misma cantidad de mate-ria como de antimateria pero, después de unas fracciones
de segundo, todas las antipartículas se aniquilaron con las partícu-las.
Afortunadamente para nosotros, había un ligerísimo exce-dente de materia que no
tuvo contraparte con qué aniquilarse y
18
dio origen a las estrellas, los planetas y sus habitantes. Así, de
acuerdo con la teoría del Origen del Universo más aceptada en la actualidad, la
antimateria debe ser muy escasa. Sobreviven, si acaso, algunos raros
fragmentos.
ONDA-PARTÍCULA: EL MUNDO CUÁNTICO
Mencionamos
anteriormente que la luz, que pareciera ser una onda, se comporta algunas veces
como una partícula. Algo enteramente análogo ocurre con las partículas: a nivel
cuántico se comportan también como ondas. Louis de Broglie fue el primero en
proponer que una partícula cuántica tiene las pro-piedades de una onda, cuya
longitud es:
h/mv,
donde h es
la constante de Planck, m la masa de la partícula y v su
velocidad. Todas las partículas del mundo subatómico — electrones, protones,
etc.— presentan esta dualidad. Éste es el principio fundamental de la mecánica
cuántica rama de la físi-ca que surgió a principios del siglo XX para
explicar los fenó-menos del mundo microscópico.
Para ejemplificar
una de las peculiaridades del mundo cuánti-co, quizá la más notoria, imaginemos
un experimento que con-siste en lanzar electrones hacia una pantalla. La
mecánica cuán-tica predice cuántos electrones llegan a una región determinada
de la pantalla, según las condiciones que estas partículas en-cuentren en su
camino.
Supongamos que el
experimento se realiza de tal manera que el haz original de electrones pasa por
dos rendijas y se divide en dos haces Figura 3(a). Si se tratara estrictamente
de partículas, uno esperaría que los electrones se acumulen en la pantalla en
dos montones localizados cada uno enfrente de las dos rendijas.
19
Pero el experimento real revela que esto no es lo que ocurre. Más bien,
los electrones se acumulan sobre la pantalla forman-do franjas, o lo que en el
lenguaje de la óptica se llama un patrón de interferencia. Esto es exactamente
lo que se esperaría si los electrones fuesen ondas. Piénsense, por ejemplo, en
dos olas que se originan en puntos distintos y se cruzan; el resulta-do, como
lo muestra la figura es que las crestas de las olas se suman para hacerse más
altas, y los valles se suman para hacer-se más profundos.
Por otra parte, si
en el experimento de los electrones tapamos una de las rendijas, entonces el
resultado es que los electrones se acumulan enfrente de la rendija abierta como
si fuesen partí-culas. De algún modo abandonan su comportamiento de onda (Figura
3b).
Figura 3. Los
electrones se comportan como ondas al pasar por dos rendijas (a), pero como
partículas si se tapa una de las rendijas (b).
20
Pero la situación más sorprendente ocurre si nos empecinamos en
determinar por cuál rendija pasa cada electrón individual-mente. Uno podría
pensar que la mitad de los electrones pasa por una rendija y la otra mitad por
la otra. ¿Y qué sucede con un solo electrón? La respuesta parece trivial:
pasará por una u otra rendija. Sin embargo, en el mundo cuántico esta condición
se ha topado con serias dificultades. En efecto, si uno encuentra la manera de
seguir la pista de los electrones para determinar por dónde pasan, entonces
los electrones se comportan como partículas y desaparece el patrón de
interferencia.
La mecánica
cuántica tiene dos interpretaciones que son con-ceptualmente muy distintas. De
acuerdo con una primera inter-pretación, la mecánica cuántica sólo se aplica al
estudio es-tadístico de un número grande de partículas; en el ejemplo an-terior
se puede predecir lo que harán los electrones en su con-junto, pero nada puede
decirse del comportamiento de cada electrón por separado. En este sentido, la
mecánica cuántica no sería una teoría completa de la naturaleza. Esta
interpretación fue la que defendió Albert Einstein durante toda su vida, en
contra de la opinión mayoritaria de los físicos de su época.
De acuerdo con una
segunda interpretación la mecánica cuánti-ca sí se aplica a una sola partícula.
En el ejemplo del haz de electrones, un electrón pasa simultáneamente por las
dos rendi-jas y las dos posibilidades son de igual modo "reales". El
electrón permanece latente en las dos posiciones hasta que lo detectamos, con
lo cual lo forzamos a mostrarse en una sola de esas opciones.
Esta segunda
interpretación parece absurda, pues nada parecido ocurre en nuestro mundo
macroscópico. Si lanzamos una mo-neda al aire muchas veces, aproximadamente la
mitad de las veces caerá águila y la otra mitad sol. ¿Y si no miramos como cae? ¿Puede afirmarse que una moneda cae simultáneamente
águila y sol hasta que la miremos y veamos una de las dos po-sibilidades? La
diferencia fundamental con lo que sucede en el mundo cuántico consiste en que
el mirar una moneda no influ-ye en ella, pero detectar la posición de una una
partícula como un electrón implica mandarle luz, la que modifica drásticamen-te
su comportamiento. Los fundadores de la mecánica cuántica siempre insistieron
en que, a nivel atómico, es imposible abs-traerse de la relación entre observador
y observado. Toda me-dición altera la realidad que estudia y esta alteración es
funda-mental para las partículas elementales. Esta interpretación se debe
principalmente al físico danés Niels Bohr —a quien se considera uno de los
creadores de la mecánica cuántica— y se conoce como interpretación de
Copenhague. Einstein y Bohr sostuvieron durante toda su vida una
amistosa pero apasionada disputa acerca de la interpretación de la mecánica
cuántica, sin llegar jamás a un acuerdo.
El lector podrá
pensar que, en la práctica, cualquiera de las dos interpretaciones de la
mecánica cuántica debe conducir a los mismos resultados. Pero lo interesante es
que, en los recién pasados años, se ha logrado realizar experimentos reales (no
sólo imaginarios) aislando y utilizando unas pocas partículas elementales,
discriminando así entre una u otra interpretación. Hasta ahora, los resultados
experimentales parecen inclinar la balanza hacia la interpretación de
Copenhague, en contra de las ideas de Einstein (por lo menos en sus modalidades
más senci-llas). Pero el debate iniciado por Einstein y Bohr aún está lejos de
quedar resuelto.
22
II. LAS FUERZAS DE
LA NATURALEZA
TODOS los cuerpos
materiales interactúan entre sí en el senti-do de que unos ejercen fuerzas
sobre los otros. La fuerza de interacción más familiar es la gravitación, el
hecho de que los cuerpos caigan al suelo es ya parte íntegra de nuestra
experien-cia común. Pero la gravitación es sólo una de las cuatro fuerzas
fundamentales de la naturaleza. Esas cuatro fuerzas son el tema del presente
capítulo.
GRAVITACIÓN
Todo cuerpo masivo
atrae gravitacionalmente a otro. La Tierra nos atrae y nosotros atraemos a la
Tierra (aunque la fuerza que ejerce nuestro cuerpo es prácticamente
imperceptible y, en la práctica, sólo se nota la fuerza de atracción de la
Tierra).
En el siglo XVII el
gran físico inglés Isaac Newton descubrió que la gravitación es un fenómeno
universal. Según una famosa leyenda, Newton estaba un día sentado debajo de un
manzano, cavilando con respecto a la fuerza que mantiene unida la Luna a la Tierra,
cuando vio caer una manzana. Este suceso le dio la clave para descubrir que la
fuerza de gravedad, la misma que hace caer la manzana, es también la que
retiene a la Luna en órbita. Descubrió así el principio de la gravitación
universal.
Por extraño que nos
parezca en la actualidad, hasta antes de Newton se pensaba que la gravitación
era un fenómeno exclu-sivo de la Tierra, como si nuestro planeta fuese un sitio
muy especial en el cosmos. Así, el filósofo griego Aristóteles — quien vivió en
el siglo IV a.c. y llegó a ser considerado la
23
máxima autoridad científica en la Edad Media— distinguía claramente
entre los fenómenos terrestres y los celestes. Para Aristóteles la gravitación
era un fenómeno puramente terrestre, que no podía influir en los cuerpos
celestes, pues éstos estaban hechos de una sustancia muy distinta a la materia
común que se encuentra en la Tierra. Incluso el mismo Galileo, uno de los
fundadores de la ciencia física, estudió detenidamente la caída de los cuerpos
pero nunca sospechó que hubiera una relación entre este fenómeno y el
movimiento de los planetas.
La gravitación
universal, descubierta por Newton, implica que la Tierra no sólo atrae a los
objetos que están en su superficie, sino también a la Luna y a cualquier cuerpo
en su cercanía. Además, el Sol atrae a la Tierra y a todos los demás planetas,
las estrellas se atraen entre sí, las galaxias también, y así toda la materia
en el Universo.
Pero además Newton
descubrió que la fuerza de gravedad obe-dece una ley muy sencilla. La fuerza
gravitacional entre dos cuerpos es directamente proporcional a las masas de los
cuer-pos e inversamente proporcional al cuadrado de la distancia que los separa.
En términos matemáticos, la fórmula para la fuerza se escribe:
donde F es
la fuerza, M1 y M2 son las masas
de cada uno de los cuerpos, R es la distancia que los separa
y G es una constante de proporcionalidad, la llamada constante
gravitacional o de Newton, cuyo valor determina la intensidad de la interacción
gravitacional. Se ha determinado experimentalmente que G vale
6.672 X 10-11 m 3/kgs2. Esto equivale a decir que dos masas de un kilogramo
cada una colocadas a una distancia de un metro se atraen con una fuerza de
6.672 X 10-11 newtons.11
Los planetas se
mantienen unidos al Sol en órbitas estables por el equilibrio de dos fuerzas:
la atracción gravitacional de ese astro y la fuerza centrífuga debida al
movimiento circular. La fuerza centrífuga no se debe a una interacción de la
materia, sino a la tendencia que tienen los cuerpos a mantener su movi-miento
en línea recta (esta fuerza se manifiesta, por ejemplo, en un automóvil cuando
toma una curva: los pasajeros sienten una fuerza que los empuja hacia la parte
exterior de la curva ). El gran éxito de Newton fue encontrar la manera de
calcular con extrema precisión la trayectoria de los planetas, o de cualquier
cuerpo en general, a partir de ecuaciones matemáticas que des-criben la fuerza
aplicada en ellas.
En resumen, la
gravitación es el cemento del Universo. Así como los planetas se mantienen
pegados al Sol, las estrellas se atraen entre sí y forman enormes conglomerados
que son las galaxias. Las estrellas en una galaxia giran alrededor del centro
de ésta y, a la vez, son atraídas gravitacionalmente al centro de la galaxia.
De esta manera se mantienen unidas.
Todo se explicaba a
la perfección en el esquema teórico des-arrollado por Newton. El único pedazo
que faltaba en el rom-pecabezas era la naturaleza de la fuerza de gravitación.
En efecto ¿qué es lo que produce realmente la atracción gravita-cional? Si jalamos
una piedra con una cuerda, la atracción se da por medio de la cuerda; si
soplamos para empujar una pluma, la fuerza de interacción se da mediante el
aire. Toda transmi-sión implica un medio: el sonido se transmite por medio del
aire, la energía eléctrica por medio de cables, el calor por cuer-pos
conductores, etc. ¿Qué medio transmite la gravitación?
25
¿Cómo "sabe" la Luna que la Tierra está ahí y la atrae? ¿Cuál
es el origen de esa "acción a distancia"?
Newton nunca estuvo
enteramente satisfecho de su obra, pues no tenía una respuesta a las anteriores
preguntas. Como una solución provisional propuso que el espacio esta totalmente
lleno de una sustancia invisible e impalpable, el éter, que per-mea todos los
cuerpos materiales y sirve para transmitir, de algún modo aún desconocido, la
atracción gravitacional. La misteriosa "acción a distancia" cuya
naturaleza todavía desco-nocía, se ejercería mediante el éter. Empero, el
problema habría de perdurar mucho tiempo en la física.
La física de Newton
permaneció incólume durante más de dos siglos. Pero a principios del siglo XX
comenzaron a aparecer nuevos aspectos del mundo que ya no correspondían con el
modelo clásico. Para dar un nuevo paso y comprender la gravi-tación se necesitaba
una nueva teoría física que relevara la mecánica de Newton en los nuevos
dominios del Universo que surgían. Afortunadamente, cerca de 1915 Albert
Einstein había elaborado su teoría de la gravitación, también conocida
como teoría de la relatividad general. 12
De acuerdo con
Einstein el espacio y el tiempo no son concep-tos independientes, sino que
están estrechamente vinculados y forman un espacio-tiempo de
cuatro dimensiones, en el que el tiempo es la cuarta dimensión.
Expliquemos este
concepto: nuestro espacio es de tres dimen-siones, lo cual quiere decir
sencillamente que todos los objetos materiales tienen altura, anchura y
profundidad. Éste es un hecho muy evidente, pero no olvidemos que también
existen espacios de una o dos dimensiones. La superficie de una hoja de papel,
por ejemplo, es un espacio de dos dimensiones; un
26
dibujo sólo tiene altura y anchura. Del mismo modo, una línea es un
espacio de una sola dimensión.
En el siglo pasado,
algunos matemáticos como G. F. B. Riem-mann se dieron cuenta de que es posible
concebir espacios de más de tres dimensiones con leyes geométricas
perfectamente congruentes. Esto parecía una simple especulación de matemá-ticos
hasta que, a principios de este siglo, surgió la teoría de la relatividad que
revolucionó por completo toda nuestra visión del Universo.
Para explicar la
gravitación Einstein postuló que la fuerza gra-vitacional se debe a una curvatura del
espacio-tiempo. Así co-mo una piedra pesada deforma una lona de tela y
cualquier canica que se mueva sobre esa lona sigue una trayectoria curva, el
Sol deforma el espacio-tiempo de cuatro dimensiones a su alrededor y los
planetas se mueven siguiendo esa curvatura. En particular, una de las
consecuencias más interesantes de la teor-ía de la relatividad es que el tiempo
transcurre más lentamente donde la fuerza gravitacional es mayor.
Con la relatividad
general, el problema de la acción a distancia fue resuelto a favor de un nuevo
concepto: la geometría del espacio-tiempo. La física se redujo a geometría.
ELECTROMAGNETISMO
Otras fuerzas,
bastante comunes en nuestra experiencia diaria —aunque no tanto como la
gravedad—, son las fuerzas eléctri-cas y magnéticas. Los griegos se habían dado
cuenta que al frotar un pedazo de ámbar (electros en griego) con
una tela, el ámbar adquiría la propiedad de atraer pequeños pedazos de papel
(el experimento se puede repetir con plástico en lugar de ámbar). Varios siglos
después Charles-Augustin Coulomb es-
27
tudio de modo más sistemático el fenómeno de la electricidad y descubrió
que dos cargas eléctricas se atraen o se repelen con una fuerza inversamente
proporcional al cuadrado de la distan-cia que los separa, tal como la fuerza
gravitacional. Pero, a diferencia de la gravitación que siempre es atractiva,
la fuerza eléctrica puede ser tanto repulsiva como atractiva, según si las
cargas son del mismo signo o de signo contrario.
También se conocían
desde la antigüedad los imanes, pedazos de hierro con la curiosa propiedad de
atraer los objetos de hie-rro, y también de atraerse o repelerse entre sí al
igual que las cargas eléctricas. Un imán posee dos polos, norte y sur; pero si se
parte un imán por la mitad no se aíslan los polos, sino que se obtienen dos
nuevos imanes con un par de polos cada uno: ésta es la diferencia esencial con
la fuerza eléctrica, ya que no se puede tener un polo aislado, que equivaldría
a una "carga magnética".
La electricidad y
el magnetismo empezaron a cobrar importan-cia en el siglo XIX, cuando Europa
vivía en plena revolución industrial gracias a la invención de la máquina de
vapor. En las ciencias físicas, Laplace y otros notables científicos habían
logrado plasmar la mecánica de Newton en un lenguaje ma-temático que permitía
su aplicación a problemas prácticos . La importancia de las máquinas de vapor,
a su vez, propició la creación de una nueva rama de la física, la
termodinámica, que estudia el calor y las propiedades térmicas de la materia.
Hasta esa época,
electricidad y magnetismo parecían ser dos clases de fenómenos sin relación
entre sí . Pero la invención de las pilas eléctricas permitió experimentar con
las corrientes eléctricas y los imanes. Fue así como H. C. Oersted descubrió
que una corriente eléctrica influye sobre un imán colocado cer-ca de ella, y A.
M. Ampère demostró que ello se debe a que
28
una corriente produce una fuerza magnética a su alrededor. Finalmente,
en 1831 Faraday descubrió que se genera una co-rriente eléctrica en un alambre
conductor cuando éste se mueve junto a un imán. Pero los imanes y las pilas
eléctricas servían, cuando mucho, para hacer actos de magia y sólo contados se
interesaban en ellos.
Medio siglo
después, Tomás Edison tuvo la idea de utilizar el descubrimiento de Faraday
para generar corriente eléctrica y distribuirla por medio de cables por la
ciudad de Nueva York. La primera planta eléctrica de la historia fue inaugurada
en 1881. Consistía en enormes turbinas de vapor que hacían girar grandes
bobinas de alambre conductor alrededor de imanes. Debido al efecto Faraday, se
generaba una corriente eléctrica que se transmitía por toda la ciudad. La
energía térmica se con-vertía, así, en energía eléctrica. Pocos meses después
se inau-guró en Wisconsin la primera planta hidroeléctrica, en la que el agua
de un río hacía girar las bobinas para producir el mismo efecto.
Toda la
electricidad que consumimos hoy en día se genera gra-cias al efecto Faraday. Lo
único que varía es el mecanismo utilizado para hacer girar una bobina alrededor
de un imán; este mecanismo puede ser el flujo de agua en una presa, el
funcio-namiento de un motor de combustión de petróleo, la presión del vapor de
agua calentada por el uranio en una planta nuclear, etcétera.
Pero regresemos a
Faraday. El problema de la acción a distan-cia que Newton había planteado por
primera vez seguía aún más vigente con el estudio de los fenómenos eléctricos y
magnéticos. Para explicar como un imán influye sobre otro, Faraday ideó el
concepto de línea de fuerza. De acuerdo con esta
interpretación, de una carga eléctrica o un imán surgen
29
líneas de fuerza invisibles pero perfectamente reales, que lle-nan todo
el espacio a su alrededor (Figura 4). Estas líneas guían en cierta manera el
movimiento de cargas eléctricas o magnéti-cas que se encuentran cerca. El
concepto es más intuitivo que el de la acción a distancia.
Figura 4. Las
líneas de fuerza de Faraday
alrededor de una
carga eléctrica y de un imán.
El hecho de que las
líneas de fuerza de Faraday sean invisibles e impalpables no implica que sean
entes imaginarios. La prue-ba más sencilla de su existencia consiste en colocar
astillas de hierro sobre un papel junto a un imán. Si el lector hace este experimento,
notará que las astillas se alinean de tal modo que se manifiestan las líneas de
fuerza magnética.
Pero faltaba
describir con fórmulas matemáticas precisas los descubrimientos de Coulomb,
Ampère, Oersted y Faraday. Tal síntesis teórica fue la obra de James Clerk
Maxwell, quien plasmó de manera matemática todas las leyes que se conocían
30
en su época acerca de los fenómenos eléctricos y magnéticos, y demostró
que estos son dos manifestaciones de una misma fuerza fundamental de la
naturaleza: la fuerza electromagnéti-ca. Maxwell logró de este modo la primera
unificación en la historia de dos fuerzas interacciones aparentemente
distintas. Su teoría matemática del electromagnetismo fue un logro científico,
equivalente al de Newton con la gravitación, y sirvió de puente entre la física
newtoniana y la física del siglo XX.
Maxwell utilizó la
idea de Faraday de las líneas de fuerza para elaborar el concepto de campo, que
resultó ser enormemente fructífero en la teoría de Maxwell, las cargas
eléctricas y los imanes generan a su alrededor un campo de fuerza cuya
mani-festación son las líneas de fuerza de Faraday. El campo llena todo el
espacio y es el que transmite la influencia de una partí-cula sobre otra.
¿Es el campo algo
más que una definición matemática? Lo es sin duda, pues tiene una realidad
física que se manifiesta cla-ramente. Es un nuevo concepto del pensamiento
humano que no corresponde a nada conocido hasta el siglo XIX. Si acaso, la idea
familiar de campo —una extensión indefinida de terre-no— remite en la
imaginación al concepto físico de "algo" al-rededor de una carga. El
campo físico, sin embargo, sólo puede describirse con el lenguaje matemático,
ya que es imposible reducirlo a conceptos más sencillos o familiares
representados por palabras del lenguaje común. Esta situación, de hecho, es una
de las características de la física moderna y tiene profundas implicaciones
filosóficas pero estas disquisiciones nos alejarían demasiado de los propósitos
de este libro.
Como indicamos en
el capítulo anterior, las moléculas y los átomos están amarrados entre sí por
fuerzas eléctricas y magnéticas. Así como la fuerza de la gravitación es el
cemento
31
del Universo a escala cósmica, la fuerza electromagnética es el cemento
de la naturaleza a escala atómica. Las interacciones electromagnéticas son tan
intensas que los cuerpos sólidos no pueden interpenetrarse sin romperse.
Estamos
acostumbrados al hecho de que la materia puede ser extremadamente dura e
impenetrable, como el acero o la roca. Sin embargo, esta dureza parecería
increíble si pudiéramos echar un vistazo al mundo microscópico de los átomos,
pues veríamos vacío por todas partes, excepto por algunas escasas y diminutas
partículas. Recordemos que el tamaño característico de un átomo es de una diez
millonésima de milímetro, pero el núcleo es 100 000 veces más pequeño, y aún
más diminuto es el electrón. Si un átomo pudiera magnificarse al tamaño de un
estadio de fútbol, su núcleo sería, en comparación, del tamaño de una mosca.
Pero semejante vacío no es realmente tal porque el espacio está ocupado por
fuerzas eléctricas y magnéticas, es decir, por un campo electromagnético. Este
campo no es una entelequia; muy por lo contrario, a él debe la materia toda su
solidez.
INTERACCIONES FUERTES
Cuando se descubrió
que el núcleo de los átomos contiene pro-tones los físicos se preguntaron cómo
podían esas partículas, cargadas positivamente permanecer unidas si las cargas
eléctri-cas del mismo signo se repelen. Y lo mismo se podría decir de los
neutrones: ¿qué los mantiene unidos si son eléctricamente neutros? Debería
existir otro tipo de fuerza en la naturaleza que permitiera tanto a los
protones como a los neutrones atraerse entre sí. Esa fuerza de la naturaleza,
recién descubierta en el siglo XX, es la fuerza nuclear. Es
mucho más intensa que la electromagnética y, a la vez, es de muy corto alcance;
actúa
32
únicamente en el núcleo, razón por la cual no forma parte de nuestra
experiencia diaria.
La fuerza nuclear
sólo se manifiesta en una distancia compara-ble con el tamaño de un núcleo
atómico. Un protón es atraído por las partículas en un núcleo atómico sólo si
se encuentra a una distancia de unos diez billonésimos de centímetro; si está
un poco más lejos, sólo resentirá la repulsión eléctrica del núcleo. En cambio,
un protón en el núcleo es atraído por los otros protones y neutrones por la
fuerza nuclear, cuya intensi-dad es unas 1 000 veces mayor que la fuerza de
repulsión elec-tromagnética.
Un hecho de enormes
consecuencias es que un núcleo atómico pesa menos que todos
sus protones y neutrones por separado. Esta diferencia de masa se encuentra en
el núcleo transformada en energía de amarre, de acuerdo, una vez más, con la
famosa equivalencia de Einstein entre masa y energía. En la figura 5 se muestra
la diferencia de masa de los núcleos atómicos compa-rados con la masa de sus
constituyentes por separado. En el extremo izquierdo de la gráfica que la forma
se tienen los ele-mentos ligeros; por ejemplo, un núcleo de helio pesa 5 x 10-26 gramos menos
que sus dos protones y dos neutrones por sepa-rado; si se fusionan esas
cuatro partículas para formar un núcleo de helio, la masa perdida se libera en
forma de energía; este es el principio de la bomba atómica y de los reactores
nu-cleares. En el extremo derecho de la gráfica se tienen los ele-mentos
pesados; si se fusiona un núcleo de uranio en dos núcleos más
ligeros, también se libera energía; este es el prin-cipio de la bomba de
uranio. Tanto la fusión (para elementos ligeros) como la fisión (para elementos
pesados) son dos me-canismos extremadamente eficientes para liberar energía de
la materia. Las estrellas brillan porque se producen fusiones nu-
33
cleares en sus centros. Nótese también en la gráfica 5 que el hierro es
el elemento con menor energía: el núcleo del hierro ni se fusiona ni se
fisiona, y es por lo tanto el núcleo más estable en la naturaleza.
Figura 5. Masa
faltante de los núcleos atómicos en función del número atómico (número de
protones en el núcleo).
INTERACCIONES DÉBILES
El repertorio de
fuerzas de la naturaleza no termina con la gra-vitación, el electromagnetismo y
las fuerzas nucleares. En los años treinta, los físicos que estudiaban las
radiaciones emitidas por los átomos se dieron cuenta de que en algunos casos,
los núcleos atómicos eliminan electrones; a este proceso lo llama-
34
ron radiación beta. Pronto se descubrió que la radiación
beta se debe a que un neutrón en el núcleo se transforma en un protón
y un electrón, y este último se escapa a gran velocidad del núcleo.
Pero, al medir las
propiedades del electrón que se escapaba, los físicos descubrieron que le
faltaba algo de energía. Al principio hubo cierta alarma, pues parecía que la
energía no se conserva-ba en contra del principio bien establecido de que la
cantidad total de energía y masa implicada en cualquier proceso físico no se
crea ni se destruye. Para solucionar este problema propu-sieron que una nueva
clase de partícula se lleva la energía fal-tante, una partícula sin carga,
totalmente invisible e inmune a las fuerzas eléctricas y magnéticas. Enrico
Fermi llamó neutri-no a tal partícula (que en italiano
significa "neutroncito") para distinguirlo del neutrón, y
ese es el nombre que se le ha queda-do.
La interacción del
neutrino con la materia no es enteramente nula, pero es millones de veces menos
intensa que la de una partícula "normal ". Es la cuarta fuerza de la
naturaleza y se le llama interacción débil. Su alcance es extremadamente corto,
semejante al de las fuerzas nucleares, razón por la que no for-ma parte de
nuestra experiencia cotidiana. En promedio, se necesitarían billones de
kilómetros de plomo para absorber un neutrino (en comparación, una lámina
delgada de metal detiene cualquier fotón de luz). Si tuviéramos ojos sensible a
los neu-trinos podríamos "ver" el centro de la Tierra o del Sol... Y
es que la luz, siendo un fenómeno electromagnético, interactúa
electromagnéticamente con los átomos. Como señalamos antes, la "dureza"
de un átomo se debe casi exclusivamente al campo electromagnético que posee.
Para el neutrino que es insensible a ese campo, el átomo es un cuerpo casi
inexistente.
35
La existencia de los neutrinos se ha establecido plenamente hoy en día y
sus propiedades son bien conocidas. La más inte-resante es que el neutrino no
tiene masa, o, si la tiene, es ex-tremadamente pequeña. Si la masa del neutrino
es estrictamen-te cero, entonces esta partícula, al igual que el fotón, tiene
que moverse siempre a la velocidad de la luz. Tal parece que el neutrino
comparte esa propiedad con el fotón. Así, un neutrino nunca podría estar en
reposo.
A pesar de ser
prácticamente imperceptibles, los neutrinos des-empeñan un papel muy importante
en los fenómenos cósmicos. Por ejemplo, el Sol brilla porque se producen en su
centro re-acciones nucleares por la fusión del hidrógeno. Esas reacciones
generan luz y calor pero también neutrinos. De hecho, una fracción importante
de la energía solar es emitida a manera de neutrinos; los que llegan a la
Tierra atraviesan nuestro planeta a la velocidad de la luz y siguen su viaje
por el espacio. Por nuestro cuerpo cruzan cada segundo alrededor de 100
billones de neutrinos provenientes del Sol sin que nos demos cuenta.
Si pudiéramos
detectar los neutrinos solares, "veríamos" el centro mismo de Sol.
Pero ¿cómo capturar tan elusivas partícu-las? La única posibilidad es un
detector lo suficientemente grande para garantizar que unos cuantos neutrinos,
en un flujo de billones y billones, sean absorbidos y detectados (algo aná-logo
a comprar un gran número de boletos de la lotería para asegurarse de sacar
alguna vez un premio mayor).
En 1973 empezó a
funcionar el primer detector de neutrinos solares, que consistía en 600
toneladas de cloro sumergidas en una vieja mina de oro en Dakota del Sur.
Cuando ocasional-mente un neutrino era absorbido por un átomo de cloro, éste se
transformaba en argón radiactivo; midiendo la cantidad de argón producido se
determina cuántos neutrinos han sido cap-
36
turados. Y, efectivamente, se logró detectar del orden de una docena de
neutrinos al mes. Por una parte, el experimento fue todo un éxito y sus
resultados han sido confirmados posterior-mente, pero, por otra parte, planteó
nuevos problemas, ya que los cálculos teóricos predecían aproximadamente el
triple de neutrinos capturados. Este es un problema que todavía no está
resuelto de manera definitiva.
Además de los
neutrinos solares, es muy probable que el espa-cio cósmico esté lleno de
neutrinos cuyos orígenes se deben buscar en los primeros instantes del
Universo. Los físicos han calculado que, junto con la materia común, una gran
cantidad de neutrinos debió crearse pocos instantes después de la Gran
Explosión, y que estos todavía llenan el Universo; así, nos mo-vemos en un mar
de unos 300 neutrinos de origen cósmico por centímetro cúbico.
Desgraciadamente, estos neutrinos son muchísimo más difíciles de detectar que
los de origen solar, aunque es posible que en el futuro puedan ser observados,
con lo cual podríamos echar un "vistazo" a los primeros segundos de
existencia del Universo.
Aunque los
neutrinos parecen no poseer masa, esto está aún por confirmarse. En 1981 un
grupo de científicos rusos anunció haber medido una pequeñísima masa,
equivalente a menos de una diezmilésima parte de la masa del electrón. Esto
causó gran revuelo en la comunidad científica porque las implicacio-nes de un
neutrino masivo, son muy importantes para la evolu-ción del Universo. En
efecto, habiendo tantos neutrinos, la ma-yor parte de la masa del Universo
correspondería a estas partí-culas y no a la materia común. A su vez, esa masa
sería tan grande que determinaría la evolución del Universo. Volvere-mos a este
tema en el capítulo VII, pero por el momento acla-remos que, como se descubrió
posteriormente, el resultado del
37
grupo ruso resultó ser una falsa alarma. Sin embargo, no está del todo
excluido que el neutrino tenga una pequeñísima masa y que ésta sea medida algún
día.
Por último, hay que
señalar que un neutrino también tiene una antipartícula que es el antineutrino. Para
ser precisos, un anti-neutrino es el que se emite en el decaimiento del
neutrón. A pesar de que los neutrinos no poseen carga eléctrica, sí es posi-ble
distinguir un neutrino de un antineutrino, como veremos en el capítulo IV.
III. EL MODELO
ESTÁNDAR
ONDA, PARTÍCULA, CAMPO
VIMOS en el
capítulo I que las partículas del mundo cuántico se comportan a veces como
ondas, y las ondas a veces como partículas. En realidad los conceptos de onda y
partícula, tal como los conocemos en nuestra experiencia diaria, no son muy
apropiados para describir las partículas elementales. La situa-ción recuerda la
historia de los ciegos que fueron puestos en presencia de un elefante y se les
pidió que lo describieran; un ciego palpó, una pierna del elefante y afirmó que
el animal se asemeja al tronco de un árbol, otro agarró su cola y lo describió
como una serpiente, para un tercero que tocó su panza el pa-quidermo semejaba
una pared, etcétera.
Quizás si
tuviéramos un sexto sentido veríamos a las partículas elementales no como ondas
o partículas, sino como algo más complejo. Quizás, también, ese sexto sentido
lo poseamos re-almente como una manera de compresión que se expresa en el
lenguaje de las matemáticas. Pero estas especulaciones filosó-ficas nos alejan
demasiado de los propósitos de este libro por lo que las dejaremos hasta aquí.
Volviendo, pues, a
las partículas elementales, el asunto se complica aún más si tomamos en cuenta
el concepto de campo, tal como lo introdujimos al abordar el electromagnetismo.
¿Cómo se comporta el campo a nivel cuántico? Pensemos por un momento en el campo
como una sustancia que permea el espacio, como sería, por ejemplo, un fluido o
un gas; esta sus-
39
tancia puede vibrar, y las vibraciones son ondas. En el caso del
electromagnetismo, la luz es una onda del campo electro-magnético, al igual que
el sonido es una onda en el aire. Pero recordemos que, en el mundo cuántico,
una onda también es una partícula. Por lo tanto, las vibraciones del
campo también son partículas.
Podemos presentar
ahora una imagen coherente del mundo cuántico. El elemento fundamental es el
campo. El campo vi-bra y sus vibraciones, a nivel cuántico, son a la vez ondas
y partículas. Las partículas asociadas al campo electromagnético son los
fotones, las partículas de la luz. Existen otros tipos de campos y sus
vibraciones: otras partículas elementales como los electrones, los protones y
muchos otros. Tendremos la oportunidad de conocerlos en las páginas siguientes.
Por ahora señalemos
que existen esencialmente dos tipos de partículas en la naturaleza: las
partículas asociadas a la materia y las partículas asociadas a las
interacciones. Las primeras se llaman fermiones y las
segundas bosones, en honor a Enrico Fermi y Satyendranath Bose
respectivamente, físicos que des-cribieron por primera vez las propiedades
básicas de estas dos grandes familias del mundo cuántico.
La diferencia
básica entre fermiones y bosones tiene que ver con una importante propiedad de
las partículas elementales que se llama. espín, palabra que proviene del
inglés spin, girar. Esta propiedad es análoga, en lo cuántico, a la
rotación de los cuer-pos sólidos sobre sí mismos. Un principio básico de la
mecáni-ca newtoniana es que esa rotación perdura indefinidamente mientras no se
aplique alguna influencia externa. Sabemos por ejemplo, que la Tierra ha girado
sobre sí misma dando una vuelta en un día, prácticamente desde que se formó
hace unos 5 000 000 000 de años. En un ámbito más reducido, un trompo
40
gira por largo rato, y cuando finalmente se detiene es por la fricción
de su punta con el suelo. En mecánica la cantidad de rotación se mide con el
llamado momento angular, que es esencialmente la masa de un cuerpo,
multiplicada por su velo-cidad de rotación, y vuelto a multiplicar
por su radio. Lo cu-rioso es que las partículas elementales también
poseen una propiedad equivalente al momento angular, el espín, que es
absolutamente invariante. Además, el espín de una partícula elemental está
cuantizado en unidades de la constante de Planck h 13
Si bien el espín es
el análogo cuántico del momento angular, la analogía no debe tomarse muy
literalmente, ya que las partícu-las elementales no son objetos sólidos que
giren. El espín es una propiedad intrínseca muy particular del mundo cuántico
que se manifiesta sólo indirectamente. Veremos ahora con más detalle cuáles son
los fermiones y los bosones fundamentales.
CUARKS Y LEPTONES
En un principio,
parecía que los ladrillos fundamentales de la materia eran los electrones,
protones y neutrones, pero las co-sas empezaron a complicarse en los años
cincuenta cuando se descubrieron partículas "exóticas" que no
concordaban con ningún esquema teórico. Cada año se encontraban nuevas
partículas supuestamente elementales y su número aumentaba
41
sin límite. Los físicos las bautizaban generalmente con los nombres de
las letras griegas, y así aparecieron las partículas mu, pi, omega,
lambda, delta, ksi, tau, eta, etc. Pero parecía que el
alfabeto griego sería insuficiente. 14
En los grandes
aceleradores de partículas, electrones y protones chocan unos con otros y se
transforman en esas partículas ex-óticas durante sus muy breves vidas, dejan
rastros en las cáma-ras de niebla. Estas cámaras consisten en recipientes
llenos de algún gas que se ioniza fácilmente cuando pasa una partícula cargada
eléctricamente; cuando eso sucede se observa una tra-yectoria luminosa (Figura
6). El estudio de esa trayectoria, cap-tada en una placa fotográfica, permite
deducir varias propieda-des de las partículas, como su velocidad, masa, tiempo
de vida, etcétera.
Figura 6.
Trayectoria de partículas elementales en una cámara de ni ebla.
42
Salvo el electrón y el protón, todas las partículas de la materia son
inestables. El neutrón aislado alcanza a vivir, en promedio, unos 15 minutos,
al cabo de los cuales se transforma en un protón, un electrón y un antineutrino
(proceso llamado decai-miento beta). Pero las otras partículas tienen vidas
medias ex-tremadamente breves, que se miden en millonésimas de segun-dos.
Con el fin de poner
orden en el zoológico de las partículas ele-mentales, Murray, Gell-Mann y
George Zweig propusieron en 1965 que todas las partículas que interactúan
fuertemente entre sí están formadas, a su vez, de unas partículas aún más
funda-mentales, que Gell-Mann llamó cuarks 15
Una característica
común a todas las partículas es que sus car-gas eléctricas son siempre
múltiplos enteros (positivo o negati-vo) de una carga elemental: la carga de un
electrón o un protón. Ya vimos que esa carga elemental, que vamos a
llamar e, equi-vale a unos 1.602 x 10-19 coulombs. La
mayoría de las partícu-las tienen carga e (positivo), -e (negativo),
o no tienen carga, aunque algunas partículas exóticas de muy corta vida poseen
cargas de 2e o de -2e. Pero lo que definitivamente no se
había descubierto nunca es una partícula cuya carga fuese una frac-ción
de e como, por ejemplo, un tercio.
El hecho de que los
protones y neutrones no sean partículas tan elementales, sino que estén hechos
de otras más pequeñas, quedó establecido entre 1967 y 1973 gracias a una serie
de ex-perimentos realizados con el acelerador de partículas de tres kilómetros
de largo de Stanford, California. El procedimiento consiste en lanzar
electrones con energías enormes contra pro-
43
tones y estudiar el resultado de las colisiones. Esto es semejan-te a
disparar un rifle contra una caja cerrada para determinar qué contiene; si el
contenido de la caja es homogéneo y blando las balas siguen su trayectoria con
desviaciones mínimas; por lo contrario, si la caja contiene balines de metal,
algunas balas rebotarán contra éstos. De esta manera se puede tener una idea
aproximada del contenido de la caja. El método parece burdo, pero es el único
del que se dispone para estudiar las partículas elementales.
En los
experimentos, resultó que la mayoría de los electrones lanzados contra un
protón lo atravesaban casi sin desviarse, pero unos cuantos rebotaban en muy
distintas direcciones. Esto era la evidencia de que los protones están formados
por partí-culas más pequeñas, que posteriormente se identificaron con los
cuarks. Sin embargo, no es posible encontrar un cuark ais-lado por razones que
explicaremos en la siguiente sección.
En la actualidad se
piensa que existen seis tipos de cuarks agrupados en tres familias. Como había
que bautizarlos de al-guna manera, los físicos inventaron los nombres de up y down para
los cuarks de la primera familia, strange y charmed para
los de la segunda, y top y bottom para los de
la tercera. Estos nombres traducidos al español serían: arriba, abajo, extraño,
encantado, tope, fondo y corresponden a los distintos tipos de cuarks.
Además, a cada tipo se le llamó sabor. Por supuesto, tales nombres
no deben tomarse literalmente. Para fines más prácticos y conservadores, es
suficiente designar los cuarks con las letras u, d, s, c, t, b. Y,
por supuesto, cada cuark tiene un anticuark asociado, con las
mismas propiedades excepto la carga eléctrica que es de signo
contrario (por ejemplo, la carga del cuark d es de menos un
tercio la carga del electrón, y la carga del anticuark d es
de más un tercio esa carga).
44
Hasta la fecha, se han encontrado evidencias experimentales de la
existencia de todos esos cuarks, excepto del cuark t. Además,
podría haber aún otras familias de cuarks, aunque los experimentos más
recientes indican que tres es el número tope de familias escogido por la
naturaleza (por alguna razón que hasta ahora desconocemos).
Todas las
partículas que son susceptibles de interactuar fuerte-mente entre sí están
hechas de cuarks, y son de dos tipos:
BARIONES:
partículas formadas de tres cuarks (protones, neu-trones...)
MESONES: partículas formadas de un
cuark y un anticuark.
Y, por supuesto,
sus correspondientes antipartículas los antiba-riones; por ejemplo, un
antiprotón formado de tres anticuarks.
Todos los mesones
son inestables; por ejemplo, los mesones pi cargados y K que
son los más "longevos", se desintegran en una cienmillonésima de
segundo transformándose finalmente en protones y electrones. En cuanto a los
bariones exóticos tienen vida(s) del orden de las billonésimas de segundo o
me-nos.
Por otra parte,
aquellas partículas que son inmunes a las inter-acciones fuertes son:
LEPTONES: partículas que no están
hechas de cuarks (electro-nes, neutrinos)...
Estos nombres
fueron tomados del griego: barios = pesado, mesos =
intermedio, leptos = ligero.
45
En la Tabla 1 se presenta cada cuark con su carga eléctrica, cuya
magnitud es de uno o dos tercios de la carga del electrón. Además de carga, los
cuarks poseen un espín de 1/2 h, por lo que son fermiones.
TABLA 1
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Cuarks |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
u |
|
d |
|
c |
|
s |
|
t |
|
b |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
carga |
|
2/3 e |
|
-1/3 e |
|
2/3 e |
|
-1/3 e |
|
2/3 e |
|
-1/3 e |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
LEPTONES |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
electrón |
|
neutrino |
|
muon |
|
neutrino |
|
tauón |
|
neutrino |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
electrónico |
|
|
|
muónico |
|
|
|
tauónico |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
carga |
|
-e |
|
o |
|
-e |
|
o |
|
-e |
|
o |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Un protón está
formado por dos cuarks u y un cuark d (cuyas
cargas sumadas dan + e) mientras que un neutrón está hecho de un
cuark u y dos cuarks d (carga total cero).
Una partícula ex-ótica como el ++ consta de tres cuarks u y
posee una carga de 2e. Por otra parte, un mesón + consta de un
cuark d y un anti-cuark u, etcétera.
46
Como ya mencionamos, se conocen tres grandes familias de cuarks, y cada
familia posee dos cuarks. Por una simetría con la naturaleza que aún no se
explica, también existen tres gran-des familias de leptones. La primera familia
comprende al bien conocido electrón; en la segunda familia tenemos la partícula
llamada muon —que se designa con la letra griega µ —, cuya masa es unas 207
veces la del electrón; finalmente tenemos la tercera familia, con una
pesadísima partícula llamada tauón — por la letra griega — , cuya masa equivale
a la de unos 3 500 electrones, ¡más pesada que un protón a pesar de ser un
leptón! Un muon tarda en promedio unas dos millonésimas de segundo para
transformarse en un electrón, mientras que un tauón tarda 3 X 10 -13 segundos para
trasformarse en un muon.
En cuanto al
neutrino, este es el momento de aclarar que, en realidad, existen tres clases
de neutrinos, cada uno esta asocia-do con los electrones, los muones y los
tauones respectivamen-te; el neutrino electrónico sólo interactúa con el
electrón, el neutrino muónico con el muon y el neutrino tauónico con el tauón.
Cada uno de estos tres neutrinos pertenece a una de las tres familias de
leptones.
En la Tabla 1
también presentamos los leptones, para beneficio de aquellos lectores que ya se
perdieron en el zoológico de las partículas elementales. Pero, finalmente, seis
cuarks, seis lep-tones y sus antipartículas dan un total de 24 partículas, que
no es un número demasiado grande.
El lector atento
habrá notado que el mundo tal como lo cono-cemos podría muy bien existir con
sólo la primera familia de cuarks y leptones; despues de todo, nuestro mundo,
incluyendo nosotros mismos está hecho de electrones, cuarks u y
cuarks d. Además, el Sol y las demás estrellas brillan por procesos
de fusión nuclear en los que intervienen neutrinos electrónicos.
47
¿Para qué sirven las otras familias de partículas? ¿Sólo para complicar
la vida de los físicos? La existencia de tres familias fundamentales de
fermiones aún no se explica satisfactoria-mente.
Y, finalmente, cabe
la pregunta de si los cuarks están hechos a su vez de partículas más pequeñas.
¿Y ésas de otras aún más pequeñas? ¿Dónde acaba la Sucesión? Afortunadamente ya
se tienen evidencias experimentales de que sólo hay tres familias de cuarks y
leptones, y, por lo tanto, el número de tipos de cuarks no excede de seis.
Gracias a este reducido número, te-nemos la esperanza de que los cuarks sean
realmente los cons-tituyentes básicos de la materia.
INTERACCIONES DE "COLOR"
Cuando Gell-Mann y
Zweig propusieron por primera vez la teoría de los cuarks los físicos
experimentales se pusieron a buscar estas partículas con sus aceleradores, pero
nunca pudie-ron encontrar un cuark aislado. Sólo quedaban dos posibilida-des: o
los cuarks sencillamente no existen o, por alguna razón física, los cuarks no
pueden estar aislados. Muchos físicos habrían aceptado la primera opción si no
fuera por los experi-mentos que mostraban que los protones y neutrones sí
tienen una estructura más fundamental. Finalmente, a mediados de los años
setenta surgió una nueva teoría de las interacciones entre los cuarks, que
implicaba que éstas, efectivamente, no pueden existir aisladas.
Para quitar un
electrón de un átomo, o un protón de un núcleo, se necesita invertir cierta
cantidad de energía. En el caso de los cuarks, éstos se mantienen unidos por
medio de una fuerza que, además de ser extremadamente intensa, tienen una
peculiari-
48
dad: aumenta con la distancia. Podemos pensar en esta fuerza entre
cuarks como una especie de resorte: mientras más se esti-ra mayor es la fuerza
con que jala el resorte. Si dos partículas están unidas por un resorte y se
intenta separarlas estirándolo lo más posible, llega un momento en el que se
rompe. Algo pare-cido sucede con los cuarks: el "resorte" que los une
se puede estirar hasta "romperse", pero la energía necesaria para
ello es tan grande que con esa misma energía, se crean dos nuevos cuarks en las
"puntas" rotas del resorte — gracias, una vez más, a la equivalencia
entre masa y energía. Esta es, a grandes ras-gos, la razón por la que es
imposible tener un cuark aislado en la naturaleza.
¿Cuál es la
naturaleza de esa poderosísima interacción entre los cuarks? Al igual que otras
partículas, los cuarks poseen una carga eléctrica, pero, además, tienen otro
tipo de "carga" que aparece en tres tipos, cada uno
en positivo y negativo. Como había que llamar de algún modo a esa nueva
característica, los físicos inventaron el concepto de color para designarla.
Sobra decir que esto no tiene nada que ver con propiedades visuales, pero el
concepto ha sido muy útil para describir las propiedades de los cuarks y las
partículas que forman.
Antes de seguir con
los cuarks, hagamos un breve paréntesis para recordar la teoría de los colores
(los verdaderos). Los tres colores primarios son el verde, el azul y el rojo.
Estos tres colo-res, al mezclarse en forma de luz, y en la misma proporción, producen
el color blanco. 16
49
Figura 7. Colores
primarios y complementarios.
Después de esta
digresión cromática, volvamos a los cuarks. Cada cuark posee una carga de
color, que es uno de los tres colores primarios. Una regla básica es que las
partículas hechas de cuarks son enteramente blancas, en el sentido de que sus
colores se tienen que combinar para producir el color blanco. Por ejemplo, un
protón está hecho de dos cuarks u y un cuark d;
uno de estos cuarks tiene que ser azul, otro verde y el tercero rojo;
no se puede tener, por ejemplo, dos cuarks azules y un tercero rojo. En la
naturaleza sólo existen partículas blancas.
La analogía de la
carga de color se puede extender hasta los anticuarks si interpretamos al
"anticolor" como el color com-plementario. Por ejemplo, un mesón
puede estar formado por un cuark azul y un anticuark amarillo ( que sería
"antiazul").
La situación se
asemeja a la de los átomos. El núcleo tiene car-ga, eléctrica positiva,
mientras que los electrones poseen carga negativa. En los átomos neutros, como
son la mayoría de los
50
que encontramos en la Tierra, la carga de los electrones com-pensa
exactamente la de los protones. Un átomo neutro sería el equivalente de una
partícula "blanca". La diferencia fundamen-tal es que en la
naturaleza sí existen átomos no neutros (iones) que tienen menos electrones que
protones, pero no se puede "colorear" una partícula porque no se
puede despegar un cuark de otro. No existe algo tal como un "ion de
colores".
Ahora veamos cómo
interactúan los cuarks "coloreados". Sa-bemos ya que el fotón es la
partícula que transmite la fuerza electromagnética entre dos partículas
cargadas eléctricamente. En el caso de los cuarks se tienen no una sino ocho partículas
que transmiten la fuerza entre los cuarks de colores. Como hab-ía que ponerles
algún nombre a estas partículas, se les bautizó con el nombre de gluones, que
proviene de la palabra inglesa glue "pegamento".
Los gluones son las partículas asociadas a los
"resortes " que unen a los cuarks entre sí.
Al igual que los
fotones, los gluones no poseen masa. Sin em-bargo, el concepto de masa para un
cuark o un gluon no es sen-cillo, ya que estas partículas no pueden existir
aisladas en la naturaleza y la energía de los gluones es inseparable de la masa
del cuark. Cuando mucho, se puede interpretar la masa de un cuark como un
parámetro en la teoría. Con esta aclaración, podemos situar la masa de un
cuark d entre una y tres cienmilé-simas de la masa del
electrón, mientras que el cuark b es unas cinco veces más
masiva que el protón, y el cuark t, que todavía no se ha detectado,
debería tener una masa superior cien veces a la del protón.
En resumen, la
interacción de color entre cuarks se debe a los gluones, que son los cuantos
del campo de color. La llamada interacción nuclear, o interacción fuerte, es
una manifestación de lo que en la actualidad se conoce como interacción de
color.
51
La parte de la física que estudia esa interacción se llama cro-modinámica que
proviene de la palabra griega cromos, "color".
INTERACCIONES ELECTRODÉBILES
¿Por qué existen en
la naturaleza sólo cuatro tipos de interac-ciones entre las partículas y no
algún otro número? Después de todo, hasta antes de Faraday y Maxwell se pensaba
que las in-teracciones eléctricas y magnéticas no tienen relación entre sí, pero
luego quedó en evidencia que son dos aspectos de un mismo tipo de interacción:
la electromagnética . ¿No podría suceder algo parecido con las cuatro
interacciones conocidas? El mismo Albert Einstein pensaba que la gravitación y
el elec-tromagnetismo podrían unificarse en una sola interacción y dedicó casi
la segunda mitad de su vida a buscar una teoría unificada de estas dos fuerzas.
Pero su búsqueda fue infructuo-sa y durante mucho tiempo se perdieron las
esperanzas de lle-gar a unificar las interacciones.
En 1967 apareció un
pequeño artículo científico en el que su autor, Steven Weinberg, proponía una
teoría unificada de las interacciones electromagnética y... débiles. Esa teoría
fue des-arrollada posteriormente por Abdus Salam, Gerard't Hooft, Sheldon Glashow,
entre otros físicos. La predicción básica, y de la que dependía la validez de
la nueva teoría, era la existen-cia de unas partículas de tipo bosón que median
la interacción débil, tal como el fotón media la interacción electromagnética.
A diferencia de los fotones, estas partículas deberían ser extre-madamente
pesadas, casi 100 veces más masivas que un protón.
Y, efectivamente
estas partículas predichas por la teoría fueron descubiertas en 1976, lo cual
les valió a Weinberg, Salam y
52
Glashow el Premio Nobel de física en 1979, y en 1984 lo obtu-vieron
también sus descubridores experimentales Rubia y Van der Meer . Estas
partículas se conocen ahora como bosones W y Z. Hay dos tipos de bosones W, uno
con carga eléctrica posi-tiva y otro negativa (de la misma magnitud que la
carga del electrón), mientras que el bosón Z es neutro. La masa de los dos
bosones W es de 87 veces la del protón y la del bosón Z es de 95 veces.
¿Pero cómo pueden
partículas tan masivas intervenir en la in-teracción de partículas muchísimo
más ligeras, como los elec-trones o los neutrinos? ¿Acaso surge masa de la nada
? La res-puesta está en el principio de incertidumbre de
Heisenberg,17
Según el principio
de incertidumbre existe un límite natural a la precisión con la que se pueden
determinar simultáneamente la velocidad y la posición de una partícula. Esta
incertidumbre no se debe a nuestras limitaciones observacionales, sino que es
inherente a la naturaleza misma. Si determinamos con mucha precisión la
posición de una partícula perderemos precisión en su velocidad, y viceversa.
Otra versión del
principio de incertidumbre es la siguiente: la energía de una partícula y el
tiempo durante el cual posee tal energía no se pueden determinar
simultáneamente con absoluta precisión. En consecuencia, nada impide que se
creen y destru-yan continuamente partículas del vació mismo; debido a la
equivalencia entre masa y energía (E = mc ²) una partícula 100
veces más pesada que un protón puede surgir de la nada y des-aparecer en un
tiempo menor a 10 -27 segundos. Este es justo el caso de las interacciones
débiles entre partículas: las W y Z se crean y desaparecen tan rápidamente que
sus enormes masas
53
pasan inadvertidas. Además, debido a esa vida tan corta las W y Z sólo
pueden viajar una distancia extremadamente corta, razón por la cual las
interacciones débiles son de muy corto alcance.
De acuerdo con la
teoría de Weinberg y Salam, las interaccio-nes electrodébiles se producen por
cuatro tipos de partículas: el fotón, los bosones W positivo y negativo, y el
bosón Z. De estas cuatro partículas nuestro viejo conocido, el fotón, no po-see
masa, mientras que las otras tres son extremadamente ma-sivas. ¿Por qué hay una
diferencia tan fundamental? ¿Qué pro-duce la masa de esos bosones tan pesados?
Una posible expli-cación podría estar relacionada con la existencia del
llamado campo de Higgs, que presentaremos a continuación.
EL CAMPO DE HIGGS
Para explicar la
gran masa de los bosones W y Z, Weinberg y Salam tuvieron que recurrir a una
vieja idea de Peter W. Higgs para producir la masa de las partículas
elementales. Según esta hipótesis, el espacio estaría lleno de un campo —¡uno
más!— que interactúa con las partículas y genera sus masas. A estas alturas, el
lector ya debe estar acostumbrado a la idea de los campos cuánticos que permean
todo el espacio, al estilo del éter de los siglos anteriores, por lo que no
debe sorprenderse ante la aparición de un nuevo campo. Sin embargo, este campo
tiene una característica nueva que explicaremos a continuación.
Hagamos una
analogía con el campo eléctrico. Este campo tiene una intensidad, que
se puede definir con toda precisión como la fuerza que ejerce sobre una
partícula con una carga dada. Donde hay campo hay fuerza sobre partículas y,
además, hay energía: la asociada a los fotones del campo eléctrico. In-
54
tuitivamente, uno esperaría que mientras más intenso fuera el campo
mayor sería su energía. Y efectivamente, así sucede; si designamos la
intensidad del campo eléctrico en un punto dado con la letra Ø, la energía del
campo en ese punto resulta pro-porcional a ز. La figura 8(a) muestra una
gráfica que relacio-na la energía con la intensidad del campo. Nótese el hecho
muy importante de que, si la intensidad del campo es cero, entonces la energía
también es cero. Esto parece trivial: si no hay fuerza, tampoco hay energía.
Figura 8. Relación
entre energía e intensidad de campo.
Pero la afirmación
anterior no es tan trivial como parece. En efecto, podría existir algún campo
cuya energía fuera cero pero no su intensidad. Ese sería el
caso si la relación entre energía e intensidad es un poco más
complicada que en el caso del cam-po eléctrico, en particular como la que se
muestra en la figura 8(b). Ese es justamente el caso del campo de Higgs.
55
Supongamos que estamos en el vacío total. Por definición, la energía del
vacío debe ser el mínimo posible: cero. ¿Cuánto vale la intensidad del campo de
Higgs en el vacío? De acuerdo con la figura 8(b) la intensidad del campo de
Higgs en el vacío no es cero.
Pero ¿qué se
entiende exactamente por intensidad del campo de Higgs? Después de todo, esa
intensidad es una forma más de energía; pero si el vacío no posee energía,
¿dónde está la energ-ía asociada a la intensidad? La respuesta es que esa
intensidad toma forma de masa: ¡es la masa de las partículas W y Z! De hecho,
hay tres campos de Higgs, uno para cada partícula —W positivo W negativo y Z —
y la masa de estas partículas co-
rresponde a
El modelo de Higgs
parece muy rebuscado, pero funciona. En realidad la idea proviene de un modelo
que describe la super-conductividad eléctrica a muy baja temperatura —un tema
de la física en apariencia muy alejado de las partículas elementa-les— y que demostró
ser una interpretación correcta de ese importante fenómeno físico. Un mecanismo
como el propuesto por Higgs está relacionado con lo que se conoce como cambio
de fase, son las transiciones del hielo al agua y del agua al va-por, que
ocurren a las temperaturas críticas de 0 y 100 grados centígrados
respectivamente.
Precisamente la
energía del campo de Higgs depende también de la temperatura de la forma en que
se muestra en la figura 9. Arriba de una cierta temperatura crítica la energía
de campo de Higgs es la mínima posible cuando la intensidad del campo es cero; si
no hay campo no hay energía (o ésta es la mínima po-sible). Pero a una
temperatura menor que la crítica se tiene la
56
situación descrita un poco más arriba: donde no hay energía sí hay una
intensidad de campo.l8
Figura 9. Energía
del campo de Higgs a diferentes temperaturas.
En el caso de las
interacciones electrodébiles, la temperatura crítica corresponde a unos 1015 grados
Kelvin, una temperatura qué sólo pudo existir en los primeros microsegundos del
Uni-verso, como veremos más adelante. Por arriba de esa tempera-tura crítica el
campo de Higgs no actuaba todavía y ninguna de las partículas W y Z poseían
masa; nada las distinguía del fotón y las interacciones débiles eran idénticas
a las electromagnéti-cas. Pero a la temperatura crítica se produce un auténtico
cam-bio de fase y, por debajo de esa temperatura, el campo de Higgs genera la
masa de las partículas W y Z. Sólo el fotón se queda sin masa. Las W y Z son
casi 100 veces más masivas que un protón, lo cual indica que la intensidad del
campo de
57
Higgs es extremadamente alta, en comparación con la de otros campos.
Además, todo campo
cuántico por supuesto vibra y sus vibra-ciones son ondas y partículas a la vez.
Las vibraciones del campo de Higgs son partículas: los bosones de Higgs.
Infortu-nadamente, hasta ahora estos bosones no han sido detectados. La razón
es que la masa de un bosón de Higgs debe ser muy grande, probablemente algunos
cientos de veces la masa de un protón, y los aceleradores actuales de
partículas no generan suficiente energía para producir tales partículas.
Los bosones de
Higgs, junto con los cuarks t, son la única pieza fundamental del
rompecabezas que falta para tener un modelo coherente de las partículas
elementales. A pesar de ese hueco, la teoría funciona muy bien y se le conoce
como el modelo estándar. Incluso algunos físicos han
especulado que un meca-nismo como el de Higgs podría explicar la masa de todas las
partículas: el espacio estaría lleno de varios campos de Higgs cuyo estado de
mínima energía — es decir, el vacío— tendría una intensidad que generara la
masa de todas las partículas en el Universo.
Para encontrar en
los bosones de Higgs los físicos tienen la esperanza de contar en el futuro con
lo que sería el instrumento científico más costoso de la historia: el
super colisionador su-per conductor (SCS). Con un costo de 10 000 000
000 de dóla-res, este aparato gigantesco está programado para entrar en
operaciones en el año 2002, sino hay contratiempos, 19
58
tones alcanzarán velocidades muy cercanas a la velocidad de la luz y
chocarán entre sí, produciendo nuevas partículas de un tipo jamás observado
hasta ahora.
Uno de los
propósitos del SCS sería encontrar las elusivas partículas de Higgs. Si se
descubren confirmarían en forma espectacular la validez del modelo estándar. En
caso contrario, la conclusión sería que estas partículas son demasiado masivas
para producirse en un colisionador, incluso uno como el SCS o que,
sencillamente no existen, en cuyo caso habría que buscar una teoría mejor. De
todos modos, una parte de la comunidad científica opina que bien vale la pena
construir el SCS para no quedarse con la duda, aunque otra parte lamenta su
enorme costo y piensa que podría destinarse a algo mejor.
EL VACÍO CUÁNTICO
¿Qué es el vacío?
Ha llegado el momento de replantear esta pregunta. En la física clásica el
vacío es sencillamente la au-sencia de todo, pero en el mundo cuántico este
concepto no es tan trivial. Dada la existencia de los campos y sus vibraciones
el vacío cuántico se parece a todo menos a la idea instintiva del vacío.
El espacio está
lleno de campos: gravitacionales, electromagné-ticos, de colores, de Higgs...
Estos campos vibran y tienen fluc-tuaciones, como las olas en el agua. En la
física clásica es per-fectamente posible concebir un estanque de agua en reposo
absoluto, sin ninguna fluctuación. Pero los campos cuánticos nunca pueden estar
en absoluto reposo; siempre están fluctuan-do por las peculiaridades del mundo
cuántico.
El principio de
incertidumbre de Heisenberg impone condicio-nes a la realidad, que son
inherentes a la naturaleza misma.
59
Una de sus consecuencias es el hecho de que una partícula no puede estar
en reposo absoluto, ya que eso implicaría que está en todas partes en el
Universo. En efecto, si la velocidad de la partícula es cero con absoluta
precisión entonces la incerti-dumbre en su posición es infinita. Y
recíprocamente, si su po-sición está restringida a una cierta región del
espacio su veloci-dad no puede ser absolutamente nula.
El principio de
incertidumbre también se aplica a los campos, o más precisamente, a sus
fluctuaciones. Un campo cuántico po-see necesariamente fluctuaciones cuánticas,
y éstas se pueden interpretar como partículas que se crean y se destruyen en un
tiempo demasiado corto para ser detectadas. Hay que aclarar, sin embargo, que
la carga eléctrica no obedece a ningún princi-pio de incertidumbre. Por lo
tanto, como no se puede crear o destruir una carga eléctrica las partículas que
se producen por fluctuaciones cuánticas deben ser eléctricamente neutras o
apa-recer en pares de partícula y antipartícula, de tal modo que la carga total
de la fluctuación sea nula. Por ejemplo, una pareja electrón-positrón puede
surgir espontáneamente y desaparecer en un tiempo menor a 10-22 segundos.
Así, el
"vacío" de la mecánica cuántica, está repleto de fluctua-ciones de
campos y de partículas que aparecen y desaparecen burlándose de la ley de
conservación de la masa, encubiertas por el principio de incertidumbre de
Heisenberg. Tales partícu-las, por principio indetectables, se llaman partículas
virtuales.
La presencia de
fluctuaciones cuánticas en el vacío origina im-portantes problemas
conceptuales. Por lo pronto, el vacío cuán-tico recuerda más bien al famoso
éter del siglo pasado. En rea-lidad, es sólo una cuestión semántica si el éter
de los físicos de antaño es el vacío cuántico de ahora. Debemos insistir, en
que el vacío cuántico no es un concepto metafísico: aunque las
60
fluctuaciones cuánticas y las partículas virtuales no puedan observarse
de manera directa, producen efectos físicos perfec-tamente reales y que se han
medido de modo experimental. El tema de estos fenómenos cuánticos empero,
rebasa los propósi-tos del presente libro.
61
IV. LAS SIMETRÍAS DEL MUNDO CUÁNTICO
LAS partículas y
los campos del mundo cuántico poseen, además de sus propiedades dinámicas,
ciertas simetrías que facilitan la comprensión de lo que sucede en ese nivel de
la realidad. Las tres simetrías fundamentales están relacionadas con el
espacio, el tiempo y la antimateria. Este es el tema del presente capítulo.
PARIDAD
Si miramos el mundo
en un espejo vemos otro mundo en el que los lados derecho e izquierdo están
intercambiados, pero donde todo se mueve de acuerdo con las leyes de la física
que cono-cemos. En principio, no hay ningún experimento que nos per-mita distinguir
entre el mundo real y su imagen especular. Si filmamos una película
directamente y otra a través de un espejo y las proyectamos, es imposible
distinguir cual de las dos co-rresponde al mundo real (por supuesto que en una
de éstas los letreros aparecerán al revés, pero ninguna ley de la naturaleza
nos impide escribir al revés para engañar a la audiencia). Esta invariancia de
las leyes de la física ante reflexiones se llama simetría de paridad,
o simetría P.
Hasta los años
cincuenta se creía que la simetría de paridad es una de las leyes fundamentales
de la física. Pero en 1955 los físicos T. D. Lee y C. N. Yang descubrieron que
no es así. Para esa época ya se habían detectado fenómenos curiosos que
ocurrían con los neutrinos. Lee y Yang demostraron de manera
62
concluyente que en el decaimiento beta del neutrón, producido por las
interacciones débiles, no se conserva la paridad.
Imaginemos un reloj
transparente en el que sólo se ven las ma-necillas. Viendo en qué sentido se
mueven éstas, se puede de-terminar de qué lado hay que poner la carátula
(Figura 10). O sea, la rotación define una dirección particular en el espacio:
ésta sería la dirección perpendicular a la carátula. Pero si se ven las mismas
manecillas en un espejo sin saberlo se pensará que la carátula se encuentra en
el otro lado.
Figura 10. La
rotación define una dirección en el espacio.
Volviendo al
decaimiento beta, un neutrón (aislado o en un núcleo atómico) se transforma
espontáneamente en un protón, un electrón y un antineutrino. Ahora bien, el
núcleo gira como un trompo —más precisamente, posee un espín— y ese giro define
una dirección particular. Lee y Yang descubrieron expe-rimentalmente que, en
promedio, los electrones se emiten más
63
hacia una dirección (definida por la rotación —o espín— del núcleo) que
en otra. Visto en un espejo, el decaimiento beta de un conjunto de núcleos
sería igual que en el mundo real.
Los neutrinos
violan completamente la simetría de la paridad. Esto a su vez, permite
distinguir un neutrino de un antineutrino, a pesar de que estas partículas no
poseen carga eléctrica. Como ya mencionamos el neutrino posee un espín, es
decir como si estuviera girando sobre sí mismo. Lo que sí distingue un
neu-trino de un antineutrino es el sentido en el que gira. Esto se ilustra en
la figura 10: vistos desde atrás con respecto a la di-rección de un movimiento,
un neutrino gira en sentido contra-rio al de las manecillas de un reloj y un
antineutrino en el otro sentido.20
CARGA
Lo que acabamos de
mencionar con respecto al neutrino está relacionado, más generalmente, con el
hecho de que existe otra simetría en la naturaleza relacionada con el
intercambio de car-ga eléctrica. La fuerza eléctrica entre dos cargas positivas
es exactamente la misma que entre dos cargas negativas. En gene-ral, a esta
invariancia se le llama conjugación de carga, o si-
64
metría C, e implica que las fuerzas de la naturaleza no se alte-ran si
se intercambian partículas y antipartículas. Si por algún milagro todas las
cargas positivas en el Universo se transfor-maran en negativas y éstas en
positivas, el comportamiento del Universo no cambiaría en nada. De la misma
manera, si una galaxia lejana está compuesta de antimateria no se distinguiría
de una de materia porque la interacción de la luz con la materia y con la
antimateria es idéntica.
La simetría C
parecía ser otra de las propiedades fundamenta-les de la naturaleza hasta que
la violación de la paridad puso a los físicos a dudar al respecto. Y, en
efecto, resulta que también la simetría C es violada en las interacciones
débiles.
Sin embargo, lo que
sí parece que se conserva es una combina-ción de simetrías C y P. Esto quiere
decir que si vemos el mun-do en el espejo y, al mismo tiempo, intercambiamos
partículas por antipartículas el resultado es un mundo en el que se cum-plen las
mismas leyes de la naturaleza. En el ejemplo de los neutrinos un neutrino
reflejado en un espejo tiene exactamente el mismo comportamiento que un
antineutrino.
TIEMPO
Otra simetría que
ocurre en la naturaleza tiene que ver con el tiempo. La leyes de la física son
las mismas si el tiempo trans-curre del pasado o al revés. ¡Pero esto no es lo
que se observa comúnmente! Para comprender de qué se trata esta simetría temporal
veamos primero en qué consiste la dirección del tiempo.
El tiempo fluye del
pasado al futuro y nosotros somos viajeros en el tiempo. Pero nuestro viaje es
en una sola dirección. A diferencia del espacio común, en el que podemos
movernos en
65
cualquier sentido, es imposible remontar la corriente del tiem-po y
regresar al pasado.
Todo lo anterior
parece obvio y de sentido común. Pero la pre-gunta ¿por qué el tiempo corre en
una sola dirección? no resul-ta tan trivial si se examina más de cerca. En
efecto, las leyes de la naturaleza que los físicos ahora (con una pequeña
excepción que veremos más adelante) no implican de ningún modo que el tiempo
tenga que fluir en un sentido o en otro. Esas mismas leyes describen a la
perfección el comportamiento de la mate-ria, pero la dirección del tiempo está
escondida en alguna re-gión aún mal comprendida por la ciencia moderna.
Supongamos que
filmamos el movimiento de los planetas alre-dedor del Sol y proyectamos una
película al revés. Veríamos una película de un proceso físico en el que se ha
invertido el sentido del tiempo. Pero este proceso también es perfectamente
posible: los planetas se verían girando en sentido contrario sin que se viole
ninguna ley conocida de la física. Un hipotético astrónomo de otra galaxia que
vea esa película no podría de-terminar, por mucho que la estudie, si está
proyectada en el sentido correcto o no.
Podemos repetir el
experimento filmando lo que sucede nor-malmente en nuestro alrededor. En una
película de la vida coti-diana proyectada al revés se ve, por ejemplo, a la
gente cami-nando hacia atrás pero esto no contradice ninguna ley física. En
efecto, cualquiera puede caminar al revés, así que ¿cómo saber que los
personajes de la película no lo hicieron a propósito para engañar al público?
Sin embargo,
existen procesos que no dan lugar a dudas. Por ejemplo, un vaso que derrama su
contenido por el suelo, filma-do y proyectado al revés se ve de la siguiente
manera: el charco en el suelo súbitamente se junta, forma una bola de líquido y
66
ésta brinca al interior del vaso. Evidentemente, cualquiera que vea tal
fenómeno en la pantalla adivinará que la película está invertida.
Pero aquí surge un
problema muy importante. El agua en el vaso consta de millones de moléculas
unidas entre sí por fuer-zas electromagnéticas que se mueven y vibran en todos
los sentidos. Visto a través de un microscopio muy potente ese movimiento
azaroso de las moléculas tiene el mismo aspecto del vaso que cuando el charco
se junta para brincar al interior del mismo. En el mundo microscópico no existe
distinción en-tre pasado y futuro, porque la leyes de la física no dependen del
sentido en que corre el tiempo. Es imposible determinar si la filmación de unas
moléculas en movimiento e interactuando entre sí se está proyectando en el
sentido correcto o no.
La conclusión de lo
anterior es que la dirección del tiempo ser-ía una propiedad exclusivamente estadística.
Explicaremos a continuación el sentido de esta afirmación.
Para investigar las
propiedades de un conjunto muy grande de objetos o individuos se recurre a la
estadística. Por ejemplo, para a estudiar la población de un país se utilizan
datos como número de habitantes, porcentaje de la población dedicada a tal o cual
actividad, edad promedio, distribución de ingresos etc. Tal información es
mucho más útil que un registro detallado de cada individuo. Lo mismo ocurre en
la física: los objetos que vemos y utilizamos diariamente están constituidos de
billones y trillones de moléculas y átomos, cuyo registro individual es
imposible. Tiene más sentido estudiar las propiedades globales de la
naturaleza.
Es evidente que la
historia de un país evoluciona de modo tal que el pasado antecede al futuro,
pero sería absurdo afirmar que los individuos que componen una nación no
distinguen
67
entre pasado y futuro. Y, sin embargo, tal situación aparente-mente
absurda es propia del mundo físico: los cuerpos ma-croscópicos evolucionan en
una dirección en el tiempo, pero ¡las moléculas y los átomos no distinguen
entre pasado y futu-ro!.
Tal parece entonces
que la dirección del tiempo es un concepto puramente estadístico. En el siglo
pasado los físicos empezaron a aplicar conceptos de estadística al estudio de
la materia. Des-cubrieron, por ejemplo, que la temperatura de un cuerpo está relacionada
con la energía promedio de las moléculas que lo componen. También descubrieron
otras propiedades estadísti-cas de la naturaleza, la más interesante de las
cuales es la en-tropía, que está directamente relacionada con
la dirección del tiempo.
La entropía es en
cierto sentido, una medida del desorden de un sistema. Supongamos, por ejemplo,
que recortamos una por una las letras de esta página y las revolvemos; el
resultado será muy probablemente un revoltijo de letras sin sentido. Pero es
muy poco probable que ocurra lo contrario: si revolvemos al azar un conjunto de
letras sería un milagro que apareciera un texto coherente. En el lenguaje de la
física el texto con sentido tiene poca entropía, mientras que el revoltijo de
letras tiene una entropía alta (la entropía se interpreta también como una
medi-da inversa de la cantidad de información que posee un siste-ma). Ahora
bien, parece ser una ley fundamental de la natura-leza que la entropía total de
un sistema siempre aumenta con el tiempo; esto se conoce como
la segunda ley de la termodinámi-ca. Sin embargo, ésta es una ley
estadística que sólo tiene sen-tido aplicada a conjuntos muy grandes de
moléculas, aisladas del resto del Universo.
68
La segunda ley de la termodinámica define una dirección del tiempo y es,
de hecho, la única ley conocida de la naturaleza en la que aparece una
distribución entre pasado y futuro. Pero la entropía es un concepto puramente
estadístico y no se puede aplicar a una molécula sola. El problema de la
dirección del tiempo sigue sin ser resuelto en el nivel microscópico.
Regresemos al
ejemplo del vaso que derrama su contenido. El agua en el vaso tiene una
entropía relativamente baja y el char-co una alta. Pero, en principio, se
podría dar el caso en que los billones de moléculas que componen el charco
adquieran tal movimiento que todas se junten y brinquen al interior del vaso.
De acuerdo con las leyes de la física esto sí puede suceder. Si nunca se ha
presenciado algo así es porque la probabilidad de que tal coordinación del
movimiento molecular ocurra es ex-tremadamente baja.
La probabilidad se
puede medir con precisión. En un volado la probabilidad de ganar es de uno en
dos, porque se escoge un resultado de dos posibles (águila o sol). Si se compra
un boleto de la lotería y la rifa consta de 50 000 boletos la probabilidad de
ganar el premio principal es de uno en 50 000. ¿Cuál es la probabilidad de que
no se cumpla la segunda ley de la termo-dinámica? Se puede calcular, por
ejemplo, que la probabilidad de que el agua de un charco se junte y salte
súbitamente es de uno en... un número tan grande que se necesitarían ¡billones
de billones de cifras para escribirlo!21
En sentido
estricto, la segunda ley estipula que es abrumado-ramente más probable que la
entropía aumente, pero no exclu-ye la posibilidad de milagros. Si la única
forma de definir la dirección del equipo es por medio de la segunda ley,
entonces
69
la conclusión es que la distinción entre pasado y futuro se apli-ca sólo
a conjuntos muy grandes de partículas y es una cuestión de suerte, aunque la
suerte esté muy inclinada hacia un lado. En resumen, la simetría entre pasado y
futuro no ocurre en el nivel cuántico. Los fenómenos cuánticos satisfacen la
llamada simetría T.
CPT
Y así tenemos tres
simetrías fundamentales: C, P y T. A partir de los años cincuenta, sabemos que
C y P no son simetrías válidas, pero una combinación de ellas sí lo es. Pero,
además, con base en consideraciones extremadamente generales se pue-de demostrar
matemáticamente que cualquier fenómeno físico, independiente de la clase de
interacción, debe satisfacer una combinación de simetrías C, P y T. Éste es el
importante teo-rema CPT.
Si en nuestro
universo intercambiamos partículas, invertimos la dirección del tiempo y
miramos el resultado en un espejo, lo que veríamos es un universo que se
comporta exactamente co-mo el nuestro. Esto, por supuesto a nivel cuántico,
donde no existe una dirección del tiempo privilegiada.
Las interacciones
débiles violan las simetrías C y P por separa-do, pero no las dos combinadas.
En un decaimiento beta, por ejemplo, el proceso de transformación de un neutrón
en un protón, un electrón y un antineutrino, visto en un espejo, tiene
exactamente el mismo comportamiento que el decaimento de un antineutrón en un
antiprotón, un positrón y un neutrino.
El hecho de que se
conserve la combinación de simetrías C y P implica, por el teorema CPT, que se
conserva la simetría T por separado. Para que haya una distinción entre pasado
y futuro se
70
debe encontrar algún fenómeno en el que se viole la simetría CP lo cual
no parecía ocurrir hasta hace algunos años.
En 1964 un grupo de
físicos de la Universidad de Princeton descubrió el primer fenómeno
microscópico en el que existe una dirección privilegiada del tiempo. El
llamado mesón K, una partícula elemental cuya vida promedio es de
apenas una cien-millonésima de segundo, decae en tres partículas más ligeras,
pero el proceso inverso en el tiempo no ocurre. Dicho más pre-cisamente el
antimesón K visto en un espejo no decae como el mesón K cuando se viola la
simetría CP.
Hasta la fecha no
se ha encontrado ningún otro proceso mi-croscópico en el que aparezca una
dirección del tiempo. Sin embargo, los físicos esperan que el fenómeno del
mesón K, por muy insignificante que parezca, pueda dar la clave para
com-prender la dirección del tiempo.
La simetría T ha
dado lugar a varios malentendidos. En efecto, debido a la simetría CP las
antipartículas se comportan como si fueran partículas que se mueven hacia atrás
en el tiempo. Esto ha hecho creer a cierta gente que la antimateria tiene la
direc-ción del tiempo invertida; por ejemplo, en una hipotética ga-laxia de
antimateria ¡el tiempo transcurriría al revés con res-pecto a nosotros! Sin
embargo, como ya señalamos, la direc-ción del tiempo no tiene importancia para
las partículas ele-mentales y sólo se manifiesta en sistemas compuestos. La ley
del aumento de la entropía no distingue entre materia y antima-teria.
El mundo
microscópico de las moléculas y átomos está regido por las leyes de la
física cuántica. Pero el nivel intermedio, que se encuentra
situado entre el mundo cuántico y el mundo ma-croscópico de nuestra experiencia
diaria es todavía un terreno poco conocido. Es posible que sea en ese ámbito de
transición,
71
entre lo grande y lo extremadamente pequeño, donde cobre sentido la
dirección del tiempo. Sea como fuere el problema del sentido del tiempo tiene
implicaciones muy profundas y aun está lejos de haber sido resuelto
satisfactoriamente.
Por otra parte, la
asimetría entre pasado y futuro, que está rela-cionada con una asimetría en el
comportamiento de la materia y de la antimateria, podría influir drásticamente
en la creación de la materia. Volveremos a este problema en el capítulo dedi-cado
a la creación del Universo.
V. MÁS ALLÁ DEL
MODELO
ESTÁNDAR
LA GRAN UNIFICACIÓN
EL ÉXITO de
Weimberg y Salam para unificar las interaccio-nes eléctricas y débiles hizo
renacer el viejo sueño de llegar a una teoría que unifique todas las
interacciones. El hecho de que Einstein haya fracasado en su intento por
unificar la gravita-ción con el electromagnetismo parecía indicar que la
interac-ción gravitacional es la más difícil de tratar, así que ¿por qué no
intentar primero unificar las interacciones fuertes con las electrodébiles y
dejar la gravedad para una mejor ocasión? El ideal se conoce como Teoría
de la Gran Unificación (TGU).
Recapitulemos lo
que debería unificar tal teoría: las interaccio-nes de color entre cuarks,
mediadas por gluones, y las interac-ciones electrodébiles entre leptones y
cuarks, mediadas por fotones y partículas W y Z.
En los años setenta
surgieron varias propuestas acerca de la TGU. Su elemento común es la hipótesis
de que existen partí-culas extremadamente masivas, a las que se llamó partículas X;
que son responsables de mediar entre los leptones, los cuarks y los gluones.
Estas partículas X serían partículas W y Z que, recordemos, adquieren sus masas
de un campo de Higgs.
Para que la teoría
funcione tales partículas X hipotéticas deber-ían obtener su masa a partir
de... ¡otros campos de Higgs! Tendrían una masa de unos 10-10 gramos, lo
cual equivale a la
73
masa de ¡trillones de protones! Y la vida media de tales partí-culas
sería de apenas unas 10-38 segundos.
El campo de Higgs
para estas partículas dejaría de actuar a una temperatura de unos 1027 grados
Kelvin. Por arriba de esa tem-peratura las interacciones fuertes no serían
distinguibles de las electromagnéticas y débiles. Al igual que en la teoría de
Wein-berg-Salam se produciría un cambio de fase a la temperatura mencionada y,
por abajo de ella, las interacciones fuertes se separarían de las
electrodébiles.
Tales temperaturas
sólo pudieron existir en los primeros instan-tes después de la Gran Explosión,
como veremos en el capítulo VII. Crear partículas X en la Tierra está
completamente fuera de toda posibilidad práctica. Los grandes aceleradores
cons-truidos en la actualidad apenas pueden generar partículas W y Z, que son
"sólo" 100 veces más masivas que un protón. En-tonces, ¿las teorías
de la Gran Unificación están condenadas al ámbito únicamente de la cosmología?
Afortunadamente se co-noce al menos una dirección que no está totalmente fuera
de la tecnología actual.
DECAIMIENTO DEL PROTÓN
Una de las
predicciones más importantes de la TGU es que el protón no es eterno; su vida
promedio debería ser de unos 1031 años. De
acuerdo con la teoría mencionada un protón puede decaer espontáneamente en un
positrón y un pion.
Hasta donde se sabe
el protón es una partícula estable ya que aislado, no se transforma en ninguna
otra partícula. También un electrón es absolutamente estable y, aislado, nunca
decae. Por ello la materia es indestructible.
74
Si el protón no es una partícula eterna, ¿cuánto vive en prome-dio? Hace
algunos años los físicos decidieron comprobar con experimentos si esta
partícula es eterna. El motivo no era sólo curiosidad sino confirmar la Teoría
le la Gran Unificación mencionada en la sección anterior.
Evidentemente no
podemos esperar un billón de trillones de años para comprobar si los protones
se transforman en positro-nes. Sin embargo, ésta es una edad promedio. La vida
de un ser humano, por ejemplo, es de unos 70 u 80 años en promedio, pero esto
no implica que todos mueran a esa edad; unos viven más y otros menos; incluso
puede darse el caso de muertes prematuras. Lo mismo sucede con los protones: en
un conjunto de un billón de trillones de estas partículas, uno al año
desapa-recerá en promedio por muerte muy prematura.
En los años ochenta
se empezó a practicar una serie de experi-mentos destinados a descubrir el
decaimiento de un protón. La idea básica era colocar detectores de positrones
en una gran cantidad de agua y esperar la aparición de una de estas
partícu-las. En la práctica se necesitan varios miles de toneladas de agua para
detectar unos cuantos decaimientos al año de proto-nes en positrones y piones.
Además, el agua debe colocarse a gran profundidad debajo de la tierra para
evitar toda contami-nación por los rayos cósmicos provenientes del espacio,
entre los cuales también se encuentran positrones. Así, para detectar la muerte
de los protones se utilizaron minas abandonadas: una en Ohio y otra en Dakota
del Sur, en los EUA, otra mina en Japón, una más en un túnel debajo le los
Alpes, etcétera.
La búsqueda fue
larga y difícil, pero todos los experimentos convergen, hasta ahora, en una
conclusión unánime: no se ha detectado ningún decaimiento de protón. Con base
en los expe-
75
rimentos más recientes, su vida media debe exceder 3 X 1032 años.
Este límite
inferior para la vida promedio del protón descarta la versión original y más
sencilla de la TGU. Sin embargo, una forma modificada de la teoría todavía
podría ser compatible con el resultado de los experimentos. Por ahora, la TGU
es una hipótesis, aunque sus implicaciones para la cosmología son sumamente
interesantes.
Para todo fin
práctico podemos afirmar que el protón es estable y, por lo tanto, la materia
es eterna. Pero ¿qué pasaría si el protón no fuera estrictamente eterno? Su
vida media podría ser, por ejemplo, 1034 años, lo cual
todavía no está descartado por los resultados experimentales. En tal caso,
podemos especular que, dentro de 1034 años la
materia en el Universo empezará a degradarse. Los protones se transformarán en
positrones. Estas partículas, a su vez, al entrar en contacto con los
electrones se aniquilarán totalmente transformándose en luz. Finalmente el
Universo ya no contendrá materia sino sólo luz ¡Imposible imaginar un Universo
más aburrido! Queda la posibilidad de que, antes de que suceda esto, el
Universo se colapse sobre sí mismo para renacer con nueva y fresca materia, lo
cual podría ser factible según la cosmología moderna. Pero para nuestra
experiencia mundana podemos estar seguros de que la materia es, prácticamente,
eterna.
¿GRAVEDAD CUÁNTICA?
Aún no sabemos si
tiene sentido una Gran Unificación como la mencionada antes, pero mientras se
aclara esta duda podemos preguntarnos si la gravedad podría entrar en algún
esquema de unificación. ¿Quizás exista una temperatura de la cual las cua-
76
tro interacciones fundamentales de la naturaleza se encuentran
unificadas? Esto, hasta ahora, es una especulación. El principal escollo es que
no tenemos ninguna idea clara de cómo se com-porta la gravedad a nivel
cuántico.
Para ubicar el
problema veamos cuáles son los límites de la relatividad general. Para ello,
recordemos que las dos constan-tes que entran en esta teoría son G;
la constante de Newton, y c, la velocidad de la luz. En una teoría
cuántica de la gravita-ción,sea cual fuere su forma, tendría que aparecer
también otra constante fundamental para incluir los efectos cuánticos: ésta
sería h, la constante de Planck.
G, c, y h son
las tres constantes fundamentales de la naturaleza y sus valores se han
determinado experimentalmente. El mismo Planck se dio cuenta de que es posible
combinarlas entre sí para obtener unidades de longitud, tiempo y masa. En
efecto, la combinación:
tiene unidades de
longitud y vale unos 10- 33 centímetros; del mismo modo, la
combinación:
tiene unidades de
tiempo y equivale a unos 5 X 10-44 segundos; por
último, la combinación:
tiene unidades de
masa y equivale a unos 5 X 10-5 gramos. La
longitud y el tiempo de Planck son las unidades naturales de un nivel de la
realidad aún desconocido, muchísimo más pequeño que el mundo cuántico. Para
tener una idea sencilla: el tamaño
77
más común de un átomo es de unas 1025 longitudes de
Planck. En el mundo de Planck, la fuerza gravitacional vuelve a ser de
fundamental importancia: los fenómenos cuánticos y gravita-cionales se
relacionan íntimamente entre sí, y ni la mecánica cuántica ni la relatividad
general son válidas por sí solas.
La creencia más
difundida es que la relatividad general se apli-ca en distancias e intervalos
de tiempo mucho mayores que la longitud y el tiempo de Planck, del mismo modo
que la mecá-nica de Newton es válida para objetos mucho más grandes que un
átomo. Por otra parte, la masa de Planck es muchísimo ma-yor que la masa de
cualquier partícula elemental; se piensa que esta masa esta relacionada con la
energía necesaria para "rom-per" una partícula elemental, energía que
queda completamente fuera de todas nuestras posibilidades tecnológicas.
Si el campo
gravitacional es, en realidad, una curvatura del espacio-tiempo debemos suponer
que en el mundo de Planck, donde dominan los efectos cuánticos y
gravitacionales, el espa-cio-tiempo posee fluctuaciones cuánticas como
cualquier cam-po. Así como los océanos presentan aspecto llano y tranquilo
desde el espacio exterior pero poseen olas, turbulencias y tor-mentas a escala
humana, el espacio-tiempo parece liso a gran escala pero es extremadamente
turbulento en el nivel de Planck.
Las fluctuaciones
cuánticas del espacio-tiempo debieron mani-festarse en toda su plenitud durante
los primeros instantes del Universo. Según una hipótesis muy popular en la
actualidad, las mismas galaxias tuvieron su origen en esas fluctuaciones
cuánticas, cuando la edad del Universo era comparable al tiem-po de Plank.
Volveremos a este tema en el capítulo VIII.
Prácticamente desde
que la mecánica cuántica tomó la forma con que se la conoce actualmente muchos
físicos intentaron
78
crear una teoría cuántica de la gravitación. A pesar de varios intentos
interesantes todavía no se tiene una respuesta convin-cente. La gravitación
cuántica es el gran hueco en la física de las interacciones fundamentales.
Incluso algunos se han pre-guntado si tiene sentido hablar de la gravitación a
nivel cuánti-co: ¿quizás esta fuerza fundamental es incompatible con la
mecánica cuántica?, ¿quizás la gravedad es una manifestación de otro fenómeno
insospechado...? Todas éstas son dudas aún sin resolver. Mientras, es justo
señalar que ha habido varios intentos por cuantizar la gravedad. El más
reciente tiene que ver con lo que se conoce como teoría de las
supercuerdas, la cual reseñaremos brevemente a continuación.
LAS SUPERCUERDAS
A principio de los
años setenta algunos físicos tuvieron la idea de concebir cada partícula
elemental como un cierto estado de una cuerda de tamaño subatómico. Esto sería
el equivalente a una cuerda de guitarra que según la frecuencia de su vibración
emite una nota y, cambia al variar la frecuencia. Siguiendo esta analogía las
partículas elementales serían las distintas notas de cuerdas microscópicas.
Esta teoría era,
más que nada, un modelo matemático que per-mitía resolver algunos problemas de
cálculo a los que se en-frentaban los físicos teóricos. En realidad, pocos la
tomaron en serio como una teoría fundamental de la naturaleza. Pero algu-nos
años más tarde surgió una versión mucho más refinada de la teoría de las
cuerdas que causó muchas expectativas entre la comunidad de físicos, pues sus
proponentes prometían nada menos que explicar toda la física.
Nos referimos a la teoría le las supercuerdas.
79
En primer lugar aclaremos que el prefijo súper se
refiere a que la nueva teoría trata en un mismo nivel a los fermiones y a los
bosones, los dos tipos fundamentales de partículas elementales. Fermiones y
bosones tienen propiedades distintas y la clase de matemáticas necesaria para
describir a uno u otro tipo de partí-culas es distinta. Cualquier teoría física
que unifique las dos clases de partículas merece, para los físicos, el
calificativo de súper.
Pero lo más
peculiar de la teoría de las supermoléculas es que estos objetos existen en un
espacio de muchas dimensiones. El número de dimensiones necesarias era nada
menos que ¡24! en las primeras versiones de la teoría (posteriormente bajó a
10). Esto hubiera desanimado a cualquier físico, pero los autores de la teoría
propusieron que nuestro mundo posee realmente más de cuatro dimensiones, de las
cuales nosotros sólo vemos cua-tro, por razones que explicaremos a
continuación.
Como ya mencionamos
en relación con la teoría de la relativi-dad, nuestro espacio posee tres
dimensiones y, junto con el tiempo, forma el espacio-tiempo de cuatro
dimensiones. Es difícil concebir un espacio de más de tres dimensiones pero,
por lo contrario, es muy sencillo visualizar espacios de menor dimensión. La
superficie de la Tierra, por ejemplo, es un espa-cio de dos dimensiones; con
los números, la longitud y la lati-tud, podemos especificar plenamente
cualquier punto de ese espacio. Del mismo modo, una curva (piénsese por ejemplo
en un hilo) es un espacio de una sola dimensión; cualquier punto sobre una
curva se puede determinar con un único número, que puede ser la distancia desde
un punto fijo. Y, finalmente, un punto es un espacio de cero dimensiones.
Imaginemos un hilo
delgado que, como ya sabemos, es un es-pacio de una sola dimensión. Pero esto
es relativo ya que, para
80
una pulga, un hilo tiene una superficie y esa superficie es un espacio
de dos dimensiones. La pulga puede pasearse a lo largo del hilo y también puede
darle la vuelta para regresar al mismo punto. En cambio el único movimiento que
ve un humano es a lo largo del hilo. Otro ejemplo: la Tierra es un cuerpo de
gran tamaño para nosotros pero, a escala del Universo, es apenas un punto, un
espacio de cero dimensiones.
Estos ejemplos
ilustran el hecho de que el número de dimen-siones depende de la escala
considerada, siempre que sea posi-ble "dar la vuelta" al espacio
moviéndose en una o más direc-ciones. En ese caso, el número total de sus
dimensiones no se manifiesta más que a escalas suficientemente pequeñas,
escalas comparables con el radio del espacio.
Ahora bien, de
acuerdo con la teoría de las supercuerdas nues-tro espacio tiene muchas
dimensiones, pero de éstas, sólo cua-tro se manifiestan en nuestra experiencia
diaria. Para percibir las otras dimensiones sería necesario "ver"
distancias extrema-damente pequeñas: ¡del tamaño de la longitud de Planck! Y
ese es también el tamaño aproximado de una supercuerda.
Las supercuerdas
causaron mucho revuelo a mediados de los años ochenta. Algunos físicos muy
optimistas anunciaban ya la solución final a todos los problemas de la física
teórica. La teoría pretendía describir todas las fuerzas de la naturaleza,
desde la fuerza gravitacional que gobierna el movimiento de las estrellas y los
planetas hasta las fuerzas nucleares que se manifiestan sólo en los núcleos
atómicos, pasando por las fuer-zas eléctricas y magnéticas.
Desafortunadamente,
a pesar de un inicio muy prometedor la teoría se ha topado con serias
dificultades debidas al enorme aparato matemático que necesita, cuya
complejidad no permite tener una imagen intuitiva de lo que realmente está
pasando. La
81
principal dificultad es que las primeras notas de las
supercuer-das corresponden a partículas cuya masa es comparable a la masa de
Planck, y quedan, por lo tanto, fuera de toda posibili-dad de ser detectadas.
En cuanto a la masa de las partículas comunes se tiene que recurrir a un
mecanismo del tipo de un campo de Higgs para explicar por qué hay partículas
masivas como un electrón o un cuark, así que, en ese aspecto, la teoría de las
supercuerdas no ha aportado nada todavía. Pero algo quedará; por lo menos una
nueva visión del mundo subatómi-co.
VI. EL UNIVERSO
EL OBJETIVO de este
capítulo es presentar algunos conceptos básicos de la tecnología moderna, 22
ESTRELLAS, GALAXIAS Y CÚMULOS DE
GALAXIAS
Antes de iniciar
nuestro rápido viaje mental por el Universo definamos una unidad de medida.
Para medir las distancias cósmicas utilizaremos el año luz. Esta es la
distancia que reco-rre la luz en un año. Siendo la velocidad de la luz 300 000
kilómetros por segundo, un año luz equivale a unos 9 460 000 000 000
kilómetros.
A la velocidad de
la luz es posible dar siete vueltas y media a la Tierra en solo un segundo, y
llegar a la Luna en un segundo y fracción. Un rayo de luz emitido por el Sol
tarda unos ocho minutos en llegar a la Tierra y aproximadamente una hora en
llegar a Plutón, el planeta más distante en el Sistema Solar. Pero para las
distancias características del Universo, la luz es bastante lenta; la estrella
Alfa Centauri una de las más cercanas a nosotros, se encuentra
a la distancia de cuatro años luz, lo cual quiere decir que la luz emitida por
esa estrella tarda cuatro años en llegar hasta nosotros (actualmente la estamos
viendo como era hace cuatro años). Pero Alfa Centauri es
nuestra ve-cina cercana...
Las estrellas se
agrupan en galaxias, que son conjuntos de mi-les de millones de estrellas.
Nuestro Sol es una estrella entre
83
tantas otras y forma parte de una galaxia a la que llamamos Vía Láctea.
La distancia del Sol al centro de nuestra galaxia es de unos 30 000 años luz, y
un rayo de luz tardaría 100 000 años en recorrer la Vía Láctea de un extremo al
otro. Pero aún estas son distancias mínimas comparadas con la vastedad del
Universo.
La galaxia de
Andrómeda es la vecina de la Vía Láctea y se encuentra a una distancia de 2 000
000 años luz. Nosotros la vemos hoy tal como era hace 2 000 000 años, cuando
todavía no había hombres sobre la Tierra.
También las
galaxias tienden a formar grupos que los astróno-mos llaman cúmulos de
galaxias: la Vía Láctea, Andrómeda y algunas otras galaxias más están agrupadas
en el llamado Gru-po Local. El cúmulo de Virgo por ejemplo, se encuentra a 30
000 000 años luz.
Hasta hace algunos
años los astrónomos creían que los cúmu-los de galaxias están distribuidos más
o menos uniformemente por todo el Universo. Sin embargo, nuestra imagen del
Univer-so ha cambiado progresivamente. Ahora sabemos que los cúmulos de
galaxias tienden a agruparse en supercúmulos que llegan a medir unos 100 000
000 años luz. Pero lo más sor-prendente es que, entre un supercúmulo y otro,
existen enormes huecos de más de 200 000 000 años luz sin una sola galaxia
visible. Muy recientemente se ha descubierto que la estructura del Universo a
gran escala recuerda una esponja o una espuma jabonosa.
EL TAMAÑO DEL UNIVERSO
Los datos
anteriores respecto, a las dimensiones del Universo eran totalmente
desconocidos hasta principios del siglo XX. Si bien a partir del siglo XVII,
los astrónomos habían encontrado
84
diversos métodos para medir la distancia a las estrellas más cercanas,
no tenían ninguna idea de la extensión real del Uni-verso. Lo que ahora
identificamos como galaxias se ven, a través de un telescopio sencillo, como
pequeñas manchas lu-minosas. A estas manchas los astrónomos las llamaron
nebulo-sas. Ya a fines del siglo XVIII el gran filósofo Immanuel Kant había
propuesto que algunas de esas nebulosas son conglome-rados de millones de
estrellas, semejantes a nuestra Vía Láctea, y que si se ven extremadamente
pequeñas es debido a las enormes distancias a que se encuentran. Pero en la
época de Kant esto no pasaba de ser una especulación.
En 1908 se inauguró
el observatorio astronómico del Monte Wilson, en California, que contaba con el
telescopio más gran-de del mundo en esa época. Uno de los primeros astrónomos
en utilizarlo fue Edwin Hubble, quien encontró una manera con-fiable para medir
la distancia a la nebulosa de Andrómeda. Existen ciertas estrellas,
llamadas cefeidas, que varían su brillo con un periodo muy
regular que suele ser de unos cuantos días. Lo interesante es que existe una
relación directa entre el perio-do de una cefeida y su brillo intrínseco. Este
hecho es muy importante porque si se conoce el brillo intrínseco de una
estre-lla (o de cualquier cuerpo luminoso) y se compara con su brillo aparente
se puede determinar su distancia. La razón es que el brillo disminuye inversamente
al cuadrado de la distancia: si un foco se coloca a una cierta distancia y
otro, de la misma poten-cia, a una distancia doble, este segundo se verá cuatro
veces menos brillante; y si está tres veces más lejos, se verá nueve veces
menos brillante, y así sucesivamente.
Hubble logró
detectar estrellas cefeidas en la nebulosa de Andrómeda y de ahí dedujo sus
distancias comparando el brillo aparente con el observado. Resultó que esta
galaxia se encuen-
85
tra a 2 000 000 años luz, y que su verdadero tamaño es compa-rable a
nuestra propia Vía Láctea. La hipótesis de Kant se había confirmado plenamente.
Hubble también pudo
medir, con diversas técnicas, la distancia a otras muchas galaxias, cada vez
más lejanas. Pero, además, estudió la luz emitida por éstas y se encontró con
un hecho sorprendente. No sólo se revelaba un Universo muchísimo más vasto de lo
que se había sospechado hasta ahora mismo, además, un Universo en plena
expansión.
LA EXPANSIÓN DEL UNIVERSO
La luz del Sol está
constituida por una mezcla de todos los co-lores. Cuando un rayo solar pasa por
un prisma se descompone en los colores del arco iris debido a que el cristal
desvía la tra-yectoria de los rayos luminosos, pero la desviación es general-mente
distinta para cada longitud de onda. Un examen más detallado revela que,
sobrepuestas sobre los colores del arco iris, se encuentran una serie de rayas
brillantes u oscuras a las que se les denomina líneas espectrales.
Estas líneas se deben a que los átomos a través de los cuales pasó la luz
absorben o emiten luz con una longitud de onda muy bien definida; a su vez,
esta longitud de onda corresponde a una posición muy precisa en el arco iris.
Cada elemento
químico esta caracterizado por su espectro, que es el conjunto
de líneas espectrales que lo caracterizan y permi-ten determinar la composición
del material que emitió la luz. El descubrimiento de las líneas espectrales en
el siglo XIX fue crucial, pues el estudio de la luz emitida por cualquier
objeto, terrestre o celeste, permitió determinar de qué elementos quí-micos
esta constituido.
86
La longitud de onda de una línea espectral cambia si la fuente emisora
de la luz está en movimiento. Este fenómeno, conoci-do como efecto
Doppler; ocurre tanto para una onda sonora como para una onda
luminosa. En el caso del sonido se mani-fiesta, por ejemplo, con el sonido de
la sirena de una ambulan-cia: cuando ésta se acerca, la sirena se oye más aguda
y cuando se aleja el mismo sonido se escucha grave. Lo que sucede es que la
longitud de una onda, tanto sonora como una luminosa, se acorta o se alarga según
si su emisor se acerca o se aleja (Figura 11).
Figura 11. El
efecto Doppler.
Volviendo a las
galaxias Hubble estudió la luz que emiten las estrellas en las galaxia lejanas
y descubrió que las líneas espec-
87
trales están sistemáticamente corridas hacia el lado rojo del espectro.
De acuerdo con el efecto Doppler esto implica que todas las galaxias, se alejan
de nosotros. Pero el descubrimien-to más sorprendente fue que esa velocidad de
recesión es direc-tamente proporcional a la distancia de la galaxia. La
implica-ción de este fenómeno es que el Universo está en expansión.
El hecho de que el
Universo esté en expansión implica que, desde cualquier galaxia, se ve a las
otras alejándose. Algunas veces se hace la analogía con la superficie de un
globo que se está inflando. Si se pintan puntos sobre el globo la distancia
entre cada punto aumenta, y la velocidad de separación entre dos puntos es
mayor cuanto mayor es la distancia entre ellos.
En el caso de las
galaxias la velocidad de separación aumenta en proporción en la distancia, lo
cual se puede expresar con la sencilla fórmula:
V=H x R
donde V es
la velocidad de una galaxia, R su distancia y H la
constante de Hubble.
La constante de
Hubble es de fundamental importancia en cosmología, aunque es muy difícil de
medir con precisión y sólo se conoce su valor aproximado. Se ha estimado que es
de unos 30 kilómetros por segundo por cada 1 000 000 de años luz de distancia,
aunque algunos astrónomos piensan que el valor correcto podría ser la mitad del
mencionado.
La consecuencia más
importante de que el Universo esté en expansión es que, alguna vez en el
pasado, todo el espacio es-taba concentrado prácticamente a una densidad
infinita y todo el Universo era... ¡un punto! A partir de la velocidad de
expan-sión medida es fácil determinar que tal situación ocurrió hace unos 15 o
20 000 000 000 de años aproximadamente. Si tal es
88
el caso entonces el Universo tuvo un principio y "nació" con
una densidad de energía y una temperatura prácticamente infi-nitas. Esta es la
teoría de la Gran Explosión. El comportamien-to del Universo de acuerdo con la
teoría de la Gran Explosión, el concepto de concentración infinita en un punto,
y lo que puede ser antes de ese instante crucial son los temas que vere-mos en
el resto de este libro.
LA CURVATURA DEL ESPACIO
La relatividad
general, que tuvimos oportunidad de conocer en el capítulo I, llegó justo a
tiempo para convertirse en el soporte teórico de la cosmología. Inicialmente,
el mismo Einstein pro-puso un modelo cosmológico para resolver el viejo
problema de si el Universo es finito o infinito. Einstein postuló que el
espacio es, a gran escala, curvo como la superficie de una esfe-ra. En ese
sentido, nuestro Universo es finito pero sin fronteras, y es posible, en
principio, dar la vuelta al Universo viajando siempre en línea recta.
De acuerdo con el
modelo cosmológico original de Einstein el Universo era estático, es decir, sin
movimiento. Sin embargo todas las estrellas y galaxias se atraen entre sí
gravitacional-mente por lo que no es posible mantener inmóvil toda la mate-ria
en el universo. Para resolver este problema Einstein postuló que existe una
especie de repulsión gravitacional a escala cósmica que mantiene en equilibrio
al Universo; desde el punto de vista matemático tal repulsión sería la
consecuencia de in-cluir un término adicional, la constante
cosmológica, en las ecuaciones de la relatividad general. Empero, esto
parecía más un truco matemático que una propiedad física real, y el mismo
Einstein estaba insatisfecho de la modificación introducida en su teoría.
89
Pocos años después el físico ruso Alexander A. Fridman estu-dió las
ecuaciones de la relatividad general, con y sin el térmi-no de la constante
cosmológica, y encontró soluciones que des-criben un Universo en expansión:
la distancia entre dos ga-laxias aumenta con el tiempo y la velocidad de
separación es proporcional a la distancia entre las galaxias.
Al principio
Einstein y sus colaboradores no le dieron impor-tancia al trabajo de Fridman.
Pero cuando Hubble anunció en 1929 su descubrimiento de que el Universo está en
expansión, quedó manifiesto que los modelos de Fridman son los que des-criben
adecuadamente el comportamiento a gran escala del Universo. El estudio de estos
modelos fue retomado posterior-mente por varios cosmólogos, entre los cuales
destaca George Lemaître, quien fue uno de los fundadores de la teoría de la
Gran Explosión.
LA RADIACIÓN DE
FONDO Y EL FUEGO PRIMOR-DIAL
Así, si el Universo
esta en expansión su densidad de materia debió ser muchísimo mayor en el
pasado. En los años cuarenta Georges Gamow propuso que, además de denso, el
Universo también estaba extremadamente caliente en un principio. Esto
permitiría que se formaran los núcleos atómicos de los elemen-tos químicos por
reacciones nucleares tal como sucede en una explosión nuclear, en la que el
hidrógeno se transforma en helio. La hipótesis de Gamow ofrecía una explicación
del ori-gen de los elementos químicos que existen en el Universo. Aunque tuvo
que ser modificada posteriormente, la idea básica de que la temperatura
primordial del Universo era altísima es ampliamente aceptada en la actualidad
por los partidarios de la Gran Explosión. Por lo pronto señalemos, para dar una
idea de
90
magnitudes implicadas, que la temperatura cósmica debió ser de unos 1
000 000 000 de grados apenas un segundo después de la Gran Explosión.
De acuerdo con la
teoría de la Gran Explosión la temperatura cósmica bajó a cerca de 5 000º K
cuando la edad del Universo era de unos 500 000 años. Esta temperatura es
crítica porque el hidrógeno, que es el elemento químico principal en el
Univer-so, forma átomos sólo por debajo de tal temperatura. Por arriba de los 5
000º K los átomos chocan entre sí tan violentamente que los electrones se
desprenden de los núcleos atómicos y, como resultado de este proceso, el gas
queda formado por núcleos y electrones libres; en esa situación se
tiene lo que se llama un gas ionizado. El hecho fundamental es que
la luz in-teractúa levemente con los átomos, pero muy intensamente con los
electrones libres. En consecuencia, una nube de hidrógeno no ionizado es tan
transparente a la luz como el aire pero, por lo contrario, si está ionizado
presenta el mismo aspecto que el fuego: brillante pero no transparente.
En resumen, en el
principio era el fuego primordial. Ese fuego se apagó cuando
la temperatura del Universo bajó a unos 5 000º K, y a partir de ese momento el
espacio cósmico se volvió transparente. En el momento en que el hidrógeno dejó
de estar ionizado la luz se volvió libre por primera vez y empezó a re-correr
todo el Universo prácticamente sin obstáculos. Esa luz emitida por el fuego
primordial y liberada 500 000 años des-pués de la Gran Explosión es la que
vemos actualmente como la radiación de fondo, proveniente de todas las regiones
del firmamento.
El mismo Gamow
calculó que la temperatura actual del Uni-verso sería de unos cuantos grados
sobre el cero absoluto, lo cual debería de observarse en la actualidad en forma
de una
91
radiación de microondas proveniente homogéneamente de to-das las
regiones del Universo.
En 1965 los
radioastrónomos A. A. Penzias y R. W. Wilson descubrieron una débil señal de
radio 23,
La existencia de la
radiación de fondo fue reconfirmada de manera espectacular en 1992 por medio de
un satélite artificial llamado COBE; (Cosmic Background Explorer). El
satélite permitió medir con enorme precisión la forma del espectro de la
radiación —que es esencialmente una medida del número de fotones con cada
longitud de onda— y el resultado concuerda plenamente con lo que se esperaría
de ser correcta la teoría de la Gran Explosión. Más aún se ha podido fijar la
temperatura del Universo en 2.73 grados Kelvin. Lo más sorprendente de esta
radiación es su extrema homogeneidad en todas las direc-ciones en el cielo. En
el próximo capítulo veremos con más detalle cómo se originó esta radiación así
como sus importantes implicaciones.
El Universo
presenta, a gran escala, un aspecto homogéneo que no depende de la posición o
la dirección en que se mira. Esta propiedad es aún más manifiesta para la
radiación de fondo. Los estudios más recientes de hechos con satélites
artificiales revelan que esta radiación es absolutamente homogénea en todas las
direcciones observadas con una precisión de hasta una parte en 10 000. Por
debajo de ese nivel de homogeneidad se han detectado pequeñas variaciones que
podrían corresponder a galaxias en proceso de formación durante la época del
fuego
92
primordial (hablaremos más de este tema en los siguientes capítulos).
LA DENSIDAD DEL UNIVERSO
Si el Universo está
en expansión es natural presentarse: ¿se expanderá para siempre o se detendrá
en algún momento? Esto depende esencialmente de la densidad de materia en el
Univer-so. Todos los cuerpos se atraen entre sí por medio de la fuerza de gravedad;
a gran escala esto implica que la expansión del Universo se enfrena poco a poco
debido a que las galaxias se atraen entre sí. ¿Es esa atracción suficiente para
frenar total-mente el Universo? De acuerdo con los cálculos basados en la
teoría de la relatividad el Universo detendrá por completo su expansión y
empezará a colapsarse sobre sí mismo si la densi-dad actual de materia excede
de un cierto valor crítico; en caso contrario la velocidad de expansión irá
disminuyendo gradual-mente con el tiempo, pero sin llegar jamás a anularse.
De acuerdo con los
cálculos basados en la teoría de Einstein el valor preciso de esta densidad
crítica, correspondiente a la ac-tualidad, está dada por la cantidad 3H2/8 G, donde H es
la constante de Hubble y G la constante de la gravitación de
New-ton, y equivale a unos 10-29 gramos por
centímetro cúbico — algo así como 10 átomos de hidrógeno por metro cúbico.
La densidad crítica
que hemos mencionado parece extremada-mente baja (muchísimo menos de la que se
obtiene en la mejor cámara de vacío en Tierra), pero no hay que olvidar que
esta-mos hablando de una densidad promedio y que el vacío casi absoluto domina el
Universo, siendo las concentraciones de materia como las estrellas y los
planetas puntos prácticamente insignificantes. Los astrónomos han calculado que
la materia
93
visible en el Universo, es decir, aquella que se encuentra en las
estrellas y las nubes de gas brillante —la única que se puede observar
directamente— contribuye con menos de la centésima parte de la densidad
crítica. Esto implica que si la mayor parte de la materia del Universo es la
visible entonces la expansión cósmica proseguirá eternamente. Pero bien podría
ser que el Universo esté lleno de alguna materia opaca que sencillamente no sea
visible. De hecho, se tienen evidencias indirectas de que la masa de las
galaxias es mucho mayor que lo inferido única-mente en las estrellas brillantes
que las componen.
La naturaleza de
esa masa invisible, si realmente existe, es uno de los problemas más
importantes de la cosmología moderna.
LA COMPOSICIÓN QUÍMICA DEL UNIVERSO
El elemento químico
más abundante en el Universo es el hidrógeno, que constituye la mayor parte de
la materia, seguido por el helio. Esta afirmación parece sorprendente a primera
vista porque en la Tierra existe una gran variedad de elementos químicos. Pero
nuestro planeta es muy poco representativo de lo que se encuentra en el
Universo.
En la Tierra se
encuentran muchísimos otros elementos quími-cos, aparte del hidrógeno y helio
(el primero se halla mezclado con oxígeno en las moléculas de agua, mientras
que el segundo es, un gas muy escaso). Los demás elementos químicos
terres-tres, como el carbono, el hierro, el oxígeno, etc. deben tener un origen
posterior al nacimiento de las primeras estrellas.
En la antigüedad
los alquimistas trataban de cambiar un ele-mento en otro en sus hornos y
alambiques. Soñaban con fabri-car oro a partir del plomo y otros metales más
comunes. Ahora sabemos que éste sueño alquimista es realizable en principio
94
pero no en un modesto laboratorio terrestre. Para transmutar un elemento
químico en otro se necesitan temperaturas de miles de millones de grados.
Temperaturas de esa
magnitud se dan en los centros de las es-trellas. El Sol, por ejemplo brilla
porque se producen enormes cantidades de energía en su centro al transformarse
el hidróge-no en helio tal como lo hace una bomba de hidrógeno. De hecho, todas
las estrellas son gigantescas bombas atómicas que funcionan continuamente
durante millones o miles de millones de años (como dato tranquilizador, nuestro
Sol tiene combusti-ble para brillar unos 5 000 000 000 de años más). Cuando se
agota el hidrógeno en el centro de una estrella ésta empieza a consumir otros
elementos químicos: el helio se transforma en carbono, éste en oxígeno,
etcétera.
Las estrellas mas
masivas, que no son raras, son las que evolu-cionan más rápido y, finalmente,
acaban en una gigantesca ex-plosión: una supernova. Cuando
esto sucede la explosión des-parrama la materia de la estrella por todo el
espacio interestelar formando gigantescas nubes que contienen prácticamente
todos los elementos químicos. De esas nubes se forman, posterior-mente, las
estrellas con sus planetas, y quizás con sus seres vivos que los habitan.
Prácticamente todos los elementos quí-micos, con la excepción del hidrógeno y
del helio, se origina-ron en las estrellas. Los átomos de nuestros cuerpos
provienen de los restos de estrellas que brillaron hace miles de millones de
años.
Los astrónomos han
calculado que la composición química original del Universo era de
aproximadamente 75% de hidró-geno, 25% de helio y apenas una traza de otros
elementos quí-micos. Justamente la teoría de la Gran Explosión predice que el
helio primordial se formó en esa proporción a los tres minutos
95
de existencia del Universo —a una temperatura de 1 000 000 de grados
Kelvin. Esta predicción teórica, que concuerda con los datos astronómicos es,
junto con la radiación de fondo, uno de los soportes más fuertes de la teoría
de la Gran Explosión.
VII.EL UNIVERSO
INFLACIONARIO
DESPUÉS del paseo
por el Universo presentado en el capítulo anterior estamos listos para
reconstruir lo que pudo haber sido el principio del Universo. Antes de
aventurarnos en teorías especulativas recordemos que la física actual reconoce
explíci-tamente su ignorancia cuando se implican tiempos comparables al tiempo
de Planck, que es de unos 10-44 segundos. No
pode-mos, por lo tanto, pretender describir el Universo antes de ese tiempo.
Sin embargo, esa limitación conceptual y teórica es extremadamente generosa, a
tal punto que muchos físicos han resistido la tentación de construir teorías
del Universo muy poco después del tiempo de Planck.
LOS PRIMEROS 10-34 SEGUNDOS DEL
UNIVERSO
Comencemos, pues,
no al tiempo cero, que no tiene sentido en una descripción cuántica, sino al
tiempo de Planck, cuando la temperatura del Universo era la temperatura de
Planck. Esta equivale a unos 1032 grados Kelvin
y es la única temperatura que se puede construir combinando las tres constantes
funda-mentales de la naturaleza, G, c y h. En
efecto, la energía de Planck es:
E = mpc2
donde mp es
la masa de Planck. A esta energía le corresponde una temperatura dada por
T = E/k
97
que es la temperatura de Planck. En esa última fórmula k es
la constante de Boltzman que relaciona la temperatura de un gas con la energía
promedio de las partículas que lo constituyen.
Pero, ¿temperatura
de qué? ¿Acaso ya había partículas en el tiempo de Planck? ¡No había partículas
todavía! En el princi-pio era el campo. El campo vibraba y
tenía energía, y esa energía era temperatura, y esa era la
temperatura de Planck (no podía ser otra cosa). Más precisamente, había muchos
tipos de campos, y sus vibraciones correspondían a partículas.
La creación del
Universo, el tiempo cero, si es que hubo tal, esta escondida en el mundo aun
inescrutable de Planck, cuando las cuatro interacciones fundamentales de la
naturaleza estaban unificadas en una sola. Pero dejemos transcurrir un poco el
tiempo para situarnos en un terreno ligeramente menos especu-lativo. Por debajo
de la temperatura de Planck la gravitación se separó de las otras tres
interacciones. De los 10-44 segundos hasta los 10-34 segundos el
Universo se expandió y su tempera-tura bajó a unos 1027 grados
Kelvin. Durante ese brevísimo periodo; si uno cree en la teoría de la Gran
Unificación las in-teracciones fuertes, electromagnéticas y débiles no se
habían separado aún. El campo de Higgs todavía no había actuado, por lo que las
partículas X, las W y las Z eran partículas sin masa, al igual que los fotones.
Pero algo muy
espectacular ocurrió a los 10-34 segundos. Al
haberse expandido el Universo, su temperatura bajó a unos 10
26 grados Kelvin, lo
cual propició un cambio de fase, tal como lo explicamos en el capítulo VI. A
esa temperatura el campo de Higgs asociado a las interacciones fuertes empezó a
transmitir su energía a las partículas X y éstas adquirieron masa.
Lo crucial de este cambio de fase es
que produjo una verdadera explosión que liberó enormes cantidades de energía a
partir del
98
campo existente. A su vez, esta violenta explosión aceleró la expansión
del Universo, de tal manera que el tamaño real entre dos puntos aumentó por un
factor de l080 o más en sólo 10-36 segundos;
este es el periodo que se designa con el nombre de inflación. Se
debe esencialmente a la existencia de un campo cuántico que produce
un cambio de fase y separa las interac-ciones fuertes de las electrodébiles.
El Universo
inflacionario es una consecuencia natural de la teoría de la Gran Unificación
combinada con la cosmología relativista. En su versión más conocida, fue
propuesta por Alan Guth en un artículo de 1980. El éxito de este modelo
consiste en que resuelve de modo natural varios problemas de la cosmo-logía
moderna, dos de los cuales son el problema del horizonte y el de la densidad
del Universo, como veremos a continua-ción.
Por lo pronto
mencionemos que uno de los aspectos más inte-resantes del Universo
inflacionario es la posibilidad de explicar por qué hay materia y no
antimateria en el Universo contem-poráneo. La idea es que las partículas X se
tornaron más masi-vas durante el periodo de inflación y, después de breves 10-36 segundos,
decayeron en partículas más estables: leptones y, cuarks. En un principio había
exactamente el mismo número de partículas X y
antipartículas X, pues la materia no gozaba de ningún privilegio con
respecto a la antimateria. Sin embargo, debido a la pequeña asimetría entre
materia y antimateria en las interacciones fundamentales (la no invariancia de
CP que men-cionamos en el capítulo IV), las partículas y antipartículas X no
decayeron exactamente de la misma manera.
La teoría de la
Gran Unificación predice que los protones se pueden destruir (véase capítulo
V), pero también predice un proceso contrario por el que se pudieron formar
ligeramente
99
más partículas que antipartículas. Éste es un hecho crucial, pues en
algún momento posterior la materia y la antimateria en el Universo se
aniquilarán y sólo quedará un pequeño exceden-te de materia. De hecho, si algún
día se llegara a tener una teor-ía completa y confiable de la Gran Unificación
se podría pre-decir teóricamente nada menos que la cantidad de materia creada
en el Universo.
EL HORIZONTE DEL UNIVERSO
Uno de los
principios fundamentales de la naturaleza es que ningún cuerpo o señal puede
moverse a mayor velocidad que la luz. La energía para alcanzar tal velocidad es
infinita, y sólo una partícula sin masa —como el fotón y posiblemente el
neu-trino— puede viajar a la velocidad de la luz.
Debido a esta
limitación el Universo posee para nosotros un horizonte más
allá del cual no podemos ver ni recibir influen-cia. En efecto, si el Universo
se originó hace 15 000 000 000 de años luz, hoy en día veríamos la Gran
Explosión a una dis-tancia de 15 000 000 000 de años luz, distribuida
homogénea-mente en el cielo —aunque en realidad, la Gran Explosión es-taría
escondida detrás del fuego primordial (Figura 12). Nues-tro Universo
visible es una esfera centrada en nosotros y con un radio
de 15 000 000 000 de años luz. Los límites de esta esfera marcan nuestro
horizonte, más allá del cual ninguna re-gión del Universo nos es accesible
porque la luz que emitió todavía no nos llega. Además, cada posición en el
Universo tiene su propio horizonte, que engloba desde allí a la observa-ción.
Figura 12. La gran explosión y el fuego primordial con res-pecto a
nuestra posición en el Universo.
Si nos esperamos un
tiempo suficiente podemos ver regiones cada vez más lejanas del Universo.
Dentro de 10 000 000 000 de años nuestro horizonte será unos 10 000 000 000 de
años luz más grande y se nos revelarán regiones del Universo de las que, por
ahora, todavía no recibimos su luz.
101
Del mismo modo, el horizonte del Universo era más estrecho en el pasado
remoto. Por ejemplo, mil años después de la Gran Explosión, el tamaño del
horizonte era de unos 1 000 años luz. Y un segundo después el horizonte medía
apenas unos 300 000 kilómetros; esto implica que en esa época una partícula no
pod-ía influir en otra que estuviera a más de 300 000 kilómetros de distancia,
ya que nada puede viajar más rápido que la luz.
La existencia de un
horizonte plantea un problema muy serio. Señalamos anteriormente que el
Universo es extremadamente homogéneo a gran escala, ya que dos regiones muy
alejadas del Universo presentan aspectos muy parecidos: la misma densidad de
materia, la misma distribución de galaxias etc. Esta homo-geneidad se aplica a
todas las regiones dentro de nuestro Uni-verso sumamente alejadas y en dos
direcciones diametralmente opuestas, la separación actual entre ellas es de
unos 30 000 000 000 de años luz. Esto implica que esas dos regiones nunca
tu-vieron tiempo de interactuar entre sí. Pero entonces ¿cómo pu-dieron
"ponerse de acuerdo" para presentar la misma distribu-ción de
materia? Es cierto que en el pasado esas regiones esta-ban más cercas entre sí,
pero también el horizonte era más es-trecho y, de todos modos, no tuvieron
tiempo de interactuar.
Para describir el
problema de manera más precisa veamos qué predice la teoría de la relatividad
general para la expansión del Universo y su horizonte. De acuerdo con las
ecuaciones de esta teoría la distancia entre dos puntos en el Universo
(pensemos, por ejemplo, en dos galaxias muy alejadas) aumenta con el tiempo en
proporción a la edad del Universo elevado a la po-tencia 2/3. Más precisamente,
si la distancia actual de entre dos galaxias vale Lo y la edad actual del
Universo es to, entonces la separación L entre esas mismas
galaxias cuando la edad del Universo era t está dada por la fórmula:
102
Esta última fórmula
es válida para épocas posteriores al fuego primordial. La expansión del
Universo era un poco más lenta en el pasado, cuando ardía el fuego primordial.
En aquel enton-ces la distancia aumentaba más bien en proporción a la raíz
cuadrada de la edad del Universo, es decir,
L = L0 (t/t0) ½
Por lo que respecta
al horizonte, se puede demostrar que el radio del horizonte RH aumenta en
proporción directa al tiempo transcurrido t. Más precisamente,
R h = 3
ct
en la actualidad
mientras que en la época del fuego primordial la relación era:
R h = 2
ct
Los factores 3 y 2
en estas fórmulas se deben a que la curvatura y expansión del Universo alteran
las distancias reales; el radio del horizonte resulta ser mayor que ct (que
sería la distancia recorrida por la luz en un tiempo t en un
universo sin expan-sión).
Lo importante de
todo el asunto es que la distancia real entre dos galaxias aumenta como t2/3 (o t 1/2 durante la
época del fue-
go primordial),
mientras que el radio del horizonte aumenta en proporción directa a t.
Es decir, el horizonte aumenta más rápi-damente que la distancia entre
galaxias. Esto, a su vez, implica que el horizonte era más pequeño en el
pasado, en comparación con la distancia real (véase la Figura l3).
Figura 13. La
evolución del horizonte y la distancia a una galaxia lejana según los modelos
cosmológicos tradicionales.
Para dar un
ejemplo, supongamos que una galaxia se encuentra en la actualidad a una
distancia de 2 000 000 000 de años luz de nuestra galaxia. En el pasado, esa
misma galaxia se encon-traba a una distancia de 3.9 millones de años luz,
cuando la edad del Universo era de 1.3 millones de años. Antes de esa misma
época nuestro horizonte medía menos de 3.9 millones de años luz y, por lo tanto
la galaxia estaba fuera del horizonte de la nuestra. Podemos decir que la
galaxia en consideración entró al horizonte de nuestra galaxia
al tiempo t =1.3 millones de años. Antes, esa
galaxia y la nuestra se encontraban en re-giones del Universo que no pudieron
influir una sobre la otra.
Ahora debe quedar
claro por qué es tan extraño que el Univer-so sea homogéneo a gran escala. El
modelo del Universo infla-cionario proporciona una solución directa a este
problema. La
clave es que
durante el periodo de inflación la distancia real entre dos puntos del Universo
no aumentó como t1/2 o t 2/3, co-
104
mo en el modelo clásico, sino exponencialmente como eHT donde H es
la constante de Hubble durante el periodo de infla-ción.24
De acuerdo con el
modelo del Universo inflacionario la evolu-ción de la distancia y del radio del
horizonte no es como la vimos anteriormente en la figura 13, sino que tiene la
forma mostrada en la figura 14. Un vistazo a esta última muestra cómo el problema
del horizonte queda resuelto. Todo lo que vemos dentro de nuestro horizonte en
la actualidad estaba per-fectamente contenido dentro del horizonte
correspondiente a la época anterior a la inflación.
Figura 14.
Evolución del horizonte y de la distancia a una galaxia leja-na según el modelo
del Universo inflacionario.
105
De hecho todo
nuestro Universo actualmente visible estaba contenido originalmente en una
región de sólo 10 centímetros justo antes de la inflación. Las regiones del
Universo que se encuentran dentro de nuestro horizonte actual tuvieron tiempo
de sobra para interaccionar entre sí antes de la inflación. Es
durante la inflación y un cierto tiempo posterior que ya no pu-dieron
interaccionar.
El modelo del
Universo inflacionario implica que la estructura actual del Universo tuvo sus
orígenes en las épocas anteriores a la inflación, muy cerca del tiempo de
Planck. Este hecho tiene importantes consecuencias para la formación de
galaxias, como veremos en el siguiente capítulo.
LA DENSIDAD DEL UNIVERSO
Otro de los
problemas a los que se enfrenta la teoría de la Gran Explosión en su versión
tradicional es el de la densidad del Universo. Al expandirse el Universo su
densidad disminuye. En el capítulo anterior mencionamos que, dependiendo si esa
densidad es menor o mayor que una densidad crítica, el Uni-verso seguirá
expandiéndose indefinidamente o no, y que la densidad medida por los astrónomos
parece ser de un décimo o un centésimo de la densidad crítica correspondiente a
la época actual (es importante notar que el valor de la densidad crítica
disminuye con el tiempo, por lo que era mayor en el pasado).
En principio, la
densidad del Universo en sus primeros segun-dos de existencia pudo tener
cualquier valor. Los cálculos pre-dicen que si la densidad en esas épocas
remotas hubiera sido un poco mayor que la crítica correspondiente a esa época,
el Uni-
106
verso se habría expandido durante algunos segundos para luego volverse a
colapsar.
Del mismo modo, si
la densidad inicial hubiera sido ligeramen-te menor que la crítica, la
expansión del Universo habría segui-do eternamente, pero en la época actual la
materia en el Uni-verso estaría diluida a una densidad billones o trillones de
ve-ces más baja que la que observamos en la actualidad.
En otras palabras
para que la densidad actual del Universo sea de un décimo o un centésimo de la
densidad crítica actual se necesita que la densidad algunos segundos después de
la Gran Explosión haya sido la crítica de aquella época con una exacti-tud increíble;
cuando mucho un error de una parte en 1040. Cualquier
desviación mayor que esa con respecto al valor críti-co habría originado un
Universo radicalmente distinto al que observamos.
Lo anterior se debe
a que el Universo que tenga precisamente la densidad crítica es un Universo
inestable. Un ejemplo muy sencillo de un sistema mecánico estable es una canica
que rue-da sobre una cuerda. Para mantener la canica un buen trecho sobre la cuerda
se debe ajustar su posición y velocidad iniciales con una precisión extrema.
Cualquier ligera desviación inicial repercute en que la canica se caiga de la
cuerda. El Universo es semejante a la canica: cualquier pequeña diferencia
inicial de su densidad con respecto a la crítica hubiera cambiado
drásti-camente su evolución posterior.
El problema
consiste, entonces, en explicar por qué el Universo poseía la densidad crítica
en el pasado con una precisión de una parte en 1040. Hasta antes de
que apareciera el modelo del Uni-verso inflacionario sencillamente no se tenía
una explicación. La inflación, sin embargo, resuelve este problema de manera
natural. Resulta que como consecuencia de la expansión tan
107
violenta producida por la inflación, el Universo adquiere una densidad
que es prácticamente la crítica correspondiente a esa época, independientemente
de cualquier densidad que haya tenido antes de la inflación.
Así, si realmente
ocurrió la inflación, la densidad actual del Universo debería ser justamente la
crítica. Pero ya señalamos antes que la materia luminosa observada implica
apenas una centésima de la cantidad de materia que debería de haber en un
universo con densidad crítica. Por otra parte, mencionamos en el capítulo
anterior que hay evidencias de que existe más masa que la visible. Si la
hipótesis de la inflación es correcta debe-mos deducir que vemos apenas una
centésima parte de la masa que existe en el Universo. ¿De qué está hecha la
masa invisi-ble? Este es uno de los grandes problemas de la cosmología actual;
hasta ahora se conocen dos posibles respuestas.
La primera
posibilidad es que la masa invisible se deba a mate-ria común, hecha de
protones y neutrones —es decir, materia bariónica. El Universo podría estar
hecho de meteoritos, aste-roides, pequeños planetas, estrellas aplanadas
(incluyendo hoyos negros), todos ellos objetos que no emiten ninguna luz y que,
por lo tanto, son imposibles de descubrir desde nuestro planeta. Hasta ahora no
se tiene ninguna idea de qué tan abun-dantes podrían ser esos cuerpos en el
espacio cósmico.
La segunda
posibilidad que es más atrevida, es que la masa faltante se deba a
partículas fantasmas que no interactúan nor-malmente con la
materia común. Ya tuvimos ocasión de cono-cer una partícula así: el neutrino,
que, por no interactuar elec-tromagnéticamente, es invisible y prácticamente
intangible. En principio podrían existir partículas masivas que sólo
interac-tuarán con la materia mediante la fuerza gravitacional. Tales
partículas serían absolutamente imposibles de detectar en un
108
laboratorio terrestre, pero se manifestarían a escala cósmica por su
influencia gravitacional. La masa faltante podría encontrarse en grandes
concentraciones de estas partículas fantasmas, uni-das gravitacionalmente a las
galaxias.
De hecho, uno de
los primeros candidatos para la materia invi-sible fue el neutrino si bien se
cree que la masa de los neutrinos es cero, los experimentos sólo imponen un
límite superior a esa posible masa. Ese límite es del orden de unos 10-33 gramos, que
es apenas una cienmilésima parte de la masa de un electrón. Por otra parte, el
Universo se encuentra repleto de neutrinos al igual que de fotones provenientes
del fuego primordial. Si estos neutrinos tuvieran masa, podrían explicar una fracción
de la materia invisible, pero no toda.
Si bien parece una
posición muy especulativa, la existencia de partículas fantasmas masivas ha
sido considerada seriamente por los cosmólogos. Tales partículas podrían
desempeñar un papel fundamental en la formación de las galaxias, como vere-mos
en el siguiente capítulo.
VIII. CONSECUENCIAS
DE LA INFLACIÓN
LA SOPA DE CUARKS
DESPUÉS de la
inflación ya no había partículas X en libertad, pues éstas se
habían transfomado en leptones y cuarks. El Uni-verso era una sopa homogénea de
cuarks, gluones, leptones, partículas W y Z, y
fotones, todos chocando entre si a enormes velocidades transformándose
continuamente unas en otras. En esas épocas remotas, cuando la temperatura
todavía estaba por arriba de unos 1016 grados
Kelvin, las interacciones electro-magnéticas y débiles aún no se separaban.
Pero a 10-15 grados Kelvin el campo de Higgs asociado a las partículas W y Z transmitió
su energía y estas partículas adquirieron masa. En ese momento, las
interacciones electro-magnéticas se separaron para siempre de las débiles. Eso
ocurrió a los 10-12 segundos y correspondió también a un cambio de fase tal como en la
infla-ción. Pero la liberación de energía fue muchísimo menos es-pectacular y
no tuvo una influencia tan drástica en la evolución del Universo.
Después de unos 10-8 segundos la
temperatura del Universo había bajado a 1013 grados y los
cuarks se unieron entre sí para formar los primeros bariones y antibariones,
que eran princi-palmente protones, neutrones y sus antipartículas. En esa época
el Universo era una sopa de partículas elementales, principal-mente fotones, así
como protones, electrones muones, tauones, neutrinos y sus respectivas
antipartículas.
110
A medida que descendía la temperatura la antimateria iba
des-apareciendo. Al formarse los protones y neutrones la tempera-tura había
bajado lo suficiente para que estas partículas se ani-quilaran con sus
correspondientes antipartículas (como vimos en el capítulo I, los protones y
los antiprotones pueden coexis-tir a temperaturas superiores a los 1013 grados
Kelvin, creándo-se y aniquilándose continuamente con los fotones). Así, en
algún momento que podemos situar en unas 100 millonésimas de segundo después de
la Gran Explosión, todos los antiproto-nes se aniquilaron con los protones que
encontraron, produ-ciendo una enorme cantidad de luz —o fotones.
Afortunada-mente había un ligerísimo exceso de protones sobre antiproto-nes,
como consecuencia probable de la asimetría CP que propi-ció la creación de más
cuarks que anticuarks. También se ani-quilaron los tauones con sus
antitauonues, y poco después les tocó su turno a los muones y antimuones. Un
décimo de segun-do después de la Gran Explosión quedaron como constituyen-tes
principales del Universo: protones, neutrones, electrones y positrones,
neutrinos y antineutrinos (de las tres especies), y fotones.
Un segundo después
de la Gran Explosión, la temperatura hab-ía bajado a unos 5 000 000 000 de
grados Kelvin. Por debajo de esa temperatura tampoco es posible que coexistan
positrones con electrones. Así, cuando la edad del Universo era de un se-gundo,
todos los positrones se aniquilaron con los electrones produciendo más luz.
Después ya no hubo antimateria. Pero si quedó un pequeño excedente de materia,
gracias a la ligera asimetría entre materia y antimateria, que mencionamos más
arriba. Todo lo que vemos en el Universo en la actualidad in-cluyendo nosotros
mismos, está hecho de ese excedente. Se calcula que por cada partícula de
materia que sobrevivió hasta
111
ahora se tuvieron que aniquilar unos 100 000 000 de partículas y
antipartículas. Eso sucedió antes de un segundo de existencia. Después, los
constituyentes principales del Universo fueron: protones, neutrones,
electrones, neutrinos, antineutrinos y foto-nes.
FORMACIÓN DEL HELIO PRIMORDIAL
Los protones pueden
transformarse en neutrones con la inter-mediación de los neutrinos (la reacción
más común es protón + antineutrino neutrón + positrón). Gracias a la abundancia
de neutrinos y antineutrinos en esas épocas remotas del Universo los protones
se transformaban en neutrones, los cuales se volv-ían a transformar en protones
después de cierto tiempo.
Por otra parte, los
protones y neutrones chocaban entre sí y, ocasionalmente podían quedar
"pegadas", para así formar un núcleo de deuterio, también
conocido como hidrógeno pesado. El núcleo de deuterio que consta de un protón y
un neutrón puede a su vez, chocar con otros protones y neutrones y formar
después de varias reacciones nucleares, núcleos de helio. Lo crucial de este
proceso es que ocurre a una temperatura de unos 100 000 000 grados Kelvin. Por
arriba de esa temperatura los protones y neutrones tienen demasiada energía y
destruyen, al chocar, los núcleos de deuterio y helio que hayan podido
for-marse. A temperaturas menores los núcleos de deuterio, que tienen carga
eléctrica positiva, no poseen suficiente energía para vencer su repulsión
eléctrica por lo que le es imposible unirse y formar núcleos más pesados.
Y a los tres
minutos de existencia del Universo, la temperatura era justamente de 100 000
000 grados Kelvin.
112
Los núcleos atómicos que lograron formarse a los tres minutos de
existencia del Universo no volvieron a destruirse y fijaron, por lo tanto, la
composición química posterior del Universo quedó compuesta de aproximadamente
de 75 % de hidrógeno, 25 % de helio y apenas una traza de otros elementos. Esa
era la composición química del Universo en aquellas épocas remotas, muchísimo
antes de que nacieran las primeras estrellas. Los otros elementos químicos
fueron fabricados en el interior de las estrellas y diseminados posteriormente
por el espacio cósmico.
La abundancia del
helio primordial se ha calculado a partir de observaciones astronómicas y el
resultado concuerda muy bien con las predicciones teóricas: ésta es una de las
pruebas más sólidas a favor de la Teoría de la Gran Explosión.
FORMACIÓN DE ÁTOMOS
Y LA RADIACIÓN DE FONDO
Tres minutos
después la Gran Explosión del Universo contenía principalmente núcleos de
hidrógeno (sencillos protones), núcleos de helio, electrones, neutrinos,
antineutrinos y fotones. Los neutrinos y antineutrinos dejaron por esas épocas
de inter-actuar con las demás partículas, pues ya no poseían suficiente
energía. Las otras partículas formaban lo que se llama gas ioni-zado (véase el
capítulo1), un gas en el que los electrones andan sueltos y no están amarrados
a los núcleos atómicos. Como ya explicamos anteriormente esa época del Universo
corresponde al fuego primordial.
Esa era la
condición física del Universo tres minutos después de la Gran Explosión, y así
siguió durante varios cientos de miles de años más sin que volviera a suceder
algo excepcional,
113
salvo que la temperatura bajaba progresivamente a medida que el Universo
proseguía con su expansión.
Unos 500 000 años
después de la Gran Explosión algo decisivo volvió a ocurrir. La temperatura
había bajado a unos 5 000 gra-dos Kelvin y fue entonces cuando los electrones,
que andaban libres, pudieron combinarse por primera vez con los núcleos
atómicos y formar los primeros átomos en la historia del Uni-verso. La materia
dejó de ser un gas ionizado, y como no que-daban electrones libres, los fotones
dejaron de interactuar con la materia. A partir de ese momento el fuego
primordial se apagó y el Universo se volvió transparente. La luz se desacopló
de la materia y siguió su evolución por separado.
Ahora, unos 15 000
000 000 de años después de la Gran Ex-plosión los fotones que quedaron libres
luego de la formación de los primeros átomos deben estar presentes todavía,
llenando todo el espacio cósmico. Esos fotones fueron emitidos por la materia a
una temperatura de 5 000° K. Un gas a esa tempera-tura irradia principalmente
luz visible e infrarroja. Pero, como el Universo está en expansión, esa luz
sufrió un corrimiento Doppler y ha perdido una buena parte de su energía antes
de llegar a nosotros. Esa luz se observa hoy en día ya no como luz visible sino
como ondas de radio: es la radiación de fondo.
FORMACIÓN DE GALAXIAS
A pesar de los
descubrimientos tan importantes de los últimos años y los avances teóricos en
cosmología y astrofísica uno de los problemas más fundamentales que no se ha
resuelto es el de la formación de las galaxias.
La teoría más
aceptada en la actualidad es que, las galaxias se formaron por la contracción
gravitacional de regiones del Uni-
114
verso que estaban más densas que el promedio. Para entender esta idea
imaginemos al Universo en algún momento temprano de su historia. La materia
estaba distribuida de manera homogénea, aunque algunas regiones pudieron estar
ligeramen-te más densas que el promedio, y otras ligeramente menos den-sas. Las
regiones más densas serían como grumos en el Uni-verso primordial estos grumos
por tener más masa, se contraen debido a su propia fuerza gravitacional. Una
vez que esta con-tracción empieza no hay modo de que se detenga, y se formará,
finalmente, una gran condensación de materia ¡es decir una galaxia! Esta es, a
grandes rasgos, la hipótesis más aceptada de la formación de galaxia sin
embargo hay dos problemas fun-damentales: ¿cuándo empezaron a formarse estos
grumos?, y ¿qué tan rápido se contrae la materia por su fuerza gravitacio-nal?
El proceso de la
formación de galaxias tiene similitudes con la formación de estrellas. Se
piensa que las estrellas se forman a partir de gigantescas nubes de gas que se
encuentran en las galaxias. El gas se encuentra relativamente caliente y
ejerce, por lo tanto, una presión que tiende a dilatarlo; por otra parte, la
propia atracción gravitacional del gas tiende a contraerlo. Si la distribución
del gas fuera perfectamente homogénea, la pre-sión y la gravedad mantendrían el
equilibrio por tiempo indefi-nido. Pero, una parte de la nube puede ser
ligeramente más densa que otra y romper, así, el delicado equilibrio entre
pre-sión y gravedad. Esto sucede si la masa de un pedazo de nube se excede de
cierto valor crítico, de tal modo que la fuerza gra-vitacional domina
definitivamente y el pedazo empieza a con-traerse. Y no importa que tan pequeña
haya sido la perturba-ción inicial de la densidad pues la contracción procederá
inevi-tablemente.
115
En principio, un proceso similar pudo coincidir a la formación de una
galaxia. La mayoría de los astrofísicos piensan que las galaxias se formaron
porque la materia cósmica, en los prime-ros instantes del Universo, no era
perfectamente homogénea sino que había grumos de materia. Estos grumos
empezaron a contraerse por su propia gravedad y dieron lugar a condensa-ciones
gaseosas, a partir de las cuales se formaron posterior-mente las estrellas.
Sin embargo, la
expansión del Universo retarda seriamente la contracción gravitacional. Los
cálculos indican que si una in homogeneidad se formó un segundo después de la
Gran Explo-sión, en la actualidad no se habría transformado todavía en algo
parecido a una galaxia. Si uno quiere explicar la formación de las galaxias con
el mecanismo descrito tiene que fijar el inicio de la contracción a épocas
mucho más remotas.
Aquí es donde surge
una vez más el problema del horizonte. Imaginemos una cierta región del espacio
que, al contraerse, dio origen a nuestra galaxia. Esa región en la actualidad
podría ser, digamos, l00 veces más grande que nuestra galaxia. Ahora vayamos
hacia atrás en el tiempo: en algún momento en el pa-sado, de acuerdo con la
figura 13, la región que se colapsó era tan grande como el horizonte de esa
época. Y si uno se va aún más atrás en el tiempo resulta que la materia que
posteriormen-te formó nuestra galaxia estaba distribuida en una región
muchísimo más grande que el horizonte. Por lo tanto, no pudo haber interacción
entre sus partes para iniciar la contracción gravitacional.
Este era un
problema básico de la cosmología hasta que apare-ció la idea de la inflación.
Si analizamos la figura 14 vemos que el problema desaparece, ya que tenemos la
situación des-crita más detalladamente en la figura 15. Podemos tener un
116
grumo inicial en el Universo antes de la inflación, quizás justo en el
tiempo de Planck. Ese grumo está contenido dentro de su horizonte en esa época.
Después sobreviene la inflación. El horizonte permanece constante. El grumo
deja de contraerse y se expande de manera violenta con todo el resto de la
materia en el Universo; a partir de algún momento es más grande que el
horizonte. Cuando termina la inflación el grumo sigue expan-diéndose con el
Universo, pero ahora también el horizonte cre-ce y lo alcanza. A partir de ese
momento el grumo está de nue-vo dentro del horizonte y reanuda su contracción
por su propia fuerza gravitacional para transformarse finalmente en algo
pa-recido a una galaxia.
Figura 15. Esquema
de la formación de una galaxia a partir de una fluctuación cuántica.
En principio es
perfectamente posible que las galaxias, o más bien las pequeñas fluctuaciones
de densidad que después die-ron origen a ellas, aparecieran durante el tiempo
de Planck. En
117
esa época tan remota el mismo espacio-tiempo estaba en plena turbulencia
y, tal como un gas turbulento en el que algunas regiones son más densas que
otras, había fluctuaciones cuánti-cas del vacío que pudieron ser la semilla de
las galaxias. ¡Una fluctuación cuántica que origina algo tan grande como una
ga-laxia!
Este es, a grandes
rasgos, el escenario para la formación de galaxias de acuerdo con el modelo de
la inflación. Lo intere-sante es que lleva a predicciones teóricas muy
concretas. En el escenario de la inflación los cálculos predicen correctamente
las propiedades estadísticas de las fluctuaciones tal como de-bieron ser para
reproducir las condiciones actuales (por estadís-tica nos estamos refiriendo a
cuántos grumos se formaron con un tamaño dado). En lo que falla el modelo es en
el tamaño de las fluctuaciones propuestas. Todos los cálculos indican que las
fluctuaciones habrían sido tan intensas que, en lugar de formar galaxias,
formarían condensaciones muchísimo más densas, como hoyos negros. La única
manera de evitar tal catástrofe sería ajustar de manera extremadamente fina
y ad hoc los parámetros del campo que debió existir antes de
la inflación. Ésta es probablemente la principal falla del modelo
inflaciona-rio; los partidarios de este modelo piensan que con el tiempo se
podrá corregir este defecto con un modelo más apropiado, lo cual todavía está
por verse...
Otra posibilidad,
aún sin explorar; es que efectivamente se hayan formado hoyos negros en un
principio y que luego estos hayan propiciado la formación de galaxias a su
alrededor debi-do a la fuerza gravitacional que ejercían sobre la materia en
sus entornos. Después de todo, hay evidencias de que hoyos negros gigantescos
se encuentran en los núcleos de muchas ga-laxias.25
118
Independientemente de todo lo anterior la hipótesis de que las galaxias
se hayan formado por la contracción gravitacional de la materia cósmica se
enfrenta a un problema muy serio. La radiación de fondo, que fue emitida cuando
se apagó el fuego primordial, es extremadamente homogénea y sólo muestra
irre-gularidades espaciales del orden de una parte en 10 000. Si tales
irregularidades corresponden a los grumos que dieron origen a las galaxias, los
cálculos indican que definitivamente no tuvieron tiempo suficiente para
contraerse. La única salida consiste en proponer que existe masa invisible en
forma de partículas fantasmas, tal como explicamos en el capítulo ante-rior.
Las galaxias, entonces, empezarían a formarse por la con-tracción gravitacional
de grumos de materia fantasma, que sólo interactúa gravitacionalmente. Estos
grumos podrían estar bas-tante condensados cuando se liberó la radiación de
fondo, pero no tuvieron absolutamente ninguna influencia en ella porque no
interactúan con la luz. Posteriormente esas grande condensa-ciones invisibles e
impalpables atraerían la materia común con la que se formarían las galaxias con
sus estrellas.
Este es, de modo
general, un posible mecanismo para la forma-ción de galaxias. Los cálculos de
los cosmólogos muestran que el proceso funciona razonablemente bien si las
partículas fan-tasmas tienen masas del orden de la masa del protón.
A pesar de algunas
fallas serias y de que no explica todo lo que uno quisiera que se explicara, el
modelo del Universo inflacio-nario es lo suficientemente interesante y complejo
para confiar en que con algún ingrediente desconocido hasta ahora, se lle-gue a
un escenario más plausible para la Gran Explosión, la creación de la materia y
la estructura del Universo tal como las observamos en la actualidad. ■
GLOSARIO
antimateria. Materia hecha
de antipartículas: positrones, anti-protones, antineutrones, etcétera.
antipartícula. A todas las
partículas elementales que son fer-miones corresponde una antipartícula con la
misma masa, pero con carga eléctrica y otras propiedades invertidas.
átomo. Constituyente
de la materia formado de un núcleo ató-mico rodeado de electrones.
barión. Partícula
elemental formada por tres cuarks. Los ba-riones más comunes son el protón y el
neutrón.
Big Bang. Véase Gran
Explosión.
bosón. Nombre
genérico de las partículas elementales de espín 0, h, 2h, etcétera. Se asocian
a las interacciones.
campo. Concepto
fundamental de la física moderna para des-cribir la fuerza ejercida a distancia
por una partícula.
campo de Higgs. Campo cuántico
que genera la masa de otras partículas.
color. Propiedad de
los cuarks, semejante a la carga eléctrica.
cuark. Partícula
constitutiva de los bariones y mesones.
electromagnetismo. Una de las
cuatro interacciones funda-mentales de la naturaleza. Es de largo alcance, por
lo que se manifiesta tanto a nivel cuántico como en el macromundo.
electrón. Partícula
elemental estable con carga eléctrica nega-tiva.
120
espacio-tiempo. Espacio de cuatro dimensiones que resulta de
considerar el tiempo como una cuarta dimensión, en adición al espacio común de
tres dimensiones.
espín. Propiedad
intrínseca de las partículas elementales, aná-logo cuántico del momento
angular, que toma sólo valores múltiplos enteros o semienteros de h.
estrella. Cuerpo
celeste que emite luz debido a la generación de energía por fusión nuclear en
su centro.
fermión. Nombre
genérico de las partículas elementales con espín áh, éh, etcétera. Se asocian a
la materia.
fotón. Partícula
elemental de la luz.
galaxia. Conglomerado
de cientos de miles de estrellas unidas por su mutua atracción gravitacional.
gluon. Partícula
elemental que produce las interacciones de color entre los cuarks.
Gran Explosión. Estado
inicial del Universo que corresponde a una densidad teóricamente infinita de
materia.
Gran Unificación. Teoría, por
ahora especulativa, que consi-dera las interacciones fuertes, electromagnéticas
y débiles co-mo tres aspectos de una misma interacción.
gravitación. Una de las cuatro
interacciones fundamentales de la naturaleza. Es la más débil en intensidad
pero domina a esca-la cósmica.
helio. Elemento
químico. Su núcleo atómico consta de dos protones y dos neutrones.
hidrógeno. Elemento químico,
el más abundante en el Univer-so. Su núcleo atómico consta de un único protón.
121
hoyo negro. Concentración de masa con un campo gravitacio-nal tan intenso que
nada, ni siquiera la luz puede salir de él. Se cree que estrellas más masivas
se vuelven hoyos negros des-pués de terminar sus reacciones nucleares. También
hay evi-dencias de la existencia de hoyos negros gigantescos en los núcleos de
ciertas galaxias.
inflación. Teoría
cosmológica según la cual el Universo sufrió una expansión violenta, unos 10-36 segundos
después de la Gran Explosión. El Universo actualmente visible habría tenido un
tamaño de solo 10 centímetros antes de la inflación.
interacción débil. Una de las
cuatro interacciones fundamenta-les de la naturaleza. Es de muy corto alcance y
sólo se mani-fiesta en el nivel cuántico.
interacción fuerte. Una de las
cuatro interacciones fundamen-tales, responsable de la cohesión de los protones
y neutrones en los núcleos.
leptón. Partícula
elemental que no interactúa fuertemente. Los electrones y neutrinos son
leptones.
ley de Hubble. Ley observacional
según la cual la distancia entre dos galaxias aumenta con una velocidad
directamente proporcional a esa distancia. La implicación directa es que el
Universo está en expansión.
mesón. Partícula
elemental inestable, formada por un cuark y un anticuark, que interacciona
fuertemente con otras partículas.
neutrino. Partícula sin
masa (hasta donde se sabe) y sin carga eléctrica, que sólo interactúa débil o
gravitacionalmente con la materia.
neutrón. Partícula del
núcleo atómico ligeramente más masiva que el protón y sin carga eléctrica.
122
núcleo atómico. Parte central de un átomo formado de
proto-nes y neutrones amarrados entre sí por interacciones fuertes.
positrón. Antipartícula
del electrón, idéntica a éste excepto por la carga eléctrica (positiva).
protón. Partícula del
núcleo atómico, con carga eléctrica (posi-tiva).
radiación de fondo. Radiación
luminosa generada cuando la temperatura del Universo bajó a unos 5 000 grados
Kelvin y la materia cósmica se tornó transparente. Se observa en la actua-lidad
como una radiación de microondas proveniente, en forma totalmente homogénea, de
todas las regiones del Universo.
relatividad
especial. Teoría elaborada por Albert Einstein, según la cual no existe un
sistema absoluto de referencia pues todos los fenómenos físicos tienen la misma
forma en cualquier sistema. Implica, entre otras cosas, que la velocidad de la
luz en el vacío tiene siempre el valor y que el tiempo transcurre de manera
distinta según quien lo mida.
relatividad
general. Extensión de la relatividad general, tam-bién debida a Albert
Einstein, que interpreta la gravitación co-mo una curvatura del espacio-tiempo.
supercuerda. Según una
teoría reciente, objeto fundamental de la que están hechas todas las partículas
elementales y que se manifiestan en un espacio de muchas dimensiones, de las
cua-les sólo percibimos cuatro.
123
El filósofo griego
Demócrito afirmaba que la materia está constituida de partículas indivisibles:
los átomos. Hoy sobemos que tuvo razón en lo esencial, aunque los que llamó
átomos resultaron ser divisibles. Los ingredientes fundamentales del Universo
no son los átomos sino las partículas elementales que los forman y las fuerzas
de interacción entre esas partículas. Empero, las partículas elementales se
comportan de acuerdo con las extrañas leyes del mundo cuántico, donde el mismo
concepto de partícula pierde su sentido.
Las ideas que se
tenían sobre la materia y la energía, la fuerza, el tiempo y el espacio,
cambiaron radicalmente en el siglo XX con la aparición de las dos teorías que
son los pilares de la físi-ca moderna: la mecánica cuántica y la relatividad.
Otro cambio radical se produjo con el descubrimiento de la expansión del
Universo, que llevó a los físicos y astrónomos a elaborar la teoría de la Gran
Explosión, según la cual el Universo habría surgido hace unos 15 mil millones
de años en circunstancias que sólo se pueden describir por medio de la física
cuántica.
Los extremos se
tocan: la evolución del Universo está determi-nada por el comportamiento de la
materia en el nivel microscó-pico; a su vez la cosmología moderna permite
estudiar las pro-piedades más fundamentales de la materia en lo que constituye
el mayor laboratorio concebible: el Universo mismo Del mun-do cuántico
al Universo en expansión, reseña esta relación en-tre lo cósmico y lo
atómico en lenguaje accesible al público en general.
124
Shahen Hacyan obtuvo la licenciatura en física en la UNAM y el doctorado
en física teórica en la Universidad de Sussex, In-glaterra. Es investigador del
Instituto de Física y profesor de la Facultad de Ciencias, instituciones de la
UNAM. Ha publicado otros tres libros en la colección La Ciencia para
Todos: El des-cubrimiento del Universo, Los hoyos negros y Relatividad
para principiantes. Además, ha escrito numerosos artículos de di-vulgación
científica, así como una novela Regreso a Laputa y Balnibarbi,
UNAM. 1993.
Diseño original:
Calos Haces / Diseño de portada: Teresa Can-dela

No hay comentarios:
Publicar un comentario