© Libro N° 8603. Historia De Las Ideas Científicas. Moledo, Leonardo Y Olszevicki, Nicolás. Emancipación.
Mayo 15 de 2021.
Título
original: © Historia De Las Ideas
Científicas. Leonardo Moledo Y Nicolás Olszevicki
Versión Original: © Historia De Las Ideas Científicas.
Leonardo Moledo Y Nicolás Olszevicki
Circulación conocimiento libre, Diseño y edición
digital de Versión original de textos:
http://www.librosmaravillosos.com/historiadelasideascientificas/index.html
Licencia Creative Commons:
Emancipación
Obrera utiliza una licencia Creative
Commons, puedes copiar, difundir o remezclar nuestro contenido, con la única
condición de citar la fuente.
La Biblioteca Emancipación Obrera es un medio de difusión
cultural sin fronteras, no obstante los derechos sobre los contenidos
publicados pertenecen a sus respectivos autores y se basa en la circulación del
conocimiento libre. Los Diseños y edición digital en su mayoría corresponden a
Versiones originales de textos. El uso de los mismos son estrictamente
educativos y está prohibida su comercialización.
Autoría-atribución: Respetar la autoría del texto y el nombre de los autores
No comercial: No se puede utilizar este trabajo con fines
comerciales
No derivados: No se puede alterar, modificar o reconstruir este
texto.
Portada E.O. de Imagen original:
http://www.librosmaravillosos.com/historiadelasideascientificas/imagenes/portada.jpg
© Edición, reedición y Colección Biblioteca Emancipación: Guillermo Molina
Miranda
LEAMOS SIN RESERVAS,
ANALICEMOS SIN PEREZA Y SOMETAMOS A CRÍTICA TODA LA CULTURA
HISTORIA DE LAS IDEAS CIENTÍFICAS
Leonardo Moledo
Y Nicolás Olszevicki
Historia De Las Ideas
Científicas
Leonardo Moledo Y Nicolás
Olszevicki
CONTENIDO
Muy breve introducción
Parte I: Un largo amanecer
1. La ciencia antes de la ciencia
2. El eclipse
3. Ser o no ser
4. Platón y aristóteles
5. La escuela de alejandría
6. La medicina antigua de hipócrates a galeno
7. El asalto al cielo
Parte II: Luces y sombras de la edad media y el renacimiento
8. Plantas, animales y lugares que nunca existieron
9. En la taberna
10. Magos, brujas, humanistas e ingenieros: de la edad media al
renacimiento
11. Un sinuoso camino hacia la revolución científica
12. El problema del movimiento
Parte III: La revolución científica
13. El hombre que movió al mundo
14. La derrota del círculo
15. Galileo
16. El conflicto con la iglesia
17. Newton, hacedor de universos
18. En busca de la certidumbre: el compromiso de 1758
Parte IV: La ciencia ilustrada: el triunfo de las disciplinas
particulares
19. Los éxitos de la ciencia experimental
20. La circulación de la sangre y las nuevas polémicas biológicas
21. Todos los fuegos el fuego: la revolución química
22. El tiempo profundo
23. La luz, el calor, la electricidad
24. La forma del cielo y la filosofía natural
Parte V: En busca de la unidad
25. La teoría de la evolución
26. La república celular y la invasión microbiana
27. El triunfo de los átomos
Parte VI: De los rayos x a la doble hélice
28. Los rayos x y la radiactividad
29. El anhelo de la conservación y la ley de leyes
30. El mapa y el territorio: las geometrías no euclidianas, el infinito
y el éter
31. Einstein y la teoría de la relatividad
32. La teoría de la deriva continental y la estabilización de la
geología
33. La genética
34. La medicina científica entre la anestesia y los trasplantes
Parte VII: Persiguiendo el origen: el camino a la partícula divina
35. La mecánica cuántica
36. La fisión nuclear y la bomba atómica
37. El núcleo atómico y el modelo estándar
38. En busca del origen
39. La estructura del universo y la teoría del Big Bang
40. La «Máquina de Dios»
Finale
Agradecimientos
Muy breve introducción
Vamos a contar una historia. Una historia que en realidad comienza hace
muchísimo tiempo, cuando el hombre logró dominar el fuego mediante el golpe
inteligente de dos piedras de sílex, y termina… no termina nunca. Es el relato
de cómo nuestra especie se abrió paso pesadamente desde la profundidad de las
sabanas africanas hacia el resto del planeta, fundó ciudades y las pobló de
aparatos, estudió y logró comprender algunos fenómenos celestes y terrestres,
indagó en las profundidades de la materia, llegó a atisbar la enormidad del
universo y la insólita complejidad de lo pequeño, tuvo que admitir, con
valentía y cierta decepción, que su lugar en el escenario total es
insignificante. Y, así y todo, no se amedrentó y continuó explicando,
explicando y explicando.
La que sigue no es una historia de grandes héroes y de grandes descubrimientos,
o por lo menos no es sólo eso. Es, más bien, la de los múltiples intentos y las
líneas de pensamiento que pretendieron alcanzar una explicación medianamente
satisfactoria de esa cosa incomprensible que, por no tener una mejor palabra,
llamamos realidad. Es la narración de una enorme cadena de malentendidos, de
confusiones, de errores y rectificaciones; una cadena que, sin embargo, con
idas y vueltas, condujo improbablemente a nuestro conocimiento actual.
En esta historia es inevitable percibir hilos o linajes de pensamiento que se
arrastran a lo largo de los siglos, ya inclinándose hacia un lado, ya hacia el
otro, muchas veces eclipsándose por un tiempo y resurgiendo sorpresivamente
después: por poner solo un ejemplo, el atomismo que triunfa en el siglo XIX
reconoce trazas que se remontan a los griegos Demócrito y Leucipo, tan
denostados por el viejo Aristóteles. No quiere esto decir que en el siglo V
a.C. los filósofos de la naturaleza, como se llamaba a los científicos por
entonces, hubieran alcanzado a explicar la estructura de la materia tal como
luego lo hizo el cuarteto Dalton-Thomson-Rutherford-Bohr, pero sí que a lo
largo de su trayecto el intelecto humano —a veces por cuestiones empíricas, a
veces por cuestiones teóricas, a veces por necesidad de completar un sistema—
va y vuelve sobre las mismas ideas. Lo que se verifica en el siglo XVII se pudo
pensar con claridad en el XI; una intuición perdida de un medieval resuelve lo
que algún moderno no puede explicar; un sistema astronómico de la antigüedad
clásica sobrevive intocable durante trece siglos y se derrumba con un genial
golpe de intuición.
Aunque la visión que tenemos hoy en día de la ciencia se remonte a la que
heredamos de los siglos XVI y XVII, de esa gigantesca epopeya intelectual que
se extiende aproximadamente entre Copérnico y Newton, nuestro relato comienza
antes, mucho antes. Esto se debe a que, si bien la idea de progreso científico
es relativamente nueva en la historia de la humanidad, la ciencia no empezó
allí: los griegos, hace más de 2.500 años, hicieron buena ciencia, tuvieron muy
en claro lo que puede lograr la conjunción de la observación y la teoría y
llegaron a resultados asombrosos, que motivaron el surgimiento, en Alejandría,
de las ciencias particulares.
También, contra lo que se suele pensar, hubo una rica ciencia medieval. En la
segunda parte de la Edad Media, después del siglo XI, se pensaba (y mucho)
acerca de la estructura del mundo y, sobre todo, acerca de la naturaleza del
movimiento, que sería el problema sobre el cual se sostendría la Revolución
Científica. Se discutía, había distintas escuelas y había, sobre todo, un
brillo intelectual impresionante. Roger Bacon imaginaba máquinas voladoras y
submarinos antes que Leonardo, Guillermo de Ockham cortó los hilos entre razón
y fe y Bernardo de Chartres, con una avanzada idea del carácter dialógico del
progreso intelectual, decía: «Si vemos más lejos, es porque estamos subidos en
hombros de gigantes». Frase que, dicho sea de paso, popularizó luego Newton en
una escandalosa polémica que tuvo con Robert Hooke y que define bastante bien
el modo en que avanza el pensamiento científico y la manera en que se fue
desenvolviendo desde las primitivas tortugas que nadaban en el agua que
sostenía al mundo hasta el modelo estándar de partículas que se quiere
comprobar en el Superacelerador de Hadrones, llamado también, con evidentes
fines publicitarios, la Máquina de Dios (aunque nada tenga que ver con ningún dios).
Hoy sabemos más —mucho más— de astronomía que Ptolomeo o Kepler, de física que
Newton (e incluso que Einstein), de medicina que Hipócrates, de química que
Lavoisier. Tenemos en nuestras manos piedras lunares. Hay aparatos explorando
Saturno, Júpiter y Marte. Nuestra medida del universo es más exacta que la de
Copérnico. A pesar de lo que no sabemos y de lo que no nos imaginamos que no
sabemos, podemos decir que el acervo de conocimientos que tenemos es mayor
—objetivamente mayor— que el que tenían los griegos, o el que se tenía hace dos
siglos.
Si lo pensamos así, no podemos sino preguntarnos cómo es que llegamos desde las
luminosas intuiciones de Tales de Mileto hasta nuestra multiforme realidad
contemporánea. Todo esto tiene evidentemente ribetes de una aventura
inigualable: es la historia del esfuerzo intelectual del hombre por comprender
el mundo en el que le tocó vivir. Allá vamos.
Algunas aclaraciones preliminares
Al comenzar la redacción de los fascículos que forman el antecedente de
este libro, opté por la primera persona, como una conversación con el lector.
Cuando encaramos la transmutación en libro, conservamos de común acuerdo esa
voz que se usaba los fascículos, voz que encierra un «nosotros» y es el
resultado de una decisión estilística.
LEONARDO MOLEDO
Este libro es la lógica culminación bibliográfica de la serie de
cuarenta fascículos que, con el mismo título, fueron publicados en Página/12 entre
el 10 de octubre de 2012 y el 24 de julio de 2013. Ambos —fascículos y libro—
fueron escritos y discutidos por los autores, casi íntegramente, en el café La
Orquídea, en la esquina de Acuña de Figueroa y Medrano. La aclaración no es
ociosa: desde la derrota de Solimán el Magnífico a las puertas de Viena, el
café se ha convertido en uno de los lugares privilegiados para desarrollar el
pensamiento y la imaginación.
El relato sigue, cuando se puede, un orden cronológico. Si bien es posible
abordar los capítulos de manera aislada, es altamente recomendable, al menos en
una primera lectura, hacerlo en orden: es en el diálogo entre el pasado y el
presente que se construye la historia que se quiere contar.
NICOLÁS OLSZEVICKI
Parte I
Un largo amanecer
Contenido:
1. La ciencia antes de la ciencia
2. El eclipse
3. Ser o no ser
4. Platón y Aristóteles
5. La escuela de Alejandría
6. La medicina antigua de Hipócrates a Galeno
7. El asalto al cielo
Capítulo 1
La ciencia antes de la ciencia
Vamos a emprender un largo viaje. En él, exploraremos la manera en que
las primitivas visiones del mundo pudieron llegar a convertirse en la
cosmovisión altamente compleja y matematizada que tenemos hoy sobre el
funcionamiento del universo y las cosas que hay en él. Un largo viaje, sí, que
se extiende desde las más primitivas teorías científicas hasta la Relatividad,
el Big Bang, y este mundo de motores, computadoras y aparatos en el que, un
poco a los tumbos, nos acostumbramos a vivir. En esa travesía empezaremos,
cronológicamente, por la ciencia en la Antigüedad y nuestra primera estación
será, como es tradicional, Grecia.
Pero antes de que Grecia entrara en escena y la hiciera fulgurar, hubo grandes
imperios y ciudades, hubo pirámides y zigurates, y, antes aún, la fructífera,
brillante y larga noche prehistórica, durante la cual nosotros, los humanos,
nos abrimos paso a través de la maraña de la evolución, luchando trabajosamente
contra un mundo adverso. No podemos olvidar todo esto, de modo que tenemos que
hacer algunas escalas antes de conocer al hombre que inventó la ciencia.
Allá vamos.
§. Océanos de tiempo
Primero vino el fuego, el árbol que ardía,
la floresta incendiada que aquellos hombres monos mirarían pasmados.
Luego la quemadura y el grito: hubo una conjunción momentánea y milagrosa.
Apenas el fuego y la piel se separaron, nació todo relato y cada mínima
leyenda.
Hablo del origen, de la vegetación de piel húmeda,
de la selva sudorosa y tranquila.
Del trueno metálico, la madera elemental.
Era el tiempo en que nacían los lenguajes,
cuando el mito rodó por los fogones.
Hablo de la tribu sentada junto al fuego,
como ahora nosotros.
Del grito de la horda,
del sonido áspero, de la piedra contra la piedra ablandándose,
haciéndose lenguaje, sometiéndose
a la lenta presión de la gramática.
La especie hacía pie sobre la roca viva,
los días eran cortados a cuchillo,
la noche apenas duraba.
Las cavernas se poblaron de alfareros,
entre gritos nacía
la imperfecta redondez de la cerámica.
Y el primer relato: «yo hice esto».
«Yo lo fabriqué», «contiene el agua».
Las palabras viajaron cambiando las formas, inventando
las costumbres, adaptándose
a la torre y al arado.
Los metales temblaron.
Alguien saludó a alguien, alguien dijo
que tuvo miedo esa noche.
El viaje, el peligro, el trueno,
se hicieron relato,
anticipando la Ilíada y la radio.
Por eso es que a veces nos callamos frente al fuego,
reavivando fogones ancestrales,
evocando esa memoria de la especie,
donde duermen vigilantes las abuelas
tejedoras.
No hay que olvidar que la historia humana, lo que consideramos historia
humana, es apenas una pequeñísima, casi miserable fracción de nuestra historia
como especie, e incluso de nuestra historia como especie tecnológica. En otras
palabras: no hay que perder de vista que en general, cuando pensamos en la
historia del hombre, abarcamos apenas los últimos diez o doce mil años, cuando
la verdadera historia, la que se remonta hasta el origen del Homo
sapiens, tiene alrededor de cien mil. Y muchísimos más si nos estiramos
hasta nuestros antecesores, los homínidos, que tuvieron por cierto sus propias
tecnologías, a veces bastante sofisticadas (lo cual no es poco decir: significa
que hubo ciertamente algo que podemos llamar, sin remordimientos de conciencia,
«tecnología prehistórica»).
Y así, si hace cien mil años surgieron los esqueletos anatómicamente modernos,
ya hacía cuatrocientos mil que se habían encendido las hogueras del hombre de
Pekín. El control del fuego fue una de las revoluciones tecnológicas más importantes
de la historia humana. Al calor del fuego (que aseguraba el abrigo y la
defensa, además de la luz), nacían también la cerámica y los instrumentos de
piedra; la fabricación de jabalinas de madera (hace cuatrocientos mil años), el
arco y la flecha, los cepos, las trampas y las redes (hace veintitrés mil).
Son océanos de tiempo de los que cada vez nos da más detalles el trabajo de los
arqueólogos: la prehistoria constituye el 99 por ciento de la historia humana,
sobre todo, como decíamos antes, si tomamos en cuenta a nuestros antepasados,
los homínidos, que dejaron en Laetoli (Tanzania, África) treinta metros de
huellas, conservadas debido a la erupción de un volcán que las cubrió de
cenizas y que, según la datación, se remontan a tres millones de años atrás.
Tres millones de años atrás… es difícil de imaginar, pero es el largo amanecer
de la especie humana.
Respecto de la tecnología: es posible que todos los adelantos hayan surgido de
manera accidental, o mediante el sistema de prueba y error, o simplemente por
el impulso imaginativo para ver el comportamiento de cierta sustancia. Por
supuesto, no son más que conjeturas.
¿Pero podemos referirnos a todo esto como «ciencia»? No lo creo. Por un lado,
no se puede negar que todos estos pueblos, para conseguir sus técnicas,
experimentaron, en el sentido general de la palabra. Es decir, los
«experimentos», o mejor, las pruebas, no fueron ideados para probar teorías
sino para un mejoramiento pragmático del producto final (por ejemplo, el ensayo
de técnicas de fundición para la obtención de mejores aleaciones, como lo hace
cualquier artesano moderno). Tampoco implicaban teorización consciente, pero sí
evidenciaban una capacidad de observación y aprendizaje basada en la
experiencia. Esto se nota en la complejidad y minucia de muchos sistemas de
clasificación descubiertos en las sociedades «primitivas» tales como, por
ejemplo, el de Filipinas, que enumeraba 461 tipos zoológicos.
§. Revolución
Hace unos diez mil años, más o menos, se produjo una revolución tecnológica,
quizá la más importante de la historia humana (o la segunda, si consideramos la
domesticación del fuego): el descubrimiento de la agricultura. El proceso se
extendió a lo largo de unos pocos miles de años y de alguna manera definió las
líneas generales de la cultura globalizada. El paso de la caza y la recolección
a la agricultura implicó tecnologías nuevas (como el riego, o la domesticación
de semillas y animales) y, sobre todo, la aparición del concepto de propiedad.
Para un nómada, la propiedad (en especial si es pesada) representa una molestia
en su permanente transportarse; para un sedentario, no, y puede ser fuente de
codicia, de rivalidad y poder.
Acostumbrados a la (aparente) velocidad con que hoy cambia la tecnología, nos
cuesta imaginar que una innovación de tanto peso como la agricultura se
difundiera a un ritmo de tortuga, aunque —parece— firme y constante.
Pero piensen que esa revolución todavía hoy no se ha completado del todo: doce
mil años después, siguen existiendo pueblos nómades, pueblos seminómadas,
pueblos cazadores-recolectores y existen pueblos, incluso, que nunca han tenido
(ni quieren tener) contactos con la cultura occidental —y en muchos casos no
cabe sino darles la razón—.
Sea como fuere, en un período «corto» de tres o cuatro mil años, la agricultura
se extendió a todos los lugares donde después se asentarían grandes
civilizaciones: China, el valle del Indo, México y Perú, la Mesopotamia,
Egipto. Dije a propósito «un período corto de tres o cuatro mil años», para dar
una idea de lo que es la larga duración, en la que mil años no significan nada.
Es una perspectiva que nos suele resultar extraña, justamente porque nuestra
perspectiva, por el contrario, es de muy corta duración: al fin y al cabo, una
vida humana dura en promedio 80 años, que son solamente treinta mil días (dicho
en días parece muy poco, ¿no?). Por eso, pensar en la larga duración
desconcierta: a un griego del siglo V las pirámides le parecían antiquísimas
(como testimonia Heródoto, historiador y viajero del siglo V a.C.). Y no es
raro, ya que la distancia temporal entre Heródoto y las pirámides (¡veintitrés
siglos!) es más o menos la misma que la que hay entre Heródoto y nosotros.
Pero volvamos. La agricultura genera una transformación radical de la sociedad,
porque implica la transición de una sociedad nómada a otra sedentaria: hacen
falta asentamientos permanentes para sembrar y cosechar; los sembrados deben
ser cultivados y defendidos y paulatinamente se impone la norma del
sedentarismo.
Es así: la agricultura crea el poblado, el crecimiento de los poblados lleva a
la ciudad (en el 8000 antes de nuestra era ya tenemos la primera, en la meseta
de Anatolia, hoy Turquía), y la ciudad a la invención del Estado y a la
distribución del trabajo entre quienes cultivan, quienes defienden y quienes
distribuyen (o se apropian de) el producto y los excedentes (cuando los hay).
Esa división, mutatis mutandis, es a grandes rasgos la que sigue
existiendo hoy, con todas sus variaciones y matices. Seguramente, he aquí el
comienzo de eso que se llama «división del trabajo», y de la posibilidad de que
algunos también dispusieran de un tiempo no dedicado a la subsistencia que
redundó, finalmente, en una organización cada vez más compleja de las
incipientes sociedades…
La revolución agrícola, así, conduce a la construcción de grandes imperios que
aplican tecnologías a gran escala, como Egipto, China y los diversos regímenes
mesopotámicos, que utilizaban técnicas muy avanzadas. Y tenemos que ocuparnos
un poco de esos imperios en nuestro camino hacia el origen de la ciencia
occidental.
§. Mesopotamia
La Mesopotamia, ubicada entre el Éufrates y el Tigris, donde apareció la
escritura, fue un rejunte de pueblos que adoptaron una multiplicidad de formas
organizativas, que iban desde ciudades gobernadas por reyezuelos hasta imperios
(como por ejemplo el temible Imperio Asirio, que duró, con sobresaltos, desde
1780 hasta 609 a.C., y que en algún momento se extendió hasta la frontera con
Egipto). Todo lo cual, como se imaginan, generaba un estado de guerra
permanente y de constante incertidumbre (« ¿cuál será el próximo invasor?»),
que incentivó el desarrollo de las «artes adivinatorias», heredadas de viejas
tradiciones neolíticas (de la Edad de Piedra), o transportadas por los pueblos
que cada tanto «buscaban hacerse un lugar», por decirlo suavemente, con su
secuela de matanzas, guerras y calamidades, en esa región por lo demás fértil.
Tales «artes adivinatorias», por llamarlas de alguna manera, estaban basadas
fundamentalmente en el escrutinio del cielo, en el que los astros eran
asimilados a dioses y también en el examen de las entrañas de las víctimas de
los sacrificios, junto a toda una parafernalia de amuletos, y de indagaciones
sobre si las aves volaban a la izquierda o a la derecha y cosas por el estilo.
En gran parte por eso, la observación del cielo, particularmente, fue
minuciosa, y derivó en la acumulación de larguísimas series y tablas de datos
que permitían predecir, a grandes rasgos, eclipses de Sol y de Luna y otros
fenómenos celestes: los mesopotámicos reconocieron los planetas visibles a
simple vista como distintos de las estrellas, nombraron constelaciones, muchas
de las cuales tomaron, levemente modificadas, los griegos, e introdujeron el
zodíaco, que marca el camino anual del Sol, la Luna y los planetas a lo largo
del año (el camino o movimiento aparente, ya que todavía obviamente no se
pensaba que es la Tierra la que se mueve).
A diferencia de las cosmogonías mitológicas, todos estos datos, así como las
tablas aritméticas para sumar, multiplicar y dividir que desarrollaron en
extremo, incluyendo el uso de fracciones, revistieron un carácter «terrenal»,
que no estaba ligado a dioses de ningún tipo.
De paso, ya que estamos, hay que decir que las civilizaciones babilónicas,
aquellas que ocupaban la Mesopotamia inferior o Baja Mesopotamia, tuvieron una
herramienta crucial en el manejo de los números, porque desarrollaron un
sistema de numeración con dos rasgos originales respecto de todos los sistemas
antiguos. Se trata de un sistema de numeración posicional de base
sexagesimal(es decir, de base 60 en lugar de 10). Ambas innovaciones, la
posicionalidad y la sexagesimalidad, tendrían una larga vida: de la cuestión
sexagesimal todavía quedan rastros en nuestra división de las horas en sesenta
minutos y de los minutos en sesenta segundos. El sistema posicional, que se
contrapone al principio de yuxtaposición que fue el fundamento, prácticamente,
de todos los sistemas antiguos y que se conserva en la notación con «cifras
romanas», es el que usamos hoy en día: el valor de un signo numérico depende de
su posición relativa en el número escrito (por ejemplo, en 555 cada uno de los
«5» tiene distinto valor, aunque el carácter empleado es idéntico).
Por otra parte, los babilonios habían logrado inventariar por medio de tablas
algunas de las operaciones matemáticas más frecuentes, incluyendo tablas de
cuadrados, de raíces cuadradas, cubos y raíces cúbicas, y resolvían ecuaciones
simples. Tenían excelentes aproximaciones de π (3,14159…), que como ustedes
saben es la relación entre el diámetro y la longitud de la circunferencia y
está relacionado con todos los cálculos y observaciones que se hacen sobre el
cielo…. Y también sobre la tierra: π es fundamental en arquitectura, en la
medición de distancias, puesto que se mete con todo lo que sea circular. A
veces pienso que el desarrollo matemático de una cultura se puede medir por la
aproximación que tienen de π, aunque esta idea mía probablemente no es más que
una exageración. ¿Saben cuántos decimales sabemos hoy en día? Más de dos mil
millones, aunque con sólo seis alcanza para enviar un cohete a Saturno.
En fin: la astronomía y las matemáticas babilónicas fueron de gran importancia
para el movimiento especulativo, filosófico y científico que comienza en Grecia
en el siglo VI a.C., al cual le vamos a dedicar una buena parte del libro,
porque es allí donde se empieza a construir, de manera sistemática, el
pensamiento científico tal como lo concebimos hoy en día.
Y no es casualidad que Babilonia fuera esencial para los griegos, dado que
había sido la ciudad más grande, más rica y más culta del mundo. Tan tarde como
el siglo II d.C., el mismísimo Claudio Ptolomeo accedió a registros de eclipses
bastante completos desde el reinado de Nabonasar (siglo VIII a.C.) en adelante,
y utilizó el primer año del reinado como punto de partida para todos sus
cálculos astronómicos. Estos registros babilónicos se realizaron
originariamente con fines astrológicos o para verificar el calendario, lo cual
implica que habían emprendido numerosas observaciones de una variedad de
fenómenos celestes. Sin embargo, a pesar de las tablas y los cálculos
«desprovistos de alma», la cosmología babilónica siguió imbricada con la
mitología y no parece haber habido un esfuerzo por desprenderla de ella, o
simplemente, si lo hubo, no nos ha llegado. De esa cosmología vamos a hablar
enseguida, cuando veamos cómo concibieron el universo las primeras grandes
civilizaciones.
§. Egipto es un don del Nilo
Egipto, alrededor del 3000 a.C., se constituye como un Estado territorial y
centralizado. ¿Qué quiere decir «territorial»? Quiere decir que es un Estado
que gobierna un cierto faraón con una burocracia imperial, que tiene límites y
fronteras precisos, dentro de los cuales, y solamente dentro de ellos, valen
las leyes egipcias. Es un experimento político importante que durará tres mil
años, no todos tranquilos por cierto.
En posesión de la escritura desde el 3000 a.C., y de técnicas de construcción
extraordinarias (con mano de obra ilimitada y gratis, no está de más
recordarlo), los sacerdotes egipcios también observaron el cielo y los astros
(como en el caso mesopotámico, identificados con dioses), entre otras cosas,
para predecir las crecidas del Nilo, que una vez por año inundaban la franja a
sus costados y depositaban el limo fértil que garantizaría las cosechas, de lo
cual dependía la prosperidad del país. Así, determinaron que la aparición de la
estrella Sirio (Sepedet, para ser más justos con los egipcios) al
amanecer, después de varios meses de ausencia, marcaba el comienzo de la
crecida del Nilo, eje de la vida de la nación. El mismísimo Heródoto decía que
«Egipto es un don del Nilo», y nosotros podríamos decir que los egipcios
nacieron «ex Nilo», como alguna vez me dijo alguien de cuyo nombre quisiera
acordarme.
Siendo políticamente más estable que la Mesopotamia, la observación del cielo
era menos urgente para las artes de la adivinación: los egipcios no tuvieron
tablas de la magnitud de las mesopotámicas, pero sí tablas aritméticas y de
resolución de problemas algebraicos y geométricos. Al fin y al cabo, la
inundación del Nilo borraba las demarcaciones y límites entre parcelas, que era
necesario reconstruir cada vez por medio de operaciones geométricas. Según
Heródoto, es de aquí de donde sale la geometría que adoptaron los griegos, y,
de hecho, geometría no significa otra cosa que medición de la tierra. Pero como
sus compinches mesopotámicos, los egipcios no trataron de elevar los
conocimientos geométricos y aritméticos al nivel de generalizaciones, ni
intentaron demostrar proposiciones generales.
También, del mismo modo, los conocimientos astronómicos y la cosmogonía general
estaban completamente mezclados con la religión.
Ahora sí, podemos darnos el gusto de recordar las cosmologías egipcia,
mesopotámica y griega, que tienen el encanto y el fragor de las mitologías.
§. Cosmologías precientíficas y mitológicas
El encanto y el fragor, sí, pero también la complejidad y la dificultad que
trae acarreada la multiplicidad de dioses, que nos servirá para establecer un
contraste con las primeras formulaciones cosmológicas científicas griegas.
Empecemos por explorar las cosmologías mitológicas en la Mesopotamia.
El universo estaba regido por tres dioses, cada uno con diferentes dominios. El
cielo le correspondía a Anu, la tierra y el agua alrededor y debajo de ésta
eran el dominio de Ea, y Enlil gobernaba el aire que separaba a los dos
anteriores (estoy poniendo los nombres babilonios, ya que los antiguos sumerios
los llamaban de forma diferente). Anu era una especie de dios padre (y en
consecuencia tenía un estatus ligeramente superior). El universo estaba regido,
entonces, por el triunvirato Anu-Ea-Enlil.
Los dioses eran descendientes de un caos primigenio de agua, en este caso una
mezcla de agua salada y agua dulce. Originariamente, los dominios de Anu y Ea
estaban unidos y fueron separados cuando Enlil movió el cielo alejándolo de la
tierra. El universo mesopotámico también incluía un bajo mundo subterráneo
gobernado por un dios o una diosa. No tenemos datos suficientes para determinar
la forma que asignaban a la Tierra, pero con testimonios parciales podemos
adivinar que la veían como un disco plano.
Por otro lado, el dios Marduk, divinidad particular de Babilonia, comandaba a
la Luna, en la cual se basaba el calendario. Todos los años, la celebración del
Akitu (el año nuevo) reproducía la victoria de Marduk sobre Tiamat (la
serpiente), y sostenía los fundamentos del mundo. Fíjense que la serpiente
Tiamat, diosa de la perfidia, es la que aparecerá transfigurada en el mito
judío del génesis.
En Egipto las cosas eran ligeramente diferentes. Y no remarco
el «ligeramente» por un capricho: es muy curioso constatar todo lo que
comparten las cosmologías precientíficas, empezando por la división tripartita
del mundo (cielo, tierra, mundo inferior). Los egipcios, en efecto, creían que
el mundo constaba de tres partes: la tierra, de forma plana, estaba situada en
el medio, dividida por el Nilo y rodeada por un gran océano (también, un tópico
que se repite); sobre la Tierra, donde termina la atmósfera, el cielo era
sostenido en su lugar por cuatro soportes, algunas veces representados por
postes o montañas. Debajo de la Tierra estaba el infierno, llamado Duat. Esta
oscura región contenía todas las cosas que estaban ausentes del mundo visible,
tanto la gente muerta como las estrellas que desaparecen al anochecer o el Sol
después de haberse hundido debajo del horizonte (se suponía que durante la
noche viajaba a través de la región del bajo mundo, para reaparecer en el Este
a la mañana siguiente). O sea, era un verdadero zaquizamí de astros y de almas.
Hay por lo menos tres versiones diferentes sobre la creación del mundo en la
cosmogonía egipcia, y todas tienen en común que empiezan con un estado de aguas
primigenias, una ilimitada, oscura e infinita masa de agua que había existido
desde el principio de los tiempos y que continuaría existiendo en todo el
futuro (y que, a algún fanático de los «precursores» con un exceso de
imaginación, puede hacerle evocar la sopa de partículas posterior al Big Bang).
Aunque los dioses, la tierra y sus miles de habitantes eran todos productos de
las aguas primigenias, estas aguas todavía estaban presentes, envolviendo el
mundo por todos sus lados, sobre el cielo y debajo del infierno. El estado
líquido originario del caos era personificado por el dios Nun, quien le dio
nacimiento a Atum, el verdadero dios-creador, y creó de sí mismo dos nuevos
dioses, uno personificado por Shu, dios del aire, y otro por Tefenut, diosa de
la lluvia y la humedad.
Después vinieron la Tierra y el Cielo, representados por las deidades Geb y Nut
respectivamente. Sin embargo, la tierra y el cielo no estaban creados como
partes separadas, sino que en un principio estaban juntos y unidos. Fue Shu
quien levantó el cuerpo de Nut bien alto para que los cielos existieran, y al
mismo tiempo Geb, libre de su atadura, formó la tierra. Y el relato de la
creación continúa con la aparición de una variedad de nuevos dioses.
Los griegos también tuvieron su mitología de la creación, que aparece en
la Teogonía de Hesíodo (escrita en el siglo VII u VIII a.C.) y
que, como sospecharán, tiene bastantes similitudes con las cosmogonías
conocidas de la Mesopotamia y Egipto. Aunque la Teogonía es,
sobre todo, una cosmogonía, también da cuenta de la estructura del universo.
Para Hesíodo, la Tierra era obviamente plana y estaba rodeada por un río o un
océano (¡nuevamente!). Sobre la Tierra había un cielo hemisférico, separado de
ella por una brecha brillante durante el día y oscura por la noche. Debajo de
la Tierra se encontraba el Tártaro, un bajo mundo simétrico con el cielo.
El recuento de Hesíodo de los primeros dioses es, al mismo tiempo, un relato
sobre cómo los principales elementos del mundo físico fueron creados. No hay un
creador, pero sí un estado inicial de caos desde el cual, sin ninguna causa o
explicación, surge el cielo. La noche (Nyx) y la oscuridad (Erebos) son
producidas, y después el día (Hemera) y el aire (Éter). El caos original, por
su parte, no estuvo siempre ahí, sino que comenzó a existir en algún momento.
Sin embargo, el texto de Hesíodo no da ninguna respuesta a la pregunta sobre
cuál es el origen del caos o qué pasó en el principio.
Bien, tras este paseo cosmogónico-mitológico, viajemos, ahora sí, a orillas del
mar Egeo, donde vamos a presenciar el nacimiento de la ciencia tal como la
entendemos hoy. Porque obviamente, todo esto que vengo contándoles no alcanzaba
para que hubiera ciencia propiamente dicha. Recién alrededor del siglo V se
produce en Grecia «el» cambio fundamental que derivaría en la construcción del
pensamiento científico actual. Aunque, para ser justos, debemos decir, que, a
fin de cuentas, los griegos no surgieron de la nada ni crearon la ciencia
mediante un golpe de magia. Como todo en la historia del pensamiento, se
apoyaron en hombros de gigantes cuyos nombres desconocemos, pero cuyas
investigaciones nada precarias resultaron lo suficientemente importantes como
para que un griego pudiera predecir un eclipse y dar comienzo, verdaderamente,
a la historia que nos proponemos contar en este libro: la historia de las ideas
que conformaron la ciencia occidental.
Capítulo 2
El eclipse
El 28 de mayo de 585 a.C. se produjo un eclipse total de sol que fue
visible en casi todos los lugares que hoy conocemos como Medio Oriente. Los
eclipses, y en especial los eclipses totales de sol, significaban un
oscurecimiento absoluto del mundo en pleno día, lo cual los rodeaba (y con
razón, o por lo menos comprensiblemente) de una aureola de terror: se los
consideraba una señal de enojo o advertencia de los dioses, hasta el punto de
que —se dice— ese 28 de mayo los medos y los lidios interrumpieron una batalla
decisiva entre ellos y llegaron a un acuerdo de paz.
Cuenta Heródoto:
Estaban guerreando con igual éxito cuando ocurrió que, durante un
encuentro que tenía lugar en el año VI, el día se convirtió en noche. Tales de
Mileto había predicho esta desaparición de la luz del día a los jonios, fijando
dentro de qué año el cambio tendría efectivamente lugar. Entonces, cuando los
lidios y los medos vieron que el día se convertía en noche, dejaron de pelear,
mostrando un común afán en concertar la paz.
El hombre que había predicho el eclipse fue el primer
filósofo-científico en el sentido en que entendemos esas palabras ahora. Si
hubiera que ponerle una fecha al comienzo de la ciencia occidental, arbitraria
como todas estas cosas, yo elegiría la fecha de ese eclipse. Así que, si
ustedes me lo aceptan, podemos decir que la ciencia (o por lo menos la ciencia
occidental) comenzó el 28 de mayo de 585 a.C.
§. La ciudad de Mileto
Mileto era una ciudad-colonia griega, sobre el mar Egeo, cerca de la
desembocadura del río Meandro, en lo que hoy es Turquía y en esos tiempos los
griegos llamaban Asia Menor. Era una zona que había estado habitada desde la
Edad de Bronce (Homero cuenta que participó en la guerra de Troya), y que en el
siglo VII a.C. había conseguido un verdadero imperio marítimo. Por esa época se
consolidaron en las ciudades griegas las instituciones que habrían de florecer
en la polis, la ciudad-estado griega, en especial el gobierno por
la asamblea de ciudadanos (interrumpidas cada tanto por diversas tiranías).
Desde ya, estas asambleas no eran nada democráticas, miradas con la óptica de
hoy: ni las mujeres, ni los extranjeros, ni —por supuesto— los esclavos
participaban de ellas. Pero así y todo, el debate permanente sobre la mejor
forma de gobierno erosionaba el criterio de mera autoridad, humana y divina, y
se abrían paso los principios de la libre discusión y del acceso público a la
información mediante la cual habría de juzgarse a una persona o idea.
«Refutar», «demostrar», «probar» son palabras que la ciencia tomó del
vocabulario político-jurídico, de la discusión permanente sobre la mejor manera
de llevar los asuntos de la polis, que se convirtió en una
costumbre: las ideas políticas, y con ellas, por arrastre, todas las demás,
salían a la esfera pública.
Además, Mileto era una ciudad pujante por la que pasaban las grandes rutas
comerciales que conectaban a Grecia con el Oriente, y estas condiciones, a las
que se agregaba un intenso intercambio de mercancías, permitían que ese pueblo
tuviera la posibilidad de conocer culturas y leyes completamente distintas,
incorporar concepciones mentales diversas y verse enfrentado a sistemas de
costumbres y dioses diferentes, que contribuían a relativizar cualquier
pensamiento dogmático.
En el año 547 a.C., Mileto, como toda la costa de Jonia, fue conquistada por el
Imperio Persa. Tras una revuelta, que fue sofocada, la ciudad fue incendiada y
sus habitantes deportados, hasta que en 479 a.C. los griegos derrotaron de
manera decisiva a los persas en la Grecia peninsular, y Mileto fue liberada de
su yugo.
Fue pasando por diversas manos, desde los espartanos hasta los griegos
helenísticos de Alejandro Magno, y más tarde integró el Imperio Bizantino.
Finalmente, los otomanos y luego los turcos selyúcidas utilizaron la ciudad
como puerto para comerciar con Venecia en el siglo XII. Al sedimentarse el
puerto, la ciudad fue abandonada. Sus ruinas actuales se encuentran a diez
kilómetros del mar.
Y fue en esa polis donde vivió Tales, el hombre que tuvo la revolucionaria idea
de que los fenómenos naturales no podían seguir siendo explicados como
consecuencia del trabajo de los numerosos dioses griegos, sino que debían tener
sus propias causas naturales. Con esa audaz decisión, inventó la ciencia.
§. Vida de Tales
Tales nació alrededor del año 624 a.C. Como la ciudad mantenía tráfico
comercial con Egipto y Babilonia, es probable que visitara el país del Nilo en
su juventud, donde seguramente estudió con los sacerdotes: de los babilonios
debió aprender astronomía y conoció seguramente las viejas tablas
mesopotámicas, que se remontaban a muy antiguo, y que incluían larguísimos
ciclos astronómicos, como el Saros, un período de 6.585 días, algo más de 18
años, que marcaba las recurrencias de los eclipses de Sol y que le permitió
predecir su propio eclipse.
Aristóteles nos cuenta que fue un importante consejero político en su ciudad, y
famoso en toda Grecia. También un hábil comerciante:
Como lo injuriaban tanto por su pobreza como por la inutilidad de la
filosofía, supo, por medio de la astronomía, cómo sería la producción de
aceitunas. Así, cuando aún era invierno, se procuró una pequeña cantidad de
dinero, y depositó fianzas por todas las prensas de aceite de Mileto y de
Quíos, arrendándolas por muy poco, puesto que nadie compitió. Cuando llegó el
momento oportuno, al ser muchos los que a la vez y de repente las deseaban, las
iba alquilando como quería, reuniendo mucho dinero, demostrando así que es
fácil a los filósofos enriquecerse, si quieren.
Por su parte, Platón nos dice que
Tales, mientras observaba los astros, y miraba hacia arriba se cayó en
un pozo, y una bonita y graciosa criada tracia se burló de que deseara
vivamente conocer las cosas del cielo y no advirtiera las que estaban detrás de
él y delante de sus pies.
La criada tenía bastante razón: a Tales le interesaban —por suerte— las
cosas del cielo, y no tanto las que estaban delante de sus pies. En el terreno
de la astronomía, además de la predicción del eclipse de 585, se dice que fue
el primero en sostener que el Sol se eclipsa cuando la Luna, que es de
naturaleza semejante a la de la Tierra, se interpone perpendicularmente bajo
él. En matemáticas estableció varios teoremas, como el que dice que el diámetro
divide el círculo en partes iguales, y el famoso «teorema de Tales» que
musicalizó el conjunto Les Luthiers. Se le atribuye el haber establecido la
altura de las pirámides, midiendo la sombra que proyectan comparándola con la
de su bastón.
En fin, Tales pensó e hizo de todo, pero su mayor obra fue sentar el punto de
partida de todo el pensamiento científico posterior.
§. Tales toma una decisión
Tales partió de una posición radical: mantener a los dioses apartados de las
explicaciones naturales y científicas. Decir se dice fácil, pero las
implicaciones son tremendas. Porque al apartar a los dioses, la naturaleza se
transforma en algo impersonal, sin voluntad. Y si la naturaleza no tiene
voluntad pero igual hace cosas (como los terremotos, o los eclipses), las tiene
que hacer por alguna razón general, y esa razón es una causa, una causa que no
puede ser resultado de la voluntad o del capricho de un dios. Es decir, la
causa tiene que ser también un fenómeno natural, algo impersonal. ¿Pero qué
causó ese otro fenómeno natural? Una nueva causa. Y esa nueva causa, ¿qué causa
tiene? Es decir, tiene que haber una cadena de causas, y en esa cadena de
causas (tal vez infinita) no interviene la voluntad de nadie.
Así, Tales aísla y establece la idea abstracta de «causa», causa natural, que
estará presente en toda la ciencia posterior. Un buen ejemplo es su famosa
teoría sobre los terremotos. No se deben ya, como relataba la tradición griega,
al enojo de Poseidón (hermano de Zeus, dios y señor del mar), que golpeaba el
fondo del océano con su tridente y hacía vibrar la tierra. Nada de eso. La
Tierra, sostiene Tales, es un disco que flota sobre el mar (aquí tenemos
evidentes reminiscencias babilónicas y de Hesíodo; Tales no dejaba de ser
hombre de su tiempo), y es el oleaje de ese mar el que la sacude. Es una
explicación que hoy nos puede resultar elemental, y que resultaba elemental ya
a Aristóteles, pero que representa un salto enorme y cualitativo para el
pensamiento científico. Poseidón queda liberado de la fastidiosa y burocrática
tarea de golpear el suelo con su tridente para decretar los temblores (aunque
quizá le gustaba y no le era tan fastidiosa; los dioses griegos eran
caprichosos, vengativos y crueles): es el mar, anónimo e involuntario, el que
agita el suelo y hace conmoverse a los hombres.
En realidad, las deidades griegas no eran muy aptas para manejar los fenómenos
de la naturaleza. Durante los siglos precedentes, se había operado una profunda
revolución teológica, ya desde Homero (siglo VIII a.C.): la completa
antropomorfización de los dioses, hasta un punto al que ninguna otra
civilización había llegado. Así, los dioses homéricos, inquietos, caprichosos,
crueles, lujuriosos, movedizos, que desataban guerras y participaban en ellas,
no parecían los mejores candidatos para sostener fenómenos regulares:
obviamente no iban a tener la paciencia necesaria como para sostener un proceso
natural y repetitivo. Es cierto que Atlas sostenía la Tierra sobre sus hombros
todo el tiempo, y Faetón guiaba cada día el carro del Sol, pero aún así cuesta
imaginarse a un dios griego quedándose quieto y sosteniendo el cielo sobre su
espalda. Eran demasiado humanos, en fin, y puede ser que el contraste entre lo
irregular de su comportamiento y los fenómenos regulares de este mundo ayudara
a abstenerse de evocarlos.
Más allá de si ésa fue la razón, o si lo fue en parte, lo cierto es que en ese
momento, en ese preciso momento, comienza la ciencia, el pensamiento racional,
el crepúsculo de esos mismos dioses. Con la idea de causa en la mano (en la
mente, mejor), Tales busca una explicación general de los fenómenos (los
terremotos, en este caso). Es decir, se propone, a partir de lo particular y
accidental, investigar lo esencial y permanente, inaugurando de este modo otro
de los requisitos científicos básicos de todos los tiempos.
Es difícil darse cuenta de lo radical de esta innovación: ahora ya no es un
dios el que decide, sino que es el mar el que se mueve. Son objetos naturales
que actúan sin voluntad y que mueven la tierra. Los terremotos no son el
resultado de una voluntad (la de Poseidón) sino de una causa natural (el
oleaje).
Al hacer de la búsqueda de las causas la piedra angular de su novedosísima
filosofía, Tales no podía sino preguntarse por el origen de todas las cosas.
Esto es muy simple: si cada fenómeno tuvo su causa, es evidente que remontando
la cadena causal tenemos que toparnos con un primer fenómeno, inoriginado, sin
ninguna causa que lo anteceda, primerísimo en el sentido más puro de la
palabra, a menos que aceptemos caer en un regreso infinito (estos problemas los
veremos aún en la modernísima teoría del Big Bang sobre el origen del
universo). ¿Cuál es ese primer principio? ¿Cómo es que lo que es llegó a ser?
¿De dónde viene todo lo que viene? ¿Cuál es el verdadero origen de todas las
cosas?
Nuestro amigo decide que el origen de todas las cosas es, o está, en el agua.
La elección puede parecer —y lo es— arbitraria, desde ya, pero lo importante no
es cuál es el principio elegido, sino el hecho de que estuviera buscando un
principio. Tales no nos cuenta cómo o por qué eligió el agua en particular,
pero podemos imaginar que una sustancia que vemos transformarse claramente en
vapor, o solidificarse en hielo, ante nuestros ojos, le pareció un buen punto
de partida. Y, además, el agua protagoniza casi todos los mitos de origen (como
aquel del océano primordial donde flotaban las antiguas tortugas que sostenían
el mundo), mitos que, naturalmente, seguían circulando; al fin y al cabo, todo
pensador es ciudadano de su tiempo.
Tales murió donde nació, en Mileto, en 545 a.C. Después vendrán Anaxímenes y
Anaxágoras, Sócrates y Platón, Aristóteles y Copérnico, Newton y Galileo,
Lavoisier, Darwin y Einstein. Pero todos, en definitiva, beben del elixir de
Tales.
§. Los discípulos de Tales: Anaximandro y lo ilimitado
Como todo gran pensador, Tales tuvo discípulos o continuadores, como
Anaximandro y Anaxímenes, que junto a él conforman lo que se conoce como
escuela milesia, o escuela de la physis (es decir: de la
naturaleza).
Un poco más joven que Tales, Anaximandro (c. 610 a.C.-c. 546 a.C.), el segundo
filósofo de la escuela milesia, también sostenía que todas las cosas provienen
de una sola sustancia primaria. Sin embargo, rechazaba asignarle al agua o a
cualquier otro elemento conocido la noble tarea de ser el primer principio,
entre otras cosas porque advertía un punto débil de la teoría de su maestro:
¿cómo puede ser que el agua produzca su contrario, como el fuego? Y así, optó
por algo más abstracto, infinito, sin edad y que envolvía a todos los mundos.
Lo llamó ápeiron, que en griego significa «lo indefinido», «lo
ilimitado», «lo indeterminado», un concepto difícil de imaginar que es el
primer término técnico de la historia de la ciencia.
En el seno del ápeiron preexisten caóticamente todos los elementos, y los
mundos, los mundos posibles, nacen por su separación y su reordenamiento. El
cosmos crece como una planta a partir de una semilla diluida en el ápeiron.
Anaximandro, como Tales, no se ocupó solamente de buscar el primer principio
sino que intentó resolver problemas naturales con explicaciones naturales: los
vientos, sugirió, se generan al separarse del aire los vapores más livianos y
cuando, al moverse, se concentran. Las lluvias se generan de los vapores de la
tierra desprendidos por el Sol, y los relámpagos se producen cuando el viento,
al golpear, desgarra las nubes. El trueno, por su parte, es el ruido de una
nube golpeada. ¿Y por qué hay veces en que hay truenos y no relámpagos? Porque
el viento en esos casos es débil, y no puede provocar llamas, pero sí ruido. ¿Y
qué es el rayo? El curso del viento más ardiente y más denso.
También elucubró sobre el origen de los hombres y los animales: los primeros
animales surgieron por primera vez en «lo húmedo». En cuanto al hombre, se
generó a partir de animales de otras especies, lo cual dedujo del hecho de que
las demás especies se alimentan pronto por sí mismas, mientras que el hombre
necesita de un largo tiempo de amamantamiento. Por ello, si en un comienzo
hubiera sido tal como es ahora, no habría sobrevivido. Así, del agua y la
tierra calientes han nacido o bien peces o bien animales similares a los peces:
en éstos los hombres se formaron y mantuvieron interiormente, como fetos, hasta
la pubertad; sólo entonces aquéllos reventaron y aparecieron varones y mujeres
que pudieron alimentarse por sí mismos.
La preocupación de Anaximandro por el origen era central pero no era la única:
su indagación cosmológica lo condujo a explicar los astros como anillos de
fuego, invisibles porque están rodeados por niebla, pero con aberturas a través
de las cuales los vemos (el eclipse de Sol, por ejemplo, se produce al
obstruirse la abertura por la cual lo vemos y se exhala el fuego); a proponer
tres anillos para el Sol, la Luna y las estrellas, con diámetros de 27, 18 y 9
veces el de la Tierra (las estrellas, curiosamente, estaban más próximas que el
Sol y la Luna); a imaginar a la Tierra como un cilindro ubicado en el medio de
todo, que no necesita estar sostenido por nada, ya que es equidistante de todo
el resto de las cosas, y no tendría hacia dónde caer. En su superficie superior
vivimos (parece que llegó a dibujar un mapa de la Tierra), lo cual resolvía
otra de las preguntas que la cosmología de Tales dejaba sin respuesta: si la
Tierra era sostenida por el agua, ¿qué sostenía al agua?
§. Anaxímenes: el aire
Cuentan que un astrónomo estaba dando una conferencia y, al explicar que
la Tierra era esférica y no estaba sostenida por nada, una viejita sentada en
primera fila lo interrumpió diciéndole que eso era falso, que la Tierra era una
semiesfera apoyada en el caparazón de una tortuga. « ¿Ah, sí? —contestó el
astrónomo—, ¿y entonces quién sostiene a esa tortuga?»
«Otra tortuga», dijo la viejita sin inmutarse. « ¿Y a esa otra tortuga?»
«Otra más», dijo la viejita…, y al ver que el astrónomo se sonreía burlonamente,
agregó: «Vamos, joven, todos sabemos que allí abajo hay tortugas de sobra».
El tercer integrante de la escuela, Anaxímenes (585 a.C.-524 a.C.),
rechaza el ápeiron y recurre a una solución más cercana al sentido común, al
proponer al aire como sustancia primera: el alma es aire, el fuego es aire
enrarecido, al condensarse el aire se vuelve agua, y luego tierra y luego
piedra. Esta teoría tiene el mérito de establecer diferencias cuantitativas
entre las distintas sustancias, de modo tal que todo es cuestión de conocer el
grado de condensación.
Anaxímenes avanza así en la resolución de uno de los problemas centrales de la
escuela milesia. Cuando Tales proponía el agua como elemento originario, no
quedaba demasiado claro cómo era que todo salía de allí (inclusive el fuego).
Anaxímenes explica esta transformación de los elementos como un proceso en dos
direcciones: rarefacción y condensación, asociadas a las variaciones de calor y
frío. No sólo es menos abstracto que Anaximandro, sino que se refiere a
procesos observables y operantes en los fenómenos naturales. El aire se
diferencia en las sustancias particulares: al enrarecerse se convierte en
fuego, al condensarse, en viento, luego en nube, más condensado aún en agua,
tierra y piedra; las demás cosas se producen a partir de éstas.
Tales, Anaximandro y Anaxímenes son, entonces, los tres grandes representantes
y creadores de la escuela de Mileto, o escuela de la physis (de
donde deriva, obviamente, la palabra «física»).
§. Balance de la escuela de Mileto
La mayor parte de los primeros que filosofaron no consideró los
principios de todas las cosas sino bajo el punto de vista de la materia.
Aquello de donde salen todos los seres, de donde proviene todo lo que se
produce, y adonde va a parar toda destrucción, persistiendo la sustancia, la
misma bajo sus diversas modificaciones: he aquí, según ellos, el elemento, he
aquí el principio de los seres.
ARISTÓTELES
La escuela de Mileto toma una posición ante los fenómenos del mundo: son
sus ojos la herramienta y es la observación y el razonamiento sobre la
observación (y a veces la fantasía) el motor de su acción. Terremotos, rayos,
aire, agua: el mundo de Mileto es un mundo donde ocurren fenómenos
permanentemente, un mundo de ocurrencias impersonales y neutras y no de
voluntades divinas, sobre el cual los filósofos extienden sus garras poderosas
y explican, explican, explican. Escuchan el discurso de las cosas, que ha sido
separado del palabrerío y la charlatanería de los dioses.
Estricta posición frente al mundo. Pero la enorme construcción que significó la
teoría milesia, que apartó a los dioses y los devolvió a ese conventillo que
era el Olimpo, no pudo evitar dejar una fisura opaca y fina por donde se
filtraría lo antiguo y lo desechado.
Sin embargo, dejaron planteado un problema, un problema de la máxima
importancia: ¿cómo sabemos que las explicaciones milesias son verdaderas? ¿Y
cómo comprobamos nuestras hipótesis? La respuesta moderna sería: se hace un
experimento. Pero estos heroicos pioneros estaban lejos de lo experimental;
tenían ojos que observaban la confusa empiria del mundo y construían a partir
de lo que veían o de lo que adivinaban. Para escuchar el discurso de las cosas
hay que tener el oído fino, pero el oído, como todos los demás sentidos, es
falible, débil. Entonces, el problema es: ¿por qué debemos confiar en la
observación a través de los sentidos, que son tan engañosos?
El problema que dejan planteado no es otra cosa que el peligroso dilema de la
verdad: si los sentidos son engañosos, no podemos estar seguros de que nos
revelen la verdad. ¿Cómo elegimos entre el agua, el ápeiron o el aire? ¿Cómo
podemos elegir de una manera racional? O, de otro modo, una pregunta que
atravesará todo el pensamiento griego: ¿cómo se hace para alcanzar el
conocimiento verdadero? ¿Es suficiente con escuchar el discurso de las cosas?
Y así, desde la ciudad de Elea, en el sur de Italia (otra de las
ciudades-estado que conformaban el mundo griego), vendrá una respuesta que
sustituye a los sentidos como fuente de conocimiento.
Mientras tanto, podemos sentir el agua de Tales vibrando dentro de nosotros,
viajando por nuestro cuerpo, corriendo por nuestras venas y dándonos fuerzas
para enfrentar, cada día, un mundo sin dioses.
Capítulo 3
Ser o no ser
Los milesios, mientras se ocupaban de fundar la ciencia liberando a las
explicaciones de elementos mitológicos, caían, como hemos visto, en una
debilidad fundamental: escuchar el discurso de las cosas y construir desde
allí, sí… ¿Pero cómo podemos estar seguros de que oímos bien? Al fin y al cabo,
los sentidos son débiles e imperfectos, y nos someten a ilusiones, como cuando,
por poner un ejemplo fácil, vemos que el cielo y la tierra (o el mar, si es que
estamos en una playa, paisaje por demás abundante en Grecia) se juntan en el
horizonte. ¿Cómo podemos estar seguros de que no sufrimos alucinaciones
auditivas y que aquello que nos «dicen» los fenómenos o aquellas explicaciones
que deducimos de los fenómenos es verdadero?
En la ausencia de la idea de experimentación, mucho más tardía, y que tampoco
resuelve del todo la cuestión, como veremos, este problema era una grieta fatal
en la construcción milesia, que requería una respuesta. Una respuesta que llegó
desde la ciudad de Elea.
En esta etapa primaria de la ciencia (y probablemente hasta la llegada de
Aristóteles o aún más), no había, ni podía haber, una distinción entre
«ciencia» y filosofía, tal como las entendemos ahora (y veremos que aún hoy en
día las dos parecen, a veces, confundirse). Ocurría que estos
filósofos-científicos que trataban de explicar el mundo tenían que formular, al
mismo tiempo que las teorías sobre las cosas, una teoría del conocimiento
(epistemología) y una metodología del conocimiento, un mecanismo que permitiera
acceder al conocimiento, y que asegurara que éste fuera verdadero. Así, los
milesios establecían como primer principio metodológico separar a los dioses de
las explicaciones y, como mecanismo, observar la naturaleza sin dioses, y
pensar a partir de las observaciones.
Es este último principio el que será cuestionado en Elea. En síntesis, no hay
que escuchar el discurso de las cosas, sino, por el contrario, ignorarlo, o al
menos tomar ciertas precauciones antes de concederle un grado de veracidad. El
protagonista de esta postura se llamó Parménides, Parménides de Elea. Retengan
ese nombre, porque es uno de los filósofos más importantes que haya dado la
Historia.
§. Parménides conduce a la ciencia a un callejón sin salida
Parménides nació en la segunda mitad del siglo VI y murió a mediados del siglo
V en Elea, una ciudad cuyo nombre actual es Velia y que fue también una colonia
griega en la península italiana. Contemos, de paso, y para ubicarnos
históricamente, que en la mitad de la península había una ciudad no griega
llamada Roma, envuelta por ese entonces en interminables luchas intestinas y
contra ciudades rivales. Es muy difícil que Parménides o sus amigos hubieran
oído hablar de esa población minúscula y sin importancia, del mismo modo que es
difícil que los habitantes de Roma hubieran siquiera soñado con el papel que
habrían de jugar en el mundo apenas tres o cuatro siglos más tarde.
La cuestión es que Parménides pone la filosofía y la ciencia patas arriba. En
un poema muy famoso, su poema ontológico, que es lo único que dejó escrito
o se conservó, aunque fragmentariamente, y a cuya exégesis se han dedicado ríos
de tinta ya desde la Antigüedad, establece un principio muy simple y general.
Antes de ponerse a estudiar la realidad, hay que demostrar que hay una
realidad y averiguar cómo es, qué características fundamentales tiene. Fíjense
que no estoy diciendo naturaleza, no se trata de la physis de
los milesios, sino de la realidad, del conjunto de las cosas que existen: todo
lo que es.
Parménides sintetiza este ambicioso punto de partida con una de las frasecitas
más famosas de la historia de la filosofía.
Lo que es, es. Lo que no es, no es.
En el comienzo del poema, se presenta una diosa que lo guiará en el camino de
la verdad (camino al que, dicho sea de paso, no cualquiera puede acceder) y le
habla a nuestro filósofo:
Ea pues, yo hablaré y tú escucha mis palabras.
Sólo dos vías de investigación se pueden concebir.
La una afirma: es y es imposible que no sea
Antes que nada, habría que preguntarse de dónde sale todo esto.
Parménides parte del principio de que «lo mismo es pensar y ser». Sólo se puede
pensar en lo que es, y lo que es, por lo tanto, es. Pero no puedo pensar en lo
que no es, porque pensar en lo que no es, es pensar en la nada, y pensar en la
nada es no pensar en nada…
Lo mismo es pensar y ser.
Lo mismo es el pensar, y aquello por lo cual se cumple el pensamiento.
Porque sin el ser, en el cual se expresa, no hallarás el pensar;
no hay ni habrá Nada fuera del ser…
Del no ser no es posible ni decir ni pensar
que no es
por lo tanto, lo que no es, no puede ser.
El punto de partida, como habrán podido ver, es radicalmente distinto al
de la escuela milesia: ni empieza por los fenómenos, ni sugiere que el origen
de todo está en una sustancia elegida más o menos caprichosamente, o con
argumentos débiles: el agua, el ápeiron, el aire. Nada de eso: el punto de
partida es el pensar. El camino correcto, el que conducirá a la verdad, lo será
solamente si se parte del pensar y de lo que se puede pensar. ¿Y qué es lo que
se puede pensar? El ser. ¿Y qué es lo que no se puede pensar? El no ser, la
nada. Por lo tanto, el ser es y el no ser no es.
Esta deducción tiene la brillantez, la limpidez de un teorema, y —lo que es más
importante— no tiene absolutamente ninguna conexión con la empiria, con
la physis, con la naturaleza, con los fenómenos. Este enunciado en
cierto modo sintetiza la filosofía y la metafísica de Parménides y es fecundo
porque de él se deducen muchos otros, que tienen enormes consecuencias no sólo
para la filosofía, sino también para la ciencia occidental.
Porque… ¿Cómo es ese Ser (esta vez lo voy a poner con mayúsculas, a veces lo
pondré en minúsculas, sin que eso tenga un significado especial)? ¿Qué puedo
decir de él?
Veamos: por empezar, el ser es único. No puede haber dos. Porque si hubiera
dos, o bien están juntos (y son uno), o bien están separados por algo. Pero ese
algo que los separa no puede ser Ser, sino No Ser, y como el No Ser no es, no
puede ser. Por lo tanto: es único.
El ser tampoco puede haber empezado. ¿Por qué? Porque si hubiera empezado en
algún momento, eso significaría que antes había no ser. Pero eso es imposible,
porque ese no ser no es. Tampoco puede terminar, por la misma razón: ¿qué
vendría después? El no ser, pero eso es imposible. El ser no tiene pasado ni
futuro, es presente puro y eterno.
El ser no es engendrado, y también es imperecedero.
En efecto es un todo inmóvil y sin final ni comienzo
¿qué origen le buscarás?
¿cómo y dónde habrá crecido?
del no ser, no te permito decirlo ni pensarlo…
La idea de que es inmóvil se explica porque, si se moviera, viajaría
hacia algo que es no ser, y dejaría no ser detrás. Por lo tanto, no puede
moverse. Y, naturalmente, es incorruptible, porque si se corrompiera, ¿qué
significaría? Que alguna parte de él se degradaría y convertiría en no ser. Lo
cual, otra vez, no es posible.
El siguiente paso sería afirmar que eso que es no puede estar limitado, no
puede tener ni forma ni límites. Pero acá Parménides afloja, y no da el paso.
Es más, imagina ese ser como limitado, finito y perfecto:
El ser es completo, similar a la masa de una esfera armoniosamente
redonda que por todas sus partes se distancia del centro.
Se imagina al ser como una esfera, un cuerpo perfecto, en el sentido que
le darían los pitagóricos. Esto sería fundamental (y a veces fatal) en todo el
pensamiento griego: la esfera es el cuerpo perfecto porque todos los puntos de
su superficie equidistan del centro, porque es perfectamente simétrico y porque
es el único cuerpo que puede girar sobre sí mismo en su propio espacio.
Así, el ser de Parménides es inmóvil, es eterno, es incorruptible (no admite
cambios), es esférico y es perfecto. Lo cual plantea un problema nada simple.
Porque si es así: ¿cómo se entiende que nosotros veamos, en lugar de este ser
inmutable y permanente, una multiplicidad de cosas que cambian y se mueven? Hay
una única posibilidad para explicarlo: esa multiplicidad de cosas que cambian y
se mueven no es más que una mera ilusión.
Porque los sentidos son ilusorios: ven el tránsito del ser al no ser, ven que
cosas que no son se transforman en cosas que son, y viceversa. Vemos al árbol
crecer y morir, a la luz aparecer y desaparecer. Por lo tanto, de los sentidos
no podemos sacar absolutamente nada, o por lo menos, nada que valga la pena. No
queda más que rechazar nuestra confianza espontánea en la experiencia,
reconociendo que es un camino de conocimiento falaz e ilusorio.
Así, pues, todas las cosas no son sino nombres
dados por los mortales en su credulidad:
nacer y perecer, cambiar de lugar y mudar de luminoso color.
La vía es el pensar, y sólo la razón es un medio eficaz para acercarse a
esa obsesión: el conocimiento verdadero. Rompiendo la barrera de las
apariencias, podemos captar la unidad profunda y «verdadera» de lo real. Los
fenómenos no interesan mucho, porque lo que importa es lo que está por debajo
del mundo sensible, lo que subyace, que es el mundo del ser. Es inevitable que
tomemos datos de los sentidos, que escuchemos el discurso de las cosas.
Pero si le prestamos atención, estamos listos. Lo que se debe buscar es lo que
hay detrás, o debajo. ¿Cómo lo hago? ¿Cómo se accede a ese sustrato? Por medio
de la investigación. Trato de ver de qué manera lo que se dice, lo que se ve,
lo que se mide (aunque todavía estamos muy lejos del concepto de medición) es
un emergente, a veces muy deformado, de la verdadera realidad que hay detrás.
Pero sé que ese fenómeno es un engaño de los sentidos, que son débiles y no dan
cuenta del ser. El testimonio sensible es inseguro y engañoso. El mundo de los
fenómenos es ininteligible, no tiene importancia.
Parménides establece así un principio filosófico general. Su especulación
consiste, sobre todo, en una discriminación primera y rigurosa entre lo
sensible y lo inteligible, que interesa a la ciencia por sus repercusiones
metodológicas a lo largo de toda la historia del pensamiento.
Pero ese principio general de Parménides plantea un problema serio. ¿Por qué?
Porque por un lado parece empezar dando un método, una guía: desconfíen de los
sentidos; detrás de esta gran multiplicidad hay un sustrato que no cambia, y
ese sustrato, el Ser, es lo que debemos comprender, y sólo lo comprenderemos
razonando. Pero por otro lado, al mismo tiempo que inicia un método, parece
terminarlo y no permitir seguir adelante. Porque si todo es inmóvil y nada
puede cambiar, ¿cómo se explica la posibilidad de que en el mundo haya cambios,
que es lo que efectivamente percibimos? ¿Qué es ese ser? ¿Y si fuera el agua de
Tales? Pero si es el agua de Tales y lo seguimos a Tales, tiene que convertirse
en otras cosas, y esas otras cosas antes no eran. Pero algo que es no puede
producir cosas que no son, porque las cosas que no son, no son. Nada puede
empezar a ser, porque el ser no puede empezar a ser. Es un problema muy serio,
que parece paralizar absolutamente todo.
Parménides no niega el cambio en el mundo; simplemente establece que debajo de
todo el aparente cambio hay algo que no se modifica, hay algo que forzosamente
se queda como está, y que va a ser una y otra vez «la» pregunta: ¿qué es lo que
no cambia mientras se suceden los fenómenos? ¿Qué es lo que permanece?
Descubrirlo es lo único que nos garantizará el conocimiento verdadero. Y a lo
largo de esta historia, como veremos, va a ser la masa o la energía, o el
espacio y el tiempo absolutos los que ocupen el disputado sitio de la
permanencia. Una y otra vez se intentará ir dando respuestas a este dilema.
En cierto modo, Parménides es el iniciador de la teoría como núcleo duro de la
ciencia: lo que interesa no son los fenómenos, que son puramente ilusorios,
sino aquello que está por detrás de los fenómenos, aquello que no cambia. Ahí
hay una visión muy moderna, como cuando la física actual dice que busca
«invariantes». La búsqueda de los invariantes, de las leyes de conservación, va
a ser uno de los objetivos de la física moderna, y los invariantes muestran qué
es lo que no cambia, qué es lo que se conserva (como la masa o la energía o el
espacio o el tiempo absolutos) por debajo de lo que cambia. La ley de
conservación de la masa inicia la química moderna; la ley de conservación de la
energía preside toda la física del siglo XIX. Cada vez que se rompe, o se
vulnera (o parece que se vulnera) una ley de conservación, hay una revolución
en la ciencia.
Parménides, sin embargo, seguramente percibió que su filosofía paralizaba todo
estudio o comprensión de los fenómenos, y trató de sortear el problema mediante
un artilugio que se despliega en la segunda parte del poema, que nos ha llegado
de manera fragmentaria: la inclusión de algunos opuestos en la esfera del ser.
La luz y la oscuridad, por ejemplo, no son ser y no ser, la oscuridad no es el
no-ser de la luz, sino que ambas pertenecen a la esfera del ser. Lo cual le
permite introducir dentro de la esfera del ser una especie de dinámica que
explique, o que por lo menos justifique, el cambio.
Pero no fue una solución muy convincente: al fin y al cabo, si luz y oscuridad
pertenecen a la esfera del ser, y una no es el «no ser» de la otra, no se
entiende por qué habrían de ser distinguibles. Al menos, es lo que les pareció
a sus contemporáneos, que tacharon a la filosofía de Parménides de lo que hoy
llamaríamos «irrefutabilidad» e inconducencia.
La defensa de sus tesis más duras, sin embargo, quedó en manos de sus
discípulos, el notable Zenón de Elea y el temible Meliso de Samos.
§. Aquiles y la tortuga: Zenón de Elea
Así como en un sueño ni el que persigue puede alcanzar al perseguido ni
éste huir de aquél, de igual manera Aquiles no podía dar alcance a Héctor, ni
Héctor escapar del divino Aquiles.
Ilíada, Canto XXII
Zenón de Elea (nacido entre finales del siglo VI y principios del V) es
el autor de algunas famosas paradojas (como la de Aquiles y la tortuga) que son
un excelente ejemplo de cómo razonaban los eleáticos.
El planteo, que fascinaba a Borges, es el siguiente: Aquiles, el más veloz de
los guerreros griegos, que Homero califica como «de los pies ligeros» (ocus
podas), no persigue ahora a Héctor alrededor de las murallas de Troya, sino
que compite en una mucho más prosaica carrera contra una tortuga, que es el más
lento de los animales. Convencido de que su epíteto está bien ganado, el héroe
griego le da una ventaja a la tortuga. La pregunta que hacía Zenón, entonces,
era la siguiente: ¿alcanzará alguna vez Aquiles a la tortuga? Obviamente todos
sabemos que sí, que empíricamente sí, que fácticamente sí.
Pero Zenón razonaba descomponiendo y analizando el movimiento de la siguiente
manera: salen los dos y la tortuga empieza a andar. Cuando Aquiles alcanza el
punto en que estaba inicialmente la tortuga, la tortuga se ha movido un poco.
Cuando Aquiles recorre el nuevo espacio que lo separa de la tortuga, la tortuga
otra vez ha vuelto a avanzar. Cuando Aquiles recorre esto, la tortuga se movió
un poquito más, y así sucesivamente. Es decir, Aquiles no la alcanza nunca.
Zenón no quería decir que en la realidad Aquiles no alcanza a
la tortuga. Lo que quería mostrar era que el movimiento es incomprensible,
ininteligible, no reductible a la razón, que conduce a paradojas lógicas. Que
esa cosa empírica que uno ve —el hecho de que Aquiles en realidad la alcanza—
no significa nada. El movimiento, en definitiva, no se puede pensar. Porque si
nos ponemos a pensar en el movimiento, Aquiles queda siempre por detrás de la
tortuga, cosa que no es lo que se observa.
Lo mismo ocurre con el planteo de los múltiples cuerpos. Él se preguntaba:
¿puede haber dos cuerpos separados? Y decía «no, porque para que haya dos
cuerpos separados, quiere decir que hay algo en el medio, quiere decir que
tiene que haber, por lo menos, tres, ya sea aire u otra cosa». Ahora, para que
haya tres, tiene que haber dos más, y así sucesivamente. Esto nos lleva a un
proceso infinito. Y cuando se llega a un proceso infinito, el pensamiento
griego empieza a tener problemas. Tal vez por eso, el propio Parménides se detiene
ante la infinitud del ser, y lo limita a una esfera.
Permítanme hacer una pequeña digresión. El asunto del infinito (que se va a
resolver, si es que uno lo considera resuelto, recién en el siglo XIX) va a
aparecer una y otra vez como un problema, a veces como simple infinito
matemático, a veces como la infinita regresión a la que puede llevar la teoría
(por ejemplo, la de Tales con el agua), o como la extraña hipótesis de los
múltiples universos que muchos consideran parte de la cosmología actual. ¿Qué
dicen las cosas? Dicen relaciones matemáticas. ¿Cuál es el discurso de las
cosas? El discurso matemático. Galileo sostendrá, dos mil años más tarde, que
el libro de la naturaleza está escrito en caracteres matemáticos. Pero hay un
carácter, un signo, que no tiene traducción, y ése es el signo del infinito. No
parece haber ninguna cosa infinita en el mundo real. Es un bache, un pozo
mental de la ciencia donde caen los coches que circulan a toda velocidad.
Volviendo a nuestro tema: el hecho de que los fenómenos no sean inteligibles
plantea, como es obvio, un problema serio. ¿Cómo se hace para articularlos de
alguna manera con el ser? Ya vimos que Parménides intentó resolverlo en la
segunda parte de su poema, y no le salió especialmente bien. ¿Y entonces qué debemos
hacer? ¿Desechar por completo a los fenómenos, y entregarnos a la contemplación
cuasi mística del Ser?
El problema (la paradoja) del movimiento dejaba abierta una posibilidad, aún
más intranquilizadora, apenas una sospecha: quizá los fenómenos sean
ininteligibles no sólo porque los sentidos sean débiles… sino porque la razón
también lo es para analizarlos como es debido. ¿Y entonces? ¿Por qué habremos
de confiar en los resultados que salen de la razón pura?
§. Meliso de Samos
La postura eleática, como vimos, se encuentra ante un callejón aparentemente
sin salida. Meliso de Samos, el segundo de los grandes discípulos de
Parménides, va a llevar las cosas mucho más allá: va a ir hasta el fondo del
callejón y se va a parar junto a la pared donde termina.
En efecto, Meliso, a quien Aristóteles acusaría de «razonar como un campesino y
con un método grosero», rompe con la esfericidad del ser de Parménides
(arbitraria, si se quiere) y lo hace infinito, ilimitado. Ante el dilema de los
fenómenos y su incompatibilidad con el mundo racional del ser, niega
radicalmente cualquier posibilidad de conocer los fenómenos, hecho que
Parménides había tratado de sortear con el truco que vimos.
Rara filosofía esta que, enfrentándose de manera radical a quienes practican
otra manera de aproximación al mundo, «resuelve» el problema milesio a costa de
conducir a un inmovilismo total. Tenemos principios generales. Sí, bueno, pero
¿cómo se hace para, con estos principios generales, explicar lo que vemos? El
mundo de Parménides, Zenón y Meliso empieza y termina ahí, en el ser.
Prácticamente no se puede seguir. Lo que está diciendo Parménides —o Meliso— es
«esto es así y no se puede seguir».
Pero si nos empecinamos en seguir, tenemos que resolver el problema del
inmovilismo del ser, resolver el problema del cambio, encontrar otra manera de
acceder al conocimiento verdadero, de articular el mundo de los sentidos con el
mundo metafísico y racional.
Los filósofos griegos siguieron. Y frente al inmovilismo, plantearon soluciones
fecundas e interesantísimas.
§. Todos contra el ser: Leucipo, Demócrito y el atomismo
Sólo existen los átomos y el espacio vacío. Todo lo demás es opinión.
DEMÓCRITO
Aquellos que quisieron resolver el problema del cambio tomaron dos
caminos completamente diferentes. Uno es el camino radical que ya vimos: no
sólo el no ser no es y eso impide el cambio y el movimiento (que también es un
proceso de cambio), sino que el propio movimiento es lógicamente impensable. El
segundo camino es el que deberíamos recorrer ahora: el de los atomistas, que
con una genial intuición filosófica propusieron un principio que la ciencia,
más de dos milenios después, se encargaría de revitalizar.
Acá, en realidad, hay un problema que tendremos que enfrentar permanentemente:
el de los precursores. ¿Son los atomistas presocráticos precursores del
atomismo moderno? ¿O más bien, como le gustaría a Borges, es gracias a los
atomistas modernos que la filosofía atomista de la Antigüedad cobra para
nosotros un sentido actual?
El problema es, en parte, irresoluble, y ya tendremos ocasión de ver la crítica
que les dirige Aristóteles. Pero lo cierto es que los atomistas dieron vuelta
el problema de los eleáticos: si lo que imposibilita el movimiento es que el no
ser no es (y por lo tanto nada puede ir desde un lugar a otro, porque estaría
moviéndose hacia algo que todavía no es), admitamos que hay no ser para que
haya movimiento. Hagamos que el no ser sea. Es decir, partamos ese ser inmóvil,
continuo, sin fisuras, de Parménides en bolitas de ser, en pequeñas bolitas de
materia que no puedan dividirse, y que conserven los atributos del ser
parmenídeo, al tiempo que admitimos que entre esas bolitas de ser (infinitas,
«increadas», indestructibles, inalterables, homogéneas, sólidas e indivisibles)
hay un espacio, un no-ser, en el que se mueven.
Ése es el camino que siguieron Leucipo y su discípulo Demócrito (siglo V a.C.).
En griego, las partes se llaman tomos (palabra que permanece
cuando hablamos, por ejemplo, de los tomos de una enciclopedia). Y como estas
bolitas de ser no tienen partes, se las llama átomos, es decir, sin
partes. Los atomistas, entonces, logran esquivar el problema de la inmovilidad
haciendo que haya no ser, «vacío», y que en ese vacío pululen bolitas de ser
que son los constituyentes de todas las otras cosas. Los átomos están
permanentemente en movimiento, incluso cuando ya han formado los compuestos, lo
cual explica que de una cosa surja otra: son simplemente átomos que se combinan
y se recombinan incansablemente, ayudados por la existencia de un espacio vacío
en el que tienen libertad para moverse.
Simplicio (490-560), en su comentario a la física aristotélica, aseguraba:
[Demócrito] suponía que la realidad de los átomos es sólida y plena, y
la llamó «ser», y que se mueve en el vacío, al que llamó «no ser», diciendo que
éste existe tanto como el ser.
Así, el no ser se identifica con el vacío; Descartes, dos mil años más
tarde, suscribirá esta opinión y negará la existencia de ese vacío. Pero en el
mundo de los atomistas, entonces, hay vacío. Y átomos. Solamente átomos y
vacío. Ése es el conocimiento verdadero (episteme). Lo demás es doxa (opinión).
Por otra parte, la existencia de los átomos es obvia, arguyen: ¿cómo puede
explicarse, si no, que un cuchillo corte la manteca, si no hay intersticios por
los cuales penetra en ella?
Como los otros «físicos», o filósofos de la physis, Leucipo y
Demócrito postulan la indestructibilidad de la materia y la existencia de una
unidad sustancial, pero, como los eleáticos, se alejan de la observación y de
la experiencia (pues el átomo no cae bajo la órbita de los sentidos). Sólo los
átomos y el vacío son reales y, aunque no sean sensibles, conservan un resabio
de empirismo.
Las colisiones entre los átomos producen separaciones y uniones, formando todas
las agrupaciones que se ven a simple vista. Las diferencias entre los objetos
físicos (cuantitativas y cualitativas) se explican en términos de
modificaciones en la forma, distribución y posición de los átomos. La verdadera
realidad, el ser, no está al alcance de los sentidos, sino que subyace. El
conocimiento legítimo es el que proviene del entendimiento.
No está claro si así como consideraron a sus átomos físicamente indivisibles,
los consideraron también matemáticamente indivisibles. ¿No advirtieron que si
los átomos difieren en forma implica que tienen volumen? Y entonces ¿por qué no
se podrían, aunque fuera teóricamente, dividir? Aunque físicamente fueran
indivisibles: ¿no podríamos pensar en dividirlos de manera teórica
(matemática), del mismo modo que, si tenemos un cubo de material indivisible en
la práctica, podemos pensar en la mitad de ese cubo? ¿O en un cuarto?
Otra cosa que resulta interesante es que Demócrito intenta trazar, aunque
primitivamente, un vínculo entre la realidad física de fondo y las sensaciones.
Por ejemplo, los diferentes sabores que experimentamos en el paladar están
producidos, según su teoría, por las diversas formas de los átomos: aquellos
que terminan en punta son los responsables del sabor amargo, los átomos
redondeados se ocupan de producir la sensación de dulzura. Como ven, el círculo
es siempre el prototipo de lo bueno, herencia de Parménides y Pitágoras que
durará más de lo que hubiera sido bueno, ni más ni menos que hasta que Kepler
haga su irrupción en el siglo XVII. Asimismo, lo pesado y lo ligero de los
cuerpos está determinado por las cantidades de átomos y vacío que los forman;
si predominan los primeros, es pesado, si no, es leve (los griegos, y después
lo confirmará Aristóteles, consideraban el peso y la levedad como dos
cualidades diferentes)… y así sucesivamente.
En el sistema atomista no hay plan preestablecido ni ciclos a los que pueda
asignarse un fin. La materia eterna engendra, por su sola estructura, la
diversidad de las cosas, sin más ley que la del azar, que es un azar causal y
que reina sin límites sobre los átomos.
§. La solución de Empédocles: los cuatro elementos (la fractura de lo
Uno)
Decirlo otra vez no está de más: uno de los grandes problemas de la filosofía
de Parménides, aquel al que tuvieron que enfrentarse con obstinación los
filósofos posteriores, era el del cambio. La construcción de Parménides parecía
genial, pero prácticamente imposibilitaba acceder a la explicación de cualquier
fenómeno natural. Ahora bien: en rigor, este problema que la escuela eleática
dejó como su gran legado para la historia del pensamiento ya estaba implícito
en el sistema de los milesios. La ciencia milesia, en efecto, estaba basada en
una sustancia original, fuera la que fuere, pero explicaba flojamente, muy
flojamente, la manera en que esa sustancia se transformaba en las demás. ¿Cómo
es que el agua llegaba a ser piedra? O, mejor aún, ¿cómo llegaba a convertirse
en su contrario, el fuego? ¿Cómo explicar ese cambio? La verdad es que
resultaba muy difícil. La condensación y rarefacción de Anaxímenes trataban de
aclarar el asunto, pero en verdad aclaraban muy poco. ¿Quién podía creer
seriamente que el aire se condensaba hasta hacerse duro como la piedra?
Enfrentado a esta situación, Empédocles (siglo IV a.C.) se puso a buscar una
solución al problema milesio. Y se podría decir que la encontró. Empédocles,
según parece, fue un personaje bastante estrafalario, que además de filósofo
fue místico, taumaturgo, médico y político. Las narraciones sobre su muerte son
fantasiosas: algunos cuentan que desapareció durante un sacrificio; según otros,
se arrojó al cráter del Etna para demostrar que era inmortal, cosa que, al
parecer, no dio resultado.
Decíamos, entonces, que nuestro filósofo detectó muy bien el problema (la
imposibilidad de explicar el cambio) e intentó resolverlo. Así como los
atomistas dividieron el Ser, Empédocles fragmentó la sustancia originaria:
propuso, así, que no hay una sola de la que surgen todas las demás sino que hay
varias. Cuatro, en realidad, que son las que van a sobrevivir como los
elementos griegos por excelencia: el aire, el agua, el fuego y la tierra. Es
una elección bastante razonable, a la cual une los cuatro principios: lo
húmedo, lo seco, lo frío, lo caliente. Pero también es un paso radical: lo
«uno» tiene una atracción irresistible, pero cuatro suena un poco arbitrario…
¿Por qué 4 y no 5, o 10, o 92?
No hay una buena explicación al respecto. Sea como fuere, mediante la
combinación de esas cuatro sustancias se forman todas las demás, por la acción
de dos fuerzas, de unión y rechazo, que él llama Amor o Amistad (philia) y Odio
(neikos). Incluso llegó a dar lo que nosotros llamaríamos «proporciones» de
agua, tierra, fuego y aire, por ejemplo, en los huesos y en la sangre.
Estableció que el hueso está integrado por fuego, agua y tierra en la
proporción 4:2:2; la sangre y diferentes tipos de carne están formados por las
cuatro raíces en igual proporción.
No es simple saltar de una cosa a la otra, de una sustancia originaria a
cuatro. Pero ahora ya tenemos un principio para funcionar. Podemos analizar los
objetos. El papel en que está impreso este libro será una mezcla de esas cuatro
sustancias. Es cierto que la postulación no responde a nada que a nosotros nos
pueda parecer un análisis químico, ni es en absoluto lo que hoy llamaríamos un
«estudio cuantitativo», pero —de todas maneras— señalaba un camino.
En cuanto a su costado epistemológico, Empédocles admite, como Parménides, que
los sentidos son débiles, cosa en la que en general casi todo el mundo está de
acuerdo. No falsos sino débiles.
Mas, ea, observa con todas tus fuerzas cómo se manifiesta cada cosa, sin
confiar más en la vista que en el oído, ni en el oído rumoroso por encima de
las declaraciones de la lengua, ni niegues fiabilidad a ninguno de los otros
miembros (órganos, partes del cuerpo) por los que hay un camino para entender,
sino aprehende cada cosa por donde es clara.
La imagen que vemos en el espejo es ilusoria pero nadie intenta
atravesar un espejo; nadie intenta atrapar el horizonte, pero sí distingue
dónde está la puerta y sale por la puerta. Si se utilizan inteligentemente, los
sentidos pueden ser una buena herramienta. Esta idea de «utilización
inteligente de los sentidos», por definición, engañosos y traicioneros, va a
llevar siglos más tarde a la idea de experimento, a la tentación de aislar el
fenómeno hasta un punto en que los sentidos lo puedan percibir sin posibilidad
de error.
Si los sentidos son débiles, es tentador hacer el experimento con la razón
mediante experimentos mentales. La paradoja de Zenón de Elea, con Aquiles y la
tortuga, es un experimento mental; Zenón no necesita que la carrera
efectivamente se desarrolle, le basta con pensarla. Lo que tiene de bueno un
experimento mental es que, cuando uno lo piensa, puede operar con conceptos
puros y así se libera de las molestias de la empiria.
Pero resulta que para Empédocles la razón también es débil.
Angostos son los recursos esparcidos por el cuerpo y muchas son las
miserias que golpean dentro y embotan el pensamiento. Los hombres contemplan en
su vida sólo una breve parte de ella, después rápidos en su morir se van
volando como el humo, persuadidos sólo de que cada cual es arrastrado en todas
direcciones, según su suerte. Pues, ¿quién se vanagloria de haber encontrado el
todo? Estas cosas no deben ser vistas ni oídas así por los hombres ni captadas
por el pensamiento. Tú, pues, ya que te has apartado a este lugar, aprenderás:
el ingenio humano no puede alcanzar más allá.
En el caso de los sentidos, la definición de «débil» es más simple: los
sentidos confunden, no reflejan cómo son las cosas en realidad. ¿Pero qué
significa decir que la razón es débil? Pensemos lo siguiente: sabemos que hay
un sustrato y, si queremos explicar el cambio, tratamos de explicarlo. Pero
tenemos que explicar la relación entre el sustrato y el cambio. Una cosa es
decir que hay un sustrato, algo inmóvil, lo que se conserva. Yo soy la misma
persona ahora que ayer. Sin embargo, hago cosas distintas. Yo puedo explicar
las cosas distintas que hago. ¿Pero cómo hago para explicar que es la misma
persona la que hizo todas esas cosas distintas? Hay que explicar la conexión
entre el sustrato parmenídeo (lo que es, lo que es inmóvil, lo que no cambia,
en este caso yo mismo) y los fenómenos que se dan. Y eso no es simple.
Entonces, como no es simple y no se puede explicar, Empédocles dice que la
razón también es débil.
¿Es efectivamente débil la razón? Toda la ciencia moderna está construida sobre
la presunción de que no lo es. Por otra parte, ahora algunas corrientes
filosóficas sostienen que uno podría pensar que determinados fenómenos son
demasiado complejos y no son reductibles racionalmente. De hecho, para que
ciertos fenómenos caigan dentro de la ciencia, uno tiene que renunciar a
reducirlos racionalmente. Aquí, como vemos, Empédocles plantea un problema.
¿Cómo podemos averiguar lo que es el conocimiento verdadero si fallan tanto los
sentidos como la razón?
¿Qué compromiso podemos asumir para poder movernos en un terreno en el que
evitemos esa debilidad de la razón? Hay un camino, hay un terreno en el que la
razón se mueve a sus anchas, sin problemas y sin síntomas de debilidad: las
matemáticas. Es un lugar donde no tiene que discutir con fenómenos ni ocuparse
de fenómenos. Tiene que ocuparse de relaciones puras. Ése es el camino que
eligió una escuela muy importante que venía desarrollándose a partir del siglo
V en el sur de Italia. Viajemos hacia allí.
§. Pitágoras y el camino de los números
Muy poco es realmente lo que se conoce acerca de Pitágoras. Se conjetura que
nació en la isla de Samos, la rival comercial de Mileto, situada en el mar
Egeo, hacia la mitad del siglo VI a.C. y que luego se trasladó a Crotona, en la
llamada Magna Grecia —es decir, territorios griegos en lo que ahora es Italia—
para huir de la tiranía de Polícrates. Dicho sea de paso, Polícrates fue tirano
de Samos desde 540 hasta 515 a.C. y, según cuenta la historia, era malísimo y
no tenía ningún tipo de escrúpulo moral: se deshizo de sus hermanos que al
principio habían reinado con él; solía emplear su gran flota en la piratería;
terminó crucificado luego de ser engañado por el sátrapa persa de Sardes.
La figura de Pitágoras está rodeada por la leyenda, y así, aunque algunos
autores dicen que fue hijo del dios Apolo, otros prefieren, de manera mucho más
creíble, hacerlo hijo del rico ciudadano Mnesarcos.
Pitágoras fue el mentor de un grupo de matemáticos que tuvo gran tradición, de
modo que muchos matemáticos del grupo ciertamente posteriores a Pitágoras le
atribuyeron al maestro obras propias. Contrariamente a lo que sucedía con los
milesios, al grupo pitagórico no le interesaba el estudio de lo relativo a la
naturaleza. Además de sus virtudes científicas, fueron un grupo mancomunado por
creencias y prácticas religiosas.
Creían en la inmortalidad y la transmigración de las almas y practicaron
abstenciones rituales: por ejemplo, no podían comer alubias. Esta prohibición,
que puede parecer rara, provenía de la tradición órfica, según la cual las
almas, entre encarnación y encarnación, solían alojarse en las alubias, de modo
tal que comerse un guiso podía significar almorzarse a una población entera. El
grupo de Pitágoras fue influyente en el gobierno de Crotona, hasta que los
ciudadanos se volvieron contra él, y tuvo que marcharse a Metaponto, también en
el sur de Italia, donde finalmente murió.
La vida y la doctrina de Pitágoras fueron sin duda deformadas por la atmósfera
mística que envolvió al grupo. La imposición del secreto y del silencio
místicos que regía en la escuela pitagórica contribuyó sobre todo en lo que
tiene que ver con la no-divulgación de los conocimientos. Pitágoras y su
escuela pertenecen casi por igual a la ciencia y a la filosofía, a la mística y
a la política: porque Pitágoras también fue un sacerdote de extraños rituales y
un político que hasta tuvo que huir cuando los vientos del poder no soplaban
del lado conveniente.
Los pitagóricos elaboraron un sistema astronómico, aunque fantasioso, muy
interesante y del que hablaremos en su momento, y parece que fueron los
primeros en asignarle a la Tierra una forma esférica. En cuanto a lo
estrictamente matemático, que es lo que más nos interesa acá, es especialmente
necesario señalar la opinión de Aristóteles, que como se habrán dado cuenta por
las varias citas que fueron apareciendo, es una de las fuentes más importantes
para entender qué pensaban los filósofos presocráticos (aunque hay que tener en
cuenta que todos sus comentarios, como los comentarios de todo buen filósofo, sirven
para apuntalar su propia doctrina). En su Metafísica, el gran
filósofo griego explicaba:
Los denominados pitagóricos, dedicándose a las matemáticas, las hicieron
avanzar, y nutriéndose de ellas, dieron en considerar que sus principios son
principios de todas las cosas que son.
Es decir, el origen son los números.
Y, puesto que las demás cosas en su naturaleza toda parecían asemejarse a
números, y los números parecían lo primero de toda naturaleza, supusieron que
los elementos de los números son elementos de todas las cosas que son, y que el
firmamento entero es armonía y número.
Múltiples semejanzas entre los números y las cosas… eso es mucho decir.
Un ejemplo particularmente ilustrativo e interesante —también citado por
Aristóteles— es la cuestión de la música: los pitagóricos descubrieron que hay
relaciones numéricas precisas entre los sonidos. Una cuerda de la mitad de la
longitud de otra da la misma nota, sólo que una octava más alta, y lo mismo
ocurre con los acordes de cuarta y de quinta, que responden a relaciones
numéricas. Estas relaciones no son para nada evidentes; no hay ninguna razón
para suponer que la identidad de las notas tenga algo que ver con los números.
Pero los números parecen ser la razón subyacente de las armonías musicales: hay
un sustrato en el que ocurren las relaciones numéricas, que se manifiestan en
el mundo sensible como armonías musicales, de la misma manera que para los
milesios había un sustrato en el que el aire o el agua se condensaban y se
manifestaban como piedra.
Los pitagóricos habían llegado al principio de la semejanza formal entre los
números y las cosas. Y la verdad es que podían haberse quedado en la idea de
semejanza formal y su doctrina ya habría sido lo suficientemente novedosa como
para merecer espacio en estas páginas. Pero había un paso audaz que estaba
cantado, y los pitagóricos lo dieron: no es simplemente que las cosas se
parecen a los números, sino que las cosas consisten en números.
Así, establecen un principio abstracto como la esencia de todas las cosas; ya
no es el agua, ni el aire, ni siquiera los cuatro elementos de Empédocles.
Ahora la esencia de las cosas es una idea abstracta.
Y, a decir verdad, fueron tal vez un poco más lejos de lo aconsejable:
identificaron a la Justicia con el número 4 por tratarse del primer número
cuadrado (2 al cuadrado), al matrimonio con el 5, que representa la unión del
macho (3) con la hembra (2), y creían que todo el cielo era una escala musical
y un número y que, de acuerdo con la doctrina de la armonía de las esferas, los
movimientos de los cuerpos celestes originan sonidos acordes, aunque inaudibles.
De cualquier modo, y por más mística y arbitraria que suene por momentos, la
armonía de las esferas fue una creencia que duró hasta el mismísimo Kepler en
el siglo XVII. El sustrato numérico pitagórico es un bello precursor del libro
de la naturaleza escrito en caracteres matemáticos de Galileo, con todo el
cuidado que hay que tener con la cuestión de los precursores.
Lo cierto es que si bien la metafísica pitagórica es central para comprender el
pensamiento general de la escuela, y consiguió resultados tan impresionantes y
bellos como el teorema de Pitágoras (todos conocen el enunciado de que la suma
de los cuadrados de los catetos de un triángulo rectángulo es igual al cuadrado
de la hipotenusa), ellos también tuvieron que enfrentarse a un escollo serio,
un escollo que partía del mismo glorioso teorema. Fíjense lo siguiente: si
tenemos un triángulo rectángulo cuyos lados miden 1 cada uno, el cuadrado de la
hipotenusa, si seguimos el teorema, tiene que medir lo mismo que la suma de los
cuadrados de los catetos. Es decir: 12+12=H2.
Entonces H2= 2 y H=√2. Es decir que la hipotenusa mide exactamente
√2.
Y ahí surgió el problema fatal, porque los mismos pitagóricos lograron
demostrar que √2 no es un número, o por lo menos no es un número como lo
concebían ellos, ya que no es ni un número entero ni puede expresarse como la
relación de dos números enteros p/q. Si quieren enterarse de cómo se demuestra
la irracionalidad de la raíz de dos, pueden ver el recuadro de la página
siguiente. Lo pongo así, en recuadro, para destacarlo y para que lo puedan
saltear, pero les recomiendo que no lo hagan porque es, creo, una de las
demostraciones más bellas (y sencillas) que existen, aunque tuvo consecuencias
devastadoras para los pitagóricos.
Demostración de la irracionalidad de la raíz de 2
Vamos paso a paso.
Recordemos que cadanúmero natural tiene una única factorización en factores
primos, salvo el orden.Por ejemplo, 60 = 2. 2.3.5
Ahora fíjense queen un número al cuadrado, por ejemplo 60 al cuadrado, cada
factor aparece un númeropar de veces, porque se repite la factorización del
número base.
60 × 60 = 2.2.3.5.2.2.3.5
y eso pasa con cualquiernúmero. Si en un número n el factor 7 aparece
tres mil veces, en n al cuadrado,aparecerá seis mil veces.
Entonces: en cualquiernúmero al cuadrado, el factor dos (o cualquier otro)
aparece un número par deveces. Ahora volvamos a la √2
Y supongamos que √2 = p/q
De lo cual sale 2 = p2/q2
Y que 2q2 = p2
Lo cual no tiene nada de malo.
Ahora tenemos dos números iguales: 2q2 y p2,
que, por ser iguales, tienen que factorizarse de la misma manera. Y veamos:
¿cuántas veces aparece el factor dos en p2? Un número
par de veces, porque es un cuadrado. ¿Y cuántas veces aparece en 2q2?
Un número par de veces, porque q es un cuadrado, más una vez
que es el dos queaparece multiplicando del lado izquierdo, es decir, un número
par de veces, porque q2 es un cuadrado, y una vez
más, o sea, un número impar de veces. Pero como los dos números son iguales, no
pueden tener factorizaciones diferentes.Absurdo.
Imaginen. Ellos suponían que todo consiste en números y que el conocimiento
expresa relaciones entre los números. Pero he aquí que una entidad, que
ciertamente pertenece a la ciencia (la diagonal de un cuadrado) no puede ser
expresada con números enteros. Un gigantesco golpe para la metafísica y la
física pitagórica, que involucra toda una cosmovisión particular. Sería algo
así como que hoy nos demostraran la imposibilidad lógica de que algo esté
constituido por átomos. (Hoy, el concepto de número se extendió lo suficiente
como para incluir entidades como las raíces cuadradas irracionales.)
¡Un número que no es un número! Era lo peor que les podía pasar, una verdadera
tragedia, porque atacaba las bases mismas de su filosofía, y, además, parecía
demostrar que la razón era débil donde más fuerte creía ser. Existe una leyenda
según la cual Hipaso de Metaponto, miembro de la escuela, divulgó el secreto y
los pitagóricos decidieron erigirle una tumba, por más que estuviera vivo, para
demostrar que para ellos estaba muerto. Otras tradiciones sostienen que lo
asesinaron.
Fue un desastre. Con la raíz de 2 cayó toda una cosmovisión que, sin embargo,
sigue teniendo sus adeptos en la realidad. No es que alguien crea, a esta
altura del partido, que el número 3 se corresponda con alguna entidad como la
justicia o el amor. Pero sí son muchos los que creen —vergonzantemente a veces,
a veces sin saberlo— que los números subyacen al mundo, y gran parte de la
investigación científica actual se hace bajo este presupuesto. Sin ir más
lejos, creo que todo matemático cree, en el fondo, que los números organizan la
empiria, que lo que es matemáticamente posible, es, y que aquello que no es
matemáticamente posible, no es. ¡Ah, Parménides!
Nos vamos, finalmente, a Atenas.
Capítulo 4
Platón y Aristóteles
En estos dos primeros capítulos que pasaron vimos cómo los
filósofos-científicos griegos fueron creando y afinando sus instrumentos: los
milesios descubrieron la naturaleza y las explicaciones naturales, los
eleáticos cuestionaron la empiria y llevaron la ciencia a un callejón sin
salida. Para sortearlo, los atomistas fracturaron el Ser de Parménides en
infinitos átomos que se movían en el espacio vacío, Empédocles rompió la unidad
del elemento originario que trababa la cosmovisión milesia, los pitagóricos emprendieron
un itinerario puramente intelectual tras el cual chocaron con la muralla
invencible de la raíz cuadrada de dos.
Cada uno de ellos, cada escuela, ejercitó su instrumento con especial
virtuosismo. Sólo faltaba que se juntaran en una orquesta y dieran un sonido
único, un gran acorde armónico que combinara con diferentes énfasis a todos.
Y es que el escenario ya estaba listo para las dos gigantescas síntesis de la
filosofía antigua, las que llevaron a cabo dos de los pensadores más
importantes de la historia occidental (a tal punto de que hay quien afirma que
todo el pensamiento posterior no es más que una nota al pie de sus escritos):
Platón y Aristóteles.
Ambos, con sus sistemas y sus debates, determinaron la filosofía y la ciencia
posteriores. Y es por eso que vale la pena ocuparnos de ellos con cierto
detalle.
§. La muerte de Sócrates
Hemos desembarcado en El Pireo, el puerto de Atenas, y por las conversaciones
que logramos entender de entre la multitud comprobamos que lo hemos hecho en un
día aciago: Sócrates ha sido condenado a muerte por el tribunal ateniense y
deberá beberse la copa de cicuta antes de que se ponga el sol. Nos apresuramos
hacia los tribunales del gobierno ateniense para acompañar al Maestro.
Así entramos en un pequeño salón en el que Sócrates está reunido con sus
discípulos. Con tanta mala suerte que, apenas cruzamos la puerta, el Maestro se
levanta y pasa a otra cámara para bañarse. Por suerte el baño dura poco, lo que
tarda Sócrates en despedirse de sus hijos y mujeres. Vuelve, al rato, con sus
discípulos y nosotros (que también, como todo occidental, somos sus
discípulos). Y ya cerca de la puesta del sol, llega el funcionario a quien le
han asignado la funesta tarea de darle a Sócrates la orden de beber la copa que
acabará con su vida. Algo conmovido, y en un griego bastante accesible, dice:
—Sócrates, no pensaré de ti lo que pienso de otros que se enfurecen
contra mí y me maldicen porque les traigo la orden de beber el veneno, según
obligan los magistrados. De ti ya he conocido en todo este tiempo que eres el
hombre más noble, paciente y bueno de cuantos jamás vinieron aquí, y ahora sé
bien que no te enojas contra mí, sino contra los culpables, que ya los conoces.
Ahora, pues, como sabes lo que vengo a comunicarte, adiós, y procura soportar
sencillamente lo inevitable.
Llorando, da media vuelta y se marcha. Sócrates dice, imperturbable:
—Salud también a ti, y yo haré lo que me dices. Que alguien traiga el veneno.
Desde un rincón se escucha una vocecita tímida:
—Me parece a mí, Sócrates, que todavía está el sol más alto que los montes y
que aún no se ha puesto. No tengas prisa, que aún hay tiempo.
Sócrates responde:
—Con razón esos que tú dices lo hacen, pues creen que ganan algo con hacerlo, y
con razón yo no lo haré, pues no me parece que sacaría otro provecho con beber
un poco más tarde que el que se rieran de mí por aferrarme a la vida y andar
ahorrando lo que ya nada es. Así que obedeceré.
Con lágrimas en los ojos, uno de los discípulos le hace un gesto al otro
villano involuntario de la sesión, el burócrata encargado de darle el veneno
disuelto en una copa. Sócrates, tan acostumbrado a hacer preguntas cuyas
respuestas conoce mejor que su interlocutor, esta vez indaga con humildad:
—Vamos, amigo, tú que sabes de esto, ¿qué es lo que hay que hacer?
—Nada más —dice— que dar unas vueltas después de beber, hasta que te venga en
las piernas pesadez, y entonces has de acostarte y de esta manera hará su
efecto.
Dicho esto, alarga la copa a Sócrates. Él la toma y, muy serenamente,
sin temblar ni alterársele ni el color ni el rostro, aplica la copa a los
labios y apura la bebida. Sócrates, el más importante pensador de la Grecia
clásica, ha bebido el veneno y su tiempo de vida es contado. Todos lloramos.
— ¿Qué hacen, hombres desconcertantes? —dice Sócrates, quien continúa
imperturbable—. Precisamente por ese motivo despedí a las mujeres, para que no
cometieran estos excesos, pues en verdad tengo oído que se debe morir en
religioso silencio. Así, pues, no alboroten y conténganse.
Después de dar unos paseos, que miramos con solemne atención, dice que
le pesan las piernas y se acuesta boca arriba. El que le había dado el veneno
le aprieta fuertemente los pies y le pregunta si lo siente. Sócrates dice que
no. Mirándonos, va tocando cada vez más arriba y nos explica que el veneno va
subiendo y enfriando el cuerpo. El momento final será cuando llegue al corazón.
Ya está frío el bajo vientre cuando Sócrates se descubre, pues estaba cubierto
con un velo, y dice algo sobre una deuda que olvidó pagar a Esculapio. Con
estas últimas palabras, se extingue la vida del gran filósofo, quien, según sus
discípulos, fue el más justo y el más prudente de todos los hombres.
En un rincón, llora un hombre joven y de anchas espaldas. Preguntamos quién es,
y nos dicen: Platón. Y nosotros, a pesar de la congoja, nos alegramos de verlo,
ya que veníamos, precisamente, a buscarlo.
§. Atenas, capital del siglo V
En aquella época era posible, como en pocas más, ser a la vez
inteligentes y felices.
BERTRAND RUSSELL
Salimos afligidos al aire libre de Atenas, pero las lágrimas no nos
impiden comprobar apenas con una mirada (estamos en la segunda mitad del siglo
V) que Atenas ha crecido hasta convertirse en el centro intelectual de Grecia.
Los filósofos precedentes solían enseñar en las regiones de Jonia (como Mileto)
o en la magna Grecia (Elea), pero a partir de la generación de Sócrates
(470-399 a.C.) cada vez más los pensadores importantes o bien nacen aquí, o
bien pasan aquí buena parte de su vida intelectual.
De hecho, Platón y Aristóteles, al fundar la Academia y el Liceo,
respectivamente, convocaron a filósofos y científicos de toda Grecia. Pero ésa
es sólo una de las transformaciones. La otra, imprescindible para entender
contra quién discute Platón, es la expansión de los sofistas, filósofos
ambulantes e independientes que buscaban sus alumnos entre los jóvenes de
la polis, y que iban más allá de la educación tradicional griega,
que se centraba en la gramática, la música y la poesía, extendiendo sus
disertaciones a cualquier tema. Y cobraban por sus enseñanzas, además, lo cual
escandalizaba a Platón. Estos hombres investigaron, más que problemas de
la physis o del origen, al hombre como ciudadano: la
incipiente democracia ateniense necesitaba, para consolidarse, de hombres que
supieran expresarse y persuadir al público de que su opinión era la correcta.
Así, los sofistas se dedicaron a enseñar el arte de la persuasión y
cuestionaron la existencia de un mundo objetivo más allá de las percepciones
privadas de los hombres, inaugurando una forma de relativismo que Platón quiso
combatir con un sistema filosófico cuyo objetivo fue determinar algún absoluto
al cual aferrarse.
Y, por fin, hubo otra transformación que incidió sobre el desarrollo de la
filosofía y de las ciencias en el Siglo de las Luces griego (y, de rebote, en
todo el pensamiento posterior): Sócrates, ese gigantesco pensador, feo y
desgarbado, a cuya desalentadora muerte asistimos, que contribuyó de manera
decisiva a reorientar la filosofía hacia un pensamiento más centrado en el
hombre que en la naturaleza.
Sobre este complejo panorama se cierne la figura impresionante de Platón.
§. Platón y sus andanzas
Aquel hombre joven que lloraba se llamaba en realidad Arístocles, había nacido
en 427 a.C., habría de morir en 347 a.C., y era conocido por todo el mundo como
Platón («el de anchas espaldas»); así lo llamaremos nosotros. Lo importante es
que la mirada platónica del mundo sobrevivió durante siglos a través de su obra
y de la influencia que ejerció sobre algunos filósofos contemporáneos,
empezando por Aristóteles.
Platón nació en Atenas en el seno de una familia noble y tuvo la mejor
educación que se podía tener en su tiempo. A los veinte años conoció a
Sócrates, por entonces de 63, del cual fue alumno hasta que se produjo la
tragedia de la cicuta. Después de varias aventuras y viajes (entre las cuales
destaca un breve cautiverio entre los piratas) y de algunas tentativas
infructuosas de dedicarse a la política, regresó a Atenas y fundó la primera
escuela de filosofía organizada, la Academia, que situó en las afueras de la
ciudad, en jardines que el héroe Academo había dedicado al culto de Cástor y
Pólux, y que condujo durante veinte años bajo el lema «que no entre aquí quien
no sepa geometría». Los filósofos naturalistas habían tratado de explicar el
mundo o los fenómenos del mundo apelando a causas físicas o mecánicas, con la
excepción de la escuela de Elea, los pitagóricos y Anaxágoras, un filósofo del
que no hemos hablado aún —falta grave— pero que es importante porque traduce el
clima intelectual de la época de Sócrates. Vamos a dedicarle unas palabras.
§. Anaxágoras: el nous
Anaxágoras (500-428 a.C.) fue no sólo uno de los filósofos más originales y
famosos de su época (lo cual le valió, dicho sea de paso, una condena al
exilio), sino quien detenta el gran honor de haber introducido la filosofía en
la que pocos años después se convertiría en la capital indiscutible del
pensamiento filosófico de la antigüedad.
Aunque nació cerca de Mileto, en Clazomene, Anaxágoras se trasladó a Atenas,
donde se hizo famoso como especialista en las «cosas del cielo» y disertó ante
audiencias selectas entre las cuales uno podía encontrar, si miraba con
atención, al dramaturgo Eurípides o al mismísimo Pericles, gobernante de Atenas.
Se cuenta que, en una ocasión, alguien le criticó su falta de interés por las
cuestiones públicas y de la patria. Señalando al cielo, respondió que nadie más
que él se preocupaba por su patria.
De hecho, nuestro filósofo se ocupó de intentar describir cómo era esa
naturaleza (physis) que había intrigado a los pensadores desde Tales en
adelante, a tal punto que se cuenta que pudo predecir la caída de un meteorito
(esto es naturalmente falso, ya que la caída de un meteorito no se puede
predecir; si la leyenda es cierta, digamos que tuvo suerte) y afirmar, muy
temerariamente, que los astros no eran de ninguna manera dioses sino piedras
comunes y silvestres. Al mismo tiempo, sugirió que el Sol era una piedra
ardiente del tamaño del Peloponeso y que era quien mandaba su luz a la Luna,
que esta última estaba habitada y que los terremotos no eran otra cosa que el
movimiento de la superficie terrestre producido por la agitación de masas de
aire encerradas en las vísceras de la Tierra.
Otra anécdota interesante relata que cierta vez un campesino le llevó a
Pericles, cuando aún no gobernaba Atenas, una cabeza de carnero que tenía un
solo cuerno en la frente; mientras que un adivino interpretó el hecho como un
vaticinio del futuro triunfo de Pericles, Anaxágoras prefirió analizar el
cráneo para determinar las razones anatómicas de la anomalía.
Bueno, ahí tienen. Y ya les conté que por no respetar las creencias
tradicionales fue expulsado de la ciudad. Pero el punto central de su
filosofía, de acuerdo con los pocos fragmentos de que disponemos, tiene que ver
con el problema del origen de las cosas, que, como vimos, fue una obsesión para
los griegos y, como veremos a lo largo de este libro, lo sigue siendo para
nosotros.
Anaxágoras intentó despegar la filosofía de Parménides del inmovilismo a que
conducía con el objetivo de lograr explicar el evidente discurrir del mundo.
Para eso, como los atomistas, supuso que todas las cosas, en el origen, estaban
juntas al mismo tiempo, «infinitas tanto en cantidad como en pequeñez», y que a
partir de ellas, por un proceso que no llegaba a explicar muy bien, se formaba
todo lo que conocemos.
Esta mezcla desordenada y heteróclita no podía empezar a ser sino gracias al
trabajo de un Intelecto (nous), que funcionaba como un principio encargado
de poner en marcha el movimiento. Obviamente, con semejante teoría del origen,
Anaxágoras no podía sino pensar que, en última instancia, el verdadero
conocimiento no podía sostenerse en el testimonio de los sentidos, que muchas
veces se mostraba débil, sino que debía centrarse en el nous.
En principio, la teoría le encantó a Platón, aunque luego aseguraba que se
quedaba a mitad de camino. Él mismo nos lo dice:
Habiendo oído que Anaxágoras afirmaba que el Intelecto es el Ordenador y
la Causa de todas las cosas, gocé con la explicación y me creí contento de
haber encontrado la verdad sobre la causa de los seres. Pero entonces vi que mi
héroe no utilizaba para nada el Intelecto y que no le atribuía ninguna causa al
ordenamiento de las cosas, sino que recurría, como siempre, al aire, al éter,
al agua y a otras cosas extrañas.
Es decir que Anaxágoras postulaba el intelecto, pero al final no lo
usaba para nada.
§. Los «dos mundos» de Platón
Lo que Platón descubrió, o determinó, o decidió, fue que el impulso de los
naturalistas, que había sido decisivo para el comienzo de la filosofía y de la
ciencia griegas, llegaba hasta un punto en el que no podía motivar más el
avance. Desde el comienzo, desde Tales, los naturalistas habían intentado
explicar lo sensible en función de lo sensible mismo, de buscar la causa de
todas las cosas naturales, de todo lo empírico, en otras cosas naturales (ya
fuera el agua, el aire o los cuatro elementos). Pero se topaban con problemas
irresolubles: si el agua dio origen a todo, ¿quién dio origen al agua? ¿Y cómo
podía salir del agua su opuesto, el fuego? Había algunas soluciones tentativas,
como el ápeiron de Anaxágoras, pero lo cierto es que hasta ahí
parecía llegar el naturalismo griego.
Por el otro lado, la filosofía de Parménides había detenido el desarrollo de la
ciencia en la especulación metafísica sobre el ser. El pensamiento oscilaba
como un péndulo entre la dudosa empiria y la metafísica del ser. Por lo tanto,
era necesario abrir una vía nueva o el péndulo seguiría oscilando para siempre.
Platón, entonces, tomó el toro por las astas y postuló la existencia de dos
reinos: al ser de Parménides lo redefinió como mundo suprasensible,
«inteligible», accesible sólo mediante el intelecto, y toma la empiria
naturalista, y la convierte en el mundo de los sentidos, el mundo
sensible, y los hace coexistir.
Pongamos un ejemplo de Platón que empezará a aclararnos el panorama: ¿Por qué
nos parece bella una cosa? Es una cuestión difícil de resolver. No se trata de
decir qué cosas son bellas sino de definir verdaderamente qué es la
belleza, es decir, qué es aquello que hace que todas las cosas bellas sean
bellas. Una postura naturalista lo atribuiría a elementos puramente físicos:
color, figura, tamaño o a cualquier combinación de cualidades, pero Platón nos
dice que esos rasgos aprehendidos por los sentidos no aseguran nada: si algo es
bello es a causa de algo superior que le otorga la cualidad de belleza.
Ese algo, que no pertenece al mundo de lo sensible, es una idea o forma de lo
bello, que hace que las cosas sensibles sean bellas participando de ella. Y
este razonamiento se aplica a todo, lo cual implica que para que exista
cualquier objeto físico debe haber una causa suprema y última que no es de
carácter físico sino metafísico. Así, hay dos planos: uno fenoménico y visible
y el otro captable sólo con la mente.
Estas «causas» de naturaleza no física fueron llamadas por Platón «ideas» (eidos en
griego significa «forma») y son las que pueblan y estructuran el mundo del Ser.
No son proyecciones ni representaciones mentales ni pensamientos, sino cosas
que existen realmente. Son la esencia de las cosas, aquello que hace que cada
cosa sea lo que es. No dependen del sujeto ni son modificables por él, sino
que, al revés, se imponen al sujeto de manera absoluta y no están sometidas al
mundo sensible del devenir.
Una cosa bella puede corromperse y dejar de ser bella, pero la idea de belleza
es absolutamente inmutable, como lo es la idea de silla, la idea de caballo o
la idea de libro. Así que, si son platónicos, pueden sentirse tranquilos: si
alguna parte de este libro se pierde o se corrompe, la idea permanece.
Así, y en cierto modo como los atomistas dieron estructura al no ser,
poblándolo de vacío y de átomos, Platón le da estructura al mundo suprasensible
y lo puebla con entes suprasensibles que están organizados de manera
jerárquica. Las ideas inferiores participan de las superiores, que van
elevándose hasta la cúspide de la jerarquía, que es la Idea del Bien. Hay,
pues, una cierta dinámica en el mundo suprasensible en vez de la inmovilidad
parmenídea. Y de alguna manera, al postular un espacio inmutable (el mundo de
las ideas) y otro sometido al cambio y el devenir (el mundo sensible), consigue
zanjar la disputa entre los eleáticos y otro filósofo al cual hemos descuidado
hasta ahora: Heráclito. Me olvido, pero finalmente los recupero. Ustedes me
perdonarán.
Heráclito nació cerca de Mileto, en Éfeso, y escribió lo que escribió en un
estilo oracular, es decir, en un estilo que requería una complicada tarea de
interpretación por parte de sus lectores. Uno de los problemas de este estilo
oracular, según dicen algunos, es que su dificultad hizo que fuera mal leído y
mal interpretado por todo el mundo, a tal punto que nos llegó a nosotros la
idea de que es el filósofo del «todo fluye» cuando, en rigor, no es para nada
así.
Pero así fue como lo leyó Platón, y es este aspecto el que nos interesa a
nosotros aquí, puesto que es este aspecto el que Platón necesita solucionar
para avanzar con la postulación de su propio sistema filosófico.
Heráclito se define, para Platón, en oposición con Parménides. Si el último es
el propulsor de la idea de la estabilidad absoluta del ser, el primero asegura
que la realidad es tan cambiante que, por ejemplo, nadie puede bañarse dos
veces en el mismo río (puesto que el agua que pasa ya no es la misma que ha
pasado y yo, la segunda vez, no soy el mismo que se ha bañado la primera). El
ejemplo vale también para una ducha.
Desde ya, lo cierto es que Heráclito está convencido de que el fundamento de
todas las cosas está en el cambio y en el fluir, en la contradicción y la lucha
entre los contrarios. Lo cual no significa, en absoluto, que el cambio y el
fluir sean anárquicos, sino todo lo contrario: están sometidos a leyes muy
precisas, al logos (una especie de razón impersonal y
universal) que organiza armónicamente, de manera invisible, lo que en la
realidad aparece como caótico. Lo aparente son las multiplicidades aisladas; lo
permanente es esa armonía oculta que debe encontrar el filósofo.
Pero volvamos a ese mundo que, con gran esfuerzo, está intentando construir
Platón. Decíamos que la causa del mundo sensible es el mundo suprasensible,
inteligible. Pero ¿cómo se articulan esos dos mundos? El mundo sensible participa del
inteligible, aunque no está para nada claro cómo. Después de reconocer las
dificultades que presenta este punto, Platón introduce un demiurgo, un dios
hacedor semejante al nous de Anaxágoras, un artífice que,
tomando como molde el mundo inteligible, ha plasmado el mundo sensible. ¿Por
qué lo hizo? Por bondad y amor al Bien. Y en consecuencia hizo la obra más
bella y perfecta posible. El demiurgo otorgó al mundo un alma e intelectos
perfectos, además de un cuerpo perfecto, convirtiéndolo de caos en cosmos
§. El conocimiento
Tuve miedo de que mi alma quedase completamente
ciega al mirar las cosas con los ojos y al tratar de
capturarlas con los sentidos [y por eso] decidí
que debía ubicarme en los razonamientos y
considerar mediante éstos la verdad de las cosas.
PLATÓN
Hasta ahí, y muy a grandes rasgos, la imagen filosófica del mundo que
nos ofrece Platón. Pero ¿por qué nos interesa todo esto? Porque plantea un
problema sobre las bases del conocimiento científico. Suponer que la verdad
excede el plano sensible exige que expliquemos cómo conocemos lo que conocemos.
¿Cómo hacemos para saber algo, para llegar a ese mundo inteligible, que parece
tan alejado y tan etéreo?
Admitir la existencia de dos mundos distintos (el de las ideas y el sensible)
exige una muy precisa epistemología, es decir, una muy precisa teoría que
explique el mecanismo del conocimiento, y la concepción platónica del
conocimiento, justamente, se ve ilustrada en dos de las partes más famosas de
sus diálogos (recordemos que toda la obra de Platón está escrita en forma de
diálogos en su mayoría protagonizados por Sócrates). En la primera, conocida
como «alegoría de la caverna», Platón demuestra cuál es el verdadero
conocimiento al que aspira y cuál es la situación en la que se encuentran los
hombres normales (es decir, los no-filósofos); en la segunda, argumenta por qué
piensa que conocer es, en realidad, recordar.
La alegoría de la caverna parte del principio de que los hombres vivimos como
si estuviéramos encadenados en el interior de una caverna a espaldas de su
entrada, mirando a una pared y sin poder darnos vuelta. Inmediatamente detrás
de nosotros hay un muro «semejante al biombo que los titiriteros levantan entre
ellos y los espectadores» (que ni percibimos porque no podemos darnos vuelta)
y, detrás de ese muro, un grupo de personas va poniendo objetos encima del
muro. Detrás de los hombres que colocan los objetos, hay un fuego. Nosotros,
los hombres comunes, imposibilitados de mirar hacia atrás, sólo podemos ver en
la pared las sombras que proyectan los objetos que colocan los hombres por
encima del muro.
Eso que vemos tiene cierta relación con la realidad (la sombra de un jarro
proyecta una sombra similar a un jarro propiamente dicho) pero no es la
realidad. Es el equivalente de esas sombras lo que percibiremos siempre en
nuestra vida cotidiana, a menos que rompamos las cadenas que nos mantienen
atados e imposibilitados de mirar directamente lo que ocurre fuera de la
caverna. Porque el conocimiento sensible da resultados provisorios y confusos.
El primer paso, al liberarnos de las ataduras, será enfrentar los objetos
propiamente dichos; el segundo, poder mirar al fuego directamente; el último,
salir a la luz del sol y contemplarlo de frente. El proceso es doloroso y
cuesta mucho trabajo, pero es la única manera de garantizar un conocimiento
verdadero.
En la analogía, el antro subterráneo es el mundo visible; el resplandor del
fuego que lo ilumina es la luz del sol, y la región superior, fuera de la
caverna, es el mundo inteligible.
El verdadero conocimiento, el que proviene de mirar al sol, se obtiene, según
Platón, mediante el intelecto. Para liberarse de las cadenas de los sentidos,
que son sólo un primer paso, cada hombre debe bucear en su interior, en la
plena conciencia, olvidando el mundo sensible. Allí encontrará una certidumbre
absoluta siempre que esté guiado por la razón.
Con esta filosofía de base, es natural que Platón no se ocupe mucho de
las ciencias naturales y, cuando lo haga, sea para revelar las operaciones de
la razón en el universo. Así, por ejemplo, desprecia o ningunea la astronomía
observacional y proclama que todo consiste en «salvar las apariencias» de lo
que se ve mediante círculos y esferas. Asimismo, acepta la teoría atomística,
pero la matematiza: toma la teoría de los cuatro elementos y asigna a cada uno
de ellos uno de los cinco sólidos regulares (conocidos desde los tiempos de
Pitágoras).
Naturalmente todo esto es especulativo, por no decir fantástico, pero muestra
el impulso geométrico que arrastraba Platón. La leyenda «que no entre aquí
quien no sepa geometría» no estaba escrita porque sí.
Pero abandonemos por un rato a Platón (y digo «un rato» porque siempre va a
estar cerca de nosotros), y ocupémonos un poco de su más aventajado y genial
discípulo.
§. Explicar el mundo: Aristóteles, un sistema completo
Aristóteles es un gigante intelectual que se planta frente al mundo y dice «voy
a explicarlo todo» y —cosa increíble— lo hace. «Voy a reunir todo el
conocimiento» y, también, lo hace, logrando una síntesis realmente formidable.
No por nada su pensamiento tuvo una prolongada vigencia en Occidente: desde el
siglo IV a.C. (en el que vivió) hasta bien entrado el siglo XVII, sus ideas y
postulados fueron considerados casi indiscutibles.
Su obra es titánica, de una vastedad inabarcable: ética, medicina, biología,
lógica, mineralogía, zoología, metafísica, política, economía, filosofía y
mecánica son sólo algunas de las investigaciones de las que se ocupó a lo largo
de sus 66 años de vida. Aristóteles es muy distinto de Platón, y organiza su
pensamiento de manera diferente: escribe verdaderamente como un profesor, sus
tratados son sistemáticos, minuciosos, exhaustivos.
Había nacido en Estagira, en Tracia, en el año 384 a.C. Su padre era un médico
que estaba al servicio de Filipo de Macedonia. A los dieciocho años viajó a
Atenas e ingresó en la Academia platónica, donde permaneció veinte años (la
abandonó solamente tras la muerte de Platón en 347), y conoció a los
científicos más famosos de la época. Durante un breve intervalo de tres años,
viajó por Asia Menor, donde impartió clases y realizó investigaciones sobre el
mundo natural. En 343-342, Filipo lo llamó a su corte y le confió la educación
de su hijo, un tal Alejandro, que tenía trece años.
Permaneció en la corte hasta que su alumno subió al trono y, en 335-4, regresó
a Atenas, donde fundó su propia escuela, el Liceo (porque lo hizo en edificios
cercanos a un templo de Apolo Liceo). Como impartía sus enseñanzas mientras
paseaba por el jardín vecino a los edificios, la escuela se conoció como
peripatética (del griego peripatos, paseo), y se enfrentó y eclipsó
a la Academia, en decadencia tras la muerte de Platón.
Finalmente, al morir Alejandro, hubo una fuerte reacción anti macedónica en
Atenas, que lo llevó (no olvidemos que había sido su preceptor) a exiliarse.
Murió en 322, después de unos pocos meses.
§. Aristóteles y Platón
Aristóteles, como les decía, pasó veinte años en la Academia de Platón, y se
impregnó de las enseñanzas de su maestro, aunque luego se fue alejando
paulatinamente de él. Sus intereses, entonces, fueron virando desde la
metafísica platónica a una actitud más naturalista y empirista.
Pero para poder llegar a la empiria como objeto de conocimiento, Aristóteles
tuvo, primero, que modificar decisivamente la metafísica de su maestro. En
realidad, lo que hizo fue introducir un pequeño cambio, pero de esos pequeños
cambios que alteran todo un sistema: Platón, para describir la interacción del
mundo inteligible con el sensible, había hablado de una «participación» que
nunca había logrado explicar satisfactoriamente y para lo cual necesitaba la
acción de un demiurgo; Aristóteles, por su parte, elimina a ese demiurgo y
«baja» las ideas platónicas a la materia, de modo tal que la tendencia al orden
y el cambio no son decisiones de ninguna voluntad suprema, sino que son
inmanentes a la naturaleza.
Las Ideas platónicas no están ya en un mundo aparte, sino que están en las
cosas, y es allí donde hay que ir a buscarlas. La realidad sensible, empírica,
dura, blanda, ingresa así masivamente a la esfera del Ser —todo lo que no sea
pura nada, pertenece a la esfera del Ser, tanto si es de una realidad sensible
como inteligible— y cae bajo la mirada de la ciencia.
El infatigable problema del devenir (que venía quitándoles el sueño a los
filósofos griegos desde el comienzo, que Parménides había negado porque nada puede
pasar del ser al no-ser y viceversa y que Platón había resuelto confinándolo al
mundo sensible y excluyéndolo del inteligible) es resuelto por Aristóteles
gracias a la postulación de dos modalidades de ser: en potencia y en acto.
Cuando la semilla se convierte en árbol no hay un paso del ser al no ser ni del
no ser al ser, lo cual era imposible: el árbol está en potencia en
la semilla, y en acto en el árbol desarrollado. No cambia su
cualidad ontológica (ambos son existentes) sino su modalidad ontológica: en
potencia o en acto.
Pero admitir que existe el cambio no significa que la naturaleza esté regida
por la casualidad ni por el azar, sino que igualmente posee orden y
regularidad. Y ese orden y esa regularidad tienen aparte una finalidad, que es
uno de los componentes de la causa, de la idea de causa de Aristóteles. Algo no
sólo está por algo, sino para algo.
Para Aristóteles, la Physike, segunda filosofía, o simplemente
física, incluía el estudio de los objetos naturales que poseen, en sí mismos,
la posibilidad de cambio o movimiento. Así, no sólo se abocó a lo que hoy
circunscribimos como física, sino que también englobaba lo que hoy llamaríamos
química, mecánica y diversas ramas de la biología.
Y justamente el cambio de estilo expositivo corresponde a esta visión
diferente: el uso de la ironía socrática dio origen, en Platón, a un discurso y
a un filosofar que se plantea como una búsqueda sin pausa —e inusitadamente
bella y poética—, Aristóteles trabaja de manera orgánica y consigue una
sistematización estable del conocimiento, que consiste en
conocer la causa de la que depende un hecho, y que éste no puede ser de
otra manera.
Es decir, el conocimiento (episteme) consiste en encontrar las
verdades universales de las que nos hablan las cosas —el discurso de las cosas,
que vuelve, después de sus aventuras eleáticas, pitagóricas e incluso
platónicas— y encontrar relaciones que son eternas y universales y se obtienen
por deducción a partir de axiomas, definiciones e hipótesis. En sus tratados
lógicos se ocupa cuidadosamente del método deductivo y de la prueba, llevando
su análisis mucho más allá de lo que nadie había hecho hasta entonces.
Así, de alguna manera, unos doscientos años más tarde, el estagirita (o el
filósofo, como se lo llamó en la Edad Media) retoma el camino de los primeros
naturalistas, pero con una amplitud de miras y una capacidad de análisis que
dan cuenta del formidable desarrollo del genio griego en apenas dos siglos.
Es impresionante, sí, aunque hace falta una severa advertencia: prácticamente
ninguna de las teorías que Aristóteles propuso resultó finalmente correcta, e
incluso casi todas ellas se convirtieron en graves escollos para el desarrollo
de la ciencia moderna, que, a partir de Copérnico, en el siglo XVI, será una
titánica construcción contra Aristóteles.
Es muy tentador «echarle la culpa» del destino ulterior de su sistema, que,
justamente, por ser tan completo y exhaustivo, terminó por transformarse en un
dogma paralizante. En todo caso, podemos hacer el ejercicio de despegar al
propio Aristóteles del fundamentalismo aristotelista que, como todo
fundamentalismo, tanto daño haría más tarde. Aristóteles no fue responsable de
lo que dijeron quienes fueron más aristotelistas que él mismo.
Dicho esto, echemos, sin miedo, un vistazo a sus principales teorías,
descubrimientos, indagaciones, investigaciones o como sea que queramos
llamarlos. Y digo sin miedo porque, verdaderamente, internarse en un mundo que,
visto desde ahora, es completamente equivocado —y a veces disparatado— tiene
sus bemoles.
Pero la ciencia avanza a los tumbos, y muchas veces el camino del error juega
un papel importante. Un sistema fuerte como el aristotélico puede convertirse
en una rémora, pero también puede llegar a mostrar con claridad los puntos
claves que hay que derribar, como efectivamente ocurrió con la construcción de
la ciencia moderna.
§. La física de Aristóteles
Probablemente convenga empezar por la física, aquella disciplina que fue
articulando el pensamiento científico griego desde Tales en adelante y a la que
se le fueron planteando todos los problemas que hubo que intentar resolver
filosóficamente. Aristóteles rechaza por completo el tipo de teoría física que
invocaban los atomistas y el bueno de Platón, en las cuales las diferencias
entre sustancias se reducían a diferencias cuantitativas y matemáticas, y
postula que los problemas físicos deben ser explicados por causas físicas y no
matemáticas.
Así, retiene los cuatro elementos originarios de Empédocles pero rechaza la
existencia de los átomos, ya que considera la materia como infinitamente
divisible:
No puede existir una parte tan pequeña de una magnitud que no se pueda
obtener de ella otra más pequeña por división.
Y puede decirse que tiene bastante razón: como ya vimos cuando hablamos
de Demócrito y Leucipo, si los átomos tienen forma y por lo tanto volumen, ¿por
qué no podrían dividirse?
Los cuatro elementos se ordenan sobre una esfera de tierra, la Tierra, esférica
e inmóvil en el centro del universo. Por encima de ella se ubica la capa del
agua, en tercer lugar la del aire, luego la del fuego. Y por encima de la
esfera del fuego, que llega hasta la órbita (o esfera) de la Luna, se extiende
un quinto elemento (o quintaesencia), uno que todavía no hemos escuchado
nombrar y que estará destinado a jugar un papel increíblemente protagónico en
la historia de la ciencia: el éter, inmutable e incorruptible, del cual están
hechos tanto los astros como las esferas que los mueven.
El mundo sublunar, por su parte, es (como ya se habían dado cuenta muchos de
sus antecesores, entre los cuales habría que destacar al oscuro Heráclito)
mudable, corruptible y sujeto a transformaciones, ya que la esfera de la Luna,
mediante su roce, altera y mezcla las capas sublunares, que, si no,
configurarían un mundo completamente estático.
La verdad es que esta dualidad mundo supralunar perfecto, eterno, incorruptible
- mundo sublunar cambiante, sucio, asqueroso, imperfecto (pero interesante),
recuerda la división platónica entre el mundo de las ideas y el más prosaico de
la empiria. Pero justamente el adjetivo «interesante» es el que marca la
diferencia.
§. El problema del movimiento
Vamos a mirar con cierto detalle la teoría aristotélica del movimiento, que
según piensa el volátil autor de estas páginas será la piedra de toque de las
discusiones y dificultades que van del siglo XII a Galileo (aunque con el
importante antecedente de Filopón, del siglo V, de quien hablaremos llegado el
momento).
¿Por qué se mueven los cuerpos? Aunque pueda parecerlo, porque convivimos con
él, no es un problema simple. Ajustando un poco la pregunta: ¿Por qué algunos
cuerpos están en reposo y otros se mueven? o ¿cómo puede ser que haya algunos
que primero estén en reposo y después se muevan, otros que estén siempre en
reposo y otros que se muevan todo el tiempo, como la Luna?
A primera vista, y siguiendo el panorama que da el sentido común, un móvil se
mueve porque algo lo mueve, lo arrastra, lo empuja, lo lanza, o
porque actúa un motor interno, como en el caso de un colectivo o un automóvil.
Obviamente, Aristóteles no ponía este último ejemplo, pero sí el de los
animales, que tienen un motor interno que produce sus movimientos.
Sin embargo, hay otros movimientos que son espontáneos: por ejemplo, el de
caída de los cuerpos. Si el volátil autor de estas páginas (me gustó la
expresión) suelta una piedra, se precipita a tierra sin que intervenga nada que
la mueva, y cada vez con mayor velocidad, como si tuviera una voluntad propia.
¿No es extraordinario que la piedra caiga por sí sola? Obviamente, como la idea
de gravedad todavía no estaba ni lejana en el horizonte, había que explicar de
alguna manera hechos aparentemente tan inexplicables como el de una piedra que
caía hacia el suelo o el del humo que ascendía indiferente.
Parecen dos tipos de movimiento que no tienen nada que ver, y Aristóteles de
hecho los distingue perfectamente: no es lo mismo aquel movimiento que requiere
un motor o una fuerza que el movimiento de la piedra que cae naturalmente o el
del humo que naturalmente sube. Estos últimos no necesitan que funcione ninguna
fuerza: son, simplemente, procesos de restitución de los elementos a la esfera
a la que pertenecen. Si alguna vez anduvieron a caballo, se habrán dado cuenta
de que el último tramo, antes de llegar al establo, el animal, aunque agotado,
hace lo imposible para llegar rápido. El establo es su lugar, el animal lo sabe
y se esfuerza por estar allí. Más o menos así concibe Aristóteles el movimiento
de este segundo tipo. La piedra (mayormente tierra) quiere retornar a la esfera
a la cual pertenece, que es la más baja (¿recuerdan?), y de la cual fue
apartada, y el humo, mayoritariamente fuego, se dirige naturalmente a la esfera
del fuego, la más alta.
Si tenemos en cuenta la cosmología aristotélica, con las cinco capas, es lógico
pensar que un objeto compuesto principalmente de tierra, como una roca, se
caerá al soltarlo en el aire. Por el mismo motivo, la lluvia cae mientras que
las burbujas de aire bajo el agua se moverán hacia arriba. Aristóteles completa
la idea diciendo que cuanto más pesados sean los cuerpos, más ansiosamente se
esforzarán por retornar a su sitio, ya que el peso no es otra cosa que la
manifestación de su nostalgia por la esfera originaria. Por lo tanto, un cuerpo
pesado caerá más rápidamente que uno liviano. El agua de los ríos, por su
parte, fluye a la esfera del agua (y eso explica el movimiento de los ríos)… y
así.
Cada objeto del mundo pertenece a su «lugar natural» y va a hacer todo lo
posible para volver a él. Una vez alcanzada su posición en el sistema, los
elementos permanecerán en reposo manteniendo toda su pureza como tales.
Abandonada a sí misma, sin la acción de fuerzas exteriores que turben el
esquema, la región sublunar sería una región estática, reflejo de la estructura
propia de las esferas celestes.
¿Pero qué ocurre con los otros movimientos, aquellos que se inician si y sólo
si hay algo que los genera (un motor), como es el brazo en el caso del
lanzamiento de una piedra? Obviamente, no son naturales, y no llevan a las
cosas a sus lugares naturales, sino más bien al revés: yo alzo la piedra y la
alejo justamente de su lugar natural; lanzo una flecha y ésta sube
(contrariando su naturaleza); los motores imponen a los móviles movimientos
violentos, que duran mientras el motor actúa, y cesan apenas la acción motora
se desvanece.
Lo cual podría estar muy bien, salvo por el hecho de que es inverosímil y
completamente contrario al sentido común: es muy fácil de comprobar que si yo
arrojo una piedra, ésta se sigue moviendo una vez que el motor —la mano— se ha
separado de ella. Parece un argumento fatal para la teoría. Pero Aristóteles no
se amilana por eso y propone una solución ingeniosa aunque inverosímil: cuando
el motor abandona al móvil, es el propio medio el que sostiene el movimiento, y
para explicar a su vez cómo un medio que habitualmente resiste el movimiento
ahora lo mantiene, describe una complicada situación… que es mejor que la
cuente el propio Aristóteles que yo mismo:
El motor original confiere la capacidad de ser un motor al aire, al agua
o a cualquier otra cosa por el estilo que por naturaleza pueda comunicar o
sufrir movimiento. Mas esta cosa no cesa de impartir y recibir movimiento
simultáneamente. Deja de estar en movimiento en el momento en que su motor deja
de moverla, pero sigue siendo un motor, por lo que causa movimiento a otra
contigua, y de ésta se puede decir lo mismo. El movimiento disminuye cuando la
fuerza motriz producida en un miembro de la serie de cosas contiguas es cada
vez menor, y termina de cesar cuando uno de los miembros ya no hace que el
siguiente miembro sea un motor sino que tan sólo lo mueve. Entonces el
movimiento de los dos últimos, uno como motor y el otro como móvil, cesa
simultáneamente y con ello todo movimiento.
Parece un galimatías, y en efecto lo es. El primer motor le transfiere
al medio (agua, aire o el que sea) la capacidad de ser motor, y éste empuja al
objeto gracias a pequeños fragmentos de aire que se van transfiriendo unos a
otros la capacidad motora hasta que de repente, no se sabe bien por qué, dejan
de hacerlo… No es demasiado verosímil. Y lo cierto es que se le escapó algo que
será central para el triunfo de la ciencia moderna, algo que primero se
llamó impetus y luego inercia, piedra (nada más apropiado) de
toque de lo que será la ciencia del movimiento de Galileo.
Entonces: movimiento de las cosas que van hacia su lugar natural y movimiento
impulsado por un motor. Pero hay, todavía, un tercer tipo de movimiento,
diferente de estos dos: el movimiento de los astros, que es regular y eterno.
¿Cómo se explica entonces que los astros se muevan? Aristóteles, al igual que
los pitagóricos, piensa que la tierra y el cielo, el mundo sublunar y el
supralunar, están sujetos a dos conjuntos diferentes de leyes naturales. Los
movimientos del mundo supralunar tienen que ser naturales, circulares,
permanentes y mantener al cielo en un estado de profunda calma e inmutabilidad.
Justo lo opuesto a la visión actual, que presenta al universo como un lugar de
cambio, expansión, explosiones, y toda clase de accidentes.
Las esferas celestes tienen un motor: cada una de ellas se mueve por el impulso
transferido desde la esfera inmediatamente superior, lo cual, evidentemente,
lleva al problema del regreso al infinito. A la primera la mueve la segunda; a
la segunda, la tercera; a la tercera, la cuarta. ¿Pero quién arranca el
movimiento? El genio de Borges inmortalizó este inconveniente:
Dios mueve al jugador y éste, la pieza, ¿qué dios detrás de Dios la
trama empieza?
La respuesta de Aristóteles es que la trama la inicia un «primer motor
inmóvil», cuya condición de no moverse nos salva del problema del regreso ad
infinitum. Y, de paso sea dicho, cada una de las esferas tiene, además del
rozamiento de la esfera superior, su propio primer motorcito inmóvil, que
también forma parte de las causas de su movimiento.
Como todos sus contemporáneos, Aristóteles está convencido de que la Tierra
ocupa el centro del universo, y no podría estar en otro lado, por una razón
estrictamente física (más o menos la que habían expuesto Anaximandro y
Anaxímenes: tiene que estar en el centro, pues no tiene a dónde caer, ya que
dista lo mismo de todas las partes). Así como la Tierra está inmóvil en el
centro, el Universo entero está contenido dentro de la esfera de las estrellas.
En todos y cada uno de los puntos del interior de la esfera hay materia.
Los agujeros y el vacío no tienen razón de ser. En el exterior de la esfera no
hay nada, ni materia, ni espacio. Materia y espacio van juntos: son dos
aspectos de un mismo fenómeno y, por lo tanto, la propia noción de vacío es
completamente absurda. A partir de este presupuesto, Aristóteles explicó el
tamaño finito y la unidad del Universo. Espacio y materia terminan en el mismo
lugar: no tiene sentido construir un muro que limite el universo y preguntarse
qué es lo que limita el muro.
Así pues, queda claro que fuera del cielo no existe ni puede existir
ningún cuerpo. La totalidad del mundo está integrada por toda la materia
disponible (…). Por lo tanto, ni existen ahora varios cielos, ni existieron
antes, ni pueden existir; antes bien, este cielo es único y perfecto.
El sistema aristotélico
Otro rasgo del movimiento según Aristóteles es que es absoluto, y esto
es importante señalarlo, porque será uno de los grandes temas en discusión de
la Revolución Científica de los siglos XVI y XVII. Para Aristóteles, lo que se
mueve, se mueve, y lo que está quieto (como la Tierra en el centro del
universo), está quieto. Del mismo modo, arriba y abajo son direcciones
absolutas en relación con el centro de la Tierra. La negación de estos dos
postulados dará origen a la física moderna.
Lo cierto es que, a pesar de sus errores, los textos de Aristóteles suministran
las primeras enunciaciones generales concernientes a las relaciones entre los
diversos factores que rigen la velocidad de un cuerpo en movimiento. La
velocidad es proporcional al peso del cuerpo:
Si un cuerpo dado se mueve cierta distancia en cierto tiempo, un peso
mayor se moverá igual distancia en un tiempo más breve, y la proporción entre
ambos pesos uno respecto del otro, la guardarán los tiempos uno con respecto
del otro.
Al mismo tiempo, es inversamente proporcional a la «densidad» del medio
a través del cual tiene lugar el movimiento, de modo tal que se moverá más
rápidamente en uno que sea más «tenue e incorpóreo». Y aquí hay otro argumento
contra la existencia del vacío, ya que en el vacío un móvil se movería con
velocidad infinita, cosa que le resulta absurda.
Acá, hay que admitirlo, Aristóteles acierta bastante. Es cierto que, en el
aire, los cuerpos pesados caen más rápidamente que los livianos de la misma
forma y dimensiones, aunque esto no sea cierto en el vacío. Del mismo modo, el
movimiento a través de un medio denso es generalmente más lento que a través de
uno enrarecido: el inconveniente es que se simplifica mucho la cuestión al
considerar que la relación es directa.
Y con este seudo acierto aristotélico, podemos abandonar la teoría del
movimiento, siempre que nos comprometamos a no olvidarla porque va a marcar de
manera pasmosa la historia del pensamiento hasta la Revolución Científica.
Echemos un vistazo (rápido, necesariamente) a los otros campos en los que posó
su universal mirada.
El esquema del movimiento
§. Biólogo, químico, geólogo, minerólogo
En oposición a Platón, y a todos los filósofos-matemáticos herederos del
pitagorismo, Aristóteles sostuvo firmemente la importancia del estudio de las
particularidades pertenecientes al mundo del devenir. Insistía en que la
observación de las partes exteriores de los animales no era suficiente y que
incluso había que diseccionarlos, práctica con la que se aprendía mucho, según
sus propias palabras. Sus estudios sobre los seres vivos se fueron
construyendo, de hecho, como una pieza más de su impresionante sistema: los
animales, que muestran propósitos y adaptaciones muchas veces extraordinarios,
constituían, de alguna manera, un espejo en el que admirar el orden del cosmos.
Para lograr esto no alcanzaba con la pura especulación metafísica: era
necesario embarrarse las manos. Y Aristóteles lo hizo sin problemas,
recogiendo, por ejemplo, huevos en el campo y mirando cómo avanzaba la
gestación de un pollito. A tal punto fue importante la biología, que llegó a
establecer una clasificación general de los animales, la primera que conocemos
en la historia.
Con rigor de científico actual, el mismo hombre que inventó el éter y el primer
motor inmóvil, escribe fragmentos de una precisión sorprendente, como el
siguiente:
Los llamados cefalópodos y los crustáceos presentan muchas diferencias
con éstos. Para empezar, no poseen el conjunto total de las vísceras, como
tampoco, ninguno de los restantes animales no sanguíneos. Hay otros dos géneros
no sanguíneos, los testáceos y el grupo de los insectos. Todos estos carecen de
sangre con la que formar las vísceras porque tal fenómeno es parte de su propia
sustancia. Que unos tengan sangre y otros no se incluirá en el razonamiento que
define su sustancia.
No podemos demorarnos acá, porque nos enredaríamos en complicadas
descripciones anatómicas que nos llevarían demasiado tiempo. Lo que sí tenemos
que decir es que, además de la biología, se ocupó con cierto detalle de
meteorología, química, geología, mineralogía… y muchas otras cosas más.
Pero tenemos que abandonar, en algún momento, al infinito Aristóteles y seguir
avanzando en el camino del conocimiento (enseñanza que la humanidad tardó
muchos siglos en aprender).
La figura de Aristóteles está en el filo de una gran transformación política
del mundo griego. A raíz de las conquistas de Alejandro, y la posterior
fragmentación de su imperio, se impone en el mundo mediterráneo (oriental) una
cultura más abarcativa y diferente de la predominante hasta entonces, aunque la
ciencia helenística heredará muchos rasgos y continuará muchos de los caminos
iniciados por Aristóteles y sus antecesores.
Mientras tanto, en la ribera derecha del Tíber, Roma crece y acecha.
Capítulo 5
La escuela de Alejandría
¿Recuerdan a Alejandro, el hijo de Filipo de Macedonia que había tenido
el privilegio de ser educado por Aristóteles? Bueno, resulta que ese tal
Alejandro, a los trece años, se convirtió en un gran rey, y armó un inmenso
imperio que, aunque breve, produjo un giro decisivo en la cultura griega.
El designio de una monarquía universal (como pretendió Alejandro) no podía sino
minar el papel de la polis, que había sido el eje moral de
referencia de los filósofos y científicos griegos. No nos olvidemos de que los
grandes sistemas de Platón y Aristóteles tenían, precisamente, un fundamento
moral y político: el orden del mundo era el orden de la polis, y el
objeto último de la filosofía era el desarrollo de los ciudadanos.
El imperio de Alejandro duró poco, pero a su muerte, en 323 (¡a los 33 años!),
se dividió en diferentes reinos (Egipto, Siria, Macedonia y Pérgamo), que
fueron gobernados por reyes —en general, los propios generales de Alejandro—
que fundaron a veces largas dinastías, que habrían de durar hasta la conquista
romana. Al ocaso de la polis no sucedió la implantación de
nuevas estructuras de la misma envergadura moral, capaces de dotar de un nuevo
punto de apoyo a la especulación filosófica y científica, sino estructuras
bastante inestables, incapaces de generar en el antes ciudadano una relación de
pertenencia que le permitiera pensar en un proyecto común. Más bien al revés:
de ciudadano, el griego se convirtió en súbdito, y la vida de los nuevos
Estados se desarrolló independientemente de su voluntad. Las antiguas virtudes
cívicas fueron reemplazadas por las necesidades técnicas necesarias para la
administración, y el pensamiento griego, al quedar desprovisto de la polis,
se volcó a un ideal cosmopolita, favorecido por el hecho de que Alejandro hizo
un notable esfuerzo por integrar a los «bárbaros» en la cultura helénica. Hizo
instruir a miles de ellos y ordenó que los soldados macedonios contrajeran
matrimonio con mujeres persas, logrando así, con relativo éxito, borrar la
tajante distinción que los propios griegos habían establecido entre los
bárbaros y ellos mismos.
Naturalmente, al entrar en contacto con tradiciones y creencias diversas (y de
raíz oriental), la cultura griega se impregnó de nuevos significados, y
forzosamente asimiló algunos elementos: de helénica, se transformó en
helenística, y así alumbró un nuevo mundo cosmopolita, que allanaría el paso a
la cultura romana, que empezó a expandirse a partir del siglo II a.C. En 146,
Grecia fue conquistada y se convirtió en provincia romana.
Los nuevos centros de cultura (Pérgamo, Rodas y, en especial, Alejandría)
eclipsaron el fulgor ateniense, aunque, desde ya, no lo oscurecieron del todo;
al fin y al cabo, los procesos culturales son lentos y rara vez completos —aun
examinándolos ex post— y hasta el siglo II d.C. los aristócratas
romanos completaban su educación con una estadía en Atenas, del mismo modo que
los aristócratas de muchos lados, en la segunda mitad del siglo XIX y la
primera del XX, consideraban inexcusable una estancia en París. El cosmopolitismo
dio paso —y no podía ser de otra manera— a un eclecticismo intelectual, que
centró sus líneas de investigación política y moral en los problemas que
afectan no al hombre en general sino a cada uno de los hombres en particular,
en lo cual, seguramente, influyó el espíritu latino, con su concepción de un
derecho universal y su espíritu práctico.
§. El carácter de la ciencia alejandrina
La ciudad que Alejandro, con la modestia propia de los grandes reyes, llamó con
su propio nombre, fue fundada en 331 a.C. Estaba ubicada próxima a la
desembocadura del Nilo, con lo cual gozaba de un fructífero intercambio
comercial con las rutas que cruzaban el Mediterráneo oriental, por un lado, y
por otro se beneficiaba al recibir todos los productos del hinterland,
que Egipto producía Nilo arriba. Después de la muerte de Alejandro, el poder
recayó en Ptolomeo Lago (o Ptolomeo I), iniciador de una dinastía estable que
habría de durar hasta el 30 a C, cuando Cleopatra abandonó este mundo mediante
los amables servicios de un áspid y Egipto pasó a ser una provincia romana.
Los Ptolomeos centraron su esfuerzo helenizante en Alejandría —dejando de lado
al resto de Egipto, que siguió conservando su estructura de estado oriental— y,
para ello, invitaron a intelectuales y científicos a instalarse en ella. La
población crecía muy rápidamente y así se iba generando el típico ambiente
cosmopolita y helenístico.
Y miren lo que pasó. Estas cosas ocurren más allá de los designios de los
hombres y de los reyes: a partir de 297, Demetrio de Falero, que procedía de
Atenas y había tenido que refugiarse en Alejandría, estableció una relación
estrecha con Ptolomeo I (que lo designó preceptor de su hijo) y concibió el
proyecto grandioso de fundar algo así como el Liceo aristotélico, pero de
proporciones mucho mayores, reuniendo en una gran institución todos los libros
y los instrumentos científicos que se pudieran conseguir.
Como es natural, tal emprendimiento atraería a investigadores y estudiosos de
todo el mundo helénico, que no podrían encontrar tales cosas en ninguna otra
parte: es así como nació el Museo (que etimológicamente significa Casa de las
Musas) y, a su lado, la célebre Biblioteca.
El Museo ofrecía todos los aparatos para las investigaciones astronómicas,
médicas y de historia natural, mientras que la Biblioteca llegó a tener la
enorme cantidad de 700 mil volúmenes, lo cual la convirtió, como es obvio, en
la más grande reunión de libros del mundo antiguo. La búsqueda de libros fue
convertida en un deporte nacional, o más bien en una política de Estado, y no
era raro que se retuvieran barcos en el puerto por todo el tiempo que tardaban
las obras de a bordo en ser copiadas, práctica que —digámoslo de paso— no se
veía trabada por copyrights ni derechos de autor, como los que
ahora mismo están perturbando la difusión de libros, películas y música a
través de Internet.
Pero además de producirse una enorme concentración de sabios e investigadores,
el carácter mismo de la ciencia que se practicó en Alejandría varió con
respecto a la que se venía usando hasta entonces. Lo cual no es nada extraño,
dado que la ciencia cambia a medida que se nutre de los diferentes contextos
sociales.
En efecto, los científicos dejaron un poco de lado los grandes sistemas
filosóficos que habían servido siempre de cobertura a las investigaciones, y de
alguna manera se independizaron de ellos, concibiendo las ciencias particulares
como disciplinas en sí mismas y no como piezas de un esquema más general.
Relegaron, así, el estudio de la filosofía a las escuelas supervivientes en
Atenas, mientras se concentraban en geografía, astronomía, medicina,
tecnología, sin necesariamente pensarlas como partes de un sistema total que
explicara todos los resquicios del cosmos, y que incluyera cada disciplina como
un engranaje fundamental: si los pitagóricos se habían dedicado a las
matemáticas, era porque las habían considerado la base de su sistema del mundo;
lo mismo había ocurrido con la Academia Platónica o, como veremos, con la
mecánica de Aristóteles. El interés de esta gente era la resolución de
problemas científicos concretos, más allá de las preocupaciones filosóficas,
como podemos verlo con un ejemplo simple y genial.
§. Medir el mundo: varillas y camellos
En 246, Ptolomeo III llamó a Alejandría, para ejercer el cargo de director de
la Biblioteca, a Eratóstenes de Cirene (276 a.C.-194 a.C.), que fue una figura
impresionante: astrónomo, historiador, geógrafo, filósofo, poeta, crítico
teatral y matemático; en resumen, un verdadero intelecto de la época dorada de
la Grecia antigua, ya que en ese tiempo todas estas disciplinas relacionadas
con el interés por la naturaleza y las artes no se separaban demasiado.
Había nacido en la ciudad griega de Cirene, en la actual Libia (norte de
África), donde estudió junto a filósofos de la escuela estoica. Después de la
obligada recalada en Atenas para seguir con sus estudios, viajó, como decía, a
Alejandría.
Allí, además de dirigir la Biblioteca, abordó diversos problemas matemáticos,
como por ejemplo el diseño de un método para encontrar números primos, que aún
hoy se llama Criba de Eratóstenes y que, si no me equivoco, sigue siendo el
único. También estimó, aprovechando los eclipses, la distancia desde la Tierra
hasta el Sol y la Luna y el ángulo del eje terrestre respecto del plano del
sistema solar. Sus ojos de matemático los aplicó al estudio del tiempo:
construyó un calendario y las bases de una cronografía sistemática del mundo
para poder dar fechas a los eventos políticos y literarios desde los tiempos de
Troya. Al mismo tiempo se le atribuye un catálogo de casi 700 estrellas y
diversos estudios de geografía, particularmente en cartografía: parece ser que
fue el primero, o uno de los primeros, que dibujó un mapa del mundo, que era
más o menos como pueden verlo en la imagen siguiente.
Pero aunque parezca suficiente, no es por todas las cosas que les vengo
contando —o por lo menos no sólo por ellas— que quería hablarles de
Eratóstenes. Hay algo distinto, algo que lo hace más que excepcional, y que
empieza con una historia divertida: resulta que sus colegas le dieron el
sobrenombre de «Beta», porque lo consideraban una persona brillante en muchas
disciplinas, pero incapaz de descollar en ninguna. Por ese motivo siempre
quedaba a la sombra de los «Alfa» y se lo consideraba un eterno «segundo» (lo
cual muestra que ya entonces circulaban los chistes y burlas usuales en los
laboratorios e instituciones actuales, que tantas veces esconden envidias y
luchas de poder: los científicos no son santos por naturaleza). Sin embargo,
Eratóstenes fue el responsable de realizar una de las más impresionantes
demostraciones del poder de la inteligencia humana: medir la circunferencia de
la Tierra.
Fue así: él había oído decir que, durante el solsticio de verano (el 21 de
junio en el Hemisferio Norte, cuando el Sol alcanza su máxima altura en el
horizonte al mediodía), en Siena (actual Asuán), al sur de Egipto, una varilla
colocada verticalmente no proyectaba sombra sobre el suelo al mediodía. En
Alejandría, que según calculaba estaba sobre el mismo meridiano, a la misma
hora y el mismo día, la sombra formaba un determinado ángulo (de 7 grados) con
la vertical.
Esta diferencia sólo podía atribuirse a la diferente inclinación de los rayos
solares sobre una Tierra esférica, cosa que todos los griegos cultos de la época,
y ya desde los tiempos de Platón, sabían perfectamente.
La Tierra esférica
Recordemos que, para Tales, la Tierra eraun disco que flotaba en el mar,
y, para Anaximandro, un cilindro ubicado enel medio del cosmos. Pero pronto se
recurrió a la Tierra esférica, en partepor consideraciones filosóficas (la
esfera es el cuerpo geométrico perfecto),en parte por consideraciones físicas;
algunos testimonios dicen que fueronlos pitagóricos los primeros en aceptarlo.
Aristóteles demuestra la esfericidad dela Tierra dando varios argumentos. Uno
de ellos es el famoso asunto de losbarcos, que no se empequeñecen de manera
continua hasta desaparecer, sino quevan ocultándose por partes, como si bajaran
por una escalera. Otro argumento erael hecho, también comprobable a simple
vista, de que la sombra de la Tierraproyectada sobre la Luna era circular, lo
cual solamente se explica siaquélla es esférica. Todos los cuentos sobre la
creencia en una Tierra planahasta los tiempos de Colón no son más que eso:
cuentos, aunque es posible quelos incultos marineros de Colón sí pensaran que
era plana. Pero en realidadse sabía, desde el siglo V a.C., que la Tierra era
esférica.
Eratóstenes se dedicó entonces a calcular la distancia entre Alejandría y
Siena, para lo cual se le ocurrió contar el tiempo que tardaba una caravana de
camellos (cuya velocidad promedio más o menos podía estimar) en llegar hasta
allí. La distancia entre las dos ciudades resultó ser de unos 5.000 estadios
(800 kilómetros). Y entonces, razonó así:
Si 7 grados de diferencia en la inclinación corresponden a 800 kilómetros, 1
grado de diferencia corresponderá a 800/7. Y 360 grados (la circunferencia
entera) a 360 x 800/7.
¡Una regla de tres simple!
Con este procedimiento extraordinariamente sencillo, pudo calcular que la
circunferencia de la Tierra medía cerca de 40.000 kilómetros. Casi lo mismo que
indican los satélites actuales.
La simplicidad de esta idea todavía hoy produce escalofríos: una varilla
(mejor, dos, una en Alejandría y otra en Siena), una caravana de camellos, y un
problema de regla de tres simple. Y, sobre todo, esa extraordinaria máquina que
se extiende entre las cejas y el pelo. Es una de las grandes hazañas del
intelecto humano, estoy convencido.
¡Y le decían Beta!
El cálculo de Eratóstenes
§. Euclides: axiomatizar la realidad
El fracaso de la escuela pitagórica y el naufragio del intento de reducir el
mundo a las matemáticas, que se produjo al calor del gigantesco choque contra
la muralla racional de la raíz cuadrada de dos, tuvo sus consecuencias: casi
naturalmente, indujo una cierta desconfianza hacia los números y arrastró a la
matemática griega hacia la geometría (cosa que se observa hasta la Revolución
científica: en 1687, Newton, en sus Principia, razonará de manera
casi exclusivamente geométrica).
La existencia de los números no reducibles a una razón (es decir irracionales)
dejó agujeros en el espacio, una interrupción en la continuidad de ese ser
continuo que quiso Parménides. En el Ser hay ahora un agujero… ¡Y un agujero
matemático! Rellenarlo costará más de dos milenios (recién en el XIX, con la
postulación de los números que fueron técnicamente llamados «reales» se zanjó
el problema). El asunto es que la desconfianza hacia los números se extendió
hacia el álgebra, y en verdad la obra algebraica de la cultura griega —y
romana— fue bastante pobre al lado de la obra incomparable que llevaron a cabo
en geometría.
El gran artífice de la sistematización fue Euclides (430-360 a.C.), otra de las
figuras monumentales que dio la escuela de Alejandría. Vivió los cambios que se
dieron en el mundo mediterráneo con la muerte de Alejandro Magno (356-323 a.C.)
y la fractura de su imperio en reinos helenísticos, que incorporaron elementos
del antiguo saber babilónico y las religiones de la India. Fue el fundador y el
primer jefe de la gran escuela de matemáticos de Alejandría. Escribió varios
libros, como una obra sobre las secciones cónicas, sobre óptica…, pero lo que
lo inmortaliza de una manera indiscutible son los Elementos.
Euclides se hizo cargo del desastre pitagórico y edificó las matemáticas de
forma exclusivamente geométrica. Construyó, así, toda la
geometría, aunque sosteniéndose en la matemática desarrollada antes de él
mismo. Los Elementos fue una obra tan amplia, tan definitiva,
y tan inaccesible a los ataques que circuló increíblemente por la Antigüedad, y
llegó a ser el fundamento de muchísimos estudios, a tal punto que cuando
tambaleó el mismo edificio del mundo griego, y nuevas civilizaciones tomaron
posesión de la gran herencia que dejaba, los Elementos siguieron
incólumes, marcando el camino. Como la Ilíada, los diálogos de
Platón, los Principia de Newton, o el Origen de las
especies de Darwin, los Elementos de Euclides es uno
de los más grandes testimonios del pensamiento occidental: es justo, por ello,
que sea, después de la Biblia, el libro más editado, y se haya usado como texto
en las escuelas hasta principios del siglo XIX, lo cual no es una mala
performance, por cierto. Ojalá el libro que está ahora en tus manos, querido
lector, tuviera el 0,01 por ciento de esa suerte.
Pero, en fin, sigamos. De alguna manera, Euclides retoma el tema en el punto en
el que lo habían dejado los pitagóricos, apartándose de la empiria y
refugiándose en el «puro pensar»: en sus cerca de 500 proposiciones no figura
una sola aplicación práctica, ni figura un solo ejemplo concreto, ni referencia
alguna a instrumentos geométricos. No presta atención al discurso de las cosas.
Pero si Euclides construye un sistema basado en el pensar, también se enfrenta
al dilema que había dejado sin resolver la escuela pitagórica. ¿Por dónde se
empieza a pensar?
No es un asunto simple. El pensamiento, como el ser de Parménides, parece ser
inoriginado: si nos ponemos a poner en cuestión todos nuestros conocimientos,
veremos que bien podemos llegar hasta el infinito, socavando incluso las bases
que creíamos más firmes. Esto lo vieron bien los escépticos: pongamos, por
caso, que quisiera investigar a los seres vivos. ¿No debería, primero, definir
qué son «seres» y qué son «vivos»? Y una vez que tuviera esta definición clara:
¿no me vería obligado a definir los términos que utilicé para definir «seres» y
«vivos»? Lo cual genera el regreso ad infinitum tan temido,
que es necesario evitar para avanzar en el camino del saber y calmar la
ansiedad por el «conocimiento verdadero».
Y Euclides logra evitarlo de una manera elegante, imponiendo algunos principios
que da por verdaderos sin discutirlos: los axiomas. Establece una fuente, un
comienzo, un origen del pensar, el método axiomático, ya preconizado en la
lógica aristotélica, que estará destinado a convertirse en el método matemático
por excelencia. Consiste en la explicitación de las propiedades que han de
admitirse sin demostración para deducir, sin otro recurso que la lógica, todo
el conjunto de proposiciones del sistema. Toda demostración, aun la más
intrincada, debe remitirse en último término a estos axiomas y tenerlos como
fundamento en última instancia.
El número de axiomas sobre los que se funda el sistema euclídeo es reducido:
trece en total, cinco postulados y ocho nociones comunes, y sobre ellos se
levanta el edificio de los Elementos con sus trece libros, que contienen un
total de 465 proposiciones: 93 problemas y 372 teoremas.
Habría que tener claro que el método axiomático no es de fácil realización, ya
sea por la elección de los supuestos básicos (¿por qué estos y no otros?), ya
sea porque en el desarrollo deductivo pueden deslizarse admisiones implícitas
de supuestos no enunciados. No me voy a detener mucho en las nociones comunes,
como el de que el todo es mayor que una de sus partes, o que siempre es posible
prolongar un segmento de recta, o que es posible construir una circunferencia a
partir de cualquier centro, cualquiera fuese su radio, o que el punto carece de
partes, pero miraremos con un poquito de atención los cinco famosos axiomas o
postulados.
Postúlese:
1.
que por cualquier punto se pueda trazar una recta
que pasa por otro punto cualquiera;
2.
que toda recta limitada pueda prolongarse
indefinidamente en la misma dirección (notemos que aquí Euclides utiliza el
infinito potencial y no el actual);
3.
que con un centro dado y un radio dado se pueda
trazar un círculo;
4.
que todos los ángulos rectos sean iguales entre sí,
y
5.
que si una recta, al cortar a otras dos, forma los
ángulos internos de un mismo lado menores que dos rectos, esas dos rectas
prolongadas indefinidamente se cortan del lado en que están los ángulos menores
que dos rectos.
Es a partir de estos cinco postulados que se construye toda la geometría. El
problema es que, en cierta medida, pareciera ser que la elección de los
postulados es arbitraria. La primera respuesta (que seguramente habría dado
Euclides, siguiendo a Aristóteles) es que los postulados son verdades
«autoevidentes», cosas de las que no se puede dudar, y que no necesitan
demostración (del mismo modo que Descartes buscará una verdad autoevidente y,
en esa verdad, fundará toda la filosofía moderna: «Si dudo de todo, no puedo
dudar de que dudo, y si dudo pienso, y si pienso existo»). Pero la idea de
«auto evidencia» no deja de encerrar una buena dosis de arbitrariedad, y de
subjetividad.
Y para colmo… si bien parecería que no se puede dudar de los cinco postulados,
que son claros, simples, contundentes y autoevidentes, había un pequeño
problemita con el quinto postulado… Prestémosle un poquito de atención, dado
que es algo diferente de los demás. Por empezar, parece más complejo e
increíblemente más artificioso; en segundo lugar, implica el infinito, porque
si las rectas son casi paralelas… ¿cómo sé que se cortan en algún momento?
Y el infinito, como ya sabemos, siempre trajo problemas. Euclides se cuidó
mucho de este postulado; le generaba, y con razón, desconfianza. Cuando podía
no usarlo, no lo usaba (realmente, una genialidad de Euclides fue,
precisamente, darse cuenta de que ése tenía que ser un postulado).
Pero el asunto es que ni por lejos se parece a una verdad autoevidente, y de
hecho el quinto postulado euclidiano será uno de los grandes protagonistas de
la historia del pensamiento: en el siglo XIX provocará una revolución
conceptual que ya tendremos tiempo de discutir, cuando lleguemos a las
geometrías no euclidianas.
La raíz de 2, el quinto postulado: son agujeros, pequeñas basuritas que van
quedando en la paciente construcción de la ciencia y el pensamiento científico.
Euclides, al buscar sus axiomas, buscó verdades autoevidentes y procedió por
deducción; alguien, dos mil años más tarde, dará el paso siguiente: buscará
verdades arbitrarias. Ahora sí, los dejo con la intriga. Ya llegaremos allí.
Pero ya que estamos, y antes de hablar de Apolonio, el segundo gran geómetra,
echemos una mirada a los tres problemas clásicos de la geometría griega.
El quinto postulado
§. El oráculo de Delfos
El señor cuyo oráculo está en Delfos no dice ni oculta: sólo da signos.
HERÁCLITO
En el año 429 a.C., el gobernador de Atenas, Pericles, murió debido a la
peste que castigaba a la ciudad, y un grupo de ciudadanos acudió al oráculo de
Delfos para pedirle indicios de una forma de terminar con ese azote. La verdad
es que el oráculo no fue muy generoso (en realidad, fue un cretino): su
respuesta fue que debían construir con regla y compás un altar cúbico que
duplicara en volumen al que ya existía. Matemáticos importantes como Hipócrates
de Quíos abordaron el problema (y más tarde el mismísimo Eratóstenes), pero
sólo llegaron a soluciones aproximadas, ya que para poder conseguir la solución
del problema hace falta resolver una ecuación cúbica, cosa imposible con regla
y compás. La verdad es que el oráculo de Delfos, si era tan oracular como se
decía, no podía ignorarlo y por eso es de pensar que les jugó una mala pasada a
los atenienses: el problema de la duplicación del cubo quedó sin resolver, como
uno de los tres problemas clásicos griegos. También sirve como enseñanza de
que, en casos de medicina, no es muy conveniente confiar en los oráculos.
El segundo problema clásico no tiene leyenda, pero es igualmente imposible de
resolver: se trata de trisecar un ángulo cualquiera (esto es: dividirlo en tres
partes iguales) con regla y compás: el desafío es insoluble (excepto para
ángulos de 90 grados) y por las mismas razones que el de la duplicación del
cubo: hace falta resolver una ecuación cúbica.
Y el tercero es el más famoso de todos: el de la cuadratura del círculo. Se
trata, esta vez, de construir, siempre con regla y compás, un cuadrado de área
igual a un círculo dado. Recién en el siglo XIX se demostró su imposibilidad,
debido al carácter «trascendente» del número π (trascendente significa que no
solamente es irracional, sino que no existe ninguna ecuación cuya solución sea
π). La expresión «cuadrar el círculo» ha quedado como ejemplo de tarea
imposible, callejón sin salida, intento sin resultado.
Ahora, ustedes se preguntarán por qué tanto empeño… Pero bueno, es que los
matemáticos luchan sin cansarse contra los problemas difíciles, hasta vencerlos
o demostrar que no se pueden resolver. Hace muy pocos años tuvimos un episodio
parecido con el último teorema de Fermat.
§. Las cónicas de Apolonio
El segundo de la gran tríada de los grandes matemáticos alejandrinos es
Apolonio de Perga (262-190 a.C.), más conocido como «El gran geómetra». El
nombre de su escrito más famoso (y que se conserva casi de modo completo)
es Cónicas, considerado por muchos una especie de complemento de
los Elementos de Euclides. En él, Apolonio estudia los cuatro
tipos de secciones que se obtienen cortando un cono con un plano que no pase
por el vértice e introduce los actuales nombres: parábola, elipse e hipérbola.
Las secciones cónicas habían sido descubiertas en la Academia Platónica, pero
el gran sistematizador es Apolonio.
Si nos atenemos al testimonio de Claudio Ptolomeo, Apolonio también fue un gran
astrónomo. Tolomeo le atribuye proposiciones astronómicas y la utilización de
los epiciclos y de las excéntricas, de los cuales sería el inventor, y que en
manos de Hiparco y del propio Ptolomeo se convertirían en las bases del sistema
más exitoso de la astronomía griega.
Lo que resulta extraordinario de las cónicas es que, justamente, las figuras
geométricas que se obtienen al cortar un cono mediante un plano son las que
rigen las órbitas de los astros que se mueven bajo el influjo de la gravedad
(por ejemplo, los planetas describen elipses alrededor del Sol, los cometas
muchas veces parábolas, y así). Es decir: una reflexión puramente geométrica
sirve para entender cómo funciona el universo. Todo esto habría de saberse
mucho más tarde.
Las cónicas de Apolonio
§. Arquímedes de Siracusa: llegar al límite
Euclides es el que establece el origen del pensar, el que responde a la
pregunta «¿por dónde empezamos?» y construye los cimientos del edificio
matemático (que son los mismos que hoy), decidiendo de una vez para siempre
cómo se trabajará en matemáticas. Apolonio domestica a las cónicas, que jugarán
un papel tan importante más tarde. El tercer matemático de la tríada gloriosa
es Arquímedes de Siracusa (colonia griega en lo que es hoy el sur de Italia),
considerado por muchos como el científico más grande de la Antigüedad e,
indiscutiblemente, uno de los matemáticos más importantes de la Historia.
Arquímedes es un científico que podríamos calificar, casi, de actual: no
escribió un gran libro sino que —al modo de los científicos actuales— se dedicó
más que nada a escribir lo que hoy llamamos «papers» sobre los más
variados campos: aritmética, geometría, astronomía, estática e hidrostática. No
perteneció en rigor a la escuela de Alejandría propiamente dicha, pero fue su
contemporáneo, viajó repetidas veces a la gran ciudad, y mantuvo
correspondencia y polémicas con los científicos alejandrinos.
Nació en el año 287 a.C. y murió en el saqueo que siguió a la caída de Siracusa
en manos de los romanos en el año 212 a.C., a los 75 años. En su tumba quedó
grabado uno de sus más hermosos teoremas, relativo a la esfera inserta en un
cilindro; justamente el detalle que le permitió a Cicerón, el gran orador de la
República romana, identificar su tumba, perdida entre la maleza.
En sus escritos, Arquímedes siguió rigurosamente el método euclídeo de fijar
previamente las hipótesis a las que seguían los teoremas cuidadosamente
elaborados y terminados. Pero además escribió sobre temas de ciencia natural,
astronomía y física, que los griegos incluían dentro de las matemáticas.
También se le deben dos escritos de física-matemática que proporcionaron los
primeros resultados perdurables de estática. El primero establece la ley de la
palanca y el llamado «principio de Arquímedes». La ley general de la palanca
dice que «dos pesos se equilibran a distancias inversamente proporcionales a su
peso». Esto es: una masa de 100 kilos, veinte veces mayor que una de 5, se
equilibra con ésta si se sitúa veinte veces más cerca del punto de apoyo.
Pero Arquímedes es más popularmente conocido por el principio que lleva su
nombre, que establece una ley general de hidrostática y las condiciones de
equilibrio de los cuerpos sumergidos y que está asociado a la leyenda según la
cual se lo vio corriendo por las calles, probablemente desnudo, al grito de
«Eureka, Eureka!» (« ¡Lo encontré! ¡Lo encontré!»). ¿Qué había pasado para que
un matemático tan reconocido anduviera corriendo desnudo y a los gritos por
Siracusa?
Había pasado que Hierón II, el tirano (gobernador, digamos) de Siracusa le
había confiado oro a un orfebre para que le hiciera una corona. Cuando la tuvo,
Hierón II sospechó que el orfebre —de quien la historia no conserva el nombre
pero que sin duda le hizo un favorcito a la ciencia— había «distraído» una parte
de oro y la había reemplazado por plata. La cuestión es que Hierón II,
acostumbrado a pedirle a Arquímedes que le resolviera problemas imposibles, le
solicitó que lo comprobara. Arquímedes vio que la corona pesaba exactamente lo
mismo que lo que pesaba la cantidad de oro que el rey le había dado al orfebre.
Pero eso no garantizaba nada: tranquilamente el orfebre podría haber mezclado
otros metales y mantener el peso constante alterando el volumen.
Ahora bien: nuestro matemático sabía que la plata es más ligera que el oro: si
el orfebre hubiese añadido plata a la corona, ésta debería ocupar un volumen
mayor que el de un peso equivalente en oro (porque, en el mismo volumen, una
corona de oro y plata pesaría menos que una de oro puro). El problema es que no
tenía ni la más remota idea de cómo medir el volumen de algo tan irregular como
una corona.
Y resulta que la solución al problema le vino en uno de los mejores lugares que
existen para pensar: la bañadera (que en ese entonces no era sino una tina).
Arquímedes vio que, al sumergirse, su cuerpo desplazaba agua para afuera, y
sospechó que el volumen de agua desplazado tenía que ser igual al volumen de su
cuerpo. No había tiempo que perder: según se cuenta, Arquímedes corrió, desnudo
como estaba, hasta su casa (por lo visto, no se estaba bañando en domicilio,
sino en una casa de baños públicos, al estilo griego: no olviden que no había
agua corriente), e hizo el experimento con la corona supuestamente adulterada y
con el peso en oro puro. Resultó que, efectivamente, la corona desplazaba más
agua, o sea, que tenía más volumen, o sea, que el orfebre le había mezclado
metales no tan nobles como el oro. Por supuesto que el rey ordenó ejecutar al
orfebre, que se convirtió así en un insospechado e involuntario mártir de la
ciencia.
Pero no terminan aquí las dotes geniales de Arquímedes: fue un físico y técnico
brillante, capaz de inventar una multiplicidad de aparatos destinados a sus
investigaciones y máquinas de guerra de gran eficacia. Se cuenta que, durante
el asedio de Siracusa por el general romano Marcelo, Arquímedes desplegó sus
nuevas pero eficientísimas armas secretas, las catapultas, y un sistema de
espejos y lentes que incendiaba los barcos enemigos al concentrar los rayos del
sol (una idea que, con poco éxito, trataría de llevar a cabo el soñador José
Arcadio Buendía, como pueden leer en el recuadro).
La guerra solar en Cien años de soledad
En marzo volvieron los gitanos. Esta vezllevaban un catalejo y una lupa
del tamaño de un tambor, que exhibieron comoel último descubrimiento de los
judíos de Ámsterdam. Sentaron a una gitana enun extremo de la aldea e
instalaron el catalejo a la entrada de la carpa.Mediante el pago de cinco
reales, la gente se asomaba al catalejo y veía a lagitana al alcance de su
mano. «La ciencia ha eliminado las distancias»,pregonaba Melquíades. «Dentro de
poco, el hombre podrá ver lo que ocurre encualquier lugar de la tierra, sin
moverse de su casa».
Un mediodía ardiente hicieron unaasombrosa demostración con la lupa gigantesca:
pusieron un montón de hierba secaen mitad de la calle y le prendieron fuego
mediante la concentración de losrayos solares. José Arcadio Buendía, que aún no
acababa de consolarse por elfracaso de sus imanes, concibió la idea de utilizar
aquel invento como unarma de guerra. Melquíades, otra vez, trató de disuadirlo.
Pero terminó poraceptar los dos lingotes imantados y tres piezas de dinero
colonial a cambiode la lupa. Úrsula lloró de consternación. Aquel dinero
formaba parte de uncofre de monedas de oro que su padre había acumulado en toda
una vida deprivaciones, y que ella había enterrado debajo de la cama en espera
de unabuena ocasión para invertirlas. José Arcadio Buendía no trató siquiera
deconsolarla, entregado por entero a sus experimentos tácticos con laabnegación
de un científico y aun a riesgo de su propia vida. Tratando dedemostrar los
efectos de la lupa en la tropa enemiga, se expuso él mismo a laconcentración de
los rayos solares y sufrió quemaduras que se convirtieron enúlceras y tardaron
mucho tiempo en sanar. Ante las protestas de su mujer,alarmada por tan
peligrosa inventiva, estuvo a punto de incendiar la casa.Pasaba largas horas en
su cuarto, haciendo cálculos sobre las posibilidadesestratégicas de su arma
novedosa, hasta que logró componer un manual de unaasombrosa claridad didáctica
y un poder de convicción irresistible. Lo envióa las autoridades acompañado de
numerosos testimonios sobre sus experienciasy de varios pliegos de dibujos
explicativos, al cuidado de un mensajero queatravesó la sierra, y se extravió
en pantanos desmesurados, remontó ríostormentosos y estuvo a punto de perecer
bajo el azote de las fieras, ladesesperación y la peste, antes de conseguir una
ruta de enlace con las mulasdel correo.
A pesar de que el viaje a la capital eraen aquel tiempo poco menos que
imposible, José Arcadio Buendía prometíaintentarlo tan pronto como se lo
ordenara el gobierno, con el fin de hacerdemostraciones prácticas de su invento
ante los poderes militares, yadiestrarlos personalmente en las complicadas
artes de la guerra solar.Durante varios años esperó la respuesta. Por último,
cansado de esperar, selamentó ante Melquíades del fracaso de su iniciativa, y
el gitano dioentonces una prueba convincente de honradez: le devolvió los
doblones acambio de la lupa.
Nuestro héroe hizo lo mismo que José Arcadio pero aparentemente, según cuenta
la leyenda, con más éxito. Sin embargo, los siracusanos se confiaron bastante y
descuidaron sus defensas, lo cual fue aprovechado por los romanos para entrar
en la ciudad. Durante la toma de Siracusa, precisamente, Arquímedes (también
cuenta la leyenda que completamente absorto en el estudio de un teorema) fue
asesinado por un soldado romano, en contra de las órdenes de su general, que
había exigido proteger la vida del gran sabio.
§. El destino de los espejos
Los científicos de épocas posteriores trataron a menudo de reproducir los
inventos de Arquímedes, en particular este que les conté de los espejos. El
debate sobre si el artificio pudo realmente haber hundido la flota romana duró
siglos, y muchos sabios famosos expresaron sus opiniones (incluido Descartes,
que no lo creía y desechaba la leyenda). Pero luego, en 1747, fue finalmente
sometida a la prueba experimental por el conde de Buffon, un gran erudito
francés que volverá a aparecer en las páginas de este libro. Buffon levantó su
aparato en París, en lo que ahora es Le Jardin des Plantes (entonces Le
Jardin du Roi, del que era director). Alrededor de 150 espejos cóncavos se
montaron en cuatro marcos de madera y se ajustaron con tornillos para
concentrar la luz reflejada sobre una plancha de madera a unos cincuenta metros
de distancia. Una gran multitud observaba cuando el Sol salió de entre las
nubes: en pocos minutos se vio salir humo de la plancha y se dirimió la
cuestión. Más adelante, ese mismo año, Buffon, con gran aclamación, incendió
algunas casas en presencia del propio monarca y recibió los cumplidos del
propio rey.
§. El arenario y el infinito
En el trabajo (de bellísimo título: El contador de arena) que hizo
para el hijo del tirano de Siracusa —de quien fue preceptor—, Arquímedes se
propuso demostrar que el número de granos de arena no era infinito. Con tal
fin, calculó cuántos granos serían necesarios para llenar el universo entero,
adoptando para éste sus máximas dimensiones posibles e imaginables en la época.
Basándose en la teoría heliocéntrica de Aristarco de Samos (de quien no
hablamos, aunque lo haremos cuando estudiemos al infinito Copérnico) y en ideas
contemporáneas acerca del tamaño de la Tierra y las distancias de varios
cuerpos celestes, Arquímedes concluyó que el número de granos de arena que se
requerirían para llenar el universo sería de 8×10 a la 63 potencia. Es decir:
8.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000
Arquímedes respeta la opinión de Aristóteles: el infinito es siempre
potencial, algo a lo que se tiende, y no actual (que existe aquí y ahora). Pero
esto significa que el universo no puede ser infinito, porque en este caso lo
sería de manera actual. La falta de un concepto de infinito pone un cerrojo a
las concepciones del mundo. Como veremos, pasar del infinito en potencia al
infinito en acto llevará exactamente veintidós siglos.
§. Los juguetes de Herón
Arquímedes fue, además del matemático (y algunos dicen el científico, pero eso
siempre hay que tomarlo con pinzas) más grande de la Antigüedad, un importante
físico e ingeniero.
Y hablando de ingeniería, las (¿cómo llamarlas?) «disciplinas tecnológicas»
tuvieron un destacado lugar en Alejandría, por obra de un grupo de tecnólogos,
entre los que se destacaron Ctesibios, Pilón y Herón.
De Ctesibios se dice que era hijo de un barbero y que, haciendo subir y bajar
automáticamente los espejos del negocio de su padre, fue llevado a inventar las
máquinas hidráulicas, los juegos de agua, los autómatas y los relojes de agua,
o la puerta de un templo que se abría al encender un fuego sobre el altar, pero
éstos no eran solamente chiches recreativos, sino que estaban directamente
conectados con el uso que hacían del vacío, de los efectos del calentamiento
del aire, del vapor de agua.
Un buen ejemplo es la eolípila de Herón. Consistía en una
esfera hueca llena de agua a la que se le colocaban dos tubos curvos. El agua
de la esfera se hacía hervir, provocando que por los tubos bajara el vapor e
hiciera girar la bola muy rápido.
Una buena pregunta que se plantea alrededor de este asunto es por qué los
ingenieros de Alejandría no desarrollaron la máquina de vapor. Y la respuesta
que más generalmente se da es que el hecho de vivir en un sistema esclavista,
con abundancia de mano de obra gratuita y brutalmente oprimida, hacía
innecesaria la búsqueda de máquinas que ahorraran energía. Es muy posible.
Los chiches de Herón
§. Diofanto: el canto del cisne
Las matemáticas alejandrinas decayeron como todo el conjunto después del siglo
III a.C., y tardaron mucho, pero mucho, en recuperarse, con figuras como
Tolomeo (siglo II d.C.) y Diofanto de Alejandría (siglo III d.C.), que en su
aritmética muestra una serie de problemas algebraicos (recordemos lo reacios
que fueron siempre los matemáticos griegos —maldición pitagórica— al álgebra, a
favor de la geometría), en general resueltos de una manera numérica, pero sin
el rigor de los grandes alejandrinos.
Diofanto, además, hizo un chiste con su propia vida (mejor, con su muerte): en
su epitafio planteó un problema que constituye un bello ejemplo para empezar a
resolver ecuaciones de primer grado. Dice más o menos así:
¡Caminante! En esta tumba yacen los restos de Diofanto, al terminar de leer
este texto podrás saber la duración de su vida. Su infancia ocupó la sexta
parte de su vida. Después transcurrió una doceava parte de su vida hasta que su
mejilla se cubrió de vello. A partir de ahí, pasó la séptima parte de su
existencia hasta contraer matrimonio. Pasó un quinquenio y lo hizo dichoso el
nacimiento de su primogénito. Su hijo murió al alcanzar la mitad de los años
que su padre llegó a vivir. Tras cuatro años de profunda pena por la muerte de
su hijo, Diofanto murió. Dime caminante, cuántos años vivió Diofanto.
Es decir: si los años que vivió Diofanto son nuestra incógnita, x,
podemos decir que:
x/6 + x/12+ x/7 + 5 + x/2
+ 4 = x
Si quieren saber cuántos años vivió Diofanto, sólo tienen que resolver
la ecuación.
§. Decadencia de la Biblioteca
El período de apogeo de la ciencia helenística fue brillante y breve, como una
supernova que estalla y brilla como una galaxia entera pero después se
desvanece, y, aunque sigue arrojando su materia al espacio, lo hace más
modestamente.
En el año 145, el rey Ptolomeo Physkon se enfrentó con los científicos de la
biblioteca y el museo (por cuestiones políticas) y los obligó a emigrar,
rompiendo la alianza entre el trono egipcio y los intelectuales griegos. A
continuación, tanto el Museo como la Biblioteca entraron en una etapa de
decadencia: en 47 a.C., durante la campaña de Julio César en Egipto, la
Biblioteca se incendió y buena parte de sus 700 mil volúmenes se perdió.
Diecisiete años más tarde, Octavio conquistó Alejandría y Egipto se convirtió
en una provincia romana. No obstante, trabajaron allí todavía grandes
científicos como Galeno y Ptolomeo.
A finales del siglo III, el emperador Diocleciano mandó quemar un buen número
de libros, especialmente de alquimia. La razón es curiosa: Diocleciano, que
había emprendido un riguroso «programa de ajuste económico» para salvar al
imperio (y que, por supuesto, no hizo sino precipitar su ruina), temía que los
alquimistas, en posesión de la «receta» para fabricar oro, destruyeran la
moneda imperial…
Tras el triunfo del cristianismo, las cosas empeoraron; en 391 el emperador (ya
cristiano) Teodosio ordenó quemar los templos paganos, mostrando de paso qué rápido
los perseguidos se convierten en perseguidores, y la orden estimuló a Teófilo,
obispo de Alejandría, a instigar una lucha callejera que terminó con lo poco
que había quedado del Museo y la Biblioteca.
La última gran figura fue Hypathia (370-415), una matemática que llegó a ser
directora de la Escuela Neoplatónica de la ciudad. Pero otro obispo, que
ostentaba el cargo de patriarca de Alejandría, consideró peligrosa su filosofía
pagana y alentó, nuevamente, a una turba que la asesinó.
La historia de Hypathia se convirtió en un verdadero mito, no sólo por ser una
de las únicas mujeres científicas de la que se tiene conocimiento en la
Antigüedad (lo habrán notado) sino porque, además, podría ser vista como la
primera «mártir de la ciencia», en el sentido que después se le dará a la
expresión a partir del asesinato de Giordano Bruno.
No es fácil imaginar cómo es que una mujer, en esa época, llegó a un cargo
ejecutivo tan importante como el de directora de una de las principales
escuelas alejandrinas. Lo que sabemos es que se formó al lado de su padre, el
astrónomo y matemático Teón de Alejandría, y que empezó a dar clases sobre
Platón y Aristóteles en su casa con un nivel tan alto que la gente viajaba
especialmente desde todas partes para escuchar sus lecciones. Además, estudió y
enseñó astronomía, matemáticas, lógica, filosofía, geometría y mecánica y
escribió comentarios a muchas de las obras importantes de su tiempo, desde
las Cónicas de Apolonio a la astronomía ptolemaica.
Pero Hypathia tuvo la malísima suerte de desarrollar su labor intelectual
apenas veinte años después de que Teodosio hubiera convertido el cristianismo
en religión oficial del Imperio y durante el patriarcado de Cirilo, uno de los
obispos más intolerantes de la Antigüedad. Eran tiempos turbulentos: toda
filosofía que no acatara dogmáticamente la ortodoxia (y el neoplatonismo no lo
hacía) tenía un tufillo a herejía y era perseguida de manera implacable, lo
cual llevó, entre otras cosas, al saqueo y destrucción de los ejemplares que
habían quedado de la Biblioteca, ahora refugiados en el Serapeum (un
santuario dedicado al dios oficial de Egipto). Para colmo, la amistad de
Hypathia con Orestes, prefecto imperial que no veía con muy buenos ojos la
intolerancia de Cirilo, no podía sino ser interpretada como una provocación por
el patriarca de Alejandría. Así que, aparentemente, este Cirilo decidió cortar
por lo sano: juntó a una multitud que la interceptó cuando volvía a su casa
desde el Museo y la asesinó tajeando su cuerpo con caracoles, no sin antes
arrastrarla durante un buen trecho por las calles de la ciudad. Con esta imagen
se termina la ciencia alejandrina y empiezan los años oscuros.
Interludio:
La Biblioteca de Alejandría y el fuego
Quemar libros y erigir fortificaciones es tarea común de los príncipes.
JORGE LUIS BORGES
La calurosa costumbre de quemar libros dista de ser un invento moderno.
Aunque ya vimos que había habido varios incendios, la Biblioteca de Alejandría
terminó su vida de manera definitiva al ser incendiada por el califa Omar en el
año 634, que lo hizo basándose en un curioso argumento.
Los libros de la Biblioteca o bien contradicen al Corán, y entonces son
peligrosos, o bien están contenidos en el Corán y entonces son redundantes.
Este razonamiento notable costó a la memoria humana una buena cantidad
de obras irrecuperables, pero no tantas como se cree, si es que eso sirve de
consuelo. En realidad, cuando el califa Omar tomó su drástica medida, la
Biblioteca era sólo la sombra de lo que había sido alguna vez, y de ella
quedaba muy poco, perdido en sucesivos desastres.
La escuela, la Biblioteca, el Museo de Alejandría constituyeron un exitoso
experimento en gran escala que no se volvería a repetir hasta la llegada del
Islam.
Capítulo 6
La medicina antigua de Hipócrates a Galeno
Después de esta incursión por Alejandría, tenemos que volver un poquito
atrás en el tiempo y hablar de la medicina, un tema que hasta ahora ni tocamos.
Esta «omisión», por decirlo de alguna manera elegante, quizá se deba al hecho
de que, por su misma naturaleza, la medicina tiene un contenido empírico,
observacional y experimental que la hace diferente del desarrollo de todos los
grandes sistemas físicos que les mostré, que se sostuvieron sobre una base
filosófica hasta que las disciplinas empezaron a independizarse, como vimos que
ocurrió en Alejandría. Recordemos que la experimentación estaba, en principio,
excluida del sistema griego, aunque Aristóteles con sus observaciones del mundo
biológico, sus estudios sobre la evolución del embrión y sus disecciones bien
puede encuadrarse, por lo menos en ese terreno, en la senda experimental.
Es posible que mi indisimulable preferencia por la teoría me haya llevado a
dejar la medicina de lado, o que me haya concentrado demasiado en la
construcción del programa griego, de base teórica —aun en el propio Tales—.
Quizá, también, esta «omisión» se deba a que toda la medicina anterior al siglo
XIX me parece lo suficientemente tosca y primitiva como para no considerarla ni
siquiera medicina propiamente dicha (cosa perfectamente discutible) o a que la
medicina tiene procedimientos que muchas veces ignoran las causas y pueden
funcionar prescindiendo de la explicación causal.
Dicho esto, no se extrañen por las idas y vueltas en el tiempo: la historia de
las ideas no es lineal y nos va a exigir, a cada rato, que avancemos y
retrocedamos, que quebremos el orden cronológico para encontrar otro orden,
aquel que nos permite pensar relaciones que, de otra manera, serían
inaprehensibles.
Abordar la historia de la medicina presenta algunos problemas difíciles de
resolver, o que por lo menos yo no tengo resueltos. Por eso, sospecho, este
capítulo vacilará muchas veces entre ideas contrapuestas, y no siempre del todo
claras. Y esto tiene que ver, como les decía, con que la medicina tiene una
relación demasiado estrecha con la empiria y con la práctica, con la vida y con
la muerte, relación que no tienen las otras ciencias que fundaron los griegos.
En este momento, y a la luz de lo que acabo de decir, yo trazaría una
distinción importante entre una medicina con centro en la práctica, y una
medicina biológica, que pone el acento en construir una teoría del cuerpo y de
la enfermedad (naturalmente, con todos los cruces que a ustedes se les
ocurran). Acaso el gran problema de la medicina sea que está condenada a ser
juzgada por la efectividad de sus prácticas y no por la exactitud de sus
teorías. Pero esto también es muy discutible.
Bueno, ya son bastantes justificaciones o seudo justificaciones. Ya es hora de
abordar el asunto, si ustedes me perdonan la metáfora náutica.
§. Retrocedamos un poco
Naturalmente, como todo lo demás, la medicina griega no salió de la nada:
civilizaciones que la antecedieron en 2.500 años o más, como la de Mesopotamia
o Egipto, tenían sus prácticas médicas, por supuesto asociadas con conjuros,
imprecaciones mágicas y toda la parafernalia de ese tipo. Aún más, la profesión
médica estaba reglamentada desde 1760 a.C. en el Código de Hammurabi,
rey de Babilonia.
Aquí pueden ver algunos ejemplos de las nobles disposiciones sobre el ejercicio
de la medicina:
·
Si un médico opera con una lanceta de bronce a un
hombre noble por una herida grave y le salva la vida, o si abre con una lanceta
de bronce un «negabati» (absceso, catarata) en el ojo de un hombre noble y
salva el ojo del hombre, recibirá 10 shekels de plata.
·
Si un médico abre el ojo de un hombre libre y
ocasiona la pérdida del ojo, deberá cortarse la mano del médico; si ha
ocasionado la pérdida del ojo de un hombre pobre o un esclavo, deberá pagar una
mina de plata.
·
Si un médico compone un hueso roto a un hombre o le
cura un tendón enfermo, el paciente pagará al médico 5 siclos de plata.
·
Si un médico hace incisión profunda en un hombre
con bisturí de bronce y le provoca la muerte, o si le abre la sien a un hombre
con bisturí de bronce y deja tuerto al hombre, que le corten la mano.
La verdad es que convenía tener un buen seguro de mala praxis, aunque el código
no lo impusiera como obligatorio.
Por otra parte, las prácticas de momificación y tratamiento de los cadáveres
tienen que haber familiarizado a los sacerdotes-médicos egipcios con los rasgos
anatómicos internos. En Egipto se practicaba, también con fines «médicos», la
trepanación de cráneo; muchas veces he visto en los museos ejemplos de este
curioso procedimiento, que a veces se exhibe como una conquista o un «adelanto»
de la cultura egipcia, cosa que me resulta incomprensible.
En realidad, la práctica de la trepanación es antiquísima, cruza la Prehistoria
y las culturas (por ejemplo, también aparece en las culturas andinas, y las
neolíticas), y tenía con toda probabilidad una función mágico-ritual: la
abertura en el cráneo servía para que los malos espíritus que se habían
apoderado del cerebro del paciente pudieran salir.
Por otro lado, poco y nada sabemos de los resultados de estas prácticas, y si
es que algunos (o siquiera alguno) de los «pacientes» sobrevivió (ya no digo
«se curó»).
§. El papiro Ebers
La magia es efectiva si está junto a la medicina. La medicina es
efectiva si está junto a la magia.
Pero lo cierto es que la medicina entre los egipcios era tan importante
que tenemos, incluso, un verdadero tratado que data de aproximadamente 1600
a.C. En sus 20 metros de longitud, 110 páginas y 877 secciones, el papiro
Ebers, conservado de manera excelente, aborda el tratamiento de numerosas
enfermedades a partir del uso de elementos extraídos del reino vegetal:
azafrán, ajo, aloe vera, lirio. No tenemos que ser inocentes y pensar, sin
embargo, que por eso los egipcios eran médicos extraordinarios.
Como en toda la medicina antigua, mezclaban la magia con algo que podríamos
llamar medicina folklórica o natural, que existe hasta nuestros días y es tan
eficaz o ineficaz como entonces.
Esta medicina natural se ve de manera clara en las siguientes recetas:
Para la evacuación del estómago: leche de vaca, trigo, miel: pisarlo,
tamizarlo, cocinarlo y tomarlo en cuatro porciones.
Para curar el dolor de cabeza: harina, incienso, madera de wa, planta de waheb,
menta, cornamenta de ciervo, sicamoro, semillas de zart, agua. Pisar y aplicar
en la cabeza.
Como ven, son recetas muy elementales para dolencias muy elementales. Y
les cuento otra cosa: mientras escribía esto empezó a dolerme la cabeza;
consideré que era un excelente momento para probar una de estas recetas, pero
tuve problemas con algunos ingredientes: no conseguí ni planta de waheb ni
cornamenta de ciervo, así que opté por tomar una aspirina. Vale decir, de paso,
que la corteza de sauce, que contiene ácido salicílico (precursor del ácido
acetilsalicílico de la aspirina) podría haber cumplido, en una de ésas, la
misma función.
§. Primitiva medicina griega
Como es natural entre pueblos que estaban permanentemente en guerra, las
prácticas quirúrgicas más antiguas estuvieron relacionadas con los traumas de
combate. Ya en el siglo VIII en la Ilíada (que sigue siendo,
por lejos, uno de los libros más sangrientos y violentos de la literatura
universal), Homero describe, con precisión anatómica, 147 heridas de ese tipo y
expone la localización y algunas características de los órganos conocidos, aunque
nada dice de su función. Por poner un par de ejemplos, en el canto XVI:
A Erimante metióle Idomeneo el cruel bronce por la boca: la lanza
atravesó la cabeza por debajo del cerebro,… y la muerte, cual si fuese oscura
nube, envolvió al guerrero.
En el canto V, después de ser arengado por Atenea, el feroz Diomedes
hace estragos entre las filas de los troyanos, que parecen gentiles ovejitas al
lado del aqueo:
Entonces hizo morir a Astínoo y a Hipirón, pastor de hombres. Al primero
lo hirió con la broncínea lanza encima del pecho; contra Hipirón desnudó la
gran espada, y de un tajo en la clavícula separóle el hombro del cuello y la
espalda.
Por supuesto que, entre los griegos arcaicos, los males no atribuibles a
una causa concreta, como la peste, se atribuían a la cólera de los dioses. La
terapéutica, tal como la egipcia, implicaba una mezcla de rituales mágicos,
sociales y quirúrgicos, con el uso de anestésicos, el vendaje y lavado de las
heridas.
Y, de hecho, en el origen de la medicina griega también está la religión. El
padre fundador no es Hipócrates, de quien hablaremos enseguida, sino el
centauro Quirón, una figura mitológica que, de acuerdo con los relatos,
instruido por Apolo (que en la burocracia del Olimpo era una especie de
ministro de Salud), enseñó a los humanos el arte de curar enfermedades y que,
obviamente, a diferencia de Hipócrates, jamás existió.
Por su parte, Asclepio (Esculapio), discípulo de Quirón, es una figura
mitológica construida sobre alguien que quizá sí existió. La mitología cuenta
que curó a tanta gente (incluso resucitando muertos), que Hades, dios del mundo
subterráneo, se alarmó, temiendo que mermara el flujo de almas hacia su reino,
y se quejó a su hermano Zeus, dios supremo, quien fulminó a Asclepio con un
rayo. Pensándolo mejor, y teniendo en cuenta sus innegables méritos, el propio
Zeus lo resucitó como un dios específicamente dedicado a la medicina: «médico»,
«salvador»; su símbolo fue la serpiente, y tuvo sus santuarios y sus templos
adonde la gente iba a «curarse» y en los cuales, después de abluciones y
rituales, se tendía a dormir. Durante el sueño, el dios se aparecía y emitía su
diagnóstico y pronóstico. En el templo de Esculapio, en Epidauro, se cuentan
historias de esas curaciones:
Kleo había estado embarazada desde hacía cinco años. Después de ese
tiempo, fue al templo del dios, y se sumió en un sueño profundo. Tan pronto se
despertó y salió del recinto del templo, dio a luz a un hijo, que
inmediatamente después de nacer se lavó por sí mismo en la fuente, y se fue
caminando junto a su madre.
Y así muchas otras igualmente fantásticas. Esos lugares, comparables a
la gruta de Lourdes en la actualidad, mantuvieron su prestigio durante siglos,
lo cual se debe, según la brillante observación del historiador de la Grecia
clásica Dodds, «al bajo porcentaje de curaciones necesario para mantenerlo, y a
la salud de hierro del enfermo crónico». Obviamente se refiere al
hipocondríaco, que vive atenaceado por enfermedades imaginarias o seudo
enfermedades de poca monta, como un dolorcito aquí, o una cierta pesadez allá,
y que el cuerpo se encarga de reparar, justamente, porque su salud de hierro le
permite mantenerse fuerte. Son, sin duda, los mejores pacientes para un dios.
Además, hay otro elemento que juega en el asunto. Los pacientes que acudían no
lo hacían durante una sola noche, sino que a veces permanecían semanas antes de
ser «atendidos». Durante ese tiempo, recibían una buena dieta, descansaban y
eran cuidados (como si se tratara de una especie de spa), lo cual sin duda
fortalecía el cuerpo y predisponía para las «curaciones», siempre que no
tuvieran nada serio, claro está. Por otra parte, los fracasos no se
registraban, lo cual es un método infalible para salir bien parado en las
estadísticas.
No dejen de notar que ese tipo de medicina religiosa o «natural» sigue
existiendo hoy en día por motivos —probablemente los mismos— que más adelante
abordaré, porque tiene valor histórico, y sobre todo epistemológico y
metodológico.
Sea como fuere, pronto apareció una medicina laica, en escuelas anexas a los
templos, de donde salió lo que propiamente vamos a llamar «ciencia médica» (con
todas las reservas que, como saben, tengo con respecto a la «medicina
científica» de entonces): las más famosas surgieron en Cnido, Rodas y en Cos, y
ya desde el siglo VI polemizaban entre ellas. Por ejemplo, los de Cos
criticaban a los de Cnido por exceso de empirismo y por dar importancia a todos
los síntomas, lo cual los llevaba a multiplicar las enfermedades. Pero lo más
importante de la escuela de Cos es que ahí aparecería el gran médico de la
Antigüedad, Hipócrates, quien se ocuparía de encarar la medicina de un modo muy
similar al que practicaron los milesios con el resto de la physis.
Ya hablaremos un poco de él, pero antes me gustaría mencionarles a Alcmeón, de
la escuela pitagórica, que vivió alrededor del 550 a.C., y del cual sabemos que
diseccionó animales, porque describió los nervios ópticos y varios otros rasgos
anatómicos, y propuso la extraña teoría de que las cabras respiraban por los
oídos (me pregunto de dónde sacaban esas ocurrencias). Además, distinguió venas
de arterias, aunque aceptó que las arterias sólo transportaban aire. Este
asunto, tan común entre los antiguos, se debe a que en los cadáveres las
arterias aparecen, efectivamente, como vacías, aunque, digámoslo de paso, si se
secciona la aorta brota un chorro de sangre; ya veremos cómo, más tarde, se
intentó explicar esta contradicción. Por otra parte, Alcmeón señaló que el
cerebro, y no el corazón, era el lugar del intelecto y las sensaciones, y
utilizó el concepto, seguramente anterior, de armonía: la enfermedad era una
disonancia, o inarmonía, entre los elementos que componen el cuerpo, y la tarea
del médico era recuperar el equilibrio, una noción que permearía toda la
medicina griega y que, podría decirse, fue una constante para el pensamiento
griego en general: recuerden, si no, al gran Aristóteles, para quien el
movimiento no era otra cosa que un restablecimiento del equilibrio físico.
También dediquemos un parrafito a nuestro viejo amigo Empédocles, que sostenía
una idea parecida sobre la salud como equilibrio de esos cuatro elementos
(agua, aire, tierra, fuego) que había establecido o inventado. El corazón,
según él, era el órgano que se ocupaba de que el pneuma, un
«espíritu aéreo vital», se repartiera por todo el cuerpo. El pneuma,
de naturaleza aérea, identificado con la vida y que se inspira junto con el
aire, es otra de las ideas directrices de la medicina griega, y llegaría hasta
Galeno y más allá (e incluso se puede rastrear hoy en expresiones como «exhaló
su último aliento», o en otras tradiciones, como la bíblica, en que Dios crea
al hombre soplando, e infundiéndole, presumiblemente, ese élan vital que en el
siglo XIX alimentará la teoría del vitalismo y en el XX tanto tentará a
Bergson). También se le atribuye haber detenido una epidemia en Agrigento
desecando un pantano y fumigando las casas, o sea que se ocupó de «higiene
pública».
Fíjense que hoy, en líneas generales (y exceptuando, por ejemplo, las
enfermedades genéticas), no consideramos la enfermedad como un desequilibrio
interno, sino como un estado producido por una agresión externa (una bacteria,
un virus, un tóxico, una droga, una dosis de radiación), aunque persistan
corrientes naturalistas que todavía se apoyan en esa vieja idea, y se centran
en la «vida sana» (no viene mal llevarla, de todas maneras). Frente a estas
metáforas modernas de la enfermedad como invasión, podríamos decir que los
médicos de entonces la consideraban como una especie de guerra civil dentro del
cuerpo, y su tarea era pacificar y reubicar en su lugar a los diferentes
bandos.
Ahora sí, vamos a Hipócrates.
§. Hipócrates de Cos
Una teoría es un recuerdo complejo de lo que se ha experimentado por los
sentidos.
Preceptos hipocráticos
En realidad, no sabemos mucho sobre Hipócrates, que vivió,
probablemente, durante la segunda mitad del siglo V y la primera mitad del
siglo IV. No sólo fue el jefe de la escuela de Cos, sino que enseñó medicina en
Atenas, y Platón y Aristóteles lo consideraban el arquetipo del médico. Tuvo
tal importancia que no sólo sus propias obras, sino todos los textos de la
medicina de los siglos V y IV se le atribuyeron: la conjunción de esos libros
conforma el Corpus hippocraticum, donde se resume toda la medicina
de la escuela y de la época, y consta de unos sesenta tratados, casi todos
escritos entre 430 y 330, o sea, justo antes del estallido helenístico.
Hipócrates, o los autores del Corpus, aplican a la enfermedad la
misma operación que Tales y los milesios a la naturaleza; le quitan cualquier
carga sobrenatural (lo cual muestra, de paso, que se trataba de un «espíritu de
la época») y rechazan toda explicación mágica o religiosa. Si bien los detalles
anatómicos y fisiológicos son bastante fantasiosos (como el agua de Tales o el
ápeiron de Anaximandro), revelan una actitud ilustrada: un perfecto ejemplo es
el caso de la epilepsia.
La epilepsia aparece, para los antiguos, como un «mal sagrado», porque resulta
sorprendente e incomprensible. Lo que hace Hipócrates es, justamente, mostrar
que en verdad no es tan incomprensible como parece, que hay otras enfermedades
que comparten estas características (como ciertas fiebres y el sonambulismo) y
que la epilepsia no tiene por qué ser diferente de esas o de cualquier otra enfermedad.
Sólo la ignorancia, denuncia el gran médico, hizo que se juzgara a la epilepsia
como un «mal sagrado», para beneficio de embaucadores y charlatanes. Y éste es
el descubrimiento fundamental de Hipócrates, quien escribe con una pavorosa
lucidez:
Acerca de la enfermedad que llaman sagrada sucede lo siguiente. En nada
me parece que sea algo más divino ni más sagrado que las otras, sino que tiene
su naturaleza propia, como las demás enfermedades, y de ahí se origina. Pero su
fundamento y causa natural lo consideraron los hombres como una cosa divina por
su inexperiencia y su asombro, ya que en nada se asemeja a las demás. Pero si
por su incapacidad de comprenderla le conservan ese carácter divino, por la
banalidad del método de curación con el que la tratan vienen a negarlo. Porque
la tratan por medio de purificaciones y conjuros. Y si va a ser estimada
sagrada por lo asombrosa, muchas serán las enfermedades sagradas por ese
motivo, que yo indicaré otras que no resultan menos asombrosas ni monstruosas,
a las que nadie considera sagradas. Por ejemplo las fiebres cotidianas,
tercianas y cuartanas no me parecen ser menos sagradas ni provenir menos de una
divinidad que esta enfermedad. Y a éstas no les tienen admiración.
¿Cuál es entonces la causa de la epilepsia para Hipócrates? Para eso voy
a volver un poco más atrás, en este camino sinuoso, y explicar la teoría de los
cuatro humores, teoría que, como la física aristotélica y la metafísica
platónica, estaría destinada a tener una larga vida en la civilización
occidental y que es la pieza central de la medicina hipocrática.
Hipócrates contempla la salud dentro de la línea del «equilibrio», a la vieja
usanza de Alcmeón y Empédocles. Pero… ¿qué es lo que está o tiene que estar en
equilibrio? Del mismo modo que la naturaleza de Empédocles está compuesta por
cuatro elementos básicos, el cuerpo humano está regido por cuatro fluidos a los
que se llama, técnicamente, «humores»: la sangre, la flema, la bilis amarilla y
la bilis negra, que determinan la salud del individuo. Está sano cuando esos
cuatro humores están armónicamente distribuidos y la mezcla es apropiada; la
enfermedad se manifiesta al romperse esa armonía o cuando la mezcla es
imperfecta.
La causa de la epilepsia, entonces, tiene que ser una alteración del cerebro
que se origine en las mismas causas racionales de las cuales provienen todas
las otras alteraciones patológicas: una adición o sustracción de seco o húmedo
o calor o frío. Por lo tanto, «quien sabe determinar en los hombres, mediante
la dieta, lo seco y lo húmedo, el frío y el calor, puede curar este mal». Lo
más importante de todo esto, como se darán cuenta, no es la solución,
evidentemente errada, sino la enseñanza metodológica: a consecuencias naturales
hay que buscarles causas naturales y no mágicas o metafísicas.
Por otra parte, los cuatro humores, derivados claramente de los cuatro
elementos, mantienen una correspondencia con ellos, así como con las cuatro
estaciones. Así, por ejemplo, la flema es fría y húmeda, por lo cual predomina
en invierno, también frío y húmedo, causando las enfermedades invernales; en
primavera, que es cálida y húmeda, predomina la sangre, que lo es también. Se
pueden, asimismo, atribuir al predominio de tal o cual humor los temperamentos:
sanguíneo, colérico (bilis amarilla), melancólico (bilis negra) y flemático.
La terapéutica hipocrática, por lo tanto, excluye exorcismos o purificaciones
para limitarse a métodos «racionales», que en general tienden a centrarse en la
dieta y en la restauración del equilibrio perdido, partiendo de la idea de que
el cuerpo tiende a repararse a sí mismo, y que, como dice el aforismo
hipocrático, «la naturaleza es el mejor médico». Aunque la teoría de los
humores es completamente imaginaria, puede interpretarse la terapéutica en
clave actual en términos de fortalecimiento del sistema inmunológico, lo que
explica el éxito de los spa, las estaciones de aguas termales y otros recursos
clave de la medicina naturista. Incluyendo los placebos, desde ya.
Pero bueno, Hipócrates fue, indudablemente, la primera gran figura de la
medicina en la Antigüedad, y la que inicia la senda racionalista e ilustrada
(que no será una senda recta, por cierto).
Habría que decir, también, algo de Aristóteles, que al ocuparse de todo,
también influyó sobre la medicina (era hijo de un médico, digamos de paso),
aunque no en forma absolutamente directa sino a través de sus extensísimas
investigaciones y experimentaciones biológicas. Estudió sistemáticamente los
órganos y funciones de los seres vivos y pudo describir no solamente las
especies sino los mecanismos de la reproducción, locomoción y sensación.
También fortaleció la teoría del corazón como sede del «calor innato» esencial
para la vida (en cierta forma, una variante del pneuma) que,
justamente por ser tal sede, era el órgano más caliente del cuerpo y necesitaba
ser refrigerado, tarea que corría a cargo de los pulmones.
§. Alejandría
Y después, por supuesto, Alejandría, el gran centro intelectual del mundo
helenístico, tuvo su desarrollo propio: durante la primera mitad del siglo III,
la medicina se investigó en el Museo y se obtuvieron resultados importantes en
anatomía y fisiología. Los aparatos que había, así como la posibilidad de
practicar disecciones (e incluso vivisecciones en condenados a muerte, lo cual
prueba que la ciencia, pese a sus altos valores, muchas veces no se detiene
ante las cosas más horribles, sumados a la posibilidad de dedicarse a la
investigación, no con fines directamente prácticos sino con el propósito de
incrementar el saber, fueron fundamentales para el desarrollo de la medicina
como la conocemos en la actualidad. A decir verdad, el Museo y la Biblioteca funcionaban
en cierto modo como una universidad actual, donde se practicaba la medicina en
el sentido biológico que distinguí al principio del capítulo.
No conocemos demasiados detalles sobre la medicina en Alejandría, pero sí sobre
los dos más descollantes médicos helenísticos: Herófilo de Caledonia y
Erasístrato de Quíos. Herófilo (330-260 a.C.), que quizá fue el primero en
practicar la disección pública de cadáveres, estudió la anatomía del ojo, se
ocupó del sistema nervioso, describiendo la conexión entre el cerebro, la
médula y las raíces nerviosas que iban a todo el cuerpo; distinguió las
funciones sensitivas y motoras y estudió el sistema reproductor. También abordó
el sistema cardiovascular, distinguió venas de arterias por el grosor de las
paredes, describió las válvulas del corazón y predicó el uso del pulso como
sistema diagnóstico.
Apenas un poco más tarde, Erasístrato (n. alrededor de 304 a.C.) continuó su
obra: como era discípulo de Estratón, director del Liceo de Atenas por aquel
entonces (que contradiciendo al gran maestro Aristóteles aceptaba la existencia
del vacío para explicar ciertos fenómenos relacionados con la física del aire),
Erasístrato usó una analogía mecánica para dar cuenta de la succión y expulsión
del pneuma y la sangre por el corazón, como si fuera una bomba
aspirante impelente parecida a las que construían los ingenieros alejandrinos.
Así, consideró a la presión arterial como efecto de la acción cardíaca y pensó
que venas, arterias y nervios formaban tres sistemas distintos y con diferentes
funciones: el primero, el de las venas, aportaba nutrientes a todo el cuerpo;
la comida, triturada en la boca, pasaba al estómago, donde se convertía
en quilo, un jugo que iba a parar al hígado, que lo transformaba en
sangre y lo repartía por las venas.
El sistema de las arterias era el encargado de transportar el pneuma vital
generado en los pulmones a todo el cuerpo; se respetaba, como vemos, la idea de
que las arterias contenían aire y no sangre, sin prestar demasiada atención a
la cuestión de que la aorta sangra cuando se la secciona. Erasístrato salvaba
la contradicción diciendo que, al escapar el aire por el tajo, se producía un
vacío que succionaba sangre de las venas.
El tercer sistema, el de los nervios, se ocupaba de la relación con el medio:
cuando el pneuma vital llegaba al cerebro por las arterias, se
convertía en pneuma psíquico, que viajaba por los nervios y
aseguraba la transmisión de las sensaciones y los movimientos.
En realidad, todas estas eran puras especulaciones teóricas, con las que
seguramente ellos mismos no sabían demasiado bien qué hacer. Aunque también es
verdad que algunas ideas podían aplicarse: por ejemplo, una alimentación
excesiva hacía que el hígado produjera más sangre de la que el cuerpo podía
soportar y podía invadir las arterias e hinchar las piernas; el equilibrio se
restablecía con una dieta (lo cual podía funcionar razonablemente bien) o, en
casos extremos, con una sangría. En algún momento tendremos que dedicar algunas
páginas a la historia de las sangrías, que constituyen el ejemplo de una
creencia persistente más allá de toda lógica… hasta el siglo XIX.
§. Un poco de medicina romana
Antes de ser conquistada por la medicina griega, la medicina romana tenía una
historia heredada de los etruscos, que, como todas las medicinas primitivas,
era una mezcla de prácticas mágicas y adivinatorias, con todos los chirimbolos
y accesorios de siempre. Era un sistema arcaico, por lo que la superioridad de
la medicina griega no tardó en imponerse, y, en realidad, nunca pudo hablarse
propiamente de medicina romana, porque todos los actores fueron griegos (como
en casi todas las ciencias, por otra parte). Además, los principales centros
médicos continuaron situados en ciudades griegas del Mediterráneo oriental. De
todas formas, en Roma aparecieron varias escuelas en el siglo I a.C. que
llegaron a alcanzar fama: la escuela metódica, la pneumática y la empírica.
Habría que agregar, a estas tres, una cuarta (la dogmática), en contra de cuyas
posturas racionalistas se alzaron los representantes de las demás escuelas: los
dogmáticos estaban más interesados por encontrar las causas ocultas de los
males que por buscar tratamientos efectivos, lo cual puede ser válido para una
ciencia cualquiera pero no para una que depende tanto de los resultados
concretos como la medicina.
No está de más insistir: la medicina, mucho más que cualquier otra rama de las
ciencias cuyo recorrido estamos siguiendo aquí, mantiene y renueva
constantemente (aún hoy) una natural tensión entre la empiria y la teoría. La
decisión sobre si el elemento originario es el agua o el aire, o si el ser es
móvil o inmóvil, parece ser mucho más ajena a la aplicación práctica que una
terapéutica: en este último caso, sea cual fuere la teoría, su corrección o
incorrección se valorará inmediatamente a partir de los resultados. Hoy en día,
por ejemplo, un paciente está muy poco interesado en las cuestiones teóricas
que hay detrás de un tratamiento: mientras sea efectivo, alcanza y sobra.
De una u otra forma, las distintas escuelas médicas asumieron (no
necesariamente en forma explícita) esta tensión entre explicación y aplicación,
acumulando las cargas de uno u otro lado de la balanza.
Es curiosa la escuela metódica, que estuvo inspirada por el primer médico
griego de importancia que fijó su residencia en Roma, Asclepíades. Se cuenta
que una vez, caminando por las calles de la ciudad, vio pasar un cortejo
fúnebre, y de inmediato su ojo clínico descubrió signos de vida en el
«cadáver». Convenció a los dolientes de transportarlo a una casa cercana, en la
que consiguió devolverlo a la vida. Como es de imaginar, y suponiendo que la
historia sea cierta, obtuvo inmediata fama y su escuela prosperó. Asclepíades
se opuso abiertamente a los planteamientos de Hipócrates y formuló una concepción
mecanicista del cuerpo humano, junto a una interpretación de sus enfermedades
basada en la física atomista de Demócrito y Leucipo (sobre la que ya tuvimos
ocasión de conversar unos capítulos atrás).
Según Asclepíades, el cuerpo humano se compone de «átomos» entrelazados que
integran sus partes sólidas, por cuyos poroi (canales
orgánicos) se mueven los fluidos y el pneuma, compuestos también
por átomos muy sutiles. Todos los átomos se mueven por sí mismos y la
enfermedad no es otra cosa que una perturbación mecánica de su movimiento; el
objetivo de la terapéutica, por lo tanto, consiste en restablecer la normalidad
mediante regímenes dietéticos, curas ambientales, intervenciones quirúrgicas y
métodos mecánicos como el masaje, la gimnasia y la hidroterapia.
Su discípulo, Temisón de Laodicea (famoso en Roma durante el imperio de
Augusto), fijó los preceptos de la escuela metódica, estableciendo un método
simple para curar a los enfermos, gracias al cual la escuela se llamó como se
llamó. El tratamiento a llevar a cabo venía determinado explícitamente por los
síntomas: del mismo modo que la sed indica, de modo natural y accesible para
todos, la necesidad de beber, las enfermedades dan una pista evidente de cómo
se deben curar. Toda la terapia consistía en reconocer dos estados, el status
laxus y el status strictus, dependientes de las
condiciones anormales de los poros (demasiado relajados o demasiados
estrechados). Posteriormente se agregó un status mixtus,
intermedio. Tratar un cuerpo enfermo era, simplemente, relajar o estrechar los
poros, de acuerdo a cuál fuera el problema.
Naturalmente, todo este corpus teórico no significaba nada. Las «curaciones»
eran muy elementales, y, contrariamente al célebre aforismo de Hipócrates («el
arte es largo, la vida es breve»), un discípulo de Temisón, un tal Tassalos de
Tralleis, llegó a prometer a sus oyentes que les enseñaría toda la medicina,
sin preparación previa alguna, en sólo seis meses. Así, la escuela se llenó de
zapateros, cerrajeros y gente de otros oficios que, convertidos en médicos,
elevaban la fama del maestro. La mayoría de los metódicos, en realidad,
formaron una especie de grupo de curanderos y charlatanes totalmente alejados
de la ciencia.
Algo parecido podía decirse de la escuela neumática, fundada por Ateneo de
Atalia: si bien tenía su propia teoría, no está claro cómo esa teoría podía
incidir en la práctica. La escuela concedía gran importancia fisiológica y
patológica al pneuma, ese espíritu vital que se inspiraba con el
aire, y asumía la existencia de un paralelismo constante entre macrocosmos y
microcosmos regido por la correspondencia mutua (sympatheia) de todos
sus fenómenos, idea que tendría un largo y triste futuro. Júpiter, por ejemplo,
correspondía a un determinado órgano, la Luna a otro, y cosas por el estilo, lo
cual habilitaba una especie de astrología médica que seguramente se basaba en
los astros para dar un diagnóstico. Es un buen ejemplo de una teoría basada en
una creencia totalmente arbitraria, a diferencia de la teoría de los humores,
que era una «mala» interpretación de elementos existentes.
Paralelamente a la escuela escéptica de los filósofos (de la que no hablamos ni
hablaremos por razones de espacio) nació la escuela empírica, que no sólo
pretendía basar la medicina, antes que sobre la especulación teórica, sobre la
observación y la experiencia, sino que, además, negaba toda posibilidad de
construir una ciencia teórica válida, y, por lo tanto, de edificar una
verdadera teoría médica. Rechazaban todo tipo de deducciones lógicas, cosa que
si bien era razonable a corto plazo, era un disparate en el largo (aunque ellos
seguramente argumentaban que, como dijo Keynes, en el largo plazo estaremos
todos muertos, médicos y enfermos por igual). Trataban de probar un remedio que
había servido para curar un brazo, por ejemplo, aplicándolo a un enfermo que
padecía de un mal semejante en una pierna. O probaban en un caso de hemorragia
un remedio que había servido eficazmente para contrarrestar la diarrea: si el
remedio probado no producía efecto, los empíricos aplicaban otro de efecto
contrario, y así sucesivamente.
Lo que en realidad estaba pasando es que la complejidad del cuerpo y los datos
observables estaban a una distancia tal de cualquiera de estas teorías como los
átomos de Demócrito del funcionamiento de una central nuclear. Pero en el caso
de la medicina la necesidad de resultados inmediatos nos permite pensar que, en
el fondo, lo que seguramente funcionaba, cuando funcionaba, era la aplicación
(explícita o subterránea) de los conocimientos tradicionales. La teoría era
impotente; nadie, supongo, hoy se dejaría atender por un filósofo, y menos que
menos por un filósofo posmoderno, que consideraría que todas las enfermedades
son equivalentes en tanto relatos y construcciones sociales, y los remedios y
aparatos simples resultados de juegos de poder del capitalismo.
En fin, pienso que la situación de un enfermo era así en esos tiempos, y lo
seguiría siendo por siglos. Es verdad que la teoría de los humores era racional
y naturalista, y tan fantástica como la teoría de Tales sobre los terremotos:
la diferencia es que, como tenía incidencia directa sobre el cuerpo, su
carácter puramente especulativo no podía sino producir inquietud.
Todo lo que acabo de decir vale también para la figura más descollante de la
medicina romana (o mejor dicho, de los tiempos del Imperio Romano): Galeno.
Tras períodos de fulgor y declinaciones, la medicina antigua encontró en él a
una especie de resumen de todos los conocimientos, y su influencia fue tan
importante en los siglos que siguieron que su nombre pasó a ser usado como
sinónimo de médico (aunque ahora tiene un leve matiz despectivo). Galeno marcó
la culminación de la medicina antigua. Pero, paradójicamente, marcó también,
durante siglos, la detención de los estudios médicos, que sólo resurgieron
hacia el fin del Renacimiento, y que se renovaron en profundidad recién en los
primeros decenios del siglo XVII.
§. Vida de Galeno
Según la tradición, Esculapio, dios de la medicina, se le apareció al padre de
Galeno (que era arquitecto) en sueños, pidiéndole que hiciera médico a su hijo.
Y así lo hizo. Nacido en Pérgamo (hoy en día Bergama, en Turquía), en el 138
d.C., estudió medicina y filosofía en Esmirna y en Corinto, trasladándose
después a Alejandría (que ya no era lo que había sido, pero que seguía viva).
Una vez perfeccionados los estudios, volvió a su Pérgamo natal, donde ocupó el
ambicionado y muy disputado puesto de médico de la escuela de los gladiadores.
Allí encontró amplio campo para poner en práctica y experimentar la validez de
sus estudios, sobre todo de anatomía y de terapéutica en el campo quirúrgico, y
también en el terreno farmacológico.
Dos años después, viajó a Roma llamado por el propio emperador, Marco Aurelio
(121-180), en calidad de médico personal, cargo que ocupó hasta su muerte en el
201. Galeno vivió una época en la que el cristianismo estaba ganando poder y a
pesar de no ser cristiano mantuvo una postura monoteísta. El afán de buscar
designios y proyectos en el universo, y en particular en el cuerpo humano, hizo
sus obras populares entre los cristianos, además de asegurar con ello la
supervivencia de sus libros a través de la Edad Media.
De su enorme producción —se dice que escribió cerca de cuatrocientas obras— no
ha quedado mucho, pero los historiadores coinciden en que lo que se ha
conservado expresa lo mejor de su doctrina y pensamiento.
Galeno era un erudito en matemática, física y filosofía, lo que lo ayudó en el
campo médico a lograr una síntesis entre los conocimientos teóricos y los empíricos
de la época, que complementó con observaciones e investigaciones propias,
uniendo la tradición hipocrática con los resultados alejandrinos.
Como para Hipócrates, para Galeno la enfermedad es un desequilibrio de los
cuatro humores que se diagnostica mediante el pulso, la orina, las
inflamaciones de órganos internos. Esto último exige el conocimiento de la
anatomía. Pero como en su época en Roma no se podían hacer disecciones de
cadáveres humanos, estudió cerdos, ovejas y monos y trasladó sus observaciones,
lo cual llevó a muchísimos errores.
Su sistema fisiológico es básicamente el de Erasístrato, con sus tres sistemas.
El corazón es el centro del calor animal, que se modera con el aire llegado de
los pulmones. Al expandirse el corazón (sístole) se expulsa a través de la
arteria pulmonar el hollín y los vapores generados por ese vapor innato, y al
contraerse el corazón succiona el fuego del aire atmosférico de los pulmones.
Este fuego se mezcla con la sangre, y esta sangre caliente y llena de pneuma se
reparte por todo el cuerpo a través de las arterias. El sistema nervioso se
ocupa de las funciones superiores. La cuestión es que Galeno desarrolló un
sistema completo de fisiología, dado que no podía imaginar al órgano separado
de su función. Por ese camino, intentó una interpretación fisiológica de todos
los órganos y vísceras que pudo descubrir e identificar durante su infatigable
actividad de anatomista.
Según la explicación de Galeno, una vez que el aire era inhalado se convertía
en pneuma gracias a la acción de los pulmones, y el proceso
vital transformaba un tipo de pneuma en otro. El estómago y
los intestinos, en una primera digestión, convertían a los alimentos en quilo,
que luego pasaba al hígado, el órgano central en el cual confluían todas las
venas y a partir del cual se redistribuía todo lo que se procesaba. De hecho,
era allí, en una segunda digestión, donde se gestaban los cuatro humores que
fluían y refluían en las venas con un movimiento semejante al de las mareas.
Parte de este espíritu natural entraba en el ventrículo izquierdo del corazón,
donde se convertía en un tipo superior de pneuma: «el espíritu
vital». Entonces, el espíritu vital era transportado a la base del cerebro y
allí la sangre se transformaba en una forma aún más elevada de pneuma:
el «espíritu animal». Esta forma suprema de pneuma era
distribuida a todo el cuerpo por medio de los nervios, que eran huecos. Cada
aspecto del alma (tomada en el sentido platónico) poseía su propia «facultad»
especial, que correspondía a su poder de producir pneuma. Explicaba
Galeno:
Siempre que ignoremos la verdadera esencia de la causa que está operando la
llamaremos facultad. Así, decimos que en las venas existe la facultad de
producir sangre, una facultad digestiva en el estómago, una facultad pulsátil
en el corazón y una facultad especial en cada una de las partes que corresponde
a la función o actividad de esa parte.
Ésta era, en resumen, la gran estructura de la fisiología de Galeno, que
esencialmente era una pneuma tología. El centro del sistema era una
teoría especial sobre el corazón humano. El calor innato que, según Hipócrates
y Aristóteles, impregnaba todo el cuerpo y distinguía a los vivos de los
muertos, procedía del corazón. El corazón, alimentado por el pneuma,
era naturalmente el órgano más caliente, una especie de horno que se hubiese
consumido a causa de su propio calor si no fuese por la acción refrigerante de
los pulmones. El calor, que estaba unido a la vida humana, era, pues, innato,
el sello distintivo del alma.
Galeno fue también un gran anatomista y, se podría decir, el que inició el
conocimiento sistemático de la anatomía humana aplicada al diagnóstico y
tratamiento de las enfermedades: conoció la osteología por el estudio directo
del esqueleto humano, y la estructura de las partes blandas por las disecciones
de animales. Su texto Sobre los procedimientos anatómicos explica
la forma de la mesa de disecciones y la técnica de estudio anatómico.
Hizo una excelente descripción del esqueleto y de los músculos que lo mueven;
en particular, de la forma en que se envían señales desde el cerebro a los
músculos a través de los nervios.
La obra de Galeno fue el referente de la medicina posterior y se consideró casi
un mandato a seguir de forma dogmática durante casi mil quinientos años.
Probablemente esto fue así no por sus contribuciones a la medicina, sino por
haber realizado una especie de recopilación de todos los conocimientos médicos
adquiridos hasta su tiempo.
Además, su trabajo fue el primero que se sistematizó y se agrupó en tratados y
manuales (mientras que los desarrollos anteriores se reducían sólo a escritos
sueltos sobre cosas concretas) lo cual favoreció su enseñanza y utilización
como referencia fundamental.
§. Balance
Del mismo modo que la física fue diseñando su sinuoso camino apartando a los
dioses de los asuntos terrenales, en los que poco les quedaba por hacer, la
medicina se fue «cientifizando» con el correr de los siglos. La teoría de los
cuatro humores es sin dudas una teoría científica, claro está: una teoría que,
con todos sus errores y limitaciones (que sólo podemos señalar ex post)
prescinde de los elementos sobrenaturales y busca una explicación estrictamente
natural.
Pero con el aspecto teórico, en medicina (más que en ninguna otra ciencia), no
alcanza. Tenemos que hacernos otra pregunta: ¿los médicos antiguos curaban a
alguien? Para poder comprender la situación de la época, naturalmente, es
importante recuperar la idea de que ellos ignoraban que carecían de
instrumentos como los microscopios o los análisis químicos, y que no sólo lo
ignoraban sino que ni siquiera lo podían imaginar, del mismo modo que nuestros
médicos de hoy ignoran de qué aparatos o recursos que alguna vez resultarán
imprescindibles carecen. Entonces… ¿qué podían hacer?
Bueno, es muy probable que la medicina antigua fuera eficaz (en la medida en
que no fuera invasiva) para tratar enfermedades «de superficie», desde una
indigestión hasta una herida, e incluso debió haber casos de enfermedades
infecciosas, como una pulmonía, tratadas con éxito (y con suerte), permitiendo,
a través de la dieta sana y la vida equilibrada, que el cuerpo del enfermo
fortaleciera su sistema inmunológico (del cual los médicos no tenían ni idea) y
se reparara a sí mismo (como sugieren algunas corrientes de medicina actual,
como el naturismo, sólo que ahora lo consideramos peligroso). Era en gran parte
una medicina de equilibrio, no invasiva, parecida a las medicinas naturales
actuales.
Pero más allá de todas las teorías y los debates epistemológicos, creo que lo
más probable es que todo médico serio de la Antigüedad, empírico o neumático, o
galenista, o egipcio o lo que fuera, recurriera a una farmacopea natural y
folklórica, que sacaba su contenido de la experiencia acumulada por las
generaciones. Lo más probable, pienso, es que todos ellos, en el fondo, aunque
tuvieran una teoría, se comportaran en gran parte como empíricos, recurriendo a
la «medicina subterránea» y a las farmacopeas naturales. Y esto vale incluso
para Galeno.
En fin, ya nos volveremos a encontrar con estos problemas a medida que vayamos
recorriendo nuestro camino, especialmente cuando veamos cómo, por ejemplo, la
medicina de los cuatro humores sacó conclusiones agresivas de la teoría y
produjo ese gran instrumento de muerte que fue la sangría.
Pero no nos adelantemos. Acompáñenme a ver cómo imaginaron el mundo los
fundadores de la ciencia.
Capítulo 7
El asalto al cielo
Dos cosas me llenan de asombro y admiración: la conciencia moral dentro
de mí y el cielo estrellado por encima de mí.
IMMANUEL KANT
Sobre los instrumentos de muerte asoma, decidido, el Sol.
Te había oprimido la alta noche vacía
y hueca
frente al televisor que en un cuarto
cerrado
te hizo compañía hora tras hora.
Y el cielo
no te dio consuelo
no te dio consuelo
porque es negro y vacío como la muerte.
Tanteaste en la oscuridad
recorriste la ciudad sólo alumbrada
por la luz del supermercado
y el brillo del shopping que titila
reventando de compacts y remeras
en el campo sin luz
en el desierto desprovisto de esperanza.
Miraste a las estrellas con pavor.
¿Qué te queda de la felicidad de los mundos
que brillan en lo oscuro
que se agitan en la inmensidad
donde no llega el oído
ni alcanza la mirada?
Y de pronto ves
que algo cambia.
Te parece que la noche afloja,
que cede a regañadientes.
¿Sabés qué está pasando?
No, no sabés qué está pasando.
¿Algo sombrío?
¿Es algo aún más sombrío que te espera?
Y no; yo te diré lo que ocurre.
En este rincón perdido entre los mundos,
en este oculto rincón
¿quién conoce su verdadero nombre
en la lista de los mundos?
De repente
en este lugar apartado de todo
donde sólo el shopping te indica que estás vivo
ves que se asoma una luz no imaginada.
¡Tu estrella sale por el Este! Tu estrella.
Tu estrella,
la que entre cien mil millones de estrellas
es tuya, sólo tuya,
aparece
disputando cada palmo de sombra,
torciendo
el brazo a la ominosa noche
va ganando terreno,
va ganando terreno como un sonido,
o una alegría que se expande.
¡Amanece!
Ahora ves.
Tus ojos recuperan cada forma,
perciben siluetas grises y distinguen lo bueno de lo malo
lo benévolo en la selva sin fin.
La calle de tu infancia.
¿Qué te importa si un dios en una barca la arrastra a regañadientes
o si otro dios la ha cargado en su carro y cabalga con ella penosamente el
cielo?
¿Qué más da un dios u otro?
¡Allí está!
Qué te importa saber que un día morirá
hasta ser un astro sin brillo, opaco y frío,
perdido en el espacio negro y frío.
¡Amanece!
La luz avanza tanteando.
Has sobrevivido a la noche, donde anida
la muerte
lista como la serpiente decidida a atacar.
Percibiste el silencio de las especies,
al acecho
buscando su oportunidad.
Y la pregunta primera: ¿llegaré a ver el nuevo día?
y amanece.
Todo está en su lugar
y esa esfera de miserable gas, tu estrella, nace.
La pared sobre la que escribieron los profetas
se está resquebrajando.
Sobre los instrumentos de muerte
asoma resplandeciente el Sol.
Simplemente amanece.
Si uno lo piensa, la observación del cielo tiene que ser tan antigua
como la cultura misma: el cielo está ahí y presenta ciclos que, si bien pueden
ser fascinantes, también pueden resultar atemorizadores, hasta el punto de que
hay celebraciones actuales que, aunque estén revestidas de componentes modernos
y meramente religiosos, tienen su origen en la observación cosmológica. Tal es
el caso de la Navidad, una fiesta antiquísima, anterior al cristianismo, desde
ya, pero también a la civilización romana. Es la fiesta del solsticio de verano
de las antiguas culturas del Hemisferio Norte, el momento en que el Sol,
después de alcanzar su punto más bajo sobre el horizonte, detiene su peligroso
descenso (en vez de hundirse para siempre en el horizonte) y empieza a elevar
su altura.
Era como para festejarlo. Esas fiestas, probablemente neolíticas, derivaron en
celebraciones institucionales romanas. Las saturnalias, por
ejemplo, se festejaban en esos días, y cuando el Cristianismo debió fijar su
celebración central, la superpuso a fiestas ya conocidas y aceptadas. Así, la
Navidad es, en última y antigua instancia, una fiesta astronómica.
Las primeras culturas identificaron a los astros con dioses y les atribuyeron
la capacidad de influir sobre la vida de los hombres. Y pensaron leer en ellos
el futuro de los pueblos y sus gentes, en esa pseudociencia y superstición que
se llamó astrología. No es raro: el cielo, aparentemente, muestra una
regularidad y una permanencia que está muy lejos de las mudanzas humanas. Lo
que cualquiera de nosotros ve en una noche estrellada es prácticamente lo mismo
que vieron nuestros antepasados: los que anudaron los quipus y los que
habitaron Tenochtitlán, los que cruzaron el océano, los que oyeron por primera
vez recitar la Ilíada, los que construyeron las pirámides, los
primeros hombres que hace cien mil años abandonaron el África y empezaron a
esparcirse por el mundo. Es una sensación grandiosa que perfectamente describió
Kant, una intuición de eternidad, en fin, que desafía lo efímero de la vida
cotidiana, y aun la vida y la muerte.
§. No es tan simple
Sin embargo, la verdad es que el cielo está muy lejos de la quietud: el Sol
sale y se pone, la Luna cambia de forma y las estrellas lo cruzan de Este a
Oeste cada noche. Y además, el Sol no tiene siempre la misma altura durante las
distintas épocas del año (ya les conté el caso de la Navidad), del mismo modo
que hay estrellas que dejan de verse durante meses y otras que se ven siempre.
Y después de 365 días, las cosas están como al principio y todo vuelve a
empezar una y otra vez, con una regularidad hipnótica que las culturas de la
Antigüedad registraron muy bien: astrónomos hindúes, babilonios y egipcios
elaboraron minuciosas tablas con estos datos, que fueron usados para establecer
calendarios muy precisos.
Se trata de movimientos que, en realidad (y en principio), se podrían explicar
de una manera muy sencilla: basta con imaginar al cielo como una enorme esfera
que rodea a la Tierra y que da una vuelta diurna y otra, independiente, anual.
Pero con eso no alcanza. Y no alcanza porque, por empezar, es evidente que no
todos los astros se mueven en bloque. El Sol y la Luna a veces coinciden, otras
se separan y a veces se alinean con la Tierra y provocan eclipses. Es obvio que
tanto uno como la otra se mueven por su cuenta y cambian de posición, a lo
largo del año, respecto de las estrellas. Entonces no alcanza con imaginar una
esfera que engloba a todo el cielo: hacen falta por lo menos tres, una para las
estrellas, otra para el Sol y una tercera para la Luna.
Y resulta que tres esferas tampoco son suficientes, porque hay algunos puntos
brillantes que tampoco se mueven solidariamente con las estrellas, el Sol o la
Luna, sino que lo hacen, al parecer, por su cuenta. A medida que avanza el año
cambian de posición sobre el fondo estrellado, de modo tal que en un mes están
cerca de una determinada constelación y, un poco después, cerca de otra,
vagabundeando, sin respetar el movimiento uniforme y previsible de ese gran
telón que cumple su impresionante ciclo anual alrededor de nosotros.
Los observadores griegos los llamaron «astros errantes» o «vagabundos» y,
aceptando el orden y la tradición de la astronomía babilónica, los
identificaron con dioses: Mercurio, Venus, Marte, Júpiter y Saturno.
Obviamente, cada uno de estos planetas necesita una esfera más si se pretenden
explicar los movimientos del cielo, de modo que el sistema se hacía acreedor de
ocho esferas (estrellas, Sol, Luna y cinco planetas) que se movían
independientemente unas de otras alrededor de la Tierra.
No parece grave: la verdad es que imaginarse ocho esferas para explicar algo
tan extraordinario como el funcionamiento del cielo no es cosa del otro mundo,
pero resulta que con esas ocho esferas tampoco alcanza.
Y no alcanza porque ocurre que los planetas se mueven de una manera extraña. A
lo largo del año, Marte, por ejemplo, avanza durante un tiempo en el cielo,
luego se detiene y empieza a retroceder, también durante un cierto lapso, hasta
que retoma su movimiento hacia adelante, en un desconcertante zigzag… ¿Cómo se
explica ese movimiento retrógrado, que del mismo modo que Marte, afecta a todos
los planetas?
El movimiento retrógrado
Y además, los planetas cambian de brillo, como si se acercaran y se
alejaran, cosa que no puede ser posible, ya que los puntos de una esfera están
siempre a la misma distancia de su centro.
Eso no es todo: en su revolución anual (estoy tomando el punto de vista de una
Tierra inmóvil y ubicada en el centro), el Sol no se mueve siempre con la misma
velocidad. Y hay otros planetas que hacen cosas raras: Mercurio y Venus están
siempre casi pegados al Sol, al amanecer o al ocaso, cosa que no ocurre con los
otros planetas.
Ese cielo que conocían los griegos era bastante complicado…
Pero lo increíble es que la astronomía griega logró dar cuenta de todos estos
fenómenos, resolvió ese galimatías y fue más allá, pero mucho, mucho más allá
de lo que habían logrado sus precursores, los egipcios y, sobre todo, los
babilonios. Les llevó unos cinco siglos, pero lo hicieron. Fue una aventura
intelectual de las grandes, que no deja de maravillarnos. La vamos a seguir
paso a paso.
§. La astronomía heredada
Antes de iniciar la aventura griega, veamos un poco qué es lo que heredaron de
la Mesopotamia, que les llevaba más de mil años de ventaja en las indagaciones
celestes.
Como ya les dije, aunque no está de más recordarlo, los babilonios iniciaron
sus estudios aritméticos, como casi todos los pueblos, por razones de control y
de inventario; sus estudios astronómicos, por razones de calendario y de
adivinación astrológica. Como trasfondo estaba la cosmología mitológica: la
tierra es plana y está rodeada por un océano circular; sobre ella se extiende
el cielo abovedado que se apoya en una estructura montañosa con puertas por
donde entran y salen, a través de un túnel que recorren durante la noche dioses
y astros; bajo la tierra están los infiernos donde «viven» (sic) los muertos y
(no sic) los demonios.
Por su parte, todo el conjunto está rodeado por las aguas superiores, separadas
de nosotros por el firmamento (como en el Génesis I, versículos 1.6 y 1.7 —«Y
dijo Dios: Haya expansión en medio de las aguas, y separe las aguas de las aguas.
E hizo Dios la expansión y separó las aguas que estaban debajo de la expansión,
de las aguas que estaban sobre la expansión»—, lo que muestra, dicho sea de
paso, la íntima ligazón de la mitología judía con la babilónica).
Para los sumerios (estoy usando indistintamente el nombre de los pueblos que
habitaron la Mesopotamia), los astros eran dioses y su estudio podía servir
para adivinar sus caprichos, sus acciones buenas y malas, e incluso sus ataques
de pánico, sus síndromes de estrés postraumático, o cualquier otra enfermedad,
existente o no. Desde el cuarto milenio dieron nombres a las estrellas y
agrupaciones de estrellas más notables, es decir, inventaron las
constelaciones.
Con respecto a las constelaciones, una aclaración: como todos estos pueblos
imaginaban a las estrellas pinchadas en la bóveda celeste (o en el último
cielo), las constelaciones, esas agrupaciones de estrellas que parecen
representar una figura, o un animal, o a veces una escena mitológica, tenían
muchos más visos de ser reales. Hoy, aunque seguimos usando las constelaciones
heredadas de los griegos, sabemos que esas estrellas no están de ninguna manera
agrupadas, sino que pueden estar a distancias muy grandes en el espacio
profundo.
Volviendo a los babilonios, las estrellas León, Toro, Escorpión y Pegaso
marcaban, al salir inmediatamente antes que el Sol, los solsticios (21 de
diciembre y 21 de junio, días del año en que el Sol alcanza el punto más alto y
más bajo en el mediodía, para después empezar a bajar o subir) y los equinoccios,
puntos en que la noche y el día tienen la misma duración.
Los babilonios reconocieron los planetas (incluyendo la identidad de Venus como
lucero del alba y del atardecer) y, para el año 700 a.C., conocían ya la
eclíptica, el supuesto camino anual que siguen la Luna, el Sol y los planetas
(aunque en realidad, como bien sabemos hoy, es la Tierra la que se mueve) y
comprendieron que estaba inclinada respecto del eje de nuestro planeta, lo cual
—dicho sea de paso— hace que existan las estaciones.
La eclíptica
También inventaron el Zodíaco, una banda de 12 signos de 30 grados cada
uno, asociados a constelaciones, que hizo posible la expresión numérica de los
datos en grados de longitud.
Los métodos de predicción se hacían a partir de largas tablas de observaciones
en las cuales se encontraban ciclos regulares: estas tablas eran lo
suficientemente precisas como para predecir los eclipses de Luna con bastante
exactitud y los de Sol de manera aproximada. Lograron también calcular y
predecir las misteriosas retrogradaciones de los planetas.
Sin embargo, en ningún caso elaboraron teorías físicas del cosmos buscando
mecanismos subyacentes. Es extraño pensar que la predicción de los movimientos
celestes por medio de procedimientos terrenales y no espirituales no haya
llevado por lo menos a algún intento de edificar una cosmología naturalista que
lo explicara, aun superponiéndose a la explicación mitológica.
Para encontrarla, tenemos que volver, cuándo no, a Grecia.
§. Los primeros intentos
Los griegos encararon el estudio de la astronomía y en sólo unos pocos siglos
la llevaron a un estado de perfección tal que pudo funcionar durante mil
cuatrocientos años.
Su astronomía matemática (y es importante notar cómo los griegos llevaron las
ciencias de base matemática a su máxima expresión —no así las ciencias
empíricas—) es el logro más impresionante de la ciencia griega: la joya de la
corona, un sistema completo sobre el mundo, que de todos modos costó, como
hubiera dicho Churchill, logos, doxa y episteme.
O mejor, razonamiento, observación y teoría, una tríada que resultaba útil para
responder a una de las preguntas centrales del pensamiento griego: ¿cómo puedo
obtener un conocimiento verdadero?
Volvamos por un momento al siglo VI a.C.: los milesios dieron los primeros
pasos en la comprensión racional del mundo, pero no consiguieron una cosmología
estable. Tales, con su teoría de la Tierra como un DVD flotando en el océano
universal, sostenía que la bóveda celeste, por la noche, pasaba por debajo de
la Tierra, una idea de clara inspiración egipcia (el barco del sol atravesando
el mundo subterráneo). Lo poco que conservamos de él no nos permite entender
cómo era ese pasaje «por abajo», dado que es de suponer que ese abajo estaba
lleno de agua, y la esfera celeste se mojaría, y cada día amanecería
chorreando, a menos que se inventara un mecanismo ad hoc de
secado rápido. Pero bueno, no tenemos escritos de Tales que aclaren esas cosas.
Lo malo con los presocráticos es que se ha perdido tanto material que uno no
puede saber si es que alguien se despreocupó de tal o tal cosa, o simplemente
sí se preocupó, pero no se conservó lo que dijo. De todas maneras, Tales hizo
bastante. Naturalmente (ya hablamos de eso) había tenido contacto con la
astronomía babilónica (tanto o más fuerte que la egipcia) y sus interminables y
precisas tablas y ciclos, que permitían predecir los fenómenos celestes.
Habíamos dicho ya que, casi seguro, usó esas tablas para predecir el eclipse
con el que fechamos el inicio de la ciencia.
Los que sí expusieron una teoría cosmológica (fíjense que digo «cosmológica» y
no «astronómica», porque eso no era aún astronomía; astronomía, aunque
puramente observacional y sin cosmología, era la de los babilónicos) fueron sus
discípulos Anaximandro y Anaxímenes.
Ya saben que Anaximandro creía que la tierra era similar a una columna de
piedra: un cilindro más ancho que alto con dos antípodas planas (arriba y
abajo) y sobre la superior se movían los hombres. Pero además, describió los
cuerpos celestes como anillos de fuego; esos anillos son invisibles, ya que
están rodeados de niebla, una niebla que posee aberturas a través de las cuales
aparecen: lo que vemos como una estrella no es más que un pinchazo en la bóveda
celeste que nos permite percibir la luz de atrás, de modo tal que los eclipses
no son otra cosa que la obstrucción de las aberturas.
El círculo por el cual se mueve el Sol, el más alejado de todos, es 27 veces el
de la Tierra; el de la Luna, inmediatamente por debajo del Sol, de 18 veces, y
el de las estrellas, de 9 veces. Noten que, curiosamente, el círculo más
cercano es el de las estrellas. Nada se dice de los planetas. Si hacemos las
cuentas de las distancias, tomando el valor que ahora conocemos del diámetro de
la Tierra (12 mil kilómetros), resulta que las estrellas estaban a 120 mil
kilómetros; la Luna a 206 mil, y el Sol a 324 mil. O sea que las estrellas de
Anaximandro estaban más o menos a un tercio de la distancia real de la Luna
(380 mil kilómetros), la Luna a dos tercios de su distancia real, y el Sol
distaba un poco menos que la Luna. Vale decir que, para el caso del Sol, la
distancia de Anaximandro es un 0,00002 por ciento de la real… ¡y ni hablar de
las estrellas!
Se trata, sin duda, aunque algunos lo celebran como el primer sistema mecánico,
de un sistema fantasioso, que juega con el número 3 y sus múltiplos —9, 18, 27—
sin razón aparente.
Anaxímenes también diseñó su propio sistema cosmológico, aunque menos complejo,
al criticar la teoría de Tales sobre la Tierra flotando en el agua (en efecto,
¿quién sostiene el agua?, ¿y qué sostiene a lo que sostiene el agua?). Afirmó
(como ya lo hemos dicho en algún momento), que «la Tierra está suspendida
libremente, permaneciendo en su lugar en razón de su igual distancia a todas
las partes», colocándola en el lugar que iba a ocupar por muchísimos siglos. Lo
interesante de todo esto es que la centralidad de la Tierra se deduce de un
razonamiento puro, no de una observación empírica, como lo harán los astrónomos
posteriores.
De todos modos, las cosmologías milésicas adolecen de todas las carencias de su
visión del mundo, que tienen que ver con el hecho de hacer «deducciones» a
partir de observaciones superficiales.
¿De dónde sacó Anaximandro que la Tierra es un cilindro? ¿Y los anillos de
fuego? Eran construcciones naturalistas pero todavía no constituían una
cosmología verdadera y completamente científica.
§. La cosmología pitagórica
La próxima estación en el viaje en el tren de conseguir una explicación para
los cielos es en Samos, entre los pitagóricos, que, como ya vimos, habían
construido un sistema basado en los números, y probablemente hayan sido los
primeros en postular una estructura matemática «subyacente», aunque muchas de
sus elucubraciones eran pura charlatanería numerológica (al estilo de las que
defienden los «numerólogos» de hoy en día, que casi seguramente no leerán este
libro). Ese sistema les permitió alcanzar notables descubrimientos matemáticos,
como el de que la raíz cuadrada de dos es irracional.
Los pitagóricos pensaban que todo el cielo era una escala musical y un número;
de acuerdo con astrónomos anteriores, imaginaron a los cuerpos celestes
ubicados en esferas concéntricas cuyos movimientos originan sonidos acordes
aunque inaudibles (no los oímos porque estamos acostumbrados a hacerlo desde
que nacemos), una idea que llegará hasta el mismísimo Kepler. Este Kepler, y
perdón por el adelanto, fue, además de uno de los grandes ordenadores del
cosmos, un místico con una gigantesca imaginación, que postuló un inverosímil,
aunque atractivo, sistema cosmológico en el que, entre otras cosas, rescató la
idea de la música de las esferas al mismo tiempo que reordenaba el sistema
solar. Al final de su vida, en el tratado Harmonices Mundi, el
descubridor de las tres leyes de movimiento planetario asegura que entre las
diferentes velocidades angulares de los astros existen las mismas proporciones
que entre las notas musicales, de modo tal que el movimiento planetario se
estructura de manera semejante a la polifonía renacentista.
Pero estábamos hablando de los pitagóricos. Y resulta que hay entre ellos una
versión primitiva que parece mostrar a la Tierra como el centro del universo, y
conteniendo un núcleo caliente o fuego central, pero que o bien fue dejada de
lado o evolucionó hacia otra cosmogonía, que es la que en general se asocia con
ellos, atribuida a Filolao de Trotonas, un pitagórico de fines del siglo V.
Para Filolao, a quien Copérnico cita, el centro está ocupado por una masa
invisible de fuego en torno de la cual giran los cuerpos celestes conocidos: la
Tierra y los otros 7 cuerpos celestes (el Sol, la Luna, Júpiter, Saturno,
Mercurio, Venus y Marte). El problema es que, si se acepta esto, el sistema
queda formado solamente por 9 cuerpos (los siete mencionados, más la Tierra y
el fuego central), un número no demasiado elegante que digamos. Sobre todo, si
tenemos en cuenta que podemos agregarle un simple cuerpo más y llegar al 10, un
número redondo, contundente, firme.
Y esto es lo que hizo Filolao: supuso que existía una cosa llamada «anti tierra»,
interior y opuesta a la Tierra, que gira también, y como todo, alrededor del
fuego central.
El sistema de Filolao tenía mucho de arbitrario, y no podía decirse que
estuviera basado estrictamente en el logos. Aristóteles no tenía
una opinión muy elevada de esta teoría, como podemos ver:
Con respecto a la posición de la Tierra existen algunas divergencias de
opinión. La mayoría de los que sostienen que todo el universo es finito afirman
que está situada en el centro, pero esto ha sido contradicho por la escuela de
los pitagóricos, quienes afirman que el centro está ocupado por el fuego y que
la Tierra origina el día y la noche a medida que se mueve alrededor del centro.
Además, idearon otra Tierra situada en posición opuesta a la nuestra, a la que
designan con el nombre de anti tierra, sin buscar argumentos y explicaciones
acordes con las apariencias, sino intentando, mediante la violencia, hacer
coincidir ésta con sus propias argumentaciones y opiniones.
Y también:
Todas las propiedades de los números y escalas que ellos pudieron
exhibir en concordancia con los atributos y partes y con el orden general del
cielo, las reunieron e hicieron coincidir con su sistema, y si algo fallaba en
algún aspecto prontamente hacían agregados para hacer consistente el conjunto
de su teoría. Por ejemplo, como el diez parece ser el número perfecto que
comprende toda la naturaleza de los números, afirmaron que los cuerpos que se
mueven en los cielos son diez, pero como los visibles son solamente nueve (es
decir, la esfera de las estrellas fijas, considerada como uno más, más los
cinco planetas y el Sol, la Luna y la Tierra), para satisfacer esa condición
inventaron un décimo, la anti tierra.
Una crítica perfecta, increíblemente moderna, ya no hecha desde una
cosmología cochambrosa y primitiva, sino por quien poseía una astronomía
avanzada, compleja y aceptablemente precisa, en la que se señala de manera
clara y precisa lo que significa un agregado ad hoc, es decir, un
argumento que se añade arbitrariamente a una teoría para que encaje con la
realidad.
Pero no sólo la anti tierra era una mera treta mística para que hubiera 10
astros (para lo cual, y con justicia, Aristóteles no veía ninguna razón
aceptable), sino que además la teoría adolecía de una seria y fatal dificultad
en relación con los eclipses: los eclipses totales de Luna visibles desde un
lugar dado son mucho más numerosos que los de Sol; los pitagóricos trataron de
explicar esto al sugerir que no sólo la Tierra sino también la anti tierra se
interponen entre la Luna y su fuente de luz, pero esto resultó una teoría
puramente cualitativa, vaga, y sin sustento matemático, en épocas en que ya se
podía exigir otra cosa.
El sistema de Filolao
Es muy común que se resalte el sistema de Filolao como el primero en
descentrar la Tierra y asignarle un movimiento (ya les conté que el propio
Copérnico lo hace notar), pero este descentramiento correspondía a razones
místicas y esotéricas y no a deducciones derivadas de la observación: la misma
introducción de la anti tierra responde más bien al fetichismo del número diez
que a una necesidad de la teoría y, en ese sentido, la crítica de Aristóteles
es pertinente. Además de que el sistema no explicaba las dificultades que les
señalé. De modo que después de todas estas proto cosmologías o pre cosmologías,
vamos a la primera cosmología en serio: la platónica, desarrollada
fundamentalmente por uno de los discípulos de Platón, Eudoxo. Pero antes veamos
qué lugar le daba el propio Platón a la astronomía en su sistema.
§. El mandato de Platón
La astronomía pitagórica no podía dejar de influir en Platón, de cuyas raíces
pitagóricas ya hemos hablado. En su diálogo La República, las
observaciones de Sócrates sobre la astronomía son particularmente provocativas
y muestran lo que era la astronomía para Platón. Glaucón le da las razones por
las cuales él cree que debe estudiarse astronomía:
[La astronomía es útil porque proporciona] la habilidad para determinar
las estaciones, los meses y los años; es útil no sólo a la agricultura y a la
navegación, sino también al arte militar.
A lo que Sócrates contesta, burlándose:
Me divierte comprobar cómo pareces temer que el vulgo crea que
recomiendas estudios inútiles.
Glaucón ensaya entonces otra línea de justificación:
En lugar de la trivial recomendación de la astronomía por la cual me has
censurado, la alabaré ahora según tu estilo, pues pienso que es evidente para
todos que su estudio por lo menos impulsa al alma a mirar a lo alto y la aparta
de las cosas de aquí a las cosas de allá.
La verdad es que no pude resistir la tentación de intervenir (Oscar
Wilde decía que podía resistir cualquier cosa menos la tentación):
Creo, Sócrates, que para ti el verdadero valor de la astronomía reside
en su capacidad para dirigir la atención del alma no hacia algún objeto visible
sino a objetos invisibles.
—En efecto —contesta Sócrates
—Pero entonces —dije— tú quieres renunciar a explicar los movimientos visibles
de los astros, ya que, supongo, pertenecen para ti al mundo del devenir.
—Es así como tú dices.
—Y deberás conformarte con círculos y esferas, que, ostensiblemente, no sirven
para explicar los movimientos del cielo
—Es como tú dices, volátil autor de estas páginas, pero recuerda que el
objetivo del conocimiento consiste en ver aquello que sólo es captable por el
intelecto, y que el primer paso son las matemáticas, y es por eso que deben
usarse combinaciones de círculos y esferas para salvar las apariencias de las
trayectorias erráticas. Sólo éstas servirán al verdadero objeto de la
astronomía. Pero noto algo extraño en ti, no sé si en tus vestiduras —tu túnica
parece recién tejida— o tu floja pronunciación
—Sugiero que nos permitas seguir —interrumpe Glaucón—. Verdaderamente,
pronuncias el griego como los bárbaros de Anatolia…
Pero el volátil autor de estas páginas, o sea yo mismo, querido lector,
ya no necesita permanecer en La República, puesto que ha obtenido
una clara exposición del valor que Platón daba a la astronomía. Y del método,
que no es por cierto la observación, sino encontrar las verdades matemáticas
que subyacen y que «salvan las apariencias». Platón exigía que todos los fenómenos
celestes se explicaran como combinaciones de círculos y esferas, que para él
constituían los síntomas de la perfección. Es lo que más adelante se conocería
como «el mandato de Platón». En realidad, Platón (y ya lo dijimos) pensaba que
las cosas de este mundo eran sólo una proyección, apenas apariencias de una
«realidad» más verdadera, subyacente y perfecta, que se resolvía con las
también perfectas formas de las matemáticas. Eso era lo verdadero: describir
los movimientos observables no importaba tanto.
El «mandato de Platón» no funcionó como una simple y amable sugerencia a tener
o no en cuenta: en los mil quinientos años que siguieron, nadie se atrevió a
desobedecer la orden imperativa de alguien tan grande, hasta que llegó Kepler.
Pero, por lo pronto, era necesario lograr que el imperativo platónico se
condijera un poco con lo que se observaba en el cielo (salvara las
apariencias). Y bueno, el que se encargó del asunto fue un astrónomo importante
de la Academia y alumno suyo, Eudoxo, quien construyó un sistema en el que
supuso que las esferas erráticas de los planetas eran combinaciones de esferas
concéntricas y con un único centro en la Tierra, esto es, esferas
homocéntricas.
§. Las esferas de Eudoxo
Eudoxo se imaginó que cada planeta estaba fijo a cuatro esferas con centro
común en la Tierra, inclinadas entre ellas y con movimientos diferentes. No los
voy a aburrir con los detalles (pongo el dibujo para que se den una idea, nada
más). Basta con señalar que la esfera más baja y la más alta daban cuenta del
movimiento diurno y anual, adosado a las estrellas fijas, y las del medio
hacían que el pobre planeta describiera una curva que Eudoxo llamó hipópede (perdonen
ustedes el nombre, pero fue idea de Eudoxo llamarla así) y que explicaba
pasablemente, con un poco de imaginación, las retrogradaciones de los planetas.
El sistema de Eudoxo
Piensen en el virtuosismo matemático necesario para calcular el
movimiento de 27 esferas más o menos independientes: 4 para cada uno de los
cinco planetas, 3 para la Luna, 3 para el Sol y la de las estrellas fijas. Lo
piense uno como lo piense, es una hazaña impresionante. Y además respetaba el
mandato del maestro.
Ya lo dije, fue toda una hazaña construir un sistema matemático de este tipo,
un siglo y medio después de los milesios y casi contemporáneamente con el
sistema puramente teórico, en el mal sentido de la palabra, de Filolao. Pero el
pequeño problemita era que no funcionaba; no resistía la prueba experimental,
por decirlo así. Había sido inventado para salvar las apariencias, pero la
verdad era que no las salvaba: por ejemplo, todas las hipópedes son
iguales, pero las retrogradaciones no; mientras que el sistema daba buenas
aproximaciones para Saturno y Júpiter, fallaba para Marte y Venus y,
finalmente, fracasaba al explicar el diámetro aparente de la Luna y su
variación.
Pero un rompecabezas no se abandona así porque sí, por lo menos sin hacer un
intento de ajustarlo: precisamente para ajustarlo y corregir esas anomalías,
Calipo, discípulo de Eudoxo, agregó a las 27 esferas de su maestro siete más,
que tampoco alcanzaron. El esquema, por ingenioso que fuera, así como estaba,
sencillamente no funcionaba.
Y entonces llegó Aristóteles, que puso sus manos en el asunto y que, fiel al
giro que había tomado frente a la metafísica de Platón, trató de darle
contenido mecánico a toda esta parafernalia teórica, ya que lo que le importaba
no era sólo salvar las apariencias sino explicar su funcionamiento físico, la
transmisión del movimiento entre una esfera y otra, desde la más externa de
todas hasta la más baja.
Aristóteles pensó que las esferas de un planeta, así como estaban, iban a tener
fatalmente influencias sobre las de todos los demás, y para corregir ese efecto
introdujo, entre planeta y planeta, «esferas compensadoras» que corregían el
efecto, con lo cual llevó el número nada menos que a 55. Ni voy a intentar
hacer un dibujo para no volverme loco (ni que ustedes se vuelvan locos tratando
de descifrarlo), pero imagínense el infierno de 55 esferas girando en el cielo.
No sabemos si para Eudoxo (fiel a Platón) esas esferas eran reales o simples
recursos geométricos para «salvar las apariencias»; lo importante es que para
Aristóteles sí eran reales y explicaban la transmisión del impulso del primer
motor hasta la esfera de la Luna.
Pero encima el sistema seguía fallando miserablemente a la hora de explicar las
diferencias de brillo de los planetas que, al cambiar de manera regular y
cíclica, eliminaban la posibilidad de ser el resultado de simples cambios
atmosféricos y que, por lo tanto, no podía sino implicar diferencias de
distancias a la Tierra (lo cual, obviamente, resultaba imposible si, como se
pensaba, estaban fijos a esferas con centro en la misma Tierra).
Lo cierto es que Aristóteles armó una esferocracia complejísima, pero se dio
cuenta de que su dibujo era un tanto complicado, en cierto modo increíble, e
insuficiente, y tomó algunos recaudos: aclaró que se expresaba como lego en
astronomía (para ser lego, no escatimó esferas, por cierto), aunque admitió que
debemos en parte investigar nosotros mismos y en parte aprender de otros
investigadores, y si aquellos que estudian este tema se forman una opinión
contraria a la que ahora hemos establecido, debemos seguir a la más exacta.
Lo cual muestra de paso que Aristóteles distaba de ser dogmático: los
que lo siguieron dogmáticamente fueron en realidad sus peores enemigos.
§. Una novedad interesante
Así pues, en el siglo IV a.C., apenas doscientos años después de Anaximandro y
sus desvaríos sobre los anillos de fuego y casi simultáneamente con Filolao, la
astronomía parecía en parte, sólo en parte y con todas las salvedades que
hicimos, haber alcanzado un cierto control sobre el problema de los cielos
mediante las esferas homocéntricas de Eudoxo y Calipo, respetando el mandato de
Platón de salvar las apariencias con círculos y esferas ideales. Que se
volvieron materiales al convertirse en las 55 de Aristóteles, que, además de
tener realidad física, construían un mundo de engranajes que desde el primer
motor inmóvil transmitían el eterno y perfecto movimiento circular hasta la
esfera de la Luna (con la ayudita, agreguemos, de un pequeño motorcito inmóvil
adosado a cada esfera).
¿Pero ustedes creen que por ventura estaba resuelto el enigma?
Nada de eso. Lo había dicho el propio Aristóteles: «era necesario seguir
investigando».
De todos modos, el sistema era impresionante, y el paso siguiente también lo
fue: en el siglo IV a.C., Heráclides Póntico propuso la rotación de la Tierra
sobre su propio eje, con lo cual disminuía la esferocracia
platónico-aristotélica, al ahorrarse el movimiento diurno de las estrellas
hacia el Oeste y de la misma componente diaria de los demás astros. Hay quienes
le atribuyen haber sugerido, además, que Mercurio y Venus giraban alrededor del
Sol, pero no hay evidencias firmes de tal cosa.
Era un giro un poco brusco, si quieren, demasiado repentino, pero no tanto.
Porque desde Alejandría, Aristarco de Samos dio un paso más audaz aún al
proponer un sistema puramente heliocéntrico: el Sol estaba inmóvil en el centro
de la esfera de las estrellas fijas, también inmóvil, mientras la Tierra
completaba una revolución alrededor de él en un año, y alrededor de su eje en
un día.
El heliocentrismo de Aristarco daba cuenta más o menos de los datos, pero el
movimiento de la Tierra resultaba completamente inverosímil. No se entendía
cómo pájaros y nubes no se quedaban atrás de nuestro planeta móvil.
Aristarco había calculado el volumen del Sol como trescientas veces el de la
Tierra y argumentado que era natural y razonable que se moviera un astro
pequeño como la Tierra y no uno inmenso como el Sol (cuyo tamaño había
subestimado cientos de veces). Todavía faltaban muchos siglos para que naciera
Guillermo de Ockham, navaja en mano.
Arquímedes, por su parte, aunque utilizó el sistema de Aristarco en su Arenario,
lo rechazó por no observarse paralaje estelar…. Paralaje estelar: éste es un
concepto bastante importante que será usado otras veces, por eso vamos a
reponer un diálogo no escrito nunca por Platón, donde vuelven a discutir
nuestros amigos Glaucón y Sócrates.
SÓCRATES: ¿Acaso ves ese fondo de árboles situado a medio estadio de
aquí?
GLAUCÓN: Lo veo, como tú dices, Sócrates.
SÓCRATÉS: Ahora, estira tu mano, y levanta tu dedo índice de tal forma que
quede paralelo a él.
GLAUCÓN: Haré lo que tú dices, Sócrates.
SÓCRATES: Y ahora cierra tu ojo derecho.
GLAUCÓN: Lo hago.
SÓCRATES: Ahora abre el ojo derecho y cierra el izquierdo. ¿Qué ves?
GLAUCÓN: ¡Que el dedo se ha movido!
SÓCRATES: Y, como comprenderás, no se movió. Lo que ha ocurrido es que el rayo
que sale de tu ojo derecho y alcanza al árbol, lo hace en un ángulo distinto
del que lo hace el que parte de tu ojo izquierdo, y por eso parece que se movió
respecto del fondo. [Nota del traductor: aquí Sócrates usa, como es obvio, la
teoría entonces corriente de la visión, que postulaba que del ojo salían rayos
que apresaban los objetos.] Mira, haré un dibujo.
GLAUCÓN: ¡Pero Sócrates, tú no dibujas!
SÓCRATES: No te preocupes, es un diálogo falso. Mira la imagen que está en la
página. Si miramos las estrellas desde los dos extremos de la órbita de la
Tierra, debería observarse paralaje. Pero no se observa. Es por eso que
Arquímedes rechazará, llegado el momento, el sistema de Aristarco.
La paralaje
Aristarco, en su momento, contestó al argumento sobre la falta de
paralaje como lo haría Copérnico dieciocho siglos más tarde, diciendo que se
debía a la gran distancia a la que se hallaban las estrellas, aunque este
argumento fue desestimado por Arquímedes. Además, su contemporáneo Cleantes lo
acusó de blasfemo, pues al meter en el cielo la imperfecta Tierra, cuestionaba
la divinidad de aquél.
Aristarco, sin embargo, aplicó datos de mediciones a los esquemas geométricos
para estimar los tamaños y distancias del Sol y la Luna (cálculos que hasta el
momento eran puras fantasías) y con un método ingenioso (que, por cierto,
exigía una medición de ángulos que no estaba en condiciones de realizar sin que
se deslizaran grandes errores), calculó que el radio del Sol era siete veces el
de la Tierra, que a su vez era tres veces el de la Luna. Al mismo tiempo, el
Sol estaba 19 veces más lejos que la Luna. Éstos eran errores de medición, no
fetichismo numérico como el de Filolao o de Anaximandro, o la estimación fantástica
y sin ningún argumento de Anaxágoras de que el Sol era una piedra del tamaño
del Peloponeso.
Lo cierto es que la teoría de Aristarco lamentablemente no prosperó y solamente
el astrónomo babilónico Seleuco siguió enseñándola en el siglo II.
El problema seguía sin estar resuelto.
§. Hiparco y la astronomía observacional: el cielo como herencia
El hecho de que el sistema de esferas homocéntricas no funcionara no detuvo el
desarrollo de la astronomía. Mientras los teóricos trataban de emparchar el
mecanismo para salvar sus fallas, sin prestar demasiada atención a los
problemas físicos (al fin y al cabo Platón sólo pretendía «salvar las
apariencias», ¿no?) enredándose más y más en la esferocracia, los astrónomos
observacionales no se la pasaban llorando, arrastrándose en el barro del Nilo o
arrojándose al pozo de Tales, sino que aplicaban la geometría a la medición de
la Tierra y el cosmos, desarrollando instrumentos y mejorando las
observaciones.
Así, en Alejandría, alumbraba uno de los más grandes astrónomos griegos:
Hiparco de Nicea (190-120 a.C.), quien se dedicó a tareas terrenales, si
terrenales se pueden llamar los asuntos del cielo, y aplicaba la geometría y
los datos disponibles a la descripción del cosmos. Fue el primer astrónomo
griego que unió las observaciones propias con las de la astronomía
mesopotámica, accesibles desde la conquista de Alejandro. Por ejemplo, utilizó
observaciones del eclipse de Luna de 189 a.C. para medir la distancia entre
ésta y la Tierra: en Grecia el eclipse había sido total, mientras que en
Alejandría sólo de cuatro quintos; la diferencia sólo podía atribuirse a la
paralaje, y así dedujo que la distancia a la Luna mediaba entre 71 y 83 radios
terrestres (con las medidas actuales, unos 460 mil kilómetros) cuando en
realidad son 60, unos 380 mil kilómetros.
También, y para determinar con exactitud la duración del año, observó
cuidadosamente los solsticios y los equinoccios y encontró — ¡oh sorpresa!— que
los equinoccios variaban ligeramente (unos pocos segundos de arco por año). Fue
lo que más tarde se conoció como precesión de los equinoccios y que recién
Newton explicó acabadamente. Lo cuento para mostrarles la agudeza de sus
observaciones.
Realizó un catálogo de 850 estrellas (otros dicen mil, pero por ciento
cincuenta estrellas más o menos no nos vamos a arrancar los cabellos),
indicando latitud y longitud respecto de la eclíptica, y su orden de magnitud,
que mide el brillo.
Cuenta Plinio:
Hiparco, que nunca será lo suficientemente elogiado —ya que ninguno
mejor que él ha demostrado que el hombre posee afinidad con los astros y que
nuestras almas forman parte del cielo— descubrió una nueva estrella, diferente,
y que nació en su época (se refiere a la nova de 123 a.C. —algo parecido a lo
que casi dos milenios después llevaría a Tycho Brahe a dedicarse a la
astronomía—). Al comprobar que se desplazaba el lugar en que brillaba, se
planteó el problema acerca de si esto no sucedía con mayor frecuencia, y si las
estrellas que consideramos fijas no se moverían también. Por consiguiente, osó
lanzarse a una empresa que resultaría ímproba hasta para un dios: contar las
estrellas para la posteridad y catalogar a los astros mediante instrumentos
inventados por él, a través de los cuales podía indicar sus posiciones y
tamaños, de modo que desde aquí se pudiese reconocer no sólo si las estrellas
nacían o morían, sino también si alguna se desplazaba o se movía, si crecía o
empequeñecía. Así, dejó el cielo como herencia a todos los hombres, en el caso
de que se hallase un hombre que estuviese en condiciones de recoger tal legado.
Pero sus observaciones no le impidieron trabajar también sobre los
modelos teóricos (no olvidemos el polimorfismo del sabio alejandrino): constató
lo inadecuado de las esferas homocéntricas, y aplicó una innovación que, recién
inventada, iba a llevar a la solución del rompecabezas (bueno, no exactamente a
«la» solución, pero casi). Además, definió las constelaciones clásicas, que son
las que hoy usamos.
Las constelaciones
§. Un viejo amigo aporta una idea innovadora
Un gran innovador en este asunto del lento avance hacia un modelo pasable de
los cielos que diera cuenta de todos los problemas (fundamentalmente, la
diferente velocidad con que el Sol y los planetas recorrían el zodíaco a lo
largo del año y el movimiento retrógrado de los planetas), fue Apolonio de
Pérgamo, con quien nos hemos encontrado ya cuando les presenté a las cónicas
(la elipse, la hipérbola y la parábola como secciones de un cono). Este buen
señor tuvo la excelente idea de descentrar las esferas homocéntricas y hacerlas
girar no alrededor de la Tierra sino de un punto ficticio, convirtiéndolas así
en excéntricas. De esta manera, se solucionaba el problema de las diferentes
velocidades, ya que, desde la Tierra, se vería a los astros moverse con
diferente velocidad (y la demostración cabal la hizo nuestro amigo Hiparco
calculando una excéntrica para el Sol). La teoría realmente era bienvenida,
porque aunque no tenía soporte físico o mecánico (giraban alrededor de un punto
en el que no había nada), cosa que hubiera disgustado a Aristóteles, salvaban
las apariencias respecto del cambio de velocidad, cosa que hubiera encantado a
Platón.
Su segunda gran idea fue el epiciclo.
Ahora el planeta se mueve no sobre la esfera homocéntrica o excéntrica, sino en
un circulito (el epiciclo) cuyo centro (donde no hay nada) se mueve a su vez
sobre la excéntrica.
El sistema de Apolonio, con los epiciclos
La curva resultante describe una figura que aproxima muy bien las
retrogradaciones.
El intento era prometedor, muy prometedor: combinando epiciclo y excéntrica, se
podían salvar las apariencias mucho mejor que con las esferas homocéntricas de
Eudoxo-Calipo-Aristóteles. Platón triunfaba, y el que logró armar el sistema
completo fue Claudio Tolomeo (siglo II d.C.), en el momento de mayor esplendor
del imperio romano.
§. Tolomeo resuelve el problema y marca el final de la ciencia griega
Claudio Tolomeo, el alejandrino, llevó esa ciencia a su más alto grado,
de manera que durante cuatrocientos años parecía no faltar
nada que él no hubiera abordado.
COPÉRNICO
Con las excéntricas y los epiciclos, el problema astronómico estaba
prácticamente resuelto: hacía falta armarlo y ajustarlo tanto como fuera
necesario, y en eso consistió el gran sistema tolemaico, que marca la
culminación de la astronomía griega.
De la vida de Claudio Tolomeo (c. 85 d.C.-c. 165 d.C.) se sabe poco, salvo que
trabajó en la famosa Biblioteca de Alejandría, donde se dedicó a estudiar
geografía, matemáticas y, claro está, astronomía.
El libro en que dio su descripción del mundo, que llamó Sintaxis
matemática, pero que quedó inmortalizado con el nombre árabe de Al-Majisti («El
más grande») y latinizado como Almagesto, resolvía los dos
problemas principales de la astronomía planetaria de una manera original. En
primer lugar, el del movimiento retrógrado o en zigzag. Tomando el invento de
Apolonio de Pérgamo, y siguiendo a Hiparco, supuso que los planetas se movían
alrededor de la Tierra adosados a pequeñas esferas llamadas epiciclos, que a su
vez tenían su centro sobre las esferas principales (deferentes) excéntricas. Al
moverse esas dos esferas al mismo tiempo, se explicaba por qué se observaba que
el planeta retrocedía, cuando en realidad sólo estaba completando el círculo de
la esfera más pequeña.
Así, la combinación de epiciclo y deferente conseguía explicar el movimiento
retrógrado de los planetas en el cielo, con sus avances y retrocesos.
Ajustando adecuadamente el tamaño de los epiciclos o, si hacía falta, agregando
epiciclos secundarios (epiciclos que se movían sobre los epiciclos, o epicicletos),
Tolomeo daba buena cuenta de las observaciones mucho mejor que el sistema de
las esferas homocéntricas, que, sin embargo, se siguió enseñando en paralelo.
La segunda cuestión a resolver, como ya les conté, era el cambio de brillo de
los planetas (y por lo tanto de distancia a la Tierra) y el hecho de que se los
viera moverse con velocidades diferentes, algo que no debía ocurrir si las
esferas principales tenían su centro en la Tierra, como en el sistema de
Aristóteles. La verdad es que a Tolomeo no le tembló la mano, y utilizó las
excéntricas de Apolonio e Hiparco: cambió el centro de las esferas. Inventó un
punto llamado «ecuante»: los planetas de su sistema no tenían como centro
geométrico de sus órbitas perfectamente circulares a la Tierra sino al ecuante,
un punto fuera de la Tierra (donde no había nada) y giraban en torno de él con
velocidad uniforme. El problema es que se necesitaba un ecuante distinto para
cada planeta…
Así y todo, el sistema tolemaico resolvía los problemas astronómicos y respetaba
el mandato de Platón de usar sólo círculos y esferas, aunque a costa de
hundirse en una complejidad sin fin que acumulaba más y más ruedas según fuera
necesario. Alfonso X, el Sabio (1221-1284), rey de Castilla y León en el siglo
XIII, se lamentaba de que Dios no lo hubiera consultado al crear el mundo, ya
que, en ese caso, «le habría sugerido una solución más fácil».
¿Creía Tolomeo que ese infernal y genial mecanismo de las esferas se movía
realmente y sobre todo materialmente en el cielo? Es difícil saberlo. Tal vez
pensaba que su sistema era una mera construcción matemática apta para predecir
los movimientos celestes y no se preocupaba demasiado por el problema del
realismo, del mismo modo que un arquitecto no confunde las rayas y cifras que
aparecen en la pantalla de su computadora con el edificio real. Pero también es
posible que sí creyera firmemente en la materialidad de las esferas
cristalinas. En todo caso, en la Edad Media se creía generalmente en ellas,
como testimonian los debates sobre la dificultad que pudo tener o no Cristo
para atravesarlas «en cuerpo y alma» durante su ascenso al cielo.
Sea como fuere, lo cierto es que Tolomeo había resuelto finalmente el
rompecabezas, y como decía Plinio sobre Hiparco, dejaba el cielo como herencia
para todos los hombres. Una herencia que no se tocó durante trece siglos.
Parte II
Luces y sombras de la Edad Media y el Renacimiento
Contenido:
8. Plantas,
animales y lugares que nunca existieron
9. En la
taberna
10. Magos,
brujas, humanistas e ingenieros: de la Edad Media al Renacimiento
11. Un
sinuoso camino hacia la Revolución Científica
12. El
problema del movimiento
Capítulo 8
Plantas, animales y lugares que nunca existieron
Roma, que no ha sido en este relato más que una sombra, se había
desarrollado a partir de una minúscula ciudad etrusca en el siglo VII a.C.
hasta convertirse, a partir del siglo I a.C. y culminando en los siglos I y II
de nuestra era, en un gigantesco imperio que, gracias a una agresiva y
organizada política de conquistas, dominó prácticamente todo lo que hoy
conocemos como «Europa occidental», incluida, por supuesto, la mismísima
Grecia. Pero si los romanos se ocuparon, con todo éxito, de conquistar el territorio,
de lo cual no cabe duda, la cultura griega, silenciosamente, «conquistó» la
romana. Así, Horacio, el gran poeta romano del siglo I a.C., se atrevía a
asegurar: «la cautiva Grecia cautivó a su vencedor e introdujo las artes en el
rústico Lacio». Pensar, para los pocos ilustrados romanos que había, era pensar
en griego, como bien lo muestra Marguerite de Yourcenar en Memorias de
Adriano, esa extraordinaria autobiografía apócrifa del tercero de los
«emperadores buenos» (como los llamaba Gibbon siguiendo a Maquiavelo):
El griego tiene tras de él tesoros de experiencia, la del hombre y la
del Estado. De los tiranos jonios a los demagogos de Atenas, de la pura
austeridad de un Agesilao o los excesos de un Dionisio o de un Demetrio, de la
traición de Dimarates a la fidelidad de Filopemen, todo lo que cada uno de
nosotros puede intentar para perder a sus semejantes o para servirlos, ha sido
hecho ya alguna vez por un griego. Y lo mismo ocurre con nuestras elecciones
personales: del cinismo al idealismo, del escepticismo de Pirrón a los sueños
sagrados de Pitágoras, nuestras negativas o nuestros asentimientos ya han
tenido lugar; nuestros vicios y virtudes cuentan con modelos griegos. Nada
iguala la belleza de una inscripción votiva o funeraria latina; esas pocas
palabras grabadas en la piedra resumen con majestad impersonal todo lo que el
mundo necesita saber de nosotros. Yo he administrado el imperio en latín; mi
epitafio será inscrito en latín sobre los muros de mi mausoleo a orillas del
Tíber; pero he pensado y he vivido en griego.
Así y todo, la mentalidad romana fue poco afecta a lo que,
anacrónicamente, podríamos llamar «ciencias naturales» o, más acorde a la
época, estudios de la physis. Mucho más interesada por cuestiones
éticas, políticas, retóricas y religiosas, la ciencia griega con la que se
manejó fue, por lo general, de carácter divulgativo y carente del rigor
aristotélico o tolemaico.
De modo que si la relevancia política del Imperio Romano es insoslayable para
la historia occidental, su importancia para una historia de las ideas
científicas es más bien lateral. Más allá de la tarea divulgativa y
enciclopedista que llevaron a cabo, no se movió demasiado el formidable carro
que habían puesto en marcha los griegos.
Y para colmo hacia el siglo III, y ya pasada largamente la época de esplendor
de la dinastía de los Antoninos (Nerva, Trajano, Adriano, Antonino Pío, Marco
Aurelio y el monstruoso Cómodo), empezó a dar signos de agotamiento histórico y
fue víctima de una crisis interna plagada de guerras civiles, de efímeros
emperadores, y hasta de escenas grotescas, como cuando la guardia pretoriana
remató el trono del Imperio al mejor postor en 193 d.C. Todo este caos duró
hasta que Diocleciano, que asumió como emperador en 284, consiguió rehacer la
unidad política y, mediante severísimas medidas sociales y económicas (que
implicaban atar a los campesinos a la tierra, a los artesanos a sus
corporaciones con prohibición de cambiar de oficio, devaluación constante de la
moneda —en aquellos tiempos se devaluaba simplemente disminuyendo la cantidad
de metal precioso que la moneda proclamaba en su acuñación… era un simple
«ajuste»—), lo puso nuevamente en pie, no sin antes desatar una feroz
persecución contra los cristianos.
Pero el Imperio estaba herido de muerte: en 410, las tropas imperiales, ante el
empuje de los sajones, debieron abandonar Inglaterra, que estaba protegida aún
por la muralla construida por el emperador Adriano, y que no sólo dejó
desguarnecido por siglos el sur de la isla, sino que dio pie a un bellísimo
cuento de Stephen Vincent Benét, el autor de «El diablo y Daniel Webster»,
«La última de las legiones». En él, se presenta un diálogo entre un
romano y un griego, que pertenecen precisamente, a la última legión que
abandona Inglaterra; mientras el romano tiene una actitud triunfalista estilo
«ya volveremos», el griego lo mira con comprensión y le dice: «Nosotros los
griegos sabemos lo que significa decaer».
Digresiones aparte (les recomiendo, no obstante, que lean ese cuento si es que
logran encontrarlo), el Imperio se retrae. Al mismo tiempo, el crecimiento de
una secta judía —el cristianismo— adquiere cada vez más poder. En 313, mediante
el Edicto de Milán, el emperador Constantino proclama la libertad de cultos en
todo el Imperio; en 380, Teodosio I proclama al cristianismo como religión de
Estado y en 395, a su muerte, divide de manera definitiva el imperio entre sus
dos hijos, dejando, por un lado, el Imperio de Occidente, con capital en Roma,
y el de Oriente, con capital en Constantinopla; en 407 se proclama delito la
herejía y en 472, el paganismo, y empiezan las persecuciones y las quemas de
templos (algo de eso habíamos visto en relación a la Biblioteca de Alejandría y
la muerte de Hypatia).
En 406 se fuerza la frontera del Rin, el orgulloso Limes, la línea Rin-Danubio,
límite del Imperio durante siglos; en 410, Roma es saqueada; los pueblos
bárbaros penetran en el Imperio y se establecen (con el consentimiento de los
débiles emperadores de turno), en España, en la Galia, en la misma Italia,
donde forman reinos autónomos «asociados», hasta que en 476 Odoacro, rey de los
ostrogodos, termina con la farsa: entra en Ravena, donde a la sazón estaba la
capital del imperio, derroca al último emperador, Rómulo Augústulo (que había
sido agraciado con el título a la avanzada edad de 14 años) y envía las
insignias imperiales a Bizancio, dando por terminado el Imperio de Occidente.
Es una curiosa coincidencia que el último emperador haya llevado el nombre del
fundador de Roma y su primer rey y el del primer emperador, Augusto.
¿Qué esperamos agrupados en el foro?
Hoy llegan los bárbaros.
¿Por qué inactivo está el Senado e inmóviles los senadores no legislan?
Porque hoy llegan los bárbaros.
¿Qué leyes votarán los senadores?
Cuando los bárbaros lleguen darán la ley.
¿Por qué nuestro emperador dejó su lecho al alba,
y en la puerta mayor espera ahora sentado
en su alto trono, coronado y solemne?
Porque hoy llegan los bárbaros.
Nuestro emperador aguarda para recibir a su jefe.
Al que hará entrega de un largo pergamino.
En él escritas hay muchas dignidades y títulos.
¿Por qué nuestros dos cónsules y los pretores visten
sus rojas togas, de finos brocados;
y lucen brazaletes de amatistas,
y refulgentes anillos de esmeraldas espléndidas?
¿Por qué ostentan bastones maravillosamente cincelados
en oro y plata, signos de su poder?
Porque hoy llegan los bárbaros;
y todas esas cosas deslumbran a los bárbaros.
¿Por qué no acuden como siempre nuestros ilustres oradores
a brindarnos el chorro feliz de su elocuencia?
Porque hoy llegan los bárbaros
que odian la retórica y los largos discursos.
¿Por qué de pronto esa inquietud
y movimiento? (Cuánta gravedad en los rostros.)
¿Por qué vacía la multitud calles y plazas,
y sombría regresa a sus moradas?
Porque la noche cae y no llegan los bárbaros.
Y gente venida desde la frontera
afirma que ya no hay bárbaros.
¿Y qué será ahora de nosotros sin bárbaros?
Quizás ellos fueran una solución después de todo.
KONSTANTINO KAVAFIS
§. El ocaso del Imperio
Y así fue como terminó el Imperio de Occidente, esa fabulosa construcción
política que dominó el Mediterráneo durante cinco siglos. Europa fue
retrocediendo hacia un mundo rural (en especial al norte), los acueductos y las
grandes obras de infraestructura romana fueron abandonados, así como los
caminos y vías de comunicación, y la economía fue decayendo hacia la
subsistencia, que caracterizaría los primeros siglos medievales, situación que
duraría más o menos hasta el siglo XI. Los pueblos de la Europa desestructurada
(y casi completamente iletrada) que siguió habrían de evocar al Imperio como
una época de oro, perdida y quizás irrecuperable.
Naturalmente, los europeos de la Edad Media no sabían que eran medievales, pero
la idea que tiene de sí mismo el intelectual de los primeros siglos de la era
cristiana es la de un mundo que había retrocedido a la barbarie desde una alta
colina dorada. Las épocas que siguieron inmediatamente a la caída del Imperio
Romano estuvieron marcadas por el miedo, el aislamiento y las constantes
invasiones bárbaras. En lo que hace a la ciencia, sólo se puede rescatar un
cierto «enciclopedismo» que intentaba cristalizar el saber para preservarlo y
que consistió principalmente en la copia de manuscritos. La problemática
«intelectual» se limitó a encontrar la forma de rescatar el conocimiento pasado
que se estaba dispersando y en congeniarlo con las enseñanzas divinas de la
nueva religión, que distaba aún de abarcar a toda Europa.
Suele suceder. Pero de todos modos, las instituciones tardan en morir, y las
culturas, aun en medio de acontecimientos tormentosos como los que les acabo de
contar, tienen una enorme inercia. Estoy seguro (aunque no me consta) de que
hasta muy tarde se conservaron las luchas de gladiadores, por poner una de las
más repulsivas costumbres romanas. Así y todo, todavía, en las ciudades ricas
del Mediterráneo o las ciudades griegas con fuerte tradición, hubo chispazos,
pequeñas bengalas que iluminaron (un poco, malamente) esa larga noche que se
avecinaría por cinco o seis siglos.
§. La nueva religión
A pesar de las persecuciones de las que fueron víctimas los cultores del
cristianismo en los primeros siglos del milenio, buena parte de los pensadores
más educados se sumaron paulatinamente al nuevo credo y dedicaron su tiempo a
abstrusas cuestiones religiosas que poco a poco construyeron el dogma cristiano
(y la forma occidental de abordar el mundo, se podría arriesgar). Por eso, la
primera etapa de esta forzada coexistencia entre ciencia y religión comienza
antes de la Edad Media (¿recuerda el paciente lector a Tales separando ciencia
y religión?). Las discusiones que preocupaban a los intelectuales y sabios de
la época pueden parecer algo extrañas a los ojos actuales: los debates sobre la
naturaleza de Cristo, el origen del mal, si el hombre tiene capacidad de
decisión o está dirigido por Dios, si el mal es parte de la obra de Dios o si
es su contraparte, si Dios es uno o trino, o dual, o solamente trino…, en fin,
todas estas cuestiones, motivo de las más acaloradas discusiones, fueron la
piedra fundacional sobre la que se fue construyendo, en un lento proceso, la
ortodoxia cristiana.
En el camino, la observación de la naturaleza fue relegada a un segundo plano y
puesta en función de las reflexiones teológicas: los Padres de la Iglesia, como
Clemente de Alejandría, Orígenes o Lactancio (que pensaba que la Tierra era
plana, ya que si no en las antípodas el trigo crecería cabeza abajo), eran poco
más que fundamentalistas anti paganos o ignorantes.
El resultado de todo esto fue, como se pueden imaginar, un abandono del interés
por el mundo y la ciencia positiva en general. Al mismo tiempo, buena parte de
las obras antiguas, y en especial las de Platón y Aristóteles, dejaron de
circular por Occidente y se refugiaron en bibliotecas e instituciones
orientales. El «discurso de las cosas» se transformó en el discurso de la
salvación, de la elevación hacia Dios por medio de la Fe (del mismo modo que en
Platón había un impulso del Eros para elevarse al mundo de las Ideas). Había un
problema fundamental que «legitimaba» tal abandono: la verdad es que las cosas
callan, interrumpen un discurso que, como es natural, y del mismo modo que el
latín se fragmentó en lenguas romances, se disuelve en dialectos locales: el
hombre de la Edad Media temprana sólo escucha a las plantas de su jardín y de
vez en cuando relatos de viajeros que cuentan cosas exóticas.
No nos detendremos en las argucias teológicas, aunque sí en la figura de San
Agustín (354-430), que fue el puente a través del cual pasaron las principales
tradiciones de la Antigüedad grecolatina a la Europa cristiana medieval.
Hijo de una ferviente cristiana, Agustín se mostraba brillante desde joven, lo
cual llevó a su familia a utilizar sus escasos fondos para asegurarle una
educación acorde a sus capacidades. En un comienzo rechazó la devoción
cristiana de su madre y consideró que la filosofía era el camino que debía
seguir… Pero no deambulemos detrás de sus idas y venidas por el maniqueísmo, el
gnosticismo y otros «ismos»: vamos directamente a su adhesión final al
cristianismo, que le permitió ser obispo de Hipona hasta su muerte y producir
el grueso de su pensamiento teológico, del cual se destacan sus Confesiones,
escritas a los 45 años, y La Ciudad de Dios.
Su concepción del conocimiento tiene una clarísima raigambre platónica. Según
él, hay dos tipos de verdades absolutas que están en el interior del hombre:
por un lado, las verdades matemático-lógicas y morales y, por el otro, la
conciencia de la existencia propia. Lo absoluto de estas verdades nos lleva a
la existencia de Dios, al que encuentra fácilmente identificable con el
Demiurgo de Platón. Desde ya, Agustín considera que la fe está por encima de la
razón. Cuando la razón no alcanza hay que apelar a la fe. El mal es amor de sí,
y el bien es el amor de Dios (aquí, obvia referencia platónica; recordemos que
la Idea Suprema era la del Bien); el conjunto de los hombres que viven para el
verdadero Bien, para Dios, constituyen la ciudad celeste o de Dios; por otra
parte, la ciudad terrena es la de aquellos que viven para el hombre, y el
origen de esta división está en Caín y Abel, y aunque parezca que en este mundo
el «ciudadano terreno» está condenado, mientras que el que habita la Ciudad de
Dios tiene garantizada la salvación.
Agustín sostiene que la verdad es externa a los hombres y, como pretende
encontrar alguna base para el conocimiento, recurre a las ideas eternas de
Platón… lo cual lo lleva a un comprensible desinterés por los fenómenos
físicos, que pesará durante todos los siglos medievales hasta la reaparición de
Aristóteles a partir del siglo XI. La naturaleza queda así vacía de interés. La
razón misma no es la que fija que tal o cual cosa sea, sino más bien lo que
ocurre es que la razón misma se encuentra sometida a leyes más profundas que la
determinan y que tienen que ver con el verbo divino, Cristo, quien ilumina la
conciencia y establece que una verdad sea absoluta.
Al llegar la muerte de San Agustín en el año 430, el Imperio Romano de
Occidente entraba, como vimos, en su fase terminal. Aunque hubo quienes lo
consideraron algo extravagante, sus ideas fueron la espina dorsal del
pensamiento cristiano, al menos hasta la irrupción de Santo Tomás de Aquino y
su nueva síntesis.
Después de tanta religión y sutilezas del dogma, que poco hicieron por mantener
viva la llama de la perdida cultura grecorromana, vuelvo a mi pantalla, y
pienso en el último gran intelectual romano, que de alguna manera fue como una
bisagra entre los viejos tiempos ya muertos y los nuevos y desconocidos por venir:
Boecio (480-524).
Así como San Agustín no me inspira ninguna simpatía, me gusta Boecio. Latino,
funcionario del rey ostrogodo Teodorico, Boecio era probablemente consciente
del gran cambio cultural que sobrevenía sobre Europa. Último de los
intelectuales bilingües con acceso a las fuentes griegas, tradujo al latín y
comentó corpus de obras de lógica, De Materia medica de
Dioscórides, y algunas pocas obras de Aristóteles, que fueron la fuente
principal para el estudio de la lógica y las matemáticas hasta el siglo XII, y
expuso también elementos de aritmética, geometría, música y astronomía
(el quadrivium), conservando así algo de Euclides y Ptolomeo.
Mejoró las artes liberales del trivium (gramática, retórica y
lógica), que fueron, junto con el quadrivium, los puntales de la
enseñanza medieval.
Como muchos intelectuales a lo largo de la historia, Boecio sufrió el triste
destino de morir asesinado. Fue acusado de complot contra Teodorico, torturado
y, luego de un año de cárcel, ejecutado. Pero ese año le alcanzó para
escribir De consolatione philosophiae (La consolación por
la filosofía), un diálogo ficticio en el que un personaje, Filosofía, le
explica a Boecio muchos de los problemas del mundo; entre otras cosas, le dice
que la felicidad se encuentra en nuestro interior, dentro de uno mismo, y que,
por lo tanto, se puede ser feliz aún en la cárcel: aquí vemos pensamiento
cristiano, pero en el que aún sobreviven elementos del pensamiento griego
socrático. Se puede pensar que Filosofía le dice a Boecio que él es aún un
ciudadano de la polis o del Imperio; Agustín le habría
aconsejado que se afiliara a la ciudad de Dios (que no es una polis,
por cierto).
La filiación de Boecio con el pensamiento griego es evidente en toda la obra.
Me interesa de todos modos que se vea esto en las teorías del conocimiento de
ambos autores. Como venimos viendo desde que empezamos con esta aventurada
empresa de resumir la historia de la ciencia occidental, toda investigación,
explícita o implícitamente, viene acompañada de una concepción filosófica
bastante precisa que indica para dónde se puede seguir avanzando. Creo que una
de las ideas que organiza este difícil recorrido es precisamente ésa: toda
ciencia tiene, necesariamente, una filosofía que la sostiene, lo admita o no. Escuchemos
a Boecio:
Si buscando el hombre la verdad desde el fondo de su corazón no quiere
desviarse del camino, debe volver sobre sí mismo los ojos de su mente y
replegar su propio espíritu con amplio movimiento, a fin de comprender que todo
lo que penosamente busca en el exterior se halla encerrado en los tesoros de su
alma. No tardará en ver más claro que la luz del sol aquello que parecía oculto
entre las nieblas del error. Pues de la inteligencia no ha desaparecido
totalmente la luz por haber aportado el cuerpo su pesada masa, propicia al
olvido; queda, sin ningún género de duda, en el fondo de nosotros mismos, una
semilla de verdad, que brota de nuevo al cálido soplo de la investigación y la
doctrina. ¿Por qué, si no, respondéis con exactitud al ser preguntados? Es que en
el fondo de vuestras almas permanece latente el fuego de la verdad. Si la Musa
de Platón dice verdad, lo que aprendemos no es otra cosa que una serie de
conocimientos olvidados, que de nuevo hacemos presentes a la memoria.
Es la famosa teoría de la reminiscencia platónica, que vuelve revestida
de pensamiento cristiano.
Dos o tres siglos después de la muerte de Boecio, distintos religiosos vieron
en él una figura de mártir, lo que le valió un lugar especial dentro del
cristianismo y mayor repercusión de sus obras, especialmente una dedicada a la
Trinidad.
Luego, la cultura de la época no dejó prácticamente rastros de interés. Aunque
mientras tanto, en el monasterio de Vivarum, en el sur de Italia, Casiodoro
empezaba a reunir manuscritos que pacientes monjes copiaban (probablemente sin
entender una palabra) en los scriptoria. Éste habría de ser uno de
los mecanismos por los cuales se salvaría parte del saber antiguo.
Una buena muestra de la decadencia del conocimiento en Occidente es el brillo
inusitado de que gozó Isidoro de Sevilla (556-636), que en sus Etimologías,
mayormente fantasiosas, hacía un repaso de tipo fantástico sobre el saber
antiguo: a la astronomía le dedicaba apenas cinco páginas, con nociones
elementales, y sin prestarle la menor atención a Tolomeo, del cual no sabía (o
no entendía) nada. Creía que la Tierra tenía forma de rueda y estaba rodeada
por los océanos. Alrededor de la Tierra se movían las esferas que arrastraban a
los planetas y las estrellas, y arriba estaba el cielo de los bienaventurados.
§. Herbarios y bestiarios
La verdad, la naturaleza de todas las cosas en este mundo, es decir, las
materias que conciernen nuestra vida cotidiana, están aquí descifradas y
declaradas.
PLINIO, Prefacio de la Historia natural
El estudio de la naturaleza en la Edad Media, como venimos viendo,
estuvo no sólo muy limitado sino siempre sometido a discusiones de índole
metafísica y teológica. Si se indagaba sobre la naturaleza, de manera tímida,
era para buscar excusas para hablar de las verdades religiosas y morales. Se
trataba de una visión del mundo como teofanía: los autores no trataban de
resolver el problema de la clasificación, sino el de la manifestación; nadie
pretendía que el estudio de la naturaleza condujera a hipótesis y
generalizaciones científicas, sino que proporcionara símbolos vivientes de las
realidades morales. La luna era la imagen de la Iglesia que reflejaba la luz
divina; el viento, una imagen del espíritu; el zafiro tenía semejanza con la
contemplación divina, y el número once, que «transgredía» el diez
—representante de los mandamientos— era imagen del pecado.
La preocupación por los símbolos se manifiesta claramente en los herbarios y
bestiarios que, naturalmente, tenían un origen anterior a esta época. Esopo (c.
620-c. 560 a.C.) fue uno de los precursores del interés por la naturaleza
animal; son numerosos los escritos que llegaron a nuestros días y que repiten
historias narradas oralmente por este fabulista griego. Pero si restringimos un
poco más la definición de bestiarios como intentos de relevamiento de lo que se
encuentra en la naturaleza, debemos señalar como uno de los precursores a Gaius
Plinius Secundus, llamado Plinio el Viejo (23 d.C-79 d.C.) en tiempos del
Imperio.
Este hombre nacido en Como, Italia, murió a los 56 años, con un curriculum
vitae (nunca mejor aplicada esta expresión latina) envidiable: fue
autor al menos de 75 libros. Sin embargo, su obra más recordada es la
enorme Historia Natural de 37 tomos, completada dos años antes
de su muerte. En ella se mezclaban lo real y lo fantástico: junto a algunas
observaciones verdaderamente agudas, se describía a hombres con cabeza de perro
que se comunicaban por medio de ladridos y otros sin ninguna cabeza pero con
ojos en los hombros, víboras que se lanzaban hacia el cielo para atrapar aves,
la «serpiente basilisco» de África, que mataba a los arbustos con sólo
tocarlos, rocas que respiraban…
Plinio intentó sistematizar en esta obra todos los materiales dispersos y
antiguos que pertenecían a la cultura encíclica (enkyklios paideia, en
griego, origen del término «enciclopedia»). Hay al menos dos rasgos notables en
su trabajo: su estilo simple y directo y la constante referencia a sus fuentes.
En el libro II, por ejemplo, sistematiza los conocimientos referidos a la
cosmología y la astronomía; el III y IV están referidos a la geografía
histórica y física del mundo antiguo; en los libros XII hasta el XIX, dedicados
a la botánica, fue donde Plinio más se acercó a hacer una contribución real a
la ciencia, ya que se tomó el inusual trabajo de observar de manera directa.
Esta obra marcó para bien y para mal a las similares que vendrían en los años
siguientes.
A decir verdad, los herbarios brindaban una escasa idea acerca de la
distribución geográfica de las plantas. Muchos de los autores intentaban
identificar en su propio jardín las plantas mencionadas por el Herbarium del
«seudo Apuleyo» (de quien sólo se sabe que probablemente en el año 400 a.C.
armó un compendio con un montón de recetas medicinales de origen griego), o por
el otro manual conocido, que era el de Dioscórides (40 d.C.-c. 90 d.C.), un
médico y farmacólogo griego de los tiempos de Nerón, cuyo trabajo De
materia medica, constituido por cinco tomos terminados cerca del año 77,
contaba con excelentes descripciones de aproximadamente 600 plantas. Este
trabajo, gracias a su vastedad, se transformó en la fuente de terminología
botánica moderna y en el texto farmacológico más importante durante «apenas»
dieciséis siglos.
Aunque no tenían el rigor de las recopilaciones antiguas (ni siquiera la de
Plinio), y a pesar de estar «controlados» por los fines morales, los herbarios
medievales constituyeron, también, un muestrario (aunque completamente
desordenado) de plantas medicinales y sus usos. Junto a ellos aparecieron
manuales de recetas prácticas (debidas, seguramente, a la tradición médica
folklórica, local y subterránea), dosificaciones e instrucciones de uso, aunque
el panorama de la farmacopea fue muy limitado, y la tendencia general no era a
la reflexión (y mucho menos a la experimentación).
Así, los herbarios contribuyeron a introducir un poco de orden, o mejor, de
ordenado desorden, en la farmacopea, a pesar del primitivismo y aderezos
fantasiosos de los dibujos (que podían llegar a impedir reconocer una planta
dibujada según la imaginación del copista). Recién en el siglo XV los
dibujantes de herbarios aprendieron del realismo tridimensional del arte
italiano y flamenco, cuando se alcanzó gran perfección gracias a los dibujos de
Leonardo da Vinci y de Alberto Durero.
Esta tradición continuó hasta los primeros herbarios impresos, y es ahí donde
se considera que empieza la botánica «científica» (lo pongo entre comillas,
porque la botánica siguió siendo una serie de constataciones empíricas hasta
que se produjeron los grandes ordenamientos del siglo XVIII con Linneo). Desde
el punto de vista de lo que entendemos por «ciencia», ésta aparece recién
cuando se integra en un sistema más o menos racional.
Los bestiarios, por su parte, eran compilaciones anárquicas que mezclaban
observaciones reales de la naturaleza, comentarios zoológicos, ilustraciones
muy creativas y una buena dosis de lecciones morales y religiosas. Ver algunas
de las figuras que concibieron los hombres de la Edad Media nos hace dar cuenta
de que los creadores de Star Trek, sin dudas, se quedaron cortos.
Hay que tener en cuenta que los libros se reproducían por copia y cada copista
se sentía libre de agregar algo de su propia cosecha. El manuscrito luego
seguía su camino rumbo a otro copista que repetía la operación. Los estudiosos
no salían a mirar el mundo que describían en sus libros sino que, a lo sumo,
incluían la versión de algún soldado llegado de tierras lejanas con
descripciones fantasiosas (como por ejemplo, un águila con patas y cola de león).
Además de la obra de Discórides ya mencionada, existen muchos otros
antecedentes de estas compilaciones.
El más exitoso de todos, que sufrió un largo proceso de transformación, fue sin
duda el Physiologus. Este libro, en su origen (probablemente en el
siglo II y en Alejandría, seguramente escrito en griego), era una modesta
compilación de metáforas edificantes para la moral. Constaba de 48 secciones,
cada una de ellas dedicada a una planta, animal o piedra, que a su vez remitía
a un texto bíblico. El primero de estos capítulos, como era de esperar, trataba
sobre el león, el rey de los animales, y, menos previsiblemente, finalizaba con
el avestruz. Fue rápidamente traducido a varios idiomas, y cuando se estaba
realizando la traducción al latín —aproximadamente en el siglo V— alguno de los
copistas reemplazó las antiguas citas bíblicas del comienzo de cada capítulo
por la frase «El naturalista dice…». Así fue que el libro trascendió con el
nombre de Physiologus (palabra en latín que significa
«naturalista»). La traducción latina fue la más exitosa y la cantidad de
ejemplares copiados sólo fue superada por la Biblia.
Las historias que cuenta este proto bestiario son muy ilustrativas acerca de
cómo se veía a la naturaleza por esos años: el león paría crías inertes a las
que insuflaba vida respirando sobre ellas; el unicornio sólo podía ser
capturado sobre la falda de una virgen; el pelícano que derramaba su sangre
para resucitar a los muertos. Todas estas historias eran en realidad metáforas
fabulescas de enseñanzas religiosas acerca de la resurrección, el sacrificio, y
lo que se buscaba no era otra cosa que la simbología moral de los animales (la
astucia del zorro, la lujuria de la hiena, la fuerza del león). Uno de los
animales más destacados de estos bestiarios, que se utilizaba para ilustrar la
resurrección cristiana, era el ave fénix, un ser mitológico de origen egipcio,
del tamaño de un águila con plumaje escarlata y dorado, de un llorar melodioso,
que podríamos atribuir a su soledad: un solo fénix podía existir por vez en el
mundo y cada uno vivía al menos 500 años. Cuando sentía llegar su fin, este ave
construía un nido con plantas aromáticas y especias, lo encendía (vaya uno a
saber cómo producía el fuego) y se consumía en él. A los tres días resurgía de
estas cenizas un nuevo fénix que colocaba las cenizas de su antecesor en un
huevo de mirra, lo llevaba volando a Heliópolis, la Ciudad del Sol, y lo
depositaba en el templo de Ra (reconocemos aquí la frase «resurgir de las
cenizas»).
Pero mi animal favorito es la «hormiga-león», nacida de la cruza de estos dos
animales, pero con tan mala suerte que, teniendo dos naturalezas, no puede
comer ni semillas ni carne y muere de inanición.
Las sucesivas copias del Physiologus fueron transformándolo
muy lentamente hasta derivar en todo un género de bestiarios, como el del
francés Philippe de Thaon, de 1211, que utilizaba imágenes para describir el
objeto de sus estudios y atraer a los analfabetos. El género creció y comenzó a
incluir rimas y hasta historias de amor de moda en la época, que derivaron en
las fábulas, más modernas, que poco tenían ya que ver con los bestiarios
originales. El matrimonio de ciencia y religión había demorado algunos siglos
en producir un inesperado género literario, las fábulas, primas lejanas de la
zoología. Aunque también produjo un par de obras interesantes, como el De
animalibus de Alberto Magno (s. XIII) y el tratado de cetrería escrito
por Federico II Hohenstaufen (1194-1250), emperador del Sacro Imperio
Romano-germánico (uno de los restos políticos del imperio de Carlomagno), y una
de las personalidades más curiosas de la Edad Media, que mantenía en Sicilia
una corte donde confluían eruditos latinos, griegos, árabes y judíos y florecía
una cultura sincrética.
Las ilustraciones de los bestiarios no eran muy rigurosas que digamos: como en
esa época los zoológicos no eran corrientes, prácticamente no había posibilidad
de conseguir modelos vivos de leones, por no hablar de unicornios o de hombres
con cabeza de perro, de modo que los dibujantes debían confiar en la
descripción del autor y en su imaginación. Muchas de estas figuras fueron
también reproducidas a lo largo del primer período de la Edad Media, por
ejemplo, en los mosaicos de iglesias de Roma, Ravena y Venecia. Más adelante,
sobre todo a partir del siglo XIII, y como en el caso de los herbarios,
aumentaron constantemente las ilustraciones realistas. Esta tendencia se vio
reforzada por las representaciones de plantas y animales que comenzaron a
aparecer en las pinturas de artistas como Giotto (1276-1336).
De la misma manera que los herbarios, los bestiarios pueden, si se quiere, ser
vistos como un antecedente de la zoología, pero ésta, como la botánica, sólo
pudo aspirar al estatus de ciencia mucho pero mucho más tarde.
§. Monasterios
Bueno, aparentemente me distraje un poco con los herbarios (y especialmente con
los bestiarios, que son más curiosos), pero me distraigo constantemente, y es
que tengo que lograr que fluyan por estas páginas miles de cosas y tendencias.
Pues las ciencias son los ríos
que van a dar en la mar
que es el saber.
Allí van muchas teorías
decididas a triunfar
o fenecer.
Allí grandes fantasías
o hipótesis balbucientes
de la ciencia
enfrentan el agua fría
de esa diosa intransigente:
la experiencia.
Ya les había mencionado, hace un rato, a Casiodoro, un contemporáneo de
Boecio que se ocupaba de juntar y hacer copiar manuscritos en Vivarum (al sur
de Italia), y lo retomo ahora porque quería volver al tema de los monasterios
que empezaron a crearse después de la fundación de Monte Cassino por San Benito
en 529, porque allí se preservó buena parte de lo que se preservó, y porque
junto a ellos empezaron a armarse las primeras escuelas medievales, que, en
medio de la ignorancia reinante, trataban de transmitir lo poco que se
recordaba del conocimiento antiguo, en general con fines piadosos y poco más
(aunque en algunos sitios se incluía algo de matemáticas para resolver el
eterno tema de calcular la fecha de Pascua, cuya dificultad llevó a plantear
interesantes desarrollos aritméticos y astronómicos, y fue uno de los contados
servicios que un problema religioso prestó a la ciencia positiva).
Una figura realmente simpática es la de Beda el Venerable (672-735), que vivió
en el monasterio de Jarrow, Inglaterra, y que se entregó a los estudios
históricos y de las escrituras, pero que además conoció el quadrivium,
estableció tablas de mareas, y algunas observaciones generales muy bien hechas.
Su cosmología muestra la visión que tenía un hombre culto de su siglo: su
universo está ordenado por causas y efectos identificables. Beda no pensaba que
el mundo tuviera forma de rueda, sino que la Tierra era una esfera estática.
Rodeando la Tierra, se encontraban los siete cielos: el aire, el éter, el
Olimpo, el espacio ígneo, el firmamento con los cuerpos celestes, el cielo de
los ángeles y el cielo de la Trinidad. El mundo corpóreo estaba compuesto de
los cuatro elementos (tierra, agua, aire, fuego), dispuestos por orden de peso
y ligereza.
Como había leído a Plinio, tenía una idea de la cosmología griega: afirmó que
el cielo de las estrellas giraba alrededor de la Tierra y que dentro de ese
cielo los planetas giraban en un sistema de epiciclos. También expuso sobre las
fases de la Luna y los eclipses, y afirmó, siguiendo sus lecturas, que la Luna
era la responsable de las mareas. Sin embargo, el papel que le asignaba a la
observación era prácticamente nulo: describió la muralla de Adriano, que
quedaba apenas a doce kilómetros de donde estaba, a partir de lo que había
leído y lo que le habían contado, sin dignarse a moverse hasta allí. Detalle
que, aparte de lo dicho, me conmueve. Pienso en Beda, encerrado en su
monasterio en medio de un mar de oscuridad, imaginando la muralla del luminoso
Adriano.
También fue fruto de los monasterios ingleses lo poco que se escribió en
medicina: en la primera mitad del siglo X se redactó un tratado que resumía los
conocimientos médicos de la época: contiene partes terapéuticas, con
prescripción de hierbas, se distinguen las fiebres tercianas, las cuartanas y
las cotidianas, se hace mención del «contagio llevado por el aire» y a la
viruela, entre otras enfermedades. La segunda parte es una recopilación de la
medicina griega, lo cual muestra que ésta de alguna manera circulaba. Así como
Beda el Venerable no se molestó en ir a ver la muralla de Adriano, hay poco y
nada de observación clínica; no se tomaba el pulso, ni se verificaba el color
de las heces, datos centrales para los médicos griegos y romanos.
La cultura, durante los siglos VI, VII y VIII, se retrajo a los monasterios
benedictinos italianos e irlandeses y, posteriormente, ingleses y de Europa
Central. Durante esta época la atención estuvo puesta principalmente en la
conservación de los conocimientos anteriores, con poca producción nueva: el
estudioso se dedicaba más a la hermenéutica y al copiado que a la observación
del mundo. La lectura de los clásicos y su interpretación eran la forma de
acceder al saber. Pero las copias, como ya se dijo, eran muchas veces
fantasiosas, ya que los monjes de scriptorium muchas veces no
entendían lo que copiaban. De la misma manera, la primacía que se otorgaba a
los libros teológicos, colecciones de salmos y reglas religiosas llevó a la
práctica de borrar los pergaminos y escribir encima de ellos, con lo cual
pueden haberse perdido cientos de obras clásicas de importancia, en pro de
vidas de santos y otras obras convencionales.
En fin: los años que van de la muerte de Boecio hasta el efímero renacimiento
carolingio tuvieron muy poco para aportar a la historia de la ciencia. Vamos a
dar un vistazo directamente, entonces, al primero de los «renacimientos» de la
civilización occidental, que fue muy modesto, por cierto.
§. El renacimiento carolingio
En el año 800 se produjo una novedad política de importancia, al ser coronado
Carlomagno por el Papa como emperador de los vastos territorios que había
conquistado en la Marca de España, Dinamarca, Polonia, y, desde ya, lo que hoy
es Alemania. De paso, vale la pena contar que, cuando Carlomagno se retiraba de
España, su retaguardia fue sorprendida por los vascos en el desfiladero de
Roncesvalles y completamente destrozada, muriendo allí su lugarteniente y
sobrino Roldán junto a los once restantes pares de Francia, lo que dio lugar a
la canción de gesta La Canción de Roldán (escrita siglos
después), que inaugura la literatura francesa y en la que los vascos son
trastrocados en moros. En realidad, Roncesvalles fue sólo una escaramuza sin
importancia, pero que demuestra cabalmente que la literatura es más importante
que la política, como dice André Maurois.
Pues bien, si la idea con la coronación de Carlomagno era restaurar el Imperio,
hacía falta un sistema de gobierno. Y un sistema de gobierno necesita una
burocracia mínimamente letrada, o sea, alguna política educativa. Para ello,
Carlos llamó a Alcuino de York, un importante erudito inglés que había conocido
en Roma, para que reorganizase (o mejor dicho fabricase) los estudios del nuevo
imperio desde su capital en Aquisgrán (actualmente la ciudad más occidental de
Alemania), fundando escuelas según la orden que impartió el emperador en una
célebre carta de 788: «Abrir en cada diócesis y en cada monasterio escuelas en
las que habrían de ser admitidos tanto los niños de condición libre como los de
condición servil».
Alcuino pretendía convertir a la capital en la nueva Atenas (lo cual da una
idea de lo despistado que estaba): el esfuerzo fue grande, pero los resultados,
pobres, ya que se basaban en las tonterías de Isidoro de Sevilla o «sabios» por
el estilo, que no pasaban de estudiar problemas elementales de aritmética, o
acertijos como el del barquero que debe cruzar un lobo, una oveja y un repollo.
No es gran ciencia, por cierto. El mismo Carlomagno era analfabeto, aunque
parece que en su vejez aprendió a leer.
De todos modos, el renacimiento carolingio, que más que un verdadero resurgir
de las ciencias fue un intento de reconstruir un cuerpo político devastado,
duró poco: Carlos murió en 814 y el imperio subsistió apenas lo que vivió su
hijo Ludovico Pío, para después fragmentarse en pedazos (que son los que, más o
menos, dieron la Europa moderna).
La vida de Carlomagno fue tomada como modelo por los monarcas que lo siguieron;
era el ejemplo perfecto de cómo debía ser un rey cristiano. Personificaba la
fusión de las culturas germánica, romana y cristiana, que se convertiría
posteriormente en la base de la civilización europea.
Después de Alcuino rigió la escuela palatina Juan Escoto Erígena, que, como
curiosidad, enseñaba el sistema atribuido a Heráclides Ponto en el que Venus y
Mercurio giraban alrededor del Sol, e incluso lo extendió haciendo girar
también alrededor del Sol a Marte, Júpiter y Saturno. Después de su muerte, la
escuela decayó irremediablemente y todo se hundió en la oscuridad.
Y eso fue el renacimiento carolingio. Nada del otro mundo (salvo para los
carolingios, claro).
Hasta el siglo XI, excepto por el breve interludio del reinado de Carlomagno,
ninguna estructura política brindaría estabilidad suficiente para un desarrollo
del interés por la naturaleza. La única fuerza capaz de brindar alguna cohesión
social y cultural era la Iglesia, que intentó con escaso éxito reorganizar los
restos de los antiguos reinos y pueblos bajo control del Papa y los distintos
poderes terrenales de reyes y emperadores, aunque las constantes disputas entre
el poder religioso y el civil impidieron acuerdos mínimamente estables. Así, la
religión siguió ofreciendo la perspectiva desde la que se miraban la política y
la economía, así como la ciencia y el arte. Sólo el desarrollo de la burguesía
gracias al comercio permitiría superar esta etapa paralizadoramente religiosa.
§. Tiempo y espacio: el cosmos medieval
Es necesario decir aquí algo acerca de la imagen del mundo medieval, aunque
sólo sea porque la ciencia moderna nació en gran parte del intento de superarla
y porque en nuestra vida social pueden advertirse bastantes huellas de esa
lucha. El esquema etéreo y cosmológico de Aristóteles y los astrónomos
alejandrinos se había convertido en un rígido mundo teológico-físico, en un mundo
de esferas u orbes. Figuraban en él las esferas del Sol y la Luna, las esferas
de los planetas y, por encima de todo, la gran esfera de las estrellas fijas,
sobre las cuales estaban los cielos. Como contrapartida teológicamente
necesaria estaba el inframundo (los círculos y abismos infernales tan
firmemente descriptos más tarde en la Divina Comedia —1321—,
de Dante Alighieri).
El universo estaba ordenado por rangos y lugares. Se trataba de un compromiso
entre la imagen aristotélica de un mundo permanente y la imagen judeocristiana
de un mundo creado por un acto y solamente susceptible de ser destruido por
otro. Era un mundo transitorio que, pese a tener sus propias reglas, era
solamente un escenario en el que se representaba la vida de cada hombre, vida
que, como dice Shakespeare
no es más que una sombra que transcurre; un pobre actor que, orgulloso,
consume su turno sobre el escenario para jamás volver a ser oído. Es una
historia contada por un idiota, llena de ruido y furia, y que nada significa.
Y de esa vida dependía en último término la salvación o la condenación.
La jerarquía de la sociedad estaba reproducida en la jerarquía del universo
mismo; al igual que papas, obispos y arzobispos, emperador, reyes y nobles,
existía también la jerarquía celestial de los nueve coros angélicos: serafines,
querubines, etcétera. Cada una de estas jerarquías tenía una función en el
universo y permanecía unida al correspondiente rango de las esferas planetarias
para mantenerlas en movimiento. El orden inferior de los simples ángeles que
pertenecían a la esfera de la luna tenía mucho que ver con el orden de los
seres humanos que estaban precisamente debajo de ellos.
Existía un orden cósmico, un orden social, un orden en el cuerpo humano, todos
representativos de estados a los que la naturaleza tendía a volver cuando se la
apartaba de ellos. Predominaba una concepción del equilibrio, pero no en un
sentido físico sino moral. Había un lugar para cada cosa. Los elementos estaban
en orden: la tierra abajo, el agua sobre ella, por encima el aire; el fuego, el
elemento más noble, por encima de los otros tres. El mundo mítico y el mundo
real, físico, se mezclaban en una misma lógica.
También los órganos nobles del cuerpo —corazón y pulmones— estaban
cuidadosamente separados por el diafragma de los órganos inferiores del
vientre. Este cosmos —tremendo y complicado, pero ordenado— era también
idealmente racional porque combinaba las conclusiones mejor establecidas de los
antiguos con las verdades incuestionables de la Escritura en la tradición de la
Iglesia.
Después de ver toda esta arquitectura del mundo se comprende por qué un ataque
a cualquiera de las partes de la imagen del universo se consideraba como algo
mucho más serio que una mera cuestión intelectual: era una agresión a todo el
orden de la sociedad, de la religión, y del universo mismo. Por consiguiente,
era necesario defenderse con todo el poder de la Iglesia y del Estado. El
sistema del pensamiento medieval era necesariamente conservador, aunque no por
eso menos imaginativo. También era muy diferente la percepción del tiempo y el
espacio: la dificultad de las vías de comunicación, el retroceso a una vida
casi exclusivamente rural, la falta de relojes y de mapas (ya hablaremos de
eso), hacían que el hombre medieval viviera en un mundo sin las coordenadas
precisas que nos ubican (y a veces abruman) ahora. La mera idea de un «segundo»
era inconcebible, y el hecho de que la noche y el día se dividieran en doce
horas iguales cada una de ellas, generaba un tiempo elástico, en el que las
duraciones eran difíciles de determinar, salvo por la salida y puesta del sol,
y las campanas de las iglesias o los monasterios llamando a maitines o al
ángelus. Cuentan que el rey Alfredo de Inglaterra mandaba encender antorchas
sucesivas e iguales durante sus viajes, para tener una idea de la duración. ¡Y
esto en el siglo IX!
Estas formas de percibir el espacio-tiempo se observan bien en las pinturas de
las iglesias, como por ejemplo la que pueden ver en la siguiente imagen.
No es solamente que la pintura no sea realista, sino que tanto el
espacio como el tiempo están organizados alrededor de figuras que son icónicas,
no tienen edad; no hay espacio o tiempo organizado donde transcurren los
fenómenos que el cuadro cuenta, sino que lo que aparece es un mero telón de
fondo que rodea y adorna la anécdota piadosa. Esto comenzará a cambiar sólo
siglos después, «cuando la realidad vuelva a Europa», como dijo alguien alguna
vez.
Por otra parte, durante esta primera mitad de la Edad Media, la vida se
desarrollaba en el seno de la aldea, donde se cultivaban las parcelas propias y
los campos comunales (todavía el feudalismo no había llegado a su plenitud),
donde la población solía vivir aterrorizada por las invasiones de pueblos como
los húngaros o los vikingos, que en algunos casos se extendieron hasta los
siglos IX o X. En Inglaterra y Escocia, la actividad de los piratas
escandinavos era continua, y en el siglo XI, cuando Guillermo el Conquistador
invade y conquista Inglaterra, ésta había sido invadida por los escandinavos
ese mismo día (lo cual fue una de las causas de que Guillermo pudiera ganar la
batalla de Hastings —1066— y proclamarse rey).
Así era más o menos la Europa de la Alta Edad Media, aunque las cosas,
naturalmente, eran distintas en las ciudades del Mediterráneo. Carlomagno,
cuando viajó a Roma, se quedó pasmado por la riqueza de las ciudades italianas.
§. Geografías imaginarias
La tradición de la geografía griega comenzó su decadencia ya en tiempos
romanos, y los grandes mapas trazados por Tolomeo, Eratóstenes o Hiparco
quedaron en el olvido (o bien escondidos tras la vida de algún santo en un
palimpsesto). Los mapas medievales eran simples representaciones de una tierra
aplanada como un disco (como querían los padres de la Iglesia —recuerden a
Tertuliano—) con Jerusalén en el centro, el paraíso terrenal a la derecha y
arriba, y el mar océano que rodeaba todo, más representaciones esquemáticas de
las tierras conocidas (de oídas).
Los extensos vacíos que se dejaban (tal como ocurría con la filosofía, la
física, y cualquier otra disciplina) eran completados con inventos de lo más
imaginativos. No es casual, por eso, la profusión medieval de terras
incognitas, de lugares que, sencillamente, nunca existieron.
Los lugares inexistentes son una vieja fantasía humana, y suelen nacer de una
referencia, de un relato, una reliquia, una alusión que corre de boca en boca y
luego adquiere espesor geográfico en manos de cartógrafos propensos a la
fantasía.
El más famoso de los sitios imaginarios —y uno de los pocos sobrevivientes de
una larga lista— es, al mismo tiempo, uno de los más antiguos: la Atlántida.
Esta isla, localizada supuestamente en medio del océano Atlántico, al oeste del
estrecho de Gibraltar, tiene su origen en dos diálogos de Platón: Timeo y Critias.
En este último, Platón relata cómo los sacerdotes egipcios, durante una
conversación con el ateniense Solón, describen una isla más grande que Asia
Menor y Libia juntas. Se trataba de un lugar que unos nueve mil años antes
había sido tremendamente rico y sus poderosos príncipes habían conquistado
muchas de las tierras del Mediterráneo, hasta ser finalmente vencidos por los
atenienses y sus aliados. Luego los habitantes de la isla se tornaron malvados
e impíos y la Atlántida fue devorada por el mar después de varios terremotos.
Los europeos medievales recuperaron la leyenda por medio de los árabes, la
creyeron al pie de la letra e intentaron identificarla con alguna otra región.
Después del Renacimiento, por ejemplo, se hicieron numerosos intentos por
equiparar Atlantis con América, Escandinavia y las islas Canarias. Incluso es
posible que Platón no haya inventado la isla por sí mismo, sino que haya tomado
registros egipcios de una erupción volcánica en la isla de Thera en el 1500
a.C., que habría colaborado con la caída de la civilización minoica. Esta
erupción, una de las más importantes de los tiempos antiguos, fue seguida de
numerosos terremotos y tsunamis —olas gigantescas, generalmente producidas por
un maremoto— que asolaron la civilización cretense, lo que habría inducido a
Platón a creer en la existencia de la Atlántida.
La forma en la que estos mundos se creaban era variada. El Continente del Sur,
por ejemplo, nació de un razonamiento «impecable» para la lógica de la época:
si al norte del Ecuador había una gran masa de tierra, ¿no debería haber otra
en el sur para balancearla? En el año 43, el geógrafo Pomponio Mela imaginó el
continente austral. Tolomeo tomó la idea, y dibujó en sus mapas una «Gran
Tierra Austral» que se extendía desde el sur de África hasta Nueva Guinea y
Java, uniéndose a Asia por el este: una terra incognita que
fue parte del credo geográfico durante siglos, ya que Tolomeo gozó durante
muchísimo tiempo de una reputación sólida.
Otras tierras nacieron de rumores. Ése es el caso del Reino del Preste Juan,
uno de los lugares imaginarios más buscados de la Edad Media. La historia es
interesante y en su momento tuvo una repercusión comparable a la de ciertas
telenovelas actuales.
El preste Juan fue el centro de un número de historias que se remontan hasta el
Nuevo Testamento. Era un legendario miembro de la Iglesia Cristiana de Oriente
que no aceptaba la autoridad del patriarca de Constantinopla, sobre el que se
conoce mucho más por rumores y creencias que por datos certeros. Las leyendas
de la época lo señalaban como un sacerdote-rey de un territorio «en el Lejano
Oriente, más allá de Persia y Armenia».
La historia del Reino del Preste Juan surgió de una legendaria carta enviada
por un tal «preste (presbítero) Juan», alrededor de 1150, al emperador Manuel I
Comneno de Bizancio, a Federico Barbarroja (emperador del Sacro Imperio
Romano-germánico) y, según parece, al propio papa Eugenio III, en la que les
hablaba de su reino y les prometía ayuda para conquistar el Santo Sepulcro.
La velocidad inexplicable con la que corren las noticias, en especial las más
extravagantes, se ocupó del resto: en poco tiempo, el relato fantástico que
contenía la carta fue traducido a decenas de idiomas. Ávidos de historias sobre
lugares remotos y, sobre todo, de una defensa concreta contra la amenaza
musulmana, los cristianos adoptaron con alegría y esperanza la historia del
Reino del Preste Juan. Según se decía, este individuo había logrado someter a
los musulmanes en su reino y había avanzado valerosamente para luchar por la
Iglesia en Jerusalén. En verdad, cuesta creer hoy en día que alguien haya
podido ver en ese texto un artículo de geografía en lugar de una bellísima
narración (aunque, en rigor, si uno piensa en los platos voladores y otras
cosas por el estilo, no sé si hoy en día se está tan al margen de ese tipo de
historias).
Las descripciones de la carta son realmente asombrosas: las tierras del preste
comprendían cuarenta y dos reyes «buenos y cristianos» y la Gran Feminia,
gobernada por tres reinas y con un ejército de cien mil mujeres armadas.
Tenemos unas aves llamadas grifos que pueden transportar con facilidad
un buey o un caballo al nido para alimentar a sus polluelos. También contamos
con una clase de pájaros llamados ylleriones. No hay más que dos en todo el
mundo y viven unos sesenta años, al cabo de los cuales se alejan volando y se
sumergen en el mar. En una provincia de nuestro país hay un yermo y en él viven
hombres con un cuerno que tienen un ojo en la parte delantera de la cabeza y
tres en la trasera.
Desde ya, la carta del preste Juan, que además descendía de los Reyes
Magos, no era más que una mera falsificación, que mezclaba los milagros de
Santo Tomás, los viajes de Simbad el Marino y romances sobre Alejandro Magno.
Pero a los exploradores medievales les encantaba, y no se cansaron de buscar
los dominios de ese señor: a veces lo confundieron con el inmenso Imperio
Mongol de Gengis Khan, otras lo situaron más allá de Persia y Armenia. Osciló
indefinidamente entre Asia y África y perduró en algunos mapas hasta el año
1573. El mismísimo Enrique el Navegante (1394-1460), rey de Portugal, amante de
las artes y las ciencias, que no tenía nada de medieval y que fletó una
expedición para llegar a las Indias por el Oeste setenta años antes de Colón,
estaba convencido de su existencia y lo buscó activamente: exploró el Congo, el
río Senegal, el Níger y el Gambia, e incluso envió emisarios a Jerusalén
preguntando por el preste. Obviamente, no tuvo éxito: en Jerusalén contestaron
que nunca habían oído hablar de esa persona, por preste que fuera.
Y el Reino del Preste Juan, finalmente y tras una agitada lucha de unos dos
siglos, se esfumó tristemente y sin dejar rastros, salvo la legendaria carta
que inspiró a miles de viajeros alrededor del mundo.
Las historias de fieles e infieles, de moros y cristianos, de reinos
amenazantes como Gog y Magog y dominios redentores como el del preste Juan
fueron las más importantes, sin dudas, de la imaginería geográfica medieval.
Pero con el correr del tiempo todos estos lugares mitológicos fueron
desapareciendo no sólo de la faz de la Tierra (aunque, en rigor, nunca
estuvieron en ella), sino del imaginario colectivo.
§. Finale
La verdad es que me alegro de llegar al final de este capítulo, porque pese a
todos sus aspectos sugerentes y maravillosos, la Alta Edad Media europea fue un
período terrible. Y no solamente porque haya sido una época de profunda
ignorancia y de prácticamente nula contribución a la ciencia y la filosofía,
sino porque debajo de ese manto de lo maravilloso fue una época de pura
brutalidad y violencia. Si avanzamos un poquito, podremos respirar con el
Renacimiento europeo (el segundo, si contamos el carolingio) que se dio a
partir del siglo XI.
Capítulo 9
En la taberna
Me dejé llevar, tal vez un poco exageradamente, por ese espíritu mágico
que muchas veces asociamos con la Edad Media europea (en especial la Alta Edad
Media), con sus lugares fantásticos, sus unicornios y sus búsquedas del Santo
Grial, cuando en realidad fue un mundo de violencia brutal, invasiones de todo
tipo, guerras permanentes, ignorancia profunda, hambrunas, pestes, vida
puramente parroquial, decadencia de las ciudades, que por otra parte eran
agujeros inmundos, en los que la basura se acumulaba sobre las murallas (¿qué
dirán de nuestro mundo de hoy dentro de unos siglos?); un mundo dominado por la
religión y por la única institución que había salido más o menos indemne de la
catástrofe del hundimiento del Imperio y con una organización política más o
menos extendida: la Iglesia.
Era un mundo muy diferente del nuestro, un mundo que se veía a sí mismo como
decadente y viejo, que recordaba las épocas del Imperio como una edad de oro,
que tenía como ideal la restauración y no el progreso (lo cual se ve bien en
Carlomagno) y que sin embargo, al mismo tiempo, fantaseaba con su próximo fin:
el Juicio Final, el Milenio, el Segundo Advenimiento, que llegarían más pronto
que tarde. Por eso cuesta tanto atrapar todo en un relato.
Un mundo profundamente iletrado, en el que no había mucho lugar para una
ciencia ilustrada, salvo la que se practicaba en los monasterios, cuya misión,
sin embargo, era simplemente copiar y recopilar manuscritos que no entendían,
con algunas pocas excepciones aisladas, como mi querido Beda el Venerable.
Además, cualquier pensamiento filosófico estaba tan sometido a (o mejor,
diluido en) la teología que no podía producir algo verdaderamente diferenciado.
La ciencia naturalista había arrancado de la separación entre los fenómenos
naturales y los dioses, y la pregunta sobre cómo podemos obtener un
conocimiento verdadero; esta época revierte ese proceso, fundiendo pensamiento
y religión, y la vieja cuestión del conocimiento verdadero deja de ser un
problema: el conocimiento verdadero es el conocimiento de Dios, garantizado por
la revelación a la manera de San Agustín, en el que el amor divino provee el
impulso que permite elevarse como el Eros platónico. Pero la revelación es
necesariamente ambigua, y hace falta descifrarla, discutirla. Es el agujero por
donde se filtrará la teología racional, que a la larga logrará independizar la
filosofía de la teología.
Pero antes de seguir, antes de buscar (quizás infructuosamente) un relato que
pueda describir un mundo tan disímil y extendido en el tiempo, vamos a
detenernos por un momento en el que es, probablemente, el acontecimiento
político más importante para la ciencia medieval europea, que paradójicamente
se produjo fuera de Europa.
Veamos.
I. El Islam
A fines del siglo VI y principios del siglo VII, Mahoma (su nombre real
era Muhammad ibn ’Abd Alla hibn Abd al Muttalib ibn Hashim, lo cual explica por
qué en adelante usaremos los nombres árabes más o menos occidentalizados),
consiguió unificar a las tribus de nómades de la península arábiga, dotarlas de
un libro (el Corán), unificarlas bajo la égida de un solo dios (Alá), y un solo
mandato: la jihad (la guerra santa), la conquista del mundo,
que tuvo un efectivo cumplimiento.
Mapa de la ocupación islámica
Salieron de Arabia en el 632 y en poco más de un siglo ocuparon desde la
India hasta Anatolia, así como el norte de África y lo que hoy es España,
formando un imperio de dimensiones romanas. Incluso avanzadas árabes
atravesaron los Pirineos e intentaron la conquista de Francia, pero fueron
detenidas en la batalla de Poitiers (732) por Carlos Martel, entonces mayordomo
(jefe) de palacio de los reyes merovingios (quien, aprovechando su resonada
victoria, la usó para sustituir a la muy poco brillante dinastía merovingia por
la suya, mucho más exitosa: la carolingia. De hecho, Carlomagno, su nieto,
recibió su nombre en honor a él).
Bueno, pero la cuestión es que el imperio árabe se extendió como un puente
desde China a España, transportando cultura, ciencia e inventos; además, la
posesión de los centros de cultura que ocuparon, y que todavía sobrevivían, los
puso en contacto con los miles de libros que habían sido llevados a Oriente por
los sabios que escapaban de las diferentes persecuciones. Hubo algún breve episodio
piromaníaco en la Biblioteca de Alejandría, que ya les conté, pero no fue más
que un episodio: lejos de desinteresarse por la ciencia, los musulmanes se
fascinaron con ella, y se convirtieron en coleccionistas de manuscritos como lo
habían sido antes los Ptolomeos. (Hay, al respecto, una anécdota curiosa y
seguramente falsa, pero divertida y que vale la pena contar: durante el reinado
de Al Mammun—809-833—, un califa súper ilustrado, se creó la Casa de la
Sabiduría en Bagdad, donde se operaba de manera parecida a la biblioteca
alejandrina; la leyenda cuenta que el sultán pagaba los manuscritos en oro de
acuerdo con el peso de los manuscritos, lo cual llevó al desarrollo de una
caligrafía espaciada y llena de blancos.)
La verdad es que los árabes se ocuparon de la traducción en gran escala:
Aristóteles, Galeno, Hipócrates, Platón; los Elementos de
Euclides, el Almagesto de Tolomeo y los «papers» de
Arquímedes.
En el siglo XI, pleno de grandes científicos, se fundó en El Cairo el Hogar de
la Ciencia, para fomentar los estudios superiores y la investigación científica
que, entre los siglos IX y XI, experimentaron un progreso desconocido desde la
época de los Ptolomeos, en Alejandría. También se construyeron hospitales y
observatorios astronómicos (desconocidos en Occidente), y se multiplicaron las
escuelas y las «Casas de Sabiduría». En los siglos X y XI, había por todo el
mundo islámico cientos de bibliotecas; la de la Casa de la Sabiduría de El
Cairo, por ejemplo, tenía unas dieciocho mil obras, mientras había otras, como
la de Maragá, de la que se decía que poseía cuatrocientas mil. Las cifras,
seguramente, están infladas, pero vale la comparación con La Sorbona, que
apenas llegaba a las dos mil obras en el siglo XIV.
§. La ciencia árabe
Pero el Islam no se limitó a traducir, compilar y sistematizar las grandes
obras de la ciencia griega, sino que las tomó en el punto en que habían quedado
y emprendió su desarrollo, combinándolas con otras influencias y habilidades,
como por ejemplo el papel, los tipos móviles y la brújula de los chinos o la
numeración decimal y el cero de los hindúes, que fueron adoptados a principios
del siglo IX por los científicos de Bagdad. Por eso, y aunque la idea
proviniera de la India, al pasar a Occidente, bastante más tarde, fueron y
siguen siendo conocidos simplemente como «números arábigos».
Con semejante instrumento, los matemáticos árabes lograron un gran desarrollo
de los métodos de cálculo y de los algoritmos aritméticos, algebraicos y
trigonométricos, que a su vez ya eran conocidos en la India y en China, donde
se aplicaban con procedimientos menos rigurosos. El primer manual de aritmética
que utiliza el principio posicional (es decir, aquel principio según cual el
valor del símbolo «5», por decir alguno, se define por el lugar que ocupa en la
cifra), es el que compuso Muhammad Ibn Musa Al-khwarizmi (c. 780-850),
matemático y astrónomo persa que vivió en Bagdad durante la primera época
dorada de la ciencia islámica. Su libro sobre matemáticas elementales,
llamado Kitab al jabr wa al muqabalah (El libro de la
integración y la ecuación) se tradujo al latín en el siglo XII y dio origen
al término «álgebra» (por «aljabr»). Kitab al jabr es
una compilación de reglas para encontrar soluciones de ecuaciones lineales y
cuadráticas, para la geometría elemental y para aplicarla a los complejos
problemas de sucesiones hereditarias y sus proporciones, y multitud de
aplicaciones para las necesidades de la sociedad civil. Iba mucho más allá de
donde Diofanto había dejado la disciplina en el siglo III. Al-Khwarizmi no sólo
legó a Occidente la palabra «álgebra» sino que escribió también un tratado
llamado «Acerca del arte hindú del cálculo», luego traducido al latín
como Algoritmi de numero Indorum, que dio origen al término
«algoritmo», que se utilizó para designar todo el sistema de la aritmética
decimal basada en el principio de posición (por ejemplo el algoritmo de la
división, que ahora utilizamos como método de cálculo).
No les voy a hablar de los múltiples matemáticos árabes, pero sí del más grande
de todos, Omar Kayyam (1048-1131), considerado además el máximo poeta de su
tiempo, con sus celebrados Rubaiyat. Como algebrista se le debe una
clasificación completa de las ecuaciones de primero, segundo y tercer grado, en
la que se especifican 25 casos distintos, según el tipo de ecuación. Como
curiosidad, digamos que Omar Kayyam manifestó su desconfianza y analizó (como
ya lo habían hecho matemáticos anteriores) el famoso quinto postulado de
Euclides, que trató de demostrar en vano.
Y ya que estamos con Omar Kayyam, que fusionó las matemáticas con la poesía (y
la poesía con la enología, gracias a su glorificación del vino), leamos algunas
de sus alcohólicas Rubaiyat.
Puesto que ignoras lo que te reserva el mañana, esfuérzate por ser feliz
hoy.
Toma un cántaro de vino, siéntate a la luz de la luna
y bebe pensando en que mañana
quizá la luna te busque inútilmente.
Nuestro tesoro es el vino y nuestro palacio la taberna.
La sed y la embriaguez son nuestras fieles compañeras.
Ignoramos el miedo porque sabemos que nuestras almas,
nuestros corazones, nuestros cálices y nuestras vestes manchadas
nada tienen que temer del polvo, del agua ni del juego.
Y, por último, uno de los más hermosos de todos:
Cuando vaciles bajo el peso del dolor,
y estén ya secas las fuentes de tu llanto,
piensa en el césped que brilla tras la lluvia.
Cuando el resplandor del día te exaspere,
y llegues a desear que una noche sin aurora se abata sobre el mundo,
piensa en el despertar de un niño.
§. Astronomía y óptica
Otro de los campos en los que el Islam brilló, la astronomía, se desarrolló en
parte debido a necesidades prácticas, como por ejemplo determinar la dirección
de La Meca, en la que debían desarrollarse los rezos diarios. Pero los
astrónomos árabes adquirieron una destreza enorme en el manejo de la astronomía
tolemaica, que conocían al dedillo (el nombre de Almagesto, «el más
grande», que le pusieron a la obra de Tolomeo, demuestra su reverencia por él),
y re calcularon y mejoraron sus datos, para lo cual desarrollaron instrumentos
de observación como el astrolabio o la esfera armilar.
Pero además, el particular carácter universal de los sabios árabes,
llamados hakim, conocedores de todas las ciencias, los enfrentó con
la vieja contradicción: el sistema tolemaico no respondía a la física de
Aristóteles (¿recuerdan?), por lo cual se sintieron libres de esbozar algunos
ensayos para mejorar y adaptar el antiguo y abandonado sistema de las esferas
homocéntricas centradas en la Tierra, introduciendo recursos adicionales
bastante audaces (que en general eran dotaciones extra de esferas) y dando
lugar a los primeros modelos celestes no estrictamente tolemaicos, aunque
siempre geocéntricos. Es posible —sólo posible— que Copérnico, durante su estadía
en Italia, tuviera contacto con estos desarrollos.
Las ideas que pusieron en marcha en óptica abandonaron la vieja tradición de
Platón, aceptada por Euclides (bah, por casi todos en general), que sostenía
que la visión se producía por rayos que emanaban del ojo, y la sustituyeron por
rayos que emanaban de los objetos, resolviendo así diferentes problemas que,
más tarde, darían origen a la perspectiva. Alhazen (c. 965-1039), por ejemplo,
trató las propiedades de los espejos parabólicos, la cámara oscura, las lentes
y la visión.
§. Alquimias
Hablemos un poco de alquimia. No me siento cómodo haciéndolo, ya que esta
pseudociencia degeneró en pura charlatanería, pero lo cierto es que, aunque
rodeada de una atmósfera mágica y mística, la alquimia fue un primer paso
interesante en la constitución de la química como disciplina, y esto tiene que
ver, fundamentalmente, con su carácter forzosamente experimental: encerrados en
sus laboratorios, perdidos entre ollas y alambiques, los alquimistas lucharon
con la materia para arrancarle lo imposible y, así, empezaron a conocerla y a
probar y rechazar procedimientos.
Si bien la palabra «alquimia» es árabe (al-Kimiya: «kimiya» es un
derivado del griego «χυμεία», que significa «verter juntos» o tal vez de la
palabra egipcia «chemi», que significa «negro»), la alquimia como práctica tuvo
su origen en el Egipto de la era tolemaica y fue recibida por el Islam con
sorpresa y curiosidad. Alentados por el Corán (que promovía toda práctica
científica y matemática), muchos hombres se propusieron convertir metales
cualesquiera en oro, para poder atisbar así la voluntad divina. Tal vez el más
importante de todos ellos, por su modo «científico» de encarar el problema,
fuera Jabir ibn-Hayyan, nacido en 760 y, por ello, testigo de la época más
esplendorosa del imperio árabe.
Geber (tal fue su nombre cuando se occidentalizó) era un gran admirador del
pensamiento griego, no obstante lo cual se atrevió a contradecir al
incuestionable Aristóteles: en un arrebato de valentía, afirmó que la doctrina
de los cuatro elementos estaba equivocada, y que la naturaleza se componía
solamente de dos elementos: azufre (agente de la combustibilidad) y mercurio
(portador de las propiedades metálicas). Cualquier metal bajo difería del oro
únicamente por las inexactas proporciones de mercurio y azufre; trocarlo en oro
sólo era una cuestión de recombinarlos adecuadamente. Pero Geber estaba
convencido de que para lograrlo se necesitaba un catalizador, un compuesto
capaz de acelerar el proceso y que quedaría intacto al terminar: un elixir, que
no sólo tendría la propiedad de trocar en oro cualquier metal sino también de
curar enfermedades incurables, inducir la juventud permanente o la vida eterna.
El elixir, o la piedra filosofal, fue uno de los grandes protagonistas de la
historia de la alquimia.
La búsqueda del oro seguía siendo infalible a la hora de convencer a personas
para que se dedicaran a la alquimia. Al-Razi es el otro gran caso del imperio
árabe. Repentinamente interesado por la medicina gracias a una amistad
entablada con un farmacéutico, Al-Razi, un persa que vivió en Bagdad en el
siglo X, escribió El secreto de los secretos, una obra en la que,
lejos del misticismo de su título, se encargaba de describir minuciosamente los
experimentos químicos que había llevado a cabo a lo largo de su vida y de
clasificar científicamente las sustancias. En su búsqueda de la clasificación
de los elementos, Al-Razi agregó al azufre y al mercurio «jaberianos» la sal,
ya que, según decía, no era volátil ni inflamable.
A esta altura del partido (o, mejor dicho, del capítulo) ya es posible remarcar
que dentro de todas las aspiraciones imposibles de la alquimia se estaban
discutiendo también algunos temas importantes de la química. Pero no todo el
mundo lo veía así, sobre todo porque, cuando se hablaba de producir oro, nadie
se interesaba por el aspecto científico de la cuestión. Se dice que Al-Razi le
envió al emir de Khorassan, al nordeste de Persia, un tratado de alquimia en el
que se explicaba la receta para obtener oro y que el emir, intrigado, lo llamó
a la corte para que hiciera el experimento públicamente. El resultado fue tan
desalentador que el emir, enfurecido, golpeó brutalmente al pobre Al-Razi en la
cabeza con su propio libro con tal violencia que, según la leyenda, fue la
causa de la ceguera que acompañó al alquimista hasta su muerte, en el año 930.
Debajo de toda la superficie mística y mágica, ¿se estaba desarrollando una
nueva teoría de la materia? Los alquimistas, es cierto, buscaban conocimientos
que pudieran dar dominio sobre la naturaleza para manipularla y encontrar cosas
inexistentes como el elixir de vida o la piedra filosofal, pero al mismo tiempo
partían de un principio sumamente interesante y novedoso, un principio
diferente del contemplativo-descriptivo gracias al cual podían manipular la
materia en retortas y alambiques. Así, más allá de los objetivos inalcanzables
que se planteaban y tal vez de manera lateral, se iba conquistando el
conocimiento de productos como el alcohol, el agua regia (ácido nítrico y ácido
clorhídrico) y diversos ácidos y álcalis. La práctica alquímica produjo una
gran cantidad de información útil, aunque la teoría alquímica propiamente dicha
tenía poco que ofrecer a la nueva química, que comenzó a surgir recién en el
siglo XVII.
§. La medicina
Desde el siglo IX, los médicos árabes tenían acceso a las colecciones de Galeno
y consideraban la medicina como una ciencia natural. Entre ellos, el más famoso
fue el persa Avicena, autor en el siglo XI de un Canon de la
medicina tan completo y perfecto que fue usado durante mucho tiempo en las
universidades cristianas, en algunos casos hasta el siglo XVII.
Vale la pena señalar que en el siglo XIII el médico Ibn al Nafis escribió un
comentario al libro donde describía la «pequeña circulación» de la sangre (el
circuito entre el corazón y los pulmones). La influencia de la medicina
islámica fue tan fuerte que dio lugar al primer centro de medicina profesional
en Europa, en Salerno, al sur de Italia.
La verdad es que se podría escribir y escribir sobre la ciencia árabe, porque
su contribución fue realmente pavorosa, pero tras este recorrido vertiginoso y
parcial, ya que hay otras líneas de la ciencia del Islam que retomaremos luego,
el relato nos fuerza a volver a Occidente, donde está por producirse una
revolución tecnológica.
II. La revolución del siglo XI
Mientras la ciencia árabe alcanzaba su culminación y estaba pronta a
estancarse, ya que al islamizarse las sociedades conquistadas los teólogos
tomaron preponderancia sobre los científicos, Europa occidental vivía una
verdadera revolución. Por empezar, el fin de las invasiones (de los vikingos,
de los húngaros, de los sarracenos), que más o menos se produjo en el siglo X,
generó una sociedad más abierta y menos a la defensiva. Al mismo tiempo, nuevas
técnicas agrícolas permitían aumentar la producción.
A veces es impresionante ver la pequeñez de estas innovaciones en relación al
resultado que produjeron: por ejemplo, la adopción del arado eslavo (común en
el norte de Europa), más pesado que el romano, que permitía arar la tierra en
profundidad; la utilización del caballo como animal de tiro y no sólo de
guerra, resultado del descubrimiento de nuevas formas de enjaezarlo al arado
sin ahogarlo, lo cual multiplicó su potencia por diez; la proliferación de las
fuentes de energía con la incorporación de molinos hidráulicos y eólicos de
diseño más eficiente. Todo permitió un mejoramiento de la dieta y, en
consecuencia, una reducción de las hambrunas y mejora de la salud en general,
lo cual condujo al aumento sostenido de la población, que, con idas y vueltas,
se triplicó entre los siglos XI y XIV.
Y una cosa llevaba a la otra. El aumento de la necesidad de tierra cultivable
corrió de manera sistemática la frontera agrícola. Los hijos menores de las
familias numerosas (que no heredaban las parcelas, reservadas al hijo mayor)
partían en busca de nuevas tierras, o bien emigraban a las ciudades; las
ciudades, por otra parte, en muchos casos, se liberaban de sus señores feudales
(siempre necesitados de dinero para sus guerras particulares) comprándoles sus
libertades y la posibilidad de auto administrarse, y a veces se constituían en
comunas independientes de cualquier señor feudal y adonde los siervos de la
gleba podían huir: «El aire de la ciudad hace libre», aunque fuera
irrespirable.
La permanencia de un año y un día en la ciudad liberaba al campesino de su
servidumbre y entonces podía ingresar como aprendiz en las corporaciones de
artesanos o integrarse al gremio de los comerciantes y, con mucha suerte,
lograr que sus hijos y nietos fueran los incipientes banqueros.
Los grandes actores políticos de la época seguían siendo el Papa, el emperador
del Sacro Imperio Romano Germánico y los reyes de los estados nacionales que
empezaban a consolidarse, como Francia a partir de Felipe Augusto (1165-1223) o
Inglaterra después de la ocupación normanda de Guillermo el Conquistador en
1066, aunque esta última fue durante mucho tiempo un país marginal.
Pero indisimuladamente y de a poco aparecía un nuevo actor social, la
burguesía, que fue introduciendo un nuevo concepto: como busca el
enriquecimiento, le interesa el progreso y el poder, no el estancamiento, y,
además, basa sus capacidades ya no en la propiedad de tierras, baremo de todo
en la Alta Edad Media, sino en algo mucho más abstracto, el dinero, que poco a
poco va corroyendo las fronteras sociales basadas en la sangre y en la tierra.
Y, lo más importante, la burguesía mira hacia el futuro.
Este proceso fue lento y, si ustedes quieren, no se completó del todo hasta el
siglo XVIII, muy lejos del momento en que les hablo. Pero la ciudad y su
crecimiento contribuyeron a fortalecer el proceso de abstracción, la reducción
a las medidas y a las contabilidades, enormemente simplificada por la irrupción
de los números arábigos, gracias, entre otros, a Leonardo de Pisa (Fibonacci).
Desde mediados del siglo XI, las Cruzadas (que si bien no fueron sino
sangrientas expediciones de pillaje, en las que los piadosos caballeros
cristianos cometieron una suma de barbaridades tan larga, aun para los
estándares de la época, que nos llevaría un libro entero contarlas, pero que
también enriquecieron a los banqueros venecianos e italianos en general, que
prestaban el dinero para financiarlas y se veían favorecidos por el comercio
que se incrementaba a través del Mediterráneo), las Cruzadas, decía, permitieron
como «efecto colateral» la interacción entre el Oriente ilustrado, y el
Occidente incivilizado, pero en rápida evolución y cambio. Casos y cosas que
tratan, por un lado, de introducirnos en un relato que acompañe más o menos a
la historia, intentando atrapar su inverosímil multiplicidad y capturar
procesos que a veces nacían de manera confusa y desconectada, y, por el otro,
de encontrar una dirección, un sentido, que muchas veces es pura
reconstrucción. Por ejemplo: ninguna de las mejoras técnicas se derivaba de la
investigación o el pensamiento científico, pero, así y todo, instalaron la idea
de la innovación racional. Los artesanos e ingenieros todavía anónimos serán
los precursores de Roger Bacon, Leonardo y Galileo.
Nuestro problema —y supongo que será el tema central de este capítulo, o de lo
que queda de él— es ver cómo se dio ese proceso, cómo, en medio de esta
atmósfera, el pensamiento evolucionó desde la patrística hasta el triunfo del
pensamiento experimental y la crítica racional.
§. Desde Chartres le contestan a un tal Pedro Damián
¡Pobre Damián! La muerte lo llevó en una triste guerra ignorada y en una
batalla casera.
BORGES, «La otra muerte»
Lo cierto es que a partir del siglo XI o XII, la atmósfera intelectual
comienza a cambiar: por ejemplo, los hombres de la escuela de Chartres (fundada
por el obispo Fulberto en 1028, como anexo a la catedral y considerada por
mucho tiempo como el principal centro intelectual de Europa), creen en el
progreso y Bernardo de Chartres (siglo XII) llegará a decir:
Si vemos más lejos, es porque estamos montados en hombros de gigantes.
Frase que luego retomará Newton y se convertirá en lugar común para
analizar la evolución del pensamiento científico.
¿Qué era lo que estaba pasando? Indudablemente, la teología judeocristiana deja
un resquicio: Dios crea el mundo y luego se aparta de él, interviniendo cada
tanto mediante milagros. Es una fisura que permite investigar el mundo como si
fuera una cosa más, e incluso da lugar a pensar que encontrar la manera de
funcionamiento del mundo es glorificar la Creación, tal como pensaron los
teólogos judeocristianos que identificaron las ideas platónicas con los
pensamientos de un Dios que no necesita intervenir a cada instante, como Zeus
con el rayo o Poseidón con los terremotos.
Lo dicen casi textualmente los hombres de Chartres: Guillermo de Conches
(1080-1145), en su Filosofía del mundo, ataca aquellas
interpretaciones de la Biblia que le parecen irracionales. Según él, el
espíritu humano debe buscar la inteligibilidad en todas partes utilizando sus
propios recursos:
Si una cosa que afirma la sagrada escritura escapa a la razón, debemos
encomendarnos al Espíritu Santo y a la fe, pero primero hay que razonar y no
hay que abandonarse a la pereza.
Tan sólo un siglo atrás, algunos pensadores se habían alarmado ante el
despertar racionalista y de la dialéctica y así, un energúmeno como Pedro
Damián (1007-1072), santificado luego por la Iglesia y convertido en pieza
clave de «La otra muerte» de Borges, tronaba contra los dialécticos y
aconsejaba que les arrancaran la lengua (procedimiento muy de acuerdo con la
Fe, por cierto) sosteniendo que Dios, en su omnipotencia, está por encima de la
lógica.
« ¿Puede Dios hacer que Roma no haya sido fundada, habiendo sido fundada?»,
preguntaba San Pedro Damián, y su respuesta era obviamente que sí.
Guillermo de Conches, desde Chartres, parece responderle directamente:
Lo que importa no es el hecho de que Dios haya podido hacer esto o
aquello, sino examinar esto o aquello, explicarlo racionalmente, mostrar su
finalidad y su utilidad. Sin duda Dios puede hacerlo todo, pero lo importante
es que haya hecho esta o aquella cosa. Sin duda Dios puede hacer un novillo de
un tronco de árbol, como dicen los rústicos, pero ¿lo hizo alguna vez?
Es todo un programa de conocimiento, casi equiparable al destierro de
los dioses llevado a cabo por Tales. El pensamiento, ahora, no se ocupará de lo
que Dios podría haber hecho sino de lo que efectivamente hizo: la
naturaleza no deja de ser un objeto creado por Dios, pero se reconoce que
encierra sus propios mecanismos (también creados por Dios, claro está).
Así como para San Agustín las causas naturales carecían de interés, ya que no
tenían otro fin que conducir a la causa primera (Dios), para la gente de
Chartres son causas operantes. Y así es como, al lado de Platón, estudiaban a
Galeno.
En conclusión, los hombres de Chartres no dejan de ser platónicos, pero de un
platonismo naturalista: en Platón ven una concepción racional de los fenómenos
físicos, e intentan una indagación directa y concreta de los fenómenos de la
naturaleza.
§. Nacen las universidades y los universitarios
Todo cambiaba: además de las escuelas catedralicias como Chartres, empezaban a
surgir entidades intermedias más o menos independientes del poder eclesiástico.
Entre otras cosas, la oleada de traducciones de escritos del mundo antiguo
necesitaba instituciones apropiadas como las universidades, que originariamente
eran asociaciones gremiales de estudiantes o de maestros. Primero fue la de
Bolonia (1158) y luego vendrían París, Oxford (1167), Cambridge (1209), Padua
(1222), Nápoles (1224), Salamanca (1227), Praga (1347), Cracovia (1364), Viena
(1367) y St. Andrews (1410). Hacia 1500, el número de universidades había
llegado a 62.
Al principio, no fueron gran cosa: el plan de estudios se determinaba sobre la
base de las siete artes liberales. Las tres primeras o trivium eran
la gramática, la retórica y la lógica, y se dirigían a enseñar al alumno a
hablar y escribir correctamente en latín. Después venía el quadrivium,
integrado por la aritmética, la geometría, la astronomía y la música. Sólo
después de esto se podía estudiar filosofía y teología. El derecho (Bolonia) y
la medicina (Salerno) se encuadraron en otras facultades o escuelas, pero ni la
historia ni la literatura encontraron su lugar. A esta notable omisión se debe
la reacción humanista durante el Renacimiento contra todo el sistema
escolástico.
En la práctica, la enseñanza de la ciencia era muy escasa. La aritmética
consistía en la numeración; la geometría en los tres primeros libros de
Euclides; la astronomía iba poco más allá del calendario y del modo de calcular
la fecha en que cada año caerían las Pascuas; física y música eran muy
elementales. Había muy poco contacto con la naturaleza y con las artes
prácticas.
Pero con el correr del tiempo, las universidades se convertirían en los centros
de pensamiento y producción filosófica, por su misma naturaleza, cada vez más
seculares, y su lenguaje y modos de pensar son los que darán lugar al
surgimiento de la escolástica.
§. La escolástica tiene mala fama y es injusto
Si bien es verdad que la escolástica, es decir, el conjunto de doctrinas
enseñadas en las escuelas medievales, tiene mala fama (especialmente propagada
por los hombres del Renacimiento), no puede negarse que resultó protagónica
entre los siglos IX y XII y fue a través de ella, a partir del siglo XI, donde
se filtró poco a poco lo que más tarde se llamó teología racional, que empezó a
minar subversivamente el viejo dicho de que «la filosofía es una simple esclava
de la teología».
La palabreja venía del viejo término griego, scholastikos, que se
utilizaba para designar a un filósofo profesional y, en las más tempranas
escuelas religiosas cristianas, al director: scholasticus. Y se
puede rastrear hasta el renacimiento carolingio.
Aunque ya para el siglo XV la escolástica se estancaría en discusiones sobre
minucias sin sentido (por lo menos para nosotros), refrescó y puso en primer
plano la discusión y el debate racionales (principalmente mediante la
dialéctica, que significaba, precisamente, discutir con argumentos y
contraargumentos, lo cual alarmaba tanto, y con razón, a San Pedro Damián). Ya
Escoto Erígena, sucesor de Alcuino en la Escuela Palatina de Carlomagno,
proclamaba que la filosofía era la búsqueda de Dios, y por lo tanto, no era
diferente de la religión, pero que alcanzado el conocimiento de Dios, la razón,
asistida por Él, tenía un papel en la indagación crítica para discernir la
autoridad verdadera de la falsa.
Les recuerdo, de paso, que el mundo que describía Escoto Erígena estaba
constituido por los cuatro elementos; incluso llegó a enseñar el sistema
cosmológico de Heráclides Ponto, en el que Mercurio y Venus giraban alrededor
del Sol y, parece, lo extendió a otros planetas como Marte y Júpiter, en una
premonición de lo que medio milenio más tarde haría Tycho Brahe. Aunque quizá
lo hizo porque, simplemente, no conocía a Tolomeo.
Bueno, pero esto fue una muy pequeña digresión: también fue el pensamiento
escolástico el que recibió las obras de Aristóteles y logró conciliarlas con el
dogma. Y fue dentro de la escolástica donde se dio el movimiento que llevaría
por un lado a la ciencia experimental, y por el otro a la crítica científica
racional.
III. En la taberna
La ciencia experimental y el análisis científico racional, que no es
sino la aplicación de las matemáticas a las teorías científicas… Cuando estas
dos vertientes se juntaran y se cortara el lazo entre razón y fe, estarían
dadas las condiciones para el nacimiento de la ciencia moderna.
Pero trataremos de desbrozar el camino poco a poco, ya que la historia de la
ciencia, como la historia en general, es confusa, y no tiende a ningún fin en
particular. Muchas veces se detectan líneas de evolución, cambio o pensamiento
(y de retroceso, por qué negarlo), que sólo existen en la cabeza del volátil
autor de estas páginas a quien le gusta imaginarse sentado en una taberna,
siguiendo los preceptos de Omar Kayyam, aunque no hasta el extremo de no poder
seguir escribiendo. Tampoco al pie de la letra, ya que aquí venden cerveza
caliente en lugar de vino, pero para el caso es lo mismo.
Del fondo provienen unos cantos rasposos:
In taberna quando sumus,
non curamus quid sit humus,
sed ad ludum properamus ,
cui Semper insudamus.
Quid agatur in taberna
Ubi nummus est pincerna,
Hoc est opus ut queratur,
si quid loquar, audiatur.
Quidam ludunt, quidam bibunt,
Quidam in discrete vivunt.
Sed in ludo quimorantur,
Ex his quidam denudantur
Quidam ibi vestiuntur,
Quidam saccis induuntur.
Ibi nullus timet mortem
sed pro Baccho mittunt sortem.
Con esfuerzo, logro traducir rústicamente:
Cuando estamos en la taberna,
No pensamos sobre cómo iremos al polvo,
sino que nos apuramos a jugar,
lo cual siempre nos hace sudar.
Lo que pasa en la taberna,
donde el dinero es anfitrión,
bien puedes preguntarlo
y oír lo que digo.
Algunos juegan, otros beben,
otros se comportan libertinamente.
Pero de aquellos que juegan,
algunos están desnudos,
otros con ropa,
algunos se tapan con sacos.
Aquí nadie teme a la muerte,
sino que se echa la suerte en honor a Baco.
En una mesa distingo a un grupo de estudiantes que bromea en latín
(obviamente, ya que provienen de todas partes de Europa y el latín es la
única lingua franca) y toman hidromiel…, algunos acusan a un joven
de melancolía o tristitia, que consiste en negarse a gozar de los
bienes espirituales que tanto abundan en la taberna; los más alegres, o los que
tomaron más cerveza, tratan de seducir a la rechoncha tabernera.
La música del fondo continúa, y alcanzo a ver que proviene de un grupo de
goliardos zaparrastrosos (algo así como clérigos-bardos) que, abrazados,
continúan entonando canciones con el grueso humor medieval:
O, ó, ó
totus flore-ó,
iam amore virginalis
totus arde-ó,
novus, novus, novus amor est,
quo pé-reo.
Sin sospechar que mil años más tarde Carl Orff las retomará en su Carmina
Burana.
Pero me dejo llevar por la conversación de los estudiantes, que en medio del
barullo comentan los conflictos que enfrentan a alumnos y profesores en la
Universidad de París. Aunque el latín del volátil autor de estas páginas es
bastante flojo, le alcanza para entender que poco a poco la charla va derivando
hacia una discusión profunda sobre el que probablemente será el gran tema de la
filosofía medieval: la querella de los universales.
§. El nombre de la rosa
Algunos de ellos son realistas y piensan que los términos universales son
preexistentes a los individuos particulares (es decir, que hay una rosa
universal que preexiste a las rosas particulares); otros, nominalistas,
sostienen que son los individuos particulares sumados los que construyen los
términos universales, que en verdad no tienen ningún estatus ontológico sino
que son sólo nombres, recursos lingüísticos: son las rosas de este mundo las
que generan el universal lingüístico «rosa». La discusión no es menor, puesto
que tiene consecuencias para el dogma: aceptar la postura nominalista
implicaría que cada uno de los integrantes de la Trinidad (Padre, Hijo y
Espíritu Santo) es un individuo separado, lo cual conduciría al politeísmo. No
es casual que los estudiantes alcen el tono de voz y se acusen los unos a los
otros.
Pero el dogma cristiano, que es omnipresente, no es lo que nos interesa aquí:
si la Trinidad esto o la Trinidad aquello no nos afecta especialmente; lo que
sí hay que señalar es que los nominalistas, al jerarquizar los objetos
individuales, incitan a estudiarlos natural o experimentalmente; los realistas,
al poner el acento en las ideas, tenderán hacia las matemáticas y la lógica.
Las dos vertientes, otra vez, que tarde o temprano terminarán por juntarse.
El otro gran tema medieval fue el de las relaciones entre razón y Fe: ¿cómo
conciliarlas?, ¿cuál es superior a cuál? Este asunto… pero un momento; oigo
mencionar a Aristóteles… para variar…
§. La vuelta de Aristóteles
Efectivamente, ahora los estudiantes están hablando de sus textos y burlándose
de la absurda prohibición del obispo Tempier. Dicen que la reintroducción del
pensamiento greco-árabe, realizada a través de verdaderas empresas de
traducción (como la que funcionaba en Toledo, reconquistada por los cristianos
en 1085, y que uno de ellos asegura haber visitado) representa un viento nuevo
para el pensamiento, en especial por los problemas que produce: muchas de las
tesis de Aristóteles son heréticas, dicen algunos, como la de la eternidad del
mundo, que contradice la creación, o la necesariedad del mundo, que contradice
la omnipotencia divina y precisamente por eso, argumentan otros, fueron
condenadas por el Papa y prohibidas en 1277 por el obispo Tempier en París.
Antes de dejarme llevar por la conversación, tengo que aclarar algo: uno de los
principales agentes de la vuelta de Aristóteles fue Averroes (así fue
«traducido» su verdadero nombre, Ibn Rushd, en el Medioevo) (1126-1198), el
mayor filósofo musulmán. Su estilo librepensador lo enfrentó con la ortodoxia
religiosa y le valió persecuciones y hasta el exilio. Buena parte de su vida la
dedicó a comprender la obra de Aristóteles, «la más alta perfección humana».
Según él, la revelación divina y la filosofía trabajaban en distintos planos,
lo que impedía que se produjeran choques entre ambas. La filosofía tenía
prácticamente el valor de una religión para quienes estuvieran más preparados
intelectualmente. Según Averroes, y esto es muy interesante porque muchos
creyentes «racionalistas» utilizarían el argumento, Dios era un principio de
racionalidad y no un demiurgo caprichoso capaz de cualquier cosa. Es importante
comprender este argumento porque permitirá a muchos intelectuales continuar con
sus investigaciones sin tener que enfrentarse con la religión o con su propia
necesidad de creer en Dios, a quien Averroes identificó con el primer motor
inmóvil aristotélico.
Bueno, la cuestión es que el impacto de la filosofía de Aristóteles fue
tremendo. Es posible que se debiera al esfuerzo de un puñado de científicos, y
no hay que descartarlo, pero también al espíritu de crecimiento (y al
crecimiento real) de Europa y a la actitud más secular que provenía de las
ciudades, atentas a sus negocios más que a la doctrina cristiana. También puede
ser que los márgenes del dogma cristiano fueran sentidos como asfixiantes en
una sociedad de filósofos y pensadores (y tal vez científicos, por qué no) que
quería ver más lejos montándose en hombros de gigantes. Y Aristóteles era un
gigante, por cierto.
Desde ya, los nuevos textos avivaron la lucha que nunca terminaba entre razón y
fe, porque, como bien señalaban los estudiantes, estaban plagados de ideas que
se llevaban mal con el dogma cristiano.
El pensador medieval, entonces, se veía obligado a enfrentar un conflicto
central. Si la cosmología cristiana se basaba en la fe y la nueva ciencia se
había de basar en la razón, ¿cómo conciliarlas, teniendo en cuenta que los
tiempos no daban para abandonar a —o por lo menos despreocuparse un poco de— la
primera?
La ciencia había nacido de la separación entre razón y fe; luego la segunda
había triunfado y ahora se trataba de hacerlas convivir pacíficamente.
Fue Tomás de Aquino (1225/6-1274), probablemente el más grande de los filósofos
escolásticos, quien logró introducir a Aristóteles dentro del dogma. Se ordenó
fraile dominico y estudió con Alberto Magno, uno de los aristotélicos más
famosos de la época. Su gran logro fue convencer a la Iglesia de que el sistema
de Aristóteles era preferible al de Platón como base de la filosofía cristiana.
La razón natural —dice Tomás— es deficiente en las cosas de Dios: puede probar
algunas partes de la fe, pero otras no; puede probar, por ejemplo, la
existencia de Dios y la inmortalidad del alma, pero no la Trinidad, la
Encarnación o el Juicio Final. Tomás sostiene que es importante separar las
partes de la fe que se pueden probar por la razón de las que no, tomando así la
senda de la teología racional. La filosofía de Aquino coincide con la de Aristóteles,
con la particularidad de adaptar el pensamiento del Estagirita al dogma
cristiano con mínima alteración. En su tiempo fue considerado un atrevido
innovador; incluso después de su muerte muchas de sus doctrinas fueron
condenadas por las universidades de París y Oxford. Gracias a él, el
escolasticismo dio un paso decisivo al incluir los textos aristotélicos.
§. La escuela de Oxford y el resurgimiento de la empiria
También estaba en el grupo un erudito de Oxford que llevaba largo tiempo
estudiando lógica. Su caballo era delgado como un poste y os aseguro que él no
estaba más gordo. Tenía un aspecto enjuto y atemperado. Se cubría con una capa
corta muy raída. No había encontrado todavía subvención y era demasiado poco
mundano para ejercer un empleo. Prefería tener en la cabecera de su cama los
veinte libros de Aristóteles encuadernados en negro o en rojo que vestidos
lujosos, el violín y el salterio. A pesar de toda su sabiduría, guardaba poco
dinero en su cofre. Gastaba en libros y erudición todo lo que podía conseguir
de sus amigos, y en pago rezaba activamente por las almas de los que le
facilitaban dinero para proseguir su formación. Dedicaba la máxima atención y cuidado
al estudio. Nunca pronunciaba palabras innecesarias y hablaba siempre con
circunspección, brevedad y concisión, y selecto vocabulario. Sus palabras
impulsaban hacia las virtudes morales. Disfrutaba estudiando y enseñando.
CHAUCER, Los cuentos de Canterbury
Con todo este asunto de la teología racional, dejé de lado el problema
del empirismo, que pensaba tratar primero. Quizá me distraje con los
estudiantes que discutían a Aristóteles y sus argumentos: es maravilloso cuando
en un fragmento de conversación uno encuentra la síntesis de una época. En
realidad, cree encontrar, ya que la síntesis de una época (y no quiero iniciar
una discusión escolástica) raramente existe, pero noten que no me animé a decir
«no existe».
Es difícil moverse en medio de todas estas sutilezas teológicas y dialécticas,
pero es notable que la línea empírica haya provenido de los principales
opositores al aristotelismo: los franciscanos, que luchaban por el poder
intelectual contra los dominicos y su teología racional. Tuvieron dos centros:
París y Oxford; en París, prevaleció una corriente principalmente mística; en
Oxford, una tendencia platonista que los relaciona con los hombres de Chartres.
Curiosamente, esta tendencia platonista se combinará con un vivísimo interés
por los fenómenos naturales.
§. Un mundo de luz
Robert de Grosseteste (1175-1253), uno de los principales exponentes de la
escuela de Oxford, no renegó del dogma y aseguraba que «la verdad de las cosas
consiste en su conformidad con el Verbo», aunque esto no le impidió observar el
mundo material con interés y, bebiendo del agua de Tales, armar una verdadera
cosmogonía basada en la luz, considerada como forma primera y lugar de todas
las sustancias. El Universo podía ser reconstruido racionalmente, aseguraba,
partiendo de un punto desde el cual irradia la luz.
Naturalmente, esta cosmogonía colocaba a la óptica por encima de todas las
demás disciplinas, y pretendía explicar todos los fenómenos por medio de
líneas, ángulos y figuras geométricas simples. Con ello, apelaba ampliamente al
principio aristotélico según el cual la naturaleza realiza siempre sus fines
con el máximo de economía o, con sus palabras, «la naturaleza actúa según el
camino más corto posible».
Lo cual tenía sus connotaciones epistemológicas: Grosseteste, como buen
científico, se ocupó de reflexionar sobre el método y llegó a sugerir que se
utilizara la falsación. Luego de hallar, por la clasificación de los hechos y
por un acto original de intuición, las posibles causas de un fenómeno, admitía
que se eliminaran por deducción todas aquellas en las que algunas de sus
consecuencias resultaran contradictorias con la lógica o con nuevas
observaciones.
El método sirvió para dar algunas explicaciones vagas, como que el cometa es un
fuego sublimado, separado de la naturaleza terrestre y asimilado a la
naturaleza celeste, especialmente a la de los siete planetas o que el arco iris
es el producto de la intervención de dos refracciones en una nube convexa, la
segunda de las cuales se produce en el límite entre la parte menos densa de la
nube y la más densa de la llovizna.
Como buen platónico, Grosseteste creía que la naturaleza se esconde y engaña y
que sólo en la matemática puede encontrarse una verdad incorruptible y
absolutamente certera. De hecho, consideró a las ciencias físicas como
subordinadas a las ciencias matemáticas, en el sentido de que sólo ellas podían
dar la verdadera razón de los hechos físicos observados. Pero al mismo tiempo
derivó el principio fundamental de su método de Aristóteles, aunque
desarrollándolo de una forma más completa.
En fin: podría decirse que unió tempranamente y en apretada síntesis a Platón y
Aristóteles y por eso se lo considera como fundador de la tradición del
pensamiento científico en la Oxford medieval.
§. Submarinos y máquinas voladoras
—Pero tú, Guillermo, hablas así porque en realidad no crees en el
advenimiento del Anticristo, ¡y tus maestros de Oxford te han enseñado a
idolatrar la razón extinguiendo las facultades proféticas de tu corazón!
—Te equivocas, Ubertino —respondió con mucha seriedad Guillermo—. Sabes que el
maestro al que más venero es Roger Bacon…
—Que deliraba acerca de unas máquinas voladoras —se burló amargamente Ubertino.
—Que habló con gran claridad y nitidez del Anticristo, mostrando sus signos en
la corrupción del mundo y en el debilitamiento del saber. Pero enseñó que hay
una sola manera para prepararse para su llegada: estudiar los secretos de la
naturaleza, utilizar el saber para mejorar el género humano.
—El Anticristo de tu Bacon era un pretexto para cultivar el orgullo de la
razón.
—Santo pretexto.
ECO, El nombre de la rosa
El discípulo más célebre de Grosseteste fue Roger Bacon (1214-1294),
quien no dejó de ser un medieval auténtico y un teólogo antes que nada. Aunque,
como su maestro, entre discusión y discusión sobre la naturaleza de Dios,
lanzaba frases sorprendentes, como la de que «nada puede conocerse de las cosas
de este mundo sin saber de matemáticas» (tal vez evocando aquello que estaba
escrito en la entrada de la Academia platónica) o, contradiciéndose a sí mismo,
la de que «el razonamiento nada prueba; todo depende de la experiencia».
En rigor, Bacon fue un experimentalista que reconoció, tempranamente, la
importancia de las matemáticas como herramienta de conocimiento. Este intento
de conciliación entre lo racional y lo experimental es fundamental para
entender la evolución del pensamiento científico. Escuchemos a Bacon:
Los latinos ya han echado las bases de la ciencia en lo que se refiere a
las lenguas, a la matemática y a la perspectiva; yo ahora quiero ocuparme de
las bases suministradas por la ciencia experimental, pues sin experiencia nada
puede saberse suficientemente. Si alguien que nunca vio fuego prueba mediante
el razonamiento que el fuego quema, altera las cosas y las destruye, el
espíritu del oyente no quedará satisfecho con ello y no evitará el fuego antes
de haber puesto en él la mano o una cosa combustible para probar mediante la
experiencia lo que le enseñó el razonamiento. Pero una vez adquirida la
experiencia, el espíritu se siente seguro en la luz de la verdad. De manera que
el razonamiento no basta, hace falta la experiencia.
Razonamiento y experiencia: ambas cosas van de la mano y de su
conjunción surgirá la ciencia moderna.
Dije, al principio, que Bacon fue sin lugar a dudas un hombre de su tiempo, y
les mentiría si no les mostrara también esta faceta. El desarrollo de la
ciencia experimental, creía, tendría que ser aprovechado por la Iglesia en
provecho propio, por ejemplo, para luchar contra los infieles y conjurar los
peligros que la amenazaban. Tendrían que fabricarse barcos sin remeros, carros
automóviles, máquinas voladoras, aparatos para viajar por el fondo del mar,
puentes colgantes e instrumentos que permitieran leer a distancias increíbles.
A pesar de que —contrariamente a lo que hizo Leonardo da Vinci— estas ideas no
fueron acompañadas por investigaciones, parece casi seguro que Roger Bacon
conocía la pólvora y posiblemente inventó los anteojos, ya que estuvo muy
interesado por las combinaciones posibles de lentes y espejos cóncavos. También
fue un precursor de la fotografía, al usar la cámara oscura para observar un eclipse
de Sol.
Y mientras yo me enredo en los intentos de Bacon y Grosseteste por entender la
vacilante realidad, escucho que los estudiantes comentan la paradoja que tengo
en mente desde el comienzo del capítulo y que no puedo explicarme de ninguna
manera: fueron los aristotélicos los que siguieron la línea de revalorizar la
razón, y los platónicos quienes hicieron fuerza por las ciencias empíricas.
«Quizá no era una paradoja, y simplemente sucedía que platónicos y
aristotélicos estaban siendo arrastrados por el espíritu de los nuevos
tiempos», me digo, mientras yo mismo, insatisfecho con mi propia explicación,
me veo también arrastrado por la somnolencia que da la cerveza hacia uno de los
más grandes pensadores del Medioevo.
IV. La navaja de Ockham
Es así: ahora los estudiantes se han puesto serios y están hablando
sobre Guillermo de Ockham. Tentado estoy de decirles que Ockham inspiraría el
personaje de Guillermo de Baskerville, en El nombre de la rosa,
pero seguramente no me creerían.
El canto de los goliardos se atenúa. Puedo escuchar claramente, entonces, lo
que dicen los estudiantes sobre mi personaje favorito de la Edad Media. Me
alegra que hayan abordado este tema, y más me alegra escuchar que todos sienten
una admiración especial por Ockham, probablemente el responsable del corte
definitivo con la discusión acerca de la relación entre fe y razón (lo cual le
valió la excomunión del Papa y de la orden franciscana, a la que pertenecía).
Y es que Guillermo de Ockham (1284-1349) fue el pensador más importante del
siglo XIV europeo, el que de alguna manera anunció el final de la escolástica
medieval y el que estableció un nexo (temprano, por cierto) con lo que sería la
nueva ciencia que representaría Galileo, doscientos cincuenta años más tarde.
Había nacido en la aldea de Ockham, a unos treinta kilómetros de Londres,
alrededor de 1280, e ingresado en la orden franciscana. Realizó sus estudios en
Oxford, donde se vio influido por Roger Bacon y donde funcionaba, dicho sea de
paso, una escuela que investigó y encontró grandes novedades en física y en la
teoría del movimiento; luego de escribir algunas de sus obras, fue llamado en
1324 a Aviñón (entonces residencia de la corte papal) por el papa Juan XXII
(1244-1334), para responder a una acusación de herejía; en 1328, cuando la cosa
se puso espesa y los problemas teológicos se implicaron con los políticos
(puesto que tomó «la opción por los pobres» de los orígenes del franciscanismo
en contra del despilfarro y la riqueza de la corte papal), se escapó y se
refugió en Pisa bajo la protección de Luis VI de Baviera, a quien siguió
después a Münich, donde murió en 1349 durante una epidemia de cólera.
El pensamiento medieval, como venimos diciendo y repitiendo, se arrastró en
medio del difícil problema de conciliar la razón y la fe. Mientras que algunos
pensadores optaban por la fe lisa y llana, y negaban la posibilidad de la razón
o la subordinaban a la teología y a la revelación, a partir del siglo XII, con
la reintroducción del aristotelismo, se produjo un esfuerzo marcado por
encontrar entre ambas una articulación aceptable tanto para la teología y el
catolicismo papal omnipresente como para la «ciencia según Aristóteles», que
pretendía llegar a la verdad a través de la observación y el razonamiento. Ya
vimos que había sido Tomás de Aquino quien le había dado al aristotelismo
documento de identidad para moverse libremente por la Ciudad de Dios pretendida
por la Iglesia (ciudad a la que el correr de los tiempos iba convirtiendo cada
vez más en ciudad terrena).
Pero no es de Tomás de Aquino sino de Ockham de quien hablan los estudiantes. Y
me alegra, porque Guillermo toma una postura radicalmente diferente y opuesta a
la de Tomás de Aquino: si éste había trabajosamente ordenado y jerarquizado las
«verdades de fe» y las «verdades de razón», para nuestro buen Guillermo no
existe ni puede haber ninguna articulación entre ellas: la razón y la fe no
tienen nada que ver, la teología y la filosofía (o la ciencia) se ocupan de
cosas distintas, por caminos distintos y no pueden prestarse ningún apoyo mutuo
(una separación que en su momento marcará claramente Galileo).
Pero además, y a pesar de venerar a Aristóteles, Ockham rompía con el
aristotelismo, negando la posibilidad de conocimiento universal: todo
conocimiento se deduce de la experiencia con los objetos individuales, que
luego puede o no plasmarse en ideas generales, que están en el pensamiento,
pero no en el mundo. Afirmaba enérgicamente que la única fuente de conocimiento
es la intuición sensible, que nos pone en contacto inmediato con la realidad de
los objetos individuales: sólo esa intuición está en condiciones de llevarnos a
efectivos juicios de existencia. Todas las otras formas cognoscitivas derivan
de la experiencia y encuentran en ésta su adecuada justificación.
Así, establecía un fuerte énfasis en la importancia de lo experimental, que
cuajará a través de Jean Buridan en la teoría del ímpetus, una
descripción del movimiento que desbancará el temible y ya estrecho corset
aristotélico sobre el tema, y que será la inspiración del joven Galileo para
avanzar hacia la ley de caída de los cuerpos.
Esto fue en relación con las disciplinas científicas, o la filosofía natural,
pero no fue todo: en teoría política, Ockham proclamó un dualismo parecido
entre poder temporal (el emperador) y espiritual (el Papa): el Papa no era sino
un príncipe de la Iglesia, falible como cualquiera, y por tanto ya no el
árbitro de la verdad; los príncipes temporales, por su parte, se ocupaban de
las cuestiones civiles y no tenían que rendir ningún tipo de pleitesía al Papa.
No es extraño que tuviera que escaparse de Aviñón: en sus últimos escritos,
reclamó la separación de la Iglesia y el Estado, avanzó singularmente hacia la
tolerancia y la libertad de pensamiento («fuera de la teología, cada uno
debería ser libre de decir lo que le parezca y le plazca»), valores que ya
prenunciaban el Renacimiento, que todavía tendría que esperar un siglo para
aparecer.
En fin: Guillermo de Ockham fue un pensador múltiple y feraz que adivinó la tolerancia
y el pensamiento libre, que enfocó los principales problemas de su época y la
liberó de la pesada carga del dilema razón-fe.
¿Y la navaja de Ockham?
Es una concepción que tiende a excluir del mundo y de la ciencia, en nombre de
la economía de pensamiento, a todos los entes y conceptos superfluos, y, antes
que nada, a los conceptos y los entes puramente metafísicos. En rigor, lo que
él enunció fue que «no se debe multiplicar de manera innecesaria el número de
los entes», y que cuando estamos ante dos teorías igualmente explicativas, se
debe elegir la más simple.
Tras pasar por su navaja, la idea de Dios es totalmente distinta: en tanto no
podemos tener experiencia directa de su existencia, sólo puede tenerse fe, y
ésta no tiene nada que ver con la ciencia; de esta manera parece salvarse
finalmente la necesidad de congeniar constantemente la palabra de Dios con la
naturaleza que se percibe. Las complejas disquisiciones teológicas empiezan a
perder atractivo y el mundo comienza a ser el lugar en donde deben buscarse las
respuestas. Durante los siglos XIII y XIV el método experimental se extendió y
aunque no produjera grandes teorías, o teorías que más tarde se verían como
ciencias del Renacimiento, abrió la puerta para que las nuevas generaciones urbanas
profundizaran el trabajo.
Así, pues, después de Chartres, Oxford, París , Santo Tomás de Aquino, y,
especialmente, de Guillermo, la filosofía y el naturalismo dejaron de ser
«siervas de la teología», y se deslizaron por esa fractura entre el mundo y Dios.
Instalados con firmeza en esa grieta, no hicieron otra cosa que ensancharla.
La navaja de Ockham cortó de una vez por todas, la ligazón entre razón y fe.
El camino quedaba despejado. Pero aún faltaba algo.
§. Nicolás de Cusa: el universo indeterminado
Es casi un lugar común afirmar que Giordano Bruno fue el primero que declamó la
infinitud del universo y que, por eso, terminó como terminó: quemado en la
hoguera por la no muy tolerante Iglesia Católica de la época, que habría de
tener unos años más tarde un siniestro episodio con Galileo Galilei, el hombre
que fundó la ciencia moderna, del que ya hablaremos in extenso.
Y sin embargo fue en realidad un clérigo, acaso la mentalidad especulativa más
importante del tardío Medioevo, el que puso las primeras piedras del puente
teórico que permitiría pasar del mundo cerrado de la Edad Media al universo
infinito de la modernidad. Ese hombre, nacido en Cusa, se llamaba Nicolás,
estaba fuertemente influido por el platonismo humanista y había estudiado en
Padua, el mismo lugar donde estudiaría medicina Copérnico y donde Galileo
terminaría por resolver el milenario problema del movimiento.
Cusa no decía, en realidad, que el universo fuera infinito sino que hablaba de
una «indeterminación» de sus límites, lo cual acarreaba un fuerte corolario
epistemológico: si el propio universo no estaba determinado en sus
constituyentes, todo conocimiento que se tuviera de él, se adquiriera por la
vía que se adquiriera, era parcial y refutable. Por eso la actitud aconsejable
era la de una docta ignorantia, un reconocimiento de la
imposibilidad de conocer la totalidad que no llevara a un abandono de la tarea
de conocer sino todo lo contrario.
En consonancia con el complejo sistema metafísico que elaboró, Cusa proclamó,
entre otras cuestiones revolucionarias para la época, que en ningún lugar de la
naturaleza existían las órbitas perfectamente circulares sugeridas por el
maestro Platón, que la Tierra se movía, que no era el centro del universo
(porque en verdad era imposible determinar un centro para algo indeterminado) y
que, por ende, el movimiento de los cuerpos era relativo:
está claro que la Tierra se mueve realmente, aunque no nos parezca así,
ya que no aprehendemos el movimiento a menos que se pueda establecer cierta
comparación con algo fijo. Así, si un hombre que estuviese en un bote en medio
de una corriente no supiese que el agua estaba fluyendo y no viese la orilla,
¿cómo habría de aprehender que el bote estaba moviéndose?
Pero lo cierto es que, por más audaz e inteligente que fuera su
pensamiento, nadie le dio mucha importancia, al menos hasta que Bruno y
Copérnico reconocieron en él a un precursor. Tal vez ése sea el triste destino
de los que se quedan a mitad de camino: porque, como dice Alexander Koyré, el
mundo del cardenal «no era ya el cosmos medieval, aunque todavía no era en
absoluto el universo infinito de los modernos».
V. Finale
Los estudiantes abandonan a Ockham y a Cusa y se van. Ya es de noche y
yo también debo irme, aunque me produce un poco de inquietud cruzar la puerta y
salir a la noche medieval. Sin embargo, lo hago, y me sorprendo porque apenas
pongo un pie en la calle una moto pasa rozándome: he vuelto a mi lugar.
Resuena en mí el canto de los goliardos:
O, ó, ó
Totus flore-ó
Iam amore virginalis
Totus arde-ó
Novus novus novus amor est
Quo pére-o.
Quo pére-o….
Capítulo 10
Magos, brujas, humanistas e ingenieros: de la Edad Media al Renacimiento
Bueno, me costó bastante —y no sé si lo conseguí— tratar de sintetizar
el desarrollo de las ideas científicas medievales, con sus sutilezas
teológicas, con el realismo y el nominalismo, con la famosa navaja que
finalmente iba a cortar el vínculo vicioso entre Razón y Fe, mediante palabras
por momentos parecidas a las que más tarde usará Galileo: palabras que, de
alguna manera, comenzaron a establecer, ya en el siglo XIV, un nuevo clima
basado en la combinación de racionalismo y mentalidad experimental, las dos
herramientas del pensamiento que acompañarían el crecimiento de Europa, y la
conducirían a la Revolución Científica.
Ojo: no es que Guillermo de Ockham inventara el mundo moderno, sino que, al
revés, creó su navaja porque el mundo moderno ya estaba inventado o, mejor
dicho, estaba inventándose en el corazón del orden medieval. No quiero caer en
el reduccionismo economicista o sociologista, pero es obvio, creo, que las
ideas se fraguan y fructifican solamente — ¿solamente?— cuando el terreno es
fértil. Ockham puso a disposición de los científicos por venir el escalpelo con
el que cortar definitivamente con una época en la que la religión se entrometía
constantemente en la observación del mundo.
Naturalmente, los factores que contribuyeron a la aparición de una nueva
cultura fueron muchos, pero me gustaría destacar dos: por un lado, la
decadencia del Papado y el Imperio, los dos principales actores políticos
medievales, en favor de las monarquías nacionales, las signorias y
los principados italianos y alemanes; por el otro, la emergencia y
consolidación de una nueva vida ciudadana y una nueva clase, la burguesía, por
ahora más mercantil que industrial. Ambos favorecieron la ruptura del orden
social feudal, en el que cada persona ocupaba un lugar fijo e inamovible en un
sistema total, y permitieron que se fuera gestando una perspectiva que otorgaba
más elasticidad, movilidad, protagonismo y libertad al individuo. Noten que no
digo «el sujeto».
Así es como nos aproximamos con alegría, rotundamente, al Renacimiento, un
período que podemos ubicar más o menos entre la segunda mitad del siglo XIV y
finales del siglo XV. Aunque sé que no fue así, no puedo dejar de imaginar a la
Edad Media iluminada por la luz mortecina del atardecer de invierno, y a la
Florencia renacentista, pletórica por el sol de un mediodía primaveral.
Insisto: es sólo producto de mi imaginación, o de la del volátil autor de estas
páginas, que también soy yo, que ni siquiera vuela por su cuenta, sino que se
deja llevar por la imagen que forjaron los propios renacentistas. En realidad,
al abordar este período, nos vemos enfrentados al eterno problema de la ruptura
y la continuidad: ¿es el Renacimiento una continuación y desarrollo de las
fuerzas que ya se manifestaban en siglos anteriores, o hay una ruptura más o
menos radical?
Si nos pusiéramos en la cabeza de los renacentistas, la respuesta carecería de
cualquier tipo de ambigüedad: así como les decía que los medievales no sabían
que eran medievales, los hombres del Renacimiento fueron muy conscientes (y se
esforzaron para dejarlo en claro) de que estaban viviendo una nueva etapa del
pensamiento y la cultura, una etapa que chocaba de manera radical con las
corrientes filosóficas y científicas de los siglos medievales.
En rigor de verdad, la fama de la Edad Media como un período negro para la
historia de la humanidad (fama que, si se tomara en cuenta sólo hasta el siglo
XI, estaría sensatamente ganada) nace con el Renacimiento, cuando los
intelectuales, en especial los italianos, deciden que entre la antigüedad
clásica y ellos se interpuso una etapa de oscuridad y retroceso.
¿Era esto cierto? ¿Estaban los renacentistas forjando una verdadera revolución
cultural?
En realidad, es muy difícil saber cuándo se está viviendo una revolución
cultural hecha y derecha: pensemos en nosotros mismos, que hoy percibimos la
aparición de Internet y las nuevas tecnologías como una ruptura radical, aunque
acaso algunos historiadores, dentro de doscientos años, lo vean como un eslabón
más del proceso de expansión de las comunicaciones iniciado con el telégrafo en
el siglo XIX.
Haya habido una genuina revolución o no, lo cierto es que la época del
Renacimiento consolida el ascenso de una sociedad burguesa a cuyas necesidades
hay que atender. Los artistas, ingenieros, hidrógrafos, arquitectos,
inventores, no esperarían a que fraguaran las grandes teorías y las poderosas
herramientas de la Revolución Científica del siglo XVII, que obviamente no
podían imaginar, para actuar, desarrollarse y beneficiarse con la protección de
los príncipes (en el caso de los italianos, muchas veces grandes señores
banqueros o descendientes de banqueros, como los Médicis de Florencia).
A lo largo del siglo XV, la multiplicación de los grandes trabajos civiles y
militares reconfiguró el mapa y la teoría militar a partir de la invención, o
descubrimiento e implementación, de la pólvora, e impuso nuevos desafíos, que
cambiaban por completo las artes y técnicas de la guerra; la publicación de
tratados especializados, por otra parte, familiarizó a los espíritus con esas
ingeniosas máquinas que asociamos con Leonardo da Vinci, pero que
—recordémoslo— deberíamos asociar también con las profecías de Roger Bacon en
el siglo XIII sobre aviones y submarinos.
No hay ni qué decir de la aparición de la imprenta, que multiplicó y abarató
notablemente el costo de los libros: solamente en Venecia, la ciudad con mayor
«mercado editorial» de Europa, se publicaron dos millones de ejemplares en el
siglo XV.
Pero sí quisiera decir algunas cosillas sobre otro de los grandes
acontecimientos de la época: el «descubrimiento» de América, que cambió la
cosmovisión europea de una manera radical e insospechada.
§. Un navegante afortunado
Hagamos una aclaración obvia: Colón y los que lo siguieron no descubrieron nada
o, en todo caso, «descubrieron» algo para los europeos en el mismo sentido en
que uno puede contarles a sus amigos que «descubrió» un nuevo restaurante, o
que «descubrió» tal o cual ciudad durante un viaje. No tiene sentido decir que
«descubrió» un continente donde vivían noventa millones de personas.
Y éste es, también, el lugar de aclarar otro punto: desde el comienzo del
libro, en que hablamos de las cosmologías primitivas, hay una notable ausencia
de la «ciencia» desarrollada, entre otros pueblos americanos, por los mayas y
los aztecas, y eso requiere una justificación. Lo cierto es que no sabemos
demasiado sobre el pensamiento astronómico y científico en general de las
grandes civilizaciones americanas, entre otras cosas porque los españoles se
encargaron, en el «nombre de la verdadera fe», de quemar cuanto documento fuera
combustible, y de destruir todo lo que pudiera ser destruido. El
«descubrimiento» de América fue una empresa de saqueo y pillaje de una escala
pocas veces vista en la historia (que, dicho sea de paso, financió en gran
medida el desarrollo europeo), y un pavoroso genocidio, que no dejó en pie nada
que podamos utilizar en nuestra historia.
Y ya que estamos con digresiones, vale la pena desarmar un mito que a veces,
incomprensiblemente, persiste. La leyenda de Colón, que lo muestra como un
visionario que sostenía que la Tierra es esférica ante la ignorancia de una
época que la consideraba plana como un DVD, es una mentira flagrante. Como ya
hemos visto cuando viajábamos por la Antigüedad, no sólo se conocía desde
entonces la forma de la Tierra, sino que incluso se había medido su
circunferencia; consecuentemente, en la época de Colón la esfericidad de la
Tierra ya era un hecho perfectamente establecido (en el mismo año 1492 ya se
hizo un globo terráqueo). Todo el mundo, o por lo menos todo el mundo
ilustrado, sabía perfectamente que la Tierra es esférica y tenía una idea
aproximada de sus dimensiones. Aunque, y no deja de sorprenderme, Copérnico, en
su gran libro, cree necesario tratar el punto y demostrar la redondez de la
Tierra, unos cuantos años después del viaje de Magallanes.
Pero hasta tal punto se confiaba en la redondez de la Tierra, que en el año
1487 el rey Juan II de Portugal —de acuerdo con una comisión de expertos—
autorizó a dos navegantes, Fernando Dulmo y João Estreito, para que navegaran
hacia el Oeste intentando descubrir la isla de la Antilla, una isla que, según
se creía, estaba en medio de La Mar Océano (como entonces se llamaba al
Atlántico).
Aunque la expedición de Dulmo y Estreito jamás regresó, nadie se permitía dudar
sobre la redondez de la Tierra: el punto de conflicto entre Colón y los «sabios
de la época» era muy otro. Colón basaba su idea en una estimación completamente
falsa —o por lo menos totalmente especulativa— sobre la distancia a cubrir
entre Europa y las Indias navegando hacia el Oeste: el Gran Almirante sostenía
que se trataba, a lo sumo, de 4.500 kilómetros, y los geógrafos le contestaban
que esa cifra era un disparate, con lo cual estaban mucho más cerca de la
verdad que Colón. La verdadera distancia es de diecinueve mil quinientos
kilómetros, que con algunas variantes era una cifra que manejaban los que se le
oponían.
Colón seleccionó mapas que favorecían su idea, y se basó también en
afirmaciones un tanto arbitrarias de Marco Polo, el gran viajero del siglo
XIII, según las cuales Japón estaba a dos mil quinientos kilómetros de la costa
de China. También es posible que hubiera oído hablar de los viajes de los
vikingos, que a partir del siglo X habían llegado a América por el Norte e
incluso establecido una colonia permanente en lo que ellos llamaban «la tierra
de Vinland». A partir de comienzos del siglo XIV, al bajar la temperatura, en
lo que se conoce como «la pequeña edad de hielo», los viajes vikingos por el
norte helado se hicieron imposibles.
Lo cierto es que Colón manipuló cálculos y mapas de Alfageno, científico
musulmán del siglo IX, y logró autoconvencerse de que Japón se encontraba a
sólo 4.300 kilómetros al oeste de las Islas Canarias, cifra completamente
ridícula, porque según ella Japón estaba ubicado más o menos donde está Cuba.
Esto era forzar demasiado la geografía de la época, y no es de sorprender que
los cosmógrafos consultados por los reyes de Portugal y Castilla consideraran
irrazonable la empresa.
Naturalmente, ellos no podían adivinar que en el medio se iba a interponer la
barroca figura de América. Pero tampoco lo adivinó Colón, que además, cuando la
tuvo delante, fue incapaz de darse cuenta de que estaba en un nuevo continente
y no en el Japón, como sostuvo hasta el final de su vida.
Lo cual no quita que el «descubrimiento» de Colón, el haberse topado de
casualidad con una tierra nueva y completamente desconocida (para ellos),
cambiara para siempre la cosmovisión europea: fue una ampliación de los horizontes,
impulsó el desarrollo de las técnicas náuticas y geográficas, que ya estaban en
plena evolución, y sobre todo significó un descentramiento del conocimiento que
se reflejó, especialmente, en las ciencias naturales: plantas y animales
nuevos, culturas distintas que aparte de ser explotadas hasta la extenuación y
la muerte, obligaron a revisar la manera en que se pensaba el mundo y la
humanidad… hasta tal punto que las discusiones sobre si los indios tenían o no
tenían alma (es decir, en el fondo, si eran o no eran humanos), moneda
corriente entre los teólogos, recién fueron saldadas gracias a la bula «Sublimis
Deus» del papa Paulo III, en 1537.
Dicho esto, vamos a Italia.
§. Los humanistas
La verdad es que al volátil y deletéreo autor de estas páginas le resulta muy
difícil dejar de ver la ciencia, el humanismo y el espíritu renacentista como
una preparación para la Revolución Científica, en gran parte porque los
métodos, desarrollos y observaciones de los científicos (y los artistas) de
entonces no parecen estar tan subordinados a un esquema general como aquel en
que se afanaban los medievales. Al fin y al cabo, ellos mismos definían su
mundo como completamente nuevo y ensayaban respuestas nuevas para problemas
como los que surgían de la aplicación de nuevas tecnologías, como por ejemplo
los introducidos por la pólvora, tanto en las técnicas de guerra como en
balística, como en medicina, a raíz de las heridas de combate producidas por
este nuevo elemento bélico.
Los humanistas eran herederos de un paradigma general en disolución y no tenían
un paradigma nuevo y claro con qué reemplazarlo, aunque con sus esfuerzos
estaban contribuyendo a trazar sus líneas generales: habiéndose sacado de
encima las cuestiones teológicas, como los conflictos entre razón y fe,
apartados de las sutiles discusiones escolásticas entre realistas y
nominalistas (y, no lo olvidemos, mientras los habitantes americanos morían
masivamente en las minas de plata del Potosí), el humanista, el científico, el
artista y el técnico renacentista, muchas veces reunidos en una sola persona,
iniciaron en serio la fusión entre ciencia experimental y matemáticas, entre la
empiria y la teoría; construyeron una nueva manera de percibir el espacio, el
tiempo y el mundo, que cimentará en la filosofía mecánica del siglo XVII y la
Revolución Científica.
Pero nos equivocaríamos si pensáramos en los humanistas como hombres de ciencia
hechos y derechos al estilo moderno. En el zigzagueante transcurrir de la
historia, y de la historia de la ciencia, se mezclan lo nuevo y lo antiguo, lo
decididamente moderno y lo tradicional, la prodigiosa anticipación y la mera
extensión de las investigaciones y el pensamiento de tiempos idos.
Así, por ejemplo, los humanistas seguían reconociendo en la naturaleza y en sus
criaturas la revelación de la sabiduría y de la belleza de Dios, aunque
separaban a Dios de la naturaleza y habilitaban el estudio de esta última desde
una perspectiva no religiosa. Al mismo tiempo que la naturaleza se emancipaba
relativamente de Dios, se poblaba de genios, demonios y fuerzas espirituales,
controlables y comprensibles por medio de las ciencias ocultas, en especial la
magia, que tuvo un enorme desarrollo hasta bien entrado el siglo XVI.
Si el mundo clásico, para los medievales, era motivo de nostalgia y de
confirmación de la decadencia que veían alrededor, para los humanistas del
Renacimiento resultó ser una especie de energizante que los convencía a cada
momento de la irreductibilidad de ese mundo al esquema construido por el
cristianismo. Desconfiaron de que pudieran conciliarse lo medieval con lo
moderno y descubrieron, así, la conciencia histórica de su propia época:
rechazaron el latín corrompido de las universidades, la lengua de expresión por
antonomasia de las discusiones sin sentido del escolasticismo tardío, y
renunciaron a una restauración imposible del Imperio. Aunque leyeron con
aplicación a los filósofos romanos, como Cicerón y Séneca, su horizonte
cultural es más bien griego que romano: pretendieron fundar la nueva Atenas en
Florencia, el indiscutible epicentro de la renovación cultural (y recordemos
que fundar una Nueva Atenas había sido el sueño irrealizable de Alcuino de York
durante el breve renacimiento carolingio del siglo XI).
Pero lo que más nos importa a nosotros es que los humanistas ayudaron a
restablecer, como lo había empezado a hacer Tales de Mileto unos dos mil años
atrás, la plena autonomía de la naturaleza, de modo tal que apareciera como
digna de ser estudiada no sólo de manera general sino también en sus estructuras
particulares (y aquí vemos la influencia triunfante del nominalismo de
Guillermo de Ockham). No es que el programa renacentista careciera de un
trasfondo teórico general, pero, cada vez más, se fue cargando con las demandas
de lo práctico: no se trata ya solamente de lograr una atractiva construcción
intelectual que explique las cosas, sino, más bien, de obtener conocimientos
que sirvan para la acción en el mundo.
Estos conocimientos técnicos son, precisamente, los que el intelectual
renacentista se siente autorizado a valorar gracias a su interpretación
operativa, no contemplativa, del saber. El nuevo enfoque, que exige la
experimentación, tiende a transformar radicalmente el propio método de estudiar
la naturaleza, renunciando de manera definitiva a hacer coincidir la ciencia
con la investigación de teorías generales destinadas a explicar la totalidad
del universo en un sistema cerrado y completo. Detrás de ese nuevo método, lo
que se percibe es el progreso de una visión individualista del mundo, que concede
la primacía a la experiencia personal, a la intuición inmediata e
incomunicable, al encuentro directo con lo real concreto.
La masiva influencia de la ciencia y la literatura antiguas (es la época de los
grandes descubrimientos de los códices, y de la lectura de los clásicos en su
versión original, y no a través de traducciones, o de copias de copias
medievales corrompidas) apenas altera la convicción del sabio renacentista de
que es él el único y total responsable de todo, dado que lo que se les pide a
los antiguos son, ante todo, hechos. El sabio del siglo XVI está convencido de
abordar libremente la naturaleza con las únicas fuerzas de su genio.
Y sin embargo, y a pesar de lo que puedan pensar los humanistas, el
Renacimiento debe mucho, pero mucho, a la Edad Media: de las universidades
europeas medievales provienen los saberes desde los que emergen las teorías de
los estudiantes del siglo XVI, aunque estos saberes ya no los limitan, sino que
los estimulan a profundizar en el conocimiento de la naturaleza.
Tal vez por todo lo que conté en el capítulo anterior y estoy contando en éste,
podría parecer que pienso que la ciencia moderna se construyó cuando el
espíritu experimental se consolidó frente a los grandes sistemas teóricos, o a
los grandes sistemas complejos y completos que se heredaban de la Edad Media, y
también de la Antigüedad.
No fue así.
La ciencia moderna no es simplemente un programa experimental: lo que ocurrió
es que el método experimental fue tomado directamente y con continuidad de la
Edad Media, como vimos, mientras la fuente teórica, en cuya base estaba la
matematización —que también tuvo un importante arraigo en el siglo XIV—
necesitaba un replanteo mucho más radical.
O sea: hubo transiciones y continuidades. Y hay dos personajes que las encarnan
bastante bien: Paracelso (1493-1541), el científico-mago, y Leonardo da Vinci
(1452-1519), el científico-técnico. Hablemos un poco de ellos.
§. Paracelso: no hay tutía
No sé por qué me resulta tan desagradable este personaje, que es en general
situado como una bisagra entre la medicina medieval y la moderna, entre la
alquimia y la química: un típico renacentista. Hay quienes lo consideran
pintoresco (lo era); hay quienes lo consideran extravagante (lo era); hay
quienes lo consideran genial (¿lo era?), y hay otros que piensan, como yo, que
sencillamente estaba loco de remate. Pero, así y todo, jugó su papel en esta
compleja transición.
Ya les conté que la medicina medieval se había desarrollado, si cabe el
término, como una mezcla de saberes que combinaban la siempre presente medicina
popular con el uso de oraciones, pedido de milagros e intervención divina. La
salud se consideraba principalmente como un estado espiritual y, por lo tanto,
la curación del alma era tanto o más importante que la del cuerpo (lo cual
significaba que, siempre y cuando el espíritu fuera purificado, no tenía mayor
relevancia si uno terminaba vivo o muerto). Pero no sólo se usaban las
invocaciones religiosas, sino algunos principios galénicos y remedios,
principalmente vegetales, aunque también animales o minerales. Las recetas,
extravagantes por cierto, incluían ingredientes como carne de serpiente,
canela, madera de cedro, raspaduras de marfil, cortezas de limón, perlas,
esmeraldas, médula y corazón de un ciervo, un escarabajo y cuerno de unicornio
—es de suponer que molido—, oro, plata y azúcar (y esto, lo crean o no, está
tomado de una receta de Copérnico, nada menos, que era también médico). Vaya a
saber lo que le pasaba a uno cuando tomaba un mejunje como ése, o cuando tenía
la suerte de conseguir tutía, palabra derivada del árabe tutiya (que
no era sino sulfato de cobre), que se usaba en principio para enfermedades
oculares pero que luego se convirtió en una especie de panacea y que, dicho sea
de paso, dio origen a la expresión actual «no hay tutía», que significa, como
saben, que no hay remedio, que se carece de solución para un determinado
problema.
Obviamente persistía —no sé si hace falta decirlo— la teoría (casi una
costumbre) de los cuatro humores y las cuatro cualidades. Para Galeno
(autoridad indiscutible, recordemos) el organismo humano contenía cuatro
fluidos o humores de cuyo equilibrio interior dependía la salud: la sangre, la
bilis amarilla, la bilis negra y la flema, a cada uno de los cuales le
correspondían dos cualidades (a semejanza de las que determinaban las cuatro
sustancias fundamentales). Los remedios que se usaban, siguiendo la tradición
de los grandes médicos árabes como Avicena, tenían en cuenta esas cualidades:
si había un exceso de calor, por ejemplo, se aplicaba un remedio frío…
En todo este caos de medicinas populares y teorías médicas fantasiosas apareció
la figura de Philipus Aureolus Theophrastus Bombastus von Hohenheim, o
Paracelso, quien se puso su propio apodo (no demasiado humilde) para significar
que se consideraba más grande que Celso, el enciclopedista romano del siglo I,
que, sin ser médico, había compilado una admiradísima enciclopedia del saber
medicinal de su tiempo, que se acababa de traducir y había tenido un enorme
impacto.
Fiel al espíritu de la época, o a una de las líneas de la época, Paracelso no
renunció a la mística alquimista sino todo lo contrario. No solamente buscó
alquímicamente la piedra filosofal y el elixir de la vida, sino que incluso
dijo haberla encontrado, y consecuentemente se proclamó inmortal, aunque parece
que el elixir no funcionó del todo, porque murió antes de los cincuenta años.
No se entiende muy bien por qué un médico que tiene el elixir de la vida siguió
practicando «curaciones» por otros medios, pero todo indicaría que en realidad
no había encontrado ningún elixir y que fue otra de sus muchas fanfarronadas.
Paracelso era un empírico puro que se había formado en su juventud junto a los
mineros de la región de donde procedía, lo cual debe de haber inspirado su
afección por el uso de metales. Negaba por principio toda teoría heredada, lo
cual siempre es un poco imprudente (como bien sabían los hombres de Chartres
antes que él) e incluso quemó públicamente los escritos de Galeno y Avicena,
atacando la integridad de la teoría tradicional no sólo en sus aspectos
teóricos sino también en los relacionados con la forma de recuperar la salud.
Descreyó de la teoría de los cuatro humores, lo cual hubiese podido ser una
buena cosa, pero los reemplazó por los dos principios de la medicina árabe
(mercurio y azufre), a los que agregó la sal, lo cual en el fondo no hacía una
gran diferencia.
Entre borrachera y borrachera, entre copa y copa o, mejor dicho, entre barril y
barril, Paracelso pensaba que todos los procesos vitales eran fenómenos
semejantes a los que se podrían observar y reproducir en sus morteros, hornos,
retortas y alambiques. Es decir, eran todos —tanto vitales como no vitales—
fenómenos químicos. Los cambios que llevaban de un mineral a una espada no eran
de naturaleza distinta de los que determinaban la salud o la enfermedad en el
ser humano. La enfermedad no era otra cosa que una mala mezcla de los tres
principios: la melancolía y la parálisis, por ejemplo, se debían a un exceso
del principio mercurio; la diarrea y la hidropesía, a la sobreabundancia del
principio sal; el calor y la fiebre, al exceso del principio azufre. ¿Cómo
restablecer el equilibrio perdido y recuperar la salud, entonces? Obviamente,
incorporando al organismo enfermo determinados productos químicos capaces de
reparar el déficit de un principio o el superávit de otro. Para ello, utilizó
fundamentalmente como medicamentos sales de metales pesados, sustancias que
hasta ese momento habían sido consideradas como venenos: todo depende, decía, de
su dosificación. Cosa difícil, en verdad, en una época que carecía de
instrumentos precisos de medición, y arriesgaba al paciente, como
frecuentemente ocurría, a recibir dosis verdaderamente tóxicas de elementos
como el mercurio, que se utilizaba para combatir la sífilis y que mataba antes
que la propia enfermedad.
Al mismo tiempo, como firme creyente en la astrología, y en consecuencia en una
estricta correspondencia entre macrocosmos (el cielo) y microcosmos (el
cuerpo), sostenía la necesidad de indagar al primero para actuar sobre el
segundo: las fuerzas mágicas que regían el macrocosmos eran en efecto —según
él— las más idóneas para actuar también sobre el microcosmos, interrogando sus
enfermedades. Correspondía estudiar el cielo y la conjunción de los planetas
antes de hacer un diagnóstico y medicar… Digamos, en su defensa, que
prácticamente todos los médicos de la época hacían lo mismo, de modo tal que
por ahí uno tenía que esperar una conjunción, o proximidad, entre Marte y
Júpiter, para ser obligado a saborear un poco de carne de serpiente, o de
cuerno de unicornio molido, o de mercurio, o para que le hicieran una sangría
que podía dejarlo al borde de la muerte.
Al proponer una ruptura total con la antigua tradición, Paracelso tenía
necesariamente que ser identificado como un enemigo por la mayor parte de los
médicos que lo conocieron. Y efectivamente tuvo la oposición del establishment médico,
no sólo por sus posturas anti galénicas, sino porque no pertenecía a la
cofradía médica, ya que no se había formado en las universidades, y además
porque enseñaba en alemán en vez de en latín, de lo cual, y de una controversia
alrededor de honorarios, resultó su expulsión de Basilea. Esto tampoco lo
contuvo y se pasó el resto de su vida viajando y denunciando furiosa y
fanáticamente a sus enemigos y predecesores, hasta que murió en Austria en
septiembre de 1541.
Lo cierto es que sus enemigos y predecesores no eran mucho mejores médicos que
él ni se manejaban con una teoría mucho mejor que la de él. Después de Paracelso,
la química (que no era muy distinguible entonces de la alquimia, y sólo lo es
ahora, desde una mirada actual) se fue convirtiendo de a poco en una parte
esencial de la formación médica. Durante casi todo un siglo, los médicos se
dividieron en paracelsistas, partidarios de la administración de minerales, que
habían de llamarse iatroquímicos, y herboristas, que se
atenían a los remedios vegetales. Es interesante ver cómo esta tensión aún
sigue vigente, aunque degradada, por el uso new age de la
división entre «natural» y «químico».
Y respecto de la alquimia, hay que decir que nuestro personaje fue
indiscutiblemente uno de los protagonistas principales. Creyó, por supuesto,
que era posible la transmutación de los metales en oro. Fíjense que esta
historia de la transmutación de los metales puede parecer disparatada desde el
punto de vista actual, pero no lo era tanto si, como se creía, el cambio de los
metales desde los menos perfectos hacia los más perfectos era una de las tareas
que llevaba a cabo la naturaleza, haciendo que evolucionaran en el interior de
la tierra, por influencias astrales, desde el más bajo, plomo, y pasando por
los intermedios, como el cobre, el hierro y la plata, hasta transformarse en
oro. Si la naturaleza lo hacía, ¿por qué no iba a poder hacerlo el hombre? ¿Por
qué no se iba a poder acelerar manualmente este proceso?
En sus investigaciones alquímicas, buscando lo imposible, el excéntrico
Philipus Theophrastus logró añadir algunos datos que serían de utilidad para el
saber químico que estaba gestándose, por ejemplo la observación de que mientras
los vidrios se derivaban de un metal, los alumbres se derivaban de una
«tierra», es decir, un óxido metálico.
En fin: Paracelso perteneció por completo a la tradición hermética, y, por lo
tanto, concibió a la ciencia como una empresa puramente cualitativa no
matemática, experimental e inductiva, al punto de que uno de sus discípulos,
respirando las enseñanzas de su maestro, aconsejaba «vender todas las
posesiones, quemar los libros (en una época que veneraba los libros clásicos) y
empezar a viajar en busca de todo tipo de datos de la naturaleza; comprar
después carbón, construir hornos y experimentar incansablemente con el fuego».
No sé si quedó claro por qué me parece un personaje sobrevalorado e
insoportable, pero yo tampoco lo tengo claro. Así que basta de Paracelso.
§. Volar es para los pájaros
Cuando La Gioconda viajó del Louvre a Nueva York en 1962,
ninguna compañía fue capaz de asegurarla. Y no porque el monto fuera muy alto,
sino porque fue imposible fijar un monto, imposible asignarle un valor
monetario; estaba más allá de todo: es lo más que un artista puede esperar de
una obra suya. Y de ese artista nos vamos a ocupar por un rato; porque así como
Paracelso representa la línea místico-mágica, Leonardo da Vinci encarna la
línea técnico-operativa.
Pocos intelectuales del Renacimiento han recibido tantos elogios, o se han
convertido tan claramente en la encarnación del genio universal como Leonardo:
en efecto, además de pintor, fue ingeniero, anatomista, diseñó fortalezas y
canales, estudió la incipiente mecánica, inventó —o creyó inventar— montones de
mecanismos y máquinas, en la tradición de Arquímedes, como tornillos para
elevar el agua, paracaídas, bombas de irrigación… etcétera, etcétera, etcétera.
Nació en 1452, y era el fruto de una relación extramatrimonial de su padre
Piero con una tal Catherine; hacia 1470 se trasladó a Florencia con la familia
paterna y empezó a hacerse conocido por los numerosos dibujos de máquinas,
proyectos hidráulicos y arquitectónicos, que le valieron ser llamado por
Lorenzo el Magnífico, entonces el jefe de la Signoria, y de la
poderosa familia de los Médicis, para trabajar bajo su tutela.
También él fue uno de esos caballeros errantes del Renacimiento, que iban de un
lugar a otro, a veces llevados por los acontecimientos políticos, a veces
movidos por sus propias e internas hormigas. Y así es como unos años después lo
encontramos en Milán, al servicio del duque Ludovico Sforza el Moro. Es muy
interesante ver la carta que envía a Ludovico, como presentación, en la que
enumera las cosas que sabe y puede hacer:
Tengo especies de puentes livianísimos y fuertes, y otros seguros e
inatacables por el fuego. Sé, en el sitio de una plaza, sacar el agua de las
zanjas y hacer infinitos puentes y escaleras y otros instrumentos pertinentes.
Si por alguna razón no se pudieran usar las bombardas, tengo maneras de arrasar
cualquier fuerte o roca. Tengo, también, tipos de bombardas comodísimas y
fáciles de transportar. Y si se estuviese en el mar, tengo muchos instrumentos
activísimos para atacar y defender los navíos.
Y así sigue:
En tiempos de paz, creo satisfacer muy bien, en comparación con
cualquier otro, en arquitectura, en construcción de edificios públicos y
privados, y de conducir agua de un lugar a otro. Lo mismo haré en escultura de
mármol, bronce o tierra, lo mismo que en pintura, todo lo que se pueda hacer
mejor que cualquier otro.
Todo el mundo exagera su currículum cuando busca empleo (y Leonardo no es la
excepción), pero de cualquier manera hay que admitir que es muy impresionante.
También observen que despliega su panoplia centrándose en aparatos y objetos
relacionados con la guerra, obsesión de los príncipes en un tiempo plagado de
novedades bélicas, derivadas del uso de la pólvora.
Fue durante su permanencia en Milán cuando trabó amistad con el
matemático Luca Pacioli, quien escribió una Summa de Arithmetica,
que recogía todo el saber matemático de su tiempo, y también De Divina
Proportione, donde se hablaba del número áureo y de la perspectiva, y para
la cual Leonardo dibujó maravillosas imágenes de poliedros tanto regulares como
irregulares.
Después de que el duque fuera derrocado por las tropas del rey francés Luis
XII, llegó a Florencia nuevamente, tras haber recorrido Mantua y Venecia, donde
dejó trazas de su impresionante actividad: pictórica en Mantua, técnica en
Venecia (donde diseñó una especie de submarino y otros aparatos). Mientras
tanto, se dedicaba a la disección de cadáveres (muchos de los cuales conseguía
quién sabe cómo y otros seguramente los robaba), lo cual le servía, como se
sabe bien, para hacer estupendos dibujos del cuerpo humano interno y externo,
que sólo serían igualados por los de Vesalio, unas cuantas décadas más tarde.
Bueno, y así en todas partes: durante su segunda estadía en Florencia
pintó La Gioconda y siguió con el estudio del vuelo de los
pájaros, con las disecciones y con los consecuentes dibujos. Salteé y saltearé
muchas andanzas, pero déjenme contarles que finalmente aceptó la invitación del
rey Francisco I de Francia y se estableció en el castillo de Cloux, donde murió
en 1519.
¿Hay un misterio en Leonardo? Lo hay.
Si bien es innegable que leía, y mucho, se definía a sí mismo como
eminentemente práctico y como un «uomo senza lettere», lo cual demuestra,
de paso, el espíritu del «práctico renacentista», muy distinto del humanista
eminentemente letrado que lee y escribe en latín clásico. Como buen personaje
del Renacimiento, Leonardo tomaba en consideración los datos que obtenía en la
literatura científica, aunque revisándolos puntillosamente, y no aceptando el
principio de autoridad:
Quien discute alegando la autoridad, no utiliza la mente sino la
memoria.
Al mismo tiempo, rechazaba de manera rotunda (a diferencia de Paracelso)
las artes ocultas, la nigromancia y la alquimia.
Entre los discursos humanos más sin sentido debe considerarse la
credulidad en la nigromancia, hermana de la alquimia.
Ya he dicho que Leonardo tenía una conciencia muy aguda de la
importancia de lo experimental:
Muchos considerarán que podrán razonablemente replicarme, alegando que
mis pruebas están en contra de la autoridad, sin considerar que mis cosas han
nacido bajo la simple y mera experiencia, que es la verdadera maestra.
Y lo repetía a cada rato…
La experiencia no falla, lo único que puede fallar son los juicios que
se hacen sobre ella.
Incluso tipificaba el método con que debía realizarse una experiencia
para errar lo menos posible:
Antes de hacer de un caso una regla general, pruébalo dos o tres veces,
y mira si las pruebas producen efectos semejantes.
Sin embargo, su concepción no era completamente experimental y en sus
estudios mecánicos se ocupaba de aclarar que:
Mientras la naturaleza comienza con la causa y termina con el
experimento, nosotros debemos recorrer el camino inverso, comenzando con el
experimento mediante el cual investigamos la causa.
Y por lo tanto:
Ninguna investigación humana puede considerarse verdadera ciencia, a
menos que se haga mediante una demostración matemática.
O sea, intuía esa síntesis entre experimentación y matemática que habría
de producirse un tiempo después cuando se coronara la Revolución Científica.
¿Cuál es entonces el misterio?
Que siendo un espíritu universal como pocos en la historia, y el intelectual
más destacado de su tiempo, y el más completo y genial, que habiendo llegado a
resultados notables y anticipatorios, haya ejercido una levísima y casi nula
influencia sobre sus contemporáneos (ejerce más influencia sobre nosotros que
sobre ellos): su prosa es críptica, escrita de manera también críptica,
fragmentaria, dispersa por aquí y por allá, en manuscritos que, salvo rarísimas
excepciones, no fueron publicados. Se diría que no escribía para lograr el
adelanto de una disciplina, ni para los eruditos, ni para el gran público, sino
sólo para sí mismo, para poder fijar sus propias dudas y cavilaciones. Renegaba
de las disciplinas herméticas, pero su escritura parece inspirada por ellas, y
sus manuscritos fueron revalorados recién en el siglo XIX.
De todos modos, no es la figura que es por lo que influyó, sino por lo que fue:
la perfecta encarnación del artista práctico, ingeniero y arquitecto del
Renacimiento, que se interesa por todo, y que, sin abandonar las grandes líneas
de la física medieval, se eleva por encima de ella y captura, o mejor dicho
intenta capturar, la naturaleza toda, pero no como un sistema metafísico
completo, ni como un sistema de signaturas orgánicas y operativas, como lo
hacían las artes herméticas (que como vimos aborrecía), sino como un conjunto o
una colección de hechos particulares, que deben ser examinados, hilados y
manipulados según un criterio experimental para poder después llevarlos al
plano teórico.
Recién en el siglo XIX se lo rescató en toda su amplitud. Y digo en toda su
amplitud, porque lo que sí lo puso al tope de su época fue su obra artística,
que lo sitúa entre los pintores más grandes de toda la historia. Valga como
ejemplo la historia de La Gioconda que conté al principio. Y a veces me
pregunto si a Leonardo se lo hubiera rescatado si no hubiese sido porque a
través de los tiempos, y a pesar de sus manuscritos ilegibles, ahí estaban sus
tremendos cuadros para dar testimonio de su genio.
Una apostilla sobre el vuelo artificial, que tanto lo preocupó. Leonardo
intentó persistentemente diseñar máquinas para volar, pero de manera tal que
estaban naturalmente condenadas al fracaso. Lo cierto es que tales intentos,
desde Leonardo da Vinci en adelante, terminaron en un callejón sin salida
porque se tomaba como modelo el vuelo de las aves y se intentaba reproducirlo
con artilugios mecánicos que imitaban las alas.
Pero volar es para los pájaros: las cosas empezaron a cambiar recién cuando los
ojos se posaron en otro objeto volador, mucho más prosaico, y conocido desde la
Antigüedad: el barrilete, que era utilizado en Europa como juego por los niños
ya en el siglo XII. Se trata de un objeto más pesado que el aire, que vuela
según unas leyes que Leonardo no conocía (las de la aerodinámica) pero de las
cuales podría haber tenido alguna intuición empírica y sospechado que un
barrilete lo suficientemente grande podría acarrear a un hombre, como hace hoy
el aladelta. Y como se hacía, de paso sea dicho, en China, donde los barriletes
eran conocidos desde el siglo III y ya en el siglo VI hay referencias de vuelos
humanos.
El mérito de Leonardo es que intuyó algo de esto, y, en las observaciones sobre
el vuelo de las aves grandes, que baten poco las alas y planean durante largos
trayectos, estuvo a un milímetro de formular las leyes aerodinámicas que rigen
el vuelo del barrilete.
§. El martillo de las brujas
Hacia 1460, Marsilio Ficino (1433-1499), otro de los grandes humanistas
italianos del Renacimiento, tradujo partes del Corpus Hermeticum,
de Hermes Trismegisto, y su traducción tuvo un sinnúmero de reimpresiones y
retraducciones. Era un texto que, según se creía, se remontaba a la más antigua
o arcaica tradición egipcia, aunque se trataba de una falsificación escrita en
el siglo II d.C., como se demostró hacia 1614. Es difícil entender cómo los
humanistas, que se consideraban grandes filólogos, cayeron en esa trampa (a
menos que quisieran caer en ella), pero lo cierto es que el Corpus se
transformó en la base filosófica y el armazón del pensamiento de la época.
Porque el Renacimiento no es sólo el tiempo de los humanistas sino también el
de los magos. La magia y la alquimia se confundían con la ciencia experimental,
con la que compartían la tarea común de trabajar con sustancias concretas y
objetos materiales, tal como vimos que hacía Paracelso, con sus desvaríos
astrales y metalíferos, o como haría el matemático y médico Gerolamo Cardano
(que era una buena pieza de corte paracelsiano, pero que, además, se dedicaba a
robar ideas de los demás, especialmente al pobre Tartaglia, que no apareció
todavía pero cuya triste historia voy a contarles en algún momento), o
Gianbattista dalla Porta, que escribió una Magia Naturalis.
La palabra «magia» se originó en los magi, sacerdotes del dios
Mitra (el dios persa de la luz solar, con gran influencia en la Roma imperial
tardía) que fueron reconocidos como «sabios» por la cultura griega. La magia
estaba, de algún modo, asociada a la sabiduría, como aparece en los cuentos
tradicionales folklóricos. Y esta imagen incluso subsiste en la figura del
«sabio loco» moderno: pensemos, por ejemplo, en el Dr. Emmet Brown (Christopher
Lloyd), el científico de Volver al futuro de Zemeckis, a quien
se lo presenta funcionalmente como un hechicero excéntrico y solitario, que se
dedica a prácticas que nadie más que él comprende (y que, por lo tanto, parecen
mágicas), pero que, finalmente, es el que tiene razón y resuelve los problemas.
La magia, o la creencia en la magia, está naturalmente asociada a la brujería,
cuya persecución empezó a arreciar en esta época, desatando una etapa
verdaderamente trágica: la propia Iglesia aceptaba como verdaderos los poderes
de los brujos y magos, pero sostenía que estaban canalizados de mala manera,
dado que el camino correcto para obtener beneficios de cualquier tipo de ser
sobrenatural debía pasar inexorablemente por el clero de Dios. No importaba si
la magia se practicaba para fines buenos o malos: los medios, absolutamente
independientes de los que dictaminaba la Fe, eran signo claro de herejía, cosa
que venía de lejos. Por eso, amablemente, el Éxodo XXII, 18 sugería:
No dejarás con vida a la bruja.
Pero comprobar que una bruja era efectivamente una bruja resultaba más
difícil de lo esperado. Como las pruebas que la delataban eran inconsistentes,
se inventaron evidencias ad hoc y se asignaron propiedades
maléficas a determinadas cosas que, hasta entonces, habían sido perfectamente
neutras. La creencia de que las hechiceras amamantaban a sus hijos con sangre o
con un tercer pecho llevó a considerar cualquier malformación en el cuerpo en
un determinante irrefutable de brujería. Ni hablar si, en la «escena del
crimen», se encontraba algún inofensivo muñequito estilo vudú.
La primera condena formal a estas prácticas llegó en el siglo XII, cuando se
incorporó al Corpus Juris Canonici un pasaje que repudiaba a
ciertas mujeres desamparadas, pervertidas por Satanás, que creen y
confiesan cabalgar a lomos de ciertas bestias juntamente con la diosa Diana.
Según este texto, los actos de las brujas eran fantasías surgidas
durante el sueño, y creer que fueran posibles durante la vigilia era herético.
Más tarde la Iglesia cambiaría de opinión y empezaría a considerar aquellos
actos no como producto de sueños sino tan reales como la Santísima Trinidad.
A mediados del siglo XV, la Iglesia no estaba del todo conforme con las labores
inquisitoriales que se estaban practicando en algunos distritos. Muchos laicos
e incluso algunos clérigos se negaban a dejar actuar libremente a los
encargados de interrogar y asesinar brujas, con el sencillo argumento de que en
sus provincias no se practicaban «esas enormidades». En ese contexto llegó la
bula de Inocencio VIII, en 1448 (¡pleno Renacimiento y florecimiento del
Humanismo!). En ella se establecía la primera definición oficial de la brujería
y su clara asociación con la herejía y se designaba a dos inquisidores,
Heinrich Kramer y Jacobus Sprenger, para que procedieran a la corrección,
encarcelamiento y castigo «justos» de cualquier persona sin impedimento ni
obstáculo alguno.
Kramer y Sprenger, dos estudiosos teólogos, se convertirían en fundamentales
para la persecución luego de escribir lo que sería el manual más detallado y
espeluznante de tortura, castigo y asesinato de las brujas: el Malleus
Maleficarum (Martillo de las brujas) es un texto «erudito»
publicado por primera vez en 1486 —otra vez, pleno Renacimiento— y aprobado
unánimemente por los doctores de la facultad de teología de la Universidad de
Colonia, Alemania. En él, Kramer y Sprenger detallan y analizan los hechizos
que las brujas son capaces de practicar: el texto parece, hoy en día, una obra
fantástica escrita por dos maniáticos homicidas, pero en su momento fue la
justificación escrita incuestionable de la matanza que tendría lugar en los
siglos XVI y XVII.
Los capítulos alternaban la pura crueldad con la imaginación perversa. En
primer lugar, los inquisidores dejaban en claro que no creer en la brujería era
signo inobjetable de herejía. Luego, explicaban cómo debía ser el procedimiento
cuando se tenía un detenido: en primer lugar, se lo llevaba desnudo («si es
mujer, ha sido desnudada ya por otra mujer intachable») a que viera los
instrumentos de tortura para que, sin que se los aplicaran, confesara «libremente».
Pero si la mujer, aterrada, confesaba, lejos de terminar, el infierno apenas
comenzaba: la tortura duraría tanto cuanto se pudiera para que delatara a sus
«compañeras de andanzas».
Si no confesaba, los suplicios eran cada vez más siniestros: se utilizaban
tiras de azufre a las que se les prendía fuego sobre el cuerpo del acusado y
toda clase de prácticas perversas, hasta que, cuando el condenado finalmente
confesaba, era trasladado (en general en una camilla, porque no podía moverse
por sus propios medios) a la pira, donde, si no se arrepentía de su confesión,
se le concedía la gracia de ser estrangulado antes de quemado y se le exigía,
antes de morir, que reconociera que la sentencia había sido precisa y el
juicio, justo.
Lo cierto es que la persecución y quema de brujas se convirtió, más temprano
que tarde, en un verdadero negocio para todas los que participaban en ella: el
jugoso botín que representaba la confiscación de los bienes de ciertas brujas
nobles no era para nada despreciable… muchas personas directamente vivían de la
caza y quema de brujas, ya que era un trabajo muy bien pago: Matthew Hopkins,
el joven inquisidor que lideró la masacre en Inglaterra entre 1645 y 1647,
obtenía alrededor de treinta libras al día, cuando el salario medio era quinientas
veces menor.
Pero es interesante ver la reacción de las clases ilustradas y de los
científicos alrededor de esta siniestra manía persecutoria. Uno esperaría que
el avance del racionalismo que se estaba dando en los siglos XV, XVI y
especialmente en el XVII, hubiera producido una condena unánime, pero no fue
así. Personajes ilustres, incluso con mentalidades amplias e inmersos en la
revolución racionalista de esos tiempos, propugnaron la caza de brujas con la
misma inusitada crueldad que los inquisidores más fanáticos.
Un buen ejemplo es Jean Bodin (1529-1596), un filósofo, político y jurista
francés con ideas revolucionarias sobre la democracia, precursor de las teorías
económicas de Adam Smith y de la idea del Estado moderno y la soberanía e
impregnado de humanismo renacentista quien, lejos de pugnar por la tolerancia,
se dedicó a cazar y torturar a cuanta bruja se le cruzara por el camino. En
1580, al final de su vida, Bodin escribió una obra propia, De la
Démonomanie des sorciers, que tuvo diecisiete ediciones hasta 1603 y que
es, si cabe, más perversa que el Malleus.
§. El prestigio del demonio
Pero sin embargo no faltaron quienes, desde la incipiente ciencia experimental,
combatieron la caza de brujas, para lo cual, dicho sea de paso, había que tener
mucho coraje. El más importante fue sin duda Johannes Weyer (1515-1588), un
médico del siglo XVI que se había interesado desde temprano por las
enfermedades mentales.
En 1564, en su libro De Praestigiis Daemonum (El prestigio del Demonio),
Weyer negaba que la brujería fuera un fenómeno genuino y menos que menos una
amenaza para el cristianismo. Exigía, como buen científico, pruebas tangibles,
aduciendo que nadie había visto hasta entonces las reuniones de brujas con
Satanás y que nadie había cabalgado por los aires en compañía de una bruja;
frente a acusaciones concretas, como la de que cierta enfermedad del ganado
estaba provocada por hechizos, sugería que, en vez de quemar a una pobre mujer
en la hoguera, era más aconsejable una fumigación con sustancias aromáticas y
azufre. Decía:
Los médicos desinformados y torpes atribuyen todas las enfermedades
incurables, o todas las enfermedades cuyos remedios desconocen, a la brujería.
Cuando hacen esto, hablan de la enfermedad del mismo modo que un ciego sobre el
color. Cubren nuestra ignorancia de la medicina con el truco de los maleficios,
siendo así que son ellos mismos los que los practican.
Según Weyer, las brujas no eran más que enfermas mentales. Para
demostrarlo, investigó «experimentalmente» varios casos de brujería mostrando
que no tenían base alguna, entre ellos uno de los episodios más famosos de
posesión, el de las monjas de Colonia en 1564, en el que demostró claramente
que las violentas convulsiones no eran provocadas por visiones religiosas o
demoníacas sino por las «visitas» de ciertos caballeros cercanos al convento
que les habían prodigado «atenciones especiales». Las monjas habían
transformado (hoy diríamos: «sublimado») romances intensos en exaltación
religiosa.
Weyer, como era de esperar, fue atacado por la Iglesia y por la propia
corporación médica. Pero, para muchos historiadores de la medicina, es uno de
los fundadores de la moderna psiquiatría; de hecho, es uno de los primeros en
describir de manera racional varias alteraciones mentales, muchas de las cuales
aún hoy en día son consideradas por la mitología popular (en general rural)
como causadas por demonios, brujas y otras invenciones fantásticas.
Curiosamente, tal vez para protegerse de las embestidas de la Iglesia o para
burlarse (o en una de ésas porque se lo creía), Weyer publicó también Pseudomonarchia
Daemonum, un detallado catálogo de demonios y sus atributos en 1563. Según
su inventario, hay exactamente 7.405.926 íncubos y súcubos divididos en 1.111
divisiones de 6.666 cada una.
El Prestigio del Demonio tuvo muchísima repercusión y varias ediciones, y fue,
para su honor, colocado en el Índex de libros prohibidos por la Iglesia. Pero
francamente, más que su contribución a la psicopatología, nada desdeñable por
cierto, resalta su ubicación en la línea humanitaria del humanismo y en la
comprensión de la brutalidad a la que se sometía a cantidades espantosas de
víctimas: los cálculos hablan de un número que va de 300.000 a un millón de
asesinatos.
Los procesos de brujas, sin embargo, no se detuvieron y el genocidio se
arrastró durante todo el siglo XVI, XVII y aun el muy racionalista siglo XVIII.
Tengo el dato (no corroborado) de que la última bruja fue quemada en 1782.
Y aún hoy hay quienes se consideran brujos y brujas; delante de mí una de estas
personas, en pleno siglo XXI, afirmó en un programa de televisión que era capaz
de matar a una persona a la distancia. Le sugerí que me matara a mí, en vivo,
lo cual hubiese representado un éxito de rating enorme y un evento único en la
historia de los medios de comunicación. Pero se negó.
Los procesos culturales son lentos, lentísimos.
Capítulo 11
Un sinuoso camino hacia la Revolución Científica
Tal vez se hayan dado cuenta de que, hasta ahora, hablando del
Renacimiento, hice todo el esfuerzo posible por no nombrar a Aristóteles, lo
cual me obligó a verdaderos malabarismos. Lo que pasaba es que estaba un poco
cansado de verlo aparecer a cada rato, y supongo que ustedes también lo
estarían. Y, de hecho, lo mismo les pasaba a los propios renacentistas. Pero
ahora se vuelve imposible esquivarlo porque justamente lo que vamos a ver es
cómo empezó a derrumbarse el universo que Él había inventado.
De todos modos, hay que decirlo, no deja de sorprender cómo la cultura y las
ideas científicas (y filosóficas, y políticas) siguieron moviéndose al compás
de los flujos y reflujos de Platón y Aristóteles: platonismo durante la
patrística, aristotelismo en la escolástica, neoplatonismo en el Renacimiento…,
todo sigue atado a los griegos y a las idas y venidas de las traducciones e
introducciones de sus libros en el torrente de la cultura occidental. Recién
después de Descartes y los filósofos del siglo XVII, y especialmente Galileo,
la tradición se inventará un nuevo punto de partida y podrá olvidarse un poco
de Platón y Aristóteles.
Intentaré, en estas páginas, agotar el Renacimiento —si es que tal cosa es
posible, y es obvio que no lo es, pero yo soy incorregible— antes de exponer el
Gran Tema que pienso dejar para el próximo capítulo: la teoría del movimiento,
y el modo en que siguiendo su hilo y sus avatares se produjo la gigantesca
revolución científica de los siglos XVI y XVII.
Empecemos, entonces, por uno de los acontecimientos políticos y religiosos
fundamentales de la época: la Reforma.
§. La Reforma
El 31 de octubre de 1517, Martín Lutero, un fraile católico formado en la
tradición agustiniana, fijó en la puerta de la Catedral del Castillo de
Wittenberg, del norte de Alemania, donde había una importante universidad, una
lista de 95 tesis que atacaban muy duramente a la Iglesia Católica. Corrieron
como reguero de pólvora gracias a la reproducción permitida por la
recientemente creada imprenta e iniciaron una verdadera fractura de la
cristiandad que se prolonga hasta hoy.
El tema central de las tesis, aquel que les daba su título, era la denuncia de
las indulgencias, un invento no muy elegante del papado para hacerse de algunos
dinerillos extra (bastantes, en realidad): a cambio de una cierta suma se
perdonaban pecados o se reducía el tiempo de permanencia en el purgatorio. Una
indulgencia era un pagaré extendido contra el paraíso.
Pero a nuestro personaje no le interesaban solamente las indulgencias:
convencido, como lo habían estado los humanistas algún tiempo antes, de que
entre el momento de los grandes textos clásicos (en su caso, el único texto a
considerar era la Biblia) y su propia época había habido poco más que un
rejunte de charlatanes que se habían ocupado de distorsionar la palabra
autorizada, Lutero se propuso arrancar nuevamente desde cero, olvidar a los
comentadores, romper con las instituciones y establecer un contacto más directo
con Dios, lo cual sólo era posible, según creía, a través de la lectura del
texto desnudo y literal: de hecho, proclamó la libre interpretación de la
Biblia —que el catolicismo reservaba a la Iglesia y él mismo se encargó de
traducirla al alemán—. Fue publicada finalmente en 1534 y la imprenta se
encargó de multiplicar los ejemplares. Ahora, cada uno podía leerla por sí
mismo sin intermediaciones. Y la verdad es que, existiendo la imprenta, era
imposible mantener el secretismo bíblico, más acorde con el lento circular de
los manuscritos. Fue una bomba. Y no es que el asunto fuera del todo nuevo: en
realidad, durante dos siglos se habían ido produciendo disidencias en el seno
de la religión que la Iglesia a veces encuadraba en órdenes, como es el caso de
los franciscanos, y a veces extirpaba por el simple expediente de la hoguera o
del genocidio (como fue el caso de los cátaros y los albigenses). Pero en el
siglo XVI el estado de tensión religiosa era ya insoslayable, y no se podía
erradicarlo así como así (suponiendo que la masacre se considere algo «así como
así»…).
Había razones políticas, religiosas y hasta sexuales, si se quiere, para que se
produjera semejante cisma. Sexuales… sobre esto, me gustaría decir algunas
palabras. La historia del celibato sacerdotal católico es bastante sinuosa y
ambigua, por cierto, pero tiene una fecha de inicio precisa: en 1074 el papa
Gregorio VII establece que toda persona que desea ser ordenada debe hacer
primero un voto de celibato y, en 1123, el Concilio de Letrán decreta que los
matrimonios clericales no son válidos e impone la exigencia del celibato para
el sacerdocio. Lo que rara vez se dice es que esa prohibición, que tiene toda
la apariencia de basarse en una pura consideración ética (a saber, que el
sacerdote se dedique por entero a sus feligreses), fue una de las causas de que
la Iglesia Católica accediera al inmenso poder que sabemos que tiene. La
prohibición del celibato coincide con la consolidación del feudalismo europeo,
y esto es muy importante porque la propiedad feudal, en principio, no era
hereditaria, sino que era una concesión del supremo señor feudal, el rey o el
emperador, que regresaba al rey al morir el feudatario. El señor feudal, a su
vez, concedía partes de su feudo a sus propios vasallos, que podían repetir el
esquema y así se formaba la pirámide. Pero, como es natural, el tiempo volvió
costumbre que los hijos heredaran los feudos de los padres (lo cual se
consiguió a veces con sangrientas rebeliones llamadas «de los valvasores»,
«vasallos de los vasallos»). Ahora bien: el concesionario de un feudo no
necesariamente tenía que ser una persona (del mismo modo que el feudo no
necesariamente tenía que ser tierra, y podía ser un derecho de mercado o de
aduana), y podía ser un ente colectivo, por ejemplo, una ciudad. O una
institución, como la Iglesia Católica, que fue el principal feudatario de
Europa con un treinta por ciento, se calcula, de las tierras totales.
Así las cosas, no era del interés de la Iglesia que un obispo, vasallo a su vez
del rey de Francia, intentara que sus hijos (que podían o no ser eclesiásticos)
heredaran el obispado que era un feudo muy concreto, con inmensas cantidades de
tierras. El celibato aseguraba la unidad feudal de la Iglesia y la conservación
de sus enormes riquezas, que al morir cada feudatario, obispo, arzobispo o el
mismo Papa, regresaban a la institución. El celibato garantizaba que la Iglesia
estuviera a salvo de esos problemas y fuera Una e Indivisible.
El tema de las indulgencias fue el puntapié inicial, pero en verdad era sólo
una pequeña muestra representativa de un problema gigantesco e imposible de
invisibilizar para la época: el de la corrupción eclesiástica, manifestada en
la venta de cargos eclesiásticos y en la vida principesca de obispos,
arzobispos y grandes dignatarios, sin excluir al Papa, desde ya. Es lógico que
una nueva doctrina que preconizaba la vuelta a la austeridad del cristianismo
primitivo, y sus sencillos valores de ahorro y trabajo, tuviera éxito.
Es posible conjeturar que ese éxito también se debiera a los contactos entre
algunos aspectos del luteranismo y el espíritu renacentista, fundamentalmente
al deseo de renovación manifestado por ambos. El hombre de la nueva religión
reformada participaba, de hecho, de algunas características del Renacimiento:
no necesitaba conectarse con Dios por medio de un sistema general; no
necesitaba que alguien le interpretara la revelación; podía leer por sí mismo.
Pero al mismo tiempo es necesario aclarar que Lutero no fue para nada un
humanista; por el contrario, pensaba que el trabajo que hacían los
renacentistas con los textos antiguos no difería demasiado de lo que los
propios humanistas les criticaban a sus antecesores medievales. Al mismo
tiempo, creía que el destino del hombre estaba marcado desde el comienzo y que
nada ni nadie podía modificarlo. Esto era muy poco renacentista, como es obvio.
Yo les dije que estaba un poco cansado de nombrar a Aristóteles… Fíjense lo
harto que estaba Lutero:
¿Qué son las universidades? Hasta ahora no han sido instituidas para otra cosa
que para ser «gimnasios de efebos y de la gloria griega» en los cuales se lleva
una vida libertina, se estudia muy poco sobre la Sagrada Escritura y la fe
cristiana, y el único que allí reina es el ciego e idólatra maestro
Aristóteles, por encima incluso de Cristo. Mi consejo sería que los libros de
Aristóteles, que hasta ahora han sido reputados como los mejores, sean abolidos
junto con todos los demás que hablan de cosas naturales, porque en ellos no es
posible aprender nada de las cosas naturales ni de las espirituales… como si no
tuviéramos la Sagrada Escritura, gracias a la cual somos abundantemente
instruidos en todas las cosas de las cuales Aristóteles no experimentó jamás ni
el más mínimo barrunto.
Con esta crítica iba muchísimo más allá que el obispo Tempier, aquel que en
1277 había prohibido las tesis aristotélicas en la Universidad de París. Lo
cierto es que a pesar de la pesada atmósfera teocrática reaccionaria que se
impuso al principio en las comunidades protestantes (y sirva como ejemplo
Calvino en Ginebra), con su carga de pecado y culpa, lectura literal de la
Biblia, especulación sobre la gracia y la predestinación y las infaltables
hogueras, la Reforma en la Iglesia mostraba que una revolución que lo
trastrocara todo era posible. Pronto, y en otro terreno (aunque próximo, ahora
que lo pienso, ya que ambos se ocupan del cielo), habría otra.
Quizá los habitantes de la época no lo percibían así, inmersos como estaban en
las persecuciones y las devastadoras guerras religiosas; la Iglesia Romana, al
comprender la seria amenaza que significaba el protestantismo en cualquiera de
sus variantes, lanzó la Contrarreforma y fue tan implacable como sus
adversarios.
En realidad, la Reforma tenía también profundas raíces políticas: reflejaba y
era un síntoma de la delantera económica que estaban sacando las ciudades
comerciales e industriales del norte de Europa (Gante, Brujas, Ámsterdam), o
reinos como Inglaterra (que terminó, tras muchas idas y vueltas, plegándose a
la religión reformada, aunque en una particular versión inglesa), frente a las
potencias italianas que monopolizaban el comercio del Mediterráneo, que
justamente estaba empezando a decaer a favor del Atlántico, y aun a España, que
derrochaba las enormes riquezas que recibía como producto del saqueo americano
en guerras puramente dinásticas y religiosas, de tal modo que ese capital
terminó yendo a parar a las ciudades flamencas y hanseáticas. Es perfectamente
posible, por eso, que la Reforma no hiciera sino reflejar el nuevo espíritu
capitalista —con sus ideales de austeridad, ahorro, trabajo— que florecía en el
norte germánico de Europa; no encontramos, allí, el dispendio principesco de la
corte papal o las signore italianas.
Pero este espíritu burgués nórdico, más allá de los desafueros doctrinales de
un Lutero o un Calvino, es también un espíritu de pesas y medidas, de dinero,
de aparatos y ganancias, republicano en muchos casos y opuesto a las
persecuciones de la Contrarreforma, que permitió convertir al norte en un lugar
donde encontraron refugio pensadores aun católicos, como Descartes, Huygens,
Leibniz y muchos otros, sin hablar de la ciencia inglesa.
Como suele suceder, no hay un lazo claro entre la nueva religión reformada,
liberadora de la Iglesia como institución, y la Revolución Científica que
habría de venir, pero de alguna manera la proliferación de corrientes creaba la
sensación de multiculturalismo y, como ya les dije, introducía la idea de una
reforma radical en la teología y, por extensión, en las ideas científicas.
Dejemos por un rato este difícil tema (las relaciones entre el desarrollo de la
ciencia y los movimientos profundos de la sociedad son siempre complejas) y
veamos un poco la manera en que el Renacimiento se enfrentó a la naturaleza.
§. La gran cadena del ser
Ya hemos hablado en algún momento de los toscos intentos medievales de
clasificar la creación mediante bestiarios y herbarios que tenían mucho más de
fantástico que de científico. Y, sin embargo, no dije nada sobre la gran cadena
del ser, una metáfora que pervivió con la tenacidad de los grandes sistemas
griegos (acaso porque era de origen griego) y que obstaculizó durante siglos la
comprensión del hombre de su propio lugar en la naturaleza. La visión de los
renacentistas, de hecho, quedó encuadrada en la tradición de la gran cadena del
ser, que era el marco general que se había heredado de la Edad Media.
¿En qué consistía esta «teoría»? En el ambiente culto europeo había consenso
general de que el conjunto de los seres vivos estaba ordenado en una escala
jerárquica, una cadena continua y sin agujeros, que iba desde los más bajos
(que en ocasiones alcanzaban a los minerales) hasta los más complejos. La
posición del hombre, por supuesto, era especial: era a la vez la meta y el
producto final de la creación material y el centro de toda la escala de las
criaturas. El hombre estaba en el ápice de la escala de los seres materiales y
en la base de los seres espirituales.
La gran cadena del ser abarcaba a toda la Creación en un ascenso ininterrumpido
desde los minerales, pasando por las plantas y su alma vegetativa, los animales
y su alma sensitiva y el hombre con su alma racional, que funcionaba como
centro, culminación y bisagra con las criaturas espirituales hasta las
jerarquías angélicas (que el seudo-Dionisio Areopagita, en el siglo VI, había
clasificado en nueve círculos angélicos, en sentido creciente: ángeles,
arcángeles, principados, potestades, virtudes, dominaciones, tronos, querubines
y serafines). Y, tal vez lo más importante, esta cadena no admitía baches, ni
eslabones perdidos (de hecho, es de ahí de donde viene la expresión «eslabón
perdido»).
Esta posición intermedia del hombre traía algunos inconvenientes de identidad,
como diría algo más tarde el poeta Alexander Pope (1688-1744):
Él permanece en medio, duda si actuar o descansar;
Duda si considerarse un dios o una bestia;
Duda si preferir su cuerpo o su mente.
Los renacentistas no podían evitar tener sus problemas con una cadena
así: la asignación de un lugar fijo al hombre en la escala de los seres no era
del todo cómoda para quienes, más bien, esperaban una plena libertad de acción.
Acaso por eso La Oración sobre la dignidad del hombre del gran
humanista Pico Della Mirandola, uno de los documentos más representativos de la
época, ensayaba una reinterpretación de la cadena del ser para adecuarla al
pensamiento renacentista: el hombre, ahora, se convierte en un eslabón móvil en
esa estructura rígida. Según Pico, en el momento de la creación, Dios dijo:
Oh, Adán, no te he dado ni un lugar determinado, ni un aspecto propio,
ni una prerrogativa peculiar con el fin de que poseas el lugar, el aspecto y la
prerrogativa que conscientemente elijas y que de acuerdo con tu intención
obtengas y conserves. La naturaleza definida de los otros seres está
constreñida por las precisas leyes por mí prescriptas. Tú, en cambio, no
constreñido por estrechez alguna, te la determinarás según el arbitrio a cuyo
poder te he consignado.
Este tema de la cadena del ser, sea en su versión medieval o en su
versión aggiornata en beneficio de la movilidad del hombre,
era un verdadero problema para los estudios biológicos, que se manifestaba
seriamente cuando había que intentar encontrar los parecidos, por ejemplo,
entre el hombre y una piedra. Es cierto que se recurría a los eslabones
perdidos que eran, de algún modo, como los elementos de la tabla periódica que
predijo Mendeleev antes de que aparecieran, pero la multiplicación de huecos en
la cadena resultaba poco creíble. Y planteaba, si se quiere, un problema
teológico: si Dios había creado todas las plantas, animales y minerales, en
seis días, y al mismo tiempo, ¿cómo se justificaban los casos notorios de falta
de transición? ¿Por qué había huecos? La pregunta ya no podía responderse
fácilmente diciendo que se trataba de un misterio en una época en la que se
filtraba la idea de un mundo explicable por medio de la razón.
§. El desarrollo de las «ciencias de la naturaleza»
La cadena del ser había sido útil o funcional al menos en las épocas en que
toda clasificación biológica se refería a herbarios y bestiarios más o menos
fantásticos, ordenados por orden alfabético, o por necesidades de la
farmacopea, pero la introducción de nuevas plantas americanas, y la necesidad
de unificar las nomenclaturas de las diversas regiones de Europa, ahora
conectadas por la imprenta, ponían en jaque el sistema entero y requerían
nuevos estándares de clasificación. Lo que ocurría es que no se disponía de un
criterio claro y rector, como sería la idea de especie más tarde, concepto que
todavía era muy confuso en una época que ni siquiera separaba con total
claridad los tres reinos: mineral, vegetal y animal.
Así y todo, hubiese sido raro que no se produjera ningún desarrollo, teniendo
en cuenta que a cada rato aparecían nuevas especies americanas, y entre ellas
el maíz, el tabaco y la papa, nada menos, que despertaban la curiosidad de todo
el mundo. Acaso el más importante de los naturalistas haya sido Konrad Gesner
(1516-1565), un autodidacta pobre y vagabundo nacido en el seno de una familia
también pobre de Zürich. Este Gesner tenía cierta tendencia a la clasificación:
entre 1545 y 1555, por ejemplo, se propuso compilar un catálogo de todos los
escritos producidos en griego, latín y hebreo a lo largo de la historia de la
humanidad, y llegó a los 1.800 autores. Pero lo más interesante es que,
inspirado por algún pasaje de Plinio, Gesner intentó hacer con los animales lo
mismo que había hecho con los textos clásicos: compilar en un solo trabajo un
milenio y medio de historia, hacer un catálogo completo de todos los animales
conocidos hasta el momento.
Su Historia Animalium es una gigantesca compilación, pero no
deja de ser un híbrido: tiene bastante de los bestiarios medievales (tal vez la
figura más extravagante sea una serpiente marina de 90 metros de largo) pero
también novedades interesantes, como la primera descripción de la caza de una
ballena. La obra de Gesner fue traducida al inglés y circuló mucho en el siglo
XVII, convirtiéndose, si me perdonan el anacronismo, en un verdadero bestseller en
el que, al lado de las ilustraciones de animales más precisas que se habían
realizado hasta el momento, se discutía si el veneno de la Gorgona era emitido
por el aliento o por los ojos.
Es difícil medir la importancia de la obra de Gesner y hasta hay quienes dicen
que fue el padre de la zoología moderna. Sea como fuere, lo cierto es que
testimoniaba una curiosidad inmensa por un campo en el que se presentaban
novedades a cada rato y demostraba que el sistema de clasificación aristotélico
era decididamente insuficiente e incompleto. De algún modo, puede decirse que
inició un camino, o que retomó un camino, que habrían de seguir los grandes
sistematizadores de la naturaleza.
Pero además, Gesner inauguró un nuevo concepto de la naturaleza: explícitamente
señalaba que no constituía una amenaza, sino un entorno a explorar y disfrutar.
Comprensiblemente, la naturaleza había sido, a lo largo de los siglos,
reverenciada y temida como una fuerza poderosa y hostil. Terremotos,
inundaciones, sequías, ciclones: las montañas (que más tarde serían el punto
clave de la geología) eran lugares donde se instalaba el terror, y donde
moraban trasgos, diablos y el mismo Demonio; eran el lugar de lo temible, como
bien quedó documentado en los cuentos populares.
Pero Gesner se le animó a la naturaleza y no se conformó con las cosas escritas
por sus antepasados: como sus colegas renacentistas, como el propio Petrarca,
cuya carta sobre el ascenso al monte Ventoux es una especie de manifiesto del
comienzo del Renacimiento, Gesner destacó la necesidad de internarse uno mismo
en la naturaleza y extraer de allí las conclusiones:
Si deseáis ampliar vuestro campo de visión, dirigid la mirada a vuestro
alrededor y contemplad todas las cosas que hay a lo largo y a lo ancho. En
ningún otro lugar se encuentra tal variedad en tan reducido espacio como en una
montaña.
Es decir, puro realismo y empirismo, que se vería reflejado también en
otra de las «disciplinas» que comenzaba a desarrollarse por entonces: la
mineralogía. El estudio de los minerales se apoyó en las Summas
medievales sobre el tema, y los Lapidarius, en especial el
de Alberto Magno (circa 1200-1280), que escribió De
minerallibus et rebus metalliques libri quinque, reeditado en Colonia en
1569. Algunos «físicos» de la época, sin embargo, se especializaron, y así como
el Renacimiento generó ingenieros, artilleros y exploradores naturales, generó
también una lista de geólogos (o proto-geólogos, si ustedes quieren), y sus
respectivos tratados, de los cuales el más importante es el De Re
Metallica, de Georgius Agricola (1494-1555) en el cual se describen
minuciosamente, gracias al trabajo realizado en las minas, algunos minerales y
algunos procesos químicos como, por ejemplo, la separación del oro de la plata.
Agricola, un alquimista alemán, puede considerarse el primer minerólogo moderno
y, también, un predecesor de la medicina y la higiene del trabajo, ya que
catalogó las enfermedades de los mineros al pie del pozo, y denunció la
frecuencia de los traumatismos, la senilidad precoz y la mortalidad prematura.
Sólo se pueden imaginar con espanto las condiciones de trabajo en las minas,
que, sin embargo, serían superadas en horror durante la primera fase de la
revolución industrial.
Estos primeros mineralogistas integraban su historia en la historia universal,
partiendo de las épocas de la Naturaleza marcadas por el Génesis, y reconocían,
como los magos del Renacimiento, tres planos: el espiritual, el astral y el
elemental.
El plano espiritual poblaba el interior de la Tierra de
demonios y figuras mitológicas de toda laya, en general demoníacas, que
manipulaban los minerales, como los Kobolts (que dieron su
nombre al cobalto), o los Nicles, guardianes del níquel, entre
muchos otros. El plano astral, que fue rechazado por Agricola,
garantizaba la armonía entre el macro y el microcosmos, y describía la acción
de los astros sobre la generación de los minerales, y las fuerzas cósmicas que
regían la evolución de éstos en el seno de la Tierra (recordemos que
Aristóteles atribuía el origen de los metales a la influencia del sol sobre los
vapores subterráneos). Es interesante ver que aún hoy se atribuye a los metales
y a las gemas poderes sanadores que se derivan de aquellas creencias… de hace
mil años. Por último, en el plano elemental se incluía la
acción de los cuatro elementos, pero si por una parte muchos recurrían a los
viejos sistemas griegos, gente como Agricola o Palissy buscaba una explicación
más natural. El primero, por ejemplo, no se quedó en Plinio u otros griegos, sino
que hizo una clasificación de los terremotos en la que ya pueden reconocerse
elementos actuales. También se ocupó de los volcanes, cuya universalidad había
sido establecida por los viajeros, en especial los españoles, que habían
soportado violentas erupciones en América, atribuidas, más o menos, a fuegos
escondidos bajo tierra que una u otra causa hacía aflorar: estas teorías del
fuego subterráneo perdurarían hasta que la geología se consolidara en el siglo
XVII (y aún después).
Una curiosidad que no puedo resistirme a registrar aquí es que, por ese
entonces, se produjeron también algunas de las más antiguas memorias sobre
«tecnologías petrolíferas»: Pierre Belon (1517-1564) y el propio Agricola
reconocieron que la nafta reemplazaba al aceite de las lámparas en Sicilia, en
la India, en Etiopía, y que los campesinos de Sajonia la utilizaban para hacer
marchas de antorchas nupciales. Y después estaba el asunto de los fósiles,
sobre los cuales la discusión era viejísima. Agricola restauró el significado
original de la palabra, a saber, cualquier cosa que se extraiga de la tierra
(del latín fossa). Ninguno de los minerólogos de entonces podía
dejar de reconocer el parecido con elementos vivos, o por lo menos orgánicos,
de muchos de ellos; algunos pensaban que se trataba de «peces petrificados», de
animales sobrevivientes del Diluvio, o atribuían su existencia a causas más o
menos legendarias o fantásticas, cuando no recurrían a la vieja historia de que
eran «juegos de la naturaleza» que adoptaba curiosas formas.
Otros, sin embargo, como Leonardo, Bocaccio, Gesner y muchos más, reconocieron
la verdadera naturaleza de los fósiles, que ya era conocida por los autores
griegos pero que había sido olvidada, e incluso hubo quienes trataron de
integrarlos en el sistema zoológico de la época (de todos modos pobre e
incipiente). El tema se arrastraría trabajosamente, y era lógico: la
todopoderosa gran cadena del ser, que no distinguía tajantemente entre lo
orgánico y lo inorgánico sino que más bien enfatizaba la continuidad, no era de
gran ayuda.
Lo que es evidente es que todas estas nuevas clasificaciones y avances, aunque
respetando más o menos la cosmovisión tradicional, muestran un intento de
reconstrucción del mundo mineral y natural con una marcada inclinación por el
realismo aristotélico. Y esta inclinación al realismo golpearía en todos los
campos: valga, como ejemplo, la medicina.
§. La lección de anatomía
La verdad es que la medicina no experimentó grandes desarrollos en este período
(ya saben que, para mí, la medicina científica recién arranca en el siglo XIX),
salvo quizá por la introducción de medicinas minerales o químicas por los
paracelsianos, quienes dieron origen a una línea de pensamiento que ya les he
mencionado: la de los iatroquímicos, escuela que sugería el uso de sustancias
químicas para la curación de enfermedades y que, por lo tanto, polemizó
fuertemente con los herboristas durante muchísimo tiempo. Hay que decir que
estos iatroquímicos, si bien son considerados por algunos como los precursores
de la medicina actual, usaban elementos tales como el mercurio de una manera
temeraria e imprudente, por decirlo elegantemente.
Pero donde sí hubo un desarrollo importante fue en el terreno de la anatomía.
Era lógico: la nueva percepción naturalista y la invención de la perspectiva,
de la que ya les hablaré en un rato, conducían a un realismo pictórico
desconocido en los siglos medievales y al que no iba a escapar el cuerpo
humano, que podía ahora ser observado detenidamente gracias a las disecciones
que se practicaban en las universidades (o de manera privada, cuando se podía
obtener, por medios no del todo sanctos, algún cadáver).
Si admitimos —cosa bastante dudosa— que la medicina occidental está fundada en
la anatomía, debemos prestar especial atención a la obra de Vesalio, creador,
por así decirlo, del pensamiento anatómico en el sentido moderno, que consiste
en el esfuerzo por explicar todos los fenómenos fisiológicos y patológicos en
base a la forma interna del organismo, a relaciones estructurales conocidas y
estudiadas por medio de la disección.
La Lección de Anatomía
Hasta el año 1300 no se diseccionaron cuerpos humanos con el fin de
aprender anatomía (que en griego significa «cortar»; recordemos que «tomo»
significa parte): hay que pensar que se trataba en cierto modo de una práctica
repugnante; no habiendo refrigeración, había que hacerlo a las apuradas para
adelantarse a la descomposición del cuerpo, y rara vez los médicos
«universitarios» accedían a intervenir con sus propias manos: normalmente, la
disección se limitaba a la lectura de Galeno por parte del profesor, mientras
un barbero cirujano enterraba las manos en el barro (en el cuerpo, mejor dicho)
y enseñaba los distintos rasgos descriptos en el texto. En caso de
discrepancia, se optaba por lo que estaba escrito y se coincidía en que el
cadáver estaba equivocado. Tan tarde como 1632, Rembrandt daba a conocer La
lección de anatomía, un cuadro encargado por el gremio de los cirujanos en
el que se retrataba una de las «clases públicas» que Nicolaes Tulp daba cuando,
una vez al año, se le permitía diseccionar un cadáver, siempre y cuando fuera
de un criminal ejecutado. Si se detienen en la imagen, verán que ninguno de los
discípulos observa los músculos del brazo que están a la vista: ¡todos posan su
mirada en el libro!
Acaso por el cambio de perspectiva que representó, si hubiera que fijar una
fecha de inicio para el estudio anatómico moderno, esa fecha sería 1543, annus
mirabilis porque no sólo vio la publicación del Humanis
corporis fabrica de Vesalio sino, lo que es muchísimo más importante,
del De revolutionibus orbium coelestium, el libro de Copérnico que
habría de cambiar para siempre la cosmovisión occidental y que sería el
puntapié inicial de la Revolución Científica. Pero ya tendremos tiempo de
hablar de eso; centrémonos ahora en la fábrica corporal humana que describió
Vesalio.
Vesalio (1514-1564) había recibido una excelente educación clásica en su
Bruselas natal y más tarde había estudiado Medicina en París, Lovaina y Padua,
en cuyo ambiente liberal se practicaba la disección humana desde hacía tiempo.
Incluso se cuenta que los jueces retrasaban las ejecuciones para que los
médicos pudieran acceder a los cadáveres en las mejores condiciones posibles.
El efecto de la experiencia directa, a partir de 1539, fue inmediato: durante
su curso en Bolonia invocó la autopsia como única autoridad, haciendo a un lado
la anatomía tradicional de Galeno (quien, según descubrió, no había hecho otra
cosa que aplicar a la anatomía de los hombres sus observaciones zoológicas). Al
mismo tiempo, añadió láminas a sus estudios, cosa que por cierto no se
acostumbraba y que ahora se veía inmensamente facilitada por la imprenta.
Vesalio estaba frente a un desafío enorme: había que ajustar toda la anatomía
de Galeno. En tres años, preparó el nuevo atlas del «microcosmos»: en más de
setecientas páginas y con unas trescientas ilustraciones (hechas por alumnos de
la escuela de Tiziano), nuestro autor describió íntegramente el cuerpo humano y
obtuvo un éxito inmediato, aunque, como es de esperarse, fue duramente
criticado por los galenistas. En especial por Jacobus Sylvius (1478-1555), que
había sido su maestro, y que, aunque reconocidísimo como profesor, creía hasta
tal punto en Galeno que, cuando encontraba alguna discrepancia entre lo que se
veía y la descripción del gran médico griego, sostenía que el cuerpo humano
debía haber cambiado desde aquellos tiempos remotos.
A pesar de los anacronismos de Sylvius, Vesalio fue el responsable de imponer
dos ideas nuevas que serían claves para el desarrollo de la «medicina
biológica»: por una parte, colocó a la anatomía como base de la medicina,
cuestión atisbada también por Leonardo; por la otra, introdujo la importante
innovación de agregar láminas a los textos, iniciando así la anatomía gráfica.
Pero más allá de todo el esfuerzo que Vesalio y sus discípulos hicieron para
que arrancara la anatomía (en apenas medio siglo sus obras se impusieron en
todas las universidades de Europa), no por ello la medicina ganó el estatus de
disciplina científica. Acuérdense de que, cuando digo «científica», no necesariamente
me refiero a una disciplina puramente especulativa sino a una en la cual las
decisiones que se toman tengan sustento en alguna base teórica sólidamente
establecida. Y la medicina real de esa época distaba mucho de tener una base
sólida; por el contrario, seguía siendo puramente empírica, como podrán
verificar a través del personaje que les voy a presentar ahora.
§. Pólvora y aceite hirviendo
Fue la invención de la pólvora, más que los descubrimientos anatómicos, lo que
impulsó la cirugía en el programa renacentista: la guerra fue siempre un
terreno fértil para esa práctica, que no recibió un impulso como el que Vesalio
le dio a la anatomía, pero que no obstante tuvo su gran reformador.
Ya en el siglo XIII se encuentran indicaciones sobre mezclas de salitre, azufre
y carbón (componentes de la pólvora) en escritos orientales y en otros de Roger
Bacon, y se le atribuye a Alberto Magno una receta sobre pólvora explosiva,
pero el uso efectivo de la pólvora para impulsar proyectiles se instrumentó
recién en el siglo XIV: Petrarca ya conocía el uso de la artillería; alrededor
de 1330 empiezan a aparecer indicios que hacen suponer que en las batallas se
utilizaban verdaderas armas de fuego; en 1405 aparece un tratado de la guerra
en el que se estudia el uso de bombardas y, lo que me resulta más interesante,
una figura en la que un caballero sostiene un globo en forma de dragón. Lo
notable es que, como se lee en el manuscrito, el dragón se mantenía elevado en
el aire gracias al aire caliente que producía una pequeña lámpara que se
introducía en su boca… ¡cuatrocientos años antes de los hermanos Montgolfier!
Así como Vesalio terminó siendo médico del emperador Carlos V, el rey de
Francia, Francisco I, tuvo a su propio gran médico: Ambrosio Paré (1510-1590),
el más grande cirujano del Renacimiento, famoso en toda Europa.
Empezó como barbero-cirujano hasta que viajó a París, abandonó los cortes de
pelo, se sumergió en la cirugía y se alistó como cirujano militar de los
ejércitos franceses, en guerra permanente. Estuvo treinta años desempeñándose
en esa posición, de los cuales —ya viejo— dejó un detallado recuento en
sus Viajes por países diversos (escrito, dicho sea de paso,
para contestar al ataque dirigido contra él por el decano de la Universidad de
París, una muestra de la rivalidad entre médicos y cirujanos). El decano no
podía tolerar que un «simple barbero» estuviera escribiendo un libro que no
sólo trataba sobre cirugía, sino sobre la plaga y otras enfermedades. Ambrosio
le contestó con ironía, y su respuesta es interesante porque tiene un fuerte
trasfondo epistemológico:
¿Quieres enseñarme cirugía tú, pequeño maestro, que nunca has salido de
tu gabinete? La cirugía se aprende con los ojos y las manos. Tú, mi pequeño
maestro, no sabes más que hablar y hablar en una cátedra.
Frente al saber teorético y libresco del «pequeño maestro», útil para
otras cuestiones, Paré se posicionaba como portador de otro saber: el empírico,
el que otorga la experiencia.
Vale la pena glosar algunos fragmentos de sus Viajes… que nos
darán una visión de la medicina de la época. Veamos, por ejemplo, su primera
experiencia en Turín, donde, afirma, encontró el camino del aprendizaje del
arte de la cirugía:
En un establo donde pensábamos guardar nuestros caballos, encontramos
cuatro soldados muertos y tres moribundos apoyados en la pared. No veían, ni
oían, ni hablaban y sus ropas estaban quemadas por la pólvora. Mientras los
contemplaba, sintiendo gran piedad por ellos, llegó un viejo soldado que me
preguntó si había manera de curarlos. Yo dije que no, y entonces él se les
acercó y les cortó la garganta. Le dije que era un villano: me contestó que él
le pedía a Dios que, si se veía en una circunstancia igual, alguien hiciera lo
mismo por él, y no lo dejara arrastrarse en la agonía y la miseria.
Y esta otra: el famosísimo médico y cirujano Giovanni Da Vigo
(1450-1525) había sostenido la extraña y arbitraria teoría de que las heridas
producidas por las armas de fuego estaban envenenadas, de manera que debían ser
tratadas con aceite hirviente; además, en las amputaciones, para detener la
hemorragia de las arterias, había prescripto el hierro candente, indicaciones
corrientes entre los médicos en la primera mitad del siglo XVI.
Paré empezó a tratar a los heridos de guerra como se solía hacer en esos tiempos:
quemando las heridas con aceite hirviendo. El problema es que pudo hacer eso
hasta que se le terminó su provisión de aceite; a partir de ese momento, tuvo
que aplicarles a los soldados cuyas partes heridas aún no habían sido puestas a
freír un ungüento de huevo, aceite de rosas y trementina. Esa noche no pudo
dormir, cuenta, temiendo que a la mañana fuera a encontrar a esos pacientes
muertos. Pero, para su gran sorpresa, encontró que los que habían sido tratados
con ungüento casi no sentían dolor, mientras que los que habían sido tratados
con aceite hirviendo
tenían fiebre, un agudo dolor e hinchazón en sus heridas. Así descubrí
que la pólvora no era un veneno.
Paré rechazaba la teoría basándose en una situación experimental y, en
consecuencia, resolvía
no tratar nunca más cruelmente con aceite hirviendo a los heridos por
armas.
La fuente fundamental, ahora, era la empiria y no la autoridad:
Así es como aprendí cómo tratar este tipo de enfermedades, no de los
libros.
Al terminar la guerra con Alemania, escribía:
Regresé a París con un caballero cuya pierna había cortado, que me dijo
que la había sacado barata, al no ser detenida la hemorragia mediante un hierro
candente.
Y contaba de qué manera las ligaduras de arterias suplantaban al
cauterio (el hierro candente para detener las hemorragias en las amputaciones).
Es increíble, pero todavía en el siglo XIX se utilizaban las quemaduras con
hierros al rojo para desinfectar las heridas; muy tarde en el siglo XIX, y
antes de Pasteur, la mordedura de un perro rabioso se «curaba» aplicando un
hierro al rojo sobre la herida… Y qué decir de las amputaciones, que se hacían
con instrumentos verdaderamente estremecedores.
Es una práctica que hoy sólo se utiliza en situaciones extremísimas (y, desde
ya, con otros métodos), pero las ciudades medievales y renacentistas, e incluso
modernas, estaban repletas de mendigos a los que les faltaban piernas, brazos,
ojos, que se amputaban por cualquier cosa. Esto sin contar, desde luego, las
amputaciones «judiciales», que incluían cortes de orejas o narices, por
ejemplo. Uno se alegra de vivir, médicamente hablando, en el siglo XXI.
Para ver hasta qué punto llegaba el empirismo de Paré, una historia más amable,
de la época de su primera campaña: un muchacho se había quemado malamente en
gran parte del cuerpo con aceite hirviendo. Paré se apresuró a dirigirse a la
farmacia para retirar las acostumbradas sustancias refrescantes, y allí
encontró a una vieja curandera, quien le aconsejó poner sobre las quemaduras
cebollas cocidas con un poco de sal. Siguiendo su consejo, obtuvo la salvación
del muchacho, lo cual demuestra que en épocas en que la medicina «científica» o
«biológica» poco y nada podía hacer, era la medicina popular la que muchas
veces tiraba un cable de salvación. Sin embargo, la cosa no era tan simple:
Galeno había calificado a las cebollas como «calurosas», y, por lo tanto, no
podían servir para curar una herida caliente. Paré, uomo senza lettere,
no podía contradecir a Galeno así nomás, así que decidió que las cebollas eran
calientes, sí, pero «en potencia», mientras que «en acto eran húmedas». Apenas
una manipulación de la teoría para adecuarla a la contundente empiria.
Después de 1559, dejó las campañas y se estableció en París, donde conoció a
Vesalio, enviado desde Bruselas por Felipe II de España, para tratar al rey
Enrique II, gravemente herido en un ojo, a quien no pudieron salvar. Más tarde
tuvo algunos problemas, como cuando el sucesor de Enrique, Francisco II, murió
de una enfermedad del oído, y él fue acusado de verter en ese oído un veneno
por orden de la Reina Madre, Catalina de Médici, que provenía de la Florencia
de los venenos y las conspiraciones, justamente como hizo Claudio, el tío de
Hamlet, con su hermano y padre del príncipe.
Se cuenta que el día de la terrible matanza de San Bartolomé, el 22 de agosto
de 1572, en París, cuando los católicos pasaron a cuchillo a todos los
protestantes que pudieron encontrar, el propio rey, entonces Carlos IX, le dio
refugio en sus aposentos privados, ya que se lo creía hugonote (protestante).
Puede ser verdad o no; tampoco se sabe si Paré era católico o protestante, lo
cual no tiene la más mínima importancia, pero es una buena muestra de intolerancia
renacentista.
Más allá de todos los errores y disparates, que fueron muchos, la medicina
avanzaba (¿avanzaba?) por la vía observacional y realista. Así, persistía la
división entre lo que hemos llamado «medicina biológica» y el «arte de curar»:
la primera se acumulaba gracias a los esfuerzos de gente como Vesalio, pero el
arte de curar se alimentaba de la empiria de gente como Paré. Los biólogos
descubrían cosas, pero no sabían qué hacer con ellas (era una situación
parecida a la de los médicos de Alejandría); sus teorías sobre el cuerpo
seguían siendo fantásticas y, si conseguían «grandes curaciones», era
simplemente porque tenían suerte, o porque aplicaban remedios inocuos (que
permitían, en los casos en que esto era posible, que el cuerpo se curara a sí
mismo; lo cual, al fin y al cabo, era un precepto del arte de curar
hipocrático), o porque se apoyaban en la medicina popular. Allí donde
intervenían supuestas razones fisiológicas, como en el caso de las sangrías,
los hierros al rojo o el aceite hirviendo, los resultados solían ser
catastróficos.
Si quieren tener una idea de la imagen que daban los médicos por aquel entonces
(no tan lejano, por cierto), escuchen a Leonardo:
Procurad conservar la salud y lo conseguiréis en la medida en que os
mantengáis apartados de los médicos, porque sus drogas constituyen una trampa
de alquimia, que produce menos medicina que los libros que hay sobre ellas.
O al poeta español Quevedo (1580-1645), que narra las hazañas del
pretendiente médico de Ángela de Mondragón:
Él es un médico honrado,
Por la gracia del Señor,
Que tiene muy buenas letras
en el cambio y el bolsón.
Quien os lo pintó cobarde
No lo conoce y mintió,
Que ha muerto más hombres vivos
Que mató el Cid campeador.
En entrando en una casa
Tiene tal reputación
Que luego dicen los niños:
«Dios perdone al que murió».
No come por engordar,
Ni por el dulce sabor,
Sino por matar la hambre
Que es matar su inclinación.
Casaos con él y jamás
De viuda tendréis pasión
Que nunca la misma muerte
Se oyó decir que murió.
Si lo hacéis, a Dios le ruego
Que gocéis con bendición;
Pero si no, que vos libre
De conocer al dotor.
Con eso me parece que queda más o menos claro en qué estado estaba la
medicina renacentista. Abandonémosla por un rato y hablemos un poco de los
conejos.
¿De los conejos?
Sí.
§. Conejos y ecuaciones
En algún momento mencioné a Fibonacci (1170-1250), que había nacido en el norte
de África, viajado extensamente por el Islam y que en el siglo XIII contribuyó
decisivamente a la introducción de los números arábigos, que simplificaron la
notación y permitieron aligerar y llevar más fácilmente las contabilidades (habilidad
cara a la burguesía creciente) aunque, de todos modos, convivieron mucho tiempo
con la numeración romana, más pesada y difícil para los cálculos.
La cosa es que Fibonacci condensó todo el saber aritmético de su época en su
Liber Abaci, en cuya tercera sección aparecen los conejos. El problema es el
siguiente: un hombre pone una pareja de conejos en un lugar cerrado, ¿cuántos
pares de conejos pueden crearse a partir de esa pareja inicial en un año, si
cada mes cada pareja engendra una nueva pareja, que se hace fértil a partir del
segundo mes? Resolviendo este problema, Fibonacci se encontró con una serie que
describía la proliferación de los conejos: 1, 1, 2, 3, 5, 8, 13, 21, 34…
Noten que cada número es la suma de los dos precedentes. Lo curioso es que la
serie de Fibonacci aparece en numerosos sectores de las matemáticas, y anche de
la naturaleza misma (como por ejemplo la espiral de ciertos caracoles, las
flores del girasol o las falanges de nuestros dedos) y tiene una serie de
propiedades suculentas, de las cuales la no menos importante es que el cociente
de dos términos consecutivos converge al famoso «número de oro» que fascinó a
los renacentistas. Además de esta curiosidad, Fibonacci, en su libro, encaraba
las matemáticas con un sentido técnico operativo (renacentista avant la
lettre, influido por las matemáticas árabes) y además exponía las
cuestiones matemáticas en forma de problemas a resolver: ésta sería la forma en
que los tratados de matemáticas funcionarían en adelante. Y aún más: los problemas
y los desafíos saltarían de los libros y se convertirían (en especial durante
el quattrocento) en verdaderos torneos públicos (se me ocurre que parecidos a
las olimpíadas matemáticas de ahora) sobre la base de cuestiones propuestas,
bastante difíciles por cierto. Estos torneos a veces asumían proporciones
espectaculares, e intervenía en ellos un número enorme de personas
completamente alejadas de la matemática, más interesadas en gozar del boato
desplegado y de las peleas, a veces duras, entre los contendientes. Cuenta un
cronista de la época que los torneos devenían a veces en verdaderas mascaradas:
los partidarios de los dos bandos adversos marchaban hacia el lugar de la
discusión con gran pompa, precedidos de heraldos y con gran despliegue de banderas;
al vencedor se rendían luego los honores del triunfo, que a veces consistía en
un premio en efectivo formado mediante el aporte de los concurrentes.
Y así, con el planteo público de desafíos que los matemáticos se hacían unos a
otros, y la resolución pública, se fueron resolviendo los principales problemas
algebraicos de la época, que consistían en encontrar la solución de ecuaciones
cada vez más complejas.
La solución de la ecuación de primer grado, en la que la incógnita está elevada
a la primera potencia (ax + b = 0), se conocía ya desde los tiempos
de los babilónicos, y son ecuaciones que uno resuelve a cada momento en la vida
diaria: si nos venden en oferta 6 objetos por una cantidad c, ¿qué precio
estamos pagando por cada objeto?
6x = c
Diofanto y los matemáticos árabes ya habían resuelto la ecuación de segundo
grado (en la que la incógnita aparece elevada al cuadrado): ax2+
bx + c = 0. En el transcurso del quattrocento se resolvieron las de
tercero, gracias a Tartaglia (ax³ + bx2 + cx + d =
0) y las de cuarto, gracias a Ferrari (ax⁴ + bx³ + cx2 + dx + e =
0). Y ahí paró la cosa: no hubo esfuerzo que pudiera resolver la ecuación de
quinto grado, que se transformó en un problema insoluble como la cuadratura del
círculo, y que protagonizaría una trágica y romántica historia de amor y de
muerte unos siglos más tarde.
Pero además de estas hazañas algebraicas, los matemáticos renacentistas
desarrollaron y simplificaron la notación, lo cual también era parte del
esquema técnico-operativo-experimental: se introdujeron los símbolos +, -, ×, ÷
(de suma, resta, producto y división); poco a poco fueron aceptándose como
«verdaderos» los números negativos y, en el álgebra de Bombelli (1572), se
aceptan los imaginarios (es decir, las raíces cuadradas de los números
negativos).
Al mismo tiempo que los métodos del álgebra se hacían más potentes, también,
paralelamente, alcanzaban mayor fortaleza simbólica. En gran parte por la obra
del matemático francés Viète (1540-1603) los símbolos algebraicos empezaron a
pensarse de otra manera: una expresión como a + b dejaba de
imaginarse sólo como una representación de números ausentes o desconocidos,
para alcanzar el estatus de una expresión simbólica autónoma, con la cual era
más que lícito operar. Es un cambio radical en la manera de tratar los objetos
matemáticos y, así, el álgebra ganaba tanto en operatividad como en
abstracción.
Les voy a poner un ejemplo para que se entienda esta cuestión. Uno puede hacer
un gráfico de, digamos, la evolución de las temperaturas medias a lo largo del
año y puede imaginarse esa curva simplemente como la relación entre fechas y
temperaturas, pero también puede verla como curva, y analizar sus propiedades
independientemente de las relaciones que represente. Bueno, algo así hizo
Viète, dándoles a las letras del álgebra un valor simbólico propio,
independiente del referente. El álgebra adquiría así su estructura abstracta,
que tantos resultados daría. También fue por esa época cuando apareció una
formidable herramienta de cálculo, los logaritmos, que hasta hace poco fueron
la pesadilla de los estudiantes secundarios pero que significaron un enorme
alivio para quienes se veían obligados a realizar cálculos fastidiosos y
difíciles: los logaritmos fueron la herramienta de cálculo más importante hasta
la llegada de la calculadora de bolsillo y la regla de cálculo logarítmica
puede considerarse una verdadera computadora (hoy abandonada).
Bueno, empezamos con una pareja de conejos, cuyos nombres, si es que los
tenían, no registró la historia, y terminamos con los logaritmos. Y ahora vamos
a hablar del descubrimiento geométrico más importante de la época: la
perspectiva.
§. La primavera de Botticelli
El descubrimiento de la perspectiva, es decir, de la representación
tridimensional sobre una superficie, se desarrolló a mediados del siglo XV,
bajo la influencia del gran pintor Piero della Francesca, que la transformó de
una mera técnica en una teoría matemática (o geométrica, mejor dicho).
La perspectiva no sólo renovó completamente el arte, produciendo algo
irreductible a la representación medieval (y aún antigua, que tanto atraía a
los humanistas), sino que reflejó las nuevas formas en que empezaban a
percibirse dos intuiciones básicas: el espacio y el tiempo.
El espacio percibido por el hombre medieval suele ser, como el tiempo,
despojado de medida, no métrico (ni geométrico, por supuesto); ya hemos
charlado un poco sobre eso. Y se ve muy bien en los cuadros medievales o, mejor
dicho, en los frescos, ya que el objeto «cuadro», tal como lo concebimos
nosotros, como algo que se cuelga de la pared y que no forma parte de la pared
misma, nace con el Renacimiento. El espacio pictórico está determinado por lo
que ocurre adentro de los cuadros. El fenómeno, el tema pictórico, determina el
espacio donde está ocurriendo. Fíjense en el cuadro de Giotto: el fondo, el
volumen, está de alguna manera contorneando a las figuras, pero nada más.
La resurrección de san Lázaro, de Giotto
Lo que ocurre allí es lo que podríamos llamar el fenómeno, la anécdota,
el motivo del cuadro o el fresco, el hecho. Y el espacio no es autónomo, se
cierra sobre el fenómeno, se adapta al fenómeno, no existe sino para él, no
existe fuera de él; por su parte, la decoración es icónica: las plantas o
animales son apenas signaturas que apoyan la anécdota religiosa.
Lázaro resucita: ése es el fenómeno. Pero ese fenómeno delimita el espacio:
atrás no hay nada, hay un telón, en cierto modo convencional que envuelve lo
que está ocurriendo. Del mismo modo, los personajes no tienen edad, son figuras
a través de las cuales no transcurre el tiempo.
Pero el ascenso de la nueva vida ciudadana y burguesa impone un cambio porque
predispone a la geometrización, y a la vida geométrica (comprendo que esta
última expresión es una exageración mía, pero me gusta). La primavera,
de Botticelli, uno de los cuadros más emblemáticos del quattrocento italiano,
ya nos muestra un panorama por completo distinto al de la pintura medieval. Todo
lo que ocurre en el cuadro, todos los «fenómenos» tienen un carácter simbólico:
la escena representa un rito pagano, tan caro a los renacentistas. Los
personajes (en general tomados de la realidad) están caracterizados como dioses
griegos (Mercurio, Venus, las Gracias), casi desnudos y en su tamaño natural, y
con un complejo simbolismo filosófico que requiere un hondo conocimiento de
cultura renacentista para interpretarlo. Pero si miran las figuras van a ver
que el trabajo ya no es icónico sino realista: un buen ejemplo es el rostro de
Giuliano de Medici (hermano de Lorenzo el Magnífico), el personaje a la
izquierda: es un verdadero retrato.
La Primavera, de Botticelli
Botticelli no usa aquí plenamente la perspectiva, pero el fondo ya no es
inerte y los detalles están tratados con mucho cuidado. Y el motivo del cuadro
no es religioso sino humano, muy humano, aunque revestido con ropajes
mitológicos y clásicos. Y no pretende ningún contenido moral: ese contenido
moral está reemplazado por la búsqueda de la belleza de las formas per
se, por la belleza misma.
En cambio, en el conocidísimo retrato del matrimonio Arnolfini (1434), de Jan
van Eyck (1390-1441), el espacio está bien delimitado por la perspectiva: es
una habitación en un lugar muy bien señalado. Pero al ser geométrico, también
es previo: hay un escenario donde después (es un después ontológico; no quiere
decir que la acción concreta se haya llevado a cabo después) el pintor coloca
los sucesos. Podría haber puesto uno más o uno menos, sin modificar
necesariamente el escenario.
Retrato de Giovanni Arnolfini y su esposa de Jan van Eyck
Aquí hay, además de espacio, tiempo percibido: los personajes tienen
edad, se trata de un matrimonio burgués, cuya situación podemos ubicar en el
tiempo. El Renacimiento, y más fuertemente aún el Barroco, transforman la idea
de la precedencia del fenómeno sobre el espacio en una precedencia del espacio
y, yo agregaría, el tiempo, sobre los fenómenos.
§. Vivir geométricamente: la silla vacía
Pero esa manera de ver y percibir el espacio (y el tiempo) es justamente la
construcción de la gran Revolución Científica de los siglos XVI y XVII. Lo que
hace esta última es agarrar todos los fenómenos de lo físico, todos los
fenómenos del mundo y establecer: primero, están el espacio y el tiempo. Newton
lo va a enunciar con toda claridad en sus Principios matemáticos de
filosofía natural, de 1687, que son la piedra basal de toda la ciencia
moderna: hay un espacio y ese espacio es anterior a todo. Antes que nada, antes
de que ocurra el primer fenómeno, existe el universo y, dentro del universo,
dentro del espacio, ocurren los fenómenos. El espacio es un receptáculo
independiente y previo a lo que ocurra en él.
Así funciona en cierta medida nuestra percepción moderna: miramos una silla y
no pensamos que la silla se constituye en tanto silla en el momento en que
alguien se sienta en ella. La silla es previa, la silla para sentarse está
allí, vacía, independientemente de que yo la use o no. En cambio, si
percibiéramos el mundo como una playa y nos sentáramos en la arena, veríamos
que la arena se adapta a «nuestro sentarnos», digamos, y se forma una especie
de silla, pero esa silla sí empieza a existir después de que nos sentamos y en
tanto nos sentamos. Y después de un tiempo, se borra. En esa playa, el espacio
es plástico, se adapta al fenómeno, que en este caso es el acto de sentarse, y
no hay silla independiente de ese fenómeno.
Hay un ejemplo muy claro de cómo funciona el manejo del espacio: el teatro. El
teatro medieval y renacentista, en general, es un teatro itinerante: un grupo
de juglares o actores recorre el mundo y, luego, en un determinado sitio, arma
un tinglado y representa su obra. Cuando levantan todo y se van, no queda un
escenario vacío, no queda nada, porque el espacio teatral sin fenómeno teatral
carece de sentido. Pero en una obra moderna, el escenario puede quedar vacío,
porque el espacio escénico es anterior al fenómeno escénico; los actores se
ubican en ese espacio que ya estaba.
Lo mismo pensarán los científicos de la Revolución: lo que está ahí, en el
mundo, está ahí. Los planetas están ahí, las estrellas están ahí, las plantas y
los animales están ahí, aun las cosas más difíciles, más complicadas de
interpretar, como la fuerza de gravitación, están ahí. Hay un realismo
implícito y una objetividad metodológica; el mundo es el mundo y yo soy yo, yo
y mis instrumentos de medición, que me permiten capturarlo.
La geometrización del espacio (y del tiempo) disuelve el espeso mundo medieval,
borrando los «lugares naturales», borrando también las signaturas (que habían
bajado a la tierra, transformándose en magia y acción) y, a la larga, borrando
las diferencias entre cielo y tierra, entre macro y microcosmos, sometiendo a
ambos a una geometría, a una teoría, y a una ontología únicas.
Porque, aunque resulte increíble, en medio de toda esta mezcolanza, que por
momentos parece no tener ningún hilo conductor, que mezcla las excentricidades
de Paracelso con la técnica (e incluso el hermetismo) de Leonardo, el humanismo
con la caza de brujas, estaba naciendo un orden sólido, un orden que conduciría
a una nueva etapa para el pensamiento científico, tan importante como lo fue la
irrupción del pensamiento griego en el siglo VI a.C.
Capítulo 12
El problema del movimiento
Todo se mueve
nada está quieto
salvo mi corazón.
La serpiente se arrastra
en su lecho de piedra
y la piedra se desliza
al costado del volcán
y el viento
es aire en movimiento
nada está en calma
salvo mi corazón.
Casi todo, a nuestro alrededor, se mueve. Vemos al Sol cruzar el cielo
de oriente a occidente, vemos la piedra que cae, el insecto que se arrastra
penosamente sobre su camino mínimo; vemos al proyectil cruzar el aire límpido
de una mañana de verano, casi flotar en él, y luego de un momento de gloria,
precipitarse miserablemente al suelo. Y aunque no lo vemos, ni lo sentimos,
sabemos que la Tierra, que nos parece en reposo, cruza el espacio con
velocidades de pesadilla. Las partículas se agitan en el fondo de los átomos.
El mundo que nos rodea es cambio, no permanencia: se mueve.
Es algo con lo que convivimos día a día y a lo que, mal que mal, ya estamos
acostumbrados, como lo estaban el bueno de Aristóteles o sus herederos y
detractores renacentistas. Pero si es tan natural… ¿por qué, entonces, el
movimiento conformó un misterio durante tantos siglos, y fue su elucidación la
que dio paso a la ciencia moderna?
Porque no todas las cosas parecen moverse de la misma manera. Si se empuja una
pelota, ésta rueda hasta que se detiene, como si se cansara de haberse movido.
Si se suelta una piedra, cae espontáneamente, sin que nadie haga nada, y lo
hace cada vez con más velocidad, como si estuviera apurada por regresar al
suelo. Los objetos celestes, en cambio, parecen moverse solos y siempre de la
misma forma, como si la hubieran aprendido, les gustara y no encontraran una
buena razón para cambiarla. Tampoco caen al suelo, como sí lo hacen la manzana
o la piedra.
Ni siquiera todos ven los mismos movimientos de la misma manera. Si se mira el
libro que se lee mientras el tren nos arrastra hacia algún destino más o menos
incierto, el libro parece estar quieto, en reposo, en nuestra mano. Pero el que
desde afuera nos ve pasar a gran velocidad, observa que el libro se mueve,
junto con el tren y con nosotros. ¿Quién tiene razón?
Milan Kundera sostiene que “la lucha del hombre contra el poder es la lucha de
la memoria contra el olvido”. Forzando un poco las cosas, puede decirse que la
lucha del hombre por comprender la naturaleza fue, en gran medida, la lucha por
comprender el movimiento. Por qué se mueven los cuerpos es una de las preguntas
más antiguas de la ciencia: desde las primitivas explicaciones hasta la teoría
de la Relatividad, desde Aristóteles a Einstein, se razonó, se pensó, se
especuló sobre las causas y modos del movimiento y el reposo, se trató de
distinguirlos, se buscó algo cuyo movimiento —o falta de él— fuera absoluto y
nadie pudiera discutirlo, y muchas veces se creyó encontrarlo. La mecánica
avanzó penosamente, en ocasiones quedó estancada durante siglos y a veces
produjo estallidos espectaculares, en los que las concepciones del hombre sobre
el movimiento —y al mismo tiempo sus concepciones sobre el mundo— tuvieron que
cambiar drásticamente.
§. La mano y la piedra
Se mueve el mar en el mar
Se mueve el viento en el viento
Y el viento
Es aire en movimiento
Todo se mueve
Salvo mi corazón.
La primera teoría completa la formuló, cuándo no, Aristóteles. Para él,
el movimiento tenía un significado diferente al que ahora le damos nosotros, y
estaba subsumido en la idea más general de cambio: los procesos de nacimiento,
corrupción y muerte, el animal que salta sobre una presa o la piedra que se
degrada por la acción del mar eran ejemplos de movimiento tan legítimos como el
de la flecha que cruza el cielo azul o los planetas que giran en el cielo
pegados a sus esferas homocéntricas. El movimiento tal como nosotros lo
entendemos era sólo uno de los tantos procesos de cambio, al cual llamaba
«movimiento local». Prescindiremos de esa denominación, entendiendo que cuando
hablamos de «movimiento», nos referimos a lo que él, y quienes lo siguieron,
denominaron «local».
Hemos hablado algo de esto, pero como la teoría del movimiento terrestre y
celeste será el hilo conductor y la piedra de toque que nos guiará a lo largo
de la Revolución Científica —en gran medida porque la mecánica combina
perfectamente y con absoluta claridad la experimentación y la razón— debemos
volver un poco a él en detalle. Lo que me gustaría poder transmitirles es la
dificultad tremenda y el esfuerzo que significó establecer una teoría sobre
algo que parece tan simple.
El movimiento, tal como lo entiende Aristóteles, es un proceso de restauración
del orden, un impulso hacia la estabilidad y la armonía. No olvidemos que el
cosmos aristotélico está jerarquizado, y ofrece de entrada una división tajante
y fundamental entre la esfera supralunar, donde nada puede cambiar, y la esfera
sublunar donde todo se corrompe y modifica. Son dos mundos gobernados por
diferentes leyes y formados por elementos distintos: la esfera sublunar, por
los cuatro elementos tradicionales de Empédocles (una esfera de tierra, rodeada
por una caparazón de agua, otra de aire, y otra de fuego, que se extiende hasta
la esfera de la luna); la esfera supralunar, y más allá, por un quinto elemento
o quintaesencia, el éter, que es incorruptible, transparente y eterno.
Por su parte, la rotación de la esfera de la luna desordena la esfera sublunar,
la vuelve confusa y promiscua, mezcla las cosas. Pero esta esfera degradada,
por su propia naturaleza, trata de que el orden se restaure, y así, los objetos
intentan regresar al lugar que les pertenece naturalmente: la piedra cae porque
su impulso ontológico (encarnado en su peso, o su gravedad) la arrastra,
precisamente, hacia su lugar natural, la lluvia cae buscando la esfera del
agua, y lo mismo hacen los ríos al bajar de las montañas; las burbujas que se
generan bajo el agua ascienden hasta alcanzar el aire, que les es propio, el
humo sube porque su levedad (Aristóteles distinguía entre levedad y peso o
gravedad) lo lleva a la esfera de fuego, la más externa.
Éstos son movimientos naturales que sólo se producen por razones constitutivas
y privativas de cada cuerpo: cuando alcanzan el sitio que les corresponde, y
ponen –literalmente— las cosas en su lugar, el movimiento cesa, porque no tiene
razón de ser.
Aristóteles logra determinar que ciertas características del movimiento natural
sublunar dependen del objeto y del medio; mientras más pesado sea el objeto,
más rápido se moverá o caerá, y cuanto más denso sea el medio, más se retrasará
su movimiento. Lo cual excluye, de paso, la existencia del vacío, ya que en el
vacío, al ser la resistencia nula, para Aristóteles la velocidad sería
infinita, lo cual no puede ser por dos razones: primero, porque si se moviera
con velocidad infinita, estaría en dos lugares diferentes al mismo tiempo (lo
cual es absurdo), y segundo, por otra razón más sutil: para Aristóteles no
puede haber ningún fenómeno que implique el infinito de hecho, «en acto»; el
infinito es solamente «potencial».
La explicación, sin embargo, deja un flanco débil: no da cuenta, por ejemplo,
de por qué la piedra que cae lo hace cada vez más rápido: Aristóteles atribuye
el aumento de velocidad a la proximidad cada vez mayor del lugar natural, que
la apura y la impulsa a moverse más rápido. Una explicación, sí, aunque no
demasiado convincente.
En el mundo supralunar las cosas son completamente distintas: el movimiento de
los astros y las esferas es por naturaleza circular y eterno, aunque necesita
la ayudita de un primer motor inmóvil situado más allá de la esfera de las
estrellas fijas, y los motorcitos inmóviles gentilmente adosados a las esferas
interiores.
Hasta ahí los movimientos naturales.
Pero hay otro tipo de movimientos, exclusivos del corrupto mundo sublunar, que
de ninguna manera pueden caer dentro de esta descripción: una flecha que sube
(por lo menos al principio) no se dirige a lugar natural alguno, una piedra
lanzada hacia arriba tampoco, más bien se aleja de su lugar natural,
violentando su naturaleza, y por lo tanto son movimientos violentos o forzados.
Cualquier objeto que se mueva alejándose de su lugar natural o sin aproximarse
a él, está imbuido de un movimiento violento, y como un objeto cualquiera no
tiene ninguna razón para moverse abandonando o alejándose de su lugar natural,
necesita algo que lo mueva, o un motor: la mano que arroja la piedra, la cuerda
del arco que arroja la flecha, son los motores que permiten (causan) el
movimiento. Obviamente, no puede haber movimiento violento sin motor, nada
puede moverse sin que algo lo mueva.
El movimiento en Aristóteles es absoluto, por supuesto: si algo se mueve, se
mueve; si está en reposo, está en reposo (lo mismo que las direcciones arriba y
abajo en relación al centro del mundo). Y además, como el movimiento natural
está conectado con la esencia del cuerpo y el movimiento violento es un simple
accidente, son atributos contrarios, no pueden mezclarse y un móvil no puede
participar de ambos a la vez.
Uno estaría tentado de preguntarse por qué nuestro filósofo elaboró una teoría
tan complicada; mucho más que la de los atomistas, por ejemplo, que sostenían
como axioma que los átomos se movían en el vacío al azar y espontáneamente (y
con la misma velocidad).
De todos modos, la construcción de Aristóteles era mucho más completa que la de
los atomistas; muy en su estilo, no sólo abarcaba todos los movimientos, sino
que armonizaba más o menos bien con su esquema general del universo.
La verdad es que a primera vista no está mal: es una teoría armónica, sensata y
parece acomodarse bastante bien a la experiencia cotidiana. Pero sólo a primera
vista. Cuando uno la examina más de cerca, se da cuenta de que es completamente
inverosímil. Y, fundamentalmente, contradice el sencillo y cotidiano hecho de
que si uno arroja un proyectil, éste sigue moviéndose después de que el motor
(la mano) ha cesado de actuar y el proyectil se ha separado de ella. ¿Cómo
puede ser? ¿No es que no había movimiento sin motor? ¡Y resulta que cuando la
mano suelta la piedra, ésta se sigue moviendo, sin motor aparente alguno!
Aristóteles toma buena nota de esta dificultad realmente fatal y elabora una
respuesta que consiste en sostener que el movimiento aparentemente sin motor se
debe a la reacción del medio por el que circula: la mano actúa como motor de la
piedra, y, a la vez, le confiere la facultad de ser motor al aire
inmediatamente vecino, que mueve a la piedra y así sucesivamente, hasta que el
impulso se agota, el movimiento violento cesa, y la piedra retoma el movimiento
natural y cae al suelo. La explicación es ingeniosa, pero es muy difícil de
creer. A la larga, junto con el misterio de la aceleración de los cuerpos en
caída libre hacia su lugar natural, terminaría por poner en entredicho toda la
teoría.
La teoría presenta dos serios problemas, por lo menos: el del incremento de la
velocidad en la caída libre y el del lanzamiento. Pero pese a estas
dificultades, subsistió como teoría principal o estándar, durante muchos
siglos, lo cual demuestra, de paso, que un par de dificultades no son un
obstáculo cuando hay una teoría coherente que pretende explicar (y en cierta
medida lo hace) todos los fenómenos. Lo retorcido de la elaboración
aristotélica muestra, de paso, las dificultades que presenta la explicación del
fenómeno.
Sería muy bueno habitar
el mundo supralunar,
¿no creen ustedes?
Aquí todo se te rompe
el teléfono no anda
el coche se descompone
la ropa se mancha
se quema la plancha
arriba no pasa nada.
Dos mundos, dos mundos
el de arriba puro
el de abajo corrupto.
Arriba éter cristalino
abajo mineral sucio.
Aire tierra, fuego y agua
arriba todo se mueve
en un perfecto círculo
abajo todo se mezcla
y la tierra está inmóvil
en el centro del mundo.
Pero….
En la esfera supralunar no hay ciencia
no hay libros
sólo un eterno movimiento circular.
Que cansaría hasta a los ángeles.
Mejor volver a la lucha, a la furia de los elementos de un mundo
promiscuo y cambiante, donde por lo menos se puede hacer algo.
Por otra parte, la verdad es que no me gusta la teoría de Aristóteles. Además
del pequeño detalle de ser falsa, tiene, para mí, otro gran defecto: no es
elegante, está llena de parches, de divisiones arbitrarias (como la del espacio
supra y sublunar), de argumentos recauchutados para arreglar las dificultades.
Y tiene, además, otro defecto, que no lo era entonces, pero ahora sí: estudia
el movimiento como una parte inseparable de una concepción cosmológica global,
mientras que, para nosotros, es un fenómeno aislado.
Lo cual no quita que siga siendo intrigante: ¿Por qué la piedra se cae y la
luna no se cae, por ejemplo? Creemos que el movimiento de la bicicleta es
producido por el esfuerzo de nuestras piernas pedaleando, nada parece más
evidente. Pero si colgáramos la bicicleta de un alambre no se movería por más
que pedaleáramos. No son nuestras piernas, pues. ¿Qué mueve entonces a la
bicicleta? ¿Y por qué si pedaleamos hacia atrás, la bicicleta se mueve hacia
adelante? ¿Pueden explicarlo?
Les digo esto para mostrarles que, aún hoy, una mirada primaria al movimiento
puede traer problemas y hacer evidente que una buena explicación tiene que ser
forzosamente compleja. Esto justifica los intentos más o menos exitosos, más o
menos fallidos, y la enorme cantidad de talento e inteligencia invertidos en
resolver el misterio. Porque, obviamente, es un misterio.
§. La piedra y la flecha: los movimientos violentos
Aunque la de Aristóteles fue la teoría dominante, es falso pensar que perduró
intacta hasta ser destruida por Galileo. Ya en el siglo VI, Juan Filopón, de
Alejandría, hizo una severa crítica y demostró (parece que fue el primero) que
el medio no podía ser la causa del movimiento del proyectil. Si es el aire el
que transporta la piedra y la flecha, ¿por qué su batir violento no las movía
directamente? ¿Por qué una piedra pesada puede ser lanzada más lejos que una
liviana?
Obviamente, el aire no producía el movimiento, sino que oponía resistencia a
él, y así propuso que la mano o el arco impartían «poder motor» no al aire sino
al mismo proyectil: una cierta fuerza motriz incorpórea debía ser dada al
proyectil a través del acto de lanzar, pero esta fuerza o energía era
simplemente «prestada» —del mismo modo que el calor es «prestado» por el fuego
a un objeto—, se iba disipando y decrecía.
Filopón cuestionaba también la afirmación de Aristóteles sobre la caída de los
cuerpos –el movimiento «natural»— según la cual un objeto que caía lo hacía con
una velocidad proporcional a su peso, argumentando, otra vez, que la
experiencia mostraba que un objeto más pesado y uno menos pesado soltados desde
la misma altura tocaban el suelo con una diferencia de tiempo muy pequeña.
Las observaciones de Filopón tuvieron escasa repercusión en la Edad Media,
aunque tuvieron muchísimo peso en las discusiones de los autores árabes sobre
el asunto (en especial Avicena y Averroes) hasta que fueron retomadas, o fueron
desarrolladas independientemente, por Jean Buridan (c. 1300-c. 1360), dos veces
rector de la Universidad de París y discípulo nada menos que de Guillermo de
Ockham, es decir, del más alto linaje intelectual.
Buridan rechazó la teoría aristotélica, con argumentos parecidos a los de
Filopón, y agregó argumentos propios: un objeto terminado en punta se movería
más despacio que uno rematado en una superficie plana, ya que el aire tendría
más ocasión de propulsar hacia adelante, lo cual no era el caso, según decía
haber experimentado (lo cual podría ser falso). El aire no podría explicar el
movimiento rotatorio de una rueda de molino, porque el movimiento continuaba
aunque se colocara una cubierta sobre ella.
En lugar de la teoría aristotélica, que tantos baches empezaba a mostrar,
propuso que lo que el motor confería al móvil era una cierta propiedad o
virtud, el impetus, que, mientras perduraba, sostenía el
movimiento; luego se iba disipando del mismo modo que se disipa el calor en un
cuerpo, hasta que el móvil, finalmente, abandonaba su movimiento violento y
caía a tierra siguiendo su tendencia natural.
En los proyectiles, este impetus se reducía progresivamente
por la resistencia del aire y por la tendencia natural de caer; en los cuerpos
que caían libremente, el impetus aumentaba gradualmente por
esa tendencia natural, que actuaba como una fuerza aceleradora que añadía
incrementos o impetus sucesivos a los ya adquiridos. La medida
del ímpetus de un cuerpo era su cantidad de materia
multiplicada por su velocidad.
Pero… ¿qué era este ímpetus? Se trataba de algo diferente del
cuerpo en movimiento, algo externo, que el motor le comunicaba:
Este ímpetu es una cosa duradera, distinta del movimiento, por el cual
el proyectil es movido… Y es probable que este ímpetu sea una cualidad asignada
por la naturaleza para mover el cuerpo sobre el cual es impreso, de la misma
manera que se dice que una cualidad impresa por un imán sobre un pedazo de
hierro mueve el hierro hacia el imán. Y es probable que de la misma forma que
esta cualidad es impresa por el motor en el cuerpo en movimiento juntamente con
el movimiento, también sea disminuido, corrompido y obstruido, como lo es el
movimiento, por la resistencia del medio o la tendencia natural contraria.
Si esto último no pasaba, el impetus permanecería, de
lo cual daban buena cuenta las esferas celestes, que, al no tener resistencia,
seguían moviéndose eternamente gracias al impetus conferido ab
initio por Dios.
En toda esta indagación de Buridan encontramos algo muy propio del espíritu
medieval: necesita preguntarse qué es el impetus; no le alcanza del
todo con describirlo. Las ideas científicas necesitaban, todavía, un qué,
y no se conformaban con el cómo: a este problema responderán en
forma tajante, como veremos más tarde, el propio Newton y los hombres de la
Revolución Científica, quienes considerarán el qué como un problema ajeno a la
ciencia, de índole completamente metafísica: no objetan la metafísica pero
creen que debe mantenerse apartada de la mecánica. Quiero aclararles que la
actitud de preguntarse por el qué me parece científicamente
legítima, aunque los mecánicos de la Revolución la van a rechazar como
«puramente metafísica».
Hay otra cosa importantísima en lo hecho por Buridan, aunque ciertamente pasó
desapercibida en su época: unificó los movimientos terrestres y celestes al
asegurar que todos ellos tenían una misma causa, el impetus. Era
una manera muy «light» de hacerlo, pero era algo: la fastidiosa división del
mundo en dos empezaba a mostrar cicatrices, invisibles por ahora, pero que se
irían acumulando.
La teoría del impetus fue aceptada ampliamente durante los
siglos XIV y XV por todos los físicos que actuaron y abordaron el problema
durante el Renacimiento, incluyendo a Leonardo da Vinci y al joven Galileo.
¿Estaba pues resuelto el problema del movimiento?
De ninguna manera.
Por empezar, no estaba claro qué era lo que gastaba o se oponía al impetus (ya
que en la formulación de Buridan era una entidad permanente), ni tampoco qué
ocurriría con el movimiento en el vacío (cuya existencia los físicos del ímpetus aceptaban):
al no haber resistencia, ¿por qué habría de gastarse? ¿El móvil se seguiría
moviendo siempre como las esferas celestes? ¿Y cómo lo haría? ¿En línea recta?
¿De manera circular?
Antes de seguir con los problemas y de ver cómo se fueron resolviendo,
echaremos una mirada a lo que, más o menos en la misma época de Buridan, hacían
los científicos de Oxford, que habían emprendido un camino diferente y
complementario…
Se mueve el pez en el mar.
Se mueve el ave en el viento
y el viento
es aire en movimiento
nada está quieto
salvo mi corazón.
(Y el volcán
¡rataplán!)
Vuela el pájaro en el aire
juega la luz en la nieve
por el espacio vacío
la tierra también se mueve.
Se mueve el mar en el mar
donde relumbran los peces
y se agita entre las flores
el colibrí, que no duerme.
Y en la montaña el arroyo
y en los pastos la serpiente.
Cae el águila de pronto
sobre la presa inocente
y en el espacio vacío
también la tierra se mueve.
La Tierra se mueve, la Tierra se mueve… Tendremos que hablar del asunto.
Pero por ahora, nos mudamos a Oxford.
§. La escuela de Oxford y el estudio matemático del movimiento
La escuela de Oxford era heredera y el resultado de un gran linaje intelectual,
que había empezado con Robert Grosseteste y Roger Bacon. Y mientras en París
trataban de centrarse en los movimientos reales, lo cual era difícil dada la
falta de instrumentos de medición, en Oxford todo era teórico, y se desarrolló
un tipo de estudio que ya no se basaba en las propiedades del móvil, o en las
causas de que se moviera, sino en la matemática de su trayectoria: es decir,
una cinemática.
Parece que el primer autor en intentar ese estudio puramente cinemático del
movimiento fue Gerardo de Bruselas (s. XIII), quien consideró como principal
objetivo el análisis y la representación de las velocidades uniformes. Su
análisis implicaba inevitablemente el concepto de velocidad y, según parece,
supuso que la velocidad de un móvil puede ser expresada por un número o una
cantidad.
Lo que es importante contar es que los científicos de Oxford pudieron superar
una de las dificultades centrales de la teoría aristotélica: su imposibilidad
de ser matematizada.
La idea de describir la posición de un punto mediante coordenadas rectangulares
era conocida por geógrafos y astrónomos desde los tiempos clásicos. Los médicos
estaban familiarizados con la representación del calor y el frío mediante
números. Galeno mismo había sugerido un grado neutro de calor, lo que sirvió a
los autores latinos y árabes, para establecer una escala que se hizo popular y
que tenía cuatro grados de calor o de frío, y los filósofos de la naturaleza
utilizaron una de 8 para medir las diferentes cualidades primarias (húmedo,
seco….). Naturalmente, la tajante separación entre opuestos (el calor y el
frío, la pesantez y la levedad) era un obstáculo imposible de sortear para
poder establecer una escala unificada, como las que usamos nosotros, para la
cual era necesario resolver esos pares de cualidades y subsumirlas en conceptos
únicos. Fue la mecánica y la cinemática quienes lo lograron, y en ello jugaron
un papel central los oxonienses.
El objetivo de los métodos desarrollados en Oxford era expresar los grados de
aumento o disminución numérica de una cantidad en relación con una escala dada.
Tomando como referencia una línea horizontal recta, se representaba cada grado
de la intensidad por medio de una línea vertical perpendicular, de altura
determinada.
La velocidad era uniforme cuando se recorrían distancias iguales en tiempos
iguales, y «disforme» cuando esto no ocurría. Se decía que una velocidad
disforme era uniformemente disforme cuando la aceleración o el retraso eran
uniformes (lo que nosotros llamamos movimiento uniformemente acelerado).
Habitantes de un mundo visual en que todo se grafica y se representa, desde las
variaciones de precios hasta las fluctuaciones de audiencia de un programa de
televisión, resulta difícil medir la dificultad y la genialidad de concebir los
primeros gráficos: al fin y al cabo, son construcciones numéricas y geométricas
abstractas, que pretenden ser un modelo del mundo: pero no de la totalidad del
mundo, sino de una cualidad que se aísla de la totalidad y se mide.
Medir: también es algo cuya dificultad nos cuesta concebir. Vivimos rodeados de
relojes, de cintas métricas, de códigos de barras; aislamos intervalos muy
pequeños de tiempo o espacio que eran totalmente ajenos a la percepción
cotidiana de esta gente, que a duras penas podía percibir un segundo o un
milímetro con sus toscos aparatos y cuya única medida regular de intervalos
pequeños de tiempo, durante siglos, había sido el ritmo de la respiración.
Pero volvamos. Al postular que la velocidad podía expresarse como el cociente
del espacio recorrido por un móvil por el tiempo tomado en recorrerlo, los
científicos de Oxford eliminaron una dificultad central de la teoría estándar,
que consideraba que este cociente era ridículo porque ponía en relación dos
magnitudes por completo inconmensurables. Esto se debía, en gran parte, a lo
reacios que eran los griegos a reducir segmentos a números (y si recuerdan el
desastre de los pitagóricos, no les faltaba razón). Una expresión como
espacio/tiempo carecía de sentido y, por eso, la física debía ser no matemática
sino puramente cualitativa y descriptiva como la biología.
Pero no era una dificultad para los oxonienses, que estaban muy preocupados por
determinar el «grado de intensidad» de las magnitudes (que ellos llamaban
«latitud») y representaron el «grado de velocidad» en gráficos, acercándose al
concepto que bastante más tarde, y tras remontar muchas colinas, sería central
en el proceso de reconstruir la mecánica de arriba abajo: el de velocidad
instantánea. Fíjense que el concepto de velocidad instantánea es bastante elusivo:
es la velocidad que, obviamente, tiene un móvil en un instante dado… ¡pero un
instante tiene una duración cero! ¡Y entonces el espacio recorrido también es
cero! ¿Qué significa entonces?
El oxoniense Heyfetsbury (1313-1372) dio una definición que era algo así: la
velocidad instantánea es la velocidad con que se seguiría moviendo el móvil si
conservara la velocidad de ese instante, algo no muy diferente de lo que diría
Newton bastante más tarde. Pero a pesar de esa definición, que parecía venida
del futuro, el concepto seguía siendo prematuro.
Los oxonienses, en especial los «calculadores» del Merton College, gozaron de
muchísimo prestigio y lograron establecer algunas propiedades, como, por
ejemplo, el teorema del valor medio, que dice que el espacio que recorre un
móvil uniformemente acelerado es igual al que recorrería con una velocidad
uniforme igual a la que alcanza en la mitad de su recorrido.
Ellos no lo sabían, naturalmente, pero estaban trabajando en una dirección que
tarde o temprano habría de confluir con la que se desarrollaba en París, en la
línea de Buridan. Haber atacado el movimiento como un problema métrico y
gráfico desbrozaba un camino que todavía estaba erizado de problemas, pero la
audacia y la imaginación intelectual de estos tipos era realmente asombrosa.
Nicolás de Oresme (1320-1382), precisamente discípulo de Buridan y uno de los
espíritus más grandes y geniales que existieron, llevó el método gráfico a su
máxima expresión (a la máxima expresión posible en ese entonces, desde ya) y
con justicia se le agradece (o por lo menos se lo agradece el volátil autor de
estas líneas) ser un precursor de Descartes y la geometría analítica.
Los oxonienses tampoco dejaron de prestar atención al espinoso asunto del
aumento de velocidad de los cuerpos que caen, especialmente porque habían
logrado demostrar que ese aumento de velocidad era uniforme, esto es
uniformemente acelerado («uniformemente disforme»), y como la visión que tenían
era métrica, se preguntaron cuánto se aceleraba (no por qué).
Si hacen el experimento de dejar caer una moneda al suelo, van a descubrir lo
difícil que resulta darse cuenta de que la velocidad de caída aumenta de manera
uniforme. Y además… ¿De manera uniforme respecto de qué? La mayoría se inclinó
por pensar que la velocidad de caída era proporcional al espacio recorrido,
ante la evidente constatación de que un móvil al que se dejaba caer desde una
altura mayor, llegaba al suelo, como ya había observado el propio Filopón, con
mayor velocidad. Casi todos coincidían en este punto: Nicolás de Oresme
adheriría a esta postura, que luego adoptaría Descartes y al principio Galileo.
La excepción, notable por cierto, fue Domingo de Soto (1494-1560) que intuyó
que en realidad la velocidad era proporcional al tiempo de caída. Hoy en día
sabemos que, en realidad, lo es al cuadrado del tiempo.
Lo cierto es que la escuela de Oxford, y sus seguidores, introdujeron una
novedad que sería indispensable para el buen gusto del «cocktail» que se estaba
armando, y que explotaría con Galileo y su nueva ciencia del movimiento: el
aspecto métrico. El movimiento no era considerado como un juego de potestades
metafísicas (parte del cambio en general, o resultado de causas borrosas como
el impetus o los lugares naturales), sino como un fenómeno a
medir, y sobre el cual establecer una teoría métrica.
Es interesante ver de qué manera todos estos científicos y filósofos se
comunicaban y discutían entre sí. Pero qué solos, qué metafísicamente solos
estaban, luchando por establecer de alguna manera, de cualquier forma, nociones
elementales como las de velocidad, velocidad instantánea, aceleración, que
nosotros vemos cómodamente representados en el tablero del automóvil y que para
ellos eran conceptos confusos, difícilmente aprehensibles. Cuando pienso en los
científicos actuales y su panoplia de aparatos (que vuelan al espacio o que
permiten espiar el fondo de la materia), en los equipos gigantescos y
multidisciplinarios que bombardean lo desconocido, los bordes del universo y
sus primeros instantes, en la inaprehensible materia oscura y el bosón de
Higgs, me invade una cálida sensación de cariño y simpatía por los científicos
de Oxford o París, al lado de los cuales el mismo Galileo, con sus toscos
instrumentos, pero siempre seguro de sí mismo, resulta contemporáneo.
Y ya que vimos cómo estos científicos trataban el problema de la caída de los
cuerpos, veamos qué pasaba con eso en otros lados donde el asunto se mezclaba
con una nueva disciplina muy propia de esos tiempos: la balística.
§. El cañón y la bala: la caída de los cuerpos y la acción a distancia
Ya para ese entonces se trataba de una vieja historia: ¿por qué se aceleran los
cuerpos al caer? Era evidente que debía haber un aumento de la causa motriz que
fuera proporcional al aumento de velocidad… ¿Pero cuál? ¿De dónde venía ese
aumento?
Una de las posibilidades era «la atracción del lugar natural»: el cuerpo se
aceleraba del mismo modo que una limadura de hierro se acelera al acercarse al
imán, pero esta parte de la «teoría estándar» empezó a perder popularidad:
Alberto de Sajonia (1316-1390) hizo una objeción seria a que el lugar natural
ejerciera cualquier tipo de fuerza. Señaló que a tal fuerza, un cuerpo más
pesado podía ofrecer una resistencia mayor que un cuerpo ligero y que por lo
tanto, debería caer más lentamente, lo cual no era el caso.
El problema es que la atracción del lugar natural implicaba la acción a
distancia, que sería objeto de largas polémicas. Los autores que consideraban
la acción a distancia como algo imposible, y los que proponían la analogía del
imán, tenían en mente la explicación dada por Averroes: la fuerza que movía al
hierro era una cualidad inducida en él por la species magnetica que
salía del imán a través del medio y lo atrapaba como una garra metafísica.
Había algunos pocos, como nuestro queridísimo Guillermo de Ockham, que no veían
inconveniente alguno para la acción a distancia: si el sol, al iluminarnos,
actuaba a distancia, ¿por qué no lo harían el resto de los objetos del mundo?
Sea como fuere, la opinión general rechazaba tanto la acción a distancia como
las fuerzas externas y adoptaba la teoría aristotélica y de Averroes de una
fuerza intrínseca.
La solución de Buridan, quien pensó que en los cuerpos que caían la velocidad
aumentaba debido al peso, que actuaba como una fuente aceleradora añadiendo
incrementos o ímpetus sucesivos, fue más o menos adoptada por
todos los físicos del impetus, aunque más que resolver el problema,
lo aplacaba. Y ya no alcanzaba con aplacarlo: en el siglo XVI, el problema de
la caída de los cuerpos se combinó con una nueva disciplina nacida al calor
—literalmente— de la pólvora y la generalización de las armas de fuego durante
el Renacimiento. El cañón derribó conceptos establecidos y los hizo temblar
nuevamente…
Porque la nueva artillería puso sobre el tapete problemas tales como los
ángulos de tiro y el alcance de las balas, evidentemente centrales para
cualquier militar, ingeniero o técnico que diseñara fortalezas. La pregunta
central que surgió, entonces, fue: ¿cómo es la trayectoria de una bala de
cañón?
Recordemos que como tradicionalmente los movimientos natural y violento no
podían mezclarse (porque representaban cualidades contradictorias que se
destruirían una a la otra —para Aristóteles sería como decir que un cuerpo era
caliente y frío a la vez—), se suponía que la trayectoria de una flecha o de
una bala poseía un tramo de movimiento violento y, cuando éste se agotaba
(fuera por razones aristotélicas, o por el agotamiento del ímpetus),
recuperaba su movimiento natural y se precipitaba al suelo.
Alberto de Sajonia había utilizado la teoría del ímpetus de
Buridan para explicar la trayectoria de un proyectil y había sostenido que
estaba dividida en tres tramos o períodos:
·
Un período inicial de movimiento puramente violento
durante el cual el ímpetus aniquilaba la gravedad natural
·
Un período intermedio de impetus compuesto
durante el cual el movimiento era a la vez violento y natural.
·
Un período final de movimiento puramente natural de
caída vertical, después de que la gravedad natural y la resistencia habían
aniquilado el ímpetus impreso.
El movimiento según Alberto de Sajonia. En el primer tramo, el móvil actúa
por el ímpetus conferido; en el segundo, se combinan el movimiento violento y
natural y, en el tercero, sólo actúa la gravedad.
Aquí, Alberto introducía una bienvenida cuña en el principio que
emponzoñaba todo: la imposibilidad de coexistencia de movimientos naturales y
violentos, que abolía con su novedoso segundo tramo.
Esta teoría fue seguida por Leonardo da Vinci, Nicolás de Cusa y muchos otros
hasta que fue modificada por Tartaglia (el mismo que resolvió la ecuación de
tercer grado), también fundador de un linaje: en su libro La Nova
Scientia, de 1537, trataba por primera vez la balística en forma teórica,
evitando toda discusión filosófica sobre los conceptos que usaba y las causas
de los fenómenos: un poco porque se dirigía al ingeniero operativo
renacentista, y no al filósofo, pero también porque en la lucha entre el qué y
el cómo, este último empezaba a anotarse algunos tantos.
Al principio, Tartaglia aceptaba que el movimiento de un cuerpo podía ser o
bien violento o bien natural, pero no «mixto». En el movimiento natural, la
velocidad aumenta tanto en función del alejamiento del punto de partida, como
de la proximidad del punto de llegada. El movimiento violento, en cambio, tiene
la propiedad contraria: su velocidad disminuye. Tartaglia rechazó la creencia
generalizada —y en cierta medida incomprensible— de que un proyectil tenía un
momento de aceleración inicial al abandonar al lanzador, cosa que creían a pie
juntillas todos, incluyendo a los cañoneros.
Pero el asunto aquí era la forma de la trayectoria de un proyectil. De su tesis
de la imposibilidad de un movimiento mixto, tenía que resultar una trayectoria
angular. Pero había un dilema, ya que esta trayectoria angular empezaba a
desafiar la percepción; al fin y al cabo era más fácil creer que una flecha
vuela rectilíneamente, se detiene y cae, que pensar que lo hace una pesada bala
de cañón.
¿Y entonces? Y entonces nuestro amigo no aceptó esta consecuencia de su propio
principio, adoptó la traza tripartita, y admitió que el movimiento de la bala,
en la parte curva, aún siendo violento, lo era por efecto de su peso. Pero esto
llevaba a otro absurdo porque si el peso podía curvar el movimiento violento,
¿por qué no lo hacía a lo largo de toda su trayectoria? Tartaglia se dio cuenta
de la dificultad y la esquivó sosteniendo —un poco arbitrariamente en el marco
de su razonamiento— que las partes rectilíneas en realidad se curvan, aunque de
manera «insensible». Lo cual muestra que la ciencia se mueve de manera no
exactamente racional, o mejor, rigurosa (dije «se mueve», y no «avanza», porque
el desarrollo continuo, o la percepción del desarrollo continuo es un resultado
de la Revolución Científica).
Iba de a poco, por lo visto, y mirando dónde pisaba, aunque no tenía mucho
miedo de hacerlo en terreno barroso. Paso a paso: en su libro siguiente hizo,
precisamente, una movida muy audaz: aceptó que su teoría anterior llevaba a un
absurdo y rechazó la incompatibilidad de la coexistencia entre movimiento
violento y natural, lo cual implicaba que no había parte alguna de la
trayectoria que se produjera en línea recta porque siempre estaba actuando el
peso. La creencia en la rectilinearidad del movimiento se basaba tan sólo en la
imprecisión de los sentidos y la debilidad del intelecto humano. No era broma
defender este resultado porque los propios cañoneros alegaban que, de acuerdo a
su experiencia, la bala sí se movía en línea recta. Pero Tartaglia llegaba así
a un punto en el cual trataba de asentar la balística sobre un tipo de
experiencia (la verdadera, dada por la teoría) y no sobre la seudo experiencia
confusa provista por el sentido común de la vida cotidiana.
La postura era bastante radical: aunque le hubiera sido imposible expresarlo
así, lo que estaba diciendo es que no es el sentido común ingenuo el que debe
guiar la investigación, sino la experiencia llevada a cabo bajo la sombra de la
teoría, en un espacio que imite todo lo posible el sustrato geométrico del
mundo, y donde las leyes, por lo tanto, puedan manifestarse tal cual son.
Estaba pidiendo, sin saberlo, el laboratorio, un lugar donde los fenómenos
puedan aislarse para ser contemplados y analizados en toda su pureza.
Era prematuro. Y así, del mismo modo que la propuesta de trayectoria tripartita
tuvo bastante éxito, la de una trayectoria enteramente curvilínea no tuvo
ninguno, y nadie, ni siquiera mecánicos tan eminentes como Benedetti, la
consideró y ni siquiera la discutió. De todos modos, aclaremos que Tartaglia no
resolvió el problema, ya que no dio con la trayectoria real, que no es
«curvilínea» (lo cual remite a lo circular), sino parabólica, pero es posible
que en ese momento nadie fuera capaz de concebir tal cosa.
Así y todo los rasgos de la teoría de Tartaglia contenían las semillas del
futuro. Era todo un manifiesto lo que declaraba en el prefacio de su
libro Cuestiones e invenciones diversas, cuando dedicaba el estudio
a
Quien desea ver nuevas invenciones
No tomadas de Platón ni de Plotino
Ni de ningún otro griego, ni latino
Pero sí del arte, la medida y las razones.
Porque el continuador de su linaje fue su discípulo Gianbattista
Benedetti (1530-1590) que llevó el asunto de la caída de los cuerpos aún más
lejos.
§. Benedetti llega a un paso de Galileo
En efecto, Benedetti abandonó la línea de pensamiento cualitativa aristotélica
y adoptó la línea rigurosa de Arquímedes; y en vez de pensar en pesos, pensó en
densidades y pesos específicos.
En un libro de 1554 explicó que la doctrina según la cual la velocidad de los
cuerpos que caen es proporcional a los pesos es completamente falsa. No es el
peso —aseguraba— el que determina la velocidad de caída, sino el exceso de
peso sobre la resistencia del medio, y enseguida agregaba que ni siquiera es el
peso en general sino el peso específico (peso sobre volumen) el que juega el
papel determinante. El procedimiento mental por el que Benedetti llegó a
semejante conclusión es digno de explicación.
Miren la figura. Hay dos cuerpos homogéneos O y G tales que G es la mitad de
O. Hay, asimismo, otros dos cuerpos compuestos de la misma materia que los
primeros: A y E, cada uno de los cuales es igual a G, es decir, la mitad de O.
A, E y G caen, obviamente, todos con la misma velocidad porque son idénticos.
Ahora imaginemos que A y E están en las extremidades de un segmento (o, si
ustedes quieren, un hilo que no pesa nada) con lo cual podemos verlos como un
solo cuerpo A-E. Ese cuerpo conjunto, como es evidente, tiene su centro de
gravedad en I (el punto medio del segmento) y su peso es idéntico a O, porque
está compuesto por dos cuerpos que pesan exactamente la mitad de O. Por lo
tanto, A-E cae con la misma velocidad que O.
Imaginémonos ahora que A-E está cayendo y, en el medio de la caída, yo
le corto el hilo que los une. ¿Qué pasaría? ¿Se retrasaría la caída de A y E
por haber dejado de formar parte del conjunto A-E? Es obvio que no. Por lo
tanto, A y E caen con la misma velocidad que el conjunto A-E y que O. A y E,
entonces, son tan rápidos como G y como el conjunto A-E. Por lo tanto, tanto G
como A como E son tan rápidos como O.
Además de ponderar la importancia del peso específico para la velocidad de
caída de los cuerpos, Benedetti rechazaba las ideas de peso y levedad absolutos
que la mayoría de los físicos aún conservaba: los cuerpos son todos pesados en
proporción a sus densidades y su peso está en relación con el medio en que
están inmersos.
Aunque conservó el concepto de impetus, rechazó que fuera circular:
el impetus era siempre lineal; incluso en el caso de una rueda
que gira, las partículas tenderían a moverse en línea recta, pero la violencia
de la cohesión material de la rueda las fuerza a seguir con el movimiento
circular… La verdad es que estaba a un paso del principio de inercia.
En fin, decía Benedetti: Aristóteles no entendió nada sobre el movimiento y no
lo hizo porque no comprendió un hecho fundamental: el papel de las matemáticas
en la mecánica. Solamente partiendo de los resultados de las matemáticas se
podía comprender el movimiento.
Pero el peor error de Aristóteles, para Benedetti, fue que negara la existencia
del vacío con el argumento de que la velocidad de un cuerpo allí sería infinita
en acto. Nada más falso: dado que la velocidad es proporcional al peso
específico del cuerpo, retardada, pero no dividida por
la resistencia, se ve que su velocidad no aumentaría indefinidamente al
disminuir la resistencia del medio, y que cuando la resistencia se hiciera
cero, es decir, en el vacío, alcanzaría una velocidad finita (es decir, no
infinita) que dependería de su densidad. Por lo tanto, todos los cuerpos
compuestos de una misma materia caerían en el vacío con la misma velocidad.
Compuestos de la misma materia… levantar esta condición conducirá a la ley de
la caída de los cuerpos que enunciará Galileo.
Pero en fin, hasta aquí llegó Benedetti, y hasta aquí llegamos nosotros.
§. ¿Qué estaba pasando?
La progresiva geometrización del espacio borraba los lugares naturales, dejando
sin sustento uno de los pilares de la mecánica aristotélica: si cada lugar era
exactamente igual a cualquier otro, ¿por qué la piedra debería dirigirse a él
en particular? En el nuevo espacio en construcción, un punto geométrico es sólo
eso, un punto geométrico, y por lo tanto inerte, sin propiedades físicas o
metafísicas.
El espacio geométrico puro, al fin y al cabo, era una pura abstracción, que
estaba (y sigue estando) fuera de cualquier empiria o posibilidad de
experimentación, aunque el laboratorio trate de imitarlo. Sea como fuere, la
experimentación no es más que un remedo parcial, y sobre todo local, del mundo.
La geometrización y matematización del espacio (y de la vida) fueron el
producto de un proceso cultural profundo (que quizás no haya terminado), y
quienes lo estaban haciendo no sabían, naturalmente, que lo estaban haciendo.
Muy pocos, como Nicolás de Cusa o Giordano Bruno, lo proclamaron con todas las
letras.
El halcón va atravesando
el aire y en él se mueve.
El barco corta las olas
de mares que nunca duermen.
Los cuerpos se precipitan
hacia la tierra inocente
donde damos nuestros pasos
y se oculta la serpiente.
Pero se está construyendo
Un nuevo mundo que tiene
en la base geometría
y en la cima nuevas leyes
matemáticas, geométricas
que lo enmarcan y defienden.
El ciervo ante el cazador
huye rápido a esconderse.
El proyectil busca el cielo
donde ya no encuentra el éter.
Todo se está transformando,
todo cambia, todo crece.
La flecha en su trayectoria
¡Y hasta la Tierra se mueve!
Parte III
La revolución científica
Contenido:
13. El hombre
que movió al mundo
14. La
derrota del círculo
15. Galileo
16. El
conflicto con la Iglesia
17. Newton,
hacedor de universos
18. En busca
de la certidumbre: el compromiso de 1758
Capítulo 13
El hombre que movió al mundo
Allá en Polonia, un tipo decía
que el Sol estaba quieto,
y la Tierra se movía.
Aunque no parecía.
Aunque el Sol cruzaba el cielo
cada día.
Aunque un pájaro volaba
muy lejos de su nido
y al volver no se perdía.
Tercamente decía
ese viejo,
que la Tierra se movía.
Y no sabía
que iniciaba un viaje a las estrellas,
adónde iba a llegar,
algún lejano día.
En marzo de 1543 salió de la imprenta de Petrius, especializada en
ediciones de astronomía, en Nüremberg, un libro que haría época, y que podemos,
de manera arbitraria como siempre en estos casos, poner como punto de partida
de la Revolución Científica: Sobre las revoluciones de las esferas
celestes, del astrónomo polaco Nicolás Copérnico, que se hallaba ya en su
lecho de muerte (murió, efectivamente en mayo de ese mismo año y el cuento de
que recibió un ejemplar en su lecho de muerte no debe ser más que una leyenda;
de todas maneras, había perdido la conciencia desde muchas semanas antes). Y
ese libro encerraba un mundo, un mundo que todavía no era pero que habría de
ser, porque se ofrecía una solución nueva para uno de los más antiguos desafíos
de la ciencia y la filosofía: comprender cómo funciona el cielo y cómo funciona
el mundo y la estructura del universo.
Nada menos.
La revolución copernicana fue, como lo sería la Revolución Francesa dos siglos
y medio más tarde, el derrocamiento de un viejo orden, y la trabajosa
construcción de uno nuevo, con sus flujos y reflujos propios de las
revoluciones, y sus sectores radicalizados y conservadores.
El mundo se transformó: se volvió enorme, frío y sin ningún tipo de refugio
donde el hombre se pudiera sentir cómodo, o al menos un poco más importante (lo
cual no es malo, desde ya), pero también se convirtió en un mundo que el ser
humano puede comprender, manejar y pretende dominar.
El hombre, entonces, ya no es un signo más, aunque fuera central, en la cadena
del ser: se corre, deja de considerarse el único objeto de la Creación, aunque,
a la vez, comprueba que es la única criatura capaz de entender lo que
verdaderamente ocurre. O por lo menos tiene posibilidades de acercarse.
La Tierra cambiará de lugar definitivamente, el espacio comenzará a resultar
inhóspito y desaparecerá la inmensa construcción aristotélica y las ruedas
tolemaicas que durante siglos habían girado junto a la humanidad. Dios
comenzará a retirarse, a permanecer en las iglesias, y dejará de visitar tan
asiduamente los centros de estudios.
El mundo emergerá como un gigantesco mecanismo que funciona sin propósito
alguno, regido por leyes impersonales y precisas; se unificará, y de ser un
puñado de sensaciones, se transformará en orden y medida, en dato y ley. Hasta
Aquiles empezará a moverse más rápidamente; es más, los hombres de la
Revolución Científica podrán pensar que alcanzará a la tortuga.
No es poco para un par de siglos.
La idea de Revolución Científica, a pesar de ser aún discutida, ha arraigado
rotundamente en la historia de la ciencia y se refiere a un proceso muy
complejo marcado por un cambio intelectual que se produjo en los siglos XVI y
XVII y dio nacimiento a la ciencia moderna. Como siempre, uno puede poner el
énfasis en los elementos de ruptura o de continuidad, es una simple cuestión de
sistemas de referencia. En este caso, vamos a poner el énfasis en los cambios,
porque me gusta la revolución científica y porque, al fin y al cabo, la idea de
revolución, o por lo menos la idea de revolución consciente, es la idea moderna
por excelencia, así como la idea de permanencia era la idea medieval por
excelencia.
Los antiguos modos de pensar mostraron ser inadecuados e insatisfactorios, no
sólo en astronomía sino también en anatomía y química, y en todas las ciencias
particulares. Los hombres del Renacimiento —y Copérnico era un hombre del
Renacimiento—, aunque sólo resolvieron algunos de los nuevos problemas
planteados, al menos abrieron el camino para la solución de los restantes.
Así, pues, convencionalmente, hablaremos de la Revolución Científica y, un poco
porque pertenecemos a una cultura del libro y otro poco porque nos gusta, vamos
a situarla entre dos libros. Es una idea cándida, ingenua, pero respeta la
veneración occidental por la idea del libro, por la cultura del libro, aunque,
por supuesto, se trate de fechas y mojones arbitrarios.
Esos dos libros son Sobre las revoluciones de las esferas celestes,
de Copérnico, de 1543 y los Principia (Philosophiae
naturalis principia matematica), de Newton, de 1687. Con este último, la
ciencia moderna, la que hoy conocemos como ciencia, está ya casi completamente
delineada: es una ciencia madura, como aquella manzana que al caer —dice la
leyenda— inspiró la ley de gravitación, esa ley de leyes, esa piedra de toque
que organiza el cosmos; una ciencia madura con un programa completo, un
programa que indica qué es lo que hay que hacer y cómo hay que hacer eso que
hay que hacer, una ciencia con una ontología propia que cambia una vez más las
cosas que existen en el mundo y que son objeto de la atención científica. En el
mundo que se crea en los Principia, se da una respuesta nueva a la
vieja pregunta, que desesperaba al viejo Parménides, sobre qué es «lo que hay».
La Revolución Científica empezó por la astronomía y era natural, hasta cierto
punto, que la ruptura del sistema de ideas tanto de la Antigüedad como del
Medioevo, que comprometería fatalmente todo el aparato aristotélico, comenzara
por los cielos. Al fin y al cabo, era la disciplina más clara y acabada. La
astronomía descriptiva había acumulado observaciones suficientes y desarrollado
métodos matemáticos lo bastante finos como para permitir que las hipótesis
pudieran formularse claramente y comprobarse numéricamente. También era objeto
de un interés particular, tanto por su viejo empleo astrológico como por su
nuevo uso en navegación (aunque está bastante claro que eso sólo no habría
provocado un progreso tan radical), y por las necesidades de reforma del
calendario, que ya estaba totalmente retrasado respecto de los tiempos
astronómicos.
Y, por otra parte, era el ámbito del conocimiento (justamente por ser claro y
acabado) donde se manifestaban más evidentemente las deficiencias de una
ciencia que solamente pretendía «salvar las apariencias», como era el sistema
tolemaico. La astronomía era lo más parecido a un laboratorio, donde los
fenómenos aparecen destilados. Otras disciplinas vendrán detrás, alimentadas
por la nueva forma de mirar al mundo, como le ocurrió, por ejemplo, a la
química. El mundo mágico, simbólico y sólo a medias experimental del
Renacimiento dará lugar, en apenas ciento cincuenta años, a un mundo casi
totalmente mecánico.
En cierta forma, era natural que esto pasara: Occidente avanzaba, queriéndolo o
no, y sabiéndolo o no, hacia un mundo cuantitativo, un mundo de ciudades, dinero
y mercancías. Y en medio de toda esa efervescencia, Copérnico, el gran
Copérnico, tuvo la audacia de sacar un ladrillo de la base que sostenía la
enorme construcción que ya hemos visto. Ciento cincuenta años, nada más que
ciento cincuenta años, tardaría en aparecer el gran libro de Newton y derrumbar
definitivamente el edificio entero.
§. La astronomía en tiempos de Copérnico
A fines del siglo XV y principios del XVI, la astronomía seguía enredada en los
dos grandes sistemas astronómicos de Aristóteles y de Tolomeo, pero la falta de
precisión ya empezaba a resultar molesta y se manifestaba, entre otras cosas,
en el atraso del calendario, que desembocaría en la reforma gregoriana de 1582.
Como sé lo fastidioso que resulta para el avisado lector volver atrás y buscar
referencias anteriores, repasemos aquí brevemente lo que ya contamos: la
astronomía que los griegos dejaron en herencia a Occidente.
En el siglo IV a.C. Platón exigía que todos los fenómenos celestes se
explicaran como combinaciones de círculos y esferas, síntomas de la perfección,
en lo que luego se conoció como «el mandato de Platón». En el marco de su
concepción del mundo, describir los movimientos observables no importaba tanto
como «salvar las apariencias», es decir, encontrar una combinación de esferas
cualquiera que permitiera predecir los fenómenos celestes.
Cumpliendo ese «mandato», primero Eudoxo y luego Aristóteles imaginaron que los
astros estaban fijos sobre esferas transparentes, todas ellas centradas en la
Tierra (homocéntricas) con distintas inclinaciones y que, combinadas,
describían el movimiento errático de los planetas, el Sol y la Luna. Todo el
conjunto daba vueltas cada veinticuatro horas en torno de la Tierra.
Aristóteles acumuló hasta 55 esferas; pero aún así, el sistema era bastante
impreciso.
Había por entonces dos dificultades centrales para la astronomía. La primera
era explicar los difíciles y en apariencia erráticos movimientos de los
planetas, sobre todo sus retrogradaciones: cada tanto, los planetas parecían
detenerse en el cielo, emprender una marcha hacia atrás, y luego retomar su
camino. La segunda era el cambio de brillo que se observaba en los planetas, lo
cual no podía sino explicarse por la variación de sus distancias a la Tierra
(cosa en principio imposible si giraban en esferas alrededor de ella).
Pero si el sistema aristotélico era impreciso (entre otras cosas porque
Aristóteles no era astrónomo, como él mismo lo admitía), no lo era el sistema
tolemaico, la culminación de la astronomía griega. Claudio Tolomeo optó por un
camino diferente del aristotélico para armar una descripción del mundo. En
su Almagesto, resolvía las dos anomalías de la astronomía
planetaria de una manera original. En primer lugar, el del movimiento
retrógrado o en zigzag: supuso que los planetas se movían alrededor de la
Tierra adosados a pequeñas esferas llamadas epiciclos, que a su vez tenían su
centro sobre las esferas principales (deferentes). Al moverse epiciclo y
deferente al mismo tiempo, se explicaba por qué se observaba que el planeta
retrocedía, cuando en realidad sólo estaba completando el círculo de la esfera
más pequeña. La combinación de ambos movimientos conseguía explicar los avances
y retrocesos de los planetas en el cielo.
Ajustando el tamaño de los epiciclos o, si hacía falta, agregando epiciclos
secundarios, Tolomeo daba cuenta de las observaciones mucho mejor que en el
sistema de Aristóteles.
La segunda cuestión era el cambio de brillo de los planetas y el hecho de que
se los viera moverse con velocidades diferentes. Para resolverlo, los planetas
del sistema tolemaico no tenían como centro geométrico de sus órbitas
perfectamente circulares a la Tierra sino al ecuante, un punto fuera de la
Tierra, y giraban en torno de él con velocidad uniforme.
Si bien la Tierra estaba inmóvil, como en Aristóteles, el sistema no era
estrictamente geocéntrico, ya que el centro de las órbitas estaba desplazado
para explicar el cambio de brillo de los planetas. Matemáticamente funcionaba y
predecía aceptablemente, pero tenía inconvenientes físicos, como por ejemplo
que los epiciclos y las esferas desplazadas giraran alrededor de un punto en el
que no había nada. Los epiciclos «salvaban las apariencias», es cierto, pero no
eran demasiado convincentes para comprender «lo que ocurría realmente».
Por eso es lógico que, en los tiempos de Copérnico, el mecanismo tolemaico ya
estuviera funcionando con dificultades después de cumplir servicios durante
bastante más de un milenio. Y no se trataba solamente de su excesiva
complejidad o de las dificultades que presentaba respecto de la física
aristotélica: cuando los astrónomos Regiomontano y Peurbach, a fines del XV,
revisaron las tablas de observaciones en vigencia, encontraron que había
diferencias del orden de dos horas en los eclipses.
Y era también manifiesto el atraso que se había producido en el calendario:
Julio César, en el 46 a.C. había impulsado una reforma que determinaba que la
longitud del año era de 365 días y un cuarto (lo cual llevó a agregar un día al
mes de febrero cada cuatro años). Pero la duración del año juliano era de once
minutos más que el año astronómico real y esos once minutos se iban acumulando.
Después de quince siglos, el desfasaje era de unos once días, de tal modo que
la fecha de los equinoccios y solsticios, esenciales para que la Iglesia
pudiera determinar la fecha de la Pascua, estaba notoriamente errada.
Cuando Copérnico estudiaba astronomía, en Cracovia, había una especie de
esquizofrenia estelar: el modelo aristotélico de esferas homocéntricas lo
enseñaban los naturalistas, más propensos a describir «la realidad», mientras
que el de Tolomeo lo enseñaban los matemáticos, como un método de cálculo, que
permitía predecir el curso de los planetas por el cielo, sin abrir juicios
sobre su «realidad». Copérnico comentará esta situación más tarde:
Unos usan sólo círculos homocéntricos; otros, excéntricos y epiciclos.
Los que confían en los homocéntricos no pudieron deducir de ellos nada tan
seguro que respondiera sin duda a los fenómenos. Mas los que pensaron en los
excéntricos admitieron muchas cosas que parecen contravenir los primeros
principios sobre la regularidad del movimiento.
Los ecuantes encerraban una idea para muchos absurda: un sistema
construido partiendo de la idea de una Tierra inmóvil en el centro del mundo
terminaba teniendo como centro otro lugar; u otros lugares, mejor dicho, dado
que cada planeta tenía su propio ecuante. La verdad, era una manera bastante
costosa de salvar las apariencias, y cuando el Papa León X invitó a Copérnico a
participar de la reforma del calendario, declinó la oferta señalando que:
A los filósofos, que en otras cuestiones han estudiado tan
cuidadosamente las cosas más minuciosas de ese orbe, no les consta ningún
cálculo seguro sobre los movimientos de la máquina del mundo.
Y que:
Vemos que muchas cosas no coinciden con los movimientos que debían
seguirse de su enseñanza (de Tolomeo), ni con algunos otros movimientos,
descubiertos después, aún no conocidos para él. De ahí que, incluso Plutarco,
cuando habla del giro anual del Sol, dice: hasta ahora, el movimiento de los
astros ha vencido la pericia de los matemáticos. En efecto, tomando como
ejemplo el año, han sido evidentemente tan diversas las opiniones, que incluso
muchos han desesperado de poder encontrar un cálculo seguro sobre él.
Obviamente flotaba en el aire la necesidad de una reforma de la
astronomía.
§. Gerolamo Fracastoro, esferas y medicina
En 1538, Gerolamo Fracastoro (1478-1553), que estudió en Bolonia en el mismo
tiempo que Copérnico y que probablemente fue su amigo, propuso un sistema de 79
esferas homocéntricas que no hicieron sino complicar las cosas.
Ya que estamos, vamos a hablar un poquito de Fracastoro: si bien su sistema
astronómico fue un fracaso, no alcanza con decir que fue un astrónomo fallido,
nada de eso. Resultó ser una figura verdaderamente importante para la historia
de la medicina por haberse enfrentado de manera decidida y con solidez teórica
a una enfermedad nueva y desconocida: la sífilis. No es que las plagas y
epidemias fueran desconocidas o faltaran, más bien todo lo contrario: formaban
parte de la vida cotidiana, y todavía debía estar vivo el recuerdo de la peste
negra (1347-1353), de la cual dejó testimonio Boccaccio en su Decamerón y
que había producido la muerte de un tercio de la población europea, con
consecuencias políticas y económicas inmensas, ya que la falta de trabajadores
impulsó un alza persistente y secular de jornales. Es interesante comparar esta
situación con las epidemias más recientes para ver todo lo que se ha avanzado
en el control: basta pensar, por ejemplo, en las epidemias de gripe aviar o
gripe porcina de los últimos años.
La cuestión es que la epidemia de sífilis se había extendido a partir del
asedio de las tropas francesas a Nápoles, entre cuyos defensores había
marineros regresados de América —aunque es casi seguro, no es absolutamente
seguro que la enfermedad fuera de origen americano—: era traída y llevada por
las prostitutas francesas que cruzaban el frente para satisfacer a uno y a otro
bando (de ahí también la denominación de «mal francés»), lo cual derivó en una
catarata de libros sobre el nuevo mal.
Entre ellos y en 1530 —el año en que se supone que Copérnico terminó De
Revolutionibus, aunque no accedió a publicarlo hasta trece años más tarde—,
Fracastoro dio a conocer un extenso poema épico en estilo virgiliano (Syphilis
sive morbus gallicus, La sífilis o el mal francés) en el que se proponía
narrar el origen mítico de la enfermedad. El héroe del poema, Syphilo, era un
pastor del rey de Haití que encendía la ira del dios Apolo por erigir altares
prohibidos en la montaña, y la respuesta del dios era la enfermedad de la sífilis.
Aunque, por suerte, después el resto de los dioses se apiadaba (ustedes saben
cómo son los dioses griegos: caprichosos, crueles, conventilleros y
dicharacheros, que hacen y deshacen a piacere) y creaban «el amplio
y frondoso árbol que vencería la fuerza del veneno». Más allá de ese «origen
mítico», Fracastoro hacía una descripción completa de la sífilis —a la cual
puso nombre— y puntualizaba los dos posibles tratamientos: el mercurio o el guayaco,
«árbol milagroso».
Pero no terminó allí: en 1546, como resultado de sus investigaciones,
publicó De contagione et contagiosis morbis, et eorum curatione (Sobre
el contagio y las enfermedades contagiosas y su curación), un verdadero
clásico de la historia de la medicina. Según decía allí, la transmisión
infecciosa se debía a partículas imperceptibles e invisibles, seminaria (o
semillas) que se reproducían y propagaban muy rápidamente y eran capaces de
penetrar en el organismo e infectarlo de tres maneras distintas: por contagio
directo, mediante vehículos, o infectándolo a distancia, como la viruela o la
plaga. Reconocía la naturaleza venérea de la sífilis, aunque seguía sosteniendo
—y aquí se ve su lado mágico renacentista— que las semillas de contagio podían
surgir de emanaciones venenosas causadas por determinadas conjunciones
planetarias.
Digamos de paso que los dos tratamientos que recomendaba eran malísimos: uno
por mortífero (el mercurio, cuyo uso era alentado por Paracelso) y el otro por
inocuo (la madera del guayaco). La verdad es que ninguno de los dos servía para
nada. Bah, el mercurio, en realidad, sí: servía para que el enfermo se sintiera
espantosamente mal, con vómitos, diarrea, dolor de cabeza y se muriera más
temprano que tarde, no por la enfermedad sino por el tratamiento. De ahí el
dicho sobre la sífilis: una noche con Venus, toda una vida con Mercurio.
Y nada mejor que esta referencia a Venus y Mercurio para devolvernos al cielo y
las complicaciones de la astronomía planetaria.
La propuesta de Fracastoro y sus 79 esferas homocéntricas no fue la única. Un
humanista aristotélico menor, Giovanni Battista Amici, en un librito de 1536,
elaboró un engendro parecido aunque todavía más complicado. Años antes, en
1520, el astrónomo Celio Calcagnini, quien también, parece, fue amigo de
Copérnico, había sugerido que se aceptara la rotación diurna de la Tierra, ya
adelantada por Nicolás de Cusa.
Y así las cosas se iban acercando al punto crucial: el movimiento de la Tierra.
§. La rotación terrestre
Ya había, en ese entonces, todo un corpus de hipótesis sobre la rotación de la
Tierra, y es posible que el maestro de Copérnico, Domenico de Novara, pensara
en el asunto.
La rotación diurna de la Tierra había sido considerada por astrónomos de la
Antigüedad y en el siglo XIV había sido estudiada con una inusual profundidad
por Nicolás de Oresme, con quien nos hemos encontrado ya cuando hablábamos de
la escuela de Oxford y sus gráficos representando el movimiento.
El estudio del asunto por parte de Oresme fue el más detallado y agudo
realizado en el período que va desde los griegos a Copérnico. Analizó una a una
las objeciones (también derivadas de la Antigüedad y consideradas por el propio
Tolomeo) al movimiento de la Tierra y las refutó con una notable inteligencia
teórica, a tal punto que sus respuestas habrían de ser utilizadas más de un
siglo después por Copérnico y Giordano Bruno.
La primera objeción era que la experiencia mostraba claramente que era el cielo
el que se movía, a lo que Oresme replicaba que este movimiento era relativo.
Recuerden que una de las hipótesis fundamentales de la cosmología aristotélica
era que debía haber un centro del universo, un punto fijo alrededor del cual
giraran las esferas celestes y que, por lo tanto, el movimiento debía ser
absoluto. Oresme argumentaba contra esto que las direcciones del espacio, el
movimiento, la gravedad natural y la levedad, debían ser relativos.
Así, de la misma forma en que a la persona que está en un barco
cualquier movimiento rectilíneo respecto del barco le parecerá rectilíneo,
concluyó pues que es imposible demostrar, por cualquier observación, que los
cielos se mueven con movimiento diario y que la Tierra no se mueve de esa
forma.
La segunda objeción, un clásico en la historia de la ciencia, era que si
la Tierra giraba de Oeste a Este, habría un fuerte viento en sentido contrario.
Pero Oresme replicaba que el aire y el agua giraban solidariamente junto con la
Tierra. Al mismo tiempo, decían los negadores del movimiento terrestre, si
efectivamente la Tierra giraba, una piedra tirada hacia arriba no caería en el
mismo punto en el que había sido arrojada sino un poco al Oeste, porque la
Tierra se habría movido. Oresme contestaba que
la piedra se mueve muy rápidamente hacia el Este con el aire que
atraviesa, y con la masa entera de la parte inferior del universo que se mueve
con movimiento diario, y de este modo vuelve al lugar de donde partió.
Aquí hablaba casi de manera explícita de la composición de movimientos,
prohibida por la física aristotélica pero que ya estaba empezando a ganar
adeptos, como Alberto de Sajonia, en el otoño de la Edad Media.
A la objeción de que la rotación de la Tierra destruiría la astronomía,
replicaba que todos los cálculos y tablas serían los mismos. Y con respecto a
las dificultades con la Biblia, Oresme pensaba que ella se conformaba como
podía al lenguaje humano, tal como quedaba demostrado cuando decía que Dios se
arrepentía o se encolerizaba.
En definitiva: con la rotación de la Tierra se solucionaban muchos problemas y
resultaba más perfecta y sencilla que cualquier otra alternativa. Y sin
embargo, Oresme no dejaba de ser un hombre de su tiempo: después de repasar
todos estos argumentos, afirmaba nuevamente su convicción geostática («de hecho
nunca ha habido ni habrá sino un único universo corpóreo, y ese universo es el
geostático») y minimizaba la enorme potencia de su proeza intelectual
tildándola de mero juego:
Todos defienden —y yo lo creo— que los cielos se mueven y no la Tierra,
porque Dios fijó la Tierra de forma que no se mueve… Y así, lo que he dicho por
diversión puede adquirir de este modo un valor para confundir y poner a prueba
a quienes quieren usar la razón para poner en cuestión nuestra fe.
Después de razonar luminosamente (aunque sobre el movimiento de rotación
de la Tierra y no sobre su movimiento orbital, que no llegó a plantear, y que
seguramente ni se le ocurrió), Oresme volvía al redil de la fe y al dogma
bíblico que acababa de desmantelar. El problema es que, como comprendió muy
bien, ninguno de sus argumentos probaba definitivamente que la
Tierra se moviera (y ésta sería la tesis que mantendrá el cardenal Bellarmino
durante el primer conflicto con Galileo).
La verdad es que el movimiento de la Tierra era difícil de aceptar así como
así. No sólo era negado de manera cerrada por la física aristotélica, sino que
desafiaba (y sigue desafiando) abiertamente la más elemental intuición, la
percepción más simple y cotidiana.
Al mismo tiempo, el sistema tolemaico era resistente y, en cierto sentido,
autoinmune, ya que llevaba en sí mismo las herramientas para solucionar
cualquier problema que apareciera: si había que hacer una corrección, se
agregaba una rueda extra al enorme engranaje y así el modelo se protegía de
cualquier medición más precisa, aunque a costa de complicarlo más y más.
Y sobre todo corría con ventaja, porque no existía ningún otro sistema
alternativo. De alguna manera, se había llegado a un callejón sin salida. La
cosmología geostática, apuntalada por pivotes que empezaban a cansarse después
de tanto tiempo, no daba para más o no daba para mucho más. Se estaba quedando
anticuada para un mundo que empezaba a verse a sí mismo como joven y pujante. Y
bueno, es aquí, justo aquí, donde Copérnico toma al toro por las astas: arranca
la Tierra del centro del mundo, pone allí al Sol y construye una nueva
cosmología. Y con ese solo gesto pone en marcha una revolución científica
destinada a replantear y cambiar todo lo que se sabía y se pensaba sobre todas
las cosas.
En el siglo III antes de Cristo, Arquímedes, a propósito de las leyes de la
palanca, había dicho: «Denme un punto de apoyo y moveré el mundo». Bueno,
Copérnico lo hizo. Movió el mundo. Y sin ningún punto de apoyo. O sí: sólo su audacia
y su genialidad.
§. Pequeños avatares de un gran científico
A principios del siglo XV, una buena parte de Polonia y Prusia estaba dominada
por la temible Orden de los Caballeros Teutónicos, una horrible institución
teológico-militar, semejante a los Templarios, que no ahorraba crímenes y
brutalidades y que llegó a ser una de las principales potencias europeas
durante el siglo XIII, en el cual fueron derrotados por las tropas rusas del
príncipe Alejandro Nevsky (que no sólo salvaron a la ciudad de Novgorod, «el
Gran Señor Novgorod», sino que inspiraron una magnífica película de Eisenstein,
Alejandro Nevsky [1938] y una no menos magnífica cantata de
Prokofiev).
Así como el príncipe Nevsky en 1242, el rey polaco Vladislav II los había
derrotado en 1410, y un año más tarde los nobles y brutales caballeros se
comprometían a un cese de hostilidades que duró poco, ya que en 1454 se inició
una nueva guerra de trece años, que culminó con la firma, en 1466, del segundo
tratado de Torum, mediante el cual Polonia se anexaba dos regiones: la
Pomerania oriental y la diócesis de Varmia.
Y fue justamente en Torum donde, el 19 de febrero de 1473, nació Nicolás
Copérnico, en el seno de una familia acomodada. Era hijo de Nicolás Kopernik
(Copernicus es la versión latinizada, y Copérnico la castellanizada),
comerciante en cobre (de ahí su apellido), que se había establecido allí a
finales de la década de 1450, procedente de Cracovia.
Nicolás quedó huérfano cuando tenía diez años, al morir su padre, y pasó al
cuidado de su tío Lucas Waczelrode, más tarde obispo de Varmia. A los 18 años,
el mismo año en que Colón partía del Puerto de Palos (un puerto de morondanga,
dicho sea de paso, del que tuvo que salir porque el resto de los puertos se
hallaba colmado por judíos que estaban siendo infame y siniestramente
expulsados de España, puesto que ese mismo día vencía el plazo fijado por
Fernando e Isabel), a los 18 años, decía, marchó a la importante Universidad de
Cracovia, entonces muy prestigiosa en Europa, donde permaneció cuatro años. Era
allí donde, como contaba, se enseñaban las dos versiones de la astronomía: la
«real» y la puramente matemática.
Pero a los 22 su tío lo mandó llamar: uno de los canónigos del capítulo de
Frauenburg estaba a punto de morir, y por una curiosa reglamentación, si lo
hacía en un mes par, el obispo designaba a su reemplazante (si no, lo designaba
el Papa). El obispo Lucas quería el puesto para su sobrino, lo cual le
aseguraría el sustento de por vida (lo que se llama, literalmente, una
canonjía). Pero Nicolás no tuvo suerte: el canónigo se murió en septiembre, un
mes impar, y se quedó sin su puesto. Mientras esperaba otra oportunidad, se fue
a Italia, donde permaneció diez años.
Allí, siguiendo los pasos de su tío, se inscribió en la Universidad de Bolonia
para estudiar filosofía, derecho, matemáticas, astronomía, griego y quizás un
poco de pintura. Su profesor de astronomía fue Domenico Maria de Novara,
astrónomo prestigiosísimo, a quien ayudó en tareas observacionales (unos años
después, Rhetico —quien jugaría un papel importantísimo en la vida de
Copérnico— dirá que «más que un alumno era un colaborador») como, por ejemplo,
la observación del ocultamiento por parte de la Luna de la estrella Aldebarán,
en la constelación de Tauro, que más tarde utilizaría en su gran obra.
En 1497 se murió otro de los canónigos del capítulo de Frauenburg, pero éste
tuvo la gentileza de hacerlo en un mes par (agosto), con lo cual su tío pudo
conseguir la canonjía. Sin embargo, Nicolás se quedó en Italia. En 1500 estuvo
en Roma, donde según Rhetico dio conferencias sobre matemáticas (astronomía)
ante un vasto público de estudiantes y un grupo de grandes hombres y expertos
de esta rama del conocimiento. Aunque es difícil creerle a Rhetico al pie de la
letra, ya que se supone que, como admirador incondicional de su maestro,
tendería a exagerar cualquier detalle en su favor.
En 1501 vencía su permiso para ausentarse de Frauenburg, pero por lo visto
Nicolás estaba decidido a prolongar su estancia italiana, así que regresó,
consiguió una prórroga y se inscribió en la escuela de medicina, justamente
renombrada, de la Universidad de Padua, donde estudiaría pocos años más tarde
Vesalio. Sin embargo —y es muy extraño—, se graduó en Ferrara, en derecho. En
cuanto a la medicina, aunque concluyó los estudios, no se graduó. En 1506, el
«Doctor Nicholaus» volvió a Frauenburg y ya no volvió a viajar, salvo por
cortos trayectos. En esa ciudad se comportó como un buen renacentista:
incursionó en la teoría económica (enunciando lo que se conoce hoy como «Ley de
Gresham»: la mala moneda reemplaza a la buena, a propósito de un proyecto de
reforma monetaria) y, sin ser graduado, fue bastante apreciado como médico.
En 1514, el mismo año en que declinó la oferta del Papa para reformar el
calendario, redactó una primera versión de su teoría llamada Commentariolus (Breve
comentario), que no publicó pero hizo circular en forma manuscrita.
Mientras, trabajaba en el manuscrito de De Revolutionibus, que
terminó hacia 1530, aunque durante largos años no dio señales de querer
publicarla.
Con la difusión del Commentariolus, la noticia de que el doctor
Nicolás Copérnico estaba elaborando una teoría heliocéntrica del mundo se
desparramaba lenta pero persistentemente, al tiempo que su fama crecía. En
1533, el propio papa Clemente VII se hizo explicar el nuevo sistema, y tres
años más tarde recibió una carta del cardenal Von Schonberg, confidente del
Papa siguiente, Pablo III (a quien dedicaría más tarde su libro), donde se lo
instaba a divulgar su nueva teoría del universo, pero Copérnico no dio señales
de hacerle caso.
Sin embargo, en 1539 recibió una visita inesperada: un joven y entusiasta
profesor de matemáticas y astronomía de la Universidad de Wittenberg, Georg
Joachim von Lauchen, cuyo apodo era Rheticus (por la ciudad en la que había
nacido, Rhaetia), quería escuchar una versión del nuevo sistema de primera
mano.
Rheticus no sólo era protestante, sino que procedía de la misma cuna del
protestantismo, allí donde Lutero había publicado sus famosas tesis. También
era allí donde el mismo Lutero había dicho que
Algunos han prestado atención a un astrólogo advenedizo que se esfuerza
por demostrar que es la Tierra la que gira y no el cielo. Este loco anhela
trastrocar por completo la ciencia de la astronomía, pero las Sagradas
Escrituras nos enseñan que Josué ordenó al Sol, y no a la Tierra, que se
detuviera.
Lo cual no fue, sin embargo, un inconveniente para obtener el permiso de
viajar a una diócesis católica, con objeto de conocer a Copérnico, también
católico. Rheticus se sumergió en el estudio del manuscrito de De
Revolutionibus, y en diez semanas completó la Narratio Prima,
un resumen del original que se publicó en Danzig un año más tarde, tuvo varias
reediciones y una excelente recepción.
Rheticus, entonces, redobló su presión sobre su maestro para lograr que
completara y publicara el dichoso libro. En 1542, el manuscrito estaba listo
para la imprenta, de donde salió un año más tarde, en 1543. No se sabe si
Copérnico llegó a ver el libro impreso, pues murió ese mismo año. Se cuenta que
fue en su lecho de muerte, en 1543, que recibió un ejemplar del libro, pero de
poco habría servido, ya que había perdido la conciencia hacía tiempo.
Sería lindo poner ahora: «y entonces empezó otra historia».
Pero no fue así.
O por lo menos, no fue del todo así.
§. El nuevo sistema
Probablemente fue en Italia donde Copérnico se convenció de que los problemas
de la astronomía no tenían otra solución que un cambio radical hacia una teoría
heliocéntrica y que no alcanzaba con introducir la rotación diurna, sino
también el movimiento orbital, que ya era otro cantar. Buscó antecedentes de un
modelo similar, y encontró que Cicerón hablaba de Hicetas de Siracusa (siglo V
a.C.) y su convicción de que la Tierra se movía; se topó con que los
pitagóricos ya lo habían postulado (aunque, como recordarán, el sistema de los
pitagóricos como Filolao, no hacía que la Tierra girara en torno del Sol, sino
que todos los cuerpos celestes, incluidos la Tierra y el Sol, giraran en torno
de un «fuego central», en un sistema absolutamente fantasioso y sin fundamento
observacional) y con que Heráclides Póntico (siglo IV a.C.) también había
afirmado que la Tierra giraba.
Y así… empecé yo también a pensar que la Tierra se movía.
En cuanto a la teoría heliocéntrica en sí, hasta donde se sabe hoy, fue
concebida por primera vez por Aristarco de Samos (320-250 a.C.), a quien
curiosamente no nombra. Sobre este asunto tengo un curioso dato, que leí alguna
vez y que no he podido después ubicar, pero lo cuento con todas las
precauciones del caso: en el primer manuscrito del De Revolutionibus,
Aristarco aparece tachado por mano del propio Copérnico. La memoria es falible,
y puede ser que haya sido en alguna versión del Commentariolus (también
puede ser una ilusión, un recuerdo falso), pero en cierto modo encaja, porque,
dada la revisión de textos clásicos que hizo nuestro astrónomo, es realmente
imposible que no hubiera leído sobre Aristarco. El misterio es por qué no lo
puso como antecedente.
Sea como fuere, las ideas centrales del nuevo sistema aparecían en el primer
libro de los seis que componen De Revolutionibus, aunque ya habían
sido adelantadas en el Commentariolus y la Narratio Prima.
1.
El centro de la Tierra no es el centro del
universo, lo es solamente de la gravedad, y de la órbita de la Luna.
2.
Todos los planetas se mueven alrededor del Sol como
su centro y, por lo tanto, ése es el centro del universo.
3.
La distancia de la Tierra al Sol es imperceptible
frente a la altura del firmamento.
4.
Lo que aparece como movimiento del firmamento no
depende de un movimiento del firmamento mismo, sino del movimiento de la
Tierra. La Tierra, junto con los elementos que están a su alrededor, cumple una
rotación completa alrededor de sus polos en su movimiento diario, mientras el
firmamento inmóvil y los cielos altísimos no experimentan variación alguna.
5.
Lo que aparece como movimiento del Sol no deriva de
un movimiento de éste, sino del movimiento de la Tierra y de nuestra esfera,
con la cual giramos alrededor del Sol como todos los otros planetas. Además, la
Tierra tiene más de un movimiento.
6.
El aparente movimiento retrógrado y directo de los
planetas no deriva de un movimiento de ellos sino del de la Tierra. Así, el
movimiento de la Tierra por sí solo es suficiente para explicar tan diferentes
desigualdades aparentes de los cielos.
Salvo por el «pequeño detalle» del movimiento de la Tierra, se
explicaban de una manera relativamente sencilla muchos fenómenos.
·
Por empezar, se explicaba el movimiento en zigzag o
retrógrado de manera natural (y, digámoslo, realista) sin usar epiciclos.
Puesto que la Tierra y el resto de los planetas se movían a velocidades
diferentes, el movimiento retrógrado se debía al hecho de que a veces la Tierra
se adelantaba y a veces se atrasaba respecto de ellos.
·
Se explicaba también de manera natural que Mercurio
y Venus siempre se observaran en las inmediaciones del Sol. Esto, que era una
anomalía en el sistema tolemaico y se justificaba de una manera totalmente ad
hoc y enrevesada, en el sistema copernicano es absolutamente lógico: se
observaban siempre cerca del Sol porque, efectivamente, giraban más cerca del
Sol que la Tierra.
·
Además se podían —cosa que el sistema tolemaico no
permitía, ya que estaba basado en ángulos— calcular las distancias de los
planetas al Sol en función de la distancia de la Tierra al Sol y, de hecho,
Copérnico dio una tabla completa y bastante exacta.
·
Se determinaba con gran exactitud el tiempo
necesario para que cada planeta diera una vuelta completa.
·
Se liberaba a la astronomía de los dichosos
ecuantes y, por lo tanto, de muchos dolores de cabeza.
·
Los planetas se movían todos en torno de un mismo
centro (el centro de la órbita de la Tierra), mientras que, en el sistema de
Tolomeo, cada planeta tenía su órbita alrededor de su propio ecuante, que se
calculaba independientemente de los demás.
Pero no todo era color de rosa en el sistema copernicano.
§. Las dificultades
No es verdad que el sistema copernicano apareciera de repente para explicar
todo. Se podían hacer objeciones de todo tipo a la teoría de Copérnico, y
algunas de ellas bastante serias.
Por empezar, era necesario comprender por qué funcionaba ese nuevo mecanismo de
relojería ahora alrededor del Sol, cuál era el impulso que lo hacía mover.
Estaba el primer motor de Aristóteles, pero no parecía un arreglo del todo
convincente… ¿cómo hacía el primer motor para imprimir la rotación a la esfera
de la Luna, centrada en la Tierra? Y además, el movimiento circular y perfecto,
según Aristóteles, estaba reservado exclusivamente al cielo. Asignárselo a la
Tierra era cometer un pecado de leso aristotelismo, ya que el estado natural de
la Tierra era el reposo. La respuesta de Copérnico era que una esfera tendía
por sí sola a girar.., ¿era convincente? Muy poco.
Después estaba el asunto de la composición de los planetas. Si la Tierra era
«un planeta más»… ¿Marte también estaba hecho de rocas y no de éter? ¿Y las
estrellas? ¿De qué material estaban hechas las estrellas? El éter comenzaba a
resquebrajarse y la sagrada e intocable distinción entre espacio sublunar y
supralunar estaba amenazada.
Y todavía había más cosas que aclarar. Por ejemplo, por qué una piedra caía
hacia la Tierra si ya no era el centro del universo. Copérnico hizo algunos
malabarismos: los cuerpos no caen hacia el centro del mundo, sostuvo, y la
gravedad no es sino la tendencia natural de las partes de un todo que han sido
separadas de ese todo, a volver a él.
Así, los cuerpos terrestres no intentaban al fin y al cabo acercarse al «centro
del mundo» (el Sol) para descansar en él, sino que tendían hacia su «todo»: la
Tierra. Tampoco ésta era lo que se dice una explicación muy convincente: ¿cómo
sabía cada cuerpo cuál era su «todo»? Si tuviéramos en la mano un pedazo lunar
y lo soltáramos, ¿saldría disparado hasta la Luna? Naturalmente, nadie planteó
esto: era inconcebible aún la frase «tener en la mano un pedazo lunar». Los
tiempos han cambiado…
Y, además, estaba la gravísima falta de observación de paralaje estelar, de la
cual ya hemos hablado en algún momento: cuando un objeto se observa desde dos
puntos diferentes, tiene que verse ligeramente corrido respecto del fondo por
el cambio de perspectiva. Pero las estrellas, observadas desde los dos extremos
de la órbita terrestre, no mostraban ningún tipo de paralaje.
Copérnico arguyó sensatamente que estaban demasiado lejos como para que el
fenómeno fuera apreciable y agrandó el radio del universo a unos 2.000 radios
terrestres, que son unos 12.400 millones de kilómetros. En realidad, nuestro
amigo se quedó bastante corto, muy corto: es apenas un cuarto de la distancia
entre el Sol y Mercurio, su planeta más cercano. Pero Copérnico no podía tener
la más remota idea del tamaño del universo, aunque escribió que, «comparada con
la distancia a las estrellas, la Tierra es como un punto». Copérnico tenía
razón en que el problema de la ausencia de paralaje se debía a la distancia de
las estrellas, pero su respuesta era puramente especulativa y con eso no
alcanzaba.
El sistema conservaba muchos rasgos del anterior, lo cual no contribuye a
hacérnoslo —ahora— simpático: sobre todo, se conservaban las esferas y, aunque
la última de ellas dejaba de moverse, seguía siendo un caparazón que cerraba el
universo. Así y todo, Copérnico parecía hacer algunos avances confusos hacia la
idea del espacio infinito.
Pero dicen que fuera del cielo no hay ningún cuerpo, ni lugar, ni vacío,
ni en absoluto nada por donde pueda extenderse el cielo. Pero si el cielo fuera
infinito y sólo fuera finito en su concavidad interior, quizá con más fuerza se
confirmaría que fuera del cielo no hay nada, puesto que cualquier cosa estaría
en él, sea cual fuere la magnitud que ocupara, pero el cielo estaría inmóvil.
Es confuso, no hay duda, pero algo es.
Por otro lado, para cumplir con la exigencia de movimiento uniforme, se vio
obligado, nuevamente, a descentrar las órbitas: el verdadero centro del sistema
no estaba en el Sol sino en el centro de la órbita de la Tierra alrededor del
Sol, que no coincidía con el Sol propiamente dicho y que, por eso, se parecía
bastante a los ecuantes tolemaicos.
Además, para ajustar el sistema y hacerlo más permeable a las observaciones,
echó mano de las herramientas tradicionales: los epiciclos de los que
justamente quería librarse. Al final se encontró con que necesitaba al menos 36
círculos para «salvar las apariencias»; no era una mejora decisiva (en la
cantidad de círculos) respecto de los 40 promedio que se utilizaban en los sistemas
que provenían de Tolomeo. Por supuesto, el problema era que las órbitas de los
planetas no son circulares sino elípticas, pero hacía falta casi un siglo para
que a alguien se le ocurriera semejante solución.
Para ganar cuatro esferas, habrán pensado muchos, y para toparnos con ecuantes
disfrazados, no hacía falta reformar todo y armar tanto lío.
Por si fuera poco, Copérnico le agregó a la Tierra un tercer movimiento, el de
trepidación, con el objeto de mantener el eje de rotación fijo, movimiento que,
según se demostró, era inexistente, además de innecesario.
Y también estaba el asunto de la Luna: ¿por qué razón, entre todos los astros
que giraban alrededor del Sol, sólo uno tenía la notable ocurrencia de hacerlo
alrededor de la Tierra? ¿Y por qué la Tierra no la dejaba atrás en su raudo
volar por el espacio?
Copérnico dejaba una multitud de problemas por resolver. Pero la marcha de la
ciencia es así, y los científicos ensayan respuestas con los recursos que
tienen a mano; no saben (o quizá sí saben) que más adelante, en el territorio
que se atrevieron, con mejor o peor fortuna, a explorar, están las herramientas
que permitirán prender el fuego mediante el golpe inteligente de dos piedras de
sílex.
§. El prólogo fraguado
Por más que no explicara todo, que tuviera parches, y que conservara muchos
rasgos que ya olían a rancio, el sistema heliocéntrico estaba ahí, completo y
contundente. La nueva teoría era suficientemente audaz como para temer las iras
religiosas. Sin embargo, la reacción eclesiástica fue mínima y aún menor entre
los católicos que entre los protestantes. Lutero sí se horrorizó: ya vimos lo
que dijo, y Melanchton, su brazo derecho, declaró que era una vergüenza y un
verdadero escándalo presentar al público opiniones tan descabelladas.
Por el lado romano, sin embargo, no hubo problemas; al poder eclesiástico el
libro no le pareció grave. Estaba dedicado al papa Pablo III y el propio
Copérnico era canónigo y hombre de la Iglesia. Recién en 1616, casi ochenta
años más tarde, la teoría heliocéntrica sería considerada herética y De
Revolutionibus puesto en el Index de libros
prohibidos. Todo esto gatillado por la propaganda que le estaba haciendo
Galileo, y que llevó a su primer choque con el poder romano.
Pero había un pequeño detalle: en la edición de De Revolutionibus,
y sin que Copérnico lo supiera, «se deslizó» un prólogo que presentaba al
sistema como absolutamente especulativo y sin pretensiones de describir la
realidad. El autor del fraude —como más tarde denunciaría Kepler— fue Osiander
(1498-1552), un teólogo protestante de Wittenberg, que decía, entre otras cosas
por el estilo:
No es necesario que estas hipótesis sean verdaderas, ni siquiera
verosímiles. Alcanza con que provean un cálculo conforme a las observaciones.
No son por fuerza verdaderas y ni siquiera probables. No se las expone para
convencer a nadie de que sean verdaderas, sino tan sólo para facilitar el
cálculo.
O sea: el sistema era simplemente ficcional, sólo un método de cálculo.
Mientras no se creyera que la teoría heliocéntrica era «real», no habría
problemas. Dicho sea de paso, esto me hace acordar un poco a la actitud de
muchos científicos actuales, que bajo el argumento de que lo que postulan son
«modelos» de la realidad evitan a toda costa emitir opinión sobre la realidad
de esos modelos.
La verdad es que no hay que condenar de buenas a primeras al pobre Osiander,
que probablemente obró de buena fe, ya fuera porque creía en lo que decía, ya
porque trataba de proteger a Copérnico de los disgustos y problemas de
enfrentar a la Iglesia, como más tarde comprobaría Galileo.
Pero basta con leer los primeros capítulos para comprender que Copérnico en
ningún momento dudó de la «realidad» de su propuesta, aunque sabiendo que era
por completo antiintuitiva. Establecía una cosmología radicalmente distanciada
del sentido común: todo aquello que vemos con claridad es aparente y es sólo
reflejo de otras cosas que sí son verdaderas. Lo verdadero es algo más
profundo, que es tan real como las piedras. Es un realismo
platónico-pitagórico, cuya inspiración explícitamente declaraba. Incluso, entre
los argumentos para que el Sol estuviera en el centro, citaba fuentes herméticas
como el propio Hermes Trismegisto:
Y en medio de todo permanece el Sol. Pues ¿quién en este bellísimo
templo pondría esta lámpara en otro lugar mejor desde el que pudiera iluminar
todo? Y no sin razón, unos le llaman «lámpara del mundo», otros «mente», otros
«rector». Trismegisto le llamó «dios visible».
Éste es el único ejemplo en De Revolutionibus en que se
incluye el mundo mágico-simbólico del Renacimiento.
El movimiento del Sol y de los cielos es aparente, solamente una ilusión, como
el hecho de que la Tierra y el cielo se junten en el horizonte. ¡La Tierra se
mueve contra todo lo que indican nuestros sentidos! Aquí queda marcada una de
las características que tendrá la ciencia que surja de la Revolución
Científica: se trata de una construcción contra la inducción ingenua, el
sentido común y la experiencia sensible, por lo menos la inmediata, que
Tartaglia ya había desechado al descreer de lo que decían los cañoneros sobre
la trayectoria de las balas. El sentido común, por lo menos en su versión
inmediata, engaña; la verdadera realidad está escondida bajo la complejidad de
los fenómenos del mundo.
Pero entonces, para poder experimentar con esa verdadera realidad y con los
verdaderos fenómenos, hace falta un lugar especial y donde los fenómenos
profundos aparezcan destilados (como hará Galileo con sus bolas rodando por
planos inclinados).
Y ese lugar será el laboratorio, un préstamo tomado de los alquimistas. Pero el
laboratorio moderno no es, como el alquímico, un espacio donde se manifiestan
las fuerzas místicas y herméticas que gobiernan la materia, sino un lugar donde
reina la geometría pura y dura, y donde los fenómenos revelan su estructura
matemática.
Aunque se propugne el método experimental, la vieja idea de que los sentidos
engañan será más fuerte que nunca y el divorcio entre «lo que es» y «lo que se
ve» alejará a la ciencia del público, fenómeno que se constata aún hoy, cinco
siglos después.
§. El libro no fue un bestseller
Las revoluciones era un libro difícil. Tuvo una sola reedición y si
bien no se lo leía mucho, tal vez por su complejidad, se sabía de su existencia
y su influencia era grande. En 1551, Erasmus Reinhold (1511-1553), también de
Wittenberg, recalculó las tablas astronómicas sobre la base de la teoría
heliocéntrica, y publicó las Tablas Prusianas, que aunque tampoco eran
demasiado precisas, se usaron para reformar el calendario en 1582 y seguían
ampliando la brecha por la que fluía la Revolución Científica.
Algunos tomaron la teoría como un modelo matemático sin asidero físico,
siguiendo el camino propuesto por Osiander, en lo que se llamó «la
interpretación de Wittenberg», que volveremos a encontrar en pleno siglo XX
cuando hablemos de la mecánica cuántica: una interpretación puramente
instrumentalista, que no hace afirmaciones sobre la existencia de los términos
postulados por la teoría.
Otros, en cambio, consideraban que Copérnico era «el nuevo Tolomeo», como el
inglés Thomas Digges (1546-1596), que explicaba por qué a muchos les costaba
aceptarlo: Puesto que el mundo ha arrastrado durante tanto tiempo la opinión de
la estabilidad de la Tierra, la contraria tiene que resultar ahora muy
inaccesible.
William Gilbert, iniciador del estudio del magnetismo, adhirió con fervor. Lo
mismo que Giordano Bruno, que rompió con las esferas y proclamó un mundo
infinito, donde las estrellas no eran sino soles lejanos y casi sin vestigios
de metafísica, y que fue condenado a la hoguera y asesinado por la Inquisición
en el año 1600.
Y aunque en todo el siglo XV prácticamente no se publicó ninguna obra en
defensa del copernicanismo, hay un dato curioso: parece que se discutía
popularmente en las calles de Florencia. En 1552 (apenas diez años después de
la publicación), el escritor y satirista Antón Francesco Doni (1513-1574)
escribió y publicó un interesante diálogo entre dos hombres del pueblo, que trata
de cuestiones cosmológicas, y que muestra que el copernicanismo formaba parte
de las conversaciones populares, que en las noches de verano sostenía la gente
del popolo minuto, sentada en los mármoles de la catedral
florentina.
Y también se difundía entre nuevas generaciones de astrónomos como Kepler o
Galileo. En el proceso, el sistema se fue enriqueciendo y transformando,
mientras se ajustaba para encontrar las respuestas que faltaban.
§. Elogio de Copérnico y despedida provisoria
El sistema que surgía de Las revoluciones no se había liberado
del todo de los lastres de la astronomía tradicional. Copérnico conservó las
esferas de cristal y sería Tycho Brahe quien rompería con esa limitación.
Conservó el movimiento estrictamente circular que exigía Platón y sería la tarea
de Kepler introducir las órbitas elípticas. No pudo dar una explicación
totalmente convincente de por qué las cosas no salían volando por el aire al
moverse la Tierra, y Galileo tuvo que tomarse el trabajo de encontrar una
respuesta. En cierta forma, su obra fue un constructo, a veces algo forzado, y
llevó los esfuerzos de un siglo y medio resolver las dificultades que
planteaba.
Tampoco fue el primero en atribuir movimientos a la Tierra; ya lo habían hecho
en la Antigüedad Aristarco de Samos o los pitagóricos Filolao y Heráclides
Póntico. La rotación terrestre, por su parte, había sido propuesta, entre
otros, por Nicolás de Cusa y analizada a fondo por Nicolás de Oresme.
Y sin embargo, fue él solo quien, pese a las imperfecciones, construyó el
primer sistema heliocéntrico completo, coherente; quien movió al mundo de su
lugar fosilizado en el centro del sistema, lo lanzó a través del espacio y
armó, con todos sus errores y dificultades, una estructura coherente y tenaz,
capaz de competir con Tolomeo. Fue él quien realizó un esfuerzo intelectual tan
enorme, que el término «revolución copernicana» quedó acuñado para describir
cualquier cambio de fondo en las concepciones del mundo.
No es posible pensar que Copérnico no comprendiera las consecuencias de la
reforma que había emprendido, la cantidad de cosas establecidas con las que
rompía, la manera en que alteraba la cosmovisión y la imposibilidad de una
vuelta atrás. Tenía que sospechar que estaba sacando el ladrillo de abajo de la
enorme construcción aristotélico-tolemaica. Y una vez hecho, era sólo cuestión
de tiempo que el edificio entero se derrumbara.
La hazaña de Copérnico no fue solamente una revolución astronómica, sino una
revolución filosófica y cultural. Mover a la Tierra es algo que trasciende lo
puramente astronómico. Si la Tierra no está en el centro del mundo, tampoco se
entiende por qué tiene que estar en el centro de la creación. Y si es un
planeta como los demás, no se entiende por qué debería estar compuesta por
elementos diferentes: los dos mundos (sublunar y supralunar), tan tajantemente
separados durante dos mil años, empezaban a mezclarse.
Es interesante que en medio del humanismo, que trasladaba la atención del cielo
a la tierra, Copérnico produjera un desplazamiento tan brutal de los intereses
humanos en la lista de prioridades del universo.
Copérnico descentró al hombre, le dio una primera pauta de su poca importancia;
una Tierra equivalente al resto de los planetas es una Tierra mucho más laica y
secular. Copérnico nos hace ser lo que somos, seres perdidos en un universo tan
vasto que no podemos siquiera imaginar, pero sí intentar comprender. Copérnico
nos enseñó a todos que una revolución completa es posible, nos mostró el poder
de la mente humana, capaz de dar vuelta de un saque dos mil años de tradición y
ver más allá de lo que ven nuestros ojos. Copérnico está en la base misma de
todas nuestras ideas sobre el mundo, es el pilar sobre el que se apoya la
modernidad.
Su intento fue desmesurado, una utopía astronómica superior a sus fuerzas (y a
las de la época), que necesitó ciento cincuenta años para concretarse.
Dediquemos un admirado y cariñoso recuerdo a uno de los pensadores y
científicos más grandes de la historia.
Capítulo 14
La derrota del círculo
Esa alegre amalgama entre magia y ciencia exacta (o pretendidamente
exacta) que se había desplegado y vivido alegremente durante el Renacimiento no
podía durar, y no duró. El mundo orgánico, u organicista, perdió su estructura
simbólica y se fue conformando como un conjunto de fenómenos que sería, más
temprano que tarde, objeto de una nueva síntesis a medida que se impusiera la
filosofía mecánica.
Copérnico, Digges y Bruno habían roto el espacio signado, o signaturizado:
Copérnico, al igualar la Tierra al resto de los planetas; Digges, de quien
hemos hablado poco, al divulgar en Inglaterra el sistema copernicano e incluso
ampliarlo, extendiendo el cielo más allá del caparazón de las estrellas fijas y
afirmando que había infinitas estrellas a distancias disímiles (aunque su
espacio infinito conservara rasgos teológicos al ser la sede de las grandes
potencias espirituales); Giordano Bruno, de quien hablaremos más adelante, al
afirmar que nuestro mundo no era único, sino que el universo debía contener
infinitos mundos habitados por seres inteligentes y al disminuir de un plumazo
el estatus astronómico del Sol, sosteniendo que no era más que una estrella
como todas las demás. Ya no cabía duda de que el espacio de «lugares»
especiales y signados estaba dando paso al espacio único de Euclides.
O mejor dicho, de Arquímedes.
§. Tycho Brahe mira el cielo y ve algo raro
El 11 de noviembre de 1572, el joven Tycho Brahe (1546-1601), de 26 años, que
con el correr del tiempo llegaría a ser el astrónomo más famoso de su época,
volvía a su casa después de una noche de trabajo en el laboratorio de alquimia
de su tío Steen Bille, donde había estrujado la materia para arrancarle los
átomos de fuego y producir oro. Al echar una mirada al cielo descubrió que algo
raro estaba pasando allí arriba: cerca de la constelación de Casiopea había una
estrella brillante, más brillante que el planeta Venus, donde antes no había
nada. En los días que siguieron, la estrella aumentó su brillo cada vez más
hasta hacerse observable incluso de día, para luego empezar a desvanecerse y
desaparecer a principios de 1574. Una serie de mediciones muy simples dejaron
en claro que no era un efecto atmosférico (como se pensaba que eran los
cometas) sino que, por el contrario, se trataba de un fenómeno que estaba
ocurriendo más allá de la Luna.
¡Una estrella nueva que aparecía y desaparecía! ¿Cómo podía ser posible? Según
el dogma, en el cielo nunca nada podía cambiar (recuerden a Aristóteles). Pero
allí estaba la nueva estrella de Tycho que, a decir verdad, no era exactamente
una estrella nueva sino una supernova, la pavorosa explosión con que algunas
estrellas terminan su vida y durante la cual su brillo se multiplica miles de
millones de veces, cosa que por supuesto Tycho no podía ni remotamente
sospechar.
Nuestro personaje había nacido el 14 de diciembre de 1546, tres años después de
la publicación del libro de Copérnico, en el extremo sur de la península
escandinava, un lugar que ahora pertenece a Suecia, pero que entonces era parte
de Dinamarca. Procedía de una familia de aristócratas. Su padre había estado al
servicio del rey como consejero privado, había ocupado varios cargos oficiales
y terminó su vida como gobernador del castillo, situado enfrente de Elsinore,
donde transcurre Hamlet, la gran obra de Shakespeare. Dicho sea de
paso, tanto el príncipe protagonista como su amigo Horacio estudiaban en la
Universidad de Wittenberg, donde se originó la Reforma, y de donde partió
Rheticus para visitar a Copérnico e insistirle con la publicación de su libro.
Tycho fue educado por su tío (como Copérnico por su tío Lucas), y recibió una
formación sólida: fue enviado a la Universidad de Copenhague en 1599, cuando no
tenía aún trece años de edad, lo cual puede sorprendernos a nosotros, aunque no
debería, porque el concepto de universidad englobaba, desde la Edad Media, lo
que nosotros conocemos como educación secundaria.
La idea era que el muchacho siguiera una carrera que lo llevara a un cargo en
el Estado o en la Iglesia, pero un eclipse parcial de sol que se produjo en
1560 desvió su vocación: Tycho se quedó pasmado por el hecho de que el eclipse
hubiera sido predicho. Le pareció algo divino que los hombres pudieran conocer
los movimientos de los astros de una manera tan precisa que fueran capaces de
predecir ese tipo de eventos con semejante antelación.
Y así fue como dedicó los dieciocho meses que pasó en Copenhague a estudiar
matemáticas y astronomía, hasta que cambió Copenhague por Leipzig, para
estudiar leyes. La afición de Tycho por la astronomía, de cualquier manera,
continuaba intacta, y gastaba todo su dinero en comprar aparatos de
observación, gracias a lo cual sus conocimientos aumentaron rápidamente y le
permitieron darse cuenta de que la comprensión que se tenía de los movimientos
astronómicos no era tan precisa como había creído al principio: en 1563, una
conjunción entre Saturno y Júpiter (es decir, el momento en que dos planetas
están tan próximos que parecen confundirse y «habilitan» las especulaciones de
los astrólogos y otros charlatanes) se produjo un mes antes de lo pronosticado.
Quizá fue entonces cuando concibió (¡a los 16 años!) las que habrían de ser las
líneas directrices de su vida científica, y que implicaban una idea nueva en la
astronomía observacional: las mediciones de las posiciones estelares debían ser
precisas (sin admitirse los errores que, por ejemplo, había cometido Tolomeo,
cuyas observaciones habían sido tomadas como buenas por Copérnico), y el único
camino para la construcción de tablas precisas era la observación continuada y
el seguimiento de un cuerpo celeste, noche a noche, y no las observaciones
aisladas, como era común practicar hasta entonces.
Sin embargo, Tycho abandonó Leipzig al estallar la guerra entre Suecia y
Dinamarca, y marchó nuevamente a Copenhague, donde ocurrió un curioso
incidente: cuando el rey Federico II cruzaba con un destacamento el puente que
unía el castillo de Copenhague con la ciudad, se cayó al agua, y el tío de
Tycho, entre otros, acudió inmediatamente al rescate. El rey salió ileso, pero
el tío pescó un resfrío que le provocó la muerte (¡un resfrío!), lo cual trajo
como «efecto colateral» que Tycho recibiera una herencia, y se viera libre de
las presiones familiares que aconsejaban que un joven no se dedicara a la
astronomía sino a algo más útil y propio de un caballero.
Después de ese episodio, nuestro amigo estuvo en Wittenberg y en Rostock, donde
se graduó, habiendo estudiado astrología, química (alquimia, en realidad) y
medicina. Como tantos en su tiempo, Tycho creía en la astrología y era
aficionado a elaborar horóscopos. En particular, después del eclipse de Luna
del 28 de octubre de 1566, hizo un horóscopo en el que predecía la muerte del
sultán Solimán el Magnífico, que había expandido increíblemente el Imperio
Otomano, incluyendo la conquista de varias partes de Europa, y que sería el
responsable indirecto de una de las grandes invenciones de la modernidad, como
pueden leer en el recuadro.
Solimán el magnífico y el genio en la botella(azul)
Solimán el Magnífico fue no sólo lacabeza y sultán del Imperio Otomano
en el momento en que éste alcanzó sumáximo poder sino el responsable, indirecto
e involuntario, de la invenciónde uno de los grandes centros del pensamiento
occidental moderno. No, ni laRoyal Society ni la Académie des Sciences sino
algo mucho más humilde: elcafé. Solimán, cuya muerte había de predecir Tycho
unos cuantos años después,llegó hasta las mismísimas puertas de Viena en 1529,
marcando el apogeo de lainvasión otomana, aunque fracasó en su intento de
tomarla. Cuando en 1683 losturcos intentaron sitiar nuevamente la ciudad y,
nuevamente, tuvieron quedarse por vencidos, dejaron equipaje y provisiones,
entre las que se contabannumerosas bolsas de café. Estas bolsas fueron
imprescindibles para que, pocotiempo después, se fundara La Botella Azul, el
primer café vienés, queinauguraría una moda en Europa y produciría delicias
como la Cantata del caféde Johann Sebastian Bach. Cuenta la leyenda que los
dueños de La BotellaAzul, al principio, recorrían las casas ofreciendo a los
vecinos tazas delnuevo brebaje. El café era el genio en la botella que se había
liberado enEuropa.
Lo demás es historia conocida: el cafécomo lugar de reunión, el cafetín como
inspiración del tango y discutibleuniversidad del barrio; el café como refugio
de la bohemia; el café comolaboratorio de la mente. Este libro se escribió en
un café, sin ir más lejos.
La cuestión es que, cuando llegó la noticia de que el sultán efectivamente
había muerto, su fama se fue a las nubes. Aunque seguramente bajó un poco a
tierra cuando se supo que en verdad había muerto un mes antes del eclipse y,
por ende, un mes antes de la predicción de Tycho, con lo cual su predicción
pasó automáticamente a ser una «posdicción»: las cosas de la astrología eran y
siguen siendo así. Pero por más que ahora esté mucho más desprestigiada que en
ese entonces y sólo se la considere una seudo ciencia o, mejor, pura
charlatanería, hay quienes la practican, quienes creen en ella, y hay muchos
diarios (quizá la mayoría) que aún la siguen sosteniendo como una sección. Ni
hablar de las páginas y páginas que se pueden encontrar en Internet.
Los procesos culturales son lentos, lentísimos.
El eclipse y la «predicción» de la muerte de Solimán (que bien hubiera podido
tener hacia nuestro amigo la delicadeza de morirse después del
eclipse, cosa que le hubiera costado poco, siendo tan poderoso como era) derivaron
en una historia inesperada: en un baile de diciembre de ese mismo año tuvo un
choque con otro aristócrata, Mnaderup Parsjberg, quien, al parecer —no es
seguro, pero es interesante—, se burló de él por la predicción de la muerte de
Solimán a posteriori. La burla redundó en un duelo, durante el cual
un mandoble de su oponente le arrancó la nariz a Tycho (o, mejor dicho, buena
parte de ella), a raíz de lo cual tuvo que usar una prótesis durante el resto
de su vida, hecha —Tycho era pomposo, arrogante y extravagante— de oro y plata.
También solía llevar una caja de ungüento que se extendía sobre la zona
afectada para calmar la irritación. Cosas, también, de la astrología, que no
sólo es una pseudociencia sino que, como demuestra la anécdota, es mala para quienes
pretenden conservar su nariz.
§. Un gran observador
El asunto fue que su creciente pericia astronómica empezó a llamar la atención,
y el propio rey le prometió una canonjía (un cargo similar al que había tenido
Copérnico) apenas quedara vacante alguna. Dinamarca era protestante, y en
realidad ya no había propiamente canónigos, pero el puesto se conservó para
beneficiar a científicos y estudiosos, en una modalidad muy parecida a lo que
hoy llamaríamos becas.
Tycho reanudó sus viajes, y realizó observaciones (para las cuales se hizo
construir un cuadrante gigantesco) hasta que, en 1571, falleció su padre,
recibió una aceptable herencia y se fue a vivir con un tío materno, Steen
Bille, que había sido el primero en introducir en Dinamarca la fabricación en
gran escala de papel y las manufacturas de vidrio, y a quien ayudaba en su
laboratorio de alquimia. En esos menesteres andaba cuando observó la supernova
de 1572, la «nueva estrella».
¿Pero cómo estar seguro de que, efectivamente, se trataba de una estrella
nueva? Podía ser un cometa, o cualquier otro fenómeno atmosférico. ¿Cómo
saberlo? La respuesta de Tycho fue registrar su posición noche a noche (la
supernova fue visible durante dieciocho meses) e ir fijándose cómo variaba
respecto del resto de las estrellas.
Durante todo el tiempo en que estuvo visible, la nueva estrella no se movió
respecto de las estrellas fijas: Tycho se convenció de que no se trataba de un
fenómeno atmosférico, sino de que estaba de manera permanente en la zona del
cielo que, hasta ese momento, se presumía inmutable por estar más allá de la
Luna. Por primera vez se observaba científicamente un cambio evidente en el
«mundo supralunar». Claramente, algo andaba mal en ese asunto de las dos
regiones del mundo.
A raíz de eso publicó, en 1573, un pequeño libro, De Nova Stella,
donde demostraba que el nuevo objeto pertenecía, efectivamente, a la esfera de
las estrellas fijas, y lo comparaba con otro objeto que Hiparco, 125 años antes
de nuestra era, afirmaba que había observado en el cielo. Y, como no podía
faltar, deslizaba diferentes consideraciones astrológicas, de las que podemos
cómodamente prescindir.
De paso, fijó la palabra «nova», que aún ahora se utiliza plenamente para
referirse a los aumentos de brillo repentinos de una estrella, debido a
diferentes procesos relacionados con su muerte, y a veces con su muerte
explosiva (la supernova). El fenómeno fue también observado y estudiado por
muchos otros astrónomos, entre ellos el propio Thomas Digges, el gran
propagandista inglés del sistema copernicano que ya les mencioné.
§. La supernova de Tycho (y algunas más)
Las supernovas son uno de los fenómenos más impresionantes de la astronomía, y
probablemente de la naturaleza: la pavorosa explosión de una estrella, que
multiplica su brillo en miles de millones de veces. A gran escala (galáctica),
son relativamente frecuentes. Pero, desde nuestra modesta perspectiva, son
fenómenos muy raros. En realidad, durante los últimos milenios, muy pocas
supernovas se han observado a simple vista en los cielos de la Tierra.
La supernova de Tycho no fue la primera; de hecho, ya se habían observado
varios fenómenos de este tipo, en 1006, en 1054 (supernova del Cangrejo) y en
1181.
Ésta, la cuarta supernova, estalló en la constelación de Casiopea e inmediatamente
fue vista desde Corea, China, y por astrónomos de toda Europa.
La supernova, que también llegó a brillar tanto como Venus, dejó de observarse
recién un año y medio después. En la década de 1950, los científicos detectaron
sus restos mortecinos (en luz visible y en ondas de radio). Y aunque Tycho no
fue el único, y ni siquiera el primero en observarla, es recordada como la
supernova de Tycho porque fue él quien pudo determinar su carácter supralunar.
§. El examen del cielo
Lo cierto es que, a raíz de esta historia, Tycho tomó la decisión de estudiar
el cielo y llegó a convertirse en el más grande de los astrónomos
observacionales antes de la llegada del telescopio. El trabajo de toda su vida
consistió en la fabricación de instrumentos muy precisos y el acopio de una
cantidad increíble de observaciones con una exactitud desconocida hasta
entonces.
Y así fue: después de varios avatares y debido a su fama cada vez más grande,
el rey Federico, imitando prematuramente a Marlon Brando en El padrino,
«le hizo una oferta imposible de rechazar»: le regaló la pequeña isla de Hveen,
entre Copenhague y Elsinore, con unos buenos dinerillos para que se construyera
un observatorio, al que llamó Uraniborg (por Urania, la musa de la astronomía).
Durante veinte años, Tycho se encargó de expandir y de transformar la isla en
un verdadero y amplio centro científico, con un segundo observatorio, una
profusa biblioteca, una imprenta (donde imprimir sus tablas y sus libros
incluyendo sus poemas) y hasta una fábrica de papel para producir los insumos
necesarios. Y fue allí donde empezó a poner en práctica su política de
precisión y seguimiento, que implicaba la observación de los astros noche a
noche.
Cuando murió el rey Federico II (1588), el gobierno de Dinamarca quedó en manos
de un consejo de regencia, pero cuando el nuevo rey Christian II alcanzó la
mayoría de edad y fue coronado, empezó a practicar lo que hoy llamaríamos una
política de ajuste (que por lo visto es anterior al FMI), rebajando el
presupuesto de Uraniborg y llegando a suprimir su pensión anual.
Tras un período de inestabilidad, Tycho fue llamado por el emperador del Sacro
Imperio, Rodolfo II, en junio de 1599, después de dejar a su familia en Dresde.
Llegó a Praga, la capital del Imperio, una ciudad hedionda y malsana que un
informe de la época describe de la siguiente manera:
Salvo que el hedor de las calles haga retroceder a los turcos, hay pocas
esperanzas de que las fortificaciones puedan hacerlo. Las calles están llenas
de inmundicias, hay varios mercados grandes, los muros de algunas casas son de
piedra de sillería, pero la mayoría son de madera y barro, y están construidas
con poco arte y carecen de estética, siendo las paredes de troncos de árboles
tal como se sacan del bosque, y en ellas la corteza está trabajada de una forma
tan tosca que se puede ver a ambos lados del muro.
Tras una audiencia con el emperador, recibió el nombramiento de
matemático imperial, le fue asignada una buena renta y se le ofreció el
castillo de Benatky, 35 kilómetros al nordeste de Praga, adonde hizo llevar los
grandes instrumentos de Uraniborg. El castillo tuvo que ser adaptado para
convertirlo en un observatorio adecuado. Tycho, que pasaba ya los cincuenta
años, no realizó demasiadas observaciones importantes en este lugar, salvo las
de rutina: era breve el tiempo que faltaba para su muerte. Sin embargo, antes
de llegar a Praga, había iniciado una correspondencia que le garantizaría el
mejor uso posible para la obra que había realizado durante su vida. Comparados
con los veinte años que pasó en Dinamarca, su estancia en Praga fue corta, ya
que murió en 1601, al parecer después de haber superado todos los límites de
exceso durante una escabrosa comilona.
Pero antes de esa cena —un año antes, para ser preciso—, Tycho recibió una
visita decisiva, que sería tan importante como la visita de Rheticus para Copérnico:
el joven Johannes Kepler.
§. El ocaso de las esferas
Las contribuciones de Tycho muchas veces han sido disminuidas, encasillándolo
como solamente un astrónomo observacional y fundador de la astronomía de
precisión, o como el iniciador del nuevo estilo de observación sistemática y
seguimiento (lo cual no es poca cosa, desde ya), o como el diseñador de un
sistema intermedio entre el copernicano y el tolemaico, que a la larga no tuvo
una gran fortuna.
Pero en realidad fue mucho más allá y dio algunos de los pasos conceptuales que
lo erigen en protagonista de la Revolución Científica, o por lo menos de este
hilo astronómico que estamos siguiendo, y de la devastadora marcha de la
astronomía que terminaría por demoler toda la construcción tolemaica y aristotélica
sin dejar ni siquiera los escombros. Fue un proceso de ciento cincuenta años
que comenzó con Copérnico y fue paso a paso. Y uno de esos pasos lo dio,
precisamente, Tycho.
La «estrella nueva» que observó en 1572, y cuyo estudio le permitió determinar
que se encontraba más allá de la esfera de la Luna, donde en principio nada
podía modificarse, preparó el terreno para su siguiente intervención en la
teoría astronómica.
Y es que tres años después de haber visto la «nueva estrella», Tycho observó un
cometa. Los cometas eran conocidos desde la Antigüedad, y eran tomados como
signos astrológicos de catástrofes, hambrunas, pestes, guerras, epidemias y
augurios por el estilo.
Los cometas eran muy conocidos desde antiguo. Aristóteles los había estudiado y
había llegado a la conclusión de que se trataba de fenómenos atmosféricos por
la sencilla razón de que su irregularidad (aparecen, desaparecen y se mueven en
trayectorias irregulares y cambiantes) era propia únicamente del espacio
sublunar.
Pero Tycho, con su «astronomía de precisión», y ya alertado por la nova de
1572, determinó que el cometa estaba más allá de la Luna, que se movía
alrededor del Sol, y que además lo hacía entre Marte y Venus, o sea que cruzaba
las esferas que sostenían las órbitas de ambos planetas. ¿Cómo podía un astro
atravesar esferas materiales y cristalinas sin que se hicieran trizas?
Ante la evidencia, Tycho optó por una idea audaz: decidió que las esferas no
existían.
Ya no apruebo la realidad de aquellas esferas cuya existencia había
admitido antes apoyado en la autoridad de los antiguos. Actualmente estoy
seguro de que no hay esferas sólidas en el cielo, independientemente de que se
crea que hacen girar a las estrellas o son arrastradas por ellas.
El golpe estaba bien colocado y el cristal se partió. Es difícil
disminuir la importancia conceptual de este paso. La demolición de las esferas
cristalinas, de casi dos mil años de antigüedad y que el propio Copérnico no
había cuestionado, agregaba una pieza más a la paciente construcción que
llevaría a la Teoría de la Gravitación Universal.
Porque la inexistencia de las esferas planteaba el problema del movimiento de
los astros bajo una luz por completo diferente: sin las esferas ya no podía
existir tampoco el sistema de correa transmisora del primum mobile,
que impulsaba a la última esfera y se iba transmitiendo a las esferas
interiores.
Ahora, y por decirlo así, los planetas (y el Sol, y la Luna) quedaban
«sueltos». Las fuerzas motrices del sistema, fueran lo que fueren y vinieran de
donde vinieren, tenían que actuar directamente sobre los planetas, como
comprenderá muy bien Kepler. El buen Tycho puso así un palo más en las ruedas
del sistema tolemaico. Y tarde o temprano, al aparecer el problema de qué era
lo que movía a los planetas, el sistema astronómico tendría la necesidad de
ser, también, un sistema físico.
§. El sistema de Tycho
Tycho, aunque lo conoció perfectamente —como todos los astrónomos de la época—,
nunca aceptó el sistema copernicano. Puede ser que tuviera ganas de tener su
propio sistema personal del mundo, pero la principal razón por la cual no se
adhirió a la teoría heliocéntrica es que le resultaba imposible aceptar que la
Tierra se moviera. Meticuloso como era, no sostuvo la inmovilidad de la Tierra
como un dogma, sino que, para demostrarla, ideó un experimento: disparó con un
cañón hacia el Este y el Oeste. ¿No era obvio que si la Tierra se movía la bala
que iba en el sentido del movimiento de la Tierra y la que iba en contra debían
alcanzar distancias diferentes? Pero las dos balas llegaron a la misma
distancia.
Este argumento había sido contestado ya por Copérnico, y mucho antes por
Nicolás de Oresme, pero para Tycho seguía siendo decisivo. Además, seguramente
podía argüir que, si bien la paralaje no era observable en tiempos de
Copérnico, si existía, no escaparía a su astronomía de precisión. Aquí Tycho se
equivocaba de medio a medio, ya que la paralaje estelar se observó, como ya
dije, recién en 1838 y con la ayuda de los ya desarrollados telescopios de esa
época; naturalmente, Tycho ni siquiera podía imaginar la astronomía telescópica
que estaba por sobrevenir en poquísimos años.
Pero la experiencia del cañón y la falta de paralaje lo convencieron de que la
Tierra estaba inmóvil y lo llevaron a rechazar el sistema copernicano. Tycho se
equivocaba, pero no actuaba de manera irracional ni atado a dogmas. Y es que
hasta que alguien resolviera el problema y explicara cómo podía ser que la
Tierra se moviera y no saliéramos todos (Tycho incluido) disparados por el
aire, el sistema copernicano no podría avanzar en forma decisiva hacia la
teoría de la gravitación universal.
«No podría avanzar»: aquí me dejo llevar por la narrativa y estoy mostrando la
evolución de la astronomía como una marcha pausada pero firme, y hasta
orgánica, desde el primer y gran intento de Copérnico hasta la teoría de la
gravitación universal de Newton…
Es que, de alguna manera, es así como se construyó el imaginario histórico de
la Revolución Científica, aunque ciertamente no es un buen reflejo de la
historia de las ideas científicas: la ciencia se movió, como siempre, en
zigzag, con avances y retrogradaciones, como los planetas, con esplendores y
estancamientos. La misma idea de que «avanzó» puede ser sospechosa, aunque creo
que, ya embarcados en la revolución astronómica, es lícito decirlo.
Un buen ejemplo es el sistema ticónico. En realidad, el sistema que esbozó
Tycho es intermedio entre el copernicano y el tolemaico, que tampoco aceptaba,
debido a las discrepancias en las observaciones, la inexistencia de las esferas
y la mutabilidad del cielo.
En 1587 y 1588 publicó una obra en dos volúmenes, Astronomiae
Instauratae Progymnasmata (Introducción a la nueva astronomía),
donde expuso su sistema: la Tierra está inmóvil en el centro del universo,
mientras la Luna, el Sol y las estrellas describen órbitas alrededor de ella.
Pero los planetas no: los cinco se mueven alrededor del Sol, y todo el conjunto
gira alrededor de la Tierra, rellenando el espacio que se extiende hasta la
esfera de las estrellas fijas, que para Tycho estaban a una distancia
equivalente a 14.000 veces el diámetro de la Tierra (unos 182 millones de
kilómetros). Este sistema no necesita epiciclos ni deferentes, y además suprime
la objeción de la falta de paralaje, ya que la Tierra está inmóvil. Por
supuesto, las órbitas, y esto es una innovación seria, no están asociadas a
nada material, ya que se cruzan y atraviesan todo el tiempo.
El sistema fue relativamente aceptado, probablemente más por quienes no querían
comprometerse demasiado con el copernicano y preferían una actitud astronómica
tibia, o neutral (en particular los jesuitas). Sin embargo, cuando Galileo
escribiera su trabajo sobre los grandes sistemas del mundo, ni siquiera lo
tomaría en cuenta.
También parece que Tycho (al igual que Copérnico en su momento) lo diseñó sin
tener demasiado en cuenta la enorme masa de sus propias observaciones
sistemáticas, en especial aquellas relacionadas con la órbita de Marte, que
resistían todos los intentos de adaptarse al círculo desde hacía siglos.
La órbita de Marte, la órbita de Marte…
Allí estaría la clave para la siguiente y rotunda gran modificación de la
astronomía.
El sistema de Tycho
§. Johannes Kepler
La vida de Kepler no fue tan cómoda como la de Tycho. Para nada cómoda, en
realidad. Aunque procedía de una familia que en otros tiempos había pertenecido
a la nobleza, su abuelo había sido un peletero que hacia 1520 se trasladó de
Nüremberg, su ciudad natal, a Weilderstadt, no lejos de Stuttgart, en el sur de
Alemania, donde tuvo éxito como artesano y llegó a ser alcalde. Llegar a dicho
cargo no tuvo poco mérito, dado que era un luterano que vivía en una ciudad
donde predominaban los católicos; su hijo mayor, Heinrich, el padre de nuestro
Kepler, fue un despilfarrador y un borracho cuyo único empleo duradero fue el
de soldado mercenario. Se casó joven con una mujer llamada Katharina, que tenía
una gran fe en los poderes curativos de los remedios caseros, como las hierbas
y otros parecidos, una creencia frecuente en aquella época (y más, dada la
ineficiencia de la medicina), pero que iba a dar como resultado finalmente su
encarcelamiento como sospechosa de brujería, lo cual causó no pocos dolores de
cabeza a su hijo, que tuvo que usar toda su influencia una y otra vez para
salvarla.
Johannes Kepler, que más tarde pondría orden en el sistema solar, nació el 29
de diciembre de 1571 y, cuando sólo contaba dos años de edad, su padre se
marchó a combatir en los Países Bajos y Katharina lo siguió, dejando al niño
con su abuelo. Sus padres regresaron en 1576 y la familia se trasladó a
Leonberg, en el ducado de Wurttemberg. Heinrich probó suerte en distintos
negocios, incluido regentear una taberna, actividad en la que perdió todo su
dinero. Entonces, volvió a engancharse como mercenario, se fue y no se volvió a
saber nada de él.
Johannes fue víctima de todo este ajetreo, cambiando de hogar y de escuela a
cada rato. Mientras estaba con su abuelo contrajo viruela, a consecuencia de la
cual su vista quedó afectada para el resto de su vida, condenándolo a no ser un
buen observador de los cielos. A la edad de 7 años fue admitido en una de las
nuevas escuelas latinas, fundadas para preparar a los funcionarios luteranos
que exigía la Reforma para la prestación de servicios dentro de la Iglesia o en
la administración del Estado; con el título de una de estas escuelas podía
presentarse a un examen para ser admitido en un seminario y prepararse para el
sacerdocio, que era el camino obvio y tradicional que tenía que seguir un joven
inteligente para salir de la pobreza.
Es posible que el interés de Kepler por la astronomía ya se hubiera despertado
cuando era sólo un niño y vio (en dos ocasiones diferentes) un brillante cometa
(el mismo que Tycho Brahe estudió en 1577) y un eclipse de Luna, aunque estas
cosas siempre se dicen a posteriori.
Lo que sí es seguro es que, a pesar de ser un joven enfermizo, demostró ser tan
prometedor académicamente que sus tutores se esforzaron en hacerlo ingresar a
la Universidad de Tubinga, donde iba a completar sus estudios de teología.
Aunque se estaba formando para llegar a ser sacerdote, entre las materias que
Kepler tuvo que estudiar estaban las matemáticas, la física y la astronomía, y
en todas ellas fue un alumno destacado. El catedrático de matemáticas de
aquella universidad era Michael Maestlin (1550-1631), quien explicó debidamente
a sus alumnos en las clases oficiales el sistema de Tolomeo, aprobado por la
Iglesia Reformada. Sin embargo, en privado, Maestlin expuso también el sistema
de Copérnico a un selecto grupo de alumnos, entre los que se encontraba Kepler.
Estas explicaciones seguramente impresionaron profundamente al joven y lo
inclinaron hacia Copérnico desde temprano. En realidad, bajo el influjo de
Maestlin se convirtió en uno de los astrónomos copernicanos más combativos
desde Rheticus.
¿Hubiera sido un buen pastor luterano? Afortunadamente, no lo sabremos nunca,
ya que en 1594, el año en que debía haber finalizado sus estudios de teología,
su vida cambió a causa de un fallecimiento que tuvo lugar lejos de allí, en la
bella ciudad austríaca de Graz, junto al río Mur (o por lo menos bella ahora…,
habría que ver si entonces no era una de esas inmundas ciudades medievales).
Porque resulta que en Graz había un seminario que mantenía estrechas relaciones
académicas con Tubinga y, al morirse el profesor de matemáticas, las
autoridades solicitaron a Tubinga un sustituto. Resultado: allí fue Kepler a
instalarse en Graz.
Graz pertenecía al Imperio, pero estaba ubicada en uno de los Estados donde la
influencia católica era dominante, cosa que le traería continuos problemas.
Aunque algunos de los príncipes locales eran más o menos tolerantes y permitían
cierta libertad de cultos, Graz era la capital de un pequeño estado llamado
Estiria y estaba gobernado por el archiduque Carlos, decidido a aplastar el
movimiento protestante (aunque en la época en que llegó Kepler se toleraban
todavía algunas excepciones, como el seminario luterano de Graz).
Kepler no disponía de recursos económicos procedentes de su familia y su
situación no mejoró cuando los miembros de la dirección del seminario
decidieron asignarle los tres cuartos del salario hasta que demostrara su
valía. Sin embargo, existía un trabajo mediante el cual podía ganar algo de
dinero y granjearse las simpatías de la alta sociedad de Graz: confeccionar
horóscopos, ocupación que usaría durante toda su vida como un medio para ganar
dinero. Hay quienes sostienen que Kepler no creía en los horóscopos y los
utilizaba por pura necesidad, y que en su correspondencia privada se refería a
los clientes denominándolos «imbéciles» y afirmando que la astrología era un
asunto «tonto y vacío», aunque eso puede ser una afirmación para engrandecerlo
a Kepler. Al fin y al cabo, hizo el horóscopo de su familia y de sus hijos, y
realmente la creencia en los horóscopos no desentonaba del todo con el
misticismo pitagórico y neoplatónico en que vivía envuelto.
De todos modos, la habilidad de un astrólogo es hacer «predicciones» mediante
generalidades ambiguas y decir a cada persona más o menos lo que desea oír. Un
buen ejemplo de la habilidad de Kepler en este arte es lo que hizo cuando le
encargaron un calendario del año 1595, en el que tenía que predecir los
acontecimientos importantes que se iban a producir durante aquel año venidero.
Entre las predicciones que tuvieron éxito cabe mencionar las rebeliones de los
campesinos de Estiria, las incursiones de los turcos en Austria desde el Este y
un invierno frío. Su habilidad para revestir con un galimatías astrológico
estas predicciones de sentido común no sólo consolidó su reputación en Graz,
sino que consiguió que su salario aumentase hasta el nivel correspondiente al
puesto que ocupaba.
§. El misterio del Universo
Fue precisamente en Graz donde tuvo una «iluminación» que de alguna manera
definiría su vida: se dio cuenta de que del mismo modo que sólo existen cinco
poliedros regulares, sólo existen seis planetas, y por lo tanto sólo cinco
espacios entre ellos. Y eso, para un buen místico pitagórico como él, no podía
ser obra del azar sino la huella de un dios geómetra que había construido el
mundo con los Elementos de Euclides en la mano.
La brillante idea que se le ocurrió a Kepler fue encajar estos poliedros regulares
imaginariamente, unos dentro de otros, de tal forma que en cada caso los
vértices de la figura interna tocaran la superficie de una esfera que rodeaba
el sólido, y que esta esfera, a su vez, tocara las caras internas de las
superficies de la siguiente figura que envolvía a esta esfera dentro del
conjunto de figuras anidadas. Teniendo en cuenta que se utilizaban cinco
sólidos euclídeos y una esfera dentro del sólido más interno, así como otra por
fuera del más externo, eran en total seis esferas —una por cada órbita
planetaria—. Situando el octaedro en el medio, rodeando al Sol e incluyendo en
su interior una esfera con la órbita de Mercurio, seguido de un icosaedro, un
dodecaedro, un tetraedro y un cubo, Kepler consiguió un espaciamiento entre las
distintas esferas que correspondía más o menos —con mucha buena voluntad— al
espaciamiento entre las órbitas que describen los planetas alrededor del Sol.
Desde ya era falso (aunque no podía saberlo, los planetas ni siquiera son seis)
y la construcción que intercala los poliedros entre los planetas suena hoy a un
disparate. Pero muchos científicos, aun los más grandes, se manejan a puros
golpes de intuición, que a veces lo único que logran es dejarlos en la
oscuridad y hacerles perder tiempo.
La coincidencia no pasaba de ser aproximada y no era más que un delirio
pitagórico sin sustento, pero cuando se le ocurrió la idea le pareció una
especie de revelación divina. Un poco contradictoria, si se quiere, ya que
estaba basada en el sistema copernicano, no aceptado por la Iglesia Reformada,
pero ya se sabe que una revelación es una revelación.
El Mysterium Cosmographicum
Kepler pasó el invierno de 1595-1596 desarrollando su engendro con todo
detalle y mantuvo correspondencia al respecto con su antiguo maestro Michael
Maestlin. A principios de 1596, se le concedió un permiso que lo liberaba
temporariamente de su trabajo como profesor para ir a ver a sus abuelos
enfermos y aprovechó la oportunidad para visitar a Maestlin en Tubinga, que lo
animó a desarrollar sus teorías en un libro y supervisó la impresión de esta
obra, que se publicó en 1597, poco después de que Kepler volviera a retomar sus
funciones en Graz.
El libro se conoce en general con el título Mysterium Cosmographicum (El
misterio del cosmos) y aparte de sus juegos poliédricos y varios otros sin
mucho sentido (como la música de las esferas, que llega a poner en notación
musical), adelanta una idea que usaría fructíferamente más tarde: recogiendo la
afirmación de Copérnico según la cual los planetas se mueven en sus órbitas más
lentamente cuanto más lejos se encuentran del Sol, sugirió que se mantenían en
sus órbitas por efecto de una fuerza que llamó «vigor» o anima motrix,
procedente del Sol, que los impulsaba en su trayectoria y que disminuía con la
distancia al Sol, por lo que haría que los planetas más distantes se movieran
más lentamente.
Mi propósito… es demostrar que la máquina del universo no es como un ser
animado por la Divinidad, sino como un reloj,
aseguraba. Kepler envió copias de su libro a los astrónomos y
científicos más grandes de su tiempo, entre los cuales cabe mencionar a
Galileo. Bueno, en realidad no se lo envió directamente a Galileo, que por ese
entonces distaba mucho de ser «uno de los científicos más grandes de su
tiempo», sino que hizo circular copias, recomendando que se hicieran llegar a
científicos distinguidos. Así llegó a manos de Galileo, que no se molestó en
enviar comentario alguno como respuesta, salvo unas frases formales, pero
mencionó el modelo en sus clases magistrales. Por otra parte, no es de
extrañar, ya que a Galileo le habrá parecido un libro puramente místico, en una
línea completamente opuesta a la que él estaba trabajando y que tanto resultado
le daría.
Pero —y éste es el punto fuerte— sí le contestó Tycho Brahe, mucho más sensible
a ese tipo de especulaciones, quien quedó impresionado por las habilidades
matemáticas del autor del libro, aunque la idea de un universo centrado en el
Sol era todavía anatema para él. De hecho, Tycho Brahe estaba tan impresionado
que le planteó la posibilidad de unirse al equipo de ayudantes que trabajaba
con él, cosa que sólo se realizaría unos años más tarde, pero que sería un
momento decisivo para Kepler.
En 1597, se casó con Bárbara Müller, una joven viuda, hija de un rico
comerciante, lo cual fortaleció su posición económica, pero mientras tanto, la
situación política se iba deteriorando en Estiria: en diciembre de 1596, el
archiduque Fernando, que era un católico ferviente, se había hecho con el
gobierno de este pequeño estado, y decidido como estaba a que su dominio
volviera al catolicismo, había comenzado con las presiones sobre los
protestantes. En septiembre de 1597 se hizo público un edicto en el que se
conminaba a todos los maestros y teólogos protestantes a abandonar el Estado en
un plazo de dos semanas o a convertirse al catolicismo.
No había más remedio que obedecer y Kepler fue uno de los muchos luteranos
expulsados que se refugiaron en los estados vecinos, aunque a él se le permitió
volver, seguramente debido a su creciente prestigio como matemático. No
obstante, las severas condiciones bajo las cuales tuvo que vivir a partir de
aquel momento le hicieron pensar en mudarse, especialmente en 1599, cuando la
situación llegó a ser intolerable. Por entonces Tycho Brahe estaba en pleno
proceso de instalarse a unos 320 kilómetros de distancia, cerca de Praga, en un
lugar en que las personas tenían libertad para practicar los cultos religiosos
a su propia manera, y Kepler accedió a él a través del barón Hoffman, un noble
de Estiria (que estaba impresionado por la obra de Kepler y había conocido a
Tycho Brahe), y gestionó el primer encuentro entre ambos. Aunque la intención
de Kepler había sido realizar una breve visita (había dejado a su esposa y a su
hijastra en Graz y no había presentado su renuncia al cargo que tenía allí), la
convirtió en una larga estancia.
Kepler, que carecía por completo de dinero, necesitaba desesperadamente un
puesto oficial con su correspondiente retribución para poder trabajar con
Tycho, que había estado negociando con el emperador Rodolfo justamente para
conseguirle ese cargo oficial. Al mismo tiempo, en el verano de 1600, cuando se
exigió a todos los ciudadanos de Graz que no eran todavía católicos que cambiaran
de religión inmediatamente, Kepler se negó, por lo que fue cesado en sus cargos
y «beneficiado» con un período de seis semanas y tres días para marcharse del
Estado. Kepler escribió a los dos únicos buenos contactos que tenía, Michael
Maestlin y Tycho Brahe, pidiéndoles ayuda. La respuesta de Tycho Brahe llegó
inmediatamente, asegurándole que las negociaciones con el emperador marchaban
bien y urgiéndole a que se pusiera inmediatamente en camino hacia Praga, con su
familia y con los bienes que le permitieran llevarse.
La cosa es que, después de una breve estancia en Praga, en febrero de 1601 los
Kepler se mudaron con la familia de Tycho y, tras algunos escarceos, por fin
Kepler fue presentado formalmente al emperador, que lo nombró ayudante oficial
(¡y remunerado!) de Tycho, con el cometido de recopilar una nueva serie de
tablas de posiciones planetarias, que se llamarían Tablas Rudolfinas,
en honor del emperador.
§. Kepler hereda el cielo de Tycho
Por fin había quedado regularizada la posición de Kepler, aunque las relaciones
con Tycho distaban de ser armoniosas: el flamante ayudante se quejaba de que su
maestro le suministraba sus datos en una especie de gota a gota, sólo cuando
consideraba que Kepler los necesitaba, sin permitirle nunca el libre acceso a
toda aquella información. Difícilmente se puede hablar de una relación estrecha
y amistosa.
Pero, al cabo de poco tiempo, el 13 de octubre, después de la comilona que
mencionamos, Tycho cayó enfermo. Tras diez días al borde de la muerte,
delirando frecuentemente y de tal forma que se le oyó gritar en más de una
ocasión que tenía la esperanza de que no pareciera que había vivido en vano, su
mente se volvió lúcida de repente la mañana del 24 de octubre. Esa mañana, le
encomendó a Kepler la tarea de terminar las Tablas Rudolfinas y
lo designó como responsable de preservar el enorme tesoro de datos relativos a
los planetas —aunque también lo urgió a que los utilizara para demostrar que el
modelo del mundo que él había construido era el verdadero, y no el de
Copérnico—.
Tycho murió poco después de haber confiado el legado de la obra de su vida al
asombrado Kepler, que sólo unas semanas antes no había sido más que un
refugiado sin un centavo, y cuyo asombro no fue menor cuando, un par de semanas
más tarde, fue nombrado sucesor de Tycho Brahe como matemático imperial de la
corte de Rodolfo II, lo cual implicaba que sería el único responsable de todos
los instrumentos de Tycho y también de su obra no publicada.
Durante los años que Kepler pasó en Praga, su trabajo se vería obstaculizado
por muchos factores. Sufrió continuas dificultades financieras; hubo
interferencias de los herederos de Tycho Brahe, que estaban ansiosos por ver
impresas las Tablas Rudolfinas y otras publicaciones póstumas
(sobre todo por la esperanza de conseguir dinero gracias a los libros) y además
estaban las funciones que tenía que desempeñar como matemático imperial (lo
cual significaba ser el astrólogo imperial), que le hacían perder gran parte de
su tiempo en la tarea de aconsejar al emperador Rodolfo sobre el significado de
los prodigios cósmicos en relación con esto y aquello, desde las perspectivas
de guerra con los turcos, las malas cosechas o el desarrollo de los conflictos
religiosos. Encima, los cálculos eran pesados y laboriosos en un mundo, para
nosotros, inimaginable, sin calculadoras de bolsillo o computadoras.
§. La órbita de Marte: contra el círculo
No es sorprendente que fuera tan trabajoso establecer la órbita de Marte,
desafío que se arrastraba desde Tolomeo, y que nadie había podido resolver con
precisión (la verdad de la milanesa es que su excentricidad —que mide cuánto se
aparta del círculo— era grande, y es lógico que presentara problemas).
En primer lugar, Kepler intentó una solución tolemaica (y copernicana, para qué
vamos a ocultarlo): exploró la posibilidad de una órbita descentrada, aunque
estrictamente circular, de tal modo que Marte se encontraba en una mitad de su
órbita más cerca del Sol que en la otra mitad. Dado que el movimiento de los
planetas era impulsado por el Sol, por medio de ese «vigor», que actuaba más
poderosamente cuanto más cerca estuviera el planeta de él, era perfectamente
aceptable que Marte se moviera con mayor velocidad en una parte de su órbita
que en otra: estaba levantando así la exigencia de movimiento uniforme (cosa
que hubiera horrorizado a Copérnico), lo que lo llevó a formular la ley de las
áreas (que quedaría como su segunda ley): el radio vector que une un planeta y
el Sol barre áreas iguales en tiempos iguales.
Kepler encaró entonces la tarea de determinar la órbita de manera exacta con
los datos precisos de Tycho. Pero cuando tras interminables cálculos llegó a
una conclusión, hete aquí que encontró un par de observaciones que no encajaban
con las esferas de Copérnico. La diferencia era poca (ocho minutos de arco),
error que Copérnico hubiera aceptado. Pero Kepler no estaba dispuesto a
ignorarlo:
Esta diferencia es menor que la incertidumbre de las observaciones de
Tolomeo, la cual era por lo menos de diez minutos, según las declaraciones de
dicho astrónomo. Pero la bondad divina nos presentó en Tycho Brahe a un
observador muy exacto; estos ocho minutos que ya no se pueden despreciar me han
puesto en el camino para reformar toda la astronomía.
¿Y entonces? Y entonces, al encontrar una discrepancia para él imposible
de remontar entre la observación y la teoría, rechazó la teoría y decidió
probar con órbitas no circulares. Era una idea de una audacia terrible y
seguramente inédita: el círculo era la forma perfecta, el símbolo de la
divinidad, el centro de la cosmogonía, era la figura ideal para mantener en
marcha los cielos. Enfrentar al círculo era como enfrentarse a un dios, o
quizás aún peor (a veces pienso que la naturaleza imaginativa y propensa a lo
místico y lo fantástico de Kepler, como lo probaba el constructo de los
poliedros, lo ayudó en semejante decisión filosófica y epistemológica).
Y si no era un círculo: ¿qué podía ser? Kepler fue gradual y tanteó: probó con
un círculo estirado (un óvalo) y cotejó dificultosamente las observaciones.
La supernova de Kepler
Así como Tychohabía tenido la fortuna de observar en 1572 una supernova,
Kepler, aunque másno fuera por lo que había ya hecho, sino por lo que haría,
merecía tener lasuya y la tuvo: el 9 de octubre de 1604 otra bomba de luz
estalló en laconstelación de Ofiuco. Aparentemente, llegó a ser casi tan
brillante como lade Tycho, y tardó más de un año en desaparecer. Kepler trató
de encontrar suparalaje, pero no tuvo éxito: nuevamente quedaba en claro que
esas «cosas»formaban parte del mundo de las estrellas. Nuevamente, un golpe a
los cielosinmutables. Al igual que en los casos anteriores, la astronomía
moderna logróencontrar el lugar exacto y los restos de la supernova de Kepler.
Quizá vale lapena notar una cosa que muestra cómo es la marcha de la ciencia:
Kepler nodudó en deducir de la falta de paralaje de la supernova (él
naturalmente nosabía que lo era), su pertenencia al mundo de las estrellas,
pero ignoró elproblema de la falta de paralaje que ensombrecía el sistema
copernicano, yque se despachaba con el argumento (que muy bien podía
considerarse entoncesad hoc) de las Revoluciones: las estrellas estaban muy
lejos.
En 1603, escribió que si la forma de la órbita fuera una elipse perfecta,
podrían encontrarse todas las respuestas en Arquímedes y Apolonio. Un año y
medio más tarde suponía que la verdadera forma estaba entre la oval y la
circular, algo intermedio, exactamente como si la órbita de Marte fuera una
elipse perfecta.
Finalmente, tras estrellarse una y otra vez contra el óvalo, encontró una
fórmula que determinaba la distancia. Y entonces vio que la fórmula
correspondía a una elipse.
Oh, qué estúpido he sido,
escribió.
Cuando reemplazó los óvalos por elipses, todos los datos se acomodaron.
Hay que tener en cuenta el esfuerzo intelectual que significaba pensar en una
elipse. Un círculo puede girar sobre sí mismo, y permanecerá siempre idéntico.
Copérnico creía que una esfera naturalmente tendería a girar y mantendría ese
movimiento circular. Pero con una elipse no hay manera: la elipse no goza de
las simetrías perfectas del círculo. Sin embargo, gracias a Kepler, la segunda
cónica de Apolonio hizo su entrada triunfal en el mundo astronómico.
En 1609 publicó su obra maestra, Astronomía nueva, donde se enuncia
su primera ley, que reemplaza las órbitas circulares por órbitas elípticas con
el Sol en uno de los focos:
Los planetas se mueven en torno del Sol siguiendo elipses y el Sol ocupa
uno de los focos.
Era el fin del mandato de Platón: la circunferencia (o la esfera) era
una cerradura demasiado estrecha, un
instrumento muy grueso como para mirar la realidad. Kepler forzó de una vez por
todas esa cerradura y destruyó el mandato que había respetado Copérnico, ¡y
respetaría el mismísimo Galileo!
Kepler y sus elipses no tienen precursores. Nadie antes había sospechado
siquiera nada así (aunque Tycho, parece, deslizó que la órbita del cometa de
1575 podía ser ovalada, y también parece —aunque no es seguro— que un tal
Arzaquel de Toledo —1029-1087— sugirió la idea de las órbitas elípticas, aunque
basándose en datos totalmente equivocados; de todos modos, Kepler no pudo tener
noticias de él).
La primera y la segunda leyes de Kepler, junto a la tercera, que enunció recién
en 1619 y que dice que los cuadrados de los períodos de los planetas son
proporcionales a los cubos de los ejes mayores de las respectivas órbitas
(relacionando así las distancias con los tiempos de revolución), completan el
sistema de Copérnico enunciado cincuenta años antes y lo dotan de elegancia y
simplicidad. Ya no hace falta recurrir a epiciclos y otras antiguallas, ni al
asqueroso «sol medio» para hacer encajar en círculos, a la fuerza, órbitas que
en realidad eran elípticas. Y además —esto hay que decirlo— la tercera ley
permite deducir la ley de gravitación universal de una manera elegantísima,
aunque un poco complicada para ponerla aquí. También las dos primeras lo
permiten, como demostrará Newton.
La primera y la segunda leyes de Kepler
Y bueno. Ya estaba en orden el sistema solar. Faltaba averiguar qué lo
mantenía en orden y movimiento. Y ahora no había vuelta que darle: no podía
haber primum mobile, puesto que de las esferas no quedaba nada; ya
eran planetas sueltos en el espacio que se movían alrededor del Sol y encima
sobre elipses. Si había algún motor allí, ese motor tenía que aplicarse sobre
los planetas mismos.
En Francia, Descartes inventaría una teoría según la cual todo el movimiento
del mundo estaba sostenido por torbellinos de materia sutil, que entre otras
cosas movían a los planetas y construiría sobre esa base una especie de física
cualitativa, incapaz de predecir nada, dicho sea de paso, pero que tendría
éxito en Francia debido al enorme prestigio de su autor. Pero no era para nada
convincente.
§. El anima motrix
Kepler, por su parte, le había dado vueltas al asunto, y en 1628 publicó un
libro de astronomía copernicana donde reflotaba una idea que aparecía ya en
su Misterium Cosmographicum: hay una fuerza motriz, un anima
motrix que emana del Sol y, al girar éste, actúa sobre los planetas,
una fuerza de tipo magnético que «barre» los planetas, lateralmente, y los
empuja hacia el costado, evitando así la tendencia natural de los cuerpos al
reposo. Aquí Kepler interpretaba el movimiento como un proceso transitorio que
lleva inevitablemente al reposo: le faltaba la ley de inercia que formularía
Galileo unos años más tarde.
Kepler describía esta fuerza como «nervios» o «tientos» que salen del Sol, que
gira sobre sí mismo, y actúan solamente en el plano de la eclíptica (donde se
ubican las órbitas planetarias), formando una especie de remolino aplanado y
por lo tanto disminuyendo en forma inversamente proporcional a la distancia, y
no al cuadrado de la distancia, como había pensado al principio, dada la
afinidad que veía con la propagación de la luz. Estos tientos empujaban
lateralmente a los planetas sobre una órbita circular.
Era, si se quiere, una fuerza ad hoc, muy diferente de todo y que
además obligaba a justificar por qué las órbitas eran elípticas (cuando
el anima motrix imponía la circularidad). Pero a Kepler no se
le ocurrió otra cosa. Ahí a nuestro gran astrónomo se le deslizó cierto residuo
platónico, que él mismo había combatido y destruido. No sólo por eso era poco
satisfactorio: nadie podía explicar la naturaleza de esa fuerza, ni las
observaciones coincidían con los «tientos», que más bien parecían las bridas de
los carros de los caballos del Sol.
Los círculos, que se resistían a morir, no se observaban de hecho: para que la
trayectoria fuera efectivamente una elipse, tal como lo había calculado, Kepler
agregó otra fuerza, una fuerza magnética, tomada de los estudios que William Gilbert
había hecho sobre el magnetismo. Gilbert consideraba que los planetas eran
gigantescos imanes, y Kepler utilizó esas fuerzas magnéticas, de atracción y
rechazo entre los planetas y el Sol, que deformaban las órbitas circulares y
las volvían elípticas. Así, Kepler completaba su sistema matemático y lo
transformaba también en un sistema físico.
La obra de Kepler no fue apreciada como merecía, pese a ser uno de los
astrónomos más famosos de Europa (era el astrónomo imperial, al fin de
cuentas). Y quizá no fue aceptada como merecía porque sus tres leyes luminosas
estaban escondidas, cuando no enterradas, dentro de parvas de especulaciones
esotéricas sobre la música de las esferas, y las relaciones pitagóricas entre
los planetas y las notas musicales, y además, porque se lo veía,
principalmente, y no obstante su fama, como un fabricante de horóscopos y un
fantasioso especulador sobre ideas que eran rechazadas por la naciente
filosofía mecánica. Galileo nunca consideró las órbitas elípticas, de hecho.
Aunque Newton, en su gran síntesis, lo citaría abundantemente.
Pero las Tablas Rudolfinas, que publicó en 1627, habían sido
calculadas tomando en cuenta las tres leyes, eran las más exactas jamás
producidas y fueron usadas durante más de un siglo como referencia inevitable.
A partir de esas tablas, todos los astrónomos, de alguna manera, estaban
aceptando la astronomía kepleriana.
Las tres leyes y la concepción del sistema solar como un sistema que tiene en
el Sol su centro matemático —ya que ocupa uno de los focos de las elipses
planetarias— y físico —ya que del Sol emana la fuerza motriz— jugaron un papel
importante en el desarrollo de las ideas que encaminarían la Revolución
Científica hacia una síntesis astronómica.
Perseguido por el fanatismo protestante y católico, siguió ejerciendo la
profesión bastante remunerativa de astrólogo hasta su muerte en 1630.
Tres años antes de que empezara el gran conflicto de Galileo con la Iglesia.
Capítulo 15
Galileo
No sé si es exacto, pero si no lo es, por ahí anda: creo que uno podría
decir que así como la ciencia en general arranca con Tales de Mileto y su
decisión de no darles papel alguno a los dioses en la explicación de los
fenómenos naturales, la ciencia moderna empieza con Galileo Galilei y su
decisión tajante de separar cualquier interferencia teológica del estudio de la
naturaleza.
Es cierto que hay una tradición detrás que no es para nada despreciable: sin ir
más lejos, ya Copérnico había descentrado a la Tierra y con ese descentramiento
había desencadenado una serie de cambios fenomenales en la cosmovisión
occidental, que culminarían con una de las más grandes hazañas del pensamiento
humano: el libro de Newton Los Principios matemáticos de la filosofía
natural (hacia donde nos estamos dirigiendo), que se seguiría casi al
pie de la letra durante los dos siglos siguientes, y su ley de gravitación
universal que no sólo unificó de golpe el universo bajo una ciencia única, sino
que le dio a esa ciencia única un programa completo.
Pero Copérnico fue y siguió siendo, más allá de su genio extraordinario y
valeroso, un hombre del Renacimiento, un neoplatónico y pitagórico, con cierta
ligera condescendencia renacentista con el hermetismo (muy poca, en verdad);
Tycho, que tenía una actitud más de avanzada con la ciencia experimental (que
no otra cosa era su astronomía de precisión) y que había realizado un
importantísimo trabajo al demoler las esferas de cristal, seguía siendo un
devoto de la tradición aristotélica, a pesar del diseño poco aristotélico de su
sistema; Kepler era un místico pitagórico que buscaba en el universo las
antiguas armonías musicales, aunque sin quererlo las destruyó con sus tres
leyes, pero Galileo….
Galileo, por el contrario, es plenamente moderno. Su teoría del conocimiento,
su modo de experimentar, su epistemología, su enfrentamiento con la tradición
(que lo condujo a su tragedia con la Iglesia) son la
modernidad, constituyen plenamente aquello que hoy consideramos que es la
ciencia. Aunque la historia de la ciencia no es una competencia por ver quién
es más moderno, una historia de las ideas científicas tiene que mostrar esas
tendencias.
La ciencia autónoma, la ciencia independiente de los dogmas y de la fe, la
ciencia perfectible y siempre sujeta a revisión, la ciencia provisoria y hasta
la interpretación realista de los modelos científicos surgen de Galileo. Es
justo, por eso, que hablemos de él con cierto detalle.
§. Vida de Galileo
Nació en Pisa el 15 de febrero de 1564, el mismo año que William Shakespeare,
el mismo mes en que murió Miguel Ángel, y a pocos años de que la Iglesia
desatara, o intensificara, mejor dicho, su ofensiva de la Contrarreforma. Su
familia tenía buenos contactos y una posición respetable dentro de la sociedad,
pero siempre sería un problema para ellos encontrar el dinero necesario para
mantener el «estatus», y, de hecho, durante buena parte de su vida Galileo
tendría una y otra vez problemas económicos.
El padre de Galileo, Vincenzo Galilei, que había nacido en Florencia en 1520,
fue un excelente músico profesional, profundamente interesado por la teoría de
la música, a tal punto que algunas de sus obras se siguen ejecutando (si
quieren escuchar algunas de sus composiciones, pongan «Vincenzo Galilei» en
Youtube), aunque quizás se deba a la fama universal de su hijo más que al
mérito propio. Se había casado en 1562 con una joven llamada Giulia, y Galileo
fue el mayor de sus siete hijos, de los cuales tres murieron en la infancia.
Vincenzo, que tenía montado un buen sistema de relaciones sociales, llegó a ser
músico de la Corte de Toscana y desde allí, entró en contacto con duques y
príncipes de Florencia, que era entonces el centro intelectual (y artístico) de
la Italia renacentista, una especie de nueva Atenas brillante y colorida,
aunque oscurecida por las guerras y las persecuciones religiosas, siempre
siniestras.
Hasta los 11 años, Galileo fue educado por su padre en su propio hogar, se
convirtió en un músico excelente por derecho propio, y durante toda su vida
tocó (sobre todo el laúd) únicamente por placer. Aunque sin embargo, y déjenme
especular un poco, esta cualidad musical pudo haberlo ayudado en sus
posteriores experimentos científicos, ya que un oído finísimamente entrenado lo
pudo ayudar a medir pequeños intervalos de tiempo.
Tras un breve paso por un monasterio, su educación se completó también en su
casa, hasta que Vincenzo decidió que la profesión adecuada para su hijo era la
de médico. De este modo, en 1581, a los 17 años de edad, Galileo se matriculó
como estudiante de medicina en la Universidad de Pisa, donde no fue un
estudiante especialmente pacífico, y desde muy temprano ejercitó su espíritu
polémico. Se hizo famoso entre los estudiantes, que le dieron como apodo «el
pendenciero», y no era un apodo mal puesto, por cierto.
Pero afortunadamente, la medicina no era cosa para él: a principios de 1583, su
vida tomó un nuevo rumbo, ya que entró en contacto con Ostilio Ricci, el
matemático de la Corte, que lo inclinó en forma permanente hacia las
matemáticas e incluso intercedió para que Vincenzo le permitiera cambiar sus
estudios de medicina por aquello que más le interesaba.
Vincenzo se negó, pero Galileo no le hizo caso: continuó estudiando
matemáticas, ignorando ampliamente los estudios de medicina. Así que cuando se
fue de Pisa en 1585, no era ni médico ni nada: y así fue como, no teniendo un
miserable título, volvió a Florencia y tuvo que intentar ganarse la vida a
duras penas como profesor particular de matemáticas y filosofía natural.
§. Pisa: ¿nos perdimos un buen médico?
No lo sabemos, aunque «un buen médico» de la época es una expresión dudosa. El
asunto es que como no tenía medios económicos propios, o los que tenía eran
insuficientes, hizo algo típicamente renacentista: buscar un mecenas
influyente, que fue el marqués Guidobaldo del Monte, un aristócrata que había
escrito un libro importante sobre mecánica, estaba profundamente interesado por
la ciencia, y que consiguió que, en 1589, sólo cuatro años después de haber
abandonado la Universidad de Pisa con una mano atrás y otra adelante, Galileo
volviera a esa misma universidad como catedrático de matemáticas, con un
contrato de tres años, lo cual muestra algunos aspectos de la política
universitaria del siglo XVI. No es que Galileo no se mereciera el cargo, desde
ya, pero que se lo merecía es ciertamente una apreciación a posteriori.
Por supuesto, no había nada parecido a los concursos.
En realidad, se trataba sólo de un primer paso modesto en su carrera académica
y mal pago por añadidura, de tal modo que se veía obligado a completar sus
ingresos aceptando estudiantes que vivían con él y tenían la ventaja de
disfrutar de sus enseñanzas y su influencia más o menos a tiempo completo, no
sólo en las horas de clase. No era un procedimiento raro en la época, pero como
no era accesible a todo el mundo, sólo los hijos de los ricos y los poderosos
podían pagar este tipo de enseñanza. Lo cual tenía un «efecto colateral»
beneficioso para el profesor: cuando estos jóvenes terminaban sus estudios y
volvían a sus casas, la fama de Galileo se extendía precisamente en aquellos
círculos en que a él lo beneficiaba más ser famoso, en una época de mecenazgo y
en la que la protección de los poderosos era crucial.
§. Padua
Así y todo, la situación económica de Galileo llegó a ser acuciante en 1591,
cuando falleció Vincenzo, que lejos de dejar alguna herencia sustancial a sus
hijos, sólo dejó deudas. Galileo, que era el mayor de los hijos, quedó como
jefe de familia y debió ponerse a buscar otro cargo mejor remunerado. Por eso,
le echó el ojo a la cátedra de matemáticas de la Universidad de Padua. Además
de ser un empleo más prestigioso, Padua formaba parte de la República de
Venecia, un Estado rico y lo suficientemente poderoso como para no estar
sometido a la tutela teológica y política de Roma.
Galileo se movió para conseguir el puesto, visitó la propia Corte veneciana,
donde recibió el apoyo del embajador de Toscana y de sus amigos poderosos y
prominentes en la República y al final consiguió el empleo, inicialmente por
cuatro años y con un salario de 180 coronas al año. Con el permiso del Gran
Duque de Toscana, Galileo aceptó este nuevo empleo en octubre de 1592, cuando
tenía 28 años de edad. Era un nombramiento por cuatro años con opción a dos
más; es de suponer que ni el mismo Galileo imaginó que se iba a quedar en Padua
dieciocho años, y que allí iba a cimentar buena parte de su obra científica.
Empezó con un tratado muy renacentista —esa mezcla de sabiduría práctica y
teoría ingenieril—sobre fortificaciones, importante para la república de
Venecia, y luego con un libro de mecánica, basado en las clases que estaba
impartiendo en la universidad, donde, como rasgo interesante, explicó
claramente cómo funcionan los sistemas de poleas.
También la vida social e intelectual de Galileo floreció en Padua,
desarrollándose en torno a nuevos conocidos, entre los cuales estaba Paolo
Sarpi, que fue su íntimo amigo, y también llegó a conocer a Roberto Bellarmino.
En 1604, la República de Venecia había omitido consultar al Papado sobre la
abolición de la ley de exención del clero de la jurisdicción civil y había
decidido excluir a la Iglesia del derecho de poseer bienes inmuebles. En la
disputa entre la Santa Sede y la República, Sarpi fue el apasionado defensor de
esta última: era un católico tan poco ortodoxo que, más tarde, algunos de sus
opositores llegarían a sospechar que era un protestante encubierto (y pagaría
por ello: de hecho, sobrevivió a un intento de asesinato). Bellarmino, por su
parte, era una figura destacada de la Iglesia oficial, un jesuita, teólogo e
intelectual que había desempeñado un papel importante en el infame
procesamiento de Giordano Bruno por herejía, férreo sostenedor de la supremacía
papal sobre los poderes temporales, y gran defensor de la Contrarreforma, esa
especie de cruzada que llevó adelante el Papado contra el protestantismo.
Retengan el nombre de Bellarmino porque, como veremos en el próximo capítulo,
desempeñará un rol protagónico en el primer proceso a Galileo.
Lo cierto es que a nuestro amigo no le alcanzaba con moverse en círculos
influyentes y seguía estando constantemente preocupado por el dinero, entre
otras cosas porque era un bon vivant a quien simplemente le
gustaba disfrutar de buenos vinos y buena comida, e invitar a sus amigos
generosamente siempre que pudiera. Por eso, trató de ganar algo de plata
mediante algún invento práctico que pudiera comercializar. Entre sus ideas de los
primeros tiempos estuvo el termoscopio, una especie de termómetro primitivo, y
también el «compás», un instrumento de metal graduado que se podía utilizar
como calculadora.
Pero sus compromisos se multiplicaban porque, además de todo, comenzó una
relación estable con Marina Gamba, una mujer paduana. Como Marina pertenecía a
una clase social más baja, nunca se casaron (y ni siquiera convivieron), aunque
la relación era pública y tuvieron tres hijos: dos hijas nacidas en 1600 y
1601, y un hijo que nació en 1606, llamado Vincenzo igual que su abuelo, y que
fue reconocido posteriormente de manera legal por Galileo como heredero suyo.
Con respecto a las hijas, decidió que su destino fuera hacerse monjas, una
decisión no muy generosa, digamos, que pudo deberse tanto a que Galileo quería
que sus hijas se ocuparan de él, como al deseo de evitar problemas con dotes de
casamiento que, en el caso de sus hermanas, le habían dado muchos dolores de
cabeza.
También fue en Padua donde contrajo (o se manifestó por primera vez) una
enfermedad que iba a afectarle durante el resto de su vida, una especie de
artritis (aunque imagínense que los diagnósticos de entonces no son muy de
fiar) que le produjo repetidos ataques que lo obligaban a guardar cama durante
varias semanas seguidas.
Lo cierto es que a los 40 años de edad, Galileo se había hecho ya una más que
aceptable reputación como experto en filosofía natural y matemáticas,
proporcionando beneficios prácticos al Estado veneciano, y llevaba una vida
plena y feliz en Padua.
§. El problema del movimiento
Pero eso no fue todo, obviamente: lo más importante es que en Padua inició la
línea de pensamiento e investigación sistemática que sería el centro de su vida
científica; allí llevó a cabo sus famosos experimentos con péndulos y también
con esferas que descendían rodando por planos inclinados.
Y fue en Padua donde resolvió, de una vez por todas, el problema del movimiento
que se arrastraba desde hacía dos mil años. Abandonemos por unos momentos la
vida de Galileo, demoremos su viaje a Florencia (que de todos modos fue mucho
más tarde) para ocupar el cargo de Primer Matemático de la Universidad de Pisa y
Primer Matemático y Primer Filósofo del gran duque de Toscana y veamos cómo
empezó a revolucionar la historia del pensamiento a partir de su estudio del
movimiento.
Aunque recién publicó sus resultados en 1638, en los Discorsi e
dimostrazioni matematiche intorno a due nuove scienze, fue en la época
de Padua cuando Galileo resolvió el problema del movimiento contra el que
tantos se habían estrellado durante dos mil años.
Decir que se habían estrellado es demasiado; en realidad, cada uno lo había
resuelto a su manera, sorteando los escollos y las contradicciones como se
pudiera y con plena conciencia, a veces, de la insuficiencia de las
explicaciones.
Recordemos un poco qué era lo que se estaba discutiendo acerca del movimiento
antes de que Galileo viniera a desbrozar el terreno. Aristóteles había
establecido su teoría, que podríamos resumir en unos pocos puntos:
1.
No hay movimiento sin motor.
2.
El movimiento es un proceso transitorio de
restauración del orden.
3.
El movimiento es una propiedad del cuerpo, por lo
tanto, dos cualidades opuestas, como el movimiento «violento» y el «natural» no
pueden mezclarse porque se destruirían entre sí.
4.
Hay un primer motor que arrastra a los cielos.
5.
El movimiento es una propiedad absoluta de los
cuerpos. Movimiento y reposo son cualidades completamente diferentes.
6.
El movimiento en el vacío es imposible.
7.
El movimiento de caída vertical es acelerado por la
atracción del lugar natural, que hace que el cuerpo se apresure en llegar a él.
8.
El movimiento de los cielos es natural, circular y
eterno.
Todas estas proposiciones ya habían cedido bastante terreno frente a la
teoría del impetus de Jean Buridan (s. XIV), que se enseñaba
como «la física de la universidad de París» en muchos lados aunque distaba de
ser universal: el propio Galileo, aunque partidario en su juventud de la teoría
del impetus, se veía obligado a enseñar en sus clases la mecánica
aristotélica.
Los físicos del impetus negaban que los enunciados de
Aristóteles fueran verdaderos y decían que el gran filósofo no había entendido
nada de nada sobre el movimiento.
Sostenían que:
1.
La fuerza motriz le imprime al móvil un anima
motrix, o impetus, que pertenece al cuerpo, y que lo mantiene en movimiento
hasta que, por una u otra razón, se gasta (del mismo modo que se gasta el
calor), y el móvil cae a Tierra. No había acuerdo sobre la naturaleza de ese
impetus, que Buridan cuantificaba como «la cantidad de materia por la
velocidad».
2.
Los móviles en caída libre no se mueven por
atracción de su lugar natural, sino que se aceleran por el empuje de impetus
sucesivos que les confiere su propio peso.
3.
El medio no juega ningún papel en el mantenimiento
del movimiento, sólo lo retrasa.
4.
Es perfectamente posible el movimiento en el vacío,
ya que la velocidad del móvil está signada por el impetus impreso, y retrasada,
pero no dividida por la resistencia del medio. En el caso del vacío, la
resistencia sería cero y, si dividiera en lugar de simplemente retrasar, el
móvil se movería con velocidad infinita, y estaría en varios lugares al mismo
tiempo, que era el argumento que esgrimía Aristóteles para rechazar el vacío.
Los físicos del impetus, en especial Alberto de Sajonia,
habían especulado con una especie de «impetus mixto», que
intervenía en el movimiento de los proyectiles y actuaba como bisagra entre el
movimiento natural y el violento. Tartaglia, por su parte, había admitido que
la trayectoria de los proyectiles «tenía una inclinación circular», pero sin reconocer
la curva que describían, ni recibir demasiada atención.
El que más lejos llegó, recuerden, fue Gianbattista Benedetti quien sostuvo que
«todos los cuerpos de naturaleza homogénea» (esto es, de igual peso específico)
caen con la misma velocidad. Benedetti fue tan lejos como podía ir; en realidad
se detuvo en la mismísima frontera, aferrado a la idea del impetus,
que fue el lastre que le impidió dar el paso que lo hubiera colocado plenamente
dentro de la ciencia moderna. Pero escribió un tratado sobre el
movimiento, De motu, que influiría de manera absolutamente decisiva
en quien sí daría ese paso y resolvería, después de dos mil años, el enigma:
Galileo.
§. Planos inclinados y la ley de caída de los cuerpos
Fue en el período de Padua (y probablemente un poco antes, en Pisa) cuando
Galileo empezó a estudiar el fenómeno de la caída libre: al trabajar con
esferas que ruedan sobre planos inclinados, consiguió retardar la velocidad de
caída, lo cual le permitió medir los tiempos y minimizar el rozamiento, que ya
visualizaba como una cualidad externa al fenómeno principal, que lo perturbaba
y le impedía mostrarse tal cual era (hablaremos de esto en algún momento: «tal
cual era» es una frase muy fuerte), y que clasificaba como «minucia».
No encuentro referencias de otros científicos de la época que utilizaran planos
inclinados, pero me resulta difícil creer que en un momento en que estos
problemas estaban a flor de piel, por así decirlo, y cuando se publicaban
tratados de mecánica, como el De Motu de Benedetti, o la Meccanica de
Guidobaldo del Monte, nadie experimentara con ese método; es raro pensar que
Galileo fue el primero al que se le ocurrió, aunque podría ser.
Lo cierto es que pronto se dio cuenta y asumió que, a pesar de las distintas
velocidades, el movimiento sobre el plano inclinado y el de caída libre eran
del mismo tipo, relacionados de una manera muy simple mediante el ángulo de
inclinación del plano, como puede verse en la siguiente figura,
Y además, llegó a una conclusión fundamental: la velocidad de caída no
sólo no depende del peso del cuerpo, sino tampoco de la naturaleza del
cuerpo, de su peso específico, que era la frontera donde se había detenido
Benedetti: si se desprecia el rozamiento, todos los cuerpos,
independientemente del peso y de su naturaleza, caen con la misma velocidad
O mejor dicho, aceleración: Galileo la definía como un aumento continuo de la
velocidad (y no como los físicos del ímpetus y aun los
científicos de Oxford, como aplicaciones sucesivas de ímpetus que
provocaban aumentos discretos de la velocidad). No está nada mal, teniendo en
cuenta que Galileo no estaba en posesión del concepto de velocidad instantánea
(ni de aceleración instantánea), que requeriría un tratamiento especial del
infinito (que haría su discípulo Buenaventura Cavalieri [1598-1647] y que
conducirá al cálculo infinitesimal).
Pero eso no es todo: el 16 de octubre de 1604, en una carta enviada a su amigo
Paolo Sarpi, Galileo enunció por primera vez la ley que siguen los cuerpos en
caída libre, o sobre planos inclinados:
El espacio recorrido por un móvil es proporcional al cuadrado del tiempo
empleado en recorrerlo.
Así, si en el primer segundo un móvil recorre un tramo, en los dos
primeros segundos recorrerá cuatro, en los tres primeros segundos nueve, y así
sucesivamente.
También fue en esta época cuando entró en posesión de las leyes de isocronía
del péndulo: todas las oscilaciones, no importa su amplitud, toman el mismo
tiempo, que sólo depende de la longitud del péndulo y no de su peso. Esta ley,
como ya les conté, no es estrictamente cierta, y sólo es válida cuando los
ángulos son pequeños. Mediante sus experimentos, Galileo destruyó el mito de la
imposibilidad de la composición de movimientos (pronto veremos que esto tiene
un alcance más vasto), y resolvió el problema de la trayectoria de la bala de
cañón, que, recordemos, Tartaglia había descripto como «aparentemente
circular». Galileo analizó el recorrido de un proyectil sometido, a la vez, a
una trayectoria horizontal uniforme y a la caída libre debida a la gravedad
(que se rige por el cuadrado de los tiempos); los dos movimientos no sólo no se
interferían, sino que se componían, dando como resultado una parábola. La hasta
entonces puramente geométrica tercera cónica de Apolonio entraba así en la
física.
Esta misma composición de movimientos le permitió afirmar que una piedra
arrojada desde lo alto de un mástil de un barco en movimiento uniforme caería
al pie del mástil y no en la popa, como sostenían los aristotélicos. La piedra
ya participa del movimiento del barco, y, al componerlo con el movimiento de
caída, describe (para un observador externo) una parábola que la sitúa
justamente al pie del mástil, mientras que el observador en el barco ve una
caída perfectamente vertical.
La leyenda de la Torre de Pisa
Una de las historias que Viviani contósobre Galileo es conocidísima y se
refería a la época de éste como profesorde matemáticas en Pisa: se trata del
famoso asunto sobre cómo Galileo dejócaer objetos de pesos diferentes desde lo
alto de la Torre Inclinada de Pisapara demostrar que llegarían al suelo al
mismo tiempo. No hay ninguna pruebade que Galileo hiciera tal cosa, y es
seguramente otro de los inventos de Viviani.Lo cierto es que el experimento sí
fue llevado a cabo en 1612 por uno de losprofesores aristotélicos adversarios
de Galileo, con el fin de refutar laafirmación de Galileo de que los objetos de
pesos diferentes caen a la mismavelocidad. Los pesos tocaron el suelo casi de
manera simultánea, pero noexactamente en el mismo instante, hecho que los peripatéticos
consideraroncomo una prueba de que Galileo estaba equivocado. Éste fue muy
directo en surespuesta:
Aristóteles dice que una bola de cien libras de peso que caiga de una
altura de cien brazas llega al suelo antes que una bola de una libra haya
podido recorrer una braza (y le saca 99 brazas de ventaja). Yo afirmo que
llegan al mismo tiempo. Si se hace la prueba, se ve que la bola mayor adelanta
a la menor por dos pulgadas. Ahora bien, detrás de esas dos pulgadas queréis
esconder las noventa y nueve brazas de Aristóteles, y habláis sólo de mi error,
pero guardáis silencio sobre su enorme equivocación.
Lo cual nos muestra a un Galileo rápido y mordaz.
Pero la leyenda de la Torre de Pisa, a pesar de ser sólo una leyenda, encierra
una significación más general: se empieza a percibir que el experimento per se
debe ser público. La ciencia se está librando de todo hermetismo (cuyos restos
sobrevivían aun en el menos hermético de los renacentistas del quattrocento,
como Leonardo Da Vinci). Ya no bastaba con escribir los resultados en cuadernos
inescrutables: hace falta que todos puedan estar al tanto y eventualmente
repetirlos.
El experimento controlado y repetible sería una de las ideas-fuerza de la nueva
ciencia que se avecinaba.
§. El principio de inercia
El estudio de los planos inclinados llevó a Galileo a una constatación que
tendría las más importantes consecuencias.
Traten de seguir el dibujo. Galileo constata que si una esfera rueda
hacia abajo por un plano inclinado —despreciando las «minucias», claro está,
como el rozamiento—, y luego trepa por otro, alcanzará exactamente la misma
altura de la cual partió (dicho en términos modernos, recuperará su energía
potencial). Si se la hace trepar por planos inclinados cada vez menos
inclinados, el trayecto para alcanzar la altura original será cada vez más
largo.
Hasta ahí, todos estos resultados pueden ser deducidos de la observación
experimental, con esferas y planos inclinados concretos.
Pero aquí, Galileo da un salto conceptual y lo hace de modo puramente mental:
es evidente que cuando la inclinación del plano se aproxime a cero, los
trayectos se alargarán fuera de todo límite. Límite, ésa es la palabrita: en
el límite, si el plano por el que ha de subir la esfera no tuviera ninguna inclinación,
el trayecto se haría infinito y la esfera, sobre la cual no actúa ninguna
fuerza, se seguiría moviendo por siempre con velocidad rectilínea y uniforme.
Éste no es un resultado experimental, sino la extrapolación mental de una
situación experimental, o, lo que es lo mismo, un experimento mental, basado en
un experimento real: no es posible experimentar de manera efectiva con planos
infinitos, trayectos infinitos y esferas que ruedan para siempre; pero se
puede deducir mediante un razonamiento matemático (que todavía
no tiene nombre, pero que, cuando lo tenga, se llamará «paso al límite», paso
al límite que fue justo el punto que Arquímedes no se atrevió a dar).
Toda la física, hasta Galileo, consideraba que la tendencia natural de un
cuerpo en movimiento era el reposo: de ahí los «tientos solares» de Kepler, que
empujaban a los planetas para que no se detuvieran.
Galileo enfrenta esa idea con su principio de inercia, piedra de toque de toda
la ciencia moderna, que resuelve todas las idas y vueltas de dos mil años sobre
el movimiento:
Un cuerpo que se mueve sin rozamiento con velocidad uniforme, persiste
en su movimiento eternamente: el movimiento uniforme (es decir, el rectilíneo
con velocidad constante) es un movimiento autosostenido, que no necesita de
motor alguno, y que, como veremos, ya no es una propiedad del cuerpo como
sostenían tanto los peripatéticos como los físicos del ímpetus.
Pero lo que es interesante aquí, además, es la mezcla de experimento
fáctico y experimento mental: veremos que la ciencia moderna (y Newton lo
dejará muy claro), participará de esa «composición de análisis», del mismo modo
que la piedra participaba de la composición de movimientos. La idea de
experimento mental se las trae, porque lleva implícita la idea de que la
naturaleza funciona de manera racional y matemática, igual que nuestro cerebro.
Antes de hacer algunas aclaraciones sobre el principio de inercia de Galileo,
que no tuvo la forma acabada que le darán Descartes o Newton, vamos a la otra
clave de bóveda que cimentará la nueva teoría del movimiento: la relatividad.
§. El principio de relatividad
Encerraos con un amigo en la mayor estancia que haya bajo cubierta de
una nave. Si la nave está quieta, observad con diligencia. Luego haced que la
nave se mueva con la velocidad que se quiera: siempre que el movimiento sea
uniforme no reconoceréis ni la más mínima mutación en todos los efectos
nombrados, ni ninguno de éstos os hará saber si la nave se mueve o está quieta.
Si saltáis, tampoco el suelo se desplazará mientras estéis en el aire.
GALILEO, Diálogo sobre los principales sistemas del mundo, 1632
Esta cita, un poco retocada por cierto, es la enunciación clara del principio
que, junto al de inercia, funda la ciencia moderna y resuelve los larguísimos
años de especulaciones sobre el tema. El movimiento deja de ser una propiedad
de los cuerpos para convertirse en una relación entre los
cuerpos.
El mismo cuerpo (el barco) está en reposo para quien viaja en él y en
movimiento para quien lo mira desde la costa: el reposo y el movimiento
uniforme son indistinguibles, porque un móvil sólo se está moviendo en relación
a un punto de referencia. Ésta es una idea que, vagamente (o no tan vagamente,
en realidad), había sido adelantada por Copérnico en los primeros capítulos de
las Revoluciones:
Luego, por qué no confesamos sobre la revolución diaria que es
apariencia en el cielo y verdad en la Tierra, y que estas cosas son como lo que
dijera el Eneas de Virgilio, cuando afirma: «Salimos del puerto y las tierras y
las ciudades retroceden». Puesto que al flotar una nave sobre la tranquilidad
de las aguas, todo lo que está fuera de ellos es considerado por los navegantes
moviéndose, de acuerdo con la imagen de su movimiento, y al mismo tiempo juzgan
que están quietos, con todo lo que está con ellos, así en lo que respecta al
movimiento de la tierra puede estimarse que todo el mundo da vueltas.
Si el movimiento es relativo a un punto de referencia, la teoría
del impetus pierde cualquier tipo de sustento, ya que no se
trata de una propiedad del cuerpo, sino de una relación entre el cuerpo y el
resto de los objetos del mundo o de los sistemas de referencia que adoptemos:
el movimiento (por lo menos el movimiento rectilíneo y uniforme) no tiene
entidad más que como concepto relacional. Y por lo tanto, es indistinguible del
reposo: si viajamos en un avión, los objetos que están dentro nos parecerán quietos
—a pesar de que se están moviendo a 1.000 kilómetros por hora respecto de la
Tierra—, puesto que su distancia a nosotros no varía. Recuerden el problema de
la piedra que cae al pie del mástil: para quien esté en el barco, su
trayectoria es rectilínea y no hay manera de demostrar que no lo es excepto que
se use otro sistema de referencia.
La verdad es que no se entiende cómo esta aguda observación de lo que pasa en
un barco, que ya había sido adelantada por Nicolás de Oresme, fue ignorada por
los científicos griegos. Naturalmente, todos pasaban por esa experiencia de la
equivalencia entre movimiento uniforme y reposo, pero quizás no tenían un marco
mental apropiado para registrarlo. Es hasta cierto punto comprensible que se le
haya pasado a Aristóteles, porque su sistema del mundo era completamente
cerrado y cada pieza comprometía al conjunto, pero es sorprendente que no lo
hayan notado los de Alejandría.
Hay que decir aquí que el principio de relatividad de Galileo, que se puede
enunciar también como que ningún experimento o señal mecánica puede distinguir
entre el reposo y el movimiento rectilíneo y uniforme, no se lleva bien con el
sentido común, que se inclina por la idea de movimiento absoluto: una cosa o se
está moviendo o está quieta. Aquí hay un hiato, una fractura entre la ciencia y
el sentido común: yo estoy convencido de que la larga construcción de la
ciencia moderna es una construcción hecha contra el sentido
común, lo cual quizás explica lo que me pregunté antes: cómo se les escapó a
los griegos.
El nuevo principio trae aparejada una serie importante de consecuencias. Para
empezar, ya no hace falta andar justificando por qué no salimos disparados de
una Tierra que se mueve, lo cual constituía uno de los principales argumentos
contra Copérnico. Todo ocurre como si la Tierra estuviera en
reposo, del mismo modo en que la bala dejada caer desde el mástil de un barco
en movimiento, cae al pie del mástil, y no, como sostenían los aristotélicos,
en la popa. Éste es un hecho experimentable, susceptible de ser sometido a una
prueba crucial. Los cañones de Tycho, disparando hacia el este y el oeste, no
podían evidenciar ninguna diferencia; las balas se movían ab
initio con el movimiento de la Tierra, y los fenómenos que les
ocurrieran luego eran independientes de este movimiento, de la
misma manera que los pájaros tienen la misma facilidad para volar hacia el
este, el oeste o donde sea.
Por otra parte, el movimiento, al no ser algo que haga el cuerpo, sino una
relación entre el cuerpo y un punto de referencia, no necesita de motor alguno.
Porque en caso de necesitarlo… ¿a cuál de los dos estaría moviendo? ¿Al barco o
a la costa? ¿Al móvil o al punto de referencia? ¿Al colectivo o a la calle? La
pregunta pierde sentido, y la necesidad de que todo movimiento tenga un motor
queda definitivamente enterrada.
Al mismo tiempo, del principio de relatividad se puede deducir el principio de
inercia: si el movimiento no es una propiedad de los cuerpos sino un estado
relacional, un cuerpo que se mueve en línea recta y con velocidad uniforme
obviamente no tiene por qué detenerse. ¿Por qué habría de hacerlo? Al fin y al
cabo, el movimiento de ese cuerpo puede ser aparente y deberse simplemente al
movimiento del punto de referencia, y si aparentemente se detiene frente a un
punto de referencia, puede no hacerlo frente a otros. O bien puede detenerse
respecto de un punto de referencia pero seguir moviéndose respecto de otros,
así como la botella apoyada sobre la mesa del camarote de un barco se sigue
moviendo respecto de la costa. Si al lado de nuestro barco navega otro, con la
misma velocidad uniforme y dirección, la botella estará en reposo respecto de
este segundo barco, y en movimiento respecto de la costa. Si el segundo barco
se detiene repentinamente, la botella empezará a moverse respecto de él, al
mismo tiempo que de la costa. Detenerse significa pasar del movimiento al
reposo, pero el reposo no es más que una ilusión.
Así y todo, y a pesar de la inmensa novedad de la propuesta, Galileo no llegó a
la formulación moderna del principio de inercia: su enunciado es el de un
principio de inercia circular, en el cual los objetos no tienen un movimiento
rectilíneo uniforme, sino que mantienen siempre la misma distancia respecto del
centro de la Tierra.
En fin: Galileo funda la mecánica moderna antes de 1610, pero la exposición
sistemática de sus resultados tendrá que esperar hasta 1638, con la publicación
de los Discorsi.
En el medio hubo un acontecimiento, mejor dicho un aparato, que lo llevó a
levantar sus ojos de la tierra al cielo, y reorientó por un buen tiempo sus
investigaciones.
§. El telescopio
En julio de 1609, durante una visita a Venecia, Galileo había oído por primera
vez rumores sobre la existencia de un aparato que permitía ver objetos lejanos
como si estuvieran cerca. Efectivamente, Hans Lippershey, un fabricante de
anteojos afincado en Holanda, había hecho el descubrimiento por casualidad
durante el otoño anterior, y en la primavera de 1609 se vendían como juguetes
en París unos telescopios cuya potencia amplificadora era de tres aumentos.
En realidad, tampoco Lippershey (que lo patentó) había sido del todo original,
ya que en Inglaterra Leonard Digges (1515-1559) había construido uno,
perfeccionado por su hijo Thomas Digges, de quien ya dijimos que había sido un
gran propagandista del sistema copernicano en suelo inglés. Y en todo caso,
para la misma época, el matemático, astrónomo, explorador y quién sabe cuántas
cosas más Thomas Harriot, un isabelino contante y sonante avant la
lettre, estaba ya observando con un telescopio, y tratando de levantar un
plano de la Luna. Y es que no hay caso: las cosas surgen del espíritu de su
tiempo, y en varias partes simultáneamente.
Oídos los rumores sobre este nuevo instrumento, Galileo se puso a trabajar para
construir su propio telescopio, sabiendo únicamente que el instrumento tenía
dos lentes colocadas dentro de un tubo. Era un artesano consumado (recordemos
el termoscopio, el compás, el tratado sobre fortificaciones) y, en apenas un
día, lo cual es una flor de hazaña, construyó uno. Y que encima era el doble de
bueno (literalmente: tenía seis aumentos en lugar de tres) que cualquiera de
los que andaban por ahí.
Galileo volvió a Venecia antes de que terminara el mes de agosto —seguimos en
1609— y causó sensación en el Senado cuando realizó una demostración del
funcionamiento del aparato, que entregó al Dux en concepto de regalo. El Dux y
el Senado, encantados con el instrumento, ofrecieron a Galileo la posibilidad
de que ocupara su cargo de la Universidad de Pisa de forma vitalicia y
duplicaron su salario fijándolo en 1.000 coronas anuales, lo cual no era poco.
Después de su éxito en Venecia, salió volando (es un decir) para Florencia con
el fin de hacer la demostración de otro telescopio ante Cosme II, Gran Duque de
Toscana (la cátedra de Otilio Ricci, que había muerto en 1603 todavía estaba
vacante). Para diciembre de 1609, Galileo había fabricado ya un telescopio con
una potencia de amplificación de veinte aumentos, y en marzo de 1610 tendría
hechos ya nueve más con una potencia similar; de hecho, envió uno de éstos al
Elector de Colonia para que se lo pasara a Kepler, de modo tal que el ya
entonces reconocido como uno de los mejores astrónomos de Europa (si no el
mejor) lo usara para verificar sus descubrimientos.
En enero de 1610, Galileo empezó su exploración sistemática del cielo. Y lo que
vio cambiaría para siempre la ya maltrecha visión que se tenía del cosmos.
Por empezar, vio que la Luna tenía valles y montañas muy altos, que midió a
partir de la sombra que proyectaban. La verdad es que no se capta la verdadera
dimensión del descubrimiento salvo que se tenga en cuenta que, para ese
entonces, se seguía pensando que los cielos debían estar compuestos de una
sustancia especial, incorruptible, incomparable con la materialidad sublunar.
Pero el telescopio revelaba que la Luna estaba aparentemente hecha de los
mismos materiales que la Tierra. No era fácil de aceptar; de hecho Christopher
Clavius, buen astrónomo y profesor de matemáticas del colegio romano, sugirió,
para salvar la perfección de la Luna, que las montañas y los valles de Galileo
estarían cubiertos de una sustancia cristalina y perfectamente esférica.
También vio que, al apuntar el telescopio a la Vía Láctea, ésta se disolvía en
millones de estrellas: no era, como se creía, un rejunte de vapores
atmosféricos, sino una acumulación estelar tan grande, que sus integrantes no
se podían distinguir unas de otras a simple vista.
Observó que Saturno no tenía una forma esférica, sino que presentaba unos
extraños lóbulos, que no acertó a dilucidar (la idea de los anillos debía
esperar unas décadas, a Huygens, y telescopios mejores). Siguió durante algunas
noches un objeto que parecía desplazarse como un planeta, pero, como después se
nubló, las observaciones se interrumpieron. Se trataba de Neptuno, que se le
escapó por un pelo (por unas nubes, en realidad), y no sería encontrado hasta
1846 por Adams y Le Verrier, de una forma que hace honor al intelecto humano y
que ya contaremos en su momento.
Vio manchas oscuras en el Sol, lo cual le valió una disputa por la prioridad
con el jesuita Cristóbal Scheiner, que las interpretó como un enjambre de
planetas que se movían cerca del Sol. Galileo objetó que la forma irregular y
errática de las manchas no las hacían compatibles con el hecho de ser planetas,
sino con manchas efectivas en el Sol. Se trataba de otra señal más de la
imperfección de los cielos. Al mismo tiempo, pudo demostrar que Venus tenía
distintas fases, como la Luna, que era una predicción que surgía de la teoría
copernicana.
No sé si me estoy salteando algo, porque no expuse estos descubrimientos
telescópicos en orden cronológico, pero dejé para el final el más espectacular
de todos: la observación de cuatro pequeños satélites que se movían alrededor
del planeta Júpiter, a principios de 1610, a los que llamó «astros mediceos»,
en honor a Cosme II, aunque hoy se los llama satélites galileanos.
En marzo de 1610, publicó un pequeño libro (obviamente dedicado al gran duque
Cosme II de Médicis… no perdía de vista la cátedra) titulado Siderius
Nuncius (El mensajero de los astros), que tuvo un éxito descomunal
entre las personas cultas de todo el mundo, hasta el punto que se tradujo al
chino antes de los cinco años posteriores a su publicación.
Y al final consiguió su objetivo: en mayo de 1610, aceptó la oferta de ocupar
la cátedra de matemáticas en la Universidad de Pisa (la de Ricci), siendo
nombrado filósofo y matemático vitalicio de la Corte del Gran Duque de Toscana,
con un salario de 1.000 coronas anuales. No era un salario superior al que
ganaba en Venecia, pero no tendría que dedicarse a ningún tipo de actividad
como docente. Este asunto de los salarios, que vimos que también padeció
Kepler, y que no aparecía en la Antigüedad o la Edad Media, es significativo,
ya que indica una incipiente profesionalización de la ciencia.
§. Galileo defiende a Copérnico
Galileo se trasladó a Florencia mientras que su compañera Marina Gamba decidió
quedarse en Padua y se separaron amistosamente.
La mudanza fue un paso audaz: Toscana era un lugar donde la Inquisición tenía
mucho más poder que en la libre República de Venecia. Además, en 1605, la
situación política en Italia experimentó un cambio drástico. Pablo V había sido
elegido Papa e hizo un esfuerzo decidido por extender la autoridad de la
Iglesia y afianzar el poder papal en los estados católicos. Pero el poder
detrás del trono lo ejercía en realidad el cardenal Roberto Bellarmino: en
parte porque Pablo V sabía que debía su puesto a la decisión de Bellarmino de
inhibir su propia candidatura. Así, Bellarmino, que sería una pieza clave en el
primer proceso de 1616, manejaba el rumbo de la Iglesia, ya embarcada en la
Contrarreforma.
Igualmente, Galileo se dirigió hacia Florencia y empezó su cruzada personal
para defender el sistema copernicano. La verdad es que los descubrimientos
telescópicos eran demoledores para el sistema tolemaico, en especial el de los
satélites de Júpiter. Un contraargumento contra el sistema copernicano era que
dado que la Luna describía una órbita en torno a la Tierra, no era posible que
la Tierra describiera al mismo tiempo una órbita alrededor del Sol, porque en
ese caso la Tierra dejaría atrás a la Luna. Pero el descubrimiento de cuatro
satélites que giraban describiendo órbitas en torno a Júpiter (el cual describía
por sí mismo una órbita en torno ya a la Tierra —como querían los tolemaicos— o
al Sol —como sostenían los copernicanos—) demostró la posibilidad de que la
Luna estuviera girando en órbita alrededor de la Tierra, aunque la Tierra
también se moviera.
Al mismo tiempo, destruía otra objeción de los anticopernicanos, que era, en
efecto, la de que si todos los astros efectúan su revolución alrededor del Sol,
no se comprendía por qué la Luna constituía una excepción tan especial girando
alrededor de la Tierra. La existencia de los satélites mostraba que el «girar
alrededor» era un fenómeno mucho más general y que no necesariamente tenía que
tener a la Tierra como centro.
Por supuesto que estos argumentos no convencieron a los aristotélicos más
intransigentes, quienes sencillamente no aceptaban que lo que se veía a través
del telescopio fuera real —incluso hubo quienes se negaron a mirar—,
imaginándose que era algún tipo de objeto producido por el propio instrumento,
pese a que el propio Galileo refutó esta posibilidad observando cientos de
objetos a través del telescopio y comparando sus imágenes con lo que podía ver
de cerca, directamente, con el fin de averiguar si el instrumento hacía algo
que no fuera ampliar los objetos. Obviamente que no hacía nada más que eso.
Semejantes hallazgos no eran para despreciar, y Galileo estaba decidido a hacer
propaganda sobre ellos y sobre el sistema copernicano en general. En marzo de
1611 partió para visitar Roma como embajador científico oficial del Estado de
Toscana. Esta visita, que se prolongó hasta julio, fue un éxito total. Fue
recibido por el Papa (que aún era Pablo V). El propio cardenal Bellarmino miró
a través del telescopio de Galileo y nombró una comisión de expertos para que
dictaminaran sobre lo que Galileo afirmaba haber visto con el telescopio. Los
miembros de este comité (todos jesuitas) llegaron a las siguientes
conclusiones:
1.
La Vía Láctea está formada realmente por un gran
número de estrellas.
2.
Saturno tiene una extraña forma ovalada con
protuberancias a cada lado.
3.
La superficie de la Luna es irregular.
4.
Venus presenta fases.
5.
Júpiter tiene cuatro satélites.
Ahora Galileo tenía un resultado oficial, avalado por el establishment científico
papal. Pero el comité se cuidó muy bien de no sacar ninguna conclusión de
aquellos resultados. Los jesuitas, que más tarde se volverían contra él, habían
adoptado el sistema de Tycho, que salvaba la inmovilidad de la Tierra y recogía
algunas ventajas del sistema copernicano.
En Roma, Galileo se convirtió en miembro de la que se considera la primera
sociedad científica del mundo, un grupo conocido como la Accademia dei
Lincei, que se llamaba como se llamaba en honor al lince, animal cuya
excelente visión se presentaba como una especie de modelo a seguir para el
nuevo hombre de ciencia. En un banquete celebrado en honor de Galileo, los
linces propusieron por primera vez llamar «telescopio» al nuevo instrumento.
En junio, nuestro personaje volvió triunfante a Florencia, después de haber
cubierto de gloria el nombre de Toscana.
Con el empujón de su éxito en Roma, y las abrumadoras evidencias que arrojaba
el telescopio, más el aval papal que había creído obtener, Galileo se volvió
menos cauto y se lanzó a una defensa abierta del sistema heliocéntrico,
sugiriendo que la teología debería dejar en paz a la investigación científica.
Dado que «la Biblia enseña cómo se va al cielo, no cómo va el cielo», era
necesario revisar la interpretación de la Biblia para ajustarla a los
resultados que proponía la ciencia (y no viceversa). Proponer una
reinterpretación de la Biblia no era para nada menor. Se trataba sin lugar a
dudas de motivo de anatema para Roma, embarcada en la lucha contra los
protestantes que, justamente, proclamaban la libre interpretación de la Biblia.
En ese sentido, lo que proponía Galileo sonaba a protestantismo. La Iglesia
Romana había tardado en darse cuenta del problema que le presentaba el sistema
heliocéntrico, pero en parte gracias a la propaganda de Galileo lo hizo: en
adelante, los dos sistemas lucharían a muerte.
En 1616, el Santo Oficio (la Inquisición, de infame memoria) declaró impía la
opinión que colocaba al Sol en el centro del mundo y se le prohibió a Galileo
enseñar o defender las teorías heréticas.
Y así empezó su penuria, que les contaré en el próximo capítulo.
Capítulo 16
El conflicto con la Iglesia
I. Escena inicial
Estamos en Roma, en una plaza frente al convento de los dominicos. De a
poco van llegando artesanos, mercaderes, vendedores ambulantes, alguno que otro
prelado. Suena, en el fondo, la pavana La Battaglia (que
pueden escuchar poniendo simplemente «Pavana La Battaglia» en YouTube), que por
momentos se confunde con las campanas que empiezan a doblar lentamente.
Repentinamente se hace un silencio espectral y entran tres nobles romanos.
NOBLE 1: Se dice que Galileo está ante el Santo Oficio.
NOBLE 2: Nunca debió venir a Roma.
NOBLE 3: Lo obligaron, y mi alma se ensombrece; la luz de Italia se ve oculta
por las nieblas de la religión.
NOBLE 1: ¡Silencio! En Roma las paredes oyen.
NOBLE 2: El Santo Oficio tiene ojos y oídos en todas partes.
NOBLE 3: El susurro se ha apoderado de las plazas y las calles.
La música sigue escuchándose de fondo. Entra un Juglar haciendo piruetas y se
topa con el Relator, que ya ha tomado su posición. Los nobles, mientras tanto,
escuchan.
RELATOR 1: Estamos a… ¿qué día es hoy?
JUGLAR: 22 de junio de 1633.
La música se torna más solemne.
RELATOR 1: Es verdad. Desde el amanecer me he estado preguntando qué ocurriría
hoy. Toda Roma está pendiente.
JUGLAR: Y cómo no ha de estarlo.
RELATOR 1: Las campanas sonaron esta mañana recordando el evento.
JUGLAR: Sonido de bronce de las campanas, doblando por el señor Galileo.
RELATOR 1: En el subsuelo del Monasterio de los Dominicos está sesionando el
tribunal de la Inquisición, el sagrado Tribunal del Santo Oficio, la
organización creada por la Iglesia para vigilar por el estricto cumplimiento
del dogma católico, para barrer la herejía.
JUGLAR: (Aparte) Siniestra institución.
RELATOR 1: Ha comparecido, una vez más, un hombre ya anciano, un viejo de
espaldas vencidas, pero terco en su herejía.
JUGLAR: (Aparte) Un viejo de espaldas vencidas… habrase visto. Es un
gran científico, conocido en toda Europa.
RELATOR 1: Viste, como corresponde, el hábito de los penitentes, de los que han
osado desafiar a la Iglesia. Y el tribunal lo invita a renunciar a la absurda
idea que sostiene.
JUGLAR: (Aparte) La intolerancia de siempre.
RELATOR 1: ¡Este hombre sostiene una idea ridícula, imposible! ¡Dice que la
Tierra se mueve alrededor del Sol!
JUGLAR: Este relator no está muy informado.
RELATOR 1: El tribunal le mostró los instrumentos de tortura, y le sugirió
—solamente le sugirió— que si no se retractaba sería quemado en la hoguera,
como Giordano Bruno, hace 36 años.
Se oye, lejanamente, una voz que se va apagando.
VOZ DE GIORDANO BRUNO: Las estrellas son soles muy lejanos, de tal modo que
cualquiera que estuviera allí, se creería en el centro del universo.
JUGLAR: ¡Vaya tribunal! ¡Y vaya relator!
Otra voz:
GALILEO: «Yo he sido declarado sospechoso de herejía, por haber sostenido y
creído que el Sol es el centro del mundo y que permanece inmóvil y que la
Tierra no es el centro y se mueve. Por lo tanto, con el fin de apartar de la
mente de todos los cristianos fieles esta fundada sospecha levantada en mi
contra con justicia, maldigo y reniego de mis errores y herejías. Y juro que en
el futuro no diré jamás cosas tales que puedan hacer recaer sobre mí sospechas
similares…»
JUGLAR: ¿Qué dicen ustedes? ¿Hizo bien en retractarse?
RELATOR 1: Finalmente, Galileo admitió que se había equivocado y que la Tierra
está absolutamente inmóvil.
JUGLAR: Pero según cuenta la leyenda, luego de retractarse, aun de rodillas
ante los inquisidores, murmuró: «Y sin embargo se mueve».
Es una leyenda,
inventada siglos después.
Pero igual vale
¿No creen ustedes?
«Digo que la Tierra está quieta,
juro que lo creo,
y sin embargo se mueve».
¿No habrían hecho lo mismo?
NOBLE 1: La Tierra se mueve alrededor del Sol.
NOBLE 2: Yo he adherido al sistema de Copérnico.
NOBLE 3: He mirado a través del telescopio del señor Galileo, y he visto cuatro
lunas girar alrededor de Júpiter.
GALILEO: ¡Y sin embargo se mueve! ¡Pese a quien le pese, la Tierra está en
continuo movimiento!
RELATOR 1: (Se pone más solemne) Un poco terco el hombre. Íbamos a
contar la historia de Galileo Galilei, el hombre que ustedes han visto retractarse
de sus falsas ideas. Pero si dijo eso… habrá que tomar medidas.
JUGLAR: No me gusta este relator. ¿No habrá otro?
Entra el Relator 2. Se lo ve agotado, exhausto.
RELATOR 2 (al Juglar): He venido de Venecia a todo correr de mi caballo,
pero me han detenido los guardias de los Estados Pontificios en la frontera. Me
han hecho mil preguntas y me he arreglado para responderlas sin despertar
sospechas. Por eso llego tarde. ¿Qué pasa?
JUGLAR: (lo mira con desconfianza) ¿Quién es usted?
RELATOR 2: Un relator apropiado para estos duros tiempos que corren.
JUGLAR: (desconfiado) Mmmm, no me fío de usted, grandísima… Señoría.
¿Viene usted de Venecia? ¿No será que lo envía el Vaticano?
RELATOR 2: ¿El Vaticano? Escuchen eso. ¡El Vaticano! Aquí están mis pasaportes
que acreditan que he venido desde la República de Venecia. Y si no me creéis,
escuchad: (rápido) Galileo es un héroe de la ciencia, el modelo a imitar
cuando se intenta describir el trabajo de los científicos. Su obra es inmensa,
y con él nació la astronomía moderna. Su mayor logro, quizás, es haber
impulsado el final del vínculo entre la ciencia y la teología. Ubicó cada cosa
en su lugar.
JUGLAR: Cada cosa en su lugar, cada cosa en su lugar… Me gusta este relator… a
ver… a ver… ¿qué es eso?
RELATOR 2: «En cuestiones científicas, la autoridad de la opinión de mil
hombres no vale ni por un destello de razón de uno solo». «El libro de la
Naturaleza está escrito en caracteres matemáticos».
RELATOR 2: Galileo pidió que la religión se ocupara de cómo se va al cielo y no
de cómo va el cielo.
JUGLAR: ¡Eso estuvo bien dicho!
El RELATOR 1, que ha presenciado todo este diálogo, va a quejarse al Gran
Inquisidor y a denunciar al RELATOR 2. Le dice cosas al oído. Los inquisidores
comentan.
INQUISIDOR 1: Esto es imposible.
INQUISIDOR 2: Terrible.
INQUISIDOR 3: Abominable.
RELATOR 1: (sigue y dice algo con voz pomposa): Yo digo las cosas como
son.
INQUISIDOR 1: ¡Muy bien!
RELATOR 1: (estúpido) Yo digo las cosas como las pienso.
INQUISIDOR 1: ¡Horror! Nadie debe pensar.
INQUISIDOR 2: ¡Herejía! Nadie debe pensar por sí mismo.
INQUISIDOR 3: ¡Blasfemia! Nadie debe pensar sin que nosotros vigilemos sus
pensamientos.
INQUISIDOR 1: ¡Tortúrenlo!
INQUISIDOR 2: ¡Mátenlo!
INQUISIDOR 3: ¡Quémenlo!
JUGLAR: Así le pagan su fidelidad.
INQUISIDOR 1: Manos a la obra.
Se levantan y se disponen a hacerlo. Un inquisidor se acerca al RELATOR 1 con
una antorcha para quemarlo. El RELATOR 1 huye.
RELATOR 2: Los inquisidores siempre quieren matar, torturar y quemar. Y aun así
no consiguen nada.
JUGLAR: Guarden su fuego y torturas
los inquisidores,
que de pensar como quieran y de decir lo que quieran
nacieron libres los hombres.
Guarden su fuego y torturas,
que nacen libres los hombres.
INQUISIDOR 1: Huyó.
INQUISIDOR 2: Le temió al fuego purificador.
INQUISIDOR 3: Nos hemos quedado sin relator.
INQUISIDOR 1: Pero ¿qué nos importa? Galileo se retractó. Hemos logrado lo que
queríamos. Hoy es 22 de junio de 1633, y la historia nos lo agradecerá siempre.
INQUISIDOR 2: Siempre nos lo agradecerá.
INQUISIDOR 3: Seremos venerados y respetados como héroes.
JUGLAR: Eso se llama tener visión… (Los inquisidores se retiran satisfechos.
El Juglar hace una reverencia) Salud, siniestros señores.
Vuelve a sonar la pavana La Battaglia y las fanfarrias del principio. Los
inquisidores se retiran. En la calle se ha juntado mucha gente.
NOBLE 1: ¡Galileo se ha retractado!
NOBLE 2: ¡Se ha retractado! Pero no por ello la Tierra dejará de moverse.
NOBLE 3: Estos siniestros personajes no podrán detener el triunfo irresistible de
la ciencia y el maravilloso sistema de Copérnico.
Cada vez suena más fuerte la pavana. Se vuelven a ver las caras de los
inquisidores: ahora caminan entre la multitud, que se aparta a su paso con
miedo. Los inquisidores bendicen al público reunido. La gente comenta que se
retractó. Se oyen murmullos: «Que nadie diga que la Tierra se mueve alrededor
del Sol. ¡Que nadie lo diga ya más!». El juglar se mezcla con la multitud y se
acerca a los tres nobles. Por la puerta del convento se lo ve salir a Galileo, vencido.
Se detiene en la puerta y mira hacia la plaza. Todos lo miran a él, menos los
inquisidores. Vuelven a doblar las campanas lentamente. La gente empieza a
arrodillarse, y los inquisidores les imparten la bendición. Al pasar los
inquisidores junto a los tres nobles, éstos se arrodillan. El juglar se queda
ostensiblemente de pie. Ahora está todo el mundo de rodillas, excepto el
juglar.
JUGLAR: Guarden su fuego y torturas
los inquisidores,
que de pensar como quieran
y de decir lo que quieran
nacieron libres los hombres.
Guarden su fuego y torturas
y guarden sus bendiciones,
que de decir lo que quieran
nacieron libres los hombres.
Los inquisidores, que están saliendo, se detienen y lo miran fijamente. Siguen
doblando las campanas y suena más fuerte que nunca la pavana, mientras las
palabras del Juglar se pierden en la música.
II. El primer conflicto
Ya lo vimos en el capítulo anterior: 1609 significó un quiebre radical
tanto para la vida del protagonista de nuestra historia como para la ciencia
occidental. Ese año, Galileo dirigió el telescopio al cielo y vio lo que nunca
nadie había visto. No era menor, puesto que muchas de las cosas que vio eran
más que suficientes para poner en cuestión varios de los puntos centrales de la
doctrina cosmológica aceptada por la Iglesia. Sin embargo, a raíz de su éxito
en Roma de 1611 (recordemos que sus resultados observacionales fueron aceptados
por una comisión de expertos nombrados por el mismísimo Bellarmino), y aunque
todavía era precavido con respecto a lo que enviaba a la imprenta, Galileo se
sintió libre de hablar más abiertamente sobre las ideas copernicanas. Ideas
que, por supuesto, manifestaba desde bastante antes de decidirse a hacerlas
públicas, como queda claro en una carta enviada a la Gran Duquesa Cristina
Lorena de Toscana:
En las discusiones sobre fenómenos naturales, no debemos partir de la
autoridad de los pasajes bíblicos, sino de la experiencia sensorial y de las
necesarias demostraciones.
Lo cierto es que el copernicanismo galileano se fue haciendo cada vez
más fuerte. Y no sólo eso, sino que al tiempo que se iba convirtiendo en uno de
los más renombrados defensores del nuevo sistema, nuestro protagonista
polemizaba y acumulaba enemigos. En 1613 escribió un pequeño libro sobre las
manchas solares, publicado por la Accademia dei Lincei, en el que
se atribuía la prioridad del descubrimiento, lo cual derivó en una enconada
disputa con el astrónomo jesuita Christopher Scheiner, quien afirmaba haberlas
visto antes que Galileo. Es posible que Scheiner tuviera razón: de hecho, el
inglés Thomas Harriott y el holandés Johann Fabricius se habían adelantado a
ambos en este descubrimiento.
En un apéndice a ese mismo libro aparecían afirmaciones claras y sin
ambigüedades basadas en la teoría copernicana, en las que utilizaba el ejemplo
de las lunas de Júpiter para justificar su alegato. Las críticas contra Galileo
empezaban a aparecer y a multiplicarse. Su copernicanismo ya era lo
suficientemente escandaloso, pero, para colmo, se le iban encontrando más
«delitos» graves, como ser amigo del herético veneciano Paolo Sarpi (quien,
recuerden, había sido un defensor convencido y tenaz de Venecia en el conflicto
con la Iglesia de Pablo V y publicaba escritos terriblemente críticos contra
Roma), o cartearse con Kepler, un astrónomo protestante, o admirar a Gilbert,
otro malvado hereje inglés, copernicano además, autor de un magnífico libro
sobre el magnetismo del que nos habremos de ocupar.
Copernicano, amigo de protestantes y herejes, cuestionador de los jesuitas: los
cargos se iban superponiendo mientras Galileo, tenaz, insistía en que la
teología no interfiriera con la ciencia y que la «autoridad» de la Biblia no se
entrometiera en las investigaciones científicas. Dirigiéndose a los jesuitas
que se arrogaban la prioridad en el descubrimiento de las manchas solares,
Galileo aseguraba que los teólogos poco tenían para decir en tales materias.
Porque ello sería como si un príncipe absoluto, a sabiendas de que puede
mandar y hacerse obedecer libremente, quisiera, sin ser médico ni arquitecto,
que se medicara y construyese a su antojo, con grave riesgo para la vida de los
míseros enfermos y manifiesta ruina de los edificios.
Con esto bastaba. La situación de Galileo era sospechosa para una
Iglesia que, atacada por varios flancos (o por lo menos, que convivía con esa
sensación), estaba en pleno proceso de intentar reconstruir su poder. Pero
nuestro protagonista seguía tranquilo porque confiaba en la eficacia de su
alegato y en las amistades que tenía en Roma. En realidad, él no pretendía
destruir la religión, sino que la Iglesia abandonara sus posiciones
reaccionarias y se aggiornara, aceptando la nueva ciencia. De hecho, fue la
intransigencia oscurantista y autoritaria de la Iglesia lo que transformó el
conflicto en un enfrentamiento entre Fe y Razón.
En 1615, cuando estaba ya próximo a cumplir 52 años, Galileo obtuvo un permiso
para ir al Vaticano a finales de año con el propósito de aclarar la situación.
Lo hizo desoyendo los consejos del embajador de Toscana en Roma, quien afirmó
que en ese momento, a diferencia de 1611, existía un ambiente hostil, y sugirió
que otra visita no haría sino empeorar las cosas.
El 11 de diciembre de 1615, Galileo se convirtió en huésped oficial del
embajador en la residencia de éste en Roma. Y así empezó todo.
Su contrincante en lo que habría de ser el primer choque era un viejo conocido:
el jesuita y ahora cardenal Roberto Bellarmino, teólogo papal, y el poder
detrás del trono del Papa. Bellarmino distaba mucho de ser un ignorante obtuso;
por el contrario, era el teólogo más influyente de su tiempo y el mayor experto
en el pensamiento de los padres de la Iglesia (según los cuales y únicamente
según ellos podía interpretarse la Biblia, como había dispuesto el Concilio de
Trento). Pero, no lo olvidemos, había participado de la siniestra condena de
Giordano Bruno a la hoguera. Vale la pena que le dediquemos unas palabras a
Bruno, triste antecedente del destino que enfrentaría Galileo.
§. Un trágico antecedente
La Iglesia Católica no pareció darse cuenta de la manera en que el
copernicanismo enfrentaba su dogma hasta que Giordano Bruno (1548-1600) —quien,
para colmo iba aún más lejos que Copérnico al entender el universo como algo
infinito y con infinitos mundos— hubo explicado las consecuencias latentes en
el mismo. En esa época (ya corrían los tiempos de la Contrarreforma), la
Iglesia endurecía su posición en todos los ámbitos y Bruno fue sólo una de las
víctimas.
Giordano Bruno nació en Nola, Italia; era hijo de un soldado profesional. A los
14 años se dirigió a la cercana Nápoles a estudiar humanidades, lógica y
dialéctica, y allí encontró a un profesor llamado Colle, quien lo introdujo en
el aristotelismo. La obra del griego se transformó en una especie de anti-faro
para Bruno: todas sus obras se caracterizaron por su rechazo al pensamiento
aristotélico.
En 1565 ingresó a un convento dominico, en donde tomó el nombre de Giordano. A
poco de ingresar, sus actitudes poco ortodoxas lo hicieron sospechoso de
herejía. En tiempos de Inquisición, la Iglesia hacía gala de una rigidez
despiadada. Aun así, fue ordenado como sacerdote en 1572 y enseguida volvió a
Nápoles para seguir estudiando teología, aunque al mismo tiempo leía obras
prohibidas, como las de Erasmo. Después llevó una vida errante, abandonó la
orden dominica y luego de deambular por el norte de Italia se instaló en Suiza,
donde abandonó a la Iglesia Católica y se transformó en calvinista, lo que le
valió un arresto y la excomunión, aunque se rehabilitó por retractación y se le
permitió abandonar la ciudad para dirigirse a Francia (Toulouse y París).
Siguieron Londres y Oxford, Alemania, Venecia, donde fue traicionado y
denunciado a la Inquisición, y fue extraditado a Roma en 1593, donde sufrió un
juicio que duró siete años. En un comienzo reconoció errores teológicos sin
arrepentirse de cuestiones más filosóficas, algo que no gustó a sus jueces.
Bruno se negó a retractarse por toda su obra y el papa Clemente VIII dio su
veredicto: hereje impenitente. El 8 de febrero de 1600 fue sentenciado a la
hoguera. Pocos días después era quemado vivo. En ese fuego ardió uno de los más
audaces pensadores de su tiempo.
El sistema cosmológico de Bruno no era el más preciso de la época, por cierto,
pero tenía algunas intuiciones interesantes. En sus obras sobre el universo,
escritas a partir de 1584, sostenía su teoría del infinitismo esencial de la
astronomía y se oponía a la visión medieval de un cosmos ordenado y finito,
visión que, con modificaciones, todavía había ocupado el pensamiento de
Copérnico.
Bruno iba en realidad más allá, ya que ni siquiera otorgaba un rol fundamental
al Sol, que, según él, se trataba simplemente de otra estrella. Al mismo
tiempo, negaba de manera radical cualquier excepcionalidad de la Tierra, el
Sol, o los lugares aristotélicos; en su concepción todos los lugares del
universo eran equivalentes, y el universo era un receptáculo de los fenómenos,
una concepción parecida a la de los atomistas, que consideraban al espacio
vacío como el lugar donde se movían los átomos. Esta idea del cosmos como
receptáculo será la que triunfe con la Revolución Científica. Él pensaba que el
universo estaba poblado por infinitos «mundos» semejantes al nuestro.
Hay un único espacio general, una única y vasta inmensidad que podemos
libremente denominar vacío: en él hay innumerables globos como éste en el que
vivimos y crecemos.
Los argumentos clásicos contra el movimiento de la Tierra —los de los
vientos, las nubes, los pájaros— no valen nada, explicaba Bruno, porque el aire
que rodea la Tierra (si ésta se mueve) es arrastrado por el movimiento mismo
del planeta. El argumento de la piedra arrojada desde lo alto que cae
verticalmente en lugar de hacerlo en forma oblicua, decía Bruno, se realiza en
la Tierra; ahora bien, todas las cosas que se encuentran en la superficie de la
Tierra se mueven con ella, y se mueven respecto de la Tierra exactamente igual
que si ésta estuviera en reposo.
Si Bruno hubiera ido un «porqué» más lejos, habría llegado a acariciar la
inercia. Tal vez si no lo hubieran llevado a la hoguera, habría dado el paso
que le faltaba.
En el universo de Bruno no puede haber lugares privilegiados ni direcciones
determinadas dada su esencia infinita. De esta manera, «arriba» y «abajo» no
son más que nociones relativas, y en cuanto a la de «centro del mundo», carece
ya plenamente de sentido.
Aquí Bruno propone una nueva ruptura con el sentido común. La equivalencia de
todos los puntos transforma al espacio en un lugar puramente geométrico. Para
los contemporáneos de Bruno, su visión del universo infinito resultaba
enteramente gratuita, sin fundamentación en los datos astronómicos y mucho
menos aceptable —en tanto iba aún más lejos— todavía que el sistema de
Copérnico que defendía. Giordano Bruno no fue, probablemente, un gran
científico en el estricto sentido de la palabra, pero sí un visionario que
adivinó mundos y vio más lejos que sus contemporáneos. El 17 de febrero de 2000
se le rindió homenaje, haciendo el mismo recorrido que él hizo cuatrocientos
años antes hacia el Campo dei Fiori, en Roma, en donde fue quemado.
Pero los muertos no resucitan.
§. Volvemos a Galileo, Roma, 1616
Esta digresión imprescindible nos alejó un poco de nuestro tema. Estábamos
hablando de Bellarmino, el experto teólogo que protagonizó el primer episodio
tenso de Galileo con la Iglesia. La posición del cardenal frente al
copernicanismo era, digamos, «neutral», mientras el copernicanismo lo fuera
también, esto es, mientras se presentara como un sistema ficcional, destinado a
«salvar las apariencias», sin pretensiones de realismo.
No era original en esto: seguía la línea propuesta por Osiander en el prólogo
fraguado al libro de Copérnico. Una interpretación realista resultaba un
escándalo.
Lo cierto es que la interpretación ficcional de los sistemas del mundo le
permitía a la Iglesia tener la última palabra en un tema tan importante. Pero
Galileo, como ya vimos, pensaba todo lo contrario, y no se limitó a pensarlo
sino a declamarlo, a publicarlo, a hacer propaganda, a intentar convencer al
resto, desplegando una verdadera actividad proselitista a favor de la teoría
heliocéntrica (interpretada en clave realista, claro está) en conferencias que
daba en palacios y salones.
La actividad de agitación de Galileo ganó la calle, por así decirlo, y se
discutía popularmente, como conté que parece haber ocurrido en los primeros
tiempos después de la publicación del Revolutionibus. Pero esa
discusión no podía sino implicar una reinterpretación de la Biblia, o de
algunos pasajes (como el dichoso en que Josué manda detenerse al Sol), lo cual
resultaba inadmisible para la Iglesia de la Contrarreforma. De a poco, en Roma
se iban dando cuenta del riesgo real que significaba aceptar cualquier
propuesta que oliera a copernicanismo.
Fue así que el 19 de febrero de 1616 Bellarmino convocó a once expertos en
teología de la Inquisición, que necesitaron solamente cuatro días para
determinar la «falsedad» de estas dos proposiciones:
a. «El Sol es el centro del mundo.»
b. «La Tierra se mueve toda de por sí, además, con
movimiento diurno.»
La primera era «filosóficamente necia, absurda y formalmente herética»; la
segunda, igual desde el punto de vista de la filosofía y además errónea en
relación con la fe.
Estaba todo dado: quienes defendían una doctrina herética debían comparecer
ante el tribunal. Pablo V dio entonces instrucciones a Bellarmino para que
citara a Galileo y le impusiera verbalmente el abandono de las opiniones
censuradas sobre las que había emitido su juicio la comisión: de ser
cuestionada por Galileo la advertencia verbal, el comisario de la Inquisición
procedería a reiterarla de manera formal en presencia de notario y testigos y,
de negarse Galileo también a esta requisitoria formal, debía ser encarcelado.
Galileo fue citado el 16 de febrero en la residencia de Bellarmino, donde
estaban, además, el comisario de la Inquisición y otros prelados y un notario.
No es seguro lo que pasó allí, y las versiones varían. Es verosímil la que
cuenta que, al entrar Galileo, Bellarmino se le acercó y le dijo por lo bajo
quiénes estaban presentes y le dijo también que aceptara sin reparos la
admonición verbal, ya que la situación estaba… complicada, digamos. Galileo,
que sabía perfectamente quiénes eran los que estaban allí y sabía la poca
simpatía que despertaba entre ellos, se apresuró a aceptar.
En ese momento intervinieron los inquisidores, que no estaban dispuestos a que
Galileo se les escapara, pero Bellarmino sacó a Galileo de la sala antes de que
se firmara documento alguno. Esto no impidió que la Inquisición depositara en
el registro oficial un acta redactada presumiblemente por el notario, pero que
está sin firma y donde no figuran firmas de testigos:
Ante mí y los testigos, continuando presente el señor Cardenal
(Bellarmino), el citado Galileo recibió del mencionado Comisario orden
rigurosa, en nombre de Su Santidad el Papa y de toda la Congregación del Santo
Oficio, para que abandonase por completo dicha opinión de que el Sol está
inmóvil en el centro del mundo y que la Tierra se mueve; y que no prosiga en
modo alguno enseñándola, sosteniéndola ni defendiéndola, ya sea verbalmente o
por escrito; de lo contrario el Santo Oficio adoptaría otros procedimientos;
cuyo requerimiento el dicho Galileo acató y prometió obedecer.
Esta acta (que durante mucho tiempo se consideró una falsificación)
sería usada como pieza clave en el segundo acto del conflicto, durante el
proceso de 1633.
Luego de este episodio, como es lógico, comenzaron a propagarse rumores de que
Galileo había sido castigado, de que se lo había declarado culpable y que se lo
había obligado a abjurar de sus creencias y a hacer penitencia delante de la
Inquisición.
No era así: Galileo regresó a su alojamiento en la embajada, obtuvo una
entrevista con el Papa (lo cual era desde ya tranquilizador) e incluso un
escrito de Bellarmino, firmado de su puño y letra, donde éste negaba que
Galileo se hubiera retractado y certificaba que solamente se le había prohibido
a Galileo defender o sostener el copernicanismo, por ser éste contrario a la
Escritura. Es importante que en este texto no apareciera ningún problema
respecto de la enseñanza, lo cual es consecuente con la posición de Bellarmino,
que consideraba, como ya dijimos, que mientras se enseñara como si fuera
ficcional, no había problemas.
Galileo entonces regresó a Florencia y en cierto modo dio por terminado el
episodio.
Un contemporáneo no demasiado afecto a Galileo escribió:
Las disputas del señor Galileo se han disuelto en humo de alquimia,
puesto que el Santo Oficio ha declarado que mantener tal opinión es disentir
manifiestamente de los dogmas infalibles de la Iglesia. De manera que, por fin,
nos vemos ahora de nuevo seguros en una Tierra sólida, y ya no tenemos que
volar con ella, como hormigas que se arrastran por la superficie de un globo.
El 5 de marzo sería dado a conocer un decreto por el cual se incluían
dentro del Índex de libros prohibidos todos aquellos que
defendieran la realidad del movimiento de la Tierra. El libro de Copérnico fue
«suspendido» hasta ser «corregido» y se lo liberó cuatro años más tarde con
pequeñas modificaciones, aunque la versión original se mantuvo prohibida
durante doscientos años.
Pero Galileo, que había salido relativamente bien parado y con mínimos daños de
esta primera escaramuza, no estaba dispuesto a abandonar la guerra.
De hecho, en 1618 volvió a pelearse con los jesuitas por cuestiones
científicas: en este caso, se trataba de la naturaleza de tres cometas que
aparecieron ese año. Los religiosos, que habían adoptado el sistema mixto de
Tycho Brahe, ubicaron las trayectorias entre la Luna y el Sol, en una órbita no
circular. Galileo, por su parte, creyó que una órbita no circular amenazaba el
sistema de Copérnico (cosa que no se entiende del todo, teniendo en cuenta que
ya se habían difundido las dos primeras leyes de Kepler, leyes que, dicho sea
de paso, Galileo jamás tomó en cuenta) y ensayó una teoría completamente
fantástica sobre la generación de los cometas en la atmósfera como mezcla de
vapores y de luz solar. Era una posición insostenible, pero a la cual se
aferró, atacando duramente a sus contrincantes (que eran buenos astrónomos).
Dicha postura no hizo sino enardecer el antagonismo hacia él que mantenía la
poderosa orden a la que pertenecían. Más allá de lo disparatado de su teoría,
lo cierto es que Galileo se enconó con los jesuitas por ser representantes de
un modo de pensamiento teológico aplicado a las ciencias naturales, lo cual
sirvió para que empezara a exponer (o continuara exponiendo, mejor dicho)
cuestiones metodológicas y teóricas de una importancia fundamental para la
historia de la ciencia. Es en este contexto que escribe uno de sus párrafos más
famosos:
La filosofía está escrita en este vasto libro que continuamente se abre
ante nuestros ojos (me refiero al universo), el cual sin embargo no se puede
entender si antes no se ha aprendido a entender su lengua y a conocer el
alfabeto en el que está escrito. Y está escrito en el lenguaje de las
matemáticas, siendo sus caracteres triángulos, círculos y otras figuras
geométricas, sin las cuales es humanamente imposible comprender una sola
palabra; sin ellos sólo se conseguirá vagar por un oscuro laberinto.
Las matemáticas eran la sintaxis del mundo y, luego del primer juicio,
las cosas estaban relativamente tranquilas. Relativamente tranquilas.
III. Intermedio
JUGLAR: Dos mundos, dos mundos
el de arriba puro
el de abajo corrupto.
Arriba éter cristalino
abajo mineral sucio.
Aire tierra, fuego y agua
arriba todo se mueve
en un perfecto círculo
abajo todo se mezcla
y la tierra está inmóvil
en el centro del mundo.
¿Cómo es que los pájaros no salen volando?
¿Y cómo es que la luna no se queda atrás?
¿Y cómo puede ser que no nos demos cuenta?
HOMBRE: Se mueve el pez en el mar.
Se mueve el ave en el viento
Y el viento
Es aire en movimiento
Nada está quieto
Salvo mi corazón.
JUGLAR: (Y el volcán
¡rataplán!)
MUJER: Vuela el pájaro en el aire
juega la luz en la nieve
por el espacio vacío
la tierra también se mueve.
NIÑO: Se mueve el mar en el mar
donde relumbran los peces
y se agita entre las flores
el colibrí, que no duerme.
Y en la montaña el arroyo
y en los pastos la serpiente.
HOMBRE: Cae el águila de pronto
sobre la presa inocente
y en el espacio vacío
también la tierra se mueve.
JUGLAR: Y el volcán
¡rataplán!
HOMBRE: La tierra parece quieta
palacio de grandes torres
donde sólo el viento turbio
sabe agitar los faroles.
Ya relumbra en la alameda
la espesa quietud del cobre
y las mujeres cetrinas
con vestiduras de hombre
que cuentan en las esquinas
el dinero de los pobres.
MUJER: La Tierra parece inmóvil,
serena como una torre
Como un árbol o una vela
Cuando no hay viento que sople.
GALILEO: Y sin embargo se mueve.
JUGLAR: Señores inquisidores,
policías, represores
del pensamiento que vuela.
Tristes guardianes del éter,
oigan lo que digo yo.
La tierra se está moviendo
les guste a ustedes o no.
Vayan con su dios pequeño
que vigila noche y día.
Rataplán plan plan.
¿Qué puede el pequeño dios Contra Galileo? ¿Qué puede?
Rataplán plan plan.
IV. El segundo proceso
Los actores del segundo proceso a Galileo serían otros: Bellarmino había
muerto en 1621 y el papa Pablo V en 1623. Galileo vio su oportunidad cuando
asumió como Papa con el nombre de Urbano VIII el cardenal Maffeo Barberini, un
hombre que se consideraba a sí mismo un renacentista ilustrado, amigo de las
artes y las ciencias, que había admirado la Francia de Enrique IV, donde se
había conseguido por una vez imponer la paz religiosa y no la paz de los
cementerios, como era usual en aquella época y como lo sigue siendo, al menos
más de lo que uno querría, ahora y que, vale decirlo, era un verdadero
admirador de Galileo, a tal punto que le había dedicado un poema unos pocos
años antes.
La dedicatoria de Il saggiatore (El ensayador), el
libro que fue el resultado de la polémica de 1618 con los jesuitas (y en el que
se exponen algunas de las más exquisitas reflexiones sobre la ciencia de
nuestro autor), fue dirigida, como era de esperarse, al nuevo Papa; los
miembros de la Accademia dei Lincei, por su parte, incorporaron al
sobrino del Papa, Francesco Barberini, que luego sería nombrado cardenal por su
tío y que integraría el tribunal que juzgaría a Galileo en 1633.
Nuestro protagonista se entrevistó entonces con el flamante Urbano VIII, quien
declaró públicamente que no se opondría a la publicación de nuevos libros de
Galileo sobre la cuestión copernicana siempre que (¡otra vez!) se lo
considerara como un sistema ficcional. Mientras tanto, celebraba las pullas que
Galileo dedicaba a los jesuitas en el Saggiatore («se partía
de risa»), que era la comidilla de Roma, ciudad en la que Galileo ya era
considerado un nuevo Cristóbal Colón o un nuevo Prometeo.
Lo cierto es que Galileo creyó percibir un ambiente favorable, y se puso a
redactar la gran obra que venía prometiendo desde el Sidereus Nuncius:
un libro en el que se proponía comparar los dos grandes sistemas del mundo (el
tolemaico y el copernicano) para exhibir claramente sus ventajas y desventajas.
El Diálogo sobre los dos máximos sistemas del mundo fue
escrito entre 1624 y 1630, año en que viajó a Roma para entregar el manuscrito
y fue recibido amablemente por el Papa, a quien expuso las líneas generales del
libro. Finalmente, el trabajo recibió la aprobación de la censura y se publicó
en 1632: su repercusión fue grande y las alabanzas unánimes. Todo parecía ir de
la mejor manera. Pero se estaba cebando una bomba de tiempo que estallaría casi
en seguida.
§. El Diálogo
El Diálogo sobre los dos máximos sistemas del mundo (llamado
habitualmente el Diálogo) quedó terminado en noviembre de 1629.
Como su título indica, adoptó la forma de un debate imaginario entre dos
personas: Salviati (defensor del sistema copernicano) y Simplicio (que daba
argumentos a favor del sistema de Tolomeo). La utilización de un diálogo de este
tipo era un recurso tradicional, que se remontaba a los antiguos griegos y, en
principio, ofrecía un modo claro de enseñar teorías no convencionales (o, en
este caso, heréticas), sin que el autor tuviera que aprobarlas al pie de la
letra.
Sin embargo, Galileo no siguió exactamente esta tradición. Había existido en la
realidad un Filippo Salviati, amigo íntimo de Galileo, que había muerto en 1614
y, al elegir este nombre para el interlocutor copernicano, Galileo se acercaba
peligrosamente a identificarse explícitamente él mismo con aquella visión del
universo. También había existido un Simplicio (en realidad Simplicius), un
hombre de la Grecia antigua que había escrito un comentario sobre la obra de
Aristóteles, por lo que se podía alegar que este nombre era adecuado para el
defensor de Tolomeo (y de Aristóteles) en el Diálogo. El nombre
sugiere, por otra parte, que sólo un simple podía creer que el sistema de
Tolomeo era correcto.
La tercera voz en este libro era la que aportaba Sagredo, llamado así por otro
viejo amigo de Galileo, Gianfrancesco Sagredo, que había fallecido en 1620. Se
suponía que Sagredo era un comentarista imparcial, que escuchaba el debate
entre Salviati y Simplicio, planteando cuestiones para que fueran debatidas.
Pero este personaje tendía cada vez más a apoyar a Salviati frente a Simplicio,
por la fortaleza de sus argumentos.
El Diálogo es un verdadero manifiesto copernicano «para todo
público», donde Galileo niega la dicotomía entre mundo terrestre y celeste,
afirma que es erróneo atribuir a los cielos y a la tierra movimientos naturales
distintos (circulares para uno y rectilíneos para la otra) y analiza los
últimos descubrimientos astronómicos, considerándolos incompatibles con la
cosmología aristotélica: la Luna es opaca como las piedras, y la Tierra la
ilumina al reflejar sobre ella la luz recibida del Sol; la misma materia existe
en todas partes, y en suma la misma física es aplicable a los cielos y a la
tierra; el éter no es más un elemento; la Tierra, desde ya, está en movimiento
pese a la percepción cotidiana. Para demostrar esto último, refuta los
argumentos tradicionales respecto del movimiento terrestre, y usa el famoso
ejemplo del barco que se desliza en un mar calmo. Todas las cosas del barco
participan de su movimiento, y la piedra que cae del mástil tiene movimientos
compuestos que no interfieren entre sí, situación prohibida por la filosofía
peripatética.
Cuando Simplicio sostiene que no puede «ver» la trayectoria curvilínea, se le
pone el ejemplo de una caminata nocturna en la que la Luna parece desplazarse
por arriba de los techos, cosa que evidentemente es una apariencia que
«evidentemente nos engañaría si no interviniera la razón».
Alcanza con todo esto para darse cuenta de que el Diálogo era
una verdadera bomba y no tardó en despertar la furia de los enemigos de
Galileo: apenas cuatro meses después de su publicación se efectuaron reuniones
de teólogos que querían prohibirlo y el censor de la Iglesia pidió al
inquisidor de Florencia que secuestrara los ejemplares que pudiera ubicar.
Además, se sugirió a Su Santidad que Galileo había escrito deliberadamente para
dar a entender que el propio Urbano VIII era un simple, lo cual, por supuesto,
enfureció al Papa, quien más tarde diría sobre Galileo: «No temía burlarse de
mí». El resultado fue que se constituyó una comisión papal para investigar el
asunto. Revisando en los archivos en busca de algo que pudieran encontrar sobre
Galileo, los jesuitas dieron con lo que parecía ser una prueba condenatoria:
las actas no firmadas de la reunión de 1616, aquella de la que había
participado Bellarmino, donde se decía que Galileo había recibido instrucciones
de abstenerse de «sostener, defender y enseñar» la teoría copernicana del
universo. Ésta fue la prueba decisiva que hizo que Urbano VIII llamara a
Galileo a Roma para someterlo a un juicio por herejía.
Es cierto que Galileo actuó con exceso de confianza, pero a simple vista la
situación así lo permitía. Lo grave fue que el mismísimo Papa, movido por
intrigas palaciegas, traicionó a Galileo y se pasó al bando de sus enemigos: en
septiembre, el inquisidor de Florencia hizo llamar a Galileo y lo conminó a que
se presentara en Roma.
Galileo trató de retrasarlo, pero en enero de 1633, año trágico, se lo intimó
amenazándolo con hacerlo llevar por la fuerza, sin que el Gran Duque de Toscana
hiciera una defensa enérgica. Finalmente llegó a la embajada de Toscana en Roma
el 13 de febrero de 1633, dos días antes de cumplir 69 años, para iniciar una
verdadera ordalía.
§. Galileo era «culpable»
El 12 de abril se presentó ante los jueces. En los procesos de la Inquisición,
de infame memoria, el acusado ignoraba los cargos, no tenía abogado defensor y
se lo consideraba culpable a menos que pudiera probar su inocencia (sin contar
las horrendas torturas que se aplicaban para obtener confesiones).
Pero este caso era complicado para la Inquisición, ya que el Diálogo se
había publicado con autorización eclesiástica y el acta de 1616 no tenía gran
valor, pues carecía de firma de testigos.
La Iglesia quería demostrar que Galileo había desobedecido la orden del Papa de
no enseñar el sistema copernicano en ningún caso. Pero las actas no firmadas
correspondientes a la reunión de 1616, en las que supuestamente se le prohibía
a Galileo enseñar el sistema copernicano, quedaron sin valor cuando Galileo
presentó el documento firmado que el cardenal Bellarmino había escrito de su
puño y letra, en el que se establecía que Galileo no podría «ni sostener, ni
defender» aquellas teorías. No se decía nada de enseñar. Era una buena primera
treta, pero no podía durar mucho: había que hacer verdaderos malabares
argumentativos para sostener que el diálogo no era una defensa o un sostén del
sistema copernicano, y de hecho en cierto momento, desesperado por la falta de
argumentos, Galileo sostuvo la ridícula hipótesis de que el tratado estaba
destinado a demostrar que los supuestos de Copérnico eran inconcluyentes, cosa
que era a todas luces mentira. Así terminó el primer tramo del interrogatorio.
El problema es que Galileo era indudablemente «culpable» (de un «delito» por
cierto imperdonable para la Iglesia: la disidencia intelectual) y poco podía
decir a su favor. Era cierto que había defendido y sostenido el sistema
copernicano desde la prohibición y era muy fácil de demostrar. Había un libro
publicado, un libro que poco pie daba a las ambigüedades, y todo el mundo sabía
sobre el copernicanismo galileano. No podía engañar a nadie.
En junio el proceso se reanudó con nuevos interrogatorios y finalmente Galileo
terminó por reconocer todo lo que se le pedía, con lo cual se lo consideró
confeso de las acusaciones en su contra, y se lo conminó a decir toda la
verdad, amenazándolo con la tortura (y no es arbitrario pensar que pueden
haberle mostrado los instrumentos de tortura con una explicación de sus efectos
para que, amablemente, confesara más rápido).
Durante el interrogatorio, el acusado respondió que no adhería a la doctrina
condenada:
Hace mucho tiempo, yo era indiferente y consideraba ambas opiniones, la
de Tolomeo y la de Copérnico, como un tema abierto a la discusión en la medida
en que cualquiera de ellas podía ser verdad en la naturaleza. Pero después de
dicho decreto, convencido de la sabiduría de las autoridades, dejé de dudar y
sostuve, y aún sostengo, como la más verdadera e indiscutible, la opinión de
Tolomeo, es decir, la estabilidad de la Tierra y el movimiento del Sol.
Galileo admitía haber sido copernicano hasta que se lo prohibieron. Así
firmó y recitó su retractación definitiva:
Yo, Galileo, hijo de Vincenzo Galileo de Florencia, a la edad de 70
años, interrogado personalmente en juicio y postrado ante vosotros,
Eminentísimos y Reverendísimos Cardenales, (…) juro que siempre he creído, creo
aún y, con la ayuda de Dios, seguiré creyendo todo lo que mantiene, predica y
enseña la Santa, Católica y Apostólica Iglesia.
Pero, como, después de haber sido jurídicamente intimado para que abandonase la
falsa opinión de que el Sol es el centro del mundo y que no se mueve y que la
Tierra no es el centro del mundo y se mueve, y que no podía mantener, defender
o enseñar de ninguna forma, ni de viva voz ni por escrito, la mencionada falsa
doctrina, y después de que se me comunicó que la tal doctrina es contraria a la
Sagrada Escritura, escribí y di a la imprenta un libro en el que trato de la
mencionada doctrina perniciosa y aporto razones con mucha eficacia a favor de
ella sin aportar ninguna solución, soy juzgado por este Santo Oficio
vehementemente sospechoso de herejía, es decir, de haber mantenido y creído que
el Sol es el centro del mundo e inmóvil, y que la Tierra no es el centro y se
mueve. Por lo tanto, (…) con el corazón sincero y fe no fingida, abjuro,
maldigo y detesto los mencionados errores y herejías y, en general, de todos y
cada uno de los otros errores, herejías y sectas contrarias a la Santa Iglesia.
Y juro que en el futuro nunca diré ni afirmaré, de viva voz o por escrito,
cosas tales que por ellas se pueda sospechar de mí; y que si conozco a algún
hereje o sospechoso de herejía, lo denunciaré a este Santo Oficio o al
Inquisidor u Ordinario del lugar en que me encuentre.
Yo, Galileo Galilei, he abjurado, jurado y prometido y me he obligado; y
certifico que es verdad que, con mi propia mano he escrito la presente cédula
de mi abjuración y la he recitado palabra por palabra en Roma, en el convento
de Minerva este 22 de junio de 1633.
Yo, Galileo Galilei, he abjurado por propia voluntad.
La condena fue la prisión de por vida. Primero se le conmutó por un
arresto domiciliario en la embajada de Toscana en Roma; luego pasó a estar bajo
la custodia del arzobispo de Siena (que simpatizaba con él) y finalmente todo
quedó en el confinamiento en su propio domicilio cerca de Arcetri, desde
principios de 1634. La vigilancia no fue demasiado estricta: en su aislamiento,
Galileo recibía visitas, se carteaba con múltiples científicos europeos y, lo
que es más importante, tuvo tiempo de terminar el más importante de todos sus
libros, Consideraciones y demostraciones matemáticas sobre dos ciencias
nuevas (denominado habitualmente Dos nuevas ciencias), que
recopilaba todos sus trabajos sobre mecánica, inercia y péndulos y describía su
concepción del método científico, aplicando el tratamiento matemático a temas
cuyo estudio hasta entonces había sido prerrogativa de los filósofos. El
manuscrito se sacó clandestinamente de Italia y Louis Elzevier lo imprimió en
Leiden en 1638. En sus últimos años, se quedó completamente ciego y le escribió
a un amigo:
Ay de mí, Señor mío… Galileo, vuestro servidor está, completa e
irreparablemente ciego. ¡Cuánto dolor! ¡¡Cuánta injusticia!! Ese cielo, ese
mundo y ese universo que yo, con maravillosas y claras demostraciones, había
ampliado cien y mil veces más allá de cuanto vieron todos los sabios de la
historia, ahora se ha vuelto diminuto, se ha restringido hasta un punto que no
es mayor que el espacio que ocupa mi persona.
Galileo murió en Arcetri mientras dormía durante la noche de 8 al 9 de
enero de 1642, unas pocas semanas antes del día en que habría cumplido 78 años.
§. Balance: los dos juicios
El proceso a Galileo fue fuente de inspiración de obras de teatro y fuente
también de ríos de tinta: durante el papado de Karol Wojtyla (Juan Pablo II),
finalmente se reivindicó a Galileo, «solamente» cuatrocientos y pico de años
después, y ahora hasta se publican los documentos de ese grandioso papelón que
pasó la Iglesia (y que no terminó en tragedia debido a la razonable actitud de
Galileo al retractarse y salvar su cuerpo de la tortura y su vida de la
hoguera).
El primer asalto de 1616 no terminó en nada concreto; el de 1633 ya fue otra
cosa: la Iglesia se había pronunciado abiertamente contra la astronomía
heliocéntrica y era herejía ya no sólo enseñarla sino creer en ella, y se le
exigió a Galileo no sólo arrepentirse de haber creído en ella, sino hacerlo
«sinceramente»: una siniestra farsa que sólo por un pelo no terminó de la
manera más horrible (como había sido el caso de Giordano Bruno) gracias a la
lucidez de Galileo. Desde ya, fue una de las tantas siniestras muestras de
intolerancia de la Iglesia Católica, que rechazó y prohibió el sistema que sólo
medio siglo más tarde se consagraría de manera irrefutable con la obra de
Newton. En verdad, en 1616, la Iglesia estaba fundamentalmente preocupada por
controlar cómo se enseñaba la realidad; en 1633, ante los
fracasos de la Contrarreforma, ya estaba preocupada por controlar cómo era la
realidad.
Pero hay algo más sobre el juicio a Galileo: por un lado está el papelón de
condenar la teoría copernicana, una teoría ya adornada por las tres leyes de
Kepler y que estaba siendo aceptada en Inglaterra y Holanda, por poner un par
de ejemplos, y que en poco tiempo más se vería coronada de manera definitiva
por Newton; Galileo tenía razón frente a lo retrógrado de la postura papal. Sí.
Pero… ¿y si Galileo hubiera estado equivocado, qué? ¿En ese caso la
intolerancia hubiera tenido su costado razonable o disculpable?
Al fin y al cabo, la idea de libertad de pensamiento es relativamente nueva: se
remonta no mucho más allá de la Revolución Francesa. ¿Es legítimo condenar un
acto de intolerancia del siglo XVII con los parámetros actuales? ¿No es una
falacia juzgar hechos pasados con valores presentes? ¿Puede uno
horrorizarse ex post de la represión en una época que ni
soñaba con la libertad de pensamiento como un derecho? ¿O de la recurrencia a
la tortura, cuando ésta era parte legal de los procesos judiciales y faltaba
bastante para que se publicara el alegato Dei delitti e delle pene,
de Beccaria, que cambió el pensamiento jurídico?
Yo creo que decididamente sí: es difícil tomar aquellos horrores como
simplemente epocales; al fin y al cabo, si se utilizaban eran precisamente
porque se los consideraba horrores, inseparables del castigo. Además, no eran
para nada universales: Holanda, en gran medida Inglaterra, y hasta la República
de Venecia (por no hablar de Toscana, donde Galileo era ampliamente aceptado)
tenían hacia el pensamiento actitudes muy distintas (no así hacia la tortura en
los procesos judiciales, aunque, vale la pena recordar, el mismo derecho romano
prohibía la tortura —a los ciudadanos, claro está; los demás podían ser
torturados libremente—). Por otra parte, no está de más recordar que el
pensamiento intolerante es bastante más actual de lo que uno desearía.
Así pues, hay dos juicios a Galileo: uno es el científico; el otro es la
represión a la disidencia y la discordancia: el primero no hace sino volver más
nítido, más repudiable y más repugnante el segundo. Del primero, el Vaticano se
retractó. Del segundo, no.
Y seguramente, mientras el juicio a Galileo se desarrollaba, muchos infelices
eran torturados y languidecían en los calabozos de la Inquisición, esperando
que los ataran a la pira donde serían quemados.
VI. Final
Relator: La última leyenda. Una leyenda, y esta vez no inventada por
Viviani, sino forjada un siglo y medio después. Cuenta que después de recitar
su retractación, Galileo murmuró por lo bajo «eppur si mouve» («y
sin embargo se mueve»). Claro está que no cometió semejante acto de rebeldía,
que podría haberle costado nada menos que la hoguera. Pero a los fines
dramáticos, la aceptaremos para este final.
Juglar: Para entonces, su fama era inmensa, y era alabado en toda Europa. Sus
libros, que estaban prohibidos, corrían por los ambientes académicos de
Inglaterra y Francia y se leían en las nuevas sociedades científicas que
acababan de nacer, como las de Londres y San Petersburgo.
Ahora sabemos que el mundo que el hombre creyó presidir desde la Tierra no
existe: vivimos en una pequeña geografía de un pequeño planeta, insignificante
respecto de la estrella alrededor de la cual giramos. Esta estrella es una más
entre cientos de miles de millones de estrellas que forman la galaxia, que es
una más de las cien mil millones de galaxias que pueblan el Universo.
Y todo empezó esa oscura noche de Pisa de 1610, cuando el ojo curioso de
Galileo, oculto detrás de un telescopio casi de juguete, lo apuntó por primera
vez al cielo estrellado y destruyó los relatos míticos y las filosofías
antiguas.
Entran inquisidores y guardias.
Su eco puede escucharse tenuemente en una noche sin Luna, cuando el
cielo muestra todo su esplendor de estrellas y galaxias. Entonces, en medio del
campo, rodeado sólo por el abrumador silencio de la noche, se puede sentir una
mirada que aún sigue activa.
Es la mirada de alguien que solo, amparado por la razón, se enfrentó con todo
el mundo.
Es la mirada de Galileo.
Los guardias aprisionan al juglar, lo atan y lo arrastran hasta la pira,
donde el verdugo lo ata. Lo queman.
Es la mirada de Galileo.
Un inquisidor le da la bendición al juglar.
Es la mirada de Galileo.
Ahora está todo iluminado por la luz rojiza del fuego. La pira donde se
quema el juglar crece. Pero se escucha cada vez más fuerte el grito:
Juglar: Es la mirada de Galileo, y una voz que susurra: « ¡Y sin embargo
se mueve!».
El fuego poco a poco se va apagando; en la pira se ve el cuerpo
carbonizado del juglar. Se ha hecho la oscuridad más absoluta, y brillan las
estrellas. Sale la Luna. La gente se aleja de la hoguera cabizbaja. Se oye un
murmullo general.
Señores inquisidores
policías, represores
del pensamiento que vuela,
de la razón que no duerme.
Oigan lo que digo yo:
la tierra se está moviendo
les guste a ustedes o no.
Vayan con su dios pequeño.
Perdonen vuestras mercedes.
No va a dejar de moverse
porque lo digan ustedes.
Perdonen vuestras mercedes.
No va a funcionar el mundo
como lo digan ustedes.
Y cae el telón.
Interludio:
Milonga de Galileo
En 1970, el papa Juan Pablo II inició la revisión del caso Galileo. En
1995, la iglesia reconoció su error, el Papa pidió perdón por la condena, y
Galileo fue reivindicado. Pero pocos conocen la verdadera historia del asunto.
La muy santísima iglesia
reivindicó a Galileo
después de trescientos años:
lenteja, asigún yo creo.
Pero muy pocos conocen
la verdadera razón,
y el secreto bien guardado
de tal reivindicación.
Sucede que en Buenos Aires
allá en Barracas, que un día
se llamó Santa Lucía,
había un taura aficionado
a estudiar astronomía.
Se sentaba, noche a noche
a orillas del Maldonado
a contemplar las estrellas
y meditaba asombrado.
«Qué taura tan grande fue
Galileo Galilei,
malevo como el que más,
y encima, varón de ley.
¿Cómo se puede admitir
que le hayan hecho un proceso,
en el que casi lo queman
y después lo manden preso?».
Y un día como cualquiera
con el facón en la mano,
decidió cambiar las cosas
y viajó hasta el Vaticano.
Se fue derecho a San Pedro
y sin pedirle permiso
se plantó ante el propio Papa
achurando a un guardia suizo.
Y sin besarle el anillo
le dijo: «Su Santidá
permitamé que le hable
con entera libertá.
¿Acaso la iglesia cree
que el sol se mueve a través
del cielo, y sigue ignorando,
que es justamente al revés?».
Y dijo el Papa: «Hijo mío,
sabemos bien quién se mueve,
pero a arreglar ese enriedo
ahora nadie se atreve.
Resulta casi imposible
reparar todos los daños
que hizo la Inquisición
hace ya trescientos años».
Y el taura: «Usté, como Papa,
tal vez lo pueda decir,
pero yo, como malevo
no lo puedo permitir».
«Arreglarlo —dijo el Papa—
es una complicación,
hay que citar un Concilio,
tal vez una Comisión,
Hay seiscientos cardenales
cada cual con su opinión,
¿usted sabe lo que implica
semejante discusión?»
«Mire, Papa —dijo el taura—,
no me importa lo que implica:
al amigo Galileo
usté me lo reivindica.
Si no, Juan Pablo Segundo,
le voy a ser muy sincero,
me da el pálpito que pronto
habrá un Juan Pablo Tercero».
Contestó el Papa: «Hijo mío,
estoy lleno de problemas,
no trates de complicarme
trayéndome nuevos temas.
¿Sabés lo que significa
manejar el Vaticano,
la mafia, la corrupción,
y el crack del Banco Ambrosiano?
Los sacerdotes rebeldes,
cada tanto un atentado,
y afinar el papamóvil
que tiene el motor gastado».
Y el taura: «Se lo repito,
le juro como malevo
que usté me lo reivindica
o tenemos Papa nuevo».
Al tiempo que esto decía,
revoleaba su facón
en las narices del Papa,
con mucha resolución.
En fin, suspiró Juan Pablo,
cosas que el Papado tiene,
¡solucionar un entuerto,
que no me va ni me viene!
Y vista la cercustancia
el Papa salió al balcón
y admitió que Galileo
tuvo toda la razón.
Capítulo 17
Newton, hacedor de universos
Nature and Natures laws lay hid in night: God said, «Let Newton be!» and
all was light.
(La naturaleza y sus leyes estaban ocultas en la oscuridad; Dios dijo: «Sea
Newton», y todo fue claridad).
ALEXANDER POPE
Desde hace unos capítulos hemos seguido la evolución de las ideas físicas y
astronómicas desde que, según la fecha que fijé (que no es tan arbitraria
como dije al principio), en 1543 Copérnico abriera la Revolución Científica con
su De Revolutionibus orbium caelestium. Esta línea imaginaria que
hemos trazado, que pasa por Brahe, Galileo y Kepler y que funciona como la
melodía fundamental que permite descubrir y reconstruir la sinfonía, culmina
con otro libro, acaso el más importante de toda la historia del pensamiento
científico occidental: Philosophiae naturalis Principia matematica,
o Principia, como se lo nombra más frecuentemente, de Isaac Newton,
de 1687. Es con los Principia que la línea se completa y la
ciencia moderna sale armada prácticamente de pies a cabeza.
Pensar las cosas así, esto es, como una marcha continua, sostenida y ascendente
del De Revolutionibus a los Principia, de
Copérnico a Newton, puede resultar (y resultará a tantos lectores)
demasiado ex post, demasiado reconstructivo a la luz de los
resultados y desde el punto de vista actual.
Y sin embargo hay algo en la actitud y el pensamiento científico de estos
personajes de los que hemos hablado, y de los que hablaremos ahora, que parece
indicar una verdadera novedad: se trata de un esfuerzo consciente, explícito y
tenaz que no se detiene ante lo ya conocido, sino que lo considera incompleto,
formula sus aportes y exige a los continuadores que resuelvan los problemas que
quedan abiertos. Así, por ejemplo, Brahe es perfectamente consciente de que,
destruidas las esferas cristalinas, su sistema, con el Sol girando alrededor de
la Tierra y el resto de los planetas girando alrededor del Sol, no está bien
fundamentado y le encarga a Kepler que lo haga (cosa que Kepler no sólo no
cumplió, como sabemos, sino que usó los preciosos datos de Brahe para
fundamentar el sistema copernicano, lo cual seguramente hizo a Brahe revolverse
en su tumba).
Galileo es consciente, también, de los problemas que quedan abiertos:
Nadie ignora que esa causa (de la caída) recibe el nombre de gravedad. Pero
excepto el nombre, no comprendemos nada de esa cosa: ni de la virtud que hace
bajar una piedra, ni de la que empuja una piedra proyectada hacia arriba, ni de
la que mueve la Luna en su órbita.
Es, a la vez, una mirada al pasado pero un asomarse al futuro: la conciencia de
la propia ignorancia no lleva a la parálisis ni a los libros de los antiguos
sino a la reflexión y la investigación; la mente humana es potencialmente capaz
de resolver todos los nuevos acertijos que se van planteando y el científico se
convierte, en cierto modo, en un postulador de acertijos que deben funcionar
como guías del pensamiento futuro y ser solucionados por los que vendrán.
Descartes escribiría:
Espero que nuestros nietos nos estarán agradecidos, no sólo por las cosas que
he explicado sino también por las que voluntariamente he omitido, con el fin de
dejarles el placer de inventarlas.
Los hombres de la Revolución Científica son científicos conscientes de que lo
son, de que la ciencia es una tarea colectiva y pública que avanza gracias al
trabajo acumulado de una comunidad dentro de la cual cada investigador ve más
lejos que el anterior porque tiene la posibilidad de montarse en los hombros de
sus predecesores, en «hombros de gigantes»… La frase, que define al propio
Newton, no es ociosa: la ciencia está planteando un nuevo escenario y
ubicándolo en el futuro.
«Si vemos más lejos es porque estamos subidos en hombros de gigantes»: es una
proposición bastante elocuente. Suele atribuírsela a Newton, pensando que a lo
que se refiere es a que su ley de gravitación es posible sólo gracias a que
pudo subirse en los hombros de Copérnico, Galileo y Kepler. Pero no fue así.
Newton la usó en una carta a Robert Hooke en la que hablaba de las críticas que
éste había hecho a su teoría corpuscular de la luz, y no tiene nada que ver con
los Principia ni con la ley de gravitación universal. Tampoco
es original de Newton, sino, como recordarán, de Bernardo de Chartres, en el
siglo XII, lo cual muestra que esta postura de los científicos de la revolución
tenía algunas raíces en el pasado y que poner fechas de comienzo, o límites, o
fechas de cierre, es siempre un poco arbitrario.
Sea como fuere, la línea que trazamos tiene sus justificaciones. Y si le
dedicamos un capítulo a quien inaugura la Revolución Científica, tenemos que
dedicarle otro a quien la culmina, produciendo esa pavorosa síntesis que marcó
el rumbo que seguiría la ciencia hasta… hasta hoy.
§. Vida de Newton
Es muy difícil aproximarse con ecuanimidad a Newton, hacedor de universos, y
considerado por muchos como el científico más grande que jamás haya existido.
Inclinado al esoterismo, tuvo una personalidad extraña y enfermiza, paranoica
hasta el exceso, al borde mismo de la locura, que estuvo alguna vez a punto de
acabar con él. Vengativo, perseguía a sus enemigos científicos hasta el
cansancio y hasta el extremo de hacer desaparecer de la Royal Society el
retrato de Robert Hooke, uno de los científicos más importantes del siglo
XVIII. Tenaz en sus odios, mantuvo una absurda polémica con Leibniz por la
prioridad en la creación del cálculo infinitesimal que envenenó las relaciones
entre la ciencia inglesa y la continental y retrasó en Inglaterra el desarrollo
de las matemáticas.
Había nacido en 1642 en una granja de Woolsthorpe, una ciudad en Lincolnshire,
al este de Inglaterra, que permanecería relativamente ajena al turbulento
período de la historia que le tocaría vivir. Siete años después del nacimiento
de Newton, la segunda guerra civil entre el rey y el Parlamento llegó a su
punto de máxima tensión cuando Carlos I fue ejecutado y se instauró la
república puritana de Cromwell, que duró hasta 1660, cuando la sucedió la
restauración de los reyes Estuardo (que finalizaría con la «Revolución
Incruenta» de 1688).
A los 12 años, es decir, en pleno proceso de protectorado de Cromwell, Newton
fue enviado a estudiar a una escuela de enseñanza secundaria en Grantham, a
unos 8 kilómetros de su granja natal. Tras la muerte de su padre, su madre
quiso que se hiciera cargo del manejo de las propiedades familiares, para lo
que Newton fue tan incapaz que finalmente lo enviaron de nuevo al colegio. En
junio de 1661, a los 18 años de edad (y ya con los Estuardo en el trono de una
restaurada monarquía), ingresó en el Trinity College de Cambridge, como
sub-becario, lo que significaba ser criado de un estudiante más pudiente, tarea
de lo más baja, que podía resultar extremadamente desagradable e incluir
trabajos tales como vaciar los orinales del amo, con lo cual, supongo, no tuvo
nada que ver su cariño por la mecánica de fluidos, que ocupa el segundo libro
de los Principia
§. El Trinity College
Platón es mi amigo, Aristóteles es mi amigo, pero mi mejor amigo es la
verdad.
NEWTON
La enseñanza en Cambridge era por entonces obsoleta, o más bien
apolillada; Newton, como seguramente cualquier otro estudiante interesado e
informado, decidió ignorar en gran medida los programas de estudios formales y
se dedicó a leer lo que le interesaba, como, por ejemplo, las obras de Galileo
y de Descartes, Gassendi, Hobbes, Boyle y la geometría de Euclides. La
astronomía copernicana, la mecánica de Galileo y la obra de Kepler parecen
haber causado un profundo efecto en él, hasta inducirlo a cambiar el foco de
sus estudios.
Sin embargo, aunque en 1660 Cambridge era aún un centro de estudios estancados,
en 1663 el político y clérigo Henry Lucas aportó la dotación para que se creara
allí una cátedra de matemáticas —la primera cátedra científica de la
universidad y la primera cátedra de cualquier tipo que se creaba desde 1540—
que fue el primer anuncio de lo que esa universidad llegaría a ser.
El primero que accedió a la cátedra lucasiana de matemáticas fue Isaac Barrow,
un antiguo profesor de griego que se había volcado a las matemáticas y cuyo
curso, probablemente, fue el que estimuló el interés de Newton por la ciencia.
Cinco años duró Barrow en el cargo. Es poco tiempo para una tarea de semejante
importancia, y esto despertó las elucubraciones y la imaginación de los
hagiógrafos newtonianos. Según ellos, Barrow le dejó la cátedra a Newton porque
admiraba tanto a su discípulo que simplemente consideró que merecía el cargo
más que él. Lo cierto es que, aunque el propio Barrow argumentó que dimitía
para ocuparse de sus asuntos religiosos, no tardó en llegar a ser capellán real
y luego director del Trinity College, por lo que nos es dado pensar que su
dimisión no se debió precisamente —o solamente— a una casi increíble
generosidad.
Newton terminó en Cambridge sus estudios previos a la graduación, llegó a ser
primero miembro del Trinity College y, en 1669, catedrático lucasiano de
matemáticas, reemplazando a Barrow a los 26 años. Pero antes de llegar a ese
cargo pasaron muchas cosas en su vida.
En 1665 había conseguido, sin pena ni gloria, su primer grado académico. Al
poco tiempo la plaga que estalló en Inglaterra (y que mató sólo en Londres a
treinta mil personas) lo obligó a refugiarse en el campo y volver a su hogar
materno. Retirado en su pueblo natal, probablemente sin muchas cosas
interesantes para hacer, se concentró en las propias investigaciones y entre
1665 y 1667 (¡a los 23 años!), elaboró el núcleo principal de todos sus más
importantes descubrimientos matemáticos y físicos, o por lo menos así lo contó
después. Las reconstrucciones de Newton hay que tomarlas con pinzas, ya que,
como veremos, muchas veces eran puramente interesadas y dirigidas a disminuir a
algún rival, real o fantástico. Pero fue en este lugar donde, según la leyenda,
cayó la famosa manzana que disparó en su mente la idea de la gravitación
universal.
§. Manzanas
La manzana de Newton juega en la historia de la ciencia un papel parecido al de
la manzana de Adán y Eva en la cosmogonía judeocristiana: ambas están al fin
relacionadas con el conocimiento, y en cierto sentido se puede decir que el
mordisco dado a una (y la consecuente caída del sujeto) permitió la caída de la
otra, y el ascenso del sujeto a la construcción de una explicación unificada,
global y total, de la mecánica celeste y terrestre.
La historia de la manzana fue contada por Voltaire, a quien se la contó, a su
vez, la sobrina de Newton, que la recibió del propio Newton. Pero la versión
que se ha popularizado, según la cual lo que descubrió nuestro protagonista en
ese momento es que la Tierra atraía a la manzana, alteró por completo el
verdadero significado de ese momento clave, si es que alguna vez ocurrió (si no
ocurrió, como veremos, Newton tuvo sus buenas razones para inventarlo).
Imaginemos la escena: Newton, forzado a la ociosidad por la epidemia que azota
a Cambridge, se ha sentado bajo el manzano a reflexionar sobre los mecanismos
del mundo. Ya se sabe —lo explicó Copérnico— que el Sol ocupa el centro del
sistema. Ya se sabe —lo explicó Galileo— por qué no salimos disparados de la
Tierra al moverse ésta, y también cuál es la ley que rige la caída vertical,
por la fuerza que ejerce la Tierra y que ya se denomina gravedad. Los
mecanismos del mundo sublunar, los que ocurrían en la Tierra, estaban
explicados. Ya se sabe —lo explicó Brahe— que las esferas de cristal son
quimeras. Ya se sabe —lo explicó Kepler— que los planetas rodean al Sol
describiendo elipses gracias a, según Kepler, una fuerza de tipo magnético que
se ejerce a través de tientos magnéticos que salen del Sol.
Es un día cualquiera, en el que a la Luna le toca ser vista de día muy por
encima del manzano, de una de cuyas ramas se desprende una manzana fragante que
cae a los pies del joven Newton. ¿Por qué ha caído la manzana? Porque la
gravedad de la Tierra tiró de ella hasta el suelo, según la ley de Galileo.
¿Pero qué habría ocurrido si la manzana hubiera estado unos metros más arriba?
No cabe duda de que la gravedad la alcanzaría igualmente y la haría caer. ¿Y si
hubiera estado un poco más arriba aún? Lo mismo, por supuesto. ¿Hasta dónde
llega esa fuerza de gravedad entonces? ¿Por qué habría de detenerse en el árbol
o en cualquier otro sitio?
Probablemente hasta el límite de la atmósfera… ¿pero esto tiene sentido? Claro
que no. Si la manzana ubicada en el límite de la atmósfera cae, ¿por qué no
habría de caer si está situada unos centímetros más arriba? ¿Acaso la gravedad
se corta de repente?
Es decir, piensa Newton, la gravedad llega hasta muy arriba, por ejemplo hasta
la Luna. Pero si la atracción terrestre alcanza a la Luna y tira de ella hacia
sí, eso significa que la Luna también está cayendo, sólo que lo hace de tal
manera que esa caída permanente se convierte en un permanente girar. Entonces
llega a una conclusión asombrosa: la misma fuerza que tira de la manzana es la
que mantiene a la Luna en su órbita y la hace girar alrededor de la Tierra,
tirando de ella.
No hay una fuerza especial para los astros. La fuerza que mueve a la Luna
alrededor de la Tierra es exactamente la misma que hace caer la piedra al suelo:
la gravitación. De un solo golpe, Newton unifica la física del mundo, al
establecer que dos fenómenos que en principio no parecen tener nada que ver
responden a una sola e idéntica causa.
Es un día cualquiera, un día en el que a la Luna le toca ser vista de día muy
por encima del manzano, de una de cuyas ramas se desprende una manzana fragante
que cae a los pies del joven Newton y le permite unificar el insoportable
universo.
Faltaba saber cómo funcionaba esa fuerza.
§. Óptica
Tras el fin de la plaga, Newton regresó a Cambridge. En esta época, y
probablemente tras haber leído la Micrographia de Hooke, donde
éste daba cuenta de sus descubrimientos microscópicos, se puso a estudiar la
naturaleza de la luz, utilizando prismas y lentes.
En el trabajo más importante que hizo sobre óptica, descompuso la luz blanca
(en realidad luz solar) en los colores del espectro del arco iris utilizando un
prisma, para luego recombinarlos y conseguir de nuevo luz blanca, demostrando
así que la luz blanca era precisamente una mezcla de todos los colores del arco
iris.
A partir de este trabajo, su interés por los colores lo llevó a plantearse el
problema de las franjas coloreadas que se producían en los bordes de las
imágenes vistas mediante los telescopios construidos con lentes, y que se
llamaba aberración cromática, llegando a diseñar y construir un telescopio de
reflexión en el que no se presentaba este problema.
Cuando Newton explicó parte del trabajo realizado sobre la luz en las clases
magistrales que dio como catedrático lucasiano, y a través de personas que
habían visitado Cambridge y vieron el telescopio u oyeron hablar de él,
empezaron a difundirse noticias relativas a todo esto. La Royal Society
solicitó ver el instrumento y, a finales de 1671, Isaac Barrow llevó uno a
Londres e hizo una demostración con él en el Gresham College. Inmediatamente,
Newton fue elegido miembro de la Royal Society y se le preguntó si tenía algo
más en reserva. Su respuesta consistió en presentar ante la Royal Society una
extensa ponencia sobre la luz y los colores.
Newton estaba a favor de la teoría corpuscular de la luz, ya que la concebía
como una corriente de partículas, pero los descubrimientos que presentó en
aquel momento eran válidos tanto si se utilizaba este modelo como si se
utilizaba el modelo ondulatorio (a favor del cual estaban, por ejemplo, el gran
físico danés Christiaan Huygens y el también gran físico inglés Robert Hooke),
lo cual desató una polémica con Hooke que provocó un intercambio de cartas de
tono más que agresivo, hasta que la intervención de otros miembros de la Royal
Society permitió un nuevo intercambio de cartas y, finalmente, una forzada
reconciliación.
Hooke a Newton:
Considero que en este asunto [el estudio de la luz] ha llegado usted más
lejos que yo… Creo que el tema no podría ser investigado por una persona más
adecuada y capaz que usted, que está capacitado en todos los sentidos para
completar, rectificar y reformar lo que fueron las ideas derivadas de mis
primeros estudios, que yo me proponía haber realizado por mí mismo, si lo
hubieran permitido los otros cometidos agobiantes que me fueron asignados,
aunque soy bastante consciente de que lo hubiera hecho con unas capacidades muy
inferiores a las de usted.
Newton a Hooke:
Es usted demasiado generoso al valorar mis capacidades. Lo que Descartes
hizo fue un paso importante. Usted ha añadido mucho de distintas maneras,
especialmente al tomar en consideración filosófica los colores de unas láminas
muy finas. Si yo he sido capaz de ver más allá, es [y aquí viene la famosa
frase] porque me encontraba sentado sobre los hombros de Gigantes.
Fue un frágil tratado de paz, que olía a hipocresía por las dos partes
(aunque Hooke estaba lejos de poner en juego un carácter tan desagradable como
el de Newton). En ese mismo año, Newton publicó su primer trabajo científico
acerca de la luz y el color. En 1678 sufrió un ataque nervioso que lo llevó a
aislarse por casi seis años y, superada su crisis, volvió a gatear lentamente
hacia la teoría de la gravitación universal.
§. El embrollo de la fuerza centrífuga
No era el único que gateaba, por cierto. Todos lo hacían, o lo habían hecho.
William Gilbert (1544-1603), que había estudiado a fondo el magnetismo, se
imaginaba que la Tierra, los planetas, y el Sol eran grandes imanes que
actuaban entre ellos mediante fuerzas magnéticas (recordemos que la Tierra
es, en realidad, un enorme imán, aunque no hay que confundir su
fuerza magnética con la gravitatoria; no tienen nada que ver); Kepler, influido
por Gilbert, pensó que del Sol emanaban tientos o cadenas que arrastraban a los
planetas lateralmente, con una fuerza que disminuía proporcionalmente a la
distancia y evitaba que se detuvieran. Para Kepler, la tendencia natural
todavía era al reposo, y las fuerzas magnéticas de Gilbert actuaban deformando
las órbitas y transformando los círculos en elipses.
También en la Royal Society se discutía sobre esa fuerza, y se sospechaba que
disminuía proporcionalmente al cuadrado de la distancia (es decir, seguía la
ley del cuadrado inverso).
Había una razón para esta ley del cuadrado inverso, que no era algo nuevo ni
siquiera entonces. Se remontaba al menos a 1673, cuando Huygens (1629-1695)
había calculado la fuerza centrífuga de un objeto que se desplazaba recorriendo
una órbita circular y había determinado que disminuía con el cuadrado de la
distancia al sol. Hooke había comenzado a especular siguiendo la misma línea de
razonamiento; como veremos, en la correspondencia que sostuvo con Newton a
partir de 1674 estaban de acuerdo en que las leyes del movimiento de Kepler
implicaban que la fuerza centrífuga que empujaba a los planetas tendiendo a
alejarlos del Sol debía ser inversamente proporcional a los cuadrados de sus
distancias a este astro y que, por consiguiente, con el fin de que los planetas
permanecieran en sus órbitas tenían que ser atraídos por el Sol con una fuerza
equivalente que contrarrestara totalmente la fuerza centrífuga. Ésta era,
también, la forma de razonar de Newton en la época del manzano: la permanencia
en las órbitas era producto del equilibrio entre ambas fuerzas.
En 1674, Hooke ya había dado con el núcleo del problema del movimiento orbital.
En un tratado que se publicó aquel mismo año, descartó la idea de un equilibrio
entre las fuerzas que empujaban hacia dentro y las que empujaban hacia afuera
para mantener a un objeto como la Luna en su órbita. Constató que el movimiento
orbital resultaba de sumar, por una parte, la tendencia de la Luna a moverse en
línea recta y, por otra, una fuerza «única» que la atraía hacia la Tierra.
Mientras tanto, el propio Newton, Huygens y todos los demás seguían hablando de
«una tendencia a alejarse del centro», y Newton había llegado al extremo de
aceptar vórtices cartesianos como responsables de empujar a los objetos para
que volvieran a situarse en sus órbitas, a pesar de su tendencia a desplazarse
hacia el exterior.
Es decir, Hooke ya había llegado a la conclusión de que había una sola fuerza,
que tiraba hacia el centro y apartaba permanentemente al planeta de su
trayectoria rectilínea y uniforme.
No eran dos fuerzas que se equilibraban, sino una única fuerza que
tiraba hacia el centro.
¿Y la fuerza centrífuga? Hooke se dio cuenta de que era una fuerza ficticia,
que dependía del sistema de coordenadas y que sólo expresaba la tendencia del
cuerpo a seguir moviéndose en una trayectoria rectilínea, como lo ordenaba el
principio de inercia.
El embrollo de la fuerza centrífuga
Hooke también prescindió de los vórtices, y tuvo la audacia de
introducir la idea de una «acción a distancia», ni más ni menos que la
gravedad, que se transmitiría a través del espacio «vacío» para ejercer una
tracción sobre la Luna o los planetas. Hooke estaba por ese entonces más
adelantado que el propio Newton, enredado todavía en el rollo de la fuerza
centrífuga.
En 1679, cuando ya había desaparecido la polvareda levantada por su
confrontación inicial sobre la luz, Hooke escribió a Newton para pedirle su
opinión sobre estas teorías (que ya se habían publicado). Le habló de la ley
del cuadrado inverso, que Newton ya tenía, de la acción a distancia, y de la
idea a la que había llegado: no había fuerza centrífuga ninguna, sino solamente
una fuerza centrípeta que apartaba a los planetas de una trayectoria rectilínea
y la curvaba mediante la gravedad.
Probablemente fue esta carta la que liberó a Newton del asunto de la fuerza
centrífuga (que es una fuerza artificial, simplemente la reacción a la fuerza
centrípeta —esta última sí real—) y lo estimuló para demostrar, en 1680, que
una ley de la gravedad con cuadrados inversos a las distancias exige que los
planetas se muevan recorriendo órbitas elípticas, e implica que los cometas
deben seguir trayectorias elípticas o parabólicas alrededor del Sol. Ésta es la
razón por la que ya tenía la respuesta preparada cuando, en 1684, Halley se
apareció en la puerta de su casa.
Porque fue así: aprovechando un viaje, Halley, en agosto de 1684, visitó a
Newton en Cambridge, donde debatieron sobre las órbitas de los planetas y la
ley del cuadrado inverso. Según contó Newton después, cuando llevaban cierto
tiempo reunidos, Halley le preguntó qué tipo de curva creía él que describirían
los planetas, suponiendo que la fuerza de atracción hacia el Sol fuera inversa
al cuadrado de las distancias respectivas de los planetas a dicho astro. Newton
dijo inmediatamente «una elipse», ante lo cual Halley le preguntó cómo lo
sabía. «Porque lo he calculado», respondió Newton de inmediato. Tras esto,
Halley le pidió que le dejara ver los cálculos, pero Newton buscó entre sus
papeles y no pudo encontrarlos. Se comprometió entonces a volver a hacerlos y a
enviárselos apenas los tuviera listos. Ese encuentro entre Halley y Newton y
los cálculos que nunca encontró se convertirían en el puntapié inicial para que
nuestro protagonista se pusiera a escribir los Principia.
§. Los Principia
Ya en 1684 Newton publicó un trabajo en el que explicaba la ley del cuadrado
inverso, pero recién en 1687 vio la luz su gran obra épica, Philosophia
Naturalis Principia Mathematica (Principios matemáticos de la
filosofía natural).
En los trescientos y pico de años que nos separan de aquella publicación, los
homenajes y las expresiones de asombro ante Newton y su obra principal se han
ido acumulando desde el jocoso comentario de Hume, quien señaló que «no había
cuerpos celestes cuyo movimiento Newton no hubiera explicado, con excepción del
de las mujeres», el más solemne de Laplace, que calificó los Principia como
«obra cumbre del pensamiento humano», hasta la encendida admiración de Einstein
en el artículo conmemorativo del bicentenario de la muerte del gran físico.
Prodigioso, monumental, grandioso… no hay aumentativo que se haya dejado de
aplicar, y la verdad es que en ningún caso puede considerarse una exageración.
Y es que al leer los Principia uno se queda pasmado,
completamente pasmado. Todos los fenómenos mecánicos del mundo quedan
explicados con el más exquisito rigor: los móviles, el movimiento, las mareas,
los planetas, los satélites, las estrellas, las elipses de Kepler, los cometas…
Todo. Realmente es el libro de la Naturaleza reclamado por Galileo, escrito en
caracteres matemáticos (básicamente geométricos), en el que todo está
comprendido y explicado. Resulta increíble que semejante obra haya sido el
producto de una sola persona, y no extraña que Newton haya tenido después una
crisis nerviosa que lo puso al borde de la demencia.
La verdad es que uno se queda sin palabras para describirlo.
Los Principia de Newton inauguran de manera formal y orgánica
la física moderna, resumen un siglo y medio de búsqueda y tanteo —en el que hay
que incluir figuras del calibre de Copérnico, Galileo, Giordano Bruno, Tycho
Brahe, Kepler, Descartes, Hooke—, unifican de golpe toda la mecánica del mundo,
establecen leyes que describen el movimiento de todos los cuerpos, fundan una
metodología, derrumban para siempre la concepción aristotélica y fabrican un
nuevo universo, limpio y vacío, donde las leyes de la física se cumplen con
geométrica pulcritud.
Cualquiera de sus otros descubrimientos, sea en el terreno de la óptica, sea,
especialmente, la creación —en forma independiente y contemporánea con Leibniz—
del cálculo infinitesimal, le hubiera valido un lugar de honor en la historia
de la ciencia, pero los Principia lo situaron en la cúspide.
Su larga vida, en la que alcanzó la cima del prestigio científico y la
presidencia de la Royal Society, ofrece facetas múltiples, algunas bastante
extravagantes, como la dedicación y el tiempo que empleó en especulaciones
alquímicas y teológicas tratando de fijar la fecha exacta del Diluvio Universal
o del Segundo Advenimiento.
Pero es a través de un libro, de un único libro, que lleva a cabo una hazaña
muy poco usual: fabricar un mundo completo.
Los Principia exponen la física como un conjunto de
proposiciones, axiomas y definiciones, con riguroso estilo matemático. Ya en el
primer libro enuncian la ley de inercia, la de proporcionalidad entre la fuerza
y la aceleración, y el principio de acción y reacción.
LEY I
Todo cuerpo persevera en su estado de reposo o de movimiento uniforme o
rectilíneo en tanto que no sea obligado por fuerzas impresas a cambiar su
estado. (Principio de inercia)
LEY II
El cambio de movimiento es proporcional a la fuerza motriz impresa y ocurre
según la línea recta a lo largo de la cual aquella fuerza se imprime.(F = m ×
a: la fuerza no produce movimiento sino cambio del estado de movimiento)
LEY III
Con toda acción ocurre siempre una reacción igual y contraria, o sea las
acciones mutuas de dos cuerpos siempre son iguales y dirigidas en direcciones
opuestas. (Principio de acción y reacción)
Si bien es cierto que la primera había sido utilizada por Galileo
(aproximadamente, ya que como vimos el principio de inercia galileano era
circular) y enunciada por Descartes, y la segunda había sido empleada con éxito
por Huygens, es en los Principia donde se elevan a la
categoría de cimientos, de leyes fundadoras de toda la mecánica y válidas para
toda la materia. Con estas tres herramientas, Newton desarrolla la dinámica de
la masa puntual demostrando, entre otras cosas, la ley kepleriana de las áreas
como un teorema y demostrando también que un cuerpo que cumpla las leyes de
Kepler se mueve según una fuerza central inversamente proporcional al cuadrado
de la distancia. En este primer libro, y en el segundo, establece sobre bases
firmes la cinemática y la dinámica, como preludio al tercero, con el promisorio
título de «Sistema del mundo matemáticamente tratado». Título tentador, por
cierto, que no defraudaría a nadie.
§. La ley de gravitación universal
Es allí donde aparece la ley de gravitación universal:
Siendo universalmente evidente, mediante los experimentos y las
observaciones astronómicas, que de todos los cuerpos que giran alrededor de la
Tierra gravitan hacia ella, que nuestro mar gravita hacia la Luna y que todos
los planetas gravitan unos hacia otros y que los cometas gravitan hacia el Sol,
de igual manera, entonces, debemos admitir que todos los cuerpos están dotados
de gravitación recíproca.
O sea:
Dos cuerpos cualesquiera, en lugares cualesquiera, se atraen con una
fuerza que es directamente proporcional al producto de sus masas e inversamente
proporcional al cuadrado de la distancia que los separa.
(F = G × M × m/d2, donde G es una constante
universal).
Dos cuerpos cualesquiera, en dos lugares cualesquiera…, es muy difícil
transmitir la fuerza prodigiosa de esta síntesis. Dos cuerpos cualesquiera… La
manzana que cae del árbol y la Luna que no cae, la gota de lluvia que se abre
paso en la atmósfera y los satélites de Júpiter descubiertos por Galileo
responden a la misma ley. La fuerza que nos mantiene a nosotros, los hombres,
sujetos a la Tierra, mantiene los planetas en sus órbitas, es causa de las mareas
y actúa, entre el Sol y las estrellas más lejanas, con matemático rigor.
Las esferas celestes tolemaicas —y aun las copernicanas—, la separación entre
cielos y Tierra, entre mundo sub y supralunar, se esfuman para siempre. Después
de ciento cincuenta años de especulación, de avances y retrocesos, el mundo
estaba explicado.
Los Principia dieron lugar para el conventillo al que Newton
era tan afecto (lo cual, como ven, caracterizaba y sigue caracterizando al
mundo científico). Hooke, con quien Newton ya se había amigado
«voluntariamente», se quejó porque el manuscrito, al que tuvo acceso en calidad
de miembro de la Royal Society, no le daba suficiente crédito, una queja
perfectamente justificada, ya que él había descubierto y comunicado ideas
importantes y había sido su carta de 1679 la que había puesto a Newton en la
senda correcta. La reacción de nuestro protagonista, exagerada por cierto, fue
amenazar con retirar la publicación del tercer volumen y luego revisar el texto
antes de enviarlo a la imprenta, suprimiendo radicalmente cualquier referencia
a Hooke.
También este odio desenfrenado puede explicar la leyenda de la manzana: Newton
quería aclarar que estaba en posesión de la ley mucho antes de que Hooke le
enviara su famosa carta. En fin: nadie está a salvo de la banalidad.
§. Después de los Principia
No pasó nada nuevo, la verdad. El libro logró materializar lo que los
científicos habían estado buscando a tientas, a veces sin ser conscientes de
ello, desde los tiempos de Copérnico: la constatación de que el universo
funciona según principios esencialmente mecánicos susceptibles de ser
comprendidos por los seres humanos. Como resultado de la publicación de su
libro, Newton llegó a ser un científico famoso, extendiéndose su renombre mucho
más allá del círculo de la Royal Society. John Locke, amigo de Newton y el
filósofo más prestigioso de la época, escribió sobre este libro lo siguiente:
El incomparable señor Newton ha demostrado lo lejos que nos pueden
llevar las matemáticas en el conocimiento de algunas provincias especiales, si
podemos llamarlas así, del incomprensible universo, si aplicamos esta ciencia a
ciertas partes de la naturaleza, a través de principios que se justifican como
una cuestión de hecho.
Sin embargo, en 1687, Newton abandonó la investigación (cumpliría 45
años al final de ese año) y no hubo nuevas publicaciones ulteriores: su
obra Opticks, muy anterior, se publicaría a principios del siglo
XVIII, puesto que Newton esperó para darla a la imprenta a la muerte de Hooke.
El resto de su vida tuvo poca relación directa con la ciencia: fue
parlamentario, y a pesar de que se sumergió en sus trabajos de alquimia a
principios de la década de 1690, parece ser que en 1693 sufrió una importante
depresión nerviosa. En 1696 le ofrecieron el cargo de custodio de la Casa de la
Moneda, que ejerció actuando según su carácter obsesivo, llevando a cabo una
tarea importante, y con una gran efectividad a la hora de ahorcar
falsificadores. En 1699, cuando el director de la Casa de la Moneda falleció,
Newton ocupó su cargo. Desde 1703 hasta 1727, año en que murió, estuvo al
frente de la Royal Society.
§. Sin lugar para los ángeles: espacio y tiempo absolutos
Pero, en realidad, el mundo no estaba solamente explicado. Lo que había sufrido
era una verdadera reconstrucción: finalmente se había fabricado un escenario
nuevo. Porque no alcanzaba con decir que todas estas fuerzas estaban operando;
era necesario decir dónde operaban. ¿Cómo era ese lugar en el que todos los
cuerpos se atraían entre sí de acuerdo con las leyes explicitadas por Sir Isaac
Newton? (Habrán notado que puse Sir, porque en 1705 fue nombrado
caballero.) ¿Y cómo era el tiempo en el que tales leyes cumplían su función con
rigor adamantino?
El cosmos tradicional, heredado de la Antigüedad y la Edad Media, era un lugar
cerrado por la esfera exterior de las estrellas fijas, que Copérnico, como
vimos, no había tocado, fuera de la cual no había nada, y dentro de la cual el
espacio estaba rigurosamente jerarquizado: espacio perfecto y supralunar,
espacio imperfecto y mudable sublunar, donde cada cuerpo se movía según un
sistema de lugares previamente asignados, o mejor, signados, y donde no existía
el vacío. Cuando Copérnico alteró la visión geocéntrica, mantuvo las esferas y
la finitud del universo, o por lo menos no se metió mucho con ellas. Kepler
argumentó en favor de la finitud del cosmos y la existencia de la esfera de las
estrellas fijas. Galileo no incursionó demasiado profundamente en el problema
de la unicidad del mundo, aunque la supuso (o la sobrentendió). En el año 1600,
Giordano Bruno había sido quemado —entre otras cosas— por postular un espacio
infinito, con infinidad de sistemas solares, y en el que todos los lugares eran
equivalentes, uniformemente llenos de materia sutil. El sistema de Descartes,
que rechaza el vacío por constituir (para él) una imposibilidad lógica, es,
probablemente, el primero que presupone un espacio indeterminado, aunque lleno
de materia sutil, cuyos torbellinos aportaban la cantidad de movimiento
constante para el funcionamiento del mundo. Indeterminado, no infinito, palabra
que reserva sólo para Dios.
Pero… ¿dónde y cuándo ocurre el sistema de Newton? El marco es un espacio
absoluto y vacío, sobre el que fluye el tiempo, uniforme y matemático: hay un
reloj teórico que da la hora para todo el universo. Es el espacio y tiempo de
Euclides, el mundo de la geometría, un receptáculo donde los cuerpos
interactúan según leyes deducidas matemáticamente de algunos principios
generalizados por inducción. No hay lugares ni momentos privilegiados: el
espacio se extiende infinitamente hacia todos los lados, y en el tiempo, hacia
atrás y hacia el futuro. El propio Newton sintetizaba así sus concepciones del
espacio y del tiempo:
Nos ha parecido oportuno explicar hasta aquí los términos menos
conocidos y el sentido en que se han de tomar en el futuro. En cuanto al
tiempo, espacio, lugar y movimiento, son de sobra conocidos para todos. Hay que
señalar, sin embargo, que el vulgo no concibe estas magnitudes si no es con
respecto a lo sensible. De ello se originan prejuicios para cuya destrucción
conviene que las distingamos en absolutas y relativas, verdaderas y aparentes,
matemáticas y vulgares.
I. El tiempo absoluto, verdadero y matemático en sí y por su naturaleza
y sin relación con algo externo, fluye uniformemente, y por otro nombre se
llama duración; el relativo, aparente y vulgar, es una medida sensible y
externa de cualquier duración, movimiento (sea la medida exacta o desigual) y
de la que el vulgo usa en lugar del verdadero tiempo; así, la hora, el día, el
mes, el año.
II. El espacio absoluto, por su naturaleza y sin relación con cualquier cosa
externa, siempre permanece igual e inmóvil; el relativo es cualquier cantidad o
dimensión variable de este espacio, que se define por nuestros sentidos según
su situación respecto de los cuerpos, espacio que el vulgo toma por el espacio
inmóvil: así, una extensión espacial subterránea, aérea o celeste definida por
su situación relativa a la Tierra.
Es decir, aunque los movimientos entre los cuerpos puedan ser relativos, el
espacio en sí mismo, como un todo, está inmóvil.
Esta geometrización no es una simple especulación, sino que es necesaria para
que las leyes que enuncian los Principia puedan funcionar,
está implícita en ellas. Si un móvil sobre el que no actúa ninguna fuerza se
mueve siempre sobre una línea recta, debe encontrar siempre regiones donde
moverse. Si el sistema estelar no colapsa sobre sí mismo por acción de la gravedad,
siempre, y a toda distancia, se deberán encontrar estrellas, en número
infinito, entre las que la fuerza de gravitación actúa en forma instantánea y a
distancia, a través del espacio vacío. Y si se quiere encontrar que los
fenómenos cumplan las leyes y propiedades deducidas geométricamente, el
espacio-tiempo debe también ser geométrico, euclidiano, plano, infinito y
único. El espacio de Newton es un espacio profano, sin lugares distintos o
especiales y sin jerarquías sacralizadoras: es un espacio laico, sin lugar para
los ángeles. Es el escenario ideal para que actúen los científicos del
Iluminismo, es el mejor sitio imaginable para creer en la razón.
Notablemente, Newton no compartía para nada esta postura más bien volteriana (y
hasta cartesiana, se podría decir, con muchos recaudos). Muy por el contrario,
tanto él como los teólogos ingleses Bentley, Harris, Clarke y Derharn creyeron
ver en los Principia una base perfecta para la fundación de
una teología natural de cuño newtoniano y una imagen del mundo donde la
Providencia estaba presente, según las exigencias del anglicanismo
latitudinario, la religión que profesaba Newton. Incluso pensaban que el
sistema newtoniano evitaba el mecanicismo y el ateísmo supuestamente implícito
en el sistema cartesiano (del cual ya tendremos ocasión de hablar), defectos
que se agregaban al no despreciable de ser falso, como el mismo Newton había
demostrado. Newton mismo contribuyó activamente a sustentar esta postura y en
sus últimos años llegó casi a identificar a Dios con el espacio absoluto, algo
así como un éter invisible y omnipresente, cuya divina y continua intervención
permitía el funcionamiento de las leyes físicas y la acción a distancia de la
gravitación universal.
Buena parte de estas cuestiones ocuparon la polémica siguiente a la aparición
de los Principia. La mecánica newtoniana, aunque rápidamente
aceptada en Inglaterra, encontró más resistencias en Europa, donde debió luchar
con paciencia contra los torbellinos y la física del plenum de
Descartes. Voltaire, newtoniano acérrimo, comentaba risueñamente:
Un francés que llega a Londres encuentra las cosas muy cambiadas en
filosofía, como en todo lo demás. Ha dejado el mundo lleno: se lo encuentra
vacío. En París se ve el mundo compuesto de torbellinos de materia sutil; en
Londres no se ve nada de eso.
El problema de la acción a distancia de la gravedad no fue el menor de
los escollos: muchos científicos de la época la consideraban imposible, y
criticaban la fuerza de gravitación como un elemento místico, espiritual,
metafísico, que Newton había introducido de contrabando.
Newton contestó en la segunda edición de los Principia:
No he podido deducir a partir de los fenómenos las razones de estas
propiedades de la gravedad y yo no imagino hipótesis. Pues lo que no se deduce
de los fenómenos ha de ser llamado hipótesis; y las hipótesis, bien
metafísicas, bien físicas o de cualidades ocultas o mecánicas, no tienen lugar
dentro de la Filosofía experimental.
Entre otras cosas, la polémica entre Newton y Leibniz sobre la prioridad
en el descubrimiento del cálculo infinitesimal erizó y emponzoñó la resistencia
a la mecánica newtoniana en el continente europeo. Sin embargo, a mediados del
siglo XVIII, el nuevo sistema del mundo estaba firmemente asentado, y aun los
cartesianos más recalcitrantes se batían en retirada.
§. El regreso del cometa Halley
La primera persona que aceptó el desafío y la oportunidad que le ofrecía la
obra de Newton fue Edmond Halley, que puede considerarse el primer científico
pos newtoniano y que, digamos de paso, había pagado de su bolsillo la
publicación de los Principia, ya que la Royal Society estaba
quebrada a raíz de la publicación de otro libro científico, History of
Fishes, de Ray y Willughby. Halley desarrolló su interés por los cometas
intercambiando una avalancha de cartas en las que discutía el tema con Newton y
demostrando que muchos de ellos recorrían órbitas elípticas alrededor del Sol.
En 1682 había pasado un cometa y, estudiando los datos históricos, Halley
comenzó a sospechar que ese mismo cuerpo era el que había sido visto y
descripto en 1607 por Kepler y 76 años antes por Petrus Apianus. Predijo
entonces que el cometa de 1682 regresaría «hacia el año 1757», cumpliendo así
las leyes de Newton. No fue exacto, pero efectivamente, el día de Navidad de
1758, 16 años después de la muerte de Halley y 15 después de la de Newton, el
astrónomo aficionado Johann Georg Palitzsch vio, cerca de Júpiter, un punto de
luz que se agrandaba noche a noche.
¡Era el cometa Halley, que volvía!
Arrastrado por la Gran Ley de Gravitación Universal, acudía a la cita, aunque
algo retrasado por culpa de la atracción de Júpiter y Saturno.
La predicción del regreso del cometa Halley aportó una prueba formidable y
Newton y la física de Newton se convirtieron en el paradigma de la física y de
toda ciencia. No hubo disciplina que no aspirara al rigor newtoniano.
Y, dicho sea de paso, las observaciones del cometa Halley se utilizaron para
calcular la distancia de la Tierra al Sol, dando como resultado una cantidad
equivalente a 153 millones de kilómetros, que se aproxima asombrosamente al
resultado de la mejor medición moderna: 149,6 millones de kilómetros.
Lo interesante es que el sistema de Newton logró un triunfo casi completo y se
asentó como un sistema puramente mecánico, libre de las desafortunadas
especulaciones de su propio autor sobre la intervención de la Providencia para
garantizar a cada instante el cumplimiento de la Ley de Gravitación Universal.
El espacio absoluto, infinito, vacío, profano, geométrico y euclideano de
Newton, sobre el que fluye el tiempo continuo y matemático y donde la gravedad
actúa a distancia, se impuso como visión del cosmos… y así se quedaría durante
más de dos siglos, hasta que las poderosas manos de Einstein lo curvaran,
sometiéndolo al rigor de nuevas geometrías.
El problema —perturbador, por cierto— de la acción a distancia fue
discretamente obviado y la naturaleza de la fuerza de atracción (sobre la que
Newton afirmó al principio «que él no forjaba hipótesis» y que la trataba como
una fuerza matemática) fue asimilada como una propiedad más en la materia sobre
la que, precisamente, no se forjaban hipótesis. El problema quedó pendiente y
otra vez hubo que esperar hasta 1915, cuando Einstein, al enunciar su Teoría
General de la Relatividad, replanteó el asunto.
Capítulo 18
En busca de la certidumbre: el compromiso de 1758
El nuevo universo no salió límpido y acabado de las cabezas de Galileo o
Newton. Durante todo el siglo XVII se habían hecho esfuerzos para ajustar la
marcha de una nueva ciencia, ciencia que necesitaba, por supuesto, de la
construcción de una nueva filosofía. Los enunciados que surgían a cada rato
necesitaban ser sometidos a la constatación: ¿cómo se podía saber que los Principia decían
la verdad sobre el mundo? ¿Cómo se podía saber que la ley de caída de los
cuerpos de Galileo era correcta? ¿Cómo corroborar la exactitud o inexactitud de
su teoría de las mareas (que dicho sea de paso era errónea, como demostró
Newton)? ¿Cómo determinar que, mediante todos estos métodos nuevos, se estaba
accediendo, por fin, a un conocimiento verdadero?
Y una vez determinado esto: ¿cuáles serían las herramientas que se aplicarían
con legitimidad y precisión en este nuevo modo de razonar y experimentar?
Lo que estaba pasando era que todo el saber tradicional se estaba retirando,
desde el primer empujón de Copérnico hasta la culminación de Newton, dejando
detrás de sí un vacío en que los científicos tenían que ir tanteando, donde
todas las certidumbres (reales o supuestas) adquiridas en veinte siglos iban
desapareciendo una tras otra. Ante un mundo vacío de certezas, era natural que
fuera una preocupación determinar la manera de evitar el error.
Por otra parte, el lugar del hombre había cambiado, o por lo menos estaba
cambiando: la Reforma y las guerras de religión produjeron una fractura en la
mismísima fe y la teología misma se había dividido haciendo que católicos y
reformados se acusaran unos a otros de herejía; la revolución inglesa de 1649 y
la ejecución del rey Carlos I, la república puritana de Cromwell, la
restauración y la nueva revolución de 1688 —que entronó a María y Guillermo de
Orange— destruyeron la teoría del derecho divino e inauguraron lo que sería la
monarquía parlamentaria inglesa (el mismo Newton fue parlamentario); el
crecimiento del capitalismo mercantil hizo retroceder las fuerzas espirituales
del Renacimiento: los nuevos comerciantes de ultramar, los nuevos banqueros,
los incipientes industriales construyeron (porque lo querían así) un mundo más
contante y sonante y menos mágico, un mundo acorde con sus necesidades
prácticas. La ciencia, obviamente, no podía ser ajena a este cambio radical de
cosmovisión: se postuló, a veces de manera más tangencial y a veces de manera
más directa, que debía ser reconstruida desde el principio (lo cual ya había
sido demostrado por Copérnico) y que para reconstruirla había que saber cómo.
Si los viejos métodos habían conducido a un sistema que se caía a pedazos,
hacían falta nuevos métodos y sistemas que evitaran caer nuevamente en el
error.
La consigna, entonces, quedaba flotando en el aire de una modernidad que estaba
revisando y demoliendo todos los presupuestos sobre los que se asentaba el
conocimiento: ¿Cuál era el método apropiado para descifrar el lenguaje del
mundo, el lenguaje de las cosas, que por lo visto hablaban en murmullos que ya
no se entendían? En realidad, habían cambiado de idioma, y ese nuevo idioma
había que aprenderlo, pero ni siquiera se conocía su gramática. ¿Cuál sería?
¿Las matemáticas y la deducción? ¿O la observación y la inducción? Las dos
grandes corrientes, la inductivista-empirista y la deductivista, convivirían
celándose, incluso combatiéndose, hasta que se pudo finalmente lograr una
síntesis. O, mejor dicho, un compromiso.
§. Francis Bacon y el programa inductivo
La verdad es que la historia de la ciencia (y la historia, en general) no
proceden ordenadamente como a uno le gustaría. Y no lo hacen porque la historia
«no sabe» que se está construyendo, no es un todo que tiende a un fin
determinado y consciente. Un cambio de ideas tan profundo como el que se dio en
el siglo XVII es, por lo tanto, confuso: no viene primero una generación de
metodólogos, que deja las cosas claras como para que los Galileo y los Newton
se pongan a trabajar. Nada de eso: todo funciona con la alegre, y muchas veces
trágica, confusión de los asuntos humanos. Si uno se pone a escuchar, oye una
confusa algarabía de voces mezcladas; unas se adelantan en el canon, otras van
compases y compases atrasadas, otras cantan directamente al revés, y de repente
un acorde suena mucho antes de tiempo y se pierde. En síntesis: la filosofía de
la Revolución Científica se construyó paralelamente a la nueva ciencia, a veces
sincrónicamente y en amigable diálogo, a veces en franca distonía.
Aquí aparece Francis Bacon (1561-1626), a quien no debemos confundir con Roger
(que vivió en el siglo XIII, que fantaseó con aviones y submarinos y que puede
ser considerado, con bastante justicia, si no el primero, uno de los pioneros
en el intento de establecer un nuevo método científico). Francis no fue en
realidad un científico, ni realizó grandes avances en ninguna disciplina, ni,
en el fondo, resultó realmente revolucionario en metodología. Ni siquiera fue
un filósofo propiamente dicho: fue más bien un político apropiadamente
oportunista, que ocupó altos cargos —llegó a ser canciller del reino durante el
reinado de Jacobo I— y hasta fue a la cárcel por haberse quedado con algunas
monedas que no le pertenecían, aunque estuvo preso solamente tres días gracias
a la intervención directa y explícita del rey. Pero sí fue un pensador de la
nueva ciencia que se estaba desarrollando: no sólo por su utopía La
Nueva Atlántida, en la que la sociedad ideal está sustentada y guiada por
el avance de las ciencias, en tanto que la religión está completamente separada
de ella, sino por sus reflexiones metodológicas. Es en este punto donde abordó
uno de los grandes problemas filosóficos de la ciencia, problema que sigue
totalmente vigente y que representa un desafío para quienes consideran que la
ciencia tiene como objetivo acercarse cada vez más a la verdad del mundo: el de
la inducción.
§. El problema de la inducción
Así como la deducción garantiza la verdad de los resultados siempre y cuando
las premisas sean verdaderas, la inducción, esto es, la generalización a partir
de casos particulares, no asegura nada, y menos que menos la conservación de la
verdad. Bertrand Russell lo expresó en su forma más cruda con su metáfora del
«pavo inductivista». Un pavo recibe su comida un día a las nueve de la mañana.
Al día siguiente ocurre lo mismo. Pasan días de calor, días de frío, días de
lluvia y sigue recibiendo su comida puntualmente. Finalmente se anima a saltar
a una conclusión: todos los días, a las nueve de la mañana, soy alimentado. Al
día siguiente es 24 de diciembre y le cortan el cuello.
La metáfora nos obliga a plantear un interrogante: ¿en qué momento es válido
generalizar a partir de los casos particulares que observamos? Esta
generalización a partir de casos particulares no sólo es uno de los
procedimientos importantes de la metodología que utilizan día a día los
científicos, sino que es de lo que nos solemos valer en la vida cotidiana. La
mayor parte de nuestros actos se desenvuelve bajo la presunción de que el mundo
que nos rodea funciona inductivamente: si durante una semana, o un mes,
verifico que el colectivo pasa por la puerta de mi casa entre las ocho y las ocho
y cinco, supongo que siempre, salvo que ocurra algo excepcional, va a pasar a
esa hora y obro en consecuencia: no salgo a esperarlo a las siete y media
porque es en vano.
Para muchos de nuestros actos más cotidianos empleamos la inducción de una
manera práctica: si elegimos naranjas de una pila, nos basta probar tres o
cuatro y verificar que están maduras para concluir que todas las de la pila
están apropiadamente maduras (aunque a esta suposición subyace la idea, de
índole más deductiva que inductiva, de que las naranjas de la pila son
homogéneas, más o menos todas iguales, o que provienen del mismo lote). Nadie
puede sorprenderse, sin embargo, si en el conjunto que ha comprado se topa con
una naranja podrida; la única manera cierta de asegurarse de la buena salud de
todas las naranjas es, precisamente, examinándolas todas, cosa que si ya es de
por sí difícil, es imposible en el caso en que las situaciones a evaluar son
infinitas (como los planos inclinados de Galileo o los prismas de Newton).
En estos casos, al generalizar hay un salto a lo desconocido y ese salto
constituye una acción no justificada lógicamente y que no da garantía de
verdad, como sí la da la deducción: a nadie se le ocurriría extraer el hecho de
que la suma de los ángulos internos de un triángulo es igual a dos rectos
examinando triángulos particulares y generalizando a partir de allí. Aunque,
reconozcámoslo, el uso y la costumbre pueden tener valor heurístico, como lo
prueba el teorema de Pitágoras, algunos de cuyos casos eran usados inductivamente
por egipcios y babilonios, como vimos en aquellos lejanos capítulos de la
Antigüedad. Dicho lisa y llanamente: la inducción no garantiza la verdad, lo
que ocurre aquí o allá, o en este momento o en aquél, no garantiza que ocurra
también en lugares o momentos distintos.
Pero así y todo, resulta que la nueva ciencia necesitaba desesperadamente de la
inducción, tanto como el náufrago casi ahogado que ha logrado arrastrarse hasta
la playa necesita una bocanada de aire. Y la necesitaba porque los nuevos
principios que empezaban a ver la luz no se intuían a partir de premisas
generales, sino que se extraían de los resultados del laboratorio: Galileo
haciendo rodar esferas por planos inclinados y midiendo tiempos y recorridos
hasta encontrar una relación matemática —la ley de caída de los cuerpos— es un
buen ejemplo de un principio extraído por inducción de una serie de
experimentos. Galileo no hizo —ni podía hacer, ni era concebible— rodar todas
las esferas posibles sobre todos los planos inclinados posibles (lo cual
hubiese constituido una tarea infinita), aunque se cuidó de realizar e
interpretar sus experimentos en las condiciones más generales imaginables. Y
así y todo, el paso de esos casos particulares a la generalización seguía sin
estar justificado del todo. ¿Por qué y cuándo y bajo qué condiciones lo que se
hace experimentalmente puede ser elevado a la categoría de principio general?
¿Cómo puedo decidir que lo que vale para muchos casos vale para todos los
casos?
Bacon, un paso atrás cronológicamente de Galileo, creyó que tenía un método
inductivo válido. El objetivo era, como el de casi todos los inductivistas
preocupados por garantizar la legitimidad del método, encontrar algún tipo de
inducción que superara a la «inducción por simple enumeración» que ya había
considerado Aristóteles, esquivando de este modo el escollo del pavo
inductivista. Así, Bacon propuso una suerte de «inducción por tablas»: para
descubrir la naturaleza del calor, por ejemplo, consideraba que había que hacer
tablas de presencia y de ausencia y de grados diferenciales del fenómeno. Está
claro que en la luz del Sol hay presencia de calor y que en la luz de la Luna
no, con lo cual se demuestra que el calor no es un fenómeno asociado a la luz.
Haciendo una lista exhaustiva de fenómenos en los que el calor intervenía de
diferentes formas, Bacon confiaba en que se podría manifestar alguna
característica presente exclusivamente en los cuerpos calientes y ausente en
los fríos y pensaba que así podrían establecerse leyes generales (que él
llamaba «formas»). Una regularidad sugerida por este método debía ser
comprobada por medio de su aplicación a nuevas circunstancias; si operaba en
estas circunstancias, quedaba confirmada.
El problema era la palabra «exhaustiva»: ¿qué significaba exactamente una lista
exhaustiva? Significaba muy poco, la verdad, y lo cierto es que el alcance de
la inducción baconiana siguió siendo tan provisorio como el de cualquier otra
inducción. Es por eso que la filosofía de la ciencia contemporánea,
necesariamente, tiende a aceptar la provisoriedad de los resultados
científicos. Cosa que el mismo Bacon se ocupó de analizar, digamos de paso: las
tablas podían ampliarse y conducir a nuevos resultados.
****
La búsqueda desesperada de un método sobre el que cimentar el
conocimiento está imbricada con el contexto cultural de la época. Los hombres
de la Revolución Científica —y en ese sentido Bacon lo es— tratan de buscar una
salida, o mejor dicho un reemplazo tanto a las creencias venidas de la
Antigüedad, como a las mágico-simbólicas del Renacimiento. El mundo ya no es
para ellos un todo orgánico regido por fuerzas espirituales, sino un mundo
inerte sobre el cual se elaboran tablas (de tal manera que desaparezcan las
«virtudes ocultas», como hará Galileo con el impetus), y en el cual
hay que tomar recaudos para no caer en el error.
El error es el horror del científico y filósofo natural del siglo XVII. Para
construir un sistema sólido que permita aprehender el mundo, es necesario
primero deshacerse de una serie de prejuicios que obstruyen el camino del
hombre hacia la verdad. Bacon distingue, en este sentido, cuatro tipos de
«ídolos» que se resisten a ser derribados y que hacen que el pensamiento yerre
confundido, desviándose a cada paso del sendero del conocimiento. Los ídolos de
la tribu son aquellos comunes al hombre en tanto especie (por ejemplo, el
tender a imaginar cómo estables cosas que en realidad son mudables) y
requieren, por lo tanto, una revisión crítica de la naturaleza humana en
general; los ídolos de la caverna dependen de las disposiciones de cada
individuo (ya sean educativas, culturales o naturales); los ídolos del foro
derivan del lenguaje, que crea palabras vacías para cosas inexistentes, o bien
palabras confusas para cosas existentes, pervirtiendo así los razonamientos (lo
cual da pie a una interesante polémica filosófica acerca de la relación entre
lenguaje y pensamiento, que será una constante en la historia de la filosofía
occidental); por último, los ídolos del teatro se deben a la (mala) influencia
de las teorías tradicionales. La eliminación de todos ellos es la condición
necesaria para la elaboración de las tablas.
A su modo, Bacon quería que la ciencia escapara de los «primeros principios»
obtenidos de manera puramente racional y pretendía que se accediera a ellos por
vía experimental. En realidad —tal vez porque era un poco temprano, aunque fue
contemporáneo de Brahe, Kepler y Galileo— se le escapó por completo la
importancia que habían de tener en la nueva ciencia las matemáticas, a las que
subestimaba por ser poco experimentales y atadas a principios generales. Por
las mismas razones, subestimaba la deducción. Acaso por ello su plan de
innovación general de una ciencia que estaba incorporando las matemáticas a
todo vapor estuvo lejos de alcanzar el impacto que él deseaba.
Así, aunque Bacon no hubiera creado la nueva ciencia que anunciaba y en la que
se enfrascaría Galileo, sí reflejó el nuevo espíritu (acorde con las nuevas
clases mercantiles en ascenso) que pretendía dar a la humanidad el dominio
sobre las fuerzas de la naturaleza por medio de descubrimientos e inventos
científicos y que manifestaba la necesidad de que la filosofía se separara de
la teología. Fue el primero de una larga serie de filósofos de espíritu
científico que subrayó la importancia de la inducción. El programa inductivo
iniciado por Bacon fue una de las grandes fuentes del pensamiento científico
moderno, fue en gran parte tomado como credo por la Royal Society y el propio
Newton lo adoptaría en los Principia.
§. Descartes: el entronamiento de la razón y el universo mecánico
Bacon trató de eludir la filosofía tradicional, pero soslayó el papel que
tendrían, por un lado, las matemáticas y, por el otro, el segundo gran método
(junto con la inducción) del conocimiento científico: la deducción. Justamente
por allí empezó a desarrollar su filosofía René Descartes. Si Bacon quiso
edificar una política del conocimiento que permitiera construir una Nueva
Atlántida regida por la ciencia (desarrollada inductivamente), Descartes se
propuso un objetivo mucho más ambicioso: rehacer toda la
filosofía a partir de la deducción.
Descartes nació en 1596 en la Turena francesa y sus primeros estudios le
sirvieron para comprender lo poco que sabía del mundo. Pronto comenzó a
considerar que el único referente firme y satisfactorio sobre el que se podía
construir algo, el único capaz de dar la clave para comprender la naturaleza,
era la matemática (una mirada que, como ustedes ya habrán notado, tiñe todo
este proceso de la Revolución Científica: baste recordar, aquí, a Kepler o
Galileo). A pesar de todo, se recibió en Derecho en la Universidad de Poitiers
y luego fue a la escuela militar de Breda. En 1618 comenzó a estudiar
matemáticas y mecánica, influido por el inglés Isaac Beeckman (que fue un
científico de fuste, uno de los primeros en hablar de la presión atmosférica, y
defensor de la existencia del vacío). Pero tuvo que interrumpir cuando se
enlistó en el ejército bávaro de Mauricio de Nassau, que luchaba contra España
por la liberación de los Países Bajos.
En la noche del 10 de noviembre de 1619 tuvo una revelación acerca de una nueva
ciencia «admirable» y se dedicó, desde entonces, a escribir un gran tratado de
física, que terminó unos diez años después y que decidió no publicar cuando se
enteró de la condena de Galileo y se vio a sí mismo, tan copernicano como el
propio Galileo, repitiendo el funesto destino de Giordano Bruno. La época —el
horno de la época— no estaba para bollos.
Luego de sus participaciones en enfrentamientos militares en Bohemia y Hungría
y un tiempo en Italia, se instaló en París hasta que, en 1628, decidió
asentarse en Holanda, famosa por su ambiente liberal, donde vivió durante los
siguientes veinte años. En 1649, la reina Cristina de Suecia lo invitó a
Estocolmo para que le diera clases y allí fue, huyendo un poco del clima
enrarecido que se había producido en Holanda debido en parte a algunas
controversias generadas por su obra. Lo que no calculó fue que la reina lo
haría ir a las cinco de la mañana todos los días para trabajar en matemáticas,
por lo que tuvo que romper con la tradición de levantarse a las once que había
mantenido siempre. El frío sueco de las madrugadas terminó con él en unos pocos
meses. En 1650 murió de neumonía.
§. Rehacer la filosofía
Los estudios, como les conté, y según él mismo cuenta, le sirvieron en un
principio para darse cuenta de lo poco que comprendía del mundo:
Tan pronto como hube terminado el curso de los estudios, cuyo final
suele dar ingreso en el mundo de los hombres doctos, me embargaban tantas dudas
y errores que me parecía que, procurando instruirme, no había conseguido más
provecho que el de descubrir cada vez más mi ignorancia.
Había que desechar todos los presupuestos y edificar ex nihilo —a
partir de la nada—, lo cual significaba reconstruir la filosofía desde cero.
Menuda tarea, por supuesto, ya que
toda la filosofía es como un árbol cuyas raíces son la metafísica, el
tronco es la física y las ramas que proceden del tronco son todas las demás
ciencias
O sea que si de lo que se trataba era de reconstruir la filosofía, la
metafísica, la física y las ciencias particulares, resultaba que había que
reconstruir todo el pensamiento, hurgar hasta sus raíces más
profundas y extraerlas para verificar si el árbol podía sostenerse y seguir
creciendo o si, en definitiva, esas raíces estaban podridas y había que sembrar
una nueva semilla.
Estaba claro que veinte siglos de ciencia habían producido un mundo que se
derrumbaba preso de sus propios errores. ¿De dónde habían salido esos errores?
No se debían a problemas de observación, o a un mal ajuste entre la observación
y la teoría, o entre la teoría y el mundo. Para nada. El error residía en el
punto de partida, ya que el mundo, el lenguaje de las cosas, es confuso y no da
ninguna seguridad. La pregunta « ¿cómo es la realidad?» había sido contestada
dando por sentado el mundo, y los resultados —estaba a la vista— distaban de
ser satisfactorios. Había que partir de algún otro lado.
Lo que Descartes intentó hacer fue justificar que se podía alcanzar un
conocimiento claro y distinto del mundo, y para ello necesitó poner todo
(literalmente todo) en duda y encontrar una certeza tan absolutamente cierta e
inconmovible que a partir de ella se pudieran derivar, por deducciones, otras
certezas igual de ciertas e inconmovibles. Si los sentidos engañan, si el
razonamiento tampoco está libre del error, ¿por dónde se puede empezar a
construir conocimiento?
La respuesta cartesiana es tajante: por el yo pensante. Porque yo puedo dudar
de los sentidos, que han demostrado que me engañan habitualmente (como cuando
veo el sorbete torcido dentro del vaso de agua), puedo dudar de la razón (que
comete errores lógicos) y hasta puedo dudar de la matemática, porque puedo
suponer que hay un genio maligno que hace que todos mis razonamientos, incluso
los matemáticos, fallen. Es decir: cualquier objeto que caiga bajo mi
pensamiento (sea empírico, sea matemático) puede ser un engaño. Esto nos
llevaría al más profundo escepticismo —una corriente que, dicho sea de paso,
venía siendo revitalizada en Francia desde Michel de Montaigne (1533-1592) —.
Pero el escepticismo era una postura que ya no podía seducir a un hombre del
siglo XVII: no era posible seguir admitiendo la imposibilidad de conocer,
seguir admitiendo que el mundo excedía las posibilidades y capacidades humanas
y resignarse a vivir en una confortable ignorancia. ¿Y entonces? Entonces había
que buscar un nuevo punto de partida.
Mientras yo pienso, dice Descartes, puedo dudar de la empiria, de la razón y de
la matemática, puedo pensar que todo lo que pienso es falso. Pero lo que no es
falso, y no puedo dudar de ello, es que estoy pensando:
Hube de constatar que, aunque quisiera pensar que todo era falso, era
por fuerza necesario que yo, que así pensaba, fuese algo. Y al observar que
esta verdad «pienso luego soy » ( cogito ergo sum ) era tan firme y sólida que
no eran capaces de conmoverla ni siquiera las más extravagantes hipótesis de
los escépticos, juzgué que podía aceptarla sin escrúpulos como el primer
principio de la filosofía que yo buscaba.
Así, puedo estar pensando cualquier disparate, pero lo que es indudable
es que estoy pensando. Y si pienso, soy, o sea: existo. Descartes ha demostrado
(o ha creído demostrar) la existencia de algo absolutamente cierto y
autoevidente: yo soy una cosa que piensa. A partir de ese punto de partida
edificará toda su filosofía.
Porque esa cosa que piensa, si se queda en eso, termina como Parménides, o como
Meliso de Samos, ya no contemplando el Ser sino contemplando el propio
pensamiento, lo cual es exactamente lo que se llama solipsismo (sólo existo yo
y mis pensamientos y de ahí no se puede pasar). Pero si lo que se quiere es
avanzar en el conocimiento del mundo, es necesario que esa cosa que piensa
pueda decir algo sobre la verdad o la falsedad de sus pensamientos.
¿Cómo hacerlo? Por empezar, distinguiendo entre los pensamientos: los hay
oscuros y confusos, por un lado, y claros y distintos por el otro. La manera de
alcanzar los últimos, que son los únicos que valen, es seguir a rajatabla
cuatro reglas metódicas. La primera aconseja poner en duda, sistemáticamente,
todo saber establecido (resuena, aquí, el eco de los ídolos del teatro de
Bacon); la segunda, dividir los problemas en otros menores más manipulables; la
tercera indica que una vez que se tienen esas pequeñas partes solucionadas hay
que usarlas como peldaños de una escalera que permita ascender hacia la
comprensión de lo más complejo, y la cuarta es la de siempre corroborar que, en
cada paso de nuestro razonamiento, no se haya pasado nada por alto.
Hay una quinta regla, que Descartes obviamente no explicita como metodológica
(y que en realidad no lo es), y que es la de no levantarse nunca antes de las
once de la mañana. Pero justamente la violación de esta regla en Estocolmo,
como ya les conté, le costó la vida.
Digresiones aparte, gracias a estas reglas —que en el fondo no eran tan
originales, ya que muchos filósofos desde la Antigüedad habían hablado del
análisis y la síntesis— enunciadas en el famoso Discurso del Método,
Descartes llega a la certeza del yo pensante. Pero, como venía diciéndoles, lo
que hay que legitimar es el conocimiento que ese yo tiene del mundo. El yo está
repleto de ideas, algunas que crea él mismo de manera más o menos arbitraria
(ideas artificiales), algunas que le vienen de su confrontación con la empiria
(ideas adventicias) y algunas que lo constituyen en tanto que sujeto (ideas
innatas). Lo que tiene que hacer Descartes para escapar del solipsismo es
mostrar que esas ideas que se generan dentro de nosotros no son meros caprichos
sin sentido, sino que tienen alguna razón de ser. ¿Cómo lograrlo? Examinando
cuidadosamente las ideas.
Y efectivamente, en su exploración de las ideas que tiene «esa cosa que
piensa», se topa con una idea muy especial: la de una sustancia
infinita, eterna, inmutable, independiente, omnisciente y por la cual yo
mismo y todas las demás cosas que existen (si es que de verdad existen cosas)
hemos sido creados y producidos.
Esa idea no es otra que la idea de Dios. Y la idea de Dios tiene que
venir de algún lado… ¿y de dónde podría venir si no es de una sustancia que,
efectivamente, posea los rasgos de infinitud, eternidad, independencia,
omnisciencia? ¿Cómo podría yo mismo haberme creado la idea de un ser con todos
esos rasgos? La existencia de la idea de Dios en mi cabeza (o en la cabeza de
Descartes, para ser más precisos) prueba que Dios existe, y esta prueba le
permite escapar del laberinto aparentemente sin salida del yo.
Y esto es esencial, porque si ese ser infinitamente bondadoso rige el destino
del mundo, es evidente que no puede permitir que el genio maligno me engañe del
todo. Me garantiza que en tanto yo opte por las ideas claras y distintas y
respete las cuatro reglas del método, no caeré en el error. ¿Y cuáles son las
ideas claras y distintas por antonomasia? Las ideas matemáticas, las
geométricas. Queda así legitimado el conocimiento matemático. Y, por lo tanto,
el mundo que surja de este razonamiento será un mundo basado en la geometría,
un mundo de pura extensión, que Descartes identifica con la materia.
La naturaleza de la materia o del cuerpo tomado en general no consiste
en ser una cosa dura, pesada, coloreada o que incide en nuestros sentidos de
alguna otra forma, sino sólo en que es una sustancia extensa en longitud,
anchura y profundidad (…), su naturaleza consiste sólo en esto: es una
sustancia que posee extensión.
Y además de la extensión, otros dos atributos geométricos: la figura y
el movimiento.
Habrán notado que en toda esta construcción cartesiana no hay ninguna apelación
empírica. Él no dice: se observa esto o aquello y entonces… No, él razona como
si su metafísica fuera una geometría, y haciéndolo de este modo construye el
trípode yo-Dios-mundo por medios puramente mentales, racionales. Esto ya nos da
una pista del rumbo que tomará su física. Porque… ¿qué es lo no empírico en la
física? Lo que funciona de manera racional, el mecanismo. El mundo cartesiano
será, pues, un enorme mecanismo donde las esferas pueden rodar sobre los planos
inclinados y se puede despreciar el fenómeno secundario del rozamiento.
Nada más lejos de la inducción baconiana, que trataba de buscar regularidades a
partir de la empiria.
§. Física cartesiana
La imaginación y la sensibilidad, siempre y cuando estuvieran bien utilizadas
(es decir, siempre y cuando respetaran a pie juntillas las reglas del método)
tenían que conducirnos a razonamientos confiables acerca del mundo material.
Estos «razonamientos confiables», a decir verdad, no fueron para nada felices,
aunque la influencia que tuvo el sistema cartesiano en la cultura francesa fue
enorme. Pongamos, por ejemplo, la opinión que emitía tras devorar la obra de
Galileo en unas horas:
Todo (lo que éste dice) de la velocidad de los cuerpos que caen en el
vacío, etc., está construido sin fundamento, pues antes habría tenido que
determinar qué es el peso, y si hubiera sabido la verdad, habría sabido que el
peso en el vacío es nulo.
Además de notar que aquí sobrevive un fuerte rescoldo sustancialista
(hay que saber qué es el peso, cosa que no preocupaba en absoluto a Galileo),
es importante que recordemos que, para Descartes, el vacío, por definición, no
podía existir: dado que el espacio mismo era consustancial con la materia, el
universo estaba constituido por un plenum, un lleno total de
materia sutil, de éter, que, a lo sumo, presentaba diferentes densidades en
toda su superficie. Lo cual permitía explicar muchos fenómenos, como por
ejemplo el peso: si un cuerpo tenía menos materia que el aire que lo rodeaba,
ese exceso de materia que se encontraba en el cielo producía una presión sobre
el cuerpo hacia el centro de la tierra, es decir: el peso. Esta teoría del
peso, que no se derivaba de ninguna fuente experimental sino del puro
intelecto, parece algo débil y efectivamente lo era, lo que no fue obstáculo
para que, sobre todo los franceses, la tomaran al pie de la letra.
El movimiento también se explicaba desde su teoría del plenum. Tal
como lo había expuesto Galileo, el movimiento cartesiano era relativo: «es»
sólo en relación con otro objeto en reposo. Un cuerpo no cambia su estado de
movimiento (o de reposo) si no es porque choca con otro cuerpo y estos choques
producen movimientos rectilíneos. Es una hipótesis no muy lejana a la de la
inercia: los cuerpos siguen en movimiento rectilíneo a menos que algo varíe ese
estado. Ahora bien: ¿cuál es el motor que inicia el movimiento?
Por su omnipotencia, Dios ha creado la materia con el movimiento y el
reposo, y conservado ahora en el Universo, por su concurso ordinario, tanto
movimiento y tanto reposo como puso en él al crearlo.
Así, la inercia cartesiana distingue entre el movimiento y el reposo,
más o menos al mismo tiempo que Galileo demostraba que no hay distinción entre
el movimiento rectilíneo y uniforme y el reposo. Por otra parte, la cantidad de
movimiento total que Dios había impreso al mundo en sus orígenes pasaba de un
objeto a otro pero se mantenía constante siempre. Algunos cuerpos se detenían
al entrar en contacto con otro, pero su movimiento pasaba a estos últimos que
comenzaban así a moverse: aquí muchos leen un antecedente del principio
mecánico de conservación de la cantidad de movimiento (la cantidad de
movimiento de un móvil es el producto de su masa por su velocidad).
El universo cartesiano, lleno de una materia sutil, estaba regido por el
principio de conservación del movimiento y el principio de inercia, con los
cuales, con una buena dosis de voluntad, y muchísima pero muchísima
imaginación, se «explicaba» todo, incluso los movimientos planetarios. Porque
el éter cartesiano no se limitaba a llenar, como una mera presencia ontológica
que tranquilizaba conciencias con horror al vacío. Nada de eso: el éter era
activo. El postulado del cual partía Descartes, a saber, que la fuerza no puede
transmitirse sino por la presión o el impacto (esto es, sólo por contacto y
nunca por acción a distancia, piedra del escándalo y núcleo de las críticas
racionalistas a la gravitación newtoniana) forzaba al éter cartesiano a la
acción, formando torbellinos o vórtices que arrastraban a los cuerpos,
generando el movimiento y transportando las acciones a distancia, ya fuera la
gravitación, ya fuera la luz, o el magnetismo. Descartes sacó al éter de su
pereza ontológica y lo obligó a trabajar: puesto que no había acción a
distancia, alguien debía transportar lo transportable, y el éter se encargó de
ello, convirtiéndose, en el sistema de Descartes, en la fuerza activa más
potente del universo, aunque desde ya era imposible saber de qué estaba hecho o
qué clase de cosa era.
Los torbellinos eran, al mismo tiempo, los que mantenían el movimiento de los
planetas, aunque su inventor nunca se preocupó de ver si se ajustaban a las
leyes de Kepler sobre el movimiento planetario. Lo cual era una clara muestra
de que su mundo era una deducción mental, un mundo puramente geométrico,
extraído de principios metafísicos, y sin recurrencia al experimento.
El cartesianismo tuvo un impacto muy grande en la ciencia francesa y europea;
fue el punto de resistencia a la mecánica newtoniana y bien avanzado el siglo
XVII nada menos que Euler y Bernoulli basaron su teoría del magnetismo en los
torbellinos cartesianos. Pero era una física más bien cualitativa, que no
permitía predecir nada en el alegre caos de torbellinos de éter. En realidad,
todo este sistema era un disparate grandioso, un dislate de dimensiones
aristotélicas. Pero estaba sostenido por la autoridad de Descartes y su inmenso
prestigio.
Obviamente, no todo el mundo estaba conforme con el imperialismo cartesiano.
Huygens (1629-1695), de quien ya hemos dicho algo, escribió:
Descartes, que me parece que estaba celoso de la fama de Galileo, tenía
la ambición de ser considerado el autor de una nueva filosofía, que se enseñara
en las universidades en lugar del aristotelismo.
Pero fue Newton quien, tras estudiar la teoría, la destruyó sin
demasiadas complicaciones y matemáticamente, convirtiéndose en aquello que,
según Huygens, Descartes estaba buscando. Primero en el segundo libro de
los Principia, y luego en el Escolio general.
La hipótesis de los vórtices se ve acosada por muchas dificultades.
Y después, en un párrafo letal, termina:
Las revoluciones del Sol y de los planetas en torno de sus ejes, que
deberían concordar con los movimientos de los vórtices, discrepan de todas
estas proporciones. Los movimientos de los cometas no pueden explicarse por los
vórtices. Los cometas se desplazan con movimientos muy excéntricos, cosa que no
podría ocurrir si no se suprimen los vórtices.
§. El hombre máquina
Otro rasgo del mecanismo de Descartes está dado por su concepción de los
animales como máquinas, una suma de pequeños relojitos y mecanismos gobernados
enteramente por las leyes de la física y exentos de sentido o conciencia
(excepto los hombres, claro, que sí la tienen). Según él, estos
animales/máquina, que poseían una complejidad mucho mayor que la que jamás
podría producir el hombre, no sentían dolor.
Los hombres, a diferencia de los otros animales, poseían un alma, cuyo contacto
con el cuerpo se producía en la glándula pineal (una afirmación discutible si
las hay). Esta diferencia era esencial y alejaba totalmente la vida animal de
la vida humana y creaba una oposición entre las conductas mecánicas y las
razonables.
La vida no era más que un fluido, que iba del corazón al cerebro en la sangre y
de allí al resto del cuerpo para dirigir las funciones vitales. La biología
misma, para Descartes, era una rama de la mecánica: los organismos vivos eran,
en última instancia, pequeños fenómenos físicos acumulados.
Es por eso que Descartes acogió con entusiasmo el libro de William Harvey
(1578-1657) Movimiento del corazón y la sangre en animales de
1628, en el que se explicaba la circulación de la sangre, y siempre tuvo la
esperanza de hacer algún descubrimiento importante en ese campo científico.
Este dualismo cuerpo y alma permitió algunas situaciones algo drásticas, como
la que vivió el más famoso seguidor de Descartes, Malebranche, cuando,
caminando por la Rue Saint Jacques, pateó a una perra embarazada y, frente a
las críticas de sus compañeros, respondió que más valía ocuparse del dolor
humano, el verdadero dolor, y no del de una máquina inconsciente que no sabía
lo que hacía sino que simplemente respondía a estímulos.
La filosofía de Descartes, muy poco generosa con los animales (más que poco
generosa, más bien siniestra) justificaba los experimentos de vivisección, que
entonces se practicaban a rolete.
§. La geometría analítica
Si la física de Descartes era insatisfactoria, como vimos que demostró Newton,
sus matemáticas fueron, en cambio, espléndidas, geniales. Hay cierta coherencia
profunda en este asunto: al fin y al cabo, no es para extrañarse que de una
posición tan metafísicamente racional las matemáticas dieran mejores resultados
que la física. Las matemáticas eran uno de los pocos saberes antiguos que
Descartes respetaba, aunque lo encontraba terriblemente incompleto y caótico
por no haber sido nunca enmarcado en una metodología clara, en una
justificación teórica válida. Por eso se propuso crear una matemática general
más amplia y coherente, y que fuera modelo de todas las otras ciencias.
Su creación, la geometría analítica, cuya invención comparte con el gran
matemático francés Pierre Fermat (1601-1665), fue una verdadera revolución: le
permitió transformar los problemas geométricos en algebraicos.
Su método, que expuso en el libro Geometría de 1638, se puede
resumir brevemente y con notación moderna: mediante dos ejes de coordenadas,
asociaba a cada punto geométrico un par de números. Lo cual le permitía
encontrar las relaciones algebraicas que cumplen los puntos de una curva, y
obtener una ecuación que la representa. Así, por ejemplo, una figura geométrica
puede expresarse con la notación y= f(x).
Descartes estaba más que orgulloso de su descubrimiento, que había elaborado
prácticamente de cero, y se vanagloriaba públicamente de haberlo hecho. Y lo
cierto es que había motivos para envanecerse: la geometría analítica cerraba
una brecha que se había abierto en la matemática griega, que deliberadamente
había separado los dos campos. El álgebra y las matemáticas se transformaron en
brújulas que permitieron guiarse mejor a quienes transitaban por la geometría.
La geometría analítica es una creación realmente impresionante, que marca un
antes y un después, que fue mucho más productiva que sus devaneos sobre la
materia sutil, y que permitió el surgimiento del cálculo diferencial e
integral. Geometría analítica y cálculo infinitesimal serán el lenguaje
matemático que hablará la nueva ciencia.
§. Conclusión cartesiana
Los filósofos no necesariamente son buenos científicos y Descartes no lo fue:
su contribución consistió, fundamentalmente, en la concepción de un mundo
mecánico; el resto de sus aportes a la ciencia (salvando la genialidad de la
geometría analítica) fueron mínimos, e incluso reaccionarios, en un momento en
que casi todos los científicos (incluyéndolo a él mismo) estaban imbuidos de la
idea de progreso.
Tampoco es verdad que Descartes no hiciera experimentos: los hizo en óptica, terreno
donde dedujo la ley de la refracción, y también en mecánica, donde experimentó
con el choque, deduciendo una serie de leyes, casi exclusivamente falsas.
También tuvo intuiciones importantes en relación con el origen de la Tierra
(imaginó que era una estrella como el Sol que se había enfriado, o un trozo del
Sol que se había desprendido y también enfriado), y sobre la estructura interna
de nuestro planeta.
Descartes, salvando las diferencias, recuerda un poco a Aristóteles, que
planteaba bien los problemas, pero los resolvía con elementos traídos de los
pelos. Por eso lo más valioso de Descartes no era la forma en la que encontraba
leyes —generalmente erróneas— sobre el mundo, sino su vocación por sintetizar
los problemas en un número reducido de conceptos que se pudieran manejar y su
concepción de un mundo mecánico, vacío de fantasmas (aunque no de materia), lo
que resultó un estímulo invalorable para la ciencia moderna.
§. Avatares y conflictos
La más importante de las instituciones científicas del siglo XVII, la Royal
Society, adoptó explícitamente el programa baconiano; sin embargo, sus miembros
más conspicuos, y científicos de primer orden como Boyle o Hooke, si bien no
dejaban de ser empiristas, eran plenamente conscientes de que la confección de
tablas y la acumulación de datos sin un pensamiento rector y organizador (¿qué
datos buscar y considerar?, ¿qué datos excluir?), no llevaba a ninguna parte.
Pero una postura como la cartesiana les resultaba imposible, y no sólo por las
falacias de su física, por ejemplo respecto del vacío (que Boyle y Hooke
producían con sus bombas neumáticas), o la acción a distancia (que producía el
sacro horror de los cartesianos) sino porque no podían aceptar que la física,
la química, y la ciencia positiva en general, se derivaran de una metafísica,
que debía, eso sí, parecerles uno de los temibles «ídolos» de sir Francis que
justamente se debían evitar.
De cualquier manera, la mera recolección de datos obviamente no bastaba y era
necesario usar las armas de la deducción: ¿pero cómo usarlas sin caer en la
idolatría y el error? ¿Cómo solucionar el dilema?
Muy a la inglesa, pragmáticamente y mediante un compromiso.
§. El compromiso de 1687
Tanto el inductivismo baconiano como el racionalismo de Descartes coincidían en
proponer el progreso de la ciencia y en aconsejar el manejo de saberes
prácticos para el progreso de la humanidad, pero aparentemente había una
oposición irreductible en la fundamentación de un método que permitiera dar
carta de ciudadanía a la verdad en la nueva ciencia. Bacon quiso construir una
nueva sociedad basada en esa nueva ciencia, Descartes pretendió reconstruir el
mundo basándose en la razón geométrica, pero ni uno ni otro parecían
fundamentar suficientemente la física newtoniana. Aunque Newton, en su primera
regla del método, parecía optar muy directamente por la postura baconiana:
Las proposiciones obtenidas por inducción a partir de los fenómenos han
de ser tenidas, en filosofía experimental, por verdaderas o exactas o muy
aproximadamente, hasta que aparezcan otros fenómenos que las hagan o más
exactas, o expuestas a excepciones.
Pero Newton no explicaba qué era lo que lo autorizaba a realizar la
inducción. O sea que aparentemente seguíamos estancados en el mismo problema de
la generalización injustificada.
Pero hete aquí que no es así. Los Principia, que señalaron el
camino en tantos aspectos, también lo señalaron metodológicamente al dar una
pauta que justificaba el uso de la inducción. Y esa pauta, aunque no
explícitamente, implica un a priori, una petición de principios de
tipo cartesiano.
Por empezar, el núcleo de la construcción newtoniana no son los datos, sino que
su núcleo son los fenómenos, y de los fenómenos se extraen los datos. Pero para
poder generalizar un fenómeno, como la ley de caída de los cuerpos, digamos,
que en la naturaleza tal como la vemos es confusa y se produce de maneras
completamente distintas, hay que desechar las razones circunstanciales que
diferencian una ocurrencia del fenómeno de las otras: hay que destilarlo.
¿Pero cómo hacerlo? Pues creando un lugar especial, donde se pueda percibir el
fenómeno con la mayor generalidad posible, y ese lugar es el laboratorio. En el
laboratorio no se examina el fenómeno tal como lo vemos en el mundo, sino que
se lo produce en condiciones ideales, de tal manera que aparezca como claro y
distinto eliminando (mediante una acción racional, o experimento mental) los
elementos secundarios como el rozamiento, por ejemplo, o las imperfecciones de
los aparatos. El laboratorio, mediante esta operación racional, queda
disgregado del espacio empírico engañoso: el laboratorio es un trozo del
espacio isotrópico sobre el cual transcurre el tiempo matemático.
Pero como el espacio es isotrópico, es decir, todos los puntos son equivalentes
en todas direcciones, así como todos los instantes de tiempo matemático,
pasados o futuros, son equivalentes, el fenómeno producido de esta manera es
representativo del mismo fenómeno producido en cualquier otro lugar o tiempo
(del mismo que una naranja es representativa de todas las naranjas si
sabemos a priori que son todas homogéneas, como los puntos
geométricos y los instantes de tiempo matemático). El péndulo no oscila
geométricamente en ese momento, sino en todos los momentos, y en todos los
lugares. ¿Por qué habría de variar?
Ahora bien: la isotropía del espacio y el tiempo no es algo que se deduzca de
la empiria, sino que se trata de un a priori metafísico, aunque diferente, muy
parecido al a priori geométrico de Descartes. Claro que ahora el espacio no es
consustancial con la materia, puede existir por sí mismo, es autónomo y previo,
es un receptáculo donde se desarrollan los fenómenos, y claro está, puede estar
vacío.
La acción a distancia, el punto más débil de la física newtoniana, que no
encajaba para nada con el precepto cartesiano de la acción cuerpo a cuerpo,
quedaría pendiente hasta el compromiso de 1758. Es decir, el método que sale de
los Principia es inductivo, pero en condiciones especiales que
exigen un compromiso racional a priori.
§. El compromiso de 1758
La vuelta del cometa Halley marcó el triunfo en gran escala (¡astronómica!) de
la ciencia newtoniana, y una terrible demostración de la fuerza y la potencia
pavorosa de la Ley de Gravitación Universal, y aunque los vórtices cartesianos
todavía persistirían, un poco por tradición y un poco por nacionalismo —eran
vórtices franceses, al fin y al cabo—, paulatinamente, el compromiso inglés de
1687 y los Principia se fueron extendiendo a toda la ciencia
europea: la acción a distancia, el vacío, los corpúsculos, los átomos,
irrumpieron en el mundo mecánico de Descartes, ahora colonizado por el espacio
y tiempo geométricos de Newton y por la acción a distancia de una fuerza, como
la gravedad, de cuya naturaleza no se sabe nada, y sobre la cual «no se
formulan hipótesis».
Pero además, la ciencia newtoniana representaba todo un «programa», una
indicación que mostraba cómo proceder con lo que se sabe y cómo abordar lo que
no se sabe. La Revolución Científica culminaba con un método y una forma de
hacer ciencia que se extendería a todas las disciplinas, cuya mayor aspiración
sería, desde entonces, acceder a un conocimiento tan sólido como el que había
conseguido Sir Isaac.
Parte IV
La ciencia ilustrada: el triunfo de las disciplinas particulares
Contenido:
19. Los
éxitos de la ciencia experimental
20. La
circulación de la sangre y las nuevas polémicas biológicas
21. Todos los
fuegos el fuego: la revolución química
22. El tiempo
profundo
23. La luz,
el calor, la electricidad
24. La forma
del cielo y la filosofía natural
Capítulo 19
Los éxitos de la ciencia experimental
Aunque hasta ahora fuimos rastreando los pasos de la Revolución
Científica, desde Copérnico a Newton, y la formación del método experimental
desde Bacon hasta el compromiso de 1758, siguiendo la paulatina resolución de
los problemas del movimiento terrestre y celeste como línea conductora, es
obvio que la Revolución Científica no fue la obra de un puñado de grandes
figuras, sino el resultado del trabajo de cientos de matemáticos y filósofos
naturales que estaban empeñados en construir una nueva imagen del mundo y una
nueva ciencia que lo describiera.
Así, esa línea principal que se fue trazando no fue la única en la que brilló
la nueva ciencia racionalista y experimental. Si me permiten una metáfora
bélica —ya que hablamos de Revolución—, alrededor de la batalla principal —o la
que elegí como principal— se producían multitud de escaramuzas, para nada
secundarias. La medicina, el magnetismo, el estudio de los gases y el vacío
tuvieron sus propias batallas, a veces indecisas durante un tiempo, mientras el
nuevo método y la nueva manera de pensar se imponían sobre todas las
disciplinas, y muchas de ellas arrancaban en el camino de transformarse en
«ciencia newtoniana».
Dicho todo esto, hablemos un poco de los grandes éxitos de la ciencia
experimental.
§. William Gilbert y el magnetismo
Es difícil dar cuenta ordenadamente de los adelantos producidos en la ciencia
experimental, y eso se debe, en buena medida, a que los científicos de la época
todavía no trabajaban de una manera completamente metódica sino que iban probando
en diferentes disciplinas y formulando teorías a veces más exitosas, a veces
menos. Por eso, en algunos casos (como el que viene a continuación) se corre el
riesgo de que el relato de los avances parezca una mera enumeración. Pero
tengan paciencia, porque cada ladrillo que se pone es fundamental para el
edificio entero.
En el año 1600 se publicó De Magnete Magneticisque Corporibus, et
de Magno Magnete Tellure (Sobre el magnetismo, los cuerpos
magnéticos y el gran imán que es la Tierra), De Magnete para
los amigos y para nosotros, del médico inglés William Gilbert, una obra que
estudiaba a fondo el fenómeno del magnetismo y que generó, por su método, el
entusiasmo de Galileo y, por sus ideas, ejerció una profunda influencia en
Kepler, que, como les conté cuando hablamos de él, imaginó fuerzas magnéticas
entre los planetas que transformaban las órbitas circulares en elípticas.
Gilbert es considerado por algunos como el primer científico moderno,
clasificación un poco apresurada, pero digna de consideración.
Nació el 24 de mayo de 1544 en Colchester, al nordeste de Londres, en el seno
de una familia importante de la localidad, tuvo una posición cómoda en la
sociedad y no pasó en ningún caso por las difíciles situaciones que tuvieron
que atravesar Kepler o Galileo por la angustia de la falta de dinero; en 1558
fue a Cambridge, donde adquirió el grado de doctor en Humanidades y en 1569 el
de doctor en Medicina. Después viajó por el continente durante varios años,
hasta que se estableció en Londres, donde llegó a ser miembro de la junta de
gobierno del Royal College of Physicians en 1573 (que era una de las
instituciones prestigiosas de la ciencia inglesa, y más tarde semi rival de la
Royal Society). Gilbert fue un médico importante y de mucho éxito, y fue ocupando
uno tras otro casi todos los cargos del Royal College. En 1600 se transformó en
médico personal de la reina Isabel I, la misma bajo cuyo período floreció el
famoso teatro inglés que tuvo como máximo exponente a Shakespeare. Cuando la
reina murió, en 1603, fue nombrado médico personal por su sucesor, Jacobo I,
pero falleció casi inmediatamente, el 10 de diciembre de ese mismo año.
Y así y todo, no fue en el terreno de la medicina en el que Gilbert llevó a
cabo los trabajos que lo hicieron famoso sino en el de la física: durante
dieciocho años se dedicó al estudio del magnetismo (y un poco al de la
electricidad).
Por supuesto que no era el primero: el análisis de las propiedades magnéticas
y, sobre todo, la sorpresa ante las inexplicables virtudes de la «piedra imán»,
databan de antiguo, lo cual no es para nada extraño: las características de los
imanes son o resultan verdaderamente extraordinarias, y ésa es la razón por la
cual los chicos suelen (o solían) jugar con ellos. Además, estaban rodeados desde
la Antigüedad de leyendas fabulosas, como la de la existencia de una montaña
entera formada de piedra imán, que arrancaba los clavos y cuanto objeto de
hierro hubiera en los barcos que osaban acercársele.
Lo cierto es que los imanes ya estaban pasablemente descriptos desde la Edad
Media. En 1269, por citar sólo un caso, el estudioso Pedro de Mauricourt, el
Peregrino (quien, de paso, había sido calificado por Roger Bacon como el más
importante científico de su época), escribió una Epistola de magnete,
donde examinaba meticulosamente las propiedades de la piedra imán y las
enumeraba: dos polos distintos se atraen y dos iguales se rechazan; un imán
siempre tiene dos polos, y si se lo parte no se obtienen «polos separados»,
sino que cada una de las partes recupera la bipolaridad. Además, había llegado
a diseñar dos brújulas, una flotante y otra sobre un pivote, y presentó la
primera discusión sobre la brújula en Occidente.
Pero no fue éste el libro que condujo a Gilbert a ocuparse del magnetismo sino
uno un poco más contemporáneo: Magia Naturalis, de Dalla Porta, un
verdadero bestseller de «ciencia» popular que mezclaba algunas pocas
intuiciones verdaderamente científicas con la parafernalia inagotable de la
magia renacentista. Valga, para demostrarlo, un ejemplo:
Se cree que la piedra imán produce melancolía; se la emplea para
preparar brebajes de amor, se afirma que la piedra frotada con ajo pierde su
poder de atracción, poder que recobra cuando se la unta con sangre de macho
cabrío.
Gilbert, hombre de la Revolución Científica en ciernes, se ocupó de
destruir las afirmaciones gratuitas y mágicas de Dalla Porta, usando
puntillosamente y de modo sistemático el método experimental y tirando abajo
todas las características fantasiosas que se les habían atribuido a los imanes.
No era tan difícil, a decir verdad. El autor de Magia Naturalis decía,
por ejemplo, que un trozo de hierro frotado con diamante se magnetizaba.
Gilbert, por supuesto, repitió el experimento con un resultado devastador (al
menos, devastador para la seriedad de Dalla Porta):
He realizado esta experiencia con setenta y cinco diamantes en presencia
de varios testigos; he empleado barras de hierro y trozos de alambre,
manipulándolos con sumo cuidado mientras frotaba, mediante soportes de corcho
sobre agua. No obstante, nunca logré observar el fenómeno indicado por Dalla
Porta.
Les cuento que no pude resistir e hice la prueba del ajo, que
supuestamente quita las propiedades magnéticas, con un imán de esos que sirven
para pegar en la heladera. Obtuve los mismos resultados que Gilbert, y la
verdad es que, si no hubiera sido así, me habría muerto del susto. A veces no
se entiende cómo creencias completamente absurdas, como la del ajo, de fácil
refutación cotidiana, pudieran perdurar tanto tiempo.
Sea como fuere, ése es un resultado que obtuve con un determinado diente de ajo
y un determinado imán. ¿Qué me autoriza a generalizar, como lo hizo Gilbert, a
todos los stickers pegados en la heladera, y luego a todos los imanes? Aquí
vemos el componente fuertemente inductivo, adelantado por Gilbert, de la
ciencia moderna.
Sin embargo, con experimentación e inducción no alcanza para entender cómo se
va constituyendo esa ciencia moderna. Y efectivamente, Gilbert no se quedaba en
los experimentos, sino que teorizaba sobre ellos:
En el descubrimiento de cosas secretas y en la investigación de causas
ocultas, se obtienen razones más poderosas mediante experimentos seguros y
argumentos demostrados, que a partir de conjeturas probables y de opiniones de
especuladores filosóficos. Esta obra nada afirma que no haya sido muchas veces
controlado.
Cosa que haría las delicias de Galileo, que empezaba a aplicar el mismo
método a la mecánica.
Como buen científico al filo de la Modernidad, Gilbert no podía despreocuparse
del método. A «aquellos filósofos que discursean basándose en unos pocos
experimentos vagos y no concluyentes», les recomendaba, dado que «es fácil
cometer equivocaciones y errores en ausencia de experimentos fiables»
manejar los objetos con cuidado, con destreza y habilidad, no con
descuido o con torpeza; cuando un experimento fracasa, no permitamos que en su
ignorancia condenen nuestros descubrimientos, porque no hay nada en estos
libros que no haya sido investigado, y realizado una y otra vez, y repetido
ante nuestros ojos.
Utilizando este método cuidadoso, Gilbert seguía muy de cerca a Petrus
Peregrinus y probaba y confirmaba resultados adelantados por él unos siglos
antes, como la atracción y la repulsión de los polos magnéticos y la
bipolaridad permanente de un imán, independientemente de cuántas veces se lo
divida. Comprobó también que la acción magnética atravesaba láminas de madera y
metal, mostró que una aguja no aumentaba de peso al ser imantada y concluye que
la imantación «es una propiedad imponderable, una virtud» del imán,
inscribiéndose en la línea renacentista: recordemos que la misma palabra,
«virtud», era utilizada para describir esa cosa imponderable (por inexistente)
que era el ímpetus, agente del movimiento. Si hubiese sido
plenamente moderno (es decir: newtoniano), Gilbert hubiera dicho que sobre la
naturaleza de la fuerza magnética no se formulan hipótesis, pero faltaba mucho
para la famosa frase de Don Isaac, que en realidad ni siquiera había nacido. Su
demostración de que los imanes calentados a altas temperaturas pierden sus
virtudes magnéticas lo llevó a conjeturar algo sobre esa «naturaleza»: supuso
que el magnetismo se debe a un ordenamiento (¿de los corpúsculos?) del metal
imantado, que es destruido por la temperatura:
Convulsionado por el calor, el hierro toma una forma confusa y
perturbada, de manera que no es más atraído por el imán y pierde su fuerza de
atracción, cualquiera sea la manera como la adquirió.
Aquí asomaba también la teoría corpuscular de la materia, de la que fue
un fuerte defensor, y del calor, que era concebido como una agitación de los
átomos. También, en una línea que más tarde se llamará newtoniana, mostró que
los imanes no sólo actúan a distancia, sino que son capaces de imantar a
distancia, conclusión que sería rechazada por Descartes, quien diría, como
pueden sospechar, que la «virtud magnética» era transportada por sus insulsos y
arbitrarios torbellinos.
Petrus Peregrinus, después de rechazar la existencia de grandes minas de piedra
imán en los polos, atribuía el origen del magnetismo a los cielos, encargados
de orientar la brújula; Gilbert se apartó de esta línea de pensamiento y
concibió a la Tierra como un gran imán, aunque el hecho de que no pudiera
distinguir los polos magnéticos de los geográficos le impidió explicar
fenómenos como la declinación de la brújula, y supuso que el magnetismo se
confunde con el «alma de la materia». Petrus Peregrinus afirma que la dirección
de la aguja está dada por los polos celestes. Cardano opinaba que la estrella
en la cola de la Osa Mayor engendraba las oscilaciones de la brújula… Así es la
costumbre del ser humano, cosas cercanas le parecen despreciables, las lejanas
le parecen caras y son el objeto de su nostalgia.
Y si la Tierra era un gran imán… ¿por qué no habrían de serlo los demás
planetas? Esto muestra que sus intereses incluyeron la astronomía, y que era un
decidido copernicano que veía a los planetas como similares a la Tierra y
sostenía que era el juego de las fuerzas magnéticas el que los mantenía en sus
órbitas. Pero, además, mostró lo fácil que es explicar la precesión de los
equinoccios desde el sistema copernicano, sugirió que las estrellas están
situadas a diferentes distancias de la Tierra y no todas adheridas a una esfera
de cristal, como ya lo habían hecho Thomas Digges y Giordano Bruno, y que
podrían ser cuerpos celestes similares al Sol rodeados por las órbitas de sus
propios planetas habitables.
Su investigación sobre la electricidad producida frotando con seda objetos
hechos de sustancias como el ámbar o el cristal fue menos completa que su
estudio sobre el magnetismo, pero determinó que la electricidad y el magnetismo
eran fenómenos distintos, lo cual no es poca cosa (de hecho, acuñó la palabra
«eléctrico» en este contexto), aunque recién más de un siglo después el físico
francés Charles Du Fay (1698-1739) descubriría que existen dos clases de carga
eléctrica, que se comportan en cierto modo como polos magnéticos, por el hecho
de que las cargas del mismo tipo se repelen entre sí, mientras que las cargas
opuestas se atraen. En realidad no es así, y no hay «dos electricidades», como
veremos cuando suene la «hora eléctrica» y se prendan las luces respectivas.
Sus investigaciones fueron tan minuciosas y precisas que no hubo ninguna
novedad importante en el terreno del magnetismo durante dos siglos, hasta los
trabajos de Michael Faraday, lo cual lo convierte no sólo en un gran científico
sino también en un ineludible precursor.
§. La Royal Society y las primeras academias
Ya dije varias veces que la ciencia es, por definición, pública, y que se forma
por el trabajo colectivo de muchas personas interesadas en descifrar el mundo.
En estos siglos que estamos revisando, y que constituyen el punto de inicio de
la ciencia tal como la conocemos hoy, fue central un nuevo modelo de
institución que permitía agrupar personas que tenían mucha curiosidad y el
deseo de investigar la naturaleza de las cosas.
La primera fue la Accademia dei Lincei (Academia de los
Linces) de Roma, cuyo nombre se inspiró en la aguda mirada de ese felino.
Fue fundada en 1603 por cuatro jóvenes. Uno de ellos, Federico Cesi, de 18 años
(1585-1630), era el hijo del Duque de Acquasparta. Entre los otros tres, apenas
mayores que Cesi, había un médico holandés. Al grupo le gustaba ocultar sus
encuentros detrás de un velo de misterio que se les volvió en contra y alimentó
las sospechas de familiares y autoridades. En 1604, el miembro holandés fue
expulsado de Roma por ocultismo y el grupo se desmembró, aunque la
correspondencia continuó y por este medio también siguieron con el programa que
se habían propuesto.
Hacia 1610, la academia se había recuperado y estaba en lento crecimiento. En
1611 se sumó Galileo Galilei, lo que estimuló aún más su importancia. En 1625,
el número de miembros había llegado a 32. Durante los encuentros se discutían
cuestiones científicas, administrativas, y se decidía sobre eventuales
publicaciones, entre las que estuvieron las obras galileanas Storia e
dimostrazioni intorno alle macchie solari (1613) e Il
Saggiatore (1623).
A pesar de estos éxitos, cuando murió Cesi, en 1630, la academia se diluyó una
vez más. Su posición se venía debilitando desde 1616, cuando apoyó el
copernicanismo de Galileo. A pesar de todo, la tradición sobrevivió por un
tiempo en la Accademia del Cimento (del experimento) en
Florencia, de inspiración galileana, y que tuvo el patrocinio y sostén de los
Medici: su mismo nombre indicaba su orientación: el experimento era la prueba
de fuego que debían pasar las teorías científicas, y su lema era «provando e
riprovando», esto es, experimentando y rechazando la teoría que no pase la
prueba experimental. Los científicos del Cimento se ocuparon de experiencias
relacionadas con todos los campos de la física, propiedades de líquidos y
sólidos, magnetismo y electricidad; la parte más importante de sus
publicaciones se relaciona con la presión atmosférica y mediciones de la
temperatura. Fueron ellos los que hicieron los famosos experimentos sobre el
vacío, que llevaron, tras muchas idas y vueltas, a la resolución de este viejo
problema.
L’Académie des sciences de Francia tiene su origen en un proyecto
de Jean Baptiste Colbert (1619-1683), ministro de Finanzas de Luis XIV, de
crear una academia general en la que reunir a los científicos de la época. Ya
existía la tradición de reuniones de savants —sabios o filósofos—, desde hacía
décadas, en torno de un mecenas que los financiara. En 1666, Colbert convocó a
un grupo de estos savants en la biblioteca del rey. Durante los primeros
treinta años, las actividades fueron relativamente informales. Recién en 1699,
Luis XIV les dio su primer reglamento para la ahora llamada Académie royale y
mudó a sus setenta miembros al edificio del Louvre. Desde allí contribuyó al
movimiento científico del siglo XVIII por medio de publicaciones y del poder
que le daban las consultas del rey acerca de temas específicos. Esta
institución fue cerrada en 1793, en tiempos de la Revolución Francesa, cuando
algunos de sus miembros —como Lavoisier— fueron guillotinados.
Dos años más tarde se formó un Institut national des sciences et des arts , y
en 1816 L’Académie des sciences recuperó su autonomía que, con algunas
variaciones, éxitos y fracasos se mantiene hasta la actualidad.
Pero sin duda la más importante, por lo menos en lo referente al siglo XVII, es
la Royal Society , que empezó a funcionar alrededor de 1645, cuando un grupo de
científicos de la época se propuso utilizar e intercambiar experimentos y
saberes a fin de aumentar sus conocimientos. Entre sus fundadores se cuentan
nombres que harían historia (de la ciencia), como el de Robert Boyle o Robert
Hooke. Boyle se refería en sus cartas a ese grupo de científicos como «el
colegio invisible».
El grupo se reunió en el Gresham College hasta el año 1658, cuando tuvo que
ocultarse de los soldados (del Parlamento). En 1660, cuando se produjo la
Restauración y Carlos II Estuardo retornó a Londres, volvieron a hacerse las
reuniones, que se hicieron más formales y el rey se involucró más en el
funcionamiento de la institución. En 1662, en una ceremonia dirigida por el
rey, se la bautizó oficialmente como Royal Society y se le dio un estatuto
(aunque no financiación).
El número de miembros escaló rápidamente gracias a grandes nombres como el
mismo Isaac Newton, quien se incorporó en 1672. Lo cierto es que pertenecer a
la Royal Society se convirtió en una de las modas de la Restauración, hasta el
punto de que mucha gente alejada, o con poco interés en la ciencia, pasó a
formar parte de ella, basándose en una curiosa cláusula mediante la cual todo
miembro de la nobleza con rango superior al de barón era automáticamente
admitido.
Cláusula rara pero pragmática: al fin y al cabo, esa nobleza podía aportar
financiación, y se parece a lo que hacen algunas sociedades hoy en día, cuando
nombran a empresarios o ricos industriales en puestos honoríficos. En 1665 se
inició la publicación de las Philosophical transactions , la revista científica
más antigua de las que aún permanecen hoy.
La Royal Society adoptó oficialmente el ideario baconiano, tanto en la idea
clave de la ciencia como capaz de modificar la naturaleza, como en la base
inductivista de la metodología científica (a diferencia de la Académie
francesa, que fue obviamente cartesiana) y la práctica del experimento y la
experiencia como fundamental criterio de verdad. Incluso muchos creyeron ver en
la Royal Society una materialización del ideal baconiano de la Nueva Atlántida,
con la academia como la Casa de la Sabiduría: así, incluso, se la describe en
la Historia de la Royal Society de Thomas Spratt (1667). Era un disparate, sin
duda, pero es posible que este baconianismo exagerado también tuviera sentido
político, y que el culto a Bacon, ministro de Carlos I, el ejecutado padre del
entonces rey, encubriera espurios intereses monetarios: a diferencia de la Casa
de la Sabiduría, la Royal Society era una institución privada, que necesitaba
autofinanciarse, y así puede ser que el culto baconiano fuera sólo una fachada;
al fin y al cabo, los miembros más conspicuos de la Sociedad, y científicos de
primer orden como Boyle o el enorme Robert Hooke, si bien no dejaban de ser
empiristas, eran plenamente conscientes de que necesitaban una buena dosis de
filosofía mecánica.
Pero una postura como la cartesiana les resultaba imposible, y no sólo por las
falacias de la física cartesiana, por ejemplo respecto del vacío (que Boyle y
Hooke producían con sus bombas neumáticas), o la acción a distancia, que
producía el sacro horror de los cartesianos a ultranza, sino porque no podían
aceptar que la física, la química, y la ciencia positiva en general se
derivaran de una metafísica, que debía, eso sí, parecerles uno de los temibles
«ídolos» de Sir Francis, que justamente se debían evitar.
§. El triunfo del vacío
La existencia o no del vacío, o su mera posibilidad lógica, había atravesado
los siglos. Como les conté al principio, el increíble Aristóteles rechazaba el
vacío por cuestiones filosóficas y lógicas: puesto que el medio es el encargado
de retrasar el movimiento, el vacío permitiría una velocidad infinita, lo cual
conduciría a aceptar que un móvil pudiera estar en dos lugares simultáneamente.
La escuela atomista, por su parte, había postulado el vacío, donde se movían
libremente los átomos, para sacar a la ciencia del callejón sin salida en el
que la había metido Parménides, con su Ser inmóvil que lo llenaba todo
uniformemente y no permitía pensar en nada que no fuera él. La postulación de
la existencia del vacío por parte de los atomistas constituía, para Aristóteles,
razón suficiente para rechazar de plano su teoría. Dos mil años después, el
asunto no estaba todavía resuelto.
Es interesante seguir el itinerario de esta cuestión, que era una de las tantas
grandes dicotomías u oposiciones que arrastraba la ciencia desde la Antigüedad,
junto a la de la observación o la teoría, la finitud o infinitud, los átomos o
el continuum y tantas otras.
La enorme autoridad de Aristóteles había oscurecido la idea de vacío, aunque
muchos medievales pudieron pensar en su posibilidad: al fin y al cabo, si Dios
era omnipotente, podía crear un vacío si se le daba la gana; era más poderoso
que Aristóteles, al fin de cuentas.
No obstante, predominaba la idea aristotélica de que «la naturaleza odia el
vacío»: el horror vacui, nombre que le dieron algunos pensadores medievales
escolásticos, que era necesario para explicar un ejemplo cotidiano y obvio como
el de la ventosa: una vez apretada contra una superficie no puede volver a su
forma original porque esto supondría generar vacío y, como tal cosa es
imposible, la ventosa permanece entonces adherida a la superficie sobre la que
se apretó. Es lógico; equivocado pero lógico. Lo mismo se puede decir de un
fuelle al que se trata de abrir mientras se tapa su boca de entrada.
Evidentemente, estas imposibilidades indicaban que la naturaleza odia el vacío
como, con otras palabras, sostenía Aristóteles, e incluso Platón. Este tipo de
evidencias sirvieron en la Edad Media como argumento definitivo.
Eso, los medievales; pero sin ir muy lejos el propio Descartes, como les conté
en el capítulo pasado, negó su posibilidad —sin usar ningún elemento divino— al
identificar materia y extensión (un atributo que no podía existir por separado,
es decir, espacio puro). La cuestión no era menor, porque lo que se estaba
discutiendo en realidad era la estructura del espacio (y de rebote, del
tiempo): si podía haber vacío, también podía haber espacio puro, y el espacio
puro, anterior a la materia y a los fenómenos que en él acontecieran, era el
que ansiosamente necesitaba la nueva ciencia, la que se forjó recién con
los Principia de Newton.
El experimento clásico para demostrar el horror al vacío de la naturaleza era
el que se observaba con las bombas de succión, tubos en los que se genera el
vacío en la parte de arriba y por los cuales el agua sube desde un pozo: al
hacerse el vacío en el caño de la bomba, el agua se precipitaba a llenarlo.
El problema era que la naturaleza parecía tenerle horror al vacío pero no
tanto: si el caño de succión era suficientemente largo, a los 10 metros,
aproximadamente, el agua dejaba de ascender y allí se quedaba, sin precipitarse
para nada a llenar la parte superior del caño. Los poceros lo sabían muy bien.
Y fue uno de ellos el que resolvió consultar al propio Galileo, que ensayó una
explicación de por qué el agua no se elevaba más allá de esa medida y adoptó
una solución intermedia: la ruptura de la barra de agua era comparable con la
ruptura de una barra de cualquier material que se estira más allá de sus
posibilidades. La columna de agua, en determinado momento, vence su resistencia
interna y se queda ahí. La explicación era floja, ya que no resolvía la
cuestión de fondo: si el agua dejaba de subir, ¿qué es lo que había entre la
columna de agua y la parte superior del caño?
Ya por entonces había quienes aventuraban otra explicación: el elevarse de la
columna de agua no se debía al horror al vacío ni a nada de índole metafísica
sino, sencillamente, a la presión del aire sobre el agua, que, al no encontrar
resistencia dentro del tubo, subía por él, hasta que el peso de la columna
dentro del caño equilibraba la presión ejercida por el aire.
Así se lo hizo saber en una carta del 26 de octubre de 1630 un joven filósofo,
Baliani, a Galileo (y también Isaac Beeckman, el que fuera maestro de Descartes
lo había sostenido), pero Galileo no le hizo caso.
El tema del peso del aire estaba literalmente en el aire.
Pero en Roma, mientras tanto, se discutía y se experimentaba. La Accademia
del Cimento montó un tubo de más de diez metros, rematado por una
esfera de vidrio, de donde se extrajo el aire y se selló la esfera: el agua,
obediente, subió hasta los diez metros y allí se quedó.
Gasparo Berti, admirador y seguidor de Galileo, decidió reproducir el fenómeno
en su propia casa, y el resultado fue el que todos esperaban: el agua se
elevaba hasta los diez metros y no iba más allá, no llegaba a llenar la esfera
de cristal… El misterio seguía en pie: ¿qué quedaba en la esfera, que había
sido cerrada herméticamente? Berti sostuvo que se trataba de un espacio vacío,
pero el jesuita Atanasius Kircher, fiel a la escolástica, lo negó y sostuvo que
había entrado aire. Los cartesianos, por su parte, sostenían que no había vacío
sino «materia sutil» que había entrado atravesando el vidrio. Esta historia de
la materia sutil era una idea muy confusa, y servía para «explicar», digamos,
un montón de fenómenos, pero no tenía el más mínimo contenido experimental.
Kircher, entonces, hizo un experimento ingenioso y, según creía, crucial: logró
instalar una campanilla dentro de la esfera de cristal, y la accionó mediante
un imán; dado que todos los presentes pudieron escuchar el sonido, no podía ser
vacío lo que había en el interior de la esfera, lo cual cerraba el problema
para él, aunque no para los partidarios del vacío: al fin y al cabo, la esfera
podía no estar tan herméticamente sellada, y el aire podía haberse filtrado, o
haber quedado algo de él. O sea que el experimento no era tan crucial, y esto
es algo que pasa a menudo con los así llamados «experimentos cruciales»: sólo
convencen en principio a los que ya están convencidos.
Magnoti, un amigo de Berti, buscó para repetir el experimento la ayuda de
Evangelista Torricelli (1608-1647), un físico y matemático italiano que había
sido aceptado como discípulo del mismísimo Galileo, pero sugirió hacerlo con
agua de mar, lo que permitía, puesto que el agua de mar es más pesada, usar
tubos más cortos y más fáciles de conseguir. Viviani, por su parte, sugirió el
mercurio, con lo cual bastaba con un tubo de vidrio de un metro. Acostumbrados
a los grandes experimentos de hoy, ya sea el Supercolisionador de hadrones —la
«Máquina de Dios»— o las sondas que se envían a Marte, no podemos imaginar
adecuadamente las dificultades de esta gente para conseguir aparatos
apropiados, aun los más simples, como tubos de vidrio. Aunque, si se lo piensa
bien, las dificultades de quienes llevaron adelante el experimento que está en
marcha tras el bosón de Higgs para conseguir los abultados presupuestos que
necesitaban no fueron precisamente leves. Nada cambia tanto.
Finalmente, el 11 de junio de 1644, dos años después de la muerte de Galileo,
Torricelli comunicó que, efectivamente, no sólo había vacío en la parte
superior del tubo, sino que, además, éste se debía a la presión del aire
exterior.
Torricelli no volvió a referirse al asunto, ya que todavía era peligroso
enfrentarse al apolillado escolasticismo de la Iglesia (habían pasado apenas
diez años del juicio a Galileo), pero se encargó de que se enterara el padre
Mersenne, que era una especie de conmutador central de la chismografía
científica de la época. Bastaba que el padre Mersenne se enterara de algo para
que se enteraran todos: al fin y al cabo, las reuniones de científicos en su
celda fueron el embrión de la Academia Francesa.
Mersenne, como era de esperar, voló (es un decir, fue obviamente por tierra) a
Italia, donde presenció una repetición del experimento del mercurio, y al
volver a Francia habló del asunto a Pierre Petit Pascal, ingeniero y consejero
real, y padre del famoso Blaise, que reprodujo el experimento, obteniendo
idénticos resultados. Naturalmente, ni los escolásticos ni los cartesianos se
convencieron: para los primeros, el espacio vacío estaba lleno de vapores de
mercurio; para los cartesianos, de materia sutil.
Pascal diseñó un experimento vistoso para refutar a los escolásticos: hizo
llenar un tubo de agua y otro de vino (tinto), preguntando a los asistentes
cuál creían que iba a alcanzar mayor altura. La respuesta general fue que sería
el agua, ya que el vino, más volátil, dejaría emanar más vapores. Sucedió lo
contrario: el vino se elevó unos cuantos centímetros por encima del agua.
Luego de esto, Pascal realizó los famosos experimentos del monte Puy de Dome
para refutar las tesis cartesianas, que él veía como un nuevo aristotelismo (y
en cierto modo tenía razón). Midió allí la columna de mercurio a diferentes
alturas sobre el nivel del mar, y pudo comprobar que cuanto más se ascendía,
más bajaba la columna: la idea de presión atmosférica estaba en marcha (de
hecho, Pascal había inventado el barómetro).
El fantasma del vacío recorría Europa: en Magdeburgo, Alemania, Otto von
Guericke hizo la famosa experiencia pública de los hemisferios. Juntó dos
esferas metálicas huecas de 500 litros de capacidad, hizo el vacío en ellas, y
luego probó que no alcanzaba con ocho caballos de cada lado para separarlas.
Cuando se dejaba entrar el aire, por el contrario, hacía falta una fuerza
mínima.
En tanto, en la Royal Society, Boyle y Hooke diseñaron una bomba neumática que
permitía obtener vacíos más fácilmente, y gracias a la cual —cuenta Newton en
los Principia— pudo verse a la pluma y la piedra caer
simultáneamente, como sostenía la ley de Galileo.
El triunfo del vacío tiene una doble significación: por empezar, mostró cómo un
experimento en la línea inductiva podía destronar una teoría derivada de una
concepción y sistema metafísico, tanto en el caso de Aristóteles como en el de
Descartes, que había durado siglos. Por el otro, fortalecía la teoría del
espacio absoluto y previo, y la de los atomistas, que Newton también adoptó y
que permitiría el compromiso de 1687.
El vacío había triunfado.
Pero tendría, siglos más tarde, nuevos, divertidos y vistosos avatares.
Capítulo 20
La circulación de la sangre y las nuevas polémicas biológicas
El descubrimiento de la circulación de la sangre fue un hito fantástico
en la historia de la medicina y de la fisiología humana, no cabe duda. Pero
como ya dijo muchas veces el volátil autor de estas páginas, la medicina
verdaderamente científica (se podría decir newtoniana) sólo comenzó en el siglo
XIX, cuando más o menos se resolvieron los conflictos teóricos o fueron
convergiendo hacia una síntesis, cuando se mejoraron decisivamente los
microscopios y cuando la química comenzó a ponerse a tiro de las necesidades
médicas: recordemos que hasta el siglo XIX no hubo asepsia, ni vacunas, ni
antibióticos, ni anestesia, ni rayos X hasta entrado el siglo XX, ni toda la
parafernalia médica del siglo XXI, que muchos critican por ser una «medicina
despersonalizada», pero que logra alcance masivo, un control de la enfermedad y
una extensión de la vida que los personalizados médicos de estas épocas no
lograban.
Por el momento, todo eran aprontes…
§. William Harvey
Había nacido en Folkestone, Kent, un condado inglés al sudeste de Londres, el
1° de abril de 1578. Fue el mayor de los siete hijos de un pequeño
terrateniente y granjero. Estudió en la King’s School de Canterbury y en el
Caius College de Cambridge, donde obtuvo su licenciatura en Humanidades y
comenzó probablemente a estudiar medicina, pero pronto se trasladó a Padua,
donde se discutía no sólo sobre el movimiento en general (recuerden que allí
Galileo lograba, mediante sus experimentos empíricos y mentales, resolver el
problema de la caída libre, entre otros) sino sobre el movimiento de la sangre,
y donde fue discípulo de Girolamo Fabricio, que lo orientó hacia los problemas
embriológicos y fisiológicos.
Se doctoró en Medicina en 1602 y tras volver a Inglaterra se casó con Elizabeth
Browne. Fue un buen casamiento, ya que su esposa era la hija de un famoso
médico, Lancelot Browne; el consecuente acceso directo a los círculos más
prestigiosos de la profesión, sumado a sus méritos propios, naturalmente, le
permitió desarrollar una exitosa carrera: en 1609 fue nombrado médico del
hospital de San Bartolomé de Londres, después de haber sido elegido miembro del
consejo de gobierno del College of Physicians (Colegio de Médicos) en 1607, y
en 1618 llegó a ser, como lo había sido Gilbert (a quien ya mencionamos algunas
veces y que será protagonista del próximo capítulo) uno de los médicos de
Jacobo I. En 1630, Harvey recibió un nombramiento aún más prestigioso como
médico personal del hijo de Jacobo I, Carlos I, que accedió al trono en 1625.
Como recompensa por estos servicios, en 1645, a los 67 años de edad, fue
nombrado director del Merton College de Oxford. Sin embargo, en 1646, cuando la
guerra civil entre el rey y el Parlamento asolaba Inglaterra, Oxford cayó
dentro de la esfera de influencia de las fuerzas parlamentarias, por lo que
Harvey renunció a su cargo (aunque técnicamente conservó su puesto de médico
real hasta que Carlos I fue decapitado en 1649) y llevó una vida tranquila
hasta su muerte, el 3 de junio de 1657.
§. La circulación de la sangre
Parece que Harvey ya estaba en posesión de la idea de la circulación en 1616;
de hecho, en unas notas manuscritas para las lecciones de anatomía que impartía
en el Royal College of Physicians de Londres, decía:
La estructura del corazón demuestra que la sangre es transportada
continuamente a la aorta a través de los pulmones, a la manera de una bomba
para elevar agua. Mediante ligaduras, se muestra el pasaje de la sangre de las
arterias a las venas. Queda por lo tanto probado que el pulso del corazón
produce un movimiento circular perpetuo de la sangre.
Sin embargo, recién en 1628 publicó un pequeño libro de 72 páginas De
Motu Cordi set Sanguinis in Animalibus (Sobre el movimiento del
corazón y de la sangre en los animales) donde anunciaba su fabuloso
descubrimiento.
Antes de Harvey, los conocimientos que se habían ido transmitiendo (y que se
remontaban hasta Galeno y épocas aún anteriores) coincidían en que la sangre se
fabricaba en el hígado y era transportada a través de las venas por todo el
cuerpo para llevar alimento a los tejidos y se consumía totalmente en este
proceso, de tal forma que se tenía que producir sangre nueva constantemente. Se
consideraba que la función del sistema arterial era transportar el «espíritu
vital» desde los pulmones y repartirlo por todo el cuerpo.
En 1553, el médico y teólogo español Miguel Servet explicaba en su libro Christianismi
Restitutio la circulación «menor» de la sangre, en la que ésta viaja
desde el lado derecho del corazón hasta el lado izquierdo del mismo, pasando
por los pulmones y no a través de unos diminutos orificios de una pared que
dividía el corazón, como había dicho Galeno (la circulación menor había sido
sostenida o intuida también por algunos médicos árabes). Servet planteó esa
conclusión y la presentó como una digresión dentro de un tratado de teología.
Pero sus puntos de vista eran heréticos respecto del calvinismo teocrático que
campeaba en Ginebra, donde fue encarcelado y quemado en la hoguera en 1553.
También sus libros fueron quemados y sólo se salvaron tres copias de Christianismi
Restitutio.
De todos modos, Servet no ejerció ninguna influencia sobre la ciencia de su
época y Harvey no llegó a saber nada sobre su obra, aunque con toda seguridad
sí conoció la de Realdo Colombo, rival de Vesalio, que había publicado en 1559
un tratado en el que sostenía que la sangre pasaba de la parte derecha del
corazón a la izquierda a través de los pulmones. También en Padua, el médico
galenista Eustaquio Rudio, en 1600, había reeditado una obra suya de 1587,
donde describía la circulación menor, lo cual provocó una polémica de
prioridades con Colombo. Como se ve, el tema estaba en el aire —o en la sangre—
de la época.
En realidad, desde Galeno en adelante siempre se había pensado que las venas y
las arterias transportaban sustancias diferentes, es decir, dos tipos de
sangre.
La cosa es complicada, porque uno podría decir que el corazón está formado
realmente por dos corazones en uno solo; la mitad de la derecha bombea sangre
sin oxígeno hacia los pulmones, donde la sangre toma oxígeno y regresa a la
mitad izquierda del corazón, que a su vez bombea la sangre oxigenada a todo el
cuerpo. Uno de los puntos clave para Harvey fue la comprensión de la función de
las válvulas venosas, que ya se conocían pero que fueron descriptas y
estudiadas minuciosamente por su maestro en Padua, Fabricius de Acquapendente
(1537-1619), en demostraciones públicas en 1579 y posteriormente en un libro
con ilustraciones muy precisas publicado en 1603. Pero Fabricio no acertó a dar
con la función de las mismas: pensó que lo único que hacían era frenar el flujo
sanguíneo que partía del hígado para que pudiera ser absorbido por los tejidos
del cuerpo.
Harvey llegó a una conclusión diferente: las válvulas imponen un flujo de
dirección único, que hace que la sangre viaje por las venas únicamente hacia el
corazón, de donde tiene que salir como sangre arterial y viajar a través de
diminutos capilares que unen los sistemas arterial y venoso, entrando así la
sangre de nuevo en las venas. Por otra parte, combatía la creencia (que venía
desde Galeno) de la existencia de diminutos poros que separaban los dos
ventrículos del corazón:
Aun suponiendo que el tabique tuviera poros, ¿cómo es posible que uno de
los ventrículos extraiga algo del otro, dado que se contraen y se expanden
simultáneamente?
Harvey fue cauto, y por eso retrasó la publicación. Era muy consciente
de la novedad de su postura (y así lo hacía saber en la dedicatoria al rey, por
supuesto, y a sus colegas médicos):
Tras investigar nueve años o más he venido confirmando mi opinión con
muchas demostraciones oculares, la he venido ilustrando con razones y
argumentos y la he librado de objeciones de doctísimos y meritísimos
anatómicos.
Ya habían transcurrido cincuenta años desde la publicación de la Fabbrica de
Vesalio, pero en algunos círculos seguía existiendo una fuerte oposición a los
intentos de revisar las enseñanzas de Galeno y tenía que presentar el caso con
una claridad meridiana con el fin de demostrar que la circulación de la sangre
era un hecho real. Y es precisamente lo que hizo, utilizando sistemáticamente,
como lo hiciera Gilbert, el método experimental.
Pero ya sabemos que con eso no alcanzaba. Harvey se valió, obviamente, de la
deducción, que le sirvió para comprobar su hipótesis mediante una genial y
sencilla prueba aritmética. En primer lugar, midió la capacidad del corazón y
calculó la cantidad de sangre que bombeaba a las arterias por cada pulsación.
Obtuvo que en cada latido bombeaba, por término medio, 4 gramos de sangre, lo
cual significaba que en media hora, durante la cual se producen más de mil
latidos, habrían pasado por el corazón más de 8 kg de sangre. Esa cantidad es
superior a la que hay en todo el cuerpo, por lo cual es obvio que no podía ser
producida por el alimento. Ergo, la cantidad que circulaba continuamente por
las venas y las arterias tenía que ser mucho menor. Un razonamiento perfecto.
Harvey construyó su teoría utilizando una combinación de experimentos y
observaciones. Aunque no podía ver las diminutas conexiones existentes entre
las venas y las arterias, demostró que debían existir atando una cuerda (o
ligadura) alrededor de un brazo. Las arterias se encuentran a mayor profundidad
que las venas bajo la superficie del brazo, por lo que, aflojando ligeramente
la ligadura, dejaba que la sangre fluyera a través de las arterias, mientras la
cuerda seguía estando lo suficientemente apretada para evitar que la sangre
retrocediera por las venas. El resultado era que las venas se hinchaban bajo la
ligadura, o sea que seguían recibiendo sangre que sólo podía provenir de las
arterias. Harvey indicó también que la rapidez con que los venenos podían
repartirse por todo el cuerpo encajaba con la idea de que la sangre circula
continuamente. Además, llamó la atención sobre el hecho de que las arterias que
se encuentran cerca del corazón son más gruesas que las que están lejos de este
órgano, precisamente tal como debe ser para resistir la mayor presión que se
produce cerca del corazón debido a la fuerte expulsión de sangre en la acción
de bombeo.
Sin embargo, al no tener clara una teoría de la respiración, no pudo dar con la
función de la circulación, y en cierto modo se apoyó en las ideas tradicionales
que incluían fuerzas vitales y espíritus que mantenían el cuerpo vivo. Según
sus propias palabras:
Con toda probabilidad, lo que sucede en el cuerpo es que todas sus
partes son alimentadas, cuidadas y aceleradas mediante la sangre, que es
caliente, perfecta, vaporosa, llena de espíritu y, por decirlo así, nutritiva:
en dichas partes del cuerpo se refrigera, se coagula y, al quedarse estéril,
vuelve desde allí al corazón como si éste fuera la fuente o la morada del
cuerpo, con el fin de recuperar su perfección, y allí, de nuevo, se funde
mediante el calor natural, adquiriendo potencia y vehemencia, y desde allí se
difunde otra vez por todo el cuerpo, cargada de espíritus. Por lo tanto, el
corazón es el principio de la vida, el Sol del microcosmos, lo mismo que en
otra proporción el Sol merece ser llamado el corazón del mundo, por cuya virtud
y pulsación la sangre se mueve de manera perfecta, es convertida en vegetal y
queda protegida de corromperse y supurar: y este dios doméstico y familiar
cumple sus tareas para todo el cuerpo, alimentando, cuidando y haciendo crecer,
siendo el fundamento de la vida y el autor de todo.
El corazón no era una mera bomba que mantiene la sangre en circulación,
sino un sol en miniatura con ciertas virtudes espirituales. El que aprovecharía
el hallazgo de Harvey sería Descartes, quien en su Discurso del método defendería
la idea del corazón-bomba, muy de acuerdo con su filosofía mecánica y su
concepción del cuerpo como una máquina.
La obra de Harvey no se aceptó sin polémica: en 1630 el médico Jacques
Primirose, galenista acérrimo, dirigió contra él un fuerte alegato, y tres años
después llegó un nuevo ataque del médico romano Emilio Parisano:
No todas las venas tienen válvulas, y como de un hecho particular no
puede concluirse una teoría general, del hecho de que haya válvulas en ciertas
venas no se puede concluir que la sangre de todas las venas vuelve al corazón.
Se trata de una crítica sensata a la inducción apresurada. A la mención
que hacía Harvey de los «ruidos» cardíacos, Parisano replicaba con ironía:
Esos ruidos se oirán en Londres; en Italia no somos tan finos de oído.
Pero las pruebas de la teoría circulatoria no se limitaban a las
válvulas venosas; había una pléyade de ellas. El médico holandés Bevernwik fue
el primero que levantó en el continente su voz a favor de la circulación y del
«circulador» (como se llamaba a Harvey), sobre cuyo trabajo se carteó con
Descartes, que también era un ferviente harveyano. Poco a poco, la teoría se
fue imponiendo: era, fiel al estilo de la época, un contundente golpe al plexo
solar de la tradición científica de la medicina, el galenismo, que no obstante
seguiría resistiendo por un buen rato.
Aunque la teoría de Harvey no fue aceptada universalmente al principio, sin
embargo, a los pocos años de su muerte, gracias al microscopio, la única laguna
seria que había en su argumentación quedó resuelta con el descubrimiento por
Malpighi (que fue el primer italiano que resultó elegido miembro de la Royal
Society) de los diminutos capilares que conectaban directamente las arterias y
las venas.
Pude ver claramente que la sangre se divide y fluye a través de vasos
tortuosos, y que siempre es conducida a través de pequeños tubos y distribuida
por las múltiples flexiones de los vasos.
Era el eslabón perdido que faltaba para cerrar la teoría circulatoria.
Unos pocos años más tarde, el microscopista holandés Anton van Leeuwenhoek hizo
de forma independiente el mismo descubrimiento.
Ahora fíjense qué curioso: los capilares no eran observables, y Harvey se
atrevió a postularlos para cerrar su teoría; de manera opuesta, decidió que los
poros de la membrana que dividía el corazón, puesto que no eran observables, no
existían, ya que hacían incomprensible que un ventrículo pudiera extraer algo del
otro, dado que se contraen y expanden al mismo tiempo. Es decir, eran
teóricamente incómodos, y Harvey no vaciló en negarlos, lo cual demuestra que
las ideas científicas avanzan a tropezones, y por claramente que estén
delineadas en la cabeza de su o sus practicantes, siempre dejan puntos oscuros
que, como en este caso, se encargan al futuro.
Harvey decidió que tenían que existir los capilares o algo parecido (una de las
hipótesis que rondó por ahí es que la sangre arterial era vertida en diminutas
vesículas de aire, de donde la tomaban las venas, vesículas también invisibles,
de paso), y no dejó de lado su teoría porque no se los observara, del mismo
modo que Copérnico dio explicaciones bastante dudosas sobre muchos aspectos de
su sistema, que se aclararon después. La intuición, la empiria, la deducción,
los prejuicios y los ídolos: en fin, la mezcla forma la carnadura y el
andamiaje de la ciencia.
Poco después de que Malpighi viera los capilares, Richard Lower (1631-1691),
miembro del grupo de Oxford que luego se convertiría en el núcleo de la Royal
Society, demostró mediante una serie de experimentos que el color rojo de la
sangre que fluye desde los pulmones y el corazón por todo el cuerpo se debía a
algo contenido en el aire:
Que este color rojo se debe exclusivamente a la penetración de
partículas de aire en la sangre es una cuestión que está bastante clara a
partir del hecho de que, mientras la sangre se vuelve roja en su totalidad
dentro de los pulmones (porque el aire se propaga por ellos a través de todas
las partículas, y por lo tanto se mezcla completamente con la sangre), cuando
la sangre venosa se recoge en un vaso, su superficie toma un color escarlata
debido a la exposición al aire.
A partir de esta embrionaria teoría de la respiración, el grupo de
Oxford comenzó a considerar la sangre como una especie de fluido mecánico que
transportaba por todo el cuerpo partículas esenciales obtenidas de los
alimentos y del aire. La idea encajaba cada vez mejor con la imagen cartesiana
que contemplaba el cuerpo como un mecanismo, sólo conectado con el alma a
través de la glándula pineal, tan arbitraria como los torbellinos…
§. Las ideas biológicas después de Harvey: iatroquímicos, iatromecánicos
y clínicos
La aceptación de la circulación de la sangre desató toda una serie de
elucubraciones que, lentamente, llevaron a una comprensión más cabal del
funcionamiento del cuerpo. También desde el punto de vista práctico, del «arte
de curar», tuvo como consecuencia los primeros intentos de transfusiones de
sangre, que ya pueden imaginarse cómo terminaron, y poco más.
Sin embargo, la filosofía mecánica, con el envión provisto por el hallazgo de
Harvey, alimentó una polémica que dividió a la «ciencia médica». Ahora voy a
contarles algunos de los temas de discusión que se arrastraron hasta el siglo
XIX.
Un personaje interesante de esta historia es Jan Baptiste van Helmont
(1580-1644), que jugó un papel importante en la química al reconocer la
multiplicidad de los gases y al boicotear la teoría de los cuatro elementos (es
verdad que no hasta el fondo, ya que conservó el agua como elemento universal).
Aunque para él la química era un asunto lateral: su interés fundamental era
usarla para comprender el fundamento de los procesos del cuerpo humano, y es
aquí donde se lo puede considerar el fundador de una teoría médica.
Para Van Helmont, los fenómenos patológicos y fisiológicos eran de naturaleza
esencialmente química —y recordemos que la química no estaba separada aún de la
alquimia y tampoco estaba constituida como ciencia newtoniana—, y por lo tanto
todos los descubrimientos anatómicos de Vesalio y sus seguidores (y aun sus
rivales, como Colombo), como la misma circulación de la sangre —una irrupción
mecánica— eran fenómenos secundarios en su doctrina, que partía de una
convicción central: todos los fenómenos de la materia orgánica no eran sino
especies particulares de fermentación. El «fermento» portador de la energía
formativa producía a partir del elemento agua una semilla y dirigía el
desarrollo de la vida animal o vegetal. Por otra parte, fermentos específicos
presentes en los distintos órganos constituían la base de todos los procesos
del organismo, en especial seis digestiones o cocciones —no las voy a detallar—
que convertían el alimento en tejido vivo. Pero además, Van Helmont mezclaba
afirmaciones espiritualistas: si bien había inventado un sistema de
fermentaciones puramente químicas para explicar los fenómenos fisiológicos,
había superpuesto un sistema de entes inmateriales: los archaei y
los subarchaei, que eran los que verdaderamente dirigían el
organismo y organizaban la actividad de los fermentos.
Nacía la iatroquímica, que adquirió el carácter de un cuerpo de
doctrina homogénea, en manos de Franciscus Sylvius (1614-1672), quien subsumió
la obra de Van Helmont en un sistema dogmático: los procesos vitales del cuerpo
son composiciones y descomposiciones que llama fermentaciones y efervescencias,
y que producen, a través de una serie de transformaciones, sustancias ácidas o
alcalinas. Cuando estas sustancias se encuentran en la proporción adecuada el
cuerpo está sano, pero la prevalencia de una u otra provoca la penetración de
sustancias perjudiciales en la sangre y rompe el equilibrio de la salud. Así, el
conocimiento de los ácidos y los álcalis no solamente explicaba todos los
procesos vitales, sino que también indicaba el tratamiento apropiado (esto es:
exceso de ácido se compensa con remedios alcalinos y viceversa). Fíjense que
detrás de este sistema podemos adivinar la antigua doctrina del equilibrio, ya
sea de los humores o de los principios de Paracelso. Lo cierto es que Sylvius
tuvo una enorme influencia y tanto la iatroquímica como sus obras fueron leídas
y editadas hasta finales del siglo XVIII.
Los iatromecánicos, por el contrario, imaginaban al cuerpo como una
máquina, al estilo cartesiano, aunque con matices: la circulación de la sangre
mostraba que el corazón era una bomba; los dientes, tijeras; los huesos eran
palancas accionadas por poleas que eran los músculos; el pulmón era un fuelle;
las venas y el corazón conformaban un sistema hidráulico. Incluso fenómenos
aparentemente poco mecánicos como la digestión se concebían como el resultado
de movimientos en el estómago, que producía choques entre las partículas de los
alimentos y los trituraba. Las glándulas eran filtros y retortas… Gian Alfonso
Borelli (1608-1679), Giorgio Baglini (1668-1706) y Santorio (1561-1636)
representaron bien esta doctrina y estudiaron bajo su «luz» los movimientos
como saltar, caminar, la contracción de los músculos, e introdujeron —novedad
importante— la noción de medida, incorporaron el termómetro, y Santorio vivió
casi toda su vida sobre una balanza de su invención, tomando nota de las
variaciones de peso debidas al sueño, a la transpiración y a cualquier otra de
las variantes mecánicas del organismo.
Sin embargo, y a diferencia de los iatroquímicos, percibieron que la
iatromecánica era incapaz de explicarlo todo, y se abrieron un poco (aunque no
demasiado) a la química. Es natural que fueran menos dogmáticos que los
iatroquímicos, ya que su sistema provenía de la física experimental, que, como
ciencia constituida, estaba abierta a un examen filosófico más abarcativo.
Y, si quieren, se puede decir también que hubo una tercera línea, que podríamos
clasificar o describir como «clínica», y cuyo mayor representante fue Herman
Boerhaave (1668-1738), el gran sistematizador de la medicina del siglo XVIII.
Boerhaave renegaba de iatroquímicos y iatromecánicos: les reprochaba haber
caído en el antiguo vicio de establecer sistemas generales y deducir
dogmáticamente a partir de ahí; para él, la sola fuente de conocimiento era la
experiencia clínica y su recomendación era que la mejor cátedra se escuchaba
junto al lecho del paciente. En cierto modo, retomaba la medicina hipocrática,
con su empirismo fundamental, o mejor, con sus «estudios de caso». Lo que
Boerhaave quizá no veía es que él también partía de un sistema general, en este
caso de la pura experiencia clínica y de la mera inducción sobre los síntomas.
Lo cierto es que ninguno de estos sistemas, al menos por sí solo, podía
producir adelantos sustanciales en el arte de curar. Solamente cuando
convergieran y se complementaran iba a nacer la medicina científica. Y para eso
faltaba bastante.
Pero ahí estaban, y las polémicas entre iatroquímicos, iatromecánicos y
clínicos se extendieron hasta el siglo XIX. En cierto modo repetían las
polémicas griegas entre escuelas dogmáticas, empíricas e hipocráticas. Es
extraordinario comprobar que tantos desacuerdos y oposiciones, tan tarde como
en los siglos XVII y XVIII, se remontan a los orígenes de la medicina, aunque
disfrazados.
§. Vitalismo y mecanicismo
Otra de las polémicas médicas (que también se remonta a la Antigüedad) es la
que enfrentó a los animistas o vitalistas con los mecanicistas Harvey
descubrió la circulación de la sangre, pero no sabía para qué la
sangre circulaba, ni cuál era su función:
Resulta incierto si es para distribuir el alimento, o el calor.
Tenía en la cabeza una mezcla del mundo mágico y la naciente filosofía mecánica
(que Descartes elaboraba más o menos por la misma época —la filosofía mecánica
no esperó a que Descartes la formulara de forma acabada—), sobre todo porque no
tenía una teoría razonable de la respiración, y estaba atrapado en las
concepciones tradicionales según las cuales la respiración servía para enfriar
la sangre. Y participaba en la creencia renacentista (y más antigua también) de
que había «algo», distinto de la materia, o de las leyes de la física y la
química (que, digamos de paso, todavía no habían sido formuladas) que mantenía
las cosas, en este caso la circulación, en funcionamiento.
Las corrientes que asumieron esta postura anti mecánica atravesaron la
Revolución Científica: el gran sistematizador de la teoría del animismo o
vitalismo fue Ernest Stahl (1660-1734), que sería el inventor de un engendro
como el flogisto (del cual hablaremos en algunos capítulos), que rechazó por
igual la iatroquímica y la iatromecánica, y que concibió al ser vivo como una
estructura particular y distinta de cualquier otra estructura o mecanismo, y
sujeto a leyes diferentes: al fin y al cabo, argumentaba, en los mecanismos no
vivos los desplazamientos se producen desde afuera, al revés de los seres vivos
que los generan desde su interior (aquí hay un cabo suelto: sería interesante
estudiar con rigor esa definición de «afuera»). Del mismo modo, la química es
impotente para explicar la fisiología del organismo: éste contiene compuestos
estables que, no obstante, apenas se separan del organismo, se pudren y
degradan. Entonces, ¿por qué no se descompone el organismo?
Pues porque hay un «alma» que confiere estabilidad a la materia viva y dirige
los procesos que se producen en ella: el alma ha de ser el objetivo básico de
los estudios médicos: el origen de las enfermedades es el mal funcionamiento
del alma, que a veces relaja su vigilancia, y el médico debe ayudarla, mediante
remedios suaves —aquí vemos un residuo hipocrático—, a restablecer su buen
funcionamiento, y así…
Boerhaave lo llamaba «curandero metafísico». Yo creo que Stahl era un
charlatán.
El animismo stahliano fue profesado por muchos e importantes médicos de la
época, que introdujeron variantes, como reemplazar el «alma» por el «espíritu
vital» (cuyas diferencias, vistas desde ahora, nos resultarían imposibles de
reconocer). Está claro de dónde tomaba sus fuentes: si bien fue una reacción
ante el excesivo materialismo de algunos iatromecánicos, conservaba muchos
elementos que se remontan a Paracelso, a Van Helmont y más atrás: el pneuma,
el archaeus, el alma, o cualquiera de los «espíritus» que
gobernaban la organización del cuerpo y sus fermentos.
El vitalismo llegó a producir polémicas hasta bien entrado el siglo XIX,
incluso en la época de Pasteur, cuando la medicina ya estaba graduándose de
«ciencia newtoniana». Sin embargo, sufrió un golpe brutal cuando en 1828
Friedrich Wohler (1800-1882) logró sintetizar la urea, un compuesto orgánico
(en realidad ya se había logrado obtener artificialmente un compuesto orgánico
cuando en 1772 Scheele sintetizó el cianuro de potasio). Este hallazgo fue de
gran importancia, ya que hasta entonces se creía que los productos orgánicos
sólo se producían en el interior de seres vivos, y que la química «orgánica» y
la «inorgánica» estaban separadas por un abismo que, justamente, estaba marcado
por el «ánima vital».
La síntesis de Wöhler fue el comienzo del fin del vitalismo, pero las teorías
se resisten a morir: hizo falta un buen desarrollo no sólo de la química sino
también de la mineralogía y la geología para que los principios vitalistas
quedaran desterrados (o escondidos).
El vitalismo ponía, si se quiere, un límite al arte de curar: lindaba demasiado
con la religión y el mundo mágico. Si la vida procede de un proceso metafísico
o divino, es evidente que siempre habrá una limitación humana frente a
semejantes poderes. Era una ideología completamente reaccionaria que perdura
aún hoy en cierta veneración por los «sistemas médicos alternativos», que
pretenden paliar las impotencias y las serias falencias de la medicina y que lo
que logran, en realidad, es retrotraerla a la prehistoria.
También se puede pensar de otra manera: a pesar de su estatus newtoniano,
dignamente alcanzado, y de sus fantásticos éxitos, hay todavía enormes zonas que
la medicina no alcanza a cubrir, y rincones del cuerpo a los que no puede
llegar. El vitalismo, o sus residuos, se nutre de situaciones en las cuales la
medicina actual fracasa, del mismo modo que la medicina folklórica o
tradicional cubría las horribles falencias de la medicina pre newtoniana. Pero
si nos paramos en la visión moderna del progreso de la ciencia, no será de allí
de donde provengan las soluciones.
Porque lo cierto es que es la medicina newtoniana la que ayudó a que se
resolviera la mayoría de los problemas de salud del hombre. Para ello, fue
necesaria la aparición de un nuevo instrumento que modificaría para siempre el
campo de los estudios biológicos.
§. Los microscopistas
Así como el telescopio revolucionó la astronomía abriendo mundos nuevos, el
microscopio abrió los suyos, esta vez en el terreno de lo mínimo, reafirmando,
además, la utilización de aparatos que ampliaban los sentidos humanos. Aparatos
que, dicho sea de paso, fueron rechazados por muchos científicos de la vieja
escuela que adujeron que lo que se veía a simple vista era lo que Dios quería
que se viese, argumento estúpido si los hay, pero que se apoyaba en las
imperfecciones —que las había, y muchas— en los aparatos ópticos de la época.
Así las cosas, hubo médicos que se resistían a utilizar el microscopio ¡a fines
del siglo XVIII!
Hay un asunto que, por lo menos para mí, llama la atención. La posibilidad de
fabricar lentes de aumento se conocía desde hacía bastante: recordemos a Roger
Bacon, que en el siglo XIII recomendaba el uso de los anteojos. Resulta raro
que llevara más de tres siglos utilizar esa propiedad de las lentes para mirar
el mundo y ampliarlo. Pero lo cierto es que a nadie se le ocurrió hacerlo.
Naturalmente, los primeros aparatos eran muy primitivos, producían aberraciones
cromáticas, brindaban imágenes confusas, en las que las proyecciones de lo que
el científico quería ver, así como las ilusiones ópticas, jugaban un papel nada
desdeñable. Algunos eran simples lupas cuidadosamente talladas, que alcanzaban
muchos aumentos; otros, un mero tubo con una o dos lentes, y una placa para
depositar el elemento a examinar, sin ningún dispositivo mecánico para acercar
o alejar la lente: el observador sostenía el tubo y lo orientaba hacia la luz a
la manera de los telescopios. Al principio, el aumento no superaba los 10
diámetros, pero paulatinamente se fueron introduciendo mejoras.
Entre los pioneros del primer grupo de grandes microscopistas —que incluía a
Malpighi, quien, recordemos, había encontrado los capilares que cerraban la
teoría de Harvey— se destacaron Robert Hooke y Anton van Leeuwenhoek.
Hooke parece estar en todo, y en realidad no es que parezca, sino que verdaderamente estuvo
en todo. Recordemos, por ejemplo, que en gran parte gracias a él Newton
encontró el camino hacia la ley de gravedad. Pero su trabajo no se agota allí:
participó activamente de la reconstrucción de Londres después del incendio de
1666 y formuló la Ley de Elasticidad, por mencionar sólo algunas cosas. Notarán
que soy un ferviente partidario de la revalorización de Hooke, que se da en la
historia de la ciencia por estos días. Fue un espíritu universal, uno de los
más notables de su tiempo, y me parece justo rescatar su figura opacada por el
odio tenaz de Newton.
El asunto es que Hooke construyó su propio microscopio y mejoró mucho el
aparato, introduciendo cambios en cuanto a iluminación, platinas y métodos de
aproximación, y se dedicó a poner bajo las lentes todo lo que le caía en las
manos, desde las plumas de las aves hasta las puntas de los alfileres.
Analizando un pedazo de corcho, concluyó que era similar al de un panal de
abejas y, por su semejanza con las celdas de los panales, llamó «células» a los
poros, un término que se mantendría hasta la actualidad para definir cada una
de las más pequeñas unidades funcionales de la materia viva. En realidad, no se
puede decir o no tiene mucho sentido decir que Hooke «descubrió» las células en
el sentido moderno. Vio una red de agujeros en el corcho, pero el nombre quedó.
En 1665 publicó su libro Micrographia, que fue el primer tratado
sobre el tema, donde describía y dibujaba desde el ojo de una mosca hasta las
escamas de los peces… y sostienen las malas lenguas que fue justamente este
libro el que atrajo a Newton hacia el estudio de la luz, que culminaría en
su Óptica y en la consecuente polémica.
Al mismo tiempo, en Holanda, había también un extraordinario microscopista
autodidacta —en el sentido de que no había recibido formación académica, aunque
al fin y al cabo todos eran autodidactas frente al nuevo aparato— que
realizaría por sí mismo una larga y profunda exploración de lo invisible.
Anton van Leeuwenhoek había nacido en la ciudad de Delft en 1632, y no tuvo
formación científica alguna. Terminado el colegio, se internó como aprendiz en
una tienda de telas en Ámsterdam y se sintió definitivamente atraído por las
lupas que se utilizaban para analizar la calidad de los tejidos. Ese interés
habría de cambiar el curso de su vida.
Efectivamente, su pasión desde entonces fueron los microscopios y las lupas con
las que trabajaba habitualmente, y a lo largo de su vida no hubo nada capaz de
alejarlo de su notable hobbie. Además, se convirtió en un experto fabricante de
estos aparatos, y se dice que logró alcanzar hasta 500 aumentos.
Por supuesto, como todo este primer grupo de microscopistas clásicos, hizo
pasar por debajo de sus lentes todo lo que se le cruzó por el camino. Era un
observador tenaz y paciente, que compartía los descubrimientos con sus vecinos
y que, poco a poco, se fue ganando una fama bien merecida.
De hecho, en 1673 su fama llegó a Inglaterra: un renombrado médico holandés
(Regnier de Graaf, que había —digamos de paso— descubierto los folículos de
Graaf en el útero, que durante ciento cincuenta años fueron tomados por los
óvulos femeninos) le envió una carta a Henry Oldenburg, secretario de la Royal
Society de Londres, para contarle que en Holanda un tipo estaba descubriendo un
mundo increíble a través de las lentes de microscopios fabricados por él mismo.
Por ese entonces, Holanda e Inglaterra se encontraban en una enconada batalla
comercial por los tesoros de las Indias Orientales, lo cual no impidió que se
desarrollara un ámbito de colaboración científica. Leeuwenhoek le escribía a
Oldenburg en holandés, el único idioma que sabía, y el representante de la
Royal Society se encargaba de traducir esas cartas y publicarlas en las Philosophical
Transactions. Leeuwenhoek vio de todo, y entre lo que vio están los
glóbulos rojos circulando a través de los capilares de la oreja de un conejo;
unos organismos en la saliva humana que llamó animálculos —y que nosotros
llamamos protozoos—, y, en el sarro de sus dientes, una bacteria.
Pero una de sus grandes super hazañas de observación, que en cierto modo
iniciaría la historia de la microbiología, fue encontrar el fantástico
micromundo que se desarrollaba en una pequeña gotita de agua. Leeuwenhoek puso
en remojo algunos granos de pimienta durante tres semanas, luego tomó una
muestra y la enfocó con el microscopio. El resultado lo narra él mismo en una carta
de 1676:
Al observar por casualidad el agua vi en ella, con gran asombro, un
número increíble de pequeños animálculos (animalillos) de distinta índole.
Algunos de entre ellos eran tres o cuatro veces más largos que anchos. Estas
criaturas estaban dotadas delante de la cabeza de patas extraordinariamente
cortas y finas (aunque soy incapaz de distinguir una cabeza, denomino así a la
parte que siempre iba adelante cuando se movían). El segundo tipo de animálculo
formaba un óvalo perfecto. También había un tercer tipo que excedía en número a
los dos anteriores. Eran animalillos con cola como los que he señalado que
había en el agua de lluvia. El cuarto tipo de animalillos era increíblemente
pequeño; tan pequeño que si se pusiesen en fila, cien de esos animales diminutos
no llegarían a alcanzar la longitud de un grano de arena gruesa. Y de ser así,
un millón de tales criaturas vivas difícilmente alcanzarían el volumen de uno
de esos granos.
Parecía demasiado fantasioso; esta vez, la Royal Society recibió el
informe con cierto escepticismo y le encargó, por supuesto a Hooke — ¿a quién
si no?— que realizara públicamente la experiencia para verificar las
observaciones de Leeuwenhoek. Así lo hizo Hooke con su habitual genio y
diligencia, y el agua se llenó de «animálculos». Leeuwenhoek fue la primera y
única persona en la historia de la Royal Society en ser invitada a formar parte
de ella sin tener ningún tipo de formación académica.
La significación teórica de sus descubrimientos no fue comprendida hasta mucho
tiempo después, y generó en un principio trabajos mucho más literarios que
científicos, basados en la idea de nuevos mundos en donde nosotros no seríamos
más que pequeños «animálculos» invisibles, sólo perceptibles a través de lentes
inmensas.
Pero sus observaciones merecían adquirir trascendencia científica: trabajando a
tientas y en la oscuridad, Leeuwenhoek se había topado con las bacterias, había
visto los glóbulos rojos, algunos protozoos y otras cosas que más tarde se
considerarían encuadradas en nuevos reinos.
Sin embargo, su descubrimiento más espectacular fue el de los espermatozoides.
En noviembre de 1677, Leeuwenhoek envió una carta al presidente de la Royal
Society informándole de su nuevo hallazgo. La historia había sido más o menos
la siguiente: un estudiante de medicina le había contado que había puesto en el
microscopio el semen de un enfermo de gonorrea y que había observado cómo se
revolvían en él un grupo de animalillos (engendrados, según decía, por la
putrefacción).
Leeuwenhoek, en un acto heroico de sacrificio por la ciencia, obtuvo una
muestra de su propio semen (desde ya se ocupó muy bien de aclarar que no había
sido obtenido «por medios pecaminosos», signifique esto lo que signifique) y lo
colocó bajo su lente implacable.
He visto una multitud de animálculos vivientes, más de 1.000, moviéndose
en el volumen de un grano de arena,
escribió.
§. Ovistas y espermatistas
La embriología sufrió una revolución. Hasta ese entonces, predominaba la teoría
epigenética (que había sido acuñada por Aristóteles y fortalecida por Harvey y
Descartes), que sostenía que el embrión se desarrollaba a partir de material
indiferenciado y que los órganos iban apareciendo sucesivamente en el curso del
crecimiento. El semen funcionaba como una especie de «vapor fertilizante». Pero
con la irrupción del microscopio todo cambió.
Los primeros estudios microscópicos habían llevado a varios observadores a
formular la curiosa teoría ovista: el óvulo femenino contenía en
potencia todo el ser futuro pero en una reducción microscópica: dentro del
óvulo (en realidad, como les dije antes, no eran los óvulos sino los folículos
de Graaf; los óvulos fueron vistos al microscopio recién en 1828) el desarrollo
era, simplemente, un despliegue de algo ya preexistente.
Los ovistas eran preformistas. Sostenían que todas las generaciones
humanas se encontraban, en tamaños constantemente decrecientes y encajadas unas
en otras, como mamushkas rusas en los ovarios de Eva en el
mismísimo Paraíso Terrenal.
Era una hipótesis que tenía ciertas ventajas sobre la epigénesis. En primer
lugar, superaba el problema de la creación de «novedades» al suponer que, en
realidad, nada se generaba sino que se desenvolvía. La hipótesis, por si fuera
poco, ampliaba el campo de influencia de Dios y reducía el de la naturaleza: la
cópula apenas infundía un soplo vital (aura seminalis) a las gónadas
femeninas, que contenían en sí mismas generaciones y generaciones de hombres y
mujeres creados por Dios y colocados en los ovarios de la mujer original. No se
trataba de una doctrina disparatada —bueno, no completamente disparatada—:
entre sus defensores estuvieron algunos de los más prestigiosos científicos de
la época hasta el siglo XIX. Además, se desarrolló en una época constreñida por
la cronología bíblica: en esa época aún no se había descubierto la pasmosa
antigüedad de la Tierra y se pensaba que tenía apenas 6.000 años de edad, de
modo que las generaciones que tenían que estar contenidas no eran tantas.
Marcello Malpighi dedicó una parte importante de su tiempo al estudio del
embrión, especialmente, a partir del huevo de gallina fecundado. Pero Malpighi,
que como observador era excepcional, no era un buen teórico: creía que el
embrión existía en el huevo incluso antes de que la gallina lo incubara y, dado
que la observación, en especial con aquellos microscopios, dependía mucho de lo
que uno quería observar, aseguró haber visto el embrión bien formado en un
huevo no incubado. Lo único que le faltaba era crecer.
Jan Swammerdam (1637-1680), otro de los grandes microscopistas, fue un tenaz
defensor del ovismo. En sus minuciosos estudios de los insectos llegó, en algún
momento, a ocuparse de la metamorfosis. Mediante pacientes observaciones, había
logrado detectar los órganos de la crisálida enrollada en la larva de la
mariposa e incluso había logrado hacer salir de la crisálida, hundiéndola en
alcohol, la mariposa ya formada.
Su conclusión era predecible: la mariposa está encajada en la crisálida, que a
su vez está encajada en la larva. Entonces, los huevos de mariposa encierran
mariposas completamente preformadas que, a su vez, encierran otras mariposas
más chiquitas pero igualmente preformadas, y así sucesivamente.
Las teorías preformistas fueron bien vistas por la Iglesia: al fin y al cabo,
según ellas, en la sucesión de las generaciones no se producían «novedades»,
sino un simple desarrollo de seres vivos presentes ya en el Jardín del Edén.
Que la naturaleza no produjera «novedades» dejaba cualquier iniciativa en manos
de Dios. Sin embargo, las cosas no serían fáciles para la teoría ovista: el
descubrimiento de los espermatozoides por Leeuwenhoek echó por tierra la
hipótesis de que el semen aportaba al huevo algo inmaterial. Era un poco
difícil pasar por alto la importancia que esos «animálculos» debían tener en la
fecundación. Lo cual no significó un rechazo tajante del preformismo sino todo
lo contrario: si los ovarios podían contener generaciones y generaciones de
hombrecitos, ¿por qué no habrían de ser los espermatozoides los que alojaran a
la humanidad entera?
Leeuwenhoek mismo fue el precursor del animalculismo (o espermatismo),
la nueva doctrina preformista que mudaba a los homúnculos desde los ovarios
hacia los espermatozoides y a la cual adhirieron personalidades de la talla de
Leibniz o Boerhaave (quien decía que el semen masculino contenía «los
rudimentos del futuro cuerpo humano»). Incluso algunos aseguraron haber visto,
dentro del espermatozoide, la cabeza, el tronco y los miembros de la
infinitesimal personita (en cuyos espermatozoides había otras personitas más
chicas y así sucesivamente). En realidad no eran exactamente «soñadores»: como
tantas veces, se vio lo que se quería ver.
La gran polémica entre animalculistas y ovistas se extendió hasta fines del
siglo XVIII, y culminó con una derrota de ambas en beneficio de la epigénesis,
gracias a los estudios de Caspar Friedrich Wolf (1734-1794) y de Kart Ernest
von Baer (1792-1876), que armados con microscopios potentes pudieron ver que el
óvulo (y los espermatozoides) se presentaban como un continuo uniforme, que se
iba diferenciando a lo largo del crecimiento del embrión.
Von Baer, que fue el primero en «ver» los óvulos de mamíferos y el óvulo
femenino en 1828, describió la progresiva evolución del embrión a partir de ese
continuo indiferenciado, y la forma en que, en distintas etapas, iban
apareciendo los diferentes órganos. La epigénesis triunfaba y tanto el ovismo
como el animalculismo estaban muertos, a pesar de que recién a fines del siglo
XIX se demostró que la fecundación exigía la unión del óvulo y el
espermatozoide, y que no fue hasta principios del siglo XX cuando se dilucidó
el mecanismo de la ovulación.
§. La generación espontánea
¿No ves que todo tipo de cuerpos que se corrompen con el paso del tiempo
y con el calor enervante se convierten en pequeños animales? Vete también,
entierra los toros elegidos tras haberlos sacrificado: de sus entrañas
putrefactas por todas partes nacen abejas que recolectan las flores, las
cuales, a la manera de sus progenitores, cultivan los campos, se dedican al
trabajo y se esfuerzan por el futuro; un caballo guerrero cubierto de tierra es
el origen del avispón; si le quitas a un cangrejo de la costa sus pinzas huecas
y pones el resto bajo tierra, de la parte sepultada saldrá un escorpión. El
lodo tiene las semillas que hacen nacer las verdes ranas y no es un cachorro lo
que la osa ha producido en su reciente parto, sino carne apenas viva: la madre,
lamiendo, la moldea en miembros. Hay quienes creen que, cuando la espina dorsal
se ha corrompido en un sepulcro cerrado, la médula humana se convierte en
serpiente.
OVIDIO, Las Metamorfosis
Los dioses solían nacer de manera extravagante, como Minerva de la
cabeza de Júpiter, o de la espuma del mar, como Venus, o de piedras, o de
soplidos apropiadamente dados sobre barro, árboles o animales o simplemente de
la Nada (de la cual el glorioso Parménides predicaba que nada podía provenir):
los dioses nacían del deseo, nacían míticamente, lo cual, hasta cierto punto,
era natural, ya que los dioses eran mitos, a veces cálidos y a veces terribles
y a veces las dos cosas: todos ellos, en última instancia habían brotado de la
imaginación y el terror humanos.
¿Pero de dónde nacían los innumerables animales y animalitos, en especial los
insectos que poblaban la tierra y que parecían materializarse ex nihilo en
las aguas corrompidas de las últimas lluvias o en la carne abandonada al calor
y que se pudría infructuosamente?
La doctrina de la generación espontánea fue la respuesta a ese abundante
misterio que excedía, tal vez, lo que se podía pensar por entonces, y que
seguramente una observación más cuidadosa hubiera revelado como lo que
verdaderamente era: un mito, como los que se desarrollaban entre las nieblas
del Olimpo y se llevaban con ellos ciudades enteras como la anhelada Troya y
Micenas, la dorada.
Otra vez hay que remontarse al eterno y muchas veces infinito Aristóteles, que
no iba a dejar de lado una especulación sobre el nacimiento de los insectos y
otros animales minúsculos. Así, escribió que las moscas, los gusanos y otros
animales pequeños se originaban espontáneamente, sin proceso de gestación, en
el agua putrefacta: nacían sin progenitores, eran hijos de la descomposición y,
por supuesto, ellos mismos no procreaban. Si uno lo piensa, era injusto con los
pobres bichos, ya que padecían de orfandad congénita y ni entonces ni ahora hay
seguridad social para los animales.
Según las observaciones que se podían hacer en la época, la teoría tenía su
base empírica, digamos: Aristóteles veía que, de un balde de agua estancada, de
repente surgían insectos, aunque una observación más cuidadosa, y sobre todo algún
experimento, podían haber revertido el asunto. Recordemos una vez más la
diferencia entre observación y experimento: la primera es una colección de
datos recogidos tal y como se dan en la naturaleza por observaciones
reiteradas, mientras que el experimento es un fenómeno generado o aislado en el
laboratorio.
Un microscopio habría resuelto rápidamente la cuestión, pero Aristóteles no
tenía microscopios, ni siquiera una lupa. Lo que sí tenía eran ciertos
preconceptos que no le jugaban a favor: su creencia de que los animales
«inferiores» como los insectos no tenían órganos internos diferenciados era un
aliciente para creer en la imposibilidad de una reproducción similar a la del
hombre.
Y así nació la teoría de la generación espontánea: la vida saliendo de la nada
en determinados contextos. Por supuesto, la Edad Media no puso en duda los
dichos de El Filósofo, y durante la Revolución Científica la doctrina se
mantuvo: Harvey, por ejemplo, era un firme partidario de ella.
Van Helmont propuso, por su parte, algunas curiosas recetas:
Las criaturas tales como los piojos, garrapatas, pulgas y gusanos son
nuestros huéspedes y vecinos, pero nacen de nuestras entrañas y excrementos.
Porque si colocamos ropa interior llena de sudor junto con trigo en un
recipiente de boca ancha, al cabo de 21 días el olor cambia y penetra a través
de las cáscaras del trigo, cambiando el trigo en ratones. Pero lo más notable
es que estos ratones son de ambos sexos y se pueden cruzar con ratones que
hayan surgido de manera normal.
Otra más:
El agua de la fuente más pura, colocada en un recipiente impregnado por
el aroma de un fermento, se enmohece y engendra gusanos. Los olores que se
elevan desde el fondo de los pantanos producen ranas, babosas, sanguijuelas,
hierbas… Hagan un agujero en un ladrillo, introduzcan [allí] albahaca
triturada, coloquen un segundo ladrillo sobre el primero de modo de cubrir
totalmente el agujero, expongan los dos ladrillos al sol y, al cabo de algunos
días, el olor de la albahaca, actuando como fermento, transformará [a la
hierba] en verdaderos escorpiones.
El microscopio no sólo no terminó con el asunto de la generación
espontánea, sino que la doctrina tuvo una larga, larga vida, en gran parte por
la desconfianza que despertaba la introducción del nuevo aparato.
Pero con desconfianzas y errores medievales está amasada la ciencia moderna y
la cuestión es que, en algún momento, los artefactos desplegaron y pusieron a
la vista de todos (o por lo menos, de todos los que quisieran) dos mundos
nuevos: uno gigantesco, descomunal e inabarcable y el otro, diminuto e invisible,
y hasta cierto punto más raro.
El primer golpe que sacudiría peligrosamente la doctrina de la generación
espontánea y la haría perder el equilibrio lo asestó un médico y filósofo
florentino llamado Francesco Redi (1626-1697). Por medio de una serie de
sencillos experimentos, Redi demostró que de la carne en putrefacción no
surgían gusanos si se la protegía con una gasa.
En otra de sus experiencias, preparó ocho frascos que contenían varias clases
de carne y cerró herméticamente cuatro de ellos, dejando abiertos los demás. En
todos los frascos la carne se descompuso y se pudrió, pero sólo aparecieron
larvas en los frascos abiertos, donde las moscas habían podido posarse y
depositar sus huevos. En los frascos cerrados no pasó nada. Su conclusión fue
rotunda: los gusanos, las larvas de las moscas, no eran descendientes directos
de la putrefacción, sino que se originaban en los huevos de los insectos.
Su conclusión fue publicada en la Esperienze intorno alla generazione
degli insetti (Experiencia en torno de la generación de los
insectos), un libro en forma de carta que se convirtió en la primera
refutación empírica de la doctrina.
De aquí comencé a dudar si todos los gusanos de la carne sólo derivaran
de las simientes de las moscas y no de las mismas carnes podridas, y más me
confirmaba en mi duda cuando en todas las generaciones de moscas por mí
criadas, siempre vi posarse sobre las carnes, antes de que se agusanaran,
moscas de la misma especie que aquellas que después nacieron. La carne, las
plantas y otras cosas susceptibles de descomposición no desempeñan ningún otro
papel ni cumplen otra función en la generación de los insectos que preparar un
lugar apropiado o nido en el cual, en el momento de la procreación, el gusano,
los huevos u otra semilla del gusano son depositados e incubados por los
animales, y en este nido, los gusanos, cuando nacen, encuentran comida
suficiente para alimentarse en abundancia.
Sin embargo, Redi no fue lo suficientemente drástico en sus creencias
como para acabar del todo con la historia ésta, que venía secundada por un
séquito de varios siglos y de múltiples pensadores: aunque se atrevió a negar
la generación espontánea en la carne podrida, admitía que los insectos que se
formaban en los robles eran un producto directo de la fuerza vital del árbol
(el error provenía, probablemente, de un resto de vitalismo y de la falta de
microscopio para optimizar sus observaciones: Marcello Malpighi sería el
encargado de mostrarle su falencia interpretativa).
La historia continuó en Holanda y su protagonista local fue Swammerdam, aquel
partidario del ovismo, cuyo interés por las ciencias naturales se le había
despertado gracias a su colección de curiosidades anatómicas de su padre
farmacéutico.
Meticuloso naturalista y médico, Swammerdam se dedicó pacientemente al estudio
de la anatomía de los insectos aprovechando las facilidades (y obviando las
dificultades) de los nuevos microscopios caseros. En 1669 compiló los
resultados de sus trabajos en una Historia Insectorum Generalis (Historia
general de los insectos), en la que ofreció dibujos y descripciones sin
comparación para la época, obtenidos gracias a su ingenio en la fabricación de
herramientas para tratar objetos diminutos y a su inigualable paciencia.
Swammerdam se obsesionó con los insectos y llevó adelante sus investigaciones
con una tenacidad y un apasionamiento propios del más intenso de los amores;
sus escritos, de hecho, se parecen bastante más a una colección epistolar de
dos amantes que a un sistemático informe de los resultados de sus experiencias
científicas.
Los más finos detalles de los cuadros de Apeles son groseras vigas
comparados con la finura con que la naturaleza creó los órganos de los
insectos. Los encajes más finos debidos a la mano del hombre no soportan la
comparación con la tráquea de un insecto. ¿Dónde encontrar un arte que pueda
emular en finura a estos órganos? ¿Dónde un espíritu que pueda describirlos?
¿Dónde la perseverancia capaz de penetrar en sus partes más minúsculas?
se preguntaba Swammerdam en su estudio de un tipo de escarabajo. Y
agregaba:
Como los órganos de los insectos no son menos complejos en estructura y
no sirven en menor acierto a sus finalidades que los del hombre, es imposible
admitir que los insectos sean engendrados por la descomposición de la materia
inerte.
Un golpe duro para la doctrina: el pequeño cuerpo de los insectos
revelaba una cadena de órganos tan intrincada como la de los hombres, y era
difícil pensar que estructuras tan complicadas surgieran de la nada. Para colmo
de males, no sólo no eran productos de la descomposición sino que eran agentes
de la misma.
Sin embargo, todavía quedaba algo por explicar: ¿qué decir de los invisibles
microorganismos que había visto Van Leeuwenhoek? Un caldo en apariencia
estéril, después de un tiempo, hervía de ellos: ¿no significaba, esta vez sí,
que habían aparecido por generación espontánea?
La incógnita se resolvió casi un siglo después, gracias al naturalista Lazzaro
Spallanzani (1719-1799), que había dado clases en distintas universidades
italianas y había visitado Nápoles mientras el Vesubio estaba en erupción (de
lo cual no se puede concluir que visitar el Vesubio en erupción sea garantía de
un descubrimiento científico).
Spallanzani hirvió diversas soluciones durante períodos que oscilaban entre los
tres cuartos de hora y la hora y media, para que fueran realmente estériles,
las cerró herméticamente en frascos y comprobó que en esos frascos no aparecían
microorganismos por más tiempo que esperara.
Era en verdad un problema práctico: en las pruebas anteriores la hermeticidad
no había sido suficiente y, por lo tanto, los frascos no eran suficientemente
estériles como para que los microorganismos no se desarrollaran.
Lejos estuvo Spallanzani de imaginar que este experimento teórico tendría
alguna vez una importancia práctica en el terreno de la conservación de
alimentos y mucho menos que tendría una inmediata aplicación militar y
remataría en los alimentos enlatados.
Los partidarios de la generación espontánea adujeron que el prolongado
calentamiento había ejercido su acción de dos maneras: alterando las «moléculas
orgánicas», y disminuyendo por lo tanto su fuerza vegetativa, y tornando
inutilizable el aire contenido en el frasco para las funciones vitales. La
cuestión seguía en pie.
Homero refuta la generación espontánea
Si leemos a Homero, veremos que en unpasaje, y varios siglos antes que
Aristóteles, se acercó increíblemente a loque los renacentistas pensarían
después. En la Ilíada, el poema épico querelata «la cólera del pélida Aquiles»
en la Guerra de Troya, hay unareferencia a la idea de que la putrefacción
origina vida: en el canto XIX,cuando Aquiles se entera de la muerte de su amigo
y escudero Patroclo,golpeado por la tristeza, le dice a su madre, la diosa
Tetis:
Mucho metemo que en tanto me voy a combatir, vengando a Patroclo, y le
preparohonrosos funerales, las moscas penetren por las heridas de su
cuerpo,engendren gusanos y lo corrompan.
Es decir: para Aquiles, y por lo tanto para Homero, los gusanos no se generan
de la propia putrefacción del cadáver, como propondría más tarde la doctrina de
la generación espontánea, sino que son engendrados por otros bichos que,
atraídos por la carne en descomposición, penetran en ella y dejan sus huevos.
§. El fin de la generación espontánea
Los siglos de lucha de la generación espontánea no se acabarían
silenciosamente, sino que tendrían como epílogo una gigantesca controversia
científica (digna de la escandalosa historia milenaria que llevaba a cuestas)
que enfrentó al descubridor de la infección microbiana, el gran químico francés
Louis Pasteur (1822-1895) —y fíjense que ya estamos en el siglo XIX—, y al
último de los grandes partidarios de la doctrina aristotélica: el naturalista
francés Félix Archimède Pouchet (1800-1872).
Los estudios de Pasteur sobre la fermentación lo habían llevado a determinar
que los orígenes de la putrefacción se debían a la acción de determinados
gérmenes, diminutos organismos que atacaban las proteínas de los alimentos. Era
imposible ignorar, a esta altura del partido, el tema del origen de esos
gérmenes. ¿De dónde salían? ¿Era posible que, siendo ellos mismos agentes de la
putrefacción, fueran producto de ella? ¿Eran, efectivamente, producto de una
generación espontánea? Había un vasto grupo, liderado por Pouchet, que
aseguraba que sí, mientras que Pasteur sostenía incansablemente que la cuestión
era un poco más compleja.
La generación espontánea no produce seres adultos, procede de la misma
manera que la generación sexual que, como todos sabemos, es inicialmente un
acto completamente espontáneo mediante el cual se unen en un órgano especial
los elementos primitivos de un organismo,
argüía don Pouchet. Fue entonces que intervino la Académie des sciences
de París, que, para poner paños fríos al asunto y terminar de una vez por todas
con la aparentemente irresoluble polémica, ofreció una recompensa de 2.500
francos a quien pudiera
arrojar luz sobre la cuestión de la generación espontánea.
Pasteur aceptó el desafío y logró doblegar a todos sus adversarios en la
última famosa contienda que generó la ya por entonces vetusta teoría. En un
verdadero duelo público de experimentos y contra-experimentos, Pasteur se
propuso demostrar que el aire era el vehículo que transportaba a los
microorganismos vivos.
Filtró el aire inspirándolo a través de un tubo en el cual había intercalado un
pedazo de algodón cuyas fibras detenían las partículas sólidas. Al disolver el
algodón en una mezcla de alcohol y éter, las partículas retenidas se
depositaban en el fondo y luego, cuando se las introducía en infusiones
orgánicas previamente calentadas, los microbios comenzaban a multiplicarse.
En otro de los experimentos, Pasteur colocó un caldo esterilizado en una serie
de tubos con diferentes formas, diseñados especialmente para permitir el
movimiento del aire pero impedir la circulación del polvo que acarreaba consigo
los indeseados gérmenes. El líquido, como era de esperarse (o como nosotros
ahora sabemos que ellos deberían haber esperado), permaneció cristalino por
meses.
Socarronamente, Pasteur solía decir:
Prefiero creer que la vida proviene de la vida antes de que viene del
polvo.
También pudo mostrar, mediante experiencias igualmente ingeniosas y
sencillas, que las sustancias fermentables expuestas al aire permanecen
estériles siempre y cuando se limpie de gérmenes el aire en suspensión.
Pouchet había sido derrotado definitivamente, pero la antigua (y ya por
entonces destronada) teoría aún conservaba un postrer aliento. Faltaba la
última batalla, que se libraría en 1876 y que marcaría su fin definitivo…
Ese año, H. Charlton Bastian, un patólogo inglés, publicó un grueso volumen en
el que se aportaban nuevas observaciones a favor de la generación espontánea.
En uno de sus experimentos, había calentado orina ácida por encima de la
temperatura de ebullición (en torno a los 110°). Esta orina, cuando se la
resguardaba del aire, permanecía clara y, al parecer, estéril. Sin embargo,
cuando se introducía una solución de potasa, procurando que la orina siguiera
resguardada del aire, al cabo de diez horas «hervía» de bacterias vivas.
Pasteur no se amilanó —la verdad, no era momento de tirar tanto esfuerzo por la
borda— y logró solucionar el nuevo enigma demostrando la existencia de
bacterias resistentes a temperaturas incluso superiores a los 100 grados.
Y así fue cómo Pasteur acabó de una vez por todas y para siempre con la
historia ésa, e inició un nuevo camino que habría de sentar las bases para la
esterilización y la antisepsia, claves de la medicina moderna.
Pero si hay algo que verdaderamente impresiona es que la doctrina echada a
rodar por Aristóteles en el siglo IV a.C. sobreviviera hasta 1876: hay ideas
científicas que son persistentes y se resisten a morir. Un poco como tantas
ciudades modernas que conservan sus cascos históricos, o las ruinas de los
asentamientos antiguos que los precedieron.
Capítulo 21
Todos los fuegos el fuego: la revolución química
Primero vino el fuego, el árbol que ardía, la floresta incendiada que
aquellos hombres monos mirarían pasmados. Luego la quemadura y el grito: apenas
el fuego y la piel se separaron vino el relato, la palabra dicha a viva voz o
susurrada en la larga noche prehistórica.
La práctica química tiene una larga tradición en la historia humana. En
cuevas prehistóricas se han encontrado pinturas que necesitaban del uso de
tinturas elaboradas; la metalurgia determinó el destino de pueblos y
civilizaciones; la alfarería implicaba la transformación de los materiales; la
farmacopea, desde siempre, la requirió como aliada.
Pero la química propiamente dicha es una ciencia muy joven. Hasta la Revolución
Científica, en general, permaneció como saber eminentemente práctico, o como
saber alquímico, es decir, como un saber adornado por fórmulas espirituales e
invocaciones místicas: así floreció en el Islam, atravesó mayoritariamente la
Edad Media y llegó a las puertas del siglo XVIII.
Ojo: el saber alquímico no se redujo a la mera invocación de fórmulas
sacramentales para convertir los metales en oro, o encontrar el elixir de larga
vida; si ésa fue en muchos casos la línea principal, también estimulaba todo
tipo de prácticas laterales que fueron formando un corpus que, apenas se
desataron las ataduras mágicas y místicas con el triunfo de la ciencia
experimental, se armó como una nueva disciplina, que, como todas, aspiró al
rigor newtoniano.
Así como la revolución en la física nació de la resolución del problema del
movimiento y la ley de gravitación universal, que resolvió el problema
astronómico, la constitución newtoniana de la química también giró alrededor de
un problema definido.
Es lo que les voy a contar en este capítulo: de qué manera la química
evolucionó hasta transformarse en una ciencia newtoniana, cuando Lavoisier
resolvió el problema de la combustión.
Y es que sí, como les dije, todo empezó con el fuego.
§. Historia del fuego
Tomé en hueca caña la furtiva chispa, madre del fuego; lució, maestra de
toda industria, comodidad grande para los hombres; y de esta suerte pago la
pena de mis delitos, puesto al raso y en prisiones.
ESQUILO, Prometeo encadenado
Hace cuatrocientos mil años se encendieron las hogueras del hombre de
Pekín y desde entonces el fuego fue tan esencial para el hombre que es difícil
imaginarse la civilización sin él; uno puede pensar en culturas sin rueda, sin
escritura, sin arado, pero no sin fuego.
También es difícil imaginar lo que significó: nuestros antepasados
prehistóricos habitaban una tierra hostil, plagada de peligros y calamidades
naturales. El fuego era una de ellas: cuando un rayo o la sequía incendiaban la
sabana no podían hacer otra cosa que huir y temblar. Pero resulta que un día
aprendieron a llevarlo a sus cavernas y conservarlo arrimando cuidadosamente
ramas secas, y de repente ese azote terrorífico se convirtió en un aliado y
todo fue distinto. Permitía cocinar los alimentos, defenderse de las fieras y
sentarse a su alrededor; la tribu caliente y protegida por la luz podía por
primera vez compartir sus historias en un lenguaje que ni siquiera existía aún.
Que el fuego se apagara — ¡los desdibujados dioses del principio no lo
permitieran!— podía significar el fin y la muerte de todos. Y otro día, alguien
—nunca sabremos su nombre, si es que lo tenía, si es que existían los nombres—
descubrió que golpeando dos piedras saltaba una chispa con la cual se podía
encender un conjunto de hojas secas. En ese preciso momento, justo en ese
instante, cambió el curso de la especie. Se terminó el temor de que el fuego se
apagara; ahora el fuego era nuestro, era una herramienta, la herramienta más
poderosa, la tecnología más potente que jamás se inventó. Ni los grandes
cohetes que van a la Luna, ni los satélites artificiales, ni los sofisticados
robots que arman los circuitos integrados para las computadoras pueden
compararse al invento que surgió del golpe inteligente de dos piedras de sílex.
El fuego multiplicó los poderes y las habilidades: cerca de él el barro se
endurecía, tornándose duro e impermeable; nacía la cerámica, las vasijas,
capaces de almacenar y transportar el agua, el ánfora griega, los jarrones
chinos, el arybalo incaico y el plato que tenemos en nuestra mesa. El fuego
vence al metal: lo derrite y lo vuelve maleable; permite trabajar y dar la
forma que uno quiera al cobre, el plomo, la plata y el oro. Y más tarde
vendrían las aleaciones como el bronce y, luego, el hierro con su cohorte de
instrumentos: el taller, el fuelle, el yunque y el martillo, de donde
descienden directamente los altos hornos y el acero, que hoy esparcen sus
productos por los cuatro rincones de la Tierra.
¿Cómo no creer que era un dios e identificarlo con el Sol, proveedor también de
luz, calor y vida? Cuando aquellas tribus, hordas, grupos o lo que fueran, se
transformaron en civilizaciones que construyeron ciudades, el fuego conservó
ese valor ritual de haber marcado un comienzo que todos habían ya olvidado y
fue recubierto por leyendas. Prometeo, el fuego olímpico, las fogatas de San
Juan, el terror ante el incendio, el silencio ante el fogón del campamento.
Cuentan los tehuelches que Kóoch, «el que siempre existió», vivía entre
neblinas oscuras en el punto en que el mar y el cielo se reúnen. Cansado de
estar solo, un día comenzó a llorar sin parar, durante tanto tiempo que formó
el mar llamado Arrok. Kóoch, sorprendido, detuvo sus lágrimas y suspiró,
produciendo el viento por primera vez. Kóoch quiso ver su obra y, alzando la
mano, creó una enorme chispa, el Sol, que iluminó todo a su alrededor. Luego
llegaron las nubes y Kóoch quedó satisfecho.
Tiempo después Elal, un héroe dios, creó a los Chónek, los hombres, en El
Chaltén y se transformó en su guía y protector. Elal comprendió que sus
criaturas se sentían solas y desprotegidas y les dio el mejor regalo que se
puede tener: les enseñó que golpeando dos piedras se pueden hacer chispas,
madres del fuego. Nunca más los tehuelches temieron a la oscuridad ni a las
heladas porque eran dueños del secreto del fuego.
§. Átomos de fuego
El aire, que envuelve y canta.
La tierra que germina.
El agua que fluye y lava
el pecado y la ropa.
El fuego en la muralla y en la hoguera:
cuatro elementos bastaban
para un mundo en ciernes.
Sin embargo, fue muy difícil averiguar qué es el fuego. De pronto parece
una cosa viva: se mueve, se propaga, nace y se extingue. A veces, es maléfico,
quema la piel y se lleva la vida; a veces es benefactor, sirve en la paz y en
la guerra es un arma temible. Cambia de color: si acercamos un poco de sal al
fuego de la cocina, la llama se vuelve amarilla. El carbón es difícil de
encender, una hoja de papel se quema con mucha rapidez, la pólvora se enciende
con un fogonazo. Para que vuele una gran roca, es necesaria la dinamita. Para
que un automóvil o un avión puedan moverse hacen falta una serie de pequeñas
explosiones de gasolina.
¿Hay algo en común entre esos fuegos? ¿Por qué algunas cosas se encienden y
otras no? ¿Por qué se contagia? ¿Qué ocurre cuando algo se quema? ¿El fuego es
algo que sale de adentro de la materia que arde?
El fuego transforma las cosas: endurece la arcilla, funde los metales,
convierte la madera en cenizas y un pastizal en humo, quema la piel y consume
casi por completo un trozo de carbón. ¿Cómo puede ser? No es nada fácil
responder. Pero era fatal que una vez que se hubo aprendido a dominarlo, se
avanzara paso a paso hasta saber qué era.
No es sorprendente que cuando los filósofos griegos decidieron comprender qué
es el mundo sin recurrir a los dioses, eligieran al fuego como uno de sus
componentes fundamentales. Recordarán que nuestros viejos amigos Empédocles y
Aristóteles (universal y omnipresente como siempre en todas las cosas que
tienen que ver con esta humana costumbre de hacer ciencia) inventaron la teoría
de los cuatro elementos, cuatro sustancias, que formaban todas las demás, y el
fuego fue una de ellas: las otras tres eran el aire, el agua y la tierra.
En cualquier filosofía que partiera de la existencia de los cuatro elementos,
el fuego era una sustancia, un ente material. Sin embargo, era un ente material
en cierto modo diferente de los otros: la tierra y el agua se pueden palpar; el
aire puede respirarse y encerrarse en una vasija, pero el fuego, en cierta
forma, es inasible; por alguna razón misteriosa, no se puede tener «fuego
solo», si bien los pitagóricos, por su parte, pensaban que la Tierra, el Sol,
la Luna y todos los planetas giraban alrededor de un gran fuego central que
ocupaba el centro del universo.
La teoría de los cuatro elementos se combinó con las de quienes opinaban que
todo estaba formado por partículas indivisibles, los átomos, y así se
estableció que había cuatro tipos de átomos y entre ellos, naturalmente, átomos
de fuego. Al quemarse, la materia cedía los átomos de fuego encerrados en ella
y formaba la llama. Y si no estaba formada por ese tipo de átomos, la materia
no ardía.
Ya no era un dios, sino un ente material como los demás, una de las sustancias
básicas del mundo, que además tenía la rara propiedad de descomponer la materia
en sus elementos más simples y básicos, como cuando arde la madera y se separan
el humo y las cenizas. Toda una idea.
La alquimia medieval no modificó las cosas: heredó la teoría antigua sobre el
fuego y los alquimistas estrujaron la materia para obtener átomos de fuego,
combinarlos con átomos de tierra y producir oro: era la piedra filosofal, que
buscaron con ahínco, encerrados en la bruma de sus laboratorios. Pero ellos
mezclaban la experimentación con la especulación filosófica y religiosa, los
rituales mágicos, las creencias astrológicas que asociaban los planetas con los
metales y las doctrinas esotéricas reveladas por Hermes Trismegisto, que muchos
años más tarde guiaría en Macondo la afanosa búsqueda de José Arcadio Buendía.
O se aferraban a creencias espiritualistas, según las cuales la materia estaba
de alguna manera viva y respondería al contacto de la piedra filosofal dando el
oro, lo mejor de sí.
No consiguieron nada, claro está, y nada concreto quedó de aquellas
aspiraciones de la alquimia. Pero a partir del Renacimiento, los alquimistas
que buscaban la piedra filosofal y el elixir de larga vida se transformaron
lentamente en químicos constructores de moléculas, cazadores de sustancias y
fundadores de poderosas industrias.
Ya hablamos de uno de estos personajes intermedios, medio científicos, medio
magos: Paracelso, del que les conté que hay quienes dicen que era solamente
extravagante pero genial, que muchos lo consideran, algo exageradamente, como
uno de los iniciadores de la medicina y la química modernas, pero que para mí
simplemente no estaba en sus cabales. Paracelso, que aún tenía un pie, o uno y
medio, o los dos en el pensamiento pre científico, tenía serias dudas sobre los
cuatro elementos, los dejó «por el momento» de lado (no se animó a abandonarlos
completamente, ya que la autoridad de Aristóteles era demasiado grande) y los
reemplazó por tres «principios» tomados de la alquimia árabe: azufre, mercurio
y sal, que según él entraban en la formación de todas las sustancias y eran
portadores de sus propiedades. Desde ya, también tuvo su teoría del fuego y la
combustión: lo que arde es el azufre, lo que se volatiliza y escapa en el humo
es el mercurio y lo que queda como residuo es la sal. La nueva idea marcaría una
época.
Otro personaje que intervino en el asunto fue Van Helmont, de quien ya hablamos
en el capítulo anterior, que tampoco creía mucho en los cuatro elementos.
Bueno, en realidad, creía en uno solo de ellos: el agua y, en consecuencia,
negó materialidad al fuego, aunque desde ya apoyaba la antigua convicción de
que el fuego separaba la materia compuesta en elementos simples. Este caballero
tuvo sus cosas: inventó la palabra «gas», tomándola, según algunos, del
griego chaos, y según otros, por su semejanza fonética con la
palabra alemana geist (espíritu). Además, aunque no fue el
primero en reconocer la multiplicidad de las sustancias gaseosas, sí fue el
primero en describir diferentes gases (empezando por el dióxido de carbono) de
forma clara (aunque, curiosamente, creía que era imposible encerrarlos en
recipientes):
Los gases son tan diferentes entre sí como los cuerpos de los que
provienen.
Y creyó que existía un disolvente universal, llamado alcahesto,
capaz de conseguir que cualquier sustancia volviera al agua original. En cuanto
a la llama, aseguraba que no era otra cosa que un gas incandescente, un vapor
encendido, un gas al rojo vivo, de la misma manera que el hierro se pone al
rojo vivo si se calienta mucho y que el fuego era un agente, un mero accidente
de la materia. Aquí había una idea interesante, algo nuevo.
Pero ya estaba en funciones la Revolución Científica. Y eso era más nuevo
todavía.
§. El fuego resiste a la Revolución Científica
La Revolución Científica dio vuelta todo: el universo múltiple de los magos, el
universo irreparable de los metafísicos, el universo teologal de los medievales
y el universo cerrado de Aristóteles saltaron en pedazos y la inmensa y
multiforme maquinaria de los antiguos y los medievales fue reducida a ruinas no
siempre gloriosas. El mundo se transformó en un gigantesco mecanismo gobernado
por leyes simples y sometido al método experimental.
Pero además, la Revolución Científica fue también una revolución conceptual, un
cambio de actitud que partía de una sencilla convicción: ese mecanismo se podía
comprender. No era cuestión de sentarse y esperar a que se manifestara o
revelara, sino que había que ir hacia él, experimentar con él, mirar con
precisión lo que ocurría, reproducirlo en el laboratorio.
La materia y el misterio de la combustión, sin embargo, resistían. En medio de
la avalancha de transformaciones y descubrimientos, en pleno siglo XVII, Robert
Boyle (1627-1691), a quien muchos consideran el padre de la química moderna,
revisó cuidadosamente todos los conceptos químicos, entonces bastante nebulosos
(su libro The Skeptical Chemist se considera, con justicia,
fundacional) y rechazó aquellas ideas que fueran confusas, al mejor estilo
cartesiano.
Los químicos, hasta ahora, se han dejado guiar por principios estrechos
sin alcance superior alguno. Yo trato de partir de un punto de vista
completamente distinto, pues considero la química no como lo haría un médico, o
un alquimista, sino como debe hacerlo un filósofo.
Se debían eliminar todos los términos y conceptos que no estuvieran
claramente definidos, y no debía aceptarse ninguna teoría que no estuviera
avalada por pruebas experimentales, «únicas de las que se puede esperar el
progreso de una verdadera ciencia».
Desde ya, descreyó de los cuatro elementos, arguyendo que no había ninguna
prueba de que lo fueran y de los tres principios de Paracelso:
Me gustaría saber cómo se llegaría a descomponer el oro en azufre, en
mercurio y sal. Yo me haría cargo del costo de la operación.
Aunque Boyle era un hombre rico, nadie aceptó el desafío. Y ya que de
dudar se trataba, dudó también de la milenaria convicción de que el fuego
descomponía la materia en sustancias simples:
Creer que el fuego reduce los cuerpos a sus ingredientes elementales es
desconocer el hecho experimental de que la combustión da origen a productos
nuevos, que en su mayoría son de naturaleza compuesta.
Boyle tenía una nueva e interesante herramienta para investigar la
naturaleza del fuego: la bomba de vacío, de reciente invención, y con ella
comprobó que en el vacío las cosas (aun un cuerpo tan inflamable como el
azufre) no ardían, y por lo tanto subrayó la importancia del aire para la
combustión.
En realidad, la importancia del aire era un hecho conocido ya por los
alquimistas y que en cierto modo intuye cualquiera que sopla para avivar la
brasa de un fogón, el herrero armonioso que se apura con el fuelle porque está
pasando el señor Georg Friedrich Haendel o el espectador impotente que ve cómo
el viento extiende el incendio incontrolable de un bosque. Pero la bomba de
vacío corroboró de manera irrefutable que, sin aire, no había fuego.
Era una pista importante, aunque Boyle no la siguió hasta el final. Fue
demasiado cauto en relación con el fuego, y aunque descreyó de que fuera un
elemento, e incluso de su carácter material, también habló de «partículas de
fuego».
Las investigaciones de Boyle y de su continuador, el gran Robert Hooke,
insinuaban una línea que se aproximaba al secreto del fuego y a la construcción
de una química de tipo newtoniano, acorde con los tiempos que corrían, pero no
prosperó, porque de repente apareció una explicación, una teoría general que
parecía resolver el problema de la combustión de una vez por todas.
§. La doctrina del flogisto
Cuando el buen señor Johann Joachim Becher (1635-1682) publicó en 1669 su Physica
subterranea, no sospechó que estaba preparando el terreno para una teoría
de alcance universal. No creía en los cuatro elementos aristotélicos, que
estaban de capa caída, pero sí en dos de ellos: el agua y la «tierra», o mejor
dicho tres tipos de tierra; una de ellas, la «tierra combustible», se liberaba
en la combustión en forma de gas a través del fuego y dejaba atrás las cenizas
(o una cal en el caso de los metales). Respecto del fuego, Becher seguía la
línea de Van Helmont: el fuego era el agente universal de las transformaciones,
que descomponía materiales complejos en compuestos simples que lógicamente
(como las cenizas) resultarían incombustibles, ya que no les quedaba tierra
combustible que quemar.
No hacía falta ser un genio para darse cuenta de que las tres tierras de Becher
eran apenas una especie de disfraz casi explícito de los tres principios de
Paracelso. Pero resultó que uno de los discípulos de Becher, Georg Ernest
Stahl, aquel vitalista acérrimo del que hablamos en el capítulo 18, tomó las
ideas de su maestro y las transformó en una teoría general de la combustión y
en el espinazo de la química de aquel entonces. A la tierra que Becher había
llamado «combustible», la llamó «flogisto» (del griego, que significa «quemado»
o «llama») y le asignó el supremo y noble propósito de ser el eje, la clave, el
agente y el sostén de la combustión. Y mucho más.
El flogisto era un «principio», una sustancia a medio camino entre la
materialidad y la metafísica, pero que aseguraba el funcionamiento químico del
mundo. La combustión, según Stahl, era simple: quemarse era simplemente dejar
escapar el flogisto oculto en el cuerpo que se quemaba y que como un humo
invisible se mezclaba con el aire. Todos los cuerpos capaces de arder contienen
flogisto y lo entregan al quemarse. En el momento de la combustión, el flogisto
rompe su unión con los cuerpos y se escapa; la pérdida de flogisto explica el
cambio de propiedades de los cuerpos quemados: la madera, al perder su
flogisto, produce carbón. Indudablemente, era una idea simple y atractiva.
La verdad es que este flogisto del amigo Stahl era medio raro: ni líquido, ni
sólido ni gaseoso, era invisible, estaba oculto y en principio no podía ser
aislado porque siempre estaba combinado; en cierta forma se parecía al
alcahesto, aquel disolvente universal que había imaginado Van Helmont, capaz de
lograr que cualquiera de las sustancias volviera al agua original y que,
obviamente, no podía ser retenido en ningún recipiente. El flogisto tenía un
olorcito metafísico que no pegaba del todo con su carácter material.
Pero, raro o no, el flogisto explicaba casi todos los hechos conocidos entonces
sobre la combustión. Quemarse era perder flogisto. La combustión obviamente
terminaba al agotarse el flogisto del combustible. La importancia del aire en
el asunto se debía a que el aire ponía en movimiento las partículas de flogisto
y, dado que ese movimiento es bastante rápido, el flogisto se desprendía. En
una campana cerrada de vidrio, la llama se apagaba después de un tiempo, porque
un volumen determinado de aire podía absorber una cierta cantidad de flogisto y
no más y cuando el aire se saturaba de flogisto (se flogistizaba), la
combustión cesaba. Y respecto del vacío, obviamente nada podía arder, ya que…
¿a quién podría entregarle su flogisto?
Además, Stahl dixit, había un ciclo del flogisto en la naturaleza:
era atraído por el aire atmosférico y luego era reabsorbido por las plantas,
como lo probaban las propiedades combustibles de la madera. Al quemarse ésta,
devuelve su flogisto, que pasa nuevamente al aire. El ciclo del flogisto era el
lazo principal entre los tres reinos naturales.
A mediados del siglo XVIII, la doctrina del flogisto, que no implicaba grandes
rupturas ni con la física aristotélica ni con las teorías en boga de la
materia, era ampliamente aceptada y el misterio de la combustión parecía
resuelto. El mismísimo Kant la alabó en su Crítica de la Razón Pura como
«una de las grandes conquistas del espíritu humano». No era una teoría aislada,
una explicación particular de un fenómeno particular: era un sistema completo
alrededor del cual se organizó la química, flogistizada de arriba abajo.
Una consecuencia inesperada —en realidad un «daño colateral»— fue la
resurrección de la ya obsoleta teoría de los cuatro elementos de Aristóteles.
La química del flogisto, tal como la inició Stahl, era atomística, pero los
átomos eran incognoscibles y sólo se manifestaban en las propiedades que
conferían a las mezclas, mientras que el nivel esencial de las interpretaciones
químicas seguía dado por los cuatro elementos aristotélicos.
Se reconocerá sin duda con asombro que actualmente admitimos como
principios de todos los compuestos los cuatro elementos: el fuego, el agua, el
aire y la tierra, que Aristóteles había designado como tales mucho antes de que
se tuvieran los conocimientos químicos necesarios para comprobar la verdad de
esta afirmación. En efecto, sea cual fuere la forma en que descompongamos los
cuerpos, siempre obtenemos estas sustancias; constituyen el colofón del
análisis químico,
se aseguraba bajo la entrada «Principios», en el diccionario de química
de Pierre Joseph Maquer publicado ¡en 1766!
Las cosas, sin embargo, seguían su curso y la química, aunque flogistizada, dio
sus grandes investigadores: Black, Scheele, Cavendish. Y Priestley.
Henry Cavendish (1731-1810), que fue uno de los grandes químicos del siglo
XVIII, era un tipo extravagante: aristócrata, padecía una misantropía tan
severa que sus sirvientes apenas lo veían para servirle la comida. Un compañero
de la Royal Society de Londres (el único lugar en el que se codeaba con otra
gente desde la precoz edad de 21 años) decía que le había escuchado decir menos
palabras en su vida que a cualquier otra persona, «sin excluir a los monjes de
La Trapa», que son monjes que hacen voto de silencio.
Cavendish aisló cantidades enormes de nuevas sustancias, trabajó en
electricidad y magnetismo y fue el primero, mediante un ingenioso experimento
de muchísima precisión, en medir la fuerza de gravedad en un laboratorio.
El asunto es que, hurgueteando y experimentando, se topó con un gas que
provenía de la reacción entre ácidos y metales, mucho menos denso que el aire,
que ardía si se le aplicaba una llama: supuso que este «aire inflamable» —era
el hidrógeno— provenía de los metales, y pensó que había logrado aislar el
escurridizo flogisto (aunque el flogisto no se podía aislar, porque hubiera
sido como aislar la libertad o la justicia en un tubo de ensayo).
Luego hizo arder una mezcla de aire y «aire inflamable» en un recipiente y
observó que se acumulaba humedad en las paredes… La conclusión fue conmovedora:
¡había obtenido la síntesis del agua como una mezcla de dos gases! ¡El agua no
era un elemento en sí mismo, sino que era un compuesto de dos gases! ¡Se
derribaba estrepitosamente el enorme edificio teórico que se había construido
sobre los cuatro elementos aristotélicos! Si el agua estaba compuesta de dos
gases diferentes, los elementos podían ser muchos más.
Naturalmente, Cavendish no dudó del flogisto, y explicó su hallazgo del agua en
términos flogísticos, como un político que esgrime una teoría obsoleta y se
resiste a cambiar: llegó a la conclusión de que el agua debía ser un compuesto
de aire puro y flogisto. En realidad, Cavendish creía que el hidrógeno era
flogisto puro.
§. Priestley encuentra un nuevo y sorprendente gas
Joseph Priestley (1733-1804) era, como Cavendish, inglés, librepensador en
cuestiones de religión y ortodoxo en química, flogicista a muerte, sacerdote y
uno de los mayores cazadores de sustancias, en especial gases, de todo el siglo
XVIII.
En 1767, vivía al lado de una fábrica de cerveza y comenzó a interesarse en el
fenómeno de la efervescencia que producía el llamado «aire fijo» (dióxido de
carbono), un gas descubierto y aislado por Black. Experimentando
incansablemente con él, descubrió un montón de gases más, que pudo describir
para su mayor gloria y honor. Pero fue el 1° de agosto de 1774 cuando alcanzó
la inmortalidad (y algo más).
Con una lupa que concentraba los rayos del Sol, calentó un poco de óxido de
mercurio dentro de una campana de vidrio herméticamente cerrada y al abrirla
encontró un «aire», un gas sin olor. Cuando introdujo una vela encendida en ese
«aire» notó que la llama se avivaba. Evidentemente había obtenido un gas nuevo
(el mismo que, aunque él no lo supiera, había aislado Scheele).
Era obvio que si ese nuevo gas hacía arder muy bien una vela o permitía vivir a
un ratón, estaba «ansioso» por tomar el flogisto (como un papel por absorber el
agua), mucho más ansioso que el aire común, como si careciera por completo de
flogisto. Esto es, estaba deflogisticado, y así lo llamó: «aire
deflogisticado». Priestley estaba orgulloso de su descubrimiento; después de
respirar «su» aire deflogisticado, contaba:
Mi pecho se sintió particularmente ligero por un tiempo… quién sabrá,
pero, en un tiempo este aire puede transformarse en un lujoso artículo de moda.
Hasta este momento sólo dos ratones y yo hemos tenido el privilegio de
respirarlo.
Priestley era un verdadero militante, casi un guerrillero del flogisto,
que en ese entonces imperaba sin opositores, por lo menos visibles, y no era
para extrañarse. A nadie se le había ocurrido ninguna otra teoría que explicara
tantas cosas; el flogisto ponía en contacto los tres reinos naturales y
revelaba el ciclo de nacimiento y muerte de la naturaleza; no era solamente el
agente de la combustión y el fuego, el que había transformado al hombre
prehistórico en el hombre poderoso del siglo dieciocho, sino que era el
portador de las principales cualidades químicas: una sal combinada con el
flogisto, daba un álcali; un ácido universal con el flogisto, daba un ácido
nítrico. Era, como la luz, el magnetismo o la electricidad, uno de los agentes
imponderables y esenciales del mundo. La civilización entera estaba sostenida
por andamiajes de flogisto. Todo encajaba: ¿cómo no iba a reinar sin
cuestionamientos? Y además, el flogisto develaba el misterio del fuego y la
combustión: era lo que todos estaban esperando desde el momento en que por
primera vez el metal se fundió para fabricar una espada o un arado.
§. Un punto débil: el enigma de la calcinación de los metales
Sin embargo, la gran síntesis del flogisto, la coronación de la química que
había instaurado Stahl, que había develado los misterios del fuego y que había
producido su mejor joya en el aire deflogisticado de Priestley, en el que
cualquiera podía respirar de manera exquisita, tenía algunos puntos flojos y
uno de los más serios era el problema de la calcinación de los metales. A muy
altas temperaturas, un metal también se quema y deja como residuo una cal,
cambiando naturalmente su aspecto. Hasta ahí no había nada raro, ya que era
obvio que si el metal perdía su flogisto, sus propiedades se tenían que alterar.
Pero lo que sí resultaba más que raro, rarísimo, era que, después de perder su
flogisto, los metales aumentaran de peso.
¿Cómo era posible?
Esta historia de la calcinación de los metales y el aumento de peso era
conocida desde hacía mucho tiempo. Lo habían informado algunos alquimistas, e
incluso se había intentado explicarlo, ya que contradecía la antiquísima idea
de que el fuego descomponía la materia. Según algunos, los átomos de fuego se
fijaban sobre el metal al quemarse y para otros el fuego arrancaba las
partículas más livianas del metal y así lo tornaba más pesado (no hay que
olvidarse de que el aristotelismo diferenciaba pesadez y liviandad, y así los
átomos de fuego eran como globos más livianos que el aire enquistados en la
materia que, cuando se soltaban y subían, la hacían más pesada).
Desde ya, el misterio no escapó a la minuciosa atención de Boyle, que estudió
el fenómeno con la meticulosidad de siempre: calcinó estaño en un recipiente
cerrado; pesó el estaño antes y después de quemarse y lo mismo con el
recipiente. Al abrir el recipiente, oyó al aire entrar precipitadamente.
Si Boyle hubiera podido leer este libro, seguramente habría prestado más
atención a ese sonido. Pero faltaba mucho para que este libro se publicara y el
hecho se le escapó. Y es que la ciencia funciona así: un pequeño descuido, o la
imprudencia de no leer el libro adecuado, impide un gran descubrimiento que los
científicos tienen delante de sus narices. Tampoco se le ocurrió a Boyle pesar
el recipiente con el estaño adentro antes y después de la calcinación y supuso
que el aumento de peso era debido a una sustancia que el metal sacaba del fuego
y que había atravesado las paredes de la retorta.
Robert Hooke, que fue su ayudante, interpretó la combustión de manera diferente:
supuso que en el aire había algo, una sustancia que poseía la propiedad de
disolver todos los cuerpos combustibles si eran calentados suficientemente y,
por lo tanto, el fuego era un mero fenómeno accidental.
Hubo un químico, John Mayow (1645-1679) que fue más allá: demostró que no es el
aire sino un constituyente del aire el que alimenta la combustión, al que llamó
«espíritu nitroaéreo». Mezclado con nitro (nitrato de potasio), observó, un
cuerpo se quema en el vacío y el «espíritu del nitro» sirve de alimento al
fuego. Para que un cuerpo pueda arder, decía, no alcanza con que tenga
partículas combustibles, sino que hace falta que éstas entren en contacto con
el espíritu nitro-aéreo que existe en el aire.
Mirado desde la teoría del flogisto, el aumento de peso era problemático:
aseguraba que, al quemarse, los metales se separan en sus elementos más
simples: cal y flogisto. ¿Pero cómo podía ser que los metales al perder
flogisto ganaran peso? Stahl supuso que la pérdida del flogisto dejaba «huecos»
en la materia que el aire comprimía y así todo se volvía más pesado… El
argumento era verdaderamente flojo: confundía peso y densidad, ya que si el
aire comprime, la materia se vuelve más densa, pero no más pesada.
Algunos seguidores de Stahl, como suele suceder, fueron más allá de su maestro
y propusieron una solución arriesgada, arriesgadísima: ya que las teorías de
Aristóteles y el asunto de los cuatro elementos estaban otra vez en boga (¡en
pleno siglo XVIII!), concluyeron que el flogisto tenía en su naturaleza ir
hacia arriba (como el fuego del que era parte) y por lo tanto le quitaba peso
al objeto que era su lastre. Esto es… ¡el flogisto tenía peso negativo!
Era una explicación un tanto descabellada, pero la verdad es que los
flogicistas no estaban muy alarmados por la cuestión de los metales, ni el
problema les quitaba el sueño: suponían que en algún momento se encontraría la
explicación, del mismo modo que los copernicanos imaginaban que tarde o
temprano se arreglarían las dificultades físicas del sistema heliocéntrico.
Otro problema del flogisto era su inmaterialidad, su carácter casi metafísico.
¿Pero acaso no lo eran la luz, el magnetismo o la electricidad (que ya estaban
dando vueltas en el aire de la época)… y hasta la propia fuerza de gravitación?
Ya se resolvería.
Pero en realidad el mayor problema, el problema fundamental que debía afrontar
el flogisto, era que no existía.
El que enfrentó decididamente al flogisto y lo derrotó fue Antoine Laurent
Lavoisier (1743-1794), que lo envió adondequiera que van a parar las sustancias
que no existen.
§. Lavoisier decide revolucionar la química
Nada se crea ni en las operaciones del arte, ni de la naturaleza, y se
puede elevar a la categoría de principio que en todo proceso hay una cantidad
igual de materia antes y después del mismo… Sobre este postulado se funda todo
el arte de hacer experiencias en química.
LAVOISIER, Tratado de química, 1789
El padre de Antoine Laurent Lavoisier, un rico abogado preocupado por la
educación de su hijo, lo envió a un excelente colegio donde estudió
matemáticas, astronomía, química y botánica, se empapó de una ideología
razonablemente liberal y se convirtió en un verdadero intelectual del Siglo de
las Luces, un caballero de buena posición y con la ideología de la Ilustración
a flor de piel, lo cual lo llevó a apoyar la Revolución Francesa, por lo menos
en sus inicios. A los 22 años, con un ensayo sobre la mejor manera de iluminar
las calles de París, recibió una medalla de oro de la Académie des
sciences y a los 25 lo aceptaron como miembro gracias a un trabajo
sobre el análisis de la pureza del agua de París.
Pero lo importante del experimento no era, en realidad, la pureza del agua.
Resulta que desde hacía siglos los alquimistas y luego los químicos (incluyendo
al propio Boyle) habían comprobado que si se calentaba agua largo tiempo en un
recipiente hasta que se evaporaba del todo, era posible juntar un fondo terroso,
lo que mostraba que el agua se podía transformar, por lo menos en parte, en
tierra.
Lavoisier realizó la prueba pesando con precisión el agua, la tierra que
quedaba y —genial— el recipiente en el que se hacía el proceso. Tras calentar
todo durante varias horas comprobó que el peso de la «tierra» que había quedado
luego de que el agua se hubiera evaporado ¡era exactamente igual que el que
había perdido el recipiente! Es decir que la supuesta «tierra» no provenía del
agua sino del recipiente. Conclusión: el agua no se transforma en tierra.
En realidad, había logrado algo mucho más importante que destruir una creencia
milenaria (que ese mismo año había destruido también Scheele); el experimento
daba un golpe formidable a la hipótesis de la transmutación, pero, quizás más
importante aún, daba un paso decisivo hacia el principio general, el eje sobre
el que armaría todo su sistema y revolucionaría la química, dándole un carácter
newtoniano: el principio de conservación de la materia. Tomó el concepto
newtoniano de masa que el gran Isaac había definido, un tanto confusamente,
como «cantidad de materia», la midió por su peso y estableció que nada podía
surgir de la nada:
La materia puede cambiar de forma, pero el peso total de la materia
implicada en una reacción química sigue siendo el mismo.
Esto es: las cosas se transforman pero no desaparecen ni aparecen de la
nada; la materia, aquello que tiene masa y por ende peso, no podía
crearse ex nihilo, sólo podía provenir de transformaciones de la
materia misma, y de ahí en adelante, las cosas girarían alrededor de la
balanza. No es que la balanza no se hubiera usado antes; tanto Boyle como Van
Helmont se habían valido de ellas y lo mismo Black, Scheele y casi
obsesivamente Cavendish. La habían usado, sí, pero no habían hecho de ella y,
por ende, de la masa y de su conservación, el principio fundamental de su
sistema. Pero ahora Lavoisier clavaba el pivote sobre el cual levantaría su
edificio, el concepto de masa invariante, medida por su peso, una idea y una
metodología absolutamente newtonianas.
El mismo año del experimento de la balanza, ¡ay!, compró acciones en la Ferme
Générale, una compañía privada responsable de cobrar los impuestos al
tabaco, con las grandes ganancias que parecen acompañar durante todas las
épocas a las empresas privadas que se hacen cargo de los servicios públicos.
Las acciones (que más tarde le costarían la cabeza, literalmente, tras la
Revolución, ya que la empresa era un símbolo del abuso del poder y se había
ganado el odio de buena parte de la sociedad) le permitieron vivir de rentas,
comprar los mejores dispositivos para experimentación disponibles en su tiempo
y montar un laboratorio que fue famoso y visitado por los químicos de toda
Europa. Se casó con Marie-Anne Paulze (de sólo 14 años), quien fue su mejor
ayudante a lo largo de su vida (y que después de su muerte se volvió a casar
con otro científico, el excéntrico Conde Rumford, con quien vivió una especie
de telenovela mexicana avant la lettre).
Lavoisier tenía algo del espíritu meticuloso y obsesivo de Tycho Brahe; así
como el gran astrónomo danés se había puesto a revisar las observaciones
tradicionales con su astronomía de precisión, desde 1773 Lavoisier se dedicó a
repetir los experimentos químicos tradicionales en forma estricta, para
determinar cuánto de los resultados que se habían obtenido anteriormente se
debían simplemente a errores en las mediciones o en los procedimientos. Pero,
además, era muy consciente de lo que hacía y de lo que quería: resolver el
problema de la combustión y producir una revolución en la química. El 20 de
febrero de 1773, fecha histórica, lo asentó explícitamente en su diario:
La importancia del fin propuesto me ha animado a emprender todo este
trabajo que parece destinado a producir una revolución en la química.
§. Se resuelve el problema de la combustión
El flogisto es un deus ex machina de los metafísicos; un ente que
aparentemente todo explica y que en realidad no explica nada.
LAVOISIER
A Lavoisier no podía gustarle el flogisto. Una sustancia imposible de
aislar, que al abandonar los cuerpos les agregaba peso y que por lo tanto era
pasible de tener peso negativo (como sostenía el químico Guyton de Morveau), no
encajaba con su concepto de la masa como aquello que tiene peso. El «peso
negativo del flogisto», desde ese punto de vista, era un disparate, y si los
metales aumentaban de peso, algo se les debía agregar al ser calcinados.
Lavoisier no era un intuitivo como Kepler, ni alguien que borra sus huellas y
muestra sólo los resultados, como Newton; por el contrario, avanzó paso a paso:
para empezar, comprobó que no sólo los metales aumentaban de peso al quemarse,
sino también el azufre y el fósforo. También repitió el experimento que un siglo
antes había hecho Boyle. Calentó un trozo de estaño en un balón herméticamente
cerrado, pero esta vez, sí, pesó cuidadosamente el conjunto antes y después de
la calcinación. El peso no varió y, por lo tanto, concluyó, nada había entrado
atravesando las paredes de la retorta, como había creído Boyle.
Al abrir el balón el aire entró y, ahora sí, aumentó el peso del conjunto.
Lavoisier se convenció de que el aumento de peso experimentado se debía a que
el metal había tomado cierta cantidad de aire para transformarse en cal y no
que liberaba flogisto; era una idea que ya lo rondaba desde hacía un par de
años.
Y es que así como Kepler había roto con la obsesión circular, Lavoisier estaba
rompiendo de una vez por todas con la idea tradicional enquistada desde los
orígenes, la que había sido formulada por Aristóteles y aceptada por los
alquimistas, la que hasta el gran Boyle había terminado por suscribir, la que
había impedido comprender el fenómeno de la combustión: esto es, que la
combustión era algo que provenía de adentro del cuerpo que se quemaba.
Lavoisier encaró el problema de una manera opuesta: el principio de la
combustión estaba fuera del cuerpo combustible, que no liberaba ni átomos de
fuego, ni tierra combustible, ni flogisto ni nada.
En realidad absorbía algo. Algo que estaba en el aire, o que
era una parte del aire. Lavoisier no estaba seguro. Primero pensó que era el
«aire fijo» de Black, sin poder demostrarlo. Y entonces, en octubre de 1774
recibió una visita en París.
Era, ni más ni menos que John Priestley, el gran químico inglés del flogisto,
que le habló entusiastamente de su «aire deflogisticado en el cual una llama
arde mucho mejor que en el aire común». Un gas que avivaba la llama, un gas que
la alimentaba… era justamente lo que Lavoisier estaba esperando y no es raro
que intuyera inmediatamente que era ése el componente del aire con el que se
combinaban los metales durante la combustión.
Naturalmente, primero corroboró el descubrimiento de Priestley y luego comprobó
que, tras el proceso de calcinación, en la retorta ya no había más «aire
deflogisticado», que había sido absorbido por el metal durante la combustión y
que sólo quedaba un «aire fétido» (que llamó ázoe y que hoy llamamos
nitrógeno), incapaz de mantener la combustión.
El principio que se une a los metales durante la calcinación, que
aumenta su peso y que es parte constituyente de la cal, es nada menos que la
parte más saludable y pura del aire, que luego de combinarse con un metal,
puede liberarse de nuevo con posterioridad,
escribió en 1778. Había que buscar un nombre para esta nueva sustancia,
un nombre que reemplazara al de «aire deflogisticado» y que no contuviera
resabios del flogisto.
Y Lavoisier eligió una palabra que proviene del griego y significa «hacedor de
ácidos»: oxígeno.
La verdad es que en eso se equivocó, porque puede haber ácidos
independientemente del oxígeno, pero no tiene demasiada importancia. El
misterio de la combustión estaba resuelto y de ahí en adelante para el flogisto
fue el comienzo del fin: exhalaba sus últimas bocanadas. No le quedaba oxígeno,
si es que tal cosa hubiera sido posible.
§. El flogisto se defiende
El flogisto luchó por su vida con tenacidad tolemaica. Del mismo modo que las
esferas cristalinas habían resistido un tiempo los golpes de Tycho Brahe, del
mismo modo que los torbellinos de Descartes trataron de aguantar los embates de
la teoría de la gravitación, el flogisto no se resignaba a su propia
inexistencia.
Lavoisier abrió el fuego: en 1786 publicó un artículo llamado «Reflexiones sobre
el flogisto» en el que declaraba la guerra:
Si todo se explica en química de una forma satisfactoria sin recurrir al
flogisto, basta para que sea infinitamente probable que este principio no
exista; que sea un ente hipotético, una suposición gratuita: y, en efecto, es
un principio de buena lógica el no multiplicar los entes sin necesidad. Quizás
hubiera podido atenerme a estas pruebas negativas y contentarme con haber
probado que los fenómenos se explican mejor sin flogisto que con flogisto, pero
ya es hora de que me manifieste de un modo más preciso y más formal sobre una
opinión que considero como un error funesto para la química y que creo que ha
retardado considerablemente su progreso por la mala manera de filosofar que
introdujo en ella.
Evidentemente, había aprendido mucho de Ockham pero también de Newton:
buscaba un puñado de reglas simples y coherentes que explicaran al mundo
basándose en axiomas mecanicistas y pusieran los rieles para la ciencia
moderna, que avanzaba como un torrente.
Por eso, a pesar de la oposición de titanes de la química como Priestley o
Cavendish, cada vez más científicos abandonaron al flogisto, cuyos seguidores
desaparecieron poco a poco, aunque se mantuvieron, hasta comienzos del XIX,
focos de resistencia tenaz, sobre todo en Alemania. El mismísimo Lamarck, que
más tarde elaboraría la primera teoría coherente de la evolución, fue un gran
defensor del flogisto.
Un punto a favor de Lavoisier era la claridad de sus explicaciones, basadas
fundamentalmente en el principio de conservación de la materia y en fórmulas
relativamente simples. Pero lo más probable es que los argumentos de poco
sirvieran para convencer. Porque, como decía el físico Max Planck, «una teoría
científica nueva no triunfa convenciendo a sus adversarios y haciéndoles ver la
luz, sino más bien porque sus opositores finalmente acaban muriéndose».
§. El fin de Lavoisier y el flogisto
Es tiempo de conducir a la química a una rigurosa manera de razonar.
LAVOISIER
El fin del flogisto señaló el comienzo de la química moderna en serio y
su constitución como ciencia newtoniana. Lavoisier no se conformó con haber
develado el secreto de la combustión: reformó completamente la nomenclatura
química, que adquirió el aspecto actual, y en 1789 su Traité
élémentaire de chimie fue la culminación de su obra. Al comenzar la
Revolución, participó en la comisión convocada en 1790 que establecería el
sistema métrico decimal. Pero su pertenencia a la odiada Ferme Générale,
que fue abolida en 1791, lo hizo sospechoso y tuvo que abandonar todos sus
trabajos para el Estado.
Cuando comenzó el Terror, en 1793, se cerró la Academia de Ciencias y a finales
de ese año un edicto ordenó la detención de todos los fermiers. El
8 de mayo de 1794 lo guillotinaron junto a sus colegas en la Place de
la Révolution, la actual Place de la Concorde. Su cadáver fue
arrojado a una fosa común.
Es famosa la frase que (dicen) pronunció Laplace: «Llevó unos segundos cortar
esa cabeza y harán falta cien años para producir otra así».
Hace cuatrocientos mil años se habían encendido las hogueras del hombre de
Pekín, iniciando una nueva época y planteando el misterio del fuego y la
combustión. Ahora, el fuego y la fortaleza de la química habían caído en manos
de la ciencia newtoniana.
Capítulo 22
El tiempo profundo
Durante el siglo XVIII, el fluir de las ideas científicas se orientó a
cumplir el ambicioso programa de la Revolución Científica, y se constituyó en
el principio organizador del pensamiento de la Ilustración, que se proponía
sistematizar y establecer una visión científica del mundo que permitiera
reformar (y reconstruir) la sociedad de acuerdo con principios racionales y
cuya gran manifestación política fue la Revolución Francesa de 1789.
La noción de razón fue considerada el principio general de la naturaleza; los
iluministas veían al mundo como un gran mecanismo racional, gobernado por leyes
y principios impersonales cuyo funcionamiento podía ser develado por medio de
la filosofía mecánica y la ciencia experimental, y cuya enorme variedad podía
sistematizarse a partir de la observación inteligente.
Fue durante este siglo cuando las diferentes disciplinas empezaron a adquirir
un perfil propio, limando sus límites y diferenciándose y quedaron listas para
su constitución definitiva y el enorme impulso que recibirían durante el siglo
siguiente.
El esfuerzo de sistematización y generalización de la ciencia está bien
representado por la publicación de la celebérrima Enciclopedia, o Diccionario
razonado de la ciencia, de las artes y los oficios, dirigida por Denis Diderot
(cuyos tomos fueron apareciendo entre 1751 y 1772), donde se pretendía reunir
una Summa de todo el conocimiento humano acumulado hasta entonces, y cuyo
prólogo, escrito por D’Alembert, proclamaba que las ideas de Bacon, a quien se
presentaba como el promotor de todo el progreso científico (lo cual era, por
supuesto, un tanto exagerado), se estaban cumpliendo.
A todo esto hay que sumar, obviamente, la idea misma de progreso científico (y
de progreso en general), que como hemos venido viendo ya se manifestaba
tenuemente incluso en algún pensador medieval, pero que se alzó como el eje
articulador de todo el pensamiento científico a partir de este momento: la
razón y el método científico irían iluminando, progresivamente, todas las zonas
de la realidad que estaban aún bajo el imperio del oscurantismo y la
superstición.
§. La clasificación del mundo natural y el concepto de especie
El siglo XVII había hecho notables esfuerzos con el objetivo de encontrar algún
tipo de clasificación que superara la tradicional que se usaba desde hacía
siglos anárquicamente en los bestiarios y los herbarios, y en la cual no cabía
ya la avalancha de especímenes nuevos que se conocían a medida que Europa se
expandía e iba afirmando su supremacía sobre el resto del mundo. ¿Pero cómo
hacerlo?
Aquí jugó un papel importante el naturalista inglés John Ray (1627-1705), que
en su Breve Methodus Plantarum (1682) daba la primera definición aceptable de
«especie» —que hasta entonces había sido una noción intuitiva y difusa— y en su
Historia de las plantas (1686-1704) hacía una descripción sistemática de todas
las plantas conocidas de Europa. A diferencia de los compendios alfabéticos de
naturalistas tan importantes como Gesner, en los de Ray no había criaturas
fantásticas (ni unicornios, ni sirenas, ni monstruosas serpientes marinas), ya
que se basaba en la observación directa, como mandaba el método experimental, y
no en la recopilación bibliográfica. Justamente, fue la variedad de especímenes
lo que le sugirió la conveniencia de buscar un elemento unitario, el concepto
de especie, que definió como:
Un conjunto de individuos que mediante la reproducción originan
individuos similares a sí mismos.
La misma definición era válida para plantas y animales y proponía una
unidad sobre la cual construir un criterio de clasificación. Era un primer paso
fundamental.
§. La polémica de la fijeza
Si el concepto de especie estaba basado en la reproducción, no es extraño que
fueran los órganos de la reproducción los que sirvieran de criterio
clasificatorio para el botánico sueco Carl Linneo (1707-1778), sin duda uno de
los biólogos más grandes de su tiempo, a quien llamaban el «princeps
botanicorum» y que en 1735 publicó su Systema Naturae. En su edición original
no era más que un folleto de doce páginas, pero en su edición número 13 era ya
un conjunto de tres volúmenes de 500 páginas, en cada uno en las cuales se
tomaban en consideración los tres reinos de la naturaleza (animal, vegetal y
mineral) y se ordenaba todo sistemáticamente en clases, órdenes, géneros y
especies.
En 1749, Linneo dio un importante paso organizativo al introducir su
nomenclatura binaria (en la cual cada especie es designada por dos nombres, uno
para el género y otro descriptor específico), que luego aplicó sistemáticamente
a miles de especies y que, sin grandes modificaciones, sigue en uso hoy en día.
Así, el género sirve de denominación común a todo un grupo natural: Felis
domesticus (gato), Felis catus (gato salvaje), Felis
leo (león), Felis pardus (pantera), Felis
tigris (tigre). El término Felis, obviamente, designa
al género de los felinos.
Pero Linneo no sólo encontró una manera relativamente simple de nombrar a las
especies de tal manera que fueran reconocibles por todos los naturalistas, sino
que se lanzó a la caza de nuevos ejemplares desconocidos en Europa, enviando a
sus discípulos por todo el mundo con el objetivo de recolectar y luego
clasificar según el sistema binomial toda la naturaleza.
Si el sistema de Linneo fue eficaz y exhaustivo en el caso de las plantas, no
fue tan feliz con los animales, y directamente desechable en el de los
minerales (a los que también pretendió aplicar la noción de orden, género y
especie).
Detrás de todo esfuerzo sistemático de clasificación, naturalmente, hay un afán
de dominación: conocer es controlar. Pero además se esconde una pregunta
interesante desde el punto de vista filosófico: ¿los taxones (las unidades de
clasificación: especie, género, orden, familia) están en nosotros o están en la
naturaleza? ¿Son reales o artificiales?
Pregunta difícil si las hay. El asunto se arrastraba desde el siglo anterior:
los partidarios de una clasificación «natural» trataban de agrupar a los seres
vivos según un conjunto de rasgos, tratando de aproximarse a las agrupaciones
que parece haber naturalmente en el mundo, mientras que los que defendían la
clasificación artificial se basaban en la selección de un rasgo específico que
se tomaba como central, o como indicador, y que siempre tenía algo de
arbitrario, aunque ese rasgo estuviera relacionado con la característica más
conspicua de los seres vivos, como es la reproducción.
Fue este asunto, justamente, el que enfrentó a Linneo con el gran naturalista
francés Georges Louis Leclerc de Buffon (1707-1788), a quien volveremos a
encontrar más tarde en este capítulo, que reclamaba una clasificación
«natural».
Ray y Linneo, muy religiosos, habían estipulado el principio de la absoluta
fijeza de las especies, todas creadas por Dios en el origen y que permanecían
tal cual a lo largo de toda la historia del planeta:
Se cuentan tantas especies como fueron al principio creadas,
escribía Linneo, aunque más tarde debió flexibilizar esa posición, dada
la cantidad de especies híbridas con que se encontraba. En 1759 ya escribía:
Puede ser que en el reino vegetal las especies pertenecientes a un mismo
género no sean sino derivadas de una sola especie mediante cruzamientos. Sin
embargo, ¿todas esas especies son hijas del tiempo, o el Creador, en el
comienzo del mundo, ha limitado ese desarrollo a un número limitado de
especies? No me atrevería a pronunciarme con certeza a este respecto.
Y en las ediciones siguientes de su Systema Naturae suprimió
la afirmación de la imposibilidad de la aparición de nuevas especies.
Aunque, como vemos, incluso en manos del muy creyente Linneo la doctrina de la
fijeza de las especies ofrecía algunas grietas, la obra de clasificación seguía
significando, tanto para él como para Ray, comprender la naturaleza, que era
una obra de Dios para gloria del género humano.
Buffon, que si bien se confesaba muy devoto católico, no parecía serlo (como
bien comprendían quienes pretendían prohibir, censurar o quemar sus libros,
pese a la palinodia que Buffon entonaba al estilo Osiander, prologuista
fraguado de Copérnico, diciendo que lo suyo no eran más que hipótesis),
concebía las especies como entidades históricas, sujetas a cambios casi
evolutivos, aunque no llegó a proponer la idea de evolución. Sin embargo, su
idea del cambio degenerativo, por el cual algunas especies no eran sino
versiones «degeneradas» de las originales, se le parecía mucho.
Buffon era múltiple: los 36 tomos de su Historia Natural, que
aparecieron a lo largo de su vida, más los ocho que se publicaron después de su
muerte, trataban de todos y cada uno de los temas de la naturaleza, desde el
hombre y los pájaros hasta los peces, los cetáceos y los minerales, sin olvidar
la geología y la meteorología. Y, merecidamente, se convirtieron en
bestsellers, rivalizando incluso con la Enciclopedia.
Buffon se sentía incómodo en el rígido corset bíblico que aceptaba
perfectamente Linneo (y había aceptado Ray) y fue uno de los primeros en romper
con la idea de que la Tierra tenía apenas seis mil años de antigüedad, como
indicaba el Génesis, aunque conservó esa cifra para la antigüedad del hombre,
que había aparecido en la última época de las siete en que dividió la historia
de la Tierra.
¡Y estamos ya en el siglo XVIII! Es difícil entender cómo un relato ingenuo,
escrito tanto tiempo antes de nuestra era, podía tener todavía semejante
influencia en el Siglo de la Razón y de las Luces.
Pero lo cierto es que la tenía, aunque se empezaba a debilitar, en gran parte
por la emergencia de otra disciplina: la geología.
§. La ciencia de la Tierra
El estudio de la Tierra y los fenómenos que ahora llamamos geológicos ya tenía
una larga historia: la idea tradicional, que venía de la Antigüedad, era que
los terremotos y los volcanes eran el resultado de vientos que circulaban por
cavernas subterráneas (¿se acuerdan de la teoría de Tales, según la cual se
debían al oleaje?). Por otra parte, los cambios evidentes sobre el paisaje,
como el desgaste de una montaña o el lecho ya seco de un río de otro tiempo, no
eran más que muestras de pequeñas modificaciones observables, pero
insuficientes para creer que el mundo evolucionaba en un sentido o en otro.
Plinio, en su enciclopedia, daba una explicación animista de los terremotos:
según él la «Madre Tierra» protestaba contra el ataque constante de hombres
ambiciosos que no intentan «buscar medicinas para curar sus enfermedades» sino
simplemente extraerle oro, plata y otros metales.
Durante la Edad Media se habían confeccionado, del mismo modo que los herbarios
y los bestiarios, lapidarios, donde se describía a las piedras
según propiedades como el color, la textura y hasta el olor (¡el olor de una
piedra!), sin contar sus propiedades mágicas. Por ejemplo, Alberto Magno, el
maestro de Tomás de Aquino, había escrito en el siglo XIII De
Mineralibus et Rebus Metallicis (Sobre los minerales y metales), en el que
hacía un inventario bastante organizado de los minerales conocidos, aunque
intercalaba sus propiedades mágicas en las descripciones. Allí describía los
fósiles como petrificaciones de lo que alguna vez habían sido seres vivos y
coincidía con casi todos sus antecesores en que los volcanes y los terremotos
eran producidos por los vientos de vapores subterráneos. Este tipo de tratados
había sido relativamente común tanto en la Edad Media como en el Renacimiento,
como el De Re Metallica, del que ya hemos hablado en su
momento.
Pero el siglo XVII introduciría novedades: algunos naturalistas ya miraban los
minerales (y el mundo) con los ojos de la nueva ciencia y comenzaban a notar
las relaciones que se podían establecer entre distintos tipos de rocas. El
danés Nicolás Steno (1638-1686), por ejemplo, estableció dos principios
geológicos básicos: primero, que las rocas sedimentarias, es decir, las que se
forman por acumulación de sedimentos y que, sometidas a procesos físicos y
químicos, resultan en un material de cierta consistencia, se disponen en forma
horizontal y, segundo, que las rocas más nuevas están puestas sobre las rocas
más antiguas. Los estratos se disponen de la misma manera que sucesivas capas
de pintura, con las más viejas debajo. Los principios de Steno permitieron a
los mineros de los siglos XVII y el temprano XVIII establecer relaciones
temporales entre los tipos de rocas, incluso aquellas que estaban distantes
entre sí.
§. El problema de los fósiles
Pero además, Steno avanzó sobre uno de los puntos conflictivos de la geología:
los fósiles. En efecto, admitió que los fósiles que había encontrado en
distintas rocas eran testigos de un episodio remoto que no se encontraba en las
Escrituras. No todos lo aceptaban, naturalmente, y muchos preferían verlos como
producto de misteriosas fuerzas que operaban dentro de las rocas. Edward Lhwyd
(1660-1709), por ejemplo, que era el responsable de catalogar la colección de
fósiles de un museo vecino a la Universidad de Oxford, concluyó que eran meros
objetos naturales que debían ser clasificados junto con otros productos de la
«madre tierra». Parecido pensaba otro contemporáneo, el médico y naturalista
Martin Lister (1683-1712), quien aseguró que esa suerte de caracoles que suelen
encontrarse como impresos sobre algunas lajas (amonites), aunque
superficialmente parecieran un caracol, no guardaban ninguna relación con los
moluscos vivos, ya que, argumentaba, no se habían encontrado animales vivos con
esa forma:
No existe tal cosa como conchas petrificadas sino que esas conchillas
que parecen berberechos son sólo lo que parecen, piedras de un estilo
particular y nunca fueron parte de ningún animal.
Fue Robert Hooke, otra vez, quien hizo los mayores esfuerzos por aplicar
el método científico para determinar el origen de los fósiles. En su
Micrographia postuló que tenían un origen orgánico después de usar el
microscopio para comparar la estructura de bosques fósiles y vivientes:
Esta madera petrificada se empapó con agua petrificante que luego se fue
apropiando de las partículas pedregosas de esa agua que la permeaba y esas
partículas fueron transportadas por el fluido y se quedaron no sólo en los
poros microscópicos, sino también en los intersticios que, mirados por el
microscopio, parecen más sólidos.
Palabras más, palabras menos, lo que estaba diciendo era que los
minerales del agua se metían en los recovecos del elemento orgánico ocupando su
lugar y solidificándose lentamente.
Hooke suponía que de la falta de equivalentes vivos de algunos de esos fósiles
se podía deducir que las especies en algunos casos se extinguían e incluso, con
un poco más de audacia, aseguraba:
Ha habido muchas otras especies de criaturas en eras previas de las
cuales no quedan ejemplos en el presente; y no sería raro también suponer que
existen muchas otras nuevas, que no existían en el comienzo.
Dios no tenía nada que ver con el asunto y la naturaleza se reinventaba
a sí misma sin ayuda de nadie. E incluso fue más lejos: los fósiles de tipo
marino encontrados en las montañas probaban que éstas alguna vez habían estado
sumergidas y que eran
probablemente el efecto de un gigantesco terremoto.
Las cosas se iban encaminando. Y no sólo con el asunto de los fósiles.
También fue por entonces que se resolvió otro de los temas que venían
arrastrándose desde hacía siglos: el de la procedencia de los ríos. El consenso
generalizado hasta entonces era que el origen estaba en grandes depósitos de
agua subterráneos. Pero en 1674 el francés Pierre Perrault (1611-1680)
publicó Sobre el origen de los manantiales, donde demostraba
que el agua que llovía en toda la región de París bastaba y sobraba para
producir el caudal del Sena. Su estudio fue confirmado por otros posteriores y
poco a poco se desvaneció la idea de que los ríos surgían del interior de napas
subterráneas.
El origen de las montañas, por su parte, seguía siendo un enigma. Para algunos
todavía era posible sostener que la actual estructura de la superficie de la
Tierra era esencialmente la misma que la que había sido originariamente creada
por Dios. Pero otros investigadores estaban más inclinados a creer que las
montañas en realidad estaban formadas por un proceso natural desde el tiempo
del Arca de Noé. En esa área en particular faltaba mucho por averiguar, pero el
Diluvio y el Arca de Noé, todavía en el siglo XVII, eran artículo de fe.
El Arca de Noé
En abril de 1997se inició en Australia un curioso juicio en el que un
destacado científico,el profesor Ian Plimer, jefe del Departamento de Ciencias
de la Universidadde Melbourne, demandó a un auto titulado «doctor» Allen
Roberts por haberpedido fondos para buscar el Arca de Noé en la cumbre del
monte Ararat, enTurquía, acusándolo de defraudación pública y de abusar de la
ingenuidad dela gente.
El solo hecho deque el «doctor» Allen Roberts haya recolectado jugosos fondos
demuestra quela creencia en el Arca de Noé y el Diluvio Universal todavía tiene
susadeptos. Pero no tiene el menor asidero meteorológico: en realidad, toda
elagua existente en el planeta sería insuficiente para cubrir ya no los
másaltos montes, sino simples colinas, muchísimo más modestas, y ni qué
hablarde un monte como el monte Ararat.
Y sin embargo,el 2 de junio de 1997, dos meses después de iniciado el juicio en
Australia,el juez falló —aunque parezca mentira— a favor del buscador del Arca
de Noé.Se preocupó de dejar bien aclarado que el asunto del Arca era una farsa,
peroconcluyó que Allen Roberts no había violado leyes comerciales, como
sosteníaPlimer, lo cual hasta podía ser cierto.
§. Nostalgias del Diluvio
Aquel día fueron rotas todas las fuentes del grande abismo y las
cataratas de los cielos fueron abiertas sobre la Tierra y hubo lluvia sobre la
Tierra cuarenta días y cuarenta noches. Y las aguas prevalecieron mucho en
extremo sobre la Tierra y todos los montes altos que había debajo de la Tierra
fueron cubiertos.
GÉNESIS
Naturalmente, la idea del diluvio, así como estaba, no podía resistir: puesto
que la superficie de nuestro planeta es, aproximadamente, de 432 millones de
kilómetros cuadrados, si lloviera toda el agua contenida en la atmósfera
(alrededor de un millón trescientos mil millones de litros, o 13.000 kilómetros
cúbicos) sin quedar ni una gota, ni una molécula —hecho, desde ya, harto
improbable—, la Tierra quedaría cubierta con una capa de menos de tres
centímetros de espesor, que no sólo no taparía los altos montes sino ni
siquiera los bajos pastos de este mundo.
Lo curioso es que este sencillo cálculo se realizó ya en el siglo XVII, y
estuvo a cargo del reverendo Thomas Burnett (1635-1715), un prominente clérigo
anglicano, que más tarde llegaría a ser capellán privado del rey Guillermo III
de Inglaterra, y que entre 1681 y 1689 publicó, en cuatro tomos, La Sacra
Teoría de la Tierra.
La historia es notable. Burnett, que se guiaba fielmente por la Biblia, pero
desconfiaba de la literalidad, partió de esa sensata observación: no había
manera de que el diluvio universal hubiera cubierto toda la Tierra. Con los
datos asequibles en la época y mediante una sencilla cuenta, mostró que el agua
que podía haber llovido en cuarenta días y cuarenta noches era insignificante
desde el punto de vista pluviométrico. Y además, ¿adónde había ido a parar el
agua después? Burnett llegó a la conclusión de que el Diluvio Universal no
había sido posible, por lo menos a partir de la lluvia.
Pero, incapaz de renunciar al Diluvio, llegó a una notable conclusión: si el
desastre no había caído de los cielos era porque había irrumpido desde la
profundidad. Tomando una vieja idea de Descartes, conjeturó que en el momento
de la Creación la Tierra era una esfera perfecta y paradisíaca, cubierta por
una corteza de materia sólida, lisa y sin rasgos, con los océanos fluyendo por
debajo de ella. La inundación, según Burnett, ocurrió cuando la corteza se
partió, colapsando en fragmentos que se hundieron en el agua. Los pedazos
irregulares del caparazón original constituyen el relieve de la Tierra que
observamos hoy, sólo las ruinas de lo que fue.
En verdad, la Sacra Teoría de Burnett, aunque llamó la atención del mismísimo
Newton, no tuvo demasiado éxito, aunque ésa es ya otra historia. Lo cierto es
que, venido de arriba o venido de abajo, el Diluvio Universal empezó a hacer
agua (como corresponde a un diluvio) ya en el siglo XVII.
Pero renunciar a una creencia tan ancestral era difícil: el Diluvio, como todos
los mitos, resistió y, ante la perspectiva de desaparecer, recurrió al último y
gran recurso que tienen los mitos: transformarse. Y así fue que se transformó
en la bella teoría del océano en retirada.
§. La teoría del océano en retirada
De alguna manera, el extravagante planteo de Burnett demostraba que el diluvio
no era viable, y se transformó gradualmente en la idea de que, después de la
Creación, todo el planeta había estado cubierto por un inmenso océano que,
gradualmente, se había ido retirando y despejando la tierra firme: este océano
primitivo tenía disueltos los minerales que, al depositarse, formaron las
rocas, las montañas y todo lo demás.
El autor de la idea original había sido el gran filósofo y científico alemán
Gottfried Leibniz (1646-1716) y poco a poco se fue convirtiendo en el sustituto
más popular del Diluvio Universal, por lo menos entre los geólogos. Conservaba
una ligazón un poco forzada con el relato bíblico, pero casi todas las
explicaciones que se dieron sobre el origen de la Tierra durante el siglo XVIII
seguían las grandes líneas de esta idea: un gran océano originario que
retrocedía paulatinamente. La obra de Leibniz, Protagea, donde
exponía su teoría, se publicó a mediados del XVIII, muchos años después de su
muerte, y la explicación no era meramente mítica, sino que parecía resolver con
las herramientas de la nueva ciencia algunos enigmas.
Un poco más radical fue el diplomático francés Benoît de Maillet (1656-1738) en
un libro que circuló de modo clandestino desde principios del siglo XVII hasta
la muerte de su autor. Consistía en un diálogo entre un filósofo indio y un
misionero francés acerca de la disminución del mar, la formación de la Tierra,
el origen de los hombres y animales y otros curiosos temas relacionados con la
historia natural y la filosofía. De Maillet imaginaba una Tierra inmensamente
antigua y no hacía referencias a diluvio ni Dios alguno. Pero sí aseguraba que
los registros egipcios de los niveles de agua del Nilo eran evidencia de una
declinación en el nivel del mar, ya en tiempos históricos, y que si se extendía
en el tiempo llevaba a suponer que alguna vez toda la superficie había estado
cubierta por agua.
Un gran océano que se retiraba: la imagen no estaba nada mal y era
intrínsecamente bella. Aún hoy conserva un inmenso poder de seducción: el agua
primordial recuperaba la vieja idea de Tales de Mileto o el mar eterno e
inaccesible del pensamiento hindú, donde nadaban las primitivas tortugas que
sostenían el mundo; el mar, objeto y fruto de reverencia y terror, que
abandonaba, como un inmenso animal, en cierta forma vivo, regiones que serían,
andando el tiempo, nuestro hogar.
El mar originario en retirada no era sólo una fantasía producto de la necesidad
bíblica. Nada de eso: fue una teoría muy seria y que parecía explicar algunos
enigmas. Uno de ellos era, por ejemplo, la existencia de fósiles marinos en lo
alto de las montañas; otro, que el Mar Báltico se hiciera cada vez menos
profundo (aunque, en realidad, era una consecuencia del fin de las eras
glaciales: la superficie del norte europeo estaba aún en ascenso luego de
liberarse del peso del hielo).
El más grande de los teóricos del océano en retirada fue Abraham Gottlob Werner
(1749-1817), profesor de la Escuela de Minería de Freiburg en Alemania, adonde
afluían estudiantes de toda Europa ansiosos de escucharlo.
Werner observó que algunas rocas se habían formado en el mar y generalizó
alegremente, atribuyendo este origen a todas las rocas. Entonces, pensó, cuando
el gran océano antiguo se retiró, las rocas más antiguas quedaron expuestas al
aire y sobre ellas se acumularon nuevas rocas, producto de la erosión, que se
instalaron en capas sucesivas, formando las montañas y todos los accidentes
geológicos. El poder de la teoría de Werner residía en que era funcional a las
observaciones y permitía deducir mucha información útil a la hora de explotar
las minas y saber qué mineral era probable encontrar debajo de determinada capa
geológica. El principio de superposición de estratos —según el cual las rocas
más jóvenes se depositan sobre las viejas— estaba bien explicado y, por otro
lado, era bastante lógico. Por principio, cada tipo de mineral pertenecía a una
época particular.
La teoría del océano en retirada era hermosa, pero tenía, en realidad, algunos
puntos muy débiles: por empezar, no quedaba claro de dónde había salido ese
océano original, ni a dónde iba a parar el agua sobrante a medida que el océano
retrocedía dejando en descubierto la tierra firme. Y segundo —y fatal— no
explicaba —o explicaba mal— la existencia de los volcanes.
Werner no se conmovió mucho por estos argumentos. Respecto del destino final
del agua, argüía:
Yo soy un geólogo y de ningún modo un cosmólogo como para especular
sobre eso. La evidencia en la baja del nivel del mar está en las rocas, y yo
sólo interpreto la evidencia lo mejor que puedo.
Y con respecto a los volcanes…, la verdad es que Werner los despreciaba
un poco: pensaba que eran fenómenos modernos y aislados y creía que las
erupciones se debían a la combustión subterránea de capas de hulla en las
cercanías.
Sin embargo, fueron los propios discípulos de Werner quienes demostraron que
había volcanes muy antiguos, que muchas de las montañas de ahora eran volcanes
extinguidos y que, como si esto fuera poco, la lava que salía de los volcanes
no era muy distinta de las rocas que según Werner sólo podían originarse en el
mar.
Aunque estaba equivocada, la teoría de Werner ayudó muchísimo a comprender
nuestro planeta: organizó los datos geológicos del momento sobre las rocas, y
las grandes eras y períodos que reconocemos actualmente.
La idea, además, tenía otros seguidores ilustres, como el mismísimo Buffon.
Para nuestro personaje, la Tierra se había desprendido del Sol por el golpe de
un cometa y estaba enfriándose lentamente. En el interior había aún roca
fundida y la superficie no era más que la parte que se había enfriado por el
paso del tiempo. Las montañas de granito representaban las únicas partes de la
corteza originariamente solidificada que todavía se podían ver, mientras que
las demás habían sido cubiertas por material depositado en épocas posteriores.
Tan pronto como la corteza se enfrió lo suficiente, comenzó a caer una lluvia
de agua casi en estado de ebullición; esa lluvia había cubierto todo o casi
todo formando un vasto océano hirviente habitado por seres marinos que murieron
cuando el agua se enfrió. De allí provenían los fósiles que todavía se podían
encontrar en las laderas de las montañas.
Los volcanes, a su vez, eran el resultado de la actividad química que había
comenzado hacía muy poco tiempo, al principio de los tiempos modernos. En su
libro Las épocas de la naturaleza, sostenía la existencia de
siete períodos que se podían asociar, muy oportunamente, con los siete días de
la creación.
Buffon se esforzó por hacer coincidir su teoría geológica con las ideas sobre
el reino animal que expuso en su monumental Historia Natural. Lo
que quedaba claro era la necesidad de alguna hipótesis orgánica que uniera
geología, fósiles, largos períodos de tiempo, vida y evolución. Pero aún
faltaba para que semejante ambición se viera concretada.
Palabras más palabras menos, en las primeras décadas del siglo pasado la teoría
del océano que se retiraba, dolorosamente herida, se retiraba de a poco,
dejándonos sólo la nostalgia de aquel mar originario, mientras la atención —y
la imaginación— se desplazaban hacia el fuego.
§. Los fuegos infernales
La Tierra es un gran mecanismo, sin atisbos de comienzo ni final.
JAMES HUTTON, 1795
La teoría del océano en retirada fue calma y gentil y un poco triste:
había tenido la serena belleza del clasicismo. La nueva teoría, acorde con la
estética romántica, era densa y nerviosa; irrumpió como un sturm und
drang de la geología y reemplazó al agua amable por los fuegos
infernales y la acción de los volcanes. Neptuno fue destronado por Plutón, el
dios del mundo subterráneo y rey de los infiernos; al fin y al cabo, los
volcanes siempre habían estado ligados al infierno en el imaginario colectivo.
Los plutonistas negaban que el océano se retirara; es más, negaban que hubiera
existido jamás un gran océano universal, y negaban que el agua fuera la fuente
del cambio, acaso porque negaban que existiera una fuente del cambio. Aceptaban
la idea, muy en boga, que ya habían considerado Descartes, Leibniz y Buffon, de
que la Tierra era el resultado de una inmensa masa de fuego —desprendida
probablemente del Sol— que se enfriaba paulatinamente; el centro de la Tierra
continuaba siendo para ellos una inmensa fuente de calor y de allí venía
el impulso geológico: la tierra firme no era otra cosa que roca fundida que se
había abierto paso desde el mundo subterráneo y luego se había enfriado. Los
plutonistas transformaron los volcanes en la fuerza principal que mantenía las
cosas en marcha. Naturalmente, esto descartaba cualquier conexión con el
Diluvio Universal y desafiaba toda la historia bíblica, lo cual despertó no
pocas resistencias y escándalos. Cuando Transactions, de la Royal
Society de Edimburgo, publicó, en 1788, la nueva teoría, su autor, James Hutton
(1726-1797), fue acusado de ateo, de negar la evidencia de la Creación presente
en las rocas y de ignorar la historia del diluvio catastrófico.
En realidad no era así: Hutton era un caballero del Iluminismo escocés,
contemporáneo y amigo de James Watt (el inventor de la máquina de vapor) y Adam
Smith (el primer gran teórico de la economía capitalista). A Hutton no lo
satisfacía la teoría del océano en retirada porque, en cierto modo, le
resultaba demasiado estática: implicaba que la erosión, tarde o temprano,
terminaría arrastrando toda la tierra firme al fondo del mar y de ninguna
manera podía aceptar que el Creador fuera a convertir la superficie terrestre
en un lugar inhabitable. Pensaba que debía haber un mecanismo de regeneración y
elevación de la corteza que compensara el ciclo de erosión, un mecanismo
mediante el cual surgieran permanentemente rocas nuevas desde el mundo
subterráneo, equilibrando la erosión y transformando el planeta en una perpetua
máquina en movimiento, creada por la perfección divina. El resultado era un
sistema siempre renovable.
El sistema que propuso era simple y razonable. Por un lado, el viento, la
lluvia y demás desgastan las montañas y los estratos caen en las tierras bajas
hasta llegar al mar. Por el otro lado, el sedimento que se acumula en el fondo
del océano se hunde por su propio peso y los sedimentos más bajos se funden,
circulan y finalmente surgen nuevamente a través de los volcanes. Las
erupciones volcánicas eran una prueba de que el centro del planeta estaba
formado por roca fundida. También se podía imaginar que esa lava no siempre
llegaba a la superficie, sino que a veces empujaba la costra fría de los
continentes hacia arriba, se enfriaba y formaba capas de granito y basalto,
tipos de roca muy dura, lo que a su vez generaba elevaciones que tarde o
temprano armaban verdaderas cadenas montañosas en un ciclo uniforme y
permanente. De esta manera, Hutton describía el planeta como una máquina en
movimiento perpetuo que se reciclaba a sí misma constantemente.
Muy pronto se demostró que Hutton tenía razón o por lo menos buena parte de
razón y que rocas como el granito (que según Werner sólo podían haberse
originado en el mar) eran de origen volcánico: con experimentos en altos
hornos, el químico James Hall ofreció la prueba de que el granito se
solidificaba a partir de un estado líquido.
Aunque finalmente perdieron la batalla, los neptunistas, partidarios del océano
en retirada, se resistieron. Y es que no sólo se estaban enfrentando el agua
calma contra los fuegos infernales, o dos teorías geológicas. Los neptunistas
perdían la batalla, pero quedaba sobre el campo, tanto para unos como para
otros, el que era el aspecto fundamental de la discusión: el tiempo.
Hutton pensaba que los procesos de formación de las rocas en realidad se daban
en ciclos regulares. Su teoría era la base del «uniformismo» moderno, que
indicaba que los mismos procesos que habían formado la superficie terrestre
seguían en acción y eran constantes. Para Hutton en particular, sus
observaciones encajaban con la idea de eternidad que resumió con su frase más
conocida:
El resultado, por lo tanto, de este análisis físico es que no vemos
vestigios de un comienzo ni atisbo de final.
Era el opuesto de cualquiera de las versiones que asignaban un lugar
primordial a los cambios bruscos o en un solo sentido (como un diluvio
universal o una Tierra muy caliente al principio, o incluso el océano en
retirada, que había existido una sola vez), versiones a las que se
caracterizaba bajo el título muy general de «catastrofistas», es decir, que
creían que había un fenómeno de magnitudes inusuales que repentinamente
cambiaba la configuración del planeta. Las distintas versiones de uniformismo y catastrofismo se
enfrentarían por bastante tiempo.
§. Uniformismo
Del lado del uniformismo más radicalizado estaba Charles Lyell (1795-1875),
quien sostenía que los procesos de sedimentación, erosión y cambio geológico
eran extremadamente lentos y que así habían sido a lo largo de la historia. Su
libro, Principios de geología, cuyo primer tomo se publicó en 1830, inicia para
muchos la geología moderna. Adhería sin fanatismos exagerados a la teoría de
Hutton. De hecho, es probable que Lyell reivindicara a Hutton más de lo que le
hubiera gustado, como forma de enfrentar la posición catastrofista generalmente
asociada con el diluvio universal, con el océano en retirada y, por lo tanto,
con la religión.
Como evidencia de sus afirmaciones, Lyell utilizaba las pruebas existentes de
sucesivos ascensos y descensos en el nivel de la costa mediterránea desde los
tiempos de los romanos. Su ejemplo más conocido eran las columnas del Templo de
Serapis en Puzzuolo, cerca de Nápoles, Italia, construidas en el siglo I antes
de Cristo. Sobre ellas había marcas que habían dejado sucesivos ascensos y
descensos en el nivel del agua. Si en sólo un par de miles de años se podían
encontrar semejantes variaciones, en unos pocos millones se podía justificar la
existencia de cadenas montañosas completas.
Lo mismo podía decirse de las pruebas que Humboldt había traído de Chile donde,
según se calculaba, un terremoto había logrado elevar casi dos metros una
franja de tierra de cien kilómetros de largo. Lyell postulaba que alcanzaba con
sumar estas pequeñas catástrofes para dar cuenta de fenómenos mucho más
grandes.
El argumento era sólido: el tiempo era más importante que la fuerza. El de
Lyell es un aporte nada menor, puesto que la fuerza del tiempo permite
comprender muchas cosas que van más allá de la escala humana observable y da el
puntapié inicial para pensar en las escalas de tiempo real que necesita la vida
para poder aparecer y la evolución para poder actuar.
Desde esta perspectiva, las montañas se desgastan y aplanan, mientras que en
otra parte (o en la misma, ya que una montaña que se levanta al mismo tiempo se
desgasta) surge una nueva en un eterno equilibrio. Era razonable, y por otro
lado este tipo de ejemplos dejaba abierta la puerta a un consenso y
transformaba todo en una cuestión de perspectiva y gradientes.
Según Lyell, era un error suponer que entre un estrato rocoso y el siguiente
había una continuidad temporal necesaria. Podía ocurrir que se formara una
capa, luego un cambio en el clima la erosionara por completo y se depositara
otra capa sin que quedara registro del tiempo intermedio. De esta manera, los
fósiles encontrados en un estrato y el siguiente podían tener millones de años
de diferencia que justificaran la falta de continuidad entre ambos. Las
catástrofes se podían verificar en casos puntuales, pero de ninguna manera como
regla de transformación.
La posición de Lyell era sólida, pero en su esfuerzo argumentativo por
descartar de plano a los catastrofistas se privó a sí mismo de la posibilidad
de creer que en algún momento las cosas pudieran haber sido distintas. De
hecho, llegó a sostener que los fósiles no eran evidencia de un cambio
evolutivo, sino que las especies habían sido más o menos siempre las mismas:
quería negar toda posibilidad de linealidad y acumulación en la flecha del
tiempo. La ferviente oposición de Lyell a la teoría de la evolución de Jean
Baptiste Lamarck (1744-1829), de la que ya tendremos ocasión de hablar, produjo
el efecto paradójico de generar interés por la hipótesis lamarckiana, e inspirar
incluso a Charles Darwin, quien se llevaría la obra del gran geólogo durante su
largo viaje por los mares del sur, en el cual elaboró las bases de su teoría de
la evolución por selección natural.
El libro de Lyell fue un hito geológico y buena parte de los catastrofistas
abandonó las posturas más radicales respecto de la virulencia de los cambios.
La discusión se centró, desde entonces, más bien en si había una linealidad
global en el cambio de las condiciones de la Tierra originaria o si se trataba
de ciclos iguales e infinitos. Los catastrofistas «aggiornados» estaban
convencidos de que las condiciones en los comienzos del planeta habían sido más
extremas y los cambios en ella se habían dado en forma más repentina. Así fue
que buena parte de ambos bandos se dedicó a cuestiones de índole práctica,
tales como determinar la antigüedad de los distintos estratos rocosos.
Como sea, los geólogos salieron a registrar estratos en busca de marcas
homogéneas, intentando luego ponerlas en relación con aquellos estratos que
estaban por encima y por debajo. Distintos personajes nombraron sus propios
períodos en los que se especializaron, generando en algunos casos ridículas
disputas académicas por dar más importancia a su campo específico (una
costumbre que, por otro lado, sigue viva en la actualidad y no sólo en la
geología). Ya en 1840 existía un consenso razonable acerca de los diferentes
períodos geológicos (más o menos como son aceptados hoy: primario, secundario,
terciario, cuaternario), lo cual tendría, entre otros, el mérito de confirmar a
Darwin en su teoría de la evolución.
Los dos supuestos «bandos» de la geología se dedicaron en buena medida a
estudiar cómo se acumulaban los cambios y lo que veían no era tan distinto.
Mientras tanto, quedaban afuera las preguntas más controvertidas: ¿Cómo se
habían producido esos cambios? ¿Cómo era el planeta en aquel origen? ¿Cómo se
había alterado la disposición de las rocas una vez que se habían formado?
§. El tiempo profundo
La discusión entre neptunistas y plutonistas fue áspera, salió del ámbito
científico y ganó la literatura: no les digo que se discutiera en las calles,
pero grandes poetas como Goethe se vieron involucrados en ella.
Y es que en realidad, como les dije un poco antes, lo que se estaba discutiendo
era algo esencial para la cultura humana. Cada gran teoría presenta una
cosmovisión, una manera de mirar el mundo: la teoría del océano en retirada
mostraba un planeta terminado desde el principio, que podía, mal que bien —más
mal que bien, pero bueno— encajarse en la historia bíblica de la Creación y el
Diluvio Universal, mientras que el plutonismo, que imaginaba a la Tierra como
una máquina en perpetuo movimiento y renovación, exigía, con la mejor buena
voluntad, muchos millones de años para la historia de nuestro planeta.
La eternidad asusta tanto hacia atrás como hacia adelante y la gente, que
estaba acostumbrada a pensar en un mundo recientemente creado, necesitaba —ella
también— tiempo para procesar estas ideas y acostumbrarse a lo que de veras se
estaba descubriendo: el tiempo profundo.
El «tiempo profundo»… parece raro, pero no hay otra manera de describirlo. Por
debajo de nuestro tiempo cotidiano que medimos en días y años, por debajo del
tiempo histórico que medimos en siglos, se desarrollan procesos lentos,
increíblemente lentos, que sólo pueden notarse después de millones de años.
Tanto Hutton como Lyell demostraban que a lo largo de la historia de nuestro
planeta los mecanismos de cambio eran muy graduales, y que —sobre todo— eran
los mismos que en el presente y actuaban con el mismo ritmo: los ríos cavaban
sus cañadones a través de los siglos; las rocas eran moldeadas por la lluvia a
través de los milenios; las montañas se elevaban con paciencia exasperante, por
acción del fuego; la corteza ascendía sin que lo notáramos, y una cordillera
podía tardar millones de años en formarse.
Era una verdadera revolución conceptual: de pronto, tras el rudo golpe de
enterarse de que habitaban un planeta que no estaba en el centro del universo,
los hombres del siglo XIX descubrían que su tiempo, el tiempo de sus vidas,
prácticamente no contaba en la inmensidad de los tiempos geológicos; descubrían
que los ríos y los océanos, las montañas y los volcanes eran más importantes y
más antiguos que ellos, que sus culturas y civilizaciones.
Pero no un poco más antiguos, como los dioses de las viejas
mitologías, o incluso el Dios cristiano; no: mucho, pero mucho más antiguos,
tanto que resultaba difícil de creer. Los nuevos dioses, las fuerzas que
lentamente moldeaban la Tierra, trabajaban en escalas que nada tenían que ver
con ellos y al lado de las cuales sus propias maneras de percibir el tiempo
significaban demasiado poco. El tiempo profundo, el tiempo verdadero de la
Tierra, parecía reducirnos a la nada; especialmente, si el pasado había sido
eterno, si —como proclamaban los uniformistas— la Tierra era una máquina sin
principio ni final.
La resistencia fue tanta que en 1890 — ¡1890!—, cuando el historiador César
Cantú escribió su monumental Historia del Mundo, no lo podía
aceptar:
Desde que el saber se rebeló contra Dios, apeló a la ciencia más antigua
y a la más moderna para desmentir el relato de Moisés, pero, interrogadas la
astronomía y la geología, con leal conciencia y más vastos conocimientos,
dispusieron en su favor, y hoy los seis días son, pues, seis edades de la
Tierra, cuya duración no es dado al hombre calcular, pero que dejaron de sí
huellas en el globo. Queda pues confirmada con los progresos de la ciencia la
narración de Moisés, que no da al hombre más de siete a ocho mil años de
antigüedad, y es una maravilla, para quien lee el Génesis, su concordancia con
los más recientes adelantos de la ciencia.
§. La edad de la Tierra
Pero a todo esto, el asunto de la edad de la Tierra empezó, también, a estar
sobre el tapete. Tradicionalmente, se estimaba según la interpretación literal
de la Biblia. El cálculo se hacía siguiendo paso a paso las palabras del
Génesis, donde se detallan todas las generaciones, desde Adán a Jesús, y
oscilaba, según el teólogo o el científico de que se tratara, entre los cuatro
mil y los seis mil años. En 1650, el arzobispo James Ussher, del Trinity
College de Dublín, concluyó que la Tierra (y el universo) habían empezado a
las seis de la tarde del sábado 22 de octubre del año 4004 a.C. y su
contemporáneo John Lightfoot, de la Universidad de Cambridge, discrepó
sutilmente, proponiendo el año 3928 a.C. El mismísimo Newton dedicó buena parte
de su tiempo a calcular el momento exacto de la Creación, que situaba alrededor
de aquellas fechas.
La precisión (rayana en la ridiculez) con que se intentaba medir los tiempos
para hacerlos acordar con las Escrituras estaba en el aire de una época que
todavía no se había metido de lleno en el vendaval ilustrado. Por poner sólo
algunos ejemplos, el geólogo alemán Johann Scheuchzer (1672-1733) afirmaba que
la aparición de coníferas en los estratos de carbón demostraba que el Diluvio
había tenido lugar en el mes de mayo, mientras que, desde Inglaterra, el
astrónomo W. Whiston discrepaba cuando, en 1708, aseguraba que había comenzado
un miércoles 28 de noviembre. Allí mismo, un célebre predicador, John Wesley
(1703-1791), enseñaba que los volcanes y los terremotos no existían antes del
«pecado original».
Pero este tipo de especulaciones ya no pegaban con la Ilustración: la época
retomaba el precepto del viejo Tales y exigía explicar el mundo mediante
mecanismos naturales.
El primero que se atrevió a arriesgar una cifra fue Buffon, de quien ya les
hablé, siguiendo la hipótesis de que la Tierra se había formado a partir de un
pedazo que se había desprendido del Sol. Buffon decidió estimar el tiempo que
habría tardado una esfera del tamaño de la Tierra en enfriarse hasta alcanzar
su temperatura real, y así llegó a la conclusión de que tenía setenta mil años
de edad. Para ser exactos, 74.832 años. La cifra produjo una conmoción: era
difícil creer que la Tierra fuera tan espantosamente vieja (y en realidad, cuentan
las malas lenguas, Buffon había especulado con la espantosa cifra de tres
millones de años, pero finalmente optó por dejar de lado algo tan inaceptable).
Sin embargo, para la Geología de Lyell, cuya hipótesis central
era que los procesos de sedimentación, erosión y cambio geológico eran
extremadamente lentos y que así habían sido a lo largo de toda la historia del
planeta, los setenta y cinco mil años de Buffon resultaban una miseria.
Inspirado por esta obra, el geólogo John Philips (1800-1874), basándose en el
estudio de los estratos rocosos, estimó la edad de la corteza terrestre en nada
menos que noventa y seis millones de años.
Era un verdadero océano de tiempo, pero ya se dibujaba en el horizonte la
teoría de la evolución, y era obvio que los procesos de transformación de las
especies requerían esos grandes períodos. En 1863, el gran físico escocés
William Thompson (1824-1907), conocido como Lord Kelvin, retomando la idea de
Buffon —la Tierra como una bola incandescente que se enfriaba de a poco—, y
afinando los cálculos, confirmó la cifra de Philips: noventa y ocho millones de
años. Con reservas: Kelvin admitía que el cálculo era sólo aproximado. Y
establecía como edad mínima para la Tierra veinte millones de años. Y como edad
máxima, ¡nada menos que doscientos millones!
¿Era mucho? ¿Era poco? ¿Cómo podía saberse? Hacia fines de siglo, el inglés
John Joly (1857-1933) trató de evaluar la edad de los océanos mediante su
contenido en sal —una idea que había propuesto Halley ya en el siglo XVII— y
también la estimó alrededor de noventa y noventa y nueve millones de años,
digamos cien, que se convirtieron casi en un artículo de fe, y los científicos
se aferraron con uñas y dientes a esa cifra. ¡Cien millones de años!
Pero, aunque parezca monstruoso, era poco: hacia principios del siglo XX el
geólogo inglés Arthur Holmes (1890-1965), utilizando los métodos radiactivos
que acababan de descubrirse, hizo una estimación de mil seiscientos
millones años de edad.
Parecía una barbaridad, y sin embargo todavía era poco. El mismo Holmes, más
tarde, mejoró las técnicas de datación, y elevó la edad de la Tierra a cuatro
mil quinientos millones de años, la cifra que manejamos hoy.
Capítulo 23
La luz, el calor, la electricidad
El siglo XVIII, al mismo tiempo que clasificaba el mundo natural e
indagaba sobre su origen, topándose con la desesperación existencial que
acarreaba el descubrimiento del tiempo profundo, no dejó de ocuparse de algunos
fenómenos más terrenales, conocidos desde siempre (o casi), pero sobre cuya
naturaleza no había una teoría firme. Es más: sobre los que no se sabía, en
rigor, prácticamente nada, lo cual podía haber sido angustiante para los
hombres de todas las épocas pero más aún para aquellos que vivían el momento
posterior a la síntesis de la ciencia newtoniana con las ideas de la
Ilustración, uno de cuyos efectos había sido la convicción de que todos los
fenómenos podían y debían someterse a los rigores de una explicación racional.
No es casual, entonces, que muchos de los hombres de ciencia de la época se
volcaran a analizar el calor, la luz y la electricidad, en una exploración que
combinó fuertemente los estudios experimentales con la discusión y la
especulación sobre la naturaleza de los fenómenos estudiados.
¿Qué eran, al fin y al cabo, el calor, la luz o la electricidad?
Vamos a seguir los pasos de quienes intentaron averiguarlo.
La luz: ondas o corpúsculos
§. La teoría corpuscular
No es raro que la luz haya sido concebida primero como un ente material: los
griegos, al fin de cuentas, pensaban en rayos, que se prestaban para ser
descompuestos en corpúsculos. Demócrito y Platón formularon las primeras
teorías «granulares» de la luz, atribuyéndole una naturaleza material. Para
Demócrito, en perfecta sintonía con su teoría atómica, la luz se componía de
partículas que viajaban a velocidad finita —para que nos entendamos, cuando
digo «finita» es por oposición a infinita, es decir, no infinita—, poseían
diferentes formas y orientaciones, y se asociaban entre ellas dando lugar a los
diferentes colores. Para Platón, las partículas luminosas eran macizas, con la
forma de tetraedros de diferentes tamaños; los colores se producían porque
viajaban a distintas velocidades.
Como ustedes recordarán, en el siglo XIII, Robert de Grosseteste, maestro de
Roger Bacon, había elaborado una metafísica del mundo basada en la luz, que,
para él, era la «primera forma corpórea» de la creación, de la cual se había
derivado todo lo demás.
A lo largo del siglo XVII, esta concepción corpórea de la luz se mantuvo: la
compartió Galileo, y el propio Newton, en su poderosa construcción, la imaginó
así, fiel a su concepción atomista y mecanicista. En su Óptica de
1704 (pero escrita mucho antes, ya que esperó a que se muriera Hooke para
publicarla), y en la línea de Demócrito, definió el carácter corpuscular de la
luz: los rayos eran conjuntos de pequeños cuerpos sometidos a las mismas leyes
que todos los demás. Los más pequeños producían los colores violetas y azules;
los más grandes, el verde, el amarillo, el naranja y el rojo. Los fenómenos
conocidos de la luz, como la reflexión y la refracción (el cambio de dirección
de la luz al pasar de un medio a otro, que podemos comprobar cuando sumergimos
una cucharita en un vaso de agua y la vemos doblada) resultaban fáciles de
explicar: la reflexión era una especie de rebote elástico al incidir sobre una
superficie, la refracción consistía en el cambio de trayectoria de los
corpúsculos cuando pasaban del aire al agua, porque el cambio de medio les
hacía cambiar su velocidad.
La composición o unión gravitatoria de los corpúsculos de diferentes colores
producía un nuevo corpúsculo de luz blanca, que se descomponía al pasar por un
prisma debido a los diferentes índices de refracción.
Lo que no quedaba claro era por qué los objetos que emitían esas partículas no
retrocedían, conforme al principio de acción y reacción newtoniano, ni tampoco
cómo era posible que el Sol, que obviamente irradia una gran cantidad de
partículas, no se consumiera con el tiempo.
§. La teoría ondulatoria
Sin embargo, había otra línea de pensamiento: Descartes imaginó que entre la
fuente de luz, el ojo y los objetos había una columna de plenum —es
decir, de materia sutil— a lo largo de la cual podía viajar la luz, ya no
concebida como proyectil ni como un fluido, sino como un movimiento.
La luz era, vista así, sólo una propiedad mecánica del objeto luminoso y del
medio de transmisión.
A mediados del siglo XVII, los dos grandes Roberts ingleses, Boyle y Hooke,
descubrieron el fenómeno de la interferencia: al pasar por una pequeña ranura u
orificio y dar en una pantalla, se observaban franjas alternativas de luz y
oscuridad, cosa que no pegaba para nada con la concepción corpuscular, que no
era suficiente para dar cuenta del fenómeno de interferencia.
Hooke propuso, entonces, una teoría ondulatoria: la luz consiste en rápidas
vibraciones debidas a la agitación del medio. Alrededor de 1690, el gran
astrónomo y físico holandés Christian Huygens, en su Tratado de la Luz,
la describía como
un movimiento de la materia que se encuentra entre nosotros y el cuerpo
luminoso.
Para Huygens, la luz, del mismo modo que el sonido en el aire, se
propaga en el éter, el viejo éter inventado por Aristóteles, que seguía vigente
incluso para Newton y que en manos de Descartes se había transformado en
«materia sutil».
La polémica sobre la naturaleza de la luz se arrastraría durante todo el siglo
XVIII: la teoría corpuscular estaba avalada por la inmensa autoridad de Newton
y llegó a la Tabla de Elementos del propio Lavoisier, en la que figuraba en el
primer puesto, seguida por el calórico (el fuego, el calor), el oxígeno, el
ázoe (nitrógeno) y el hidrógeno; la teoría ondulatoria, fiel a su nombre, no se
quedaba quieta: en 1746, mientras trabajaba en la Academia de Ciencias de
Federico el Grande, en Berlín, Leonhard Euler (1707-1783), uno de los mayores
matemáticos de todos los tiempos, y sin duda el más grande del siglo XVIII,
publicó su Nueva teoría de la luz y el color. Allí explicaba que
los objetos luminosos vibran, y el éter lleva dichas vibraciones al ojo del
mismo modo en que el aire transporta el sonido al oído.
§. Thomas Young y la doble ranura
Pero fue Thomas Young (1773-1829) quien aportó una pieza clave en el
rompecabezas de la luz cuando logró entender el efecto de la interferencia. Así
como en un estanque, cuando se arrojan dos piedras en distintos lugares, las
olas producidas por cada una de las piedras cuando se cruzan entre sí pueden
aumentar su tamaño o bien cancelarse, del mismo modo las ondulaciones del éter,
si se cruzan, pueden o bien fortalecerse o bien debilitarse hasta anularse.
Para demostrar su hipótesis, Young realizó un experimento que lleva su nombre y
también se conoce como el de la doble rendija. Proyectó un rayo de luz a través
de dos rendijas paralelas entre sí. A través de éstas pasaba la luz, se
esparcía e incidía sobre una pantalla donde formaba una imagen consistente en
rayas de luz y sombra: un perfecto ejemplo de interferencia. Young explicó el
fenómeno diciendo que se veía luz en aquellos lugares donde las ondas que
llegaban de las dos rendijas andaban a la par (en fase), llevando el mismo
paso, de manera que los picos de ambas ondas se sumaban. Y se veía oscuridad
(¿se puede ver oscuridad?) donde las ondas de las dos rendijas no llevaban el
mismo paso sino que estaban desfasadas, es decir, el pico de una onda coincidía
con el valle de la otra, de manera tal que se anulaban. No había forma de
explicar el fenómeno si no era mediante una concepción de la luz como una onda.
La teoría corpuscular no podía dar cuenta del fenómeno: dos corpúsculos
que llegaran a un mismo lugar no se podrían aniquilar entre sí. Corpúsculo más
corpúsculo da corpúsculo se vea por donde se lo vea. Pero con la teoría
ondulatoria, onda más onda puede generar tanto luz más potente como oscuridad,
según la forma en que lleguen. La teoría ondulatoria recibía un espaldarazo,
aunque los físicos acérrimamente newtonianos (en especial los británicos) no
podían aceptar la idea de que Newton hubiera podido estar equivocado.
Y lo cierto es que la polémica se prolongó en el siglo XIX. La siguiente
escaramuza estuvo a cargo del ingeniero francés Augustin Fresnel (1788-1827),
que en 1818 hizo una histórica presentación en la Academia de Ciencias de
París, en presencia de los más importantes físicos de la época (Pierre Simon
Laplace entre otros), todos partidarios de la teoría newtoniana. Frente a un
público a todas luces adverso, Fresnel repitió el experimento de Young y mostró
que la teoría ondulatoria podía explicar no sólo la propagación rectilínea de
la luz y los fenómenos de reflexión y refracción sino también los fenómenos de
interferencia y difracción, que eran desviaciones de la propagación en línea
recta. La teoría ondulatoria parecía triunfar de una vez por todas. Pero el
empujón definitivo vendría de un experimento crucial que estaba relacionado con
la velocidad de la luz.
§. La velocidad de la luz
Porque la polémica acerca de la naturaleza de la luz no era la única, lo cual
era lógico dada la importancia del fenómeno para nuestras vidas cotidianas y la
dificultad que acarrea conceptualizarlo y aprehenderlo. El otro gran problema
era el de la medición de su velocidad: ¿se trataba de una magnitud finita o
infinita? No había una respuesta para esta cuestión. Pero, obviamente, en
tiempos en que los fenómenos empezaban a tamizarse y a destilarse en los
laboratorios, ya no alcanzaba con la observación cotidiana para resolver un
problema científico. Acaso por eso, en 1638, Galileo propuso un experimento que
consistía en observar el retraso entre señales efectuadas con linternas desde
dos colinas que se encontraban a un kilómetro de distancia una de la otra. Su
propósito era medir el tiempo que tarda la luz en recorrer dos veces la
distancia entre los experimentadores situados en las colinas. Uno de ellos
destapaba su linterna y el otro, cuando veía la luz, destapaba la suya. El
tiempo transcurrido desde que el primer observador activaba su linterna hasta
que veía la señal procedente del segundo, era el tiempo que tardaba la luz en
recorrer ida y vuelta la distancia entre ambos. El experimento fracasó: el
problema era que la velocidad de la luz es demasiado alta y el tiempo que se
medía era muy pequeño, por lo que Galileo no hubiese podido de ninguna manera
obtener un valor razonable. De modo que el asunto seguía en ascuas.
Pero muy pronto vendría la primera medición de la velocidad de la luz mediante
una idea genial, que para mí es digna de Aristarco de Samos. En 1676, Oleg
Rømer, un astrónomo danés que estudiaba las lunas de Júpiter descubiertas por
Galileo, comprobó que sus eclipses (es decir, los momentos en que los satélites
se ocultan detrás del planeta) a veces se producían con retraso respecto de lo
que fijaban las tablas, en especial cuando la Tierra, en su órbita, estaba del
lado más alejado de Júpiter. Y se le ocurrió que ese retraso se debía al tiempo
que la luz, llevando la imagen de los eclipses, tardaba en cruzar la órbita de
la Tierra.
Utilizando la mejor estimación disponible entonces para el diámetro de
la órbita de la Tierra, y sabiendo el tiempo de retraso, calculó que la
velocidad de la luz debía ser (en unidades modernas) 225.000 kilómetros por
segundo. El resultado es un poco bajo (el valor que tenemos hoy es de 299.792
kilómetros por segundo), pero fue la primera estimación, hecha cuando todavía
no se habían publicado los Principia de Newton y se tenían
unas dimensiones de la órbita de la Tierra para nada precisas. Se trataba de una
verdadera hazaña: había quedado establecido por primera vez sobre bases ciertas
que la luz tiene una velocidad finita, aunque enorme.
¡No era extraño que Galileo no hubiera podido medirla!
§. El triunfo de la teoría ondulatoria
La siguiente estimación se produjo recién casi doscientos años más tarde, a
finales de la década de 1840, cuando el físico francés Armand Hippolyte Fizeau
(1816-1896) realizó, junto con Léon Foucault (1819-1868), la primera medición
directa de la velocidad de la luz mediante un instrumento de laboratorio
diseñado por ellos. No voy a entrar en los detalles del método que utilizaron,
que serían engorrosos, pero sí les cuento que llegaron al valor de 298.000
kilómetros por segundo.
Las técnicas usadas por Fizeau permitieron zanjar de una vez por todas, al
menos por un tiempo, la disputa entre la teoría corpuscular y la ondulatoria.
La primera predecía que la luz viajaba más rápido por el agua que por el aire;
la otra, que era justamente al revés. En 1850, Fizeau demostró que la luz se
desplaza más lentamente en el agua que en el aire.
Es lo que se suele conocer como un experimento crucial, que decide entre dos
teorías rivales: la hipótesis corpuscular cayó derrotada y la ondulatoria
triunfó. Después de todo, la luz resultaba ser una vibración que se propagaba
por el éter, el éter de entonces, desde ya, en el que todos creían.
Poco más tarde, Maxwell demostró matemáticamente de qué clase de ondas se
trataba:
Tenemos poderosas razones para concluir que la luz en sí misma es una
perturbación electromagnética en formas de ondas que se propagan a través del
campo electromagnético según las leyes del electromagnetismo.
La hipótesis sobre la existencia de ondas electromagnéticas fue
verificada por el alemán Heinrich Hertz en 1888. Así pues, la luz no era otra
cosa que ¡una onda electromagnética, campos magnéticos y eléctricos que se
propagaban en el éter!
Era una gran sorpresa, pero el problema de la naturaleza de la luz parecía
estar zanjado.
Y sin embargo, y aunque nadie lo podía sospechar entonces, no estaba dicha la
última palabra, ni sería la última sorpresa.
El calor: sustancia o movimiento
Que por mayo era, por mayo, cuando hace la calor, cuando los trigos
encañan y están los campos en flor.
Romance del prisionero
Tal como ocurría con la luz, en relación con el calor había dos
corrientes principales y en cierto modo parecidas: quienes lo consideraban una
sustancia y quienes pensaban que era una forma de movimiento.
Asociar el calor con el movimiento no es tan insólito como a primera vista
parece: ante fenómenos tan comunes como la agitación de la llama o el
calentamiento de los cuerpos por frotamiento o percusión, uno puede pensar que
es este movimiento el que genera el calor, agitando o separando las partículas
de los cuerpos, provocando su dilatación o, cuando se da con mayor fuerza, su
cambio de estado (como cuando el agua se evapora).
En cuanto a las causas de este movimiento, las opiniones estaban divididas
entre quienes lo atribuían a un origen puramente mecánico y quienes creían que
era provocado por un agente material. Quienes interpretaban la presión que un
gas ejercía sobre las paredes de un recipiente como el resultado del golpeteo
de las partículas del gas sobre estas paredes y comprobaban que, cuando el gas
se calentaba, la presión aumentaba, deducían con facilidad que el calor que se
transmitía al gas calentándolo y el aumento de presión consiguiente se debían a
que las partículas adquirían mayor velocidad (o vibraban más rápidamente),
golpeando las paredes con más frecuencia o fuerza. El hecho no preocupaba
demasiado a quienes veían al calor como una sustancia porque la explicación de
este fenómeno era todavía más simple: al calentarse el recipiente, entraba en
él el calor sustancial, que, como ocupaba espacio, hacía que el gas se
expandiera; al enfriarse el gas, salía ese calórico y, por consiguiente, el gas
se contraía. Como ven, todo se puede explicar si se pone el suficiente empeño.
La concepción movimientista, o cinética, era mayormente sostenida
por los físicos mecanicistas, en especial los más rigurosamente newtonianos,
mientras que los químicos tendían a la idea sustancialista, es
decir, sostenían que había una sustancia específica (los átomos de calor) que
actuaba por su cuenta, penetrando o abandonando los cuerpos.
Cuando se difundió la doctrina del flogisto, muchos pensaron que el
flogisto era la sustancia del calor. El hecho de que no se
pudiera detectar ningún aumento de peso en los materiales calentados era un
problema para la teoría, aunque por momentos se hacía uso y abuso del ejemplo
de los metales calcinados, que sí evidenciaban un aumento de peso. Es
divertido: el aumento de peso de los metales calcinados era una seria objeción
a la teoría del flogisto, pero apuntalaba la teoría sustancialista del calor.
En 1732, el muy influyente Boerhaave, de quien ya hablamos cuando nos ocupamos
de la medicina, publicó unos Elementos de química, donde
consideraba que las partículas de un cuerpo estaban asociadas por fuerzas de
atracción (responsables de su cohesión). Por otra parte, existía el «fuego
elemental», una sustancia distribuida por todo el espacio, compuesta por
partículas sutilísimas, no sometidas a la ley de gravitación, por lo cual
carecían de peso, que al penetrar en los cuerpos oponían, frente a las fuerzas
de cohesión, una acción disgregadora, manteniéndolas en perpetua agitación. Al
ser sustancial, este fuego no se creaba ni se destruía: el calor no era más que
su movimiento vibratorio.
Entre tanto, ya se habían ido distinguiendo las ideas de calor y temperatura y
se habían desarrollado diversos termómetros y escalas termométricas como las de
Fahrenheit (1714), Réaumur (1730) y Celsius (1742), de las cuales la primera y
la tercera (decimal, o mejor centesimal, que fija el 0 en el punto de
congelación del agua y 100 el punto de ebullición) siguen en uso. También se
había desarrollado la idea de calor específico: la cantidad de calor que
necesita una unidad de cualquier sustancia para aumentar un grado su
temperatura.
Las cosas avanzaban a paso firme, pero aún quedaba un rescoldo sustancialista
que tardaría en ser destronado.
§. El calórico
Porque lo cierto es que durante el siglo XVIII, salvo en Inglaterra (donde la
influencia de Newton era absoluta), predominó más o menos la teoría
sustancialista del calor. El propio Lavoisier creía que la «materia del fuego
era un fluido sutil y elástico, capaz de penetrar los poros de todos los cuerpos»,
y le dio el nombre de calórico cuando propuso una nueva
nomenclatura química, al tiempo que le asignó un lugar de privilegio en su
tabla de los elementos como uno de los ladrillos básicos de la química y la
materia. No deja de ser interesante señalar que así como Lavoisier había
rechazado la existencia del flogisto, en gran parte por su índole metafísica y
por carecer de peso, aceptó esas propiedades en el caso del calórico, lo cual
muestra que las teorías científicas (y los científicos) no necesariamente son
coherentes por completo.
Así, para la nueva química de Lavoisier, el calórico era una sustancia
imponderable, sin peso, que fluía de un cuerpo a otro silenciosamente
provocando cambios de temperatura. Pero seguía teniendo algunos pequeños
inconvenientes: los casos de producción de calor mediante frotamiento, por
ejemplo, eran mejor explicados por la teoría cinética: al poner en contacto un
cuerpo caliente con otro frío, sus moléculas, animadas de rápido movimiento,
chocaban con las del objeto frío, que se movían más lentamente; como
consecuencia de ello, las moléculas rápidas perdían velocidad y las lentas se
aceleraban un poco, con lo cual fluía calor del cuerpo caliente al frío.
Fíjense que toda esta discusión se dio sin que nadie tuviera la menor idea o
prueba sobre la existencia de los átomos…
§. Rumford: el fin del calórico y el triunfo de la teoría cinética
El conde Rumford se llamaba en realidad Benjamin Thompson. Había nacido en 1753
en Massachusetts, en lo que todavía no eran los EE.UU., y su vida fue la de un
aventurero inventivo, audaz, y nada escrupuloso: a los diecinueve años contrajo
matrimonio con una viuda rica de treinta y tres en la ciudad de Concord, Nueva
Hampshire, región también conocida como Rumford, con lo cual arregló sus
problemas económicos.
Estallaba la Revolución Norteamericana, y Rumford colaboró con los británicos
aunque, cuando las cosas pintaron mal, huyó a Europa, plantando a su mujer y a
sus hijos, a los que nunca volvió a ver.
Después de varias peripecias, pasó a formar parte de la corte del elector de
Baviera, donde dirigió una serie de experimentos sobre las propiedades de la
seda, importante producto durante aquella época. En 1792, el elector le dio el
título de conde. Y, más tarde, se casó con la viuda de Lavoisier (después de
que a Antoine Laurent le cortaran la cabeza durante la Revolución), con quien
protagonizó una relación tortuosa y tormentosa cuyas peleas eran la comidilla
de París. No era un tipo muy simpático, y cuando en 1814 se murió a causa de una
«fiebre nerviosa» (fuera esto lo que fuere), muy poca gente asistió a su
entierro.
Pero más allá de las idas y vueltas de la vida de Rumford y de sus andanzas
(¿cómo decirlo de manera elegante?) éticamente cuestionables, hizo un serio
aporte a la teoría cinética. El más importante de sus experimentos estuvo
relacionado, justamente, con la naturaleza del calor. Cuando supervisaba el
arsenal de Baviera, donde los cañones se fabricaban taladrando un molde de
metal, observó que se producía un aumento de temperatura en la estructura del
cañón, en las virutas metálicas, pero también en la propia mecha o taladrador,
de modo que parecía generarse calor continuamente en lugar de conservarse, como
predecía la teoría del fluido calórico. Los partidarios de la teoría del
calórico no se conmovieron, desde ya: contestaron que era porque el taladro
rompía en pedazos el metal, dejando que el calórico contenido en éste fluyese
hacia afuera, como el agua de un jarrón roto.
A Rumford no lo satisfacía la explicación, por lo cual hizo una serie de
experimentos. En uno de ellos utilizó mechas desafiladas, de modo tal que el
taladro giraba sin hacer mella sobre el metal ni desprender virutas. Y resultó
que se producía tanto calor como si se utilizara una mecha nueva.
El calórico, entonces, no se desprendía por la rotura del metal y quizá no
procediese siquiera de éste, lo cual resultaba completamente lógico si se
corroboraba que, inicialmente, el metal estaba frío.
Para medir el calórico, Rumford observó cuánto se calentaba el agua utilizada
para refrigerar el taladro y el cañón, y llegó a la conclusión de que si todo
ese calórico se reintegrara al metal, el cañón debería fundirse, o sea que no
podía haber estado allí desde el principio. Entonces pensó que el calor no
podía ser una sustancia material y que más bien parecía ser el resultado del
rozamiento o del trabajo realizado por las fuerzas de rozamiento.
Además, había un hecho incontestable: la fuente de calor parecía ser
inagotable; bastaba que el taladro horadase continuamente el cañón para que
éste se siguiera calentando eternamente.
Todo aquello que un cuerpo o sustancia puede continuar suministrando sin
limitación no puede ser una sustancia natural, y me parece extremadamente
difícil, si no imposible, imaginar algo capaz de producirse y comunicarse como
el calor en estos experimentos a no ser el movimiento.
Rumford se convenció de que había demostrado que el calor no era un
fluido, sino una forma de movimiento. A medida que el taladro rozaba contra el
metal, su movimiento se convertía en rápidos y pequeñísimos movimientos de las
partículas que constituían el bronce.
Igual daba que el taladro cortara o no el metal: el calor provenía de esos
pequeñísimos y rápidos movimientos de las partículas, y, como es natural,
seguía produciéndose siempre y cuando girara el taladro. La producción de calor
no tenía nada que ver con ningún calórico que pudiera haber o dejar de haber en
el metal.
Los experimentos de Rumford no tuvieron la repercusión que merecían y, además,
se levantaba frente a la teoría cinética la enorme autoridad de Lavoisier. De
modo que el calórico duró hasta mediados del siglo XIX, cuando Maxwell (y
fíjense que ya es la segunda vez que lo nombro; la primera fue hace sólo unas
páginas, en relación con la naturaleza de la luz), ya con la teoría atómica
medio afirmada, mostró matemáticamente cómo las partículas del gas, moviéndose
al azar, creaban una presión contra las paredes del recipiente que lo contenía.
Además, esa presión variaba al comprimir las partículas o al dejar que se
expandieran. La teoría cinética de Maxwell era aplicable tanto a líquidos y sólidos
como a gases. En un sólido, por ejemplo, las moléculas no volaban de acá para
allá como proyectiles, que es lo que sucedía en un gas, pero en cambio podían
vibrar en torno de un punto fijo. La velocidad de esta vibración, lo mismo que
las moléculas proyectiles de los gases, obedecía a las ecuaciones de Maxwell.
La teoría cinética, finalmente, triunfaba, y el calórico se sumergió en el
abismo de las sustancias que nunca existieron.
La electricidad
Si se me pregunta cuál puede ser la utilidad de los fenómenos
eléctricos, no puedo responder otra cosa sino que, hasta el presente, no hemos
avanzado lo suficiente como para lograr que sean útiles al género humano.
SIR WILLIAM WATSON, 1746
§. Prehistoria
Hay muy pocas cosas más presentes en nuestra vida que la electricidad; vivimos
rodeados de enchufes y aparatos y cuando nos falta nos sentimos perdidos. Pero
la revolución eléctrica es muy reciente: hasta hace tan sólo un siglo y medio,
el mundo vivía a pura vela, sebo y otras porquerías. Y eso que la electricidad
estuvo siempre a la vista; sin ir más lejos, el trueno y el relámpago son
fenómenos eléctricos. Pero es muy difícil, realmente muy difícil, darse cuenta
de que el rayo se produce mediante el mismo mecanismo que el que se observa
cuando al frotar un pedazo de plástico éste atrae pequeños pedazos de papel.
Por eso es lógico que meter la electricidad en un cable y hacerla circular
llevara milenios.
Tales de Mileto, nuestro viejo amigo que nos acompaña desde el primer capítulo,
no tenía ni plástico ni papel, pero sí notó que el ámbar (una sustancia
resinosa), después de ser frotada, atraía pajillas, plumas y otros objetos
livianos. Como la palabra griega que designa al ámbar es «elektron», el
buen Tales llamó «eléctrica» a esta fuerza misteriosa y conjeturó que era de la
misma naturaleza que la fuerza que arrastra pedacitos de hierro hacia la piedra
imán. No era raro que se le ocurriera, puesto que el efecto de tracción del
magnetismo es realmente parecido, y durante mucho tiempo se pensó efectivamente
que la fuerza eléctrica y el magnetismo eran semejantes.
Así empezó la electricidad en el mundo antiguo.
No hay ninguna evidencia de que se usara para algo práctico, salvo que las
mujeres griegas decoraban sus rizadores de cabello con piezas de ámbar: cuando
los rizadores eran electrificados por frotamiento, se producían curiosos
fenómenos en el pelo. Si uno piensa en el papel que la electricidad habría de
jugar en el mundo, no es demasiado…
§. Los efluvios eléctricos de Gilbert
Desde Tales hasta que se hizo el siguiente descubrimiento en el campo de la
electricidad pasaron solamente dos mil años, y fue William Gilbert, el gran
investigador del magnetismo, quien retomó el hilo (o el cable, digamos, aunque
nadie soñaba con tales cosas en el siglo XVII). Lo primero que hizo fue
distinguir los fenómenos eléctricos de los magnéticos: sólo por poner algunos
ejemplos, la atracción magnética no necesita frotamiento para producirse,
atraviesa una hoja de papel y sobrevive a la inmersión en agua, mientras que la
fuerza eléctrica es destruida mediante la interposición de una mera pantalla.
De este modo, para las sustancias que se comportaban como el ámbar —el vidrio,
el azufre, o la cera— (y exclusivamente para ellas) acuñó el término
«eléctricas»; poco después, Thomas Browne, también médico y escritor, inventó
la palabra «electricidad».
Como ya conté en su momento, en el año 1600 Gilbert publicó el resultado de sus
investigaciones en su famoso De Magnete. Pero no se limitó a
describir sus experimentos y fue un poco más allá al elaborar una teoría sobre
la naturaleza de la electricidad de corte sustancialista: bien acorde a la
época, Gilbert pensó que la electricidad se debía a algo que bajo la fricción se
liberaba del ámbar o del vidrio.
¿Pero qué podía ser? Gilbert era médico e, inspirado por la teoría de los
humores, pensó que la fuerza o «virtud» eléctrica era algo parecido a un
«humor» que existía en determinados cuerpos. La fricción, al calentarlos, los
liberaba y se desprendía en forma de «efluvio» o «emanación».
¿De qué otra manera podía producirse la atracción entre cuerpos electrificados
si no era por la atmósfera de efluvios que los rodeaba? Gilbert era un hombre
de su tiempo y todavía no se hablaba de «acción a distancia»: si un cuerpo
actúa sobre los demás por medio de una fuerza invisible, algo invisible debe
rodearlo: parecía obvio entonces. Ése era el modo de razonar de un hombre de la
época. Los efluvios que salían del cuerpo al ser frotado tenían una tendencia
inherente a volver al cuerpo de origen y al hacerlo arrastraban consigo los
pequeños objetos que quedaban a su alcance.
Fue la explicación que se impuso, y cuando medio siglo más tarde se descubrió
que la electricidad podía producir rechazo y no sólo atracción, los efluvios de
Gilbert se habían convertido en artículo corriente. Ni siquiera la teoría de la
gravitación de Newton, que consagraba el principio de acción a distancia, había
podido conmoverlos. Los «efluvios eléctricos» estaban firmemente arraigados y
lo estarían por mucho tiempo más.
Pero efluvio va, efluvio viene, igual aparecían novedades: Otto von Guericke,
burgomaestre de Magdeburgo, el mismo que había hecho el famoso experimento de
los hemisferios para demostrar la existencia del vacío, inventó la primera
«máquina eléctrica» de que se tuviera noticias: aprovechando los «efluvios» que
producía el rozamiento, hizo girar un disco entre dos escobillas, lo cual hacía
saltar una chispa. La máquina eléctrica se convirtió en un juego de sociedad.
En 1745, el científico danés Musschenbroek, de Leyden, consiguió «embotellar»
—literalmente— los efluvios eléctricos. En realidad, inventó el primer
condensador: la botella de Leyden, capaz de almacenar suficiente cantidad de
electricidad como para producir una sensible descarga a quien la tocase estando
cargada.
Poco antes había habido una noticia importante: la electricidad podía ser
conducida. Esto sí que era una gran novedad. A nosotros, acostumbrados a los
cables, nos puede parecer extraña la sorpresa que produjo, pero resultaba
insólito que un delgado hilo pudiera llevar la electricidad de un cuerpo a
otro.
No sólo era asombroso sino que complicaba las cosas para la teoría de los
efluvios. Mientras la electricidad atrajera pequeños objetos, o fuera
embotellada o no hiciera más que producir chispas, la explicación de Gilbert
podía pasar. Pero los efluvios no eran lo más apropiado para ser conducidos de
un cuerpo a otro: la misma idea de emanación tiende a la quietud y no al
transporte. Tras el descubrimiento de la conducción, los efluvios dejaron de
ser buen negocio y cayeron lentamente en decadencia.
Empezaban los tiempos del fluido eléctrico.
§. El fluido eléctrico
Desde hace un tiempo, soy de la opinión de que el fluido eléctrico no se
crea por fricción, sino que es recolectado, siendo en realidad un elemento
difuso atraído por otro tipo de materia, particularmente por el agua y los
metales,
escribió en 1747 Benjamin Franklin.
En realidad, desde el descubrimiento de la conducción eléctrica, los efluvios
estaban de capa caída y empezó a imponerse la idea de que la electricidad era
un fluido, algo así como un impalpable e invisible líquido de materia sutil,
semejante, digamos, al calórico, al flogisto o a cualquiera de esas sustancias
que nunca existieron. Los partidarios de los efluvios, a regañadientes, se
batieron en retirada, aunque en 1733 un informe de la Académie
Française señalaba que
alrededor de un cuerpo electrificado se forma un vórtice de materia
extraordinariamente sutil en un estado de agitación, que arrastra hacia él las
sustancias livianas que están dentro de su esfera de actividad.
Un vórtice cartesiano, claro está.
Los efluvios estaban terminados, pero enseguida apareció otro tema de
controversia gracias a (o por culpa de) el investigador Charles François Du Fay
(1698-1739), que a través de sus experimentos llegó a la sorprendente
conclusión de que en realidad existían no una sino dos clases de electricidad:
una que llamó «vítrea» y otra «resinosa».
Hay dos electricidades de naturaleza completamente diferente. Cada una
de ellas repele a los cuerpos que contrajeron electricidad de la misma
naturaleza y atrae a los cuerpos que tienen electricidad de naturaleza opuesta.
No todos compartían la hipótesis de las dos electricidades. En 1746, el
farmacéutico inglés William Watson sugirió que las acciones eléctricas se
debían a la presencia de un «éter eléctrico» que en el cargarse y descargarse
de un cuerpo se transfiere, pero no se crea ni se destruye. Para Watson, la
excitación de un conductor no consiste sino en la acumulación de un excedente
del éter eléctrico a expensas de algún otro cuerpo, cuyo stock disminuye en la
misma cantidad.
Más o menos al mismo tiempo, el primer gran hombre de ciencia norteamericano,
Benjamin Franklin (1706-1790), en la misma línea de pensamiento, proponía una
cosa parecida: la cantidad total de electricidad en un sistema aislado es
invariable (principio de conservación de la carga), y en realidad hay un
solo tipo de electricidad. Para Franklin, la única electricidad que
existe es «la electricidad vítrea» de Du Fay; la otra, la «electricidad
resinosa», es una ficción, es simplemente la falta de fluido eléctrico.
Franklin asignó un signo positivo a la «electricidad vítrea», y un signo
negativo a la falta de electricidad. Se imaginaba a la electricidad como un
fluido elástico, compuesto por
partículas extremadamente sutiles, dado que pueden permear la materia
común y aun los más densos metales, con tanta facilidad que no se percibe
ninguna resistencia.
Naturalmente, los experimentos más conocidos de Franklin fueron sus
trabajos sobre la electricidad atmosférica: se tomó muy en serio la sugerencia,
hecha por el profesor J. H. Winkler de Leipzig, quien sostenía que la descarga
de una botella de Leyden y el trueno y el relámpago eran básicamente uno y el
mismo fenómeno. Pensó (y no fue el primero) que el rayo era meramente una
descarga eléctrica entre dos objetos con diferente potencial, como las nubes y
la tierra, y observó que el rayo tendía a alcanzar edificios altos y árboles,
lo cual le dio la idea de atraer el fluido eléctrico deliberadamente a la
tierra de un modo que la descarga no produjera daños. Vale la pena insistir en
que no era una asociación de ideas fácil.
A comienzos de 1747, Franklin escribía
Si el fuego eléctrico y el de los rayos es el mismo, como he tratado de
demostrar, y admitiendo esta suposición, me pregunto si el conocimiento del
poder de las puntas no podría beneficiar a los hombres para preservar las
casas, las iglesias, los buques, etcétera, contra los golpes del rayo, fijando
perpendicularmente sobre las partes más elevadas de los edificios, barras de
hierro en forma de aguja y doradas para prevenir la herrumbre y al pie de esas
barras un alambre que llegue hasta los cimientos de la tierra. ¿No atraerían
esas barras de hierro, en silencio, el fuego eléctrico de la nube antes de que
ésta pueda aproximarse para dar el golpe? ¿Y no podríamos, por esos medios,
precavernos de tantos desastres repentinos y terribles?
La cita tiene la forma, para nosotros, de una adivinanza, cuya respuesta
está a la vista: el pararrayos.
Es bien conocido su experimento decisivo. En 1752 remontó un barrilete en medio
de una tormenta. El barrilete tenía en su extremo superior un alambre terminado
en punta, que mediante un hilo de seda estaba conectado a una llave de metal
cerca del extremo que sostenía Franklin. En plena tormenta, acercó la mano a la
llave y saltó una chispa, con lo cual quedaba claro que efectivamente el hilo
transmitía electricidad del cielo a la llave. Más tarde pudo incluso cargar una
botella de Leyden, demostrando así que las nubes realmente estaban cargadas
eléctricamente. Y desde ese momento la barra de Franklin (que conducía las
descargas pacíficamente a tierra) empezó a extenderse sistemáticamente. El
primer pararrayos fue construido, según las instrucciones de Franklin, por
Johann Heinrich Winkler.
Obviamente, como toda innovación tecnológica, el pararrayos tuvo sus
resistencias (¡recuerden la resistencia que hubo a usar microscopios!), que se
centraron en argumentos del tipo: «Si el rayo es un castigo de Dios para los
impíos, ¿cómo puede el hombre interferir en él?». Pero parece que no había
impíos desempeñando funciones públicas en Filadelfia, al menos, porque para
1782 había ya 400 pararrayos protegiendo prácticamente todos los edificios
públicos. La excepción era la embajada francesa, que ese mismo año fue
alcanzada por un rayo que provocó la muerte de uno de sus funcionarios. Tras lo
cual, como es lógico, se apresuraron a instalar la barra de Franklin.
A todo esto, uno de sus discípulos, Franz Aepinus (1724-1802), terminó para
siempre con los remanentes de la teoría de los efluvios y abordó el meollo de
la cuestión: la acción a distancia. Aepinus estableció que la acción de las
fuerzas eléctricas se ejercía efectivamente a distancia a través del aire y
aplicó sus teorías al fenómeno de la inducción, mediante el cual un cuerpo
cargado próximo a uno conductor, pero sin contacto con él, se cargaba, él
también, eléctricamente.
También buscó —y no encontró— la ley que gobernaba esas fuerzas eléctricas; ese
honor le estaba reservado al químico Joseph Priestley —el mismo que ya vimos
descubriendo el oxígeno—, que en 1767 sugirió que la fuerza eléctrica debía
obedecer a una ley parecida a la de la gravitación. La hipótesis fue confirmada
experimentalmente en 1785 por el físico francés Charles Auguste de Coulomb, y
hoy la ley que rige la fuerza eléctrica lleva su nombre: las cargas eléctricas
se atraen o rechazan con fuerzas inversamente proporcionales al cuadrado de la
distancia que las separa.
Con la ley de conservación de la carga, la teoría del fluido único, la ley de
Coulomb y la aceptación de la acción a distancia, a fines del siglo XVIII y
principios del XIX el estudio de la electricidad había avanzado bastante,
aunque no se tuviera aún —y no se tendría por mucho tiempo— una idea acabada
sobre su naturaleza.
Pero, como ya había enseñado Newton, imperaba el «yo no formulo hipótesis». Se
trataba de descripciones más o menos empíricas, que muchas veces producían
aplicaciones sensacionales como el pararrayos.
§. La rana de Galvani y la pila de Volta
Usamos con cierta frecuencia la palabra «galvanizar», que se remonta a los
primeros tiempos de las investigaciones en el campo de la electricidad. La
leyenda cuenta que un día del año 1780 Luigi Galvani, profesor de medicina en
la Universidad de Bolonia, estaba en su casa dando una clase a sus estudiantes,
mientras su esposa preparaba en la cocina el manjar favorito del profesor:
ranas. La signora Galvani, demasiado atenta a las
explicaciones de su marido, dejó escapar el escalpelo, que cayó sobre el muslo
de la rana, tocando la base de zinc al mismo tiempo. La rana —muerta, claro
está— se agitó violentamente, como si quisiera saltar del plato.
La Signora gritó. El Professore, indignado por la
interrupción, irrumpió en la cocina para ver qué pasaba. La Signora le
contó la historia y, para probarla, dejó caer el escalpelo sobre la rana, que
nuevamente saltó contrayendo sus músculos muertos. Allí mismo, en el medio de
la cocina, Galvani proclamó: «He hecho un gran descubrimiento: ¡la electricidad
animal, fuente primaria de la vida!». Es una leyenda, sí, probablemente falsa,
pero la historia de la ciencia se alimenta también de la leyenda y de la
sustancia de los mitos.
Unos años más tarde, Galvani, además de interminables peroratas y
demostraciones públicas sobre «la electricidad animal», escribió un tratado con
un indigerible nombre en latín donde exponía sus teorías. Según él los tejidos
animales contenían una fuerza eléctrica innata (la famosa «electricidad
animal») que alimentaba a los músculos y a los nervios y salía a la luz cuando
éstos eran tocados por objetos de metal. Pensó también que esa «electricidad
animal» era una especie de «espíritu vital» que animaba a los seres vivos y
creyó haber encontrado la esencia de la vida. Pegaba bien con las teorías
vitalistas en boga: finalmente, se había descubierto que la electricidad era la
escurridiza «fuerza vital».
La electricidad animal y las ranas contracturadas de Galvani hicieron furor. No
había salón donde no se hablara del tema y los aristócratas se precipitaban al
laboratorio para ver a las ranas muertas contraerse bajo la acción de unas
pinzas de metal. La palabra «galvanizar» nos recuerda aquellas aventuras y la
electricidad como «chispa de la vida» se reflejó también en la literatura, como
lo testimonia el Frankenstein, de Mary Shelley.
Los puntos de vista de Galvani y sus teorías sobre la electricidad animal
fueron aceptados casi universalmente, con una importante excepción: Alessandro
Volta, el notable profesor de física de la Universidad de Pavia. Volta sostenía
que en el experimento de Galvani no había ningún tipo de electricidad animal ni
nada que se le pareciera. Más aún: para Volta, las infelices ranas no jugaban
ningún papel, salvo el de conductores de la electricidad, de una leve corriente
eléctrica que se producía al entrar en contacto dos metales diferentes (como el
cuchillo de hierro y el plato de zinc de la signora Galvani).
Era mucho decir, y se desató una virulenta polémica.
Galvani murió en 1790 y recién diez años después Volta pudo demostrar de manera
concluyente que, efectivamente, cuando dos metales diferentes entran en
contacto se genera un flujo de corriente eléctrica. Recortó discos de
diferentes metales, y los apiló unos sobre otros, separándolos por capas de
fieltro embebidas en ácido: las diferencias de potencial generadas entre disco
y disco se acumularon y la «pila» produjo un flujo eléctrico firme y constante.
Volta no sólo había demostrado tener razón en la polémica con Galvani, sino que
había hecho mucho más: había construido la primera fuente permanente de
electricidad (aunque, en realidad, se equivocaba cuando explicaba el modo de
funcionamiento, puesto que la corriente eléctrica entre los dos metales no se
debe al contacto sino al fenómeno de electrólisis —es decir, de separación de
los elementos de un compuesto— del medio que los separa).
Gracias a ese descubrimiento (o invento, vaya uno a saber), Volta revolucionó
completamente la investigación eléctrica: a partir de entonces, los
investigadores disponían por primera vez de fuentes permanentes de corriente
eléctrica. No es de sorprender, entonces, que la investigación eléctrica se
intensificara. El siguiente gran salto, que habría de encaminar los estudios
eléctricos hacia la concepción moderna y hacia la revolución eléctrica, iba a
ser responsabilidad de un físico danés: Hans Cristian Oersted.
§. Oersted y Faraday
Aunque yo pudiera ser Shakespeare, pienso que igual preferiría seguir
siendo Faraday.
ALDOUS HUXLEY
Muchos años más tarde, ya en la cumbre de su fama, Michael Faraday
recordaría aquella remota tarde en que un cliente de la librería lo invitó a
escuchar una conferencia de Humphry Davy (1778-1829). Según él mismo contó
después, fue la conferencia de Davy la que lo decidió a dedicarse a la ciencia.
Pero la historia, como tantas otras, empieza antes y (¡otra vez!) con una
leyenda. Y es así: un día cualquiera de 1819, el físico danés Hans Christian
Oersted estaba dando clase en la Universidad de Kiel (ahora Alemania, entonces
Dinamarca) y, durante un experimento, un alambre por el cual circulaba
electricidad se deslizó de su mano y cayó sobre una brújula que estaba
casualmente sobre la mesa. Al recoger el alambre vio que la aguja de la brújula
se había desviado. Cortó la corriente, y la brújula volvió a su posición
normal, apuntando hacia el Norte. Era evidente que la corriente eléctrica tenía
algún tipo de efecto magnético que había hecho desviar la brújula.
Naturalmente, las cosas no fueron exactamente así: en realidad hacía muchos
años que Oersted estaba experimentando —sin éxito— sobre los efectos magnéticos
de la electricidad. Más aún: durante el siglo XVIII muchos físicos habían
especulado sobre las conexiones entre el magnetismo y la electricidad, fenómenos
que Gilbert había separado radicalmente en el siglo anterior. Sin embargo,
algunas observaciones casuales habían mostrado que el rayo actúa sobre la
brújula. Además, estaba el hecho de que la ley que regía las fuerzas eléctricas
era idéntica a la que gobernaba los polos magnéticos y muchos pensaban que no
podía tratarse de una casualidad y que debía haber alguna relación profunda
entre ambos fenómenos. Oersted era uno de ellos. También seguían una de las
grandes corrientes de la época, la Naturphilosophie (filosofía
de la naturaleza), que, con indudables tintes del romanticismo, imaginaba al
mundo como un todo más o menos orgánico, y postulaba la unidad de todas las
fuerzas.
Pero siempre —o casi siempre— es preferible la leyenda. Apenas Oersted anunció
el descubrimiento, se produjo un fuerte impacto entre los físicos: la
vinculación entre electricidad y magnetismo tenía un atractivo poderoso. Nadie
se imaginaba cuán poderoso, en realidad.
En seguida empezaron las pruebas y los experimentos. El inglés Sturgeon arrolló
una espira alrededor de una barra de hierro corriente y vio que, mientras la
corriente circulaba, la barra de hierro se convertía nada menos que en un imán.
Y así nació el electroimán, que abrió el camino del telégrafo y —más tarde— del
teléfono. En Francia, Ampère —que daría su nombre a la unidad de corriente
eléctrica— afinaba las observaciones de Oersted y estudiaba la atracción
recíproca de dos corrientes eléctricas entre sí.
Pero faltaba todavía una conexión para que este primer ciclo de la
investigación en electricidad se cerrara, y fue entonces cuando apareció
Michael Faraday, escuchando la conferencia de Davy (quien, entre otras cosas,
desentrañó el fenómeno de la electrólisis, que era la verdadera explicación del
funcionamiento de la pila de Volta).
Faraday había nacido en 1791 cerca de Londres; su familia era muy modesta y su
educación, como él mismo contó,
fue del tipo más corriente: los rudimentos de lectura, escritura y
aritmética en una escuela diurna común. Las horas fuera de la escuela las
pasaba en mi casa y en las calles.
Es decir, nada de estudios superiores. Pero desde muy joven empezó a
trabajar en la casa de un librero y a adquirir cultura por su cuenta. Fue allí
donde un cliente lo invitó a la conferencia de Davy. Faraday plantó la librería
y se las arregló para que Davy lo tomara como asistente. Tenía entonces
veintidós años y no podía haber encontrado un maestro mejor. Junto a Davy se
empapó de las técnicas de laboratorio que, una vez que empezó a experimentar
por su cuenta, rindieron excelentísimos frutos: desde un método para licuar
gases o el descubrimiento del benceno hasta un mejoramiento de las leyes de la
electrólisis de su maestro. En su estudio del magnetismo, introdujo la idea de
líneas de fuerza y el fructífero concepto de campo magnético. Paso a paso, se iba
aproximando a su descubrimiento capital.
Ya era un hecho constatado que la corriente eléctrica producía un campo
magnético. Faraday invirtió el problema y, puesto que la electricidad producía
magnetismo, se preguntó si no sería posible que el magnetismo generara
electricidad.
Arrolló una espira alrededor de una barra de hierro, y la situó frente a una
segunda espira. Al circular la corriente por la primera espira, esperaba que la
barra, transformada en imán, indujera una corriente en la segunda espira.
Pero no pasaba nada. Es verdad que al encender la corriente en la primera
espira se producía una corriente en la segunda, pero duraba sólo un instante y
desaparecía. También al cortar la electricidad que imantaba la barra volvía a
aparecer una breve corriente en la segunda espira. Pero sólo eso. Faraday no
lograba producir una corriente continua en la segunda espira y tardó en dar con
la clave del asunto.
Y la clave del asunto es que un campo magnético no produce ninguna
corriente eléctrica. Para que se produzca una corriente eléctrica el campo
magnético tiene que variar o moverse. Al prender o apagar la
corriente, el campo magnético variaba y aparecían breves corrientes en la
segunda espira. Mientras el campo magnético permanecía invariable, nada. Pero
Faraday tardó en darse cuenta. Recién el 28 de octubre de 1831, haciendo rotar
una espira en un campo magnético, logró producir una corriente eléctrica
permanente. Había descubierto la inducción eléctrica (que nada
tiene que ver con la inducción como método de conocimiento, de la cual hemos
hablado tanto).
Fue un descubrimiento feliz. Por empezar, cerró el circuito: así como la
electricidad induce magnetismo, el magnetismo induce electricidad. Pero además,
en la inducción estaba implícita una manera directa y práctica de generar
electricidad: hacer girar un conductor en un campo magnético. Llevaría aún
cuarenta años implementarla.
Faraday está en la base del mundo moderno. Con él, la electricidad y el
magnetismo, los dos campos que Gilbert había separado hacía ciento cincuenta
años, volvían a juntarse y a mostrar su íntima conexión e interdependencia.
Sólo faltaba que alguien tradujera esa conexión en el lenguaje de las
matemáticas, en una síntesis genial. Faraday no había resuelto el problema de
qué es la electricidad. Esa tarea quedaría para fines del siglo XIX, y la
respuesta habría de ser, en verdad, muy sorprendente. Y vendría de la mano,
otra vez, de Maxwell, el responsable de la resolución de los tres misterios: la
luz, el calor y el electromagnetismo.
Capítulo 24
La forma del cielo y la filosofía natural
«El siglo XVIII aspiraba a la unidad. Para quien supiera abarcarlo con
una sola mirada, el universo sería un hecho único y una gran verdad», escribía
D’Alembert en el «Discurso Preliminar» de la Encyclopédie. Un hecho único, un
mecanismo unificado, desde ya, gracias al racionalismo y a la clasificación,
que culminaron en el ordenamiento del mundo natural gracias a la nomenclatura
universal de Linneo, en la puesta en marcha de la química por Lavoisier, en la
elaboración de una teoría de la electricidad.
Pero al mismo tiempo el siglo XVIII fue testigo de una separación fundamental:
en primer lugar, la de la ciencia y la filosofía, pero, como consecuencia de
ello, la de todas las disciplinas particulares. Si antes no se concebía una
rama de la ciencia sino como una parte de un sistema filosófico general, ahora
cada una se arrastraba solapadamente tratando de fortalecer su impulso interno
hacia la autonomía. La masa de datos científicos cosechados por la ciencia
experimental había sido tan grande que el iceberg gigantesco que tenía en su
base a la metafísica, como postulaba Descartes, no podía sino partirse, aunque
ninguno de los que pasaron a ocuparse de los múltiples fragmentos pudiera
realmente dejar de dar un vistazo en lo profundo para averiguar qué había oculto
bajo el agua, buscando un empujoncito metafísico-filosófico que justificara lo
que estaba haciendo. Las leyes impersonales que habían sustituido a la Fe eran
las que garantizaban la capacidad de flotar del iceberg, pero el secreto de las
mismas permanecía enterrado.
Aunque el siglo XVIII hipostasió la razón hasta el punto de estar próximo a
perderla, como leí en algún sitio, el espíritu continuaba siendo absolutamente
optimista: todo se arreglaría, todo se solucionaría. Si algo no se resolvía,
sólo era cuestión de esperar: la idea de progreso, que eclosionaría con toda su
furia en el siglo siguiente, se fortalecía al fragmentarse el conocimiento en
especialidades. Ya no se trataba de grandes sistemas globales que luchaban
entre sí, sino que las posturas empezaban a plantearse dentro de las
disciplinas: vitalistas contra mecanicistas, neptunistas contra plutonistas,
partidarios del fluido eléctrico único contra los que creían en las dos
electricidades, sustancialistas contra cinéticos acerca de la naturaleza de la
luz y el calor, defensores y detractores del flogisto.
Hubo también un doble movimiento en relación con el papel del hombre, tanto en
la naturaleza como en la sociedad: si bien por un lado el universo se había
sometido a la razón humana y el hombre —el individuo— había empezado a
concebirse como el actor central del mundo, la sociedad y la ciencia, al mismo
tiempo la percepción de su importancia real en el maremágnum
de la naturaleza se debilitaba o, mejor dicho, se adecuaba a la verdadera
dimensión que tiene: poca. Pero esa poca importancia no resultaba aplastante ni
abrumadora, porque tenía como contrapeso a las poderosas armas de la razón triunfante:
estamos en pleno tránsito del barroco al neoclasicismo.
Mientras tanto, los barcos de esclavos seguían cruzando los mares, los
habitantes originarios de América morían como moscas en el fondo de las minas,
y los telares de Manchester imponían al mundo sus mercancías y una nueva forma
de colonialismo.
Este doble sentimiento de omnipotencia por la racionalidad alcanzada y de
inferioridad por la insignificancia de la posición del hombre en la totalidad
del universo empezó, como siempre ocurre, por el cielo. Los mecanicistas de la
época demostraron la omnipresencia de la ley de la gravitación en todos los rincones
del sistema solar y, con el eficaz instrumento del análisis matemático,
lograron hacer previsibles las más lejanas consecuencias de las leyes mecánicas
conocidas. Por un momento, hacia 1780, su éxito podía dejar la impresión de que
la astronomía, donde todo parecía haberse vuelto calculable, estaba terminada.
Los grandes teóricos como Laplace y Lagrange elaboraron ad nauseam la
mecánica celeste, afinando los elementos y técnicas matemáticas legados del
siglo anterior, y desarrollando nuevos métodos cuando fue necesario, en un
esfuerzo verdaderamente titánico. Pero aunque algunos resultados implicaban
tranquilidad —Laplace probó la estabilidad del Sistema Solar, por ejemplo—, el
gigantesco caudal teórico no agregó verdaderas novedades.
Era necesario, en ese punto, alejarse un tanto de la teoría y ponerse a mirar
el cielo. Y así, el nuevo impulso vendría de la astronomía observacional.
§. William Herschel
Herschel nació en 1738 en Hannover, que entonces era un principado electoral
del Sacro Imperio Romano Germánico y que más tarde se incorporaría a Alemania.
Hijo de un músico sin recursos, llegó a Inglaterra a los 18 años de edad como
oboísta de las guardias hannoverianas. Como no le gustaba el servicio de las
armas, ni siquiera como músico, abandonó el regimiento y después de algunos
años de penurias económicas ocupó el cargo de organista de la capilla Octagon
de Bath, estación termal muy de moda entonces. En ese entonces, los baños
termales eran una de las terapéuticas más en boga, y seguramente no eran ni
mucho más ni mucho menos efectivas que ahora. Durante dieciséis años fue
organista, y daba lecciones privadas para aumentar sus ingresos, hasta que se
despertó su interés, primero por la óptica y luego por la astronomía,
posiblemente a partir de un libro que divulgaba el sistema newtoniano del
mundo.
Fue una suerte. Herschel, primero, compró un pequeño telescopio, pero pronto no
le alcanzó y se puso a construir uno más con sus propias manos. En 1774 pudo
por fin contemplar el cielo con un instrumento como la gente. Lo cual tampoco
le alcanzó: por el contrario, se puso a construir telescopios cada vez más
grandes, tallando y puliendo centenares de espejos, hasta llegar a tener
aparatos verdaderamente gigantescos para la época. En 1789, mientras una de las
más radicales revoluciones de la historia humana se gestaba del otro lado del
Canal de la Mancha, estaba en poder de uno de 40 pies de distancia focal, que
entonces era una enormidad. Un mes después de la toma de la Bastilla, Herschel
se internaba por primera vez en el cielo nocturno con su gigante de 1,20 metro
de apertura.
Pero no nos adelantemos. Mientras estaba en Bath, repartía su vida entre la
música y la astronomía (disciplinas muy ligadas entre sí desde la Antigüedad,
si recuerdan, aunque obviamente ya totalmente separadas por entonces), con la
ayuda de su hermana Catherina Lucrecia (1750-1848), que funcionó como asistenta
de investigación, secretaria y calculista. Hasta ahí, era un —digamos— simple
astrónomo aficionado. Pero siete años después de empezar con su primer
telescopio hizo un descubrimiento sensacional, que lo llevó a la fama y al
conocimiento público.
§. Un nuevo planeta
Nuestro amigo exploraba de manera sistemática todo el cielo visible desde
Inglaterra, y en el curso de esta exploración, el 13 de marzo de 1781, tropezó
con un astro que no aparecía como puntual —como ocurre con las estrellas—, sino
que tenía un disco discernible. La conclusión parecía servida: se trataba de un
cometa, y así lo presentó seis semanas después en una memoria a la Royal
Society: «Reporte de un cometa».
Sin embargo, una revisión y análisis de la órbita mostró que ésta no podía
corresponder a la trayectoria de un cometa… ¿Qué era entonces? La conclusión no
tardó en llegar: se trataba de un nuevo planeta del Sistema Solar, Urano.
El descubrimiento causó sensación. Hasta entonces ningún nuevo planeta se había
agregado a la serie de los cinco conocidos desde la más remota Antigüedad
(Mercurio, Venus, Marte, Júpiter, Saturno) y los merecidos honores se
derramaron sobre él. Digamos, de paso, que Urano había sido visto varias veces
y por diversos astrónomos, pero en todos los casos se lo había confundido con
una estrella más entre las que lo circundaban. Herschel fue nombrado miembro de
la Royal Society, la Universidad de Oxford le concedió el título de doctor, y
el propio rey de Inglaterra lo recibió en audiencia privada, durante la cual
William les mostró a él y a su corte las maravillas que se veían a través del
telescopio y el astrónomo real tuvo la oportunidad de constatar, asombrado, que
el instrumento casero utilizado por Herschel era indiscutiblemente mejor que el
gran telescopio nacional instalado en el observatorio de Greenwich.
Semejante habilidad como constructor merecía algún tipo de reconocimiento: le
dieron el cargo de «constructor de anteojos de la corte», uno de esos absurdos
títulos que solían inventar las monarquías, con una pensión bastante amarreta,
pero que se compensó con el hecho de que más tarde el rey habría de pagar las
cuatro mil libras que costaría el gran telescopio de 40 pies del que ya les
hablé, el más grande del mundo. De todos modos, con el descubrimiento de Urano
a cuestas, se casó con la hija de un rico comerciante de London City, con lo
cual quedó libre de cualquier preocupación material y pudo dedicarse por entero
a la observación. Aunque en este caso la conexión causal fue, digamos, casi
directa, no se puede generalizar mediante inducción y establecer como principio
que el descubrimiento de un nuevo planeta es el camino más directo para casarse
con una rica heredera.
Fue con este gran aparato que estableció su observatorio en Slough, al sur de
Inglaterra, e hizo tan famosa la localidad que su presencia atraía las visitas
y la curiosidad de todo el mundo. «Slough —se decía— es, de todo el globo
terráqueo, el lugar en el que se realizó el mayor número de descubrimientos
astronómicos». Es que el telescopio de Herschel fue, para su época, lo que el
Hubble para la nuestra.
En cuanto el instrumento fue montado, enseguida atrapó nuevos objetos
astronómicos del Sistema Solar: Mimas y Enceladus, dos nuevos satélites de
Saturno, y Oberón y Titania, satélites de Urano.
§. Estrellas dobles
Pero Herschel no se limitó al Sistema Solar, sino que se enfrascó en la
investigación de un fenómeno que parecía no tener explicación. Ya se sabía que
muchas estrellas se desdoblaban ante el telescopio, pero se suponía que era un
fenómeno debido al azar: las dos componentes estaban, por casualidad, en la
misma línea visual (lo cual no era disparatado, desde ya), de modo que se
trataba de un mero efecto de perspectiva. Pero Herschel encontró montones de
estas estrellas —de hecho, hoy hemos podido comprobar que la mayoría de las
estrellas pertenecen a sistemas dobles, triples y hasta quíntuples, como por
ejemplo alfa del Centauro, la más próxima a la Tierra, que forma parte de un
conjunto de cinco estrellas—, catalogó ochocientas y concluyó que:
El azar no puede explicar el frecuente fenómeno de las estrellas dobles.
Mediante mediciones ajustadísimas, comprobó que eran estrellas que giraban una
alrededor de la otra, o mejor dicho alrededor de un común centro de gravedad:
Debemos admitir que estas estrellas no son solamente dobles en apariencia, sino
que forman realmente sistemas binarios, cuyas componentes están íntimamente
ligadas entre sí por atracción mutua.
En realidad, Herschel estaba tratando de medir la paralaje estelar, un
tema pendiente desde los tiempos de Copérnico (y antes aún), en lo cual
fracasó. Pero lo cierto es que se trataba de la primera y sensacional prueba de
que las leyes de Newton se cumplían más allá del Sistema Solar: la Gran Ley de
Gravitación mostraba su potencia realmente universal.
La cosa no terminó ahí. Ya Halley había observado que las «estrellas fijas»
—cuatro por lo menos— no eran tan fijas, sino que tenían un movimiento propio;
Herschel confirmó las mediciones de Halley pero, además, conjeturó, como ya lo
habían hecho muchos otros, que el Sol no podía ser la excepción. Se trataba de
una idea que había sido adelantada por varios astrónomos pero que sólo él
consiguió probar y lo hizo, como suelen hacerse las comprobaciones geniales,
mediante un sencillo procedimiento: la observación cuidadosa (y también
milimétrica, desde ya) le mostró que los astros aparentemente se separaban en
una dirección del cielo, mientras que en la dirección opuesta tendían a
acercarse. Este comportamiento sólo podía ser reflejo del desplazamiento de
nuestro propio Sistema Solar, del mismo modo que cuando caminamos en un bosque
o entre una multitud los árboles o las personas en el sentido de nuestro
movimiento parecen separarse, mientras que hacia atrás parecen compactarse.
Así, pudo anunciar en 1805 que el Sol y todo el Sistema Solar se dirigen hacia
un punto situado en la constelación de Hércules (el llamado «ápex solar»).
Y noten una cosa: en todo este razonamiento, desde Halley a Herschel, se ve que
la idea de que el Sol es una estrella como las demás está completamente
naturalizada.
§. La galaxia
Planetas, estrellas, satélites: el increíble panorama no detuvo a Herschel. El
paso siguiente era averiguar la estructura general del universo.
Por supuesto, no fue el primero en plantearse el problema. A lo largo del siglo
XVIII, Thomas Wright (1711-1786), Immanuel Kant (1724-1804) y Johann Heinrich
Lambert (1728-1777) ya habían formulado hipótesis. Kant, en su Allgemeine
Naturgeschichte, opinaba que el universo estelar, cuyo límite aparente
constituye la Vía Láctea, consistía en un sistema achatado comprendido entre
dos planos paralelos y relativamente próximos, del cual el Sol ocuparía más o
menos el centro: un universo- isla. No era una idea arbitraria:
basta observar el cielo nocturno (en lo posible lejos de las ciudades y otras
fuentes de luz, pero entonces había muy poca contaminación luminosa) para ver
que las estrellas parecen acumularse en una franja achatada (la Vía Láctea).
Wright expresó sus conjeturas en una original Theory or New Hypothesis
of Universe (1750), llegando a conclusiones semejantes a las de Kant.
Lambert, por su parte, sostenía en 1761 que cada estrella sería un Sol rodeado
por planetas, constituyendo un sistema de primer orden; cada sol, al igual que
el nuestro, pertenecería a un conjunto compuesto por un millón y medio de
estrellas que circulan en torno de un centro común de gravedad y forman un
sistema de segundo orden; a su vez, un gran número de estos conjuntos forman la
Vía Láctea, sistema de tercer orden constituido por un disco de espesor
relativamente pequeño. Y era posible que el conjunto de vías lácteas formara un
sistema de cuarto orden. Mientras tanto, Wright tenía una extraña intuición,
que les cuento en un recuadro.
Herschel también estaba preocupado por el tema:
El conocimiento de la construcción del cielo ha sido siempre el supremo
objeto de mis estudios,
escribió en 1811.
Las especulaciones de Kant, Lambert o Wright eran razonables —muy razonables en
realidad—, aunque su única base empírica era la observación, a simple vista,
del hecho de que las estrellas se apiñaban en una franja estrecha.
Herschel trató de fundamentar esta hipótesis mediante una exploración más
minuciosa del cielo, contando el número de estrellas que pasaban en un tiempo
dado por el campo visual de su telescopio, y deduciendo estadísticamente la
densidad estelar. El proyecto le llevó treinta años y, como obviamente, no pudo
observar todo el cielo con su telescopio, que sólo abarcaba
1/830.000 de la bóveda celeste, tuvo que limitarse a un muestreo.
Pero el asunto es que llegó a resultados muy parecidos a los predichos por Kant
y Lambert: la galaxia es una inmensa aglomeración heterogénea de estrellas, con
la forma de un disco muy aplanado, con dos ejes desiguales. En 1818, Herschel
admitió que sus medios no eran suficientes para dilucidar la proporción entre
los dos ejes y vaticinó que la determinación del verdadero tamaño de la galaxia
tendría que esperar a nuevas generaciones de astrónomos y telescopios más
potentes, como efectivamente ocurrió.
Entre tanto, había observado un tipo de objetos que parecían bastante
misteriosos, y que centrarían la discusión astronómica durante todo el siglo
XIX. Y es que en la naturaleza de estos objetos estaba la clave de la
arquitectura del universo.
§. Las nebulosas y la teoría del universo-isla
Estos objetos eran las nebulosas, grandes (o medianas) manchas blanquecinas y
difusas. Ya se conocía un centenar de objetos de ese tipo: la nebulosa de
Andrómeda (porque se ubica en esa constelación) había sido observada, a simple
vista, por los astrónomos árabes; las nubes de Magallanes, como su nombre lo
delata, habían sido vistas en el sur por el gran navegante; en 1610 se había
descubierto la de Orión; en 1665, la de Sagitario; Halley en 1714 enumeró seis
y, por último, el francés Messier (1730-1817) incluyó cien en su famoso
catálogo. Herschel elevó el número a 2.300.
El problema es que no se tenía la menor idea de lo que eran. Nuestro
protagonista consiguió resolver en estrellas algunas de ellas y generalizó un
tanto apresuradamente, diciendo que todas las nebulosas eran
aglomerados estelares, de modo tal que cualquiera podría descomponerse en
estrellas si se tuvieran instrumentos de observación lo suficientemente
poderosos. Pero si no podían descomponerse en estrellas objetos tan grandes, es
que sus distancias debían ser descomunales, superando con creces los bordes de
la Vía Láctea. Se trataba, entonces, de enjambres estelares semejantes a la Vía
Láctea que flotaban en el espacio lejos, muy lejos de ella. Eran otras
galaxias, otros universos-isla. Así, en 1785, Herschel creyó haber demostrado
lo que Thomas Wright y el mismísimo Kant habían intuido: la multiplicidad de
las galaxias, la inquietante pluralidad de los mundos.
No duraría demasiado. Después de un tiempo, cambió de postura: tras observar
que algunas de ellas eran efectivamente masas de gas difuso,
decidió que se trataba de objetos internos de la galaxia.
La discusión se arrastraría durante todo el siglo XIX y se resolvería recién en
la segunda década del siglo XX.
Herschel murió en 1822, a los 84 años de edad, y dejó tras de sí un universo
mucho más rico y completo que aquel con el que se había encontrado. Gracias a
él, las estrellas dejaron de verse como cuerpos celestes de naturaleza
enigmática para convertirse definitivamente en soles comparables con el astro
central de nuestro sistema. Ninguna de ellas es fija; todas, incluso el Sol, se
desplazan en el espacio galáctico. Miles son en realidad astros gemelos,
sistemas giratorios cuyos movimientos obedecen a la férrea Ley de Newton.
Además, muchas se reúnen en enormes cúmulos que forman nuevas unidades físicas.
La distancia, aunque enorme, ya no es la misma para todas.
Más allá de las estrellas brillantes y cercanas se abren inmensos campos
estelares con débil luminosidad aparente, cuyo conjunto, entremezclado con
masas gaseosas, constituye el disco achatado de la galaxia, nuestro
universo-isla.
Pero mientras Herschel retomaba con fuerza la idea observacional en astronomía,
fiel al compromiso de 1758 que combinaba racionalismo y empirismo, y construía
un mapa del cielo infinitamente más rico que el que existía hasta entonces,
dejando igualmente muchos cables sueltos para que se agarraran de ellos las
generaciones sucesivas, aquí, en la Tierra, se producía un sacudón político,
social y conceptual, que también marcaría y determinaría los tiempos por venir
y que era el resultado del larvado madurar del racionalismo a lo largo del
siglo XVIII: la Revolución Francesa.
Wright y los agujeros negros
Todo campogravitatorio tiene lo que se llama una «velocidad de escape»,
que es lavelocidad mínima inicial que debe tener un móvil para no entrar en
órbitaalrededor del astro que lo produce. Así, por ejemplo, si yo quisiera
lanzarun cohete para que llegara hasta Marte, debería hacerlo con una
velocidadinicial de 11,2 km/s, por segundo (40.320 km/h) o más; en caso
contrario, obien caería a la Tierra por influjo de la acción gravitatoria, o
bienquedaría orbitando como la Luna.
Pues bien:Wright, conociendola velocidad de la luz, y considerando, como lo
hacíaNewton, que la luz es un chorro de corpúsculos (recordemos que estaba
enplena vigencia la oposición entre la teoría ondulatoria y la
corpuscular),calculó que si en la naturaleza existieran realmente cuerpos cuya
densidad nofuera menor que la del Sol, y cuyos diámetros fueran más de 500
veces eldiámetro del Sol, la «velocidad de escape» sería mayor que la de la
luz, demodo que ésta no podría zafar del campo gravitatorio y llegar hasta
nosotros.Por lo tanto, el objeto nos resultaría invisible —un agujero negro
(desde yaque Wright no usó esta denominación) —, aunque podríamos inferir
suexistencia mediante cualesquiera cuerpos luminosos que estuvieran girando
enórbitas en torno de ellos. De hecho, es así como los astrónomos
deducenactualmente la existencia de los agujeros negros. Una idea extraña para
elsiglo XVIII, aunque como ven muy sencilla. Suficientemente sencilla como
paraque otro astrónomo, Laplace, diera también con ella.
§. Un sacudón político: la Revolución Francesa
Aunque no sea un hecho científico, la Revolución Francesa, por su intento de
construcción de una sociedad racional basada en principios abstractos y
geométricos, por su elevación de la razón a cuestión de Estado, es la perfecta
culminación política de la línea racionalista francesa del siglo XVIII, además
de ser un hito político mayor en toda la historia humana.
No empezó, como se suele creer, el 14 de julio de 1789 con la toma de la
Bastilla, que se ha convertido en su símbolo emblemático. Fue antes: desde el 5
de mayo de ese año habían estado reunidos los Estados Generales, una antigua
institución de origen medieval que congregaba a representantes de los tres
estados —la nobleza, el clero y el estado llano (burguesía)— y cuyo objetivo
era apoyar o mostrar la aquiescencia de la nación ante determinadas medidas del
trono y, en general, aceptar el impuesto —todas, o casi todas las asambleas
medievales tenían el objetivo de convalidar el impuesto—, según el viejo principio
de que «no hay impuesto sin representación»
Las asambleas tendrían distintos derroteros históricos: mientras que los
parlamentos ingleses, después de siglos de prueba y error (bien de acuerdo con
el espíritu empirista inglés), se habían convertido en poderes permanentes, los
Estados Generales franceses habían tendido a desvanecerse, y de hecho cada
(rara) vez que eran convocados, y no hacían exactamente lo que la monarquía
requería, se los disolvía por el simple expediente de descolgar las tapicerías
de las salas de deliberación.
En este caso, las cosas serían distintas: los Estados Generales de 1789 habían
sido precedidos por una intensa campaña política que inundó Francia de
panfletos. Los principales reclamos eran una constitución, el impuesto
consentido por el voto, carreras abiertas a los talentos, igualdad de derechos
del estado llano, la periodicidad de la convocatoria. Además, el estado llano
tendría doble representación.
El trastorno financiero que había forzado el llamado a los Estados Generales no
era irremediable: no eran (como se suele creer) los gastos de la corte los
principales culpables del descalabro económico; el déficit sólo se había hecho
irremontable por la imposibilidad de imponer el impuesto a las clases ricas,
nobleza y clero, y por el altísimo costo de sostener un ejército permanente…
Nadie pensaba, ni siquiera soñaba, con la posibilidad remota de cuestionar a la
monarquía, nadie podría haber adivinado lo que después pasaría.
La Asamblea no se reunió en París sino en Versalles, lugar que el rey
consideraba más seguro. El día de la inauguración hubo un discurso vago del
trono, en el que no se habló del voto por cabeza ni de la periodicidad; todos,
sin embargo, se separaron al grito de « ¡Viva el Rey!».
Los distintos estados se mandaron embajadores; el estado llano invitó a los dos
estados restantes (el clero y la nobleza) a unirse con él. Algunos diputados
sueltos de los estados privilegiados respondieron: con ellos, el 17 de junio,
el estado llano se proclamó Asamblea Nacional y decidió que, el día en que se
disolviera, cesaría en toda Francia la percepción de impuestos que no hubieran
sido votados por ella. Los diputados retomaban el viejo principio: no hay
impuesto sin representación. Era una medida audaz, que marcaba el ritmo de los
tiempos en curso.
Vistas las circunstancias, el 23 de junio Luis XVI quiso cerrar la Asamblea; el
estado llano resistió, y el rey terminó por ceder. « ¿Quieren quedarse? Y
bueno, foûtre, que se queden», se cuenta que dijo. Y a continuación
«ordenó» la reunión de los tres órdenes. Pero el 11 de julio, un nuevo tour
de force en la Corte impuso al partido de la reina, María Antonieta,
duro e intransigente, y destituyó al ministro de Hacienda, Necker. Un día más
tarde, la noticia llegó a París. El pueblo temía un golpe de Estado y la ciudad
se llenó de rumores. El pan escaseaba. El 13 de julio, el pueblo saqueó las
armerías, trató de forzar los arsenales, sacó del Palacio de los Inválidos
veintiocho mil fusiles y cinco cañones y, habiéndose enterado de que los
depósitos de pólvora habían sido trasladados a la Bastilla, empezó a
concentrarse a su alrededor. Comenzaba la jornada del 14 de julio y la toma de
la Bastilla mostró que la revolución iba en serio.
El 4 de agosto se abolieron los privilegios feudales y eclesiásticos y el 26 de
ese mismo mes la Asamblea proclamó los derechos del hombre y el ciudadano
para todos los hombres, para todos los tiempos, para todas las naciones.
Era la más pura manera de enunciar, en forma de ley geométrica, un
principio político, que respondía la búsqueda de unidad característica del
siglo.
Increíblemente, el viejo orden se había derrumbado por completo en el curso de
unos pocos meses, aunque no se vislumbrara en qué iba a consistir el nuevo.
El 14 de julio, en Versalles, el rey de Francia se dedicó a la caza durante
todo el día; luego, fatigado, se fue a acostar. El 15 por la mañana el duque de
Liancourt lo despertó y le relató los acontecimientos de París. « ¿Es una
revuelta?», preguntó Luis XVI. «No, majestad —contestó el duque—, es una
revolución.»
§. Una nueva manera de medir
Mientras la Revolución empezaba a desplegar su violenta dinámica, que
culminaría en el Terror de Robespierre, se retomaba un viejo sueño de la
Academia Francesa de Ciencias: basar los sistemas de medida en un estándar
permanente.
En 1790, la Asamblea Constituyente (sucesora de la Asamblea Nacional) aprobó la
propuesta de Talleyrand de que se estudiara un sistema de nuevas unidades de
pesas y medidas que sirviera para todas las naciones. Muy a la francesa, se
decidió adoptar como unidad de longitud una diezmillonésima parte de la
distancia entre el Polo Norte y el Ecuador medida sobre el meridiano que cruza
París (¡obviamente!): tal medida es el metro, con múltiplos y submúltiplos
contados en el sistema decimal, del cual derivan también las unidades de área,
volumen y peso. Los astrónomos Méchain y Delambre fueron los encargados de
medir el extenso arco de meridiano entre Dunkerque y Barcelona, empresa
científica larga y penosa que coincidió con los más turbulentos años de la
Revolución: la Asamblea Constituyente dio paso a la Legislativa, y ésta a la
Convención, con lo cual Francia se transformaba en república. Luis XVI y María
Antonieta subieron al cadalso. Empezaba el Terror, que devoró, como Saturno, a
sus propios hijos: cayó Danton y empezó la breve dictadura de Robespierre, que
llegó a entronizar a la diosa Razón, y declarar un extraño culto del «Ser
Supremo» como religión oficial de Francia.
Robespierre fue apresado el IX de Termidor del año III (27 de julio de 1794:
recordemos que la Revolución, para marcar su carácter radicalmente novedoso,
había impuesto un calendario propio, también decimal, que destronaba toda
resonancia cristiana) y guillotinado un día después. El Directorio que lo
sucedió, y más tarde el Consulado, prepararon el camino del Imperio.
En medio de todo este barullo político, las operaciones geodésicas, que habían
sido iniciadas en 1792, sólo pudieron ser terminadas en 1798, superando las más
imprevistas vicisitudes (Delambre acusado de realista, Méchain detenido en
España como espía). No obstante, ya antes de esa fecha, el 7 de abril de 1795
(o el 18 Germinal del año III de la Revolución) se promulgó la ley que
introdujo el sistema métrico. El nuevo orden necesitaba una nueva manera de
medir el mundo y la imponía por decreto. «Para todos los hombres, para todos
los tiempos, para todas las naciones».
Ulteriores perfeccionamientos de los instrumentos geodésicos revelaron que el
metro patrón, obtenido con tan grandes sacrificios y conservado bajo la forma
de una barra de platino en los Archives de Paris, no era sino una unidad
convencional, en realidad separado por dos milésimas de milímetro de la
magnitud que sirviera de base para su definición. Se fabricó una barra de
platino e iridio, que fue depositada en la Oficina Internacional de Pesas y
Medidas de Sevres, cerca de París. Sobre la barra se grabaron dos finísimas
marcas: la distancia entre esas dos marcas definía el metro.
Este metro patrón sobrevivió a la República, al Imperio, y a la Restauración
que se produjo cuando Napoleón fue definitivamente derrotado en Waterloo y
ascendió al trono Luis XVIII. En verdad, el metro reinó indiscutido durante
casi doscientos años.
Pero en 1983, en la Conferencia Internacional de Pesas y Medidas, en París, fue
derrocado y redefinido como «la distancia recorrida por la luz en el vacío
durante 1/299.792.458 de segundo». Así, la unidad de longitud queda subordinada
a la unidad de tiempo, bajo la férrea vigilancia de una de las constantes
universales: la velocidad de la luz en el vacío, que según la teoría de la
relatividad de Einstein es la misma desde cualquier sistema de referencia
posible en el universo.
Dista de ser una curiosidad. Las ansias de universalidad de quienes quisieron
basar el sistema de medidas en las dimensiones de la Tierra (y, no lo
olvidemos, en el meridiano de París) cedió al anhelo cósmico de una época que
considera haber descifrado una de las claves maestras de la naturaleza, y a la
que el estándar del siglo XVIII le parece arbitrario: el metro debe ser
definido en función de algo verdaderamente universal, como lo es la velocidad
de la luz en el vacío.
No por ello, sin embargo, el metro histórico deja de servir aun a sus
finalidades, y justifica las célebres palabras de Napoleón que, no obstante
haber sido hostil a la innovación, al referirse al libro de Delambre, La
base du systeme métrique décimal de 1806, donde se resumen los
trabajos de los dos grandes geodestas, manifestó: «Las conquistas serán
olvidadas, pero el sistema métrico pasará a los siglos venideros».
§. La filosofía de la naturaleza
Mientras en Francia se producía la que fue probablemente la revolución política
más importante de la historia, una revolución a todas luces racionalista o que
pretendió mostrarse como la conclusión política de la filosofía racional, en
Alemania se desarrollaba un sistema filosófico que se alejaba de la ciencia
experimental, y que modificaba la concepción del racionalismo. Los fundadores
de esta rama —los Naturphilosophen— se ilusionaron con alcanzar la
meta de conseguir la unidad con la naturaleza mediante especulaciones derivadas
de principios filosóficos y metafísicos generales, muy lejos del espíritu de la
ciencia experimental que se estaba desarrollando tanto en Francia como en
Inglaterra. Trataron, por ello, de fundamentar un esquema de tipo espiritual,
con la pretensión de descubrir la estructura del mundo natural merced a una
«intuición intelectual», y llegaron a ejercer una enorme influencia.
El filósofo por excelencia que la inspiró fue el poskantiano Friedrich
Schelling (1775-1854), que formuló un principio de la
identidad del espíritu en nosotros y de la naturaleza fuera de nosotros.
Dado que, para él, «la naturaleza es espíritu visible y el espíritu
naturaleza invisible», era necesario sumergirse en el propio espíritu para
descubrir la verdadera estructura de la naturaleza, en la cual se distinguían
tres estratos: en primer lugar, la materia, que da lugar a la actividad de tres
fuerzas (atracción, repulsión y gravedad, síntesis de las dos primeras); en
segundo lugar, la electricidad, el magnetismo y la actividad química, que
tienen por nexo común a la luz; por último, la vida, que se manifiesta mediante
la reproducción, la irritabilidad y la sensibilidad. En los tres estratos regía
el principio de la polaridad: la atracción era contrabalanceada por la
repulsión; el magnetismo positivo por el negativo; la electricidad de un signo
por la de signo contrario; la acidez por la alcalinidad. Así se posibilitaba el
equilibrio en el mundo natural.
Otro representante típico de este movimiento, y seguramente el más famoso, fue
Johann Wolfgang Goethe (1749-1832), que prestigió, con su fama, la idea central
de la Naturphilosophie: la unidad del conjunto de los seres vivos
(en un gesto que recuerda a la Gran Cadena del Ser). Las categorías de reino,
clase, orden, familia, género habían sido armadas por Dios según un plan
general único, del cual las formas de los seres eran distintas modificaciones.
Todos los animales eran vistos, así, meramente como encarnaciones del arquetipo
animal único, del mismo modo que las plantas no eran sino variaciones de una
protoplanta. Goethe creyó haber encontrado en el reino animal una prueba para
su hipótesis al verificar que el cráneo humano poseía también el hueso
intermaxilar que, si bien ya había sido visto por el propio Vesalio, se usaba
hasta ese momento como criterio de separación de los hombres y los monos.
Obviamente, Goethe no era el único que pensaba así. Una teoría parecida fue
formulada y desarrollada por el médico Lorenz Oken (1779-1851), profesor en
Jena, que en el afán de encontrar analogías universales no vaciló en asimilar
el reino animal en su integralidad a un único animal, cuyos distintos órganos
corresponderían a diferentes especies. Por su parte, Christian Gottfried Nees
von Esenbeck (1776-1858), profesor de botánica en Bonn, asimiló todo el mundo
vegetal a una sola hoja.
Como podrán sospechar, la filosofía natural, en la que predominan analogías
forzadas y desempeña un papel no desdeñable el misticismo del número, no aportó
grandes cosas a la ciencia positiva, aunque sí tuvo algunas derivaciones
curiosas.
Una de ellas, que vimos en el capítulo anterior, fue el descubrimiento de la
relación entre electricidad y magnetismo por parte de Oersted, que estaba
buscando una fuerza única, y que derivaría luego en la fructífera teoría de
campos.
Otra derivación importante fue la que produjo en Francia, al ser pasada por el
tamiz del racionalismo. Conozcamos a Geoffroy Saint-Hilaire.
§. Saint-Hilaire: los arquetipos
Etienne Geoffroy Saint-Hilaire (1772-1844) fue, sin lugar a dudas, uno de los
naturalistas más notables de su época. Había estudiado mineralogía antes de
dedicarse a la anatomía de los vertebrados, pero su vocación se decidió cuando
a los 22 años fue nombrado profesor de zoología en el recientemente fundado
Museo Nacional de Historia Natural, cuyas colecciones le suministraron
abundante material para sus estudios comparados de morfología animal. Más tarde
acompañó, junto al grupo de científicos, a Napoleón en su campaña a Egipto,
donde estudió los animales del Nilo; también estuvo en España y su trabajo se
interrumpió recién en 1840, cuando se quedó ciego.
Saint-Hilaire publicó centenares de monografías sobre montones de problemas de
anatomía comparada, taxonomía, paleontología y teratología —el estudio
anatómico de los monstruos, como cabras de dos cabezas y lindezas por el
estilo—; fue sin duda el primero en emprender el estudio sistemático de las
deformaciones monstruosas y el primero en advertir la riqueza de informaciones
que esta nueva disciplina podía ofrecer a la anatomía comparada.
Pero su interés principal, y el que es importante para nosotros, fue
suministrar pruebas empíricas de la doctrina de la unidad del plan estructural
de los seres vivos (lo cual le valió el elogio del propio Goethe): mediante una
afinada y cuidadosa descripción morfológica, Saint-Hilaire se proponía
establecer correlaciones y correspondencias que permitieran reducir la
diversidad aparente de formas a la realidad de un tipo único. Esto podía
verificarse, por ejemplo, observando que los cuerpos del mono, de un hombre, de
un elefante, de un pájaro y de un pez estaban formados por un cierto número de
partes colocadas, unas con respecto de las otras, en idéntico orden.
La caja de resonancia del mono aullador que confiere a este animal una
voz estridente no es sino un abultamiento del hueso hioides; la bolsa de las
hembras de los mamíferos marsupiales es un profundo repliegue de la piel; la
trompa del elefante, una prolongación excesiva de la nariz; el cuerno del
rinoceronte, un cúmulo considerable de pelos, etcétera. Así, por variadas que
parezcan las formas, se revelan como órganos comunes a todos.
La multiplicidad de las formas del reino orgánico era producto del
crecimiento desigual o diferenciado de elementos estructuralmente iguales.
Le es suficiente a la naturaleza cambiar algunas de las proporciones de
los órganos para ajustarlos a sus nuevas funciones o para extender o restringir
sus aplicaciones.
Lo importante de todo esto es que la hipótesis de un arquetipo único
implica un origen común, sugiere que las especies han sufrido transformaciones
en el curso del pasado y conduce como por un tubo a una teoría de la evolución.
De hecho, Saint-Hilaire adhirió a un transformismo radical y adoptó una
variante de la teoría de la evolución que Lamarck había enunciado en 1809 y de
la cual ya hablaremos.
Los animales que actualmente viven descienden, por una serie de
ininterrumpidas generaciones, de animales perdidos del mundo antediluviano.
La verdad es que Geoffroy fue el creador de una amplia síntesis pero no
siempre reconoció los alcances de sus hipótesis y, sobre todo, no fijó de
manera demasiado sensata los límites de validez de sus deducciones. Extendiendo
el valor de su plan morfológico a la totalidad del reino animal, llegó a
comparar el esqueleto de un artrópodo con la columna vertebral de un
vertebrado, no vacilando en sostener que el insecto vive dentro de su «columna
vertebral», mientras que el mamífero vive alrededor de ella. Pasando luego de
lo general a lo particular, trató de homologar cada elemento del cuerpo del
insecto con un elemento del cuerpo del vertebrado. Tales conclusiones, unidas a
sus convicciones transformistas, levantaron la oposición de Cuvier, cuyo
sistema taxonómico y la creencia en la inmutabilidad de las especies se oponían
a las concepciones de su antiguo amigo.
§. Cuvier
Lo vamos a llamar simplemente Cuvier por economía, ya que su nombre completo
era Georges Leopold Chrétien Frédéric Dagobert, y fue nombrado barón de Cuvier
(1769-1832) por Luis XVIII. Sus padres vivían en Montbéliard, ciudad que
pertenecía entonces al Ducado de Wurttemberg, de manera que recibió su
formación básica en Alemania. Como suele ocurrir —o se suele decir— fue un niño
precoz, que a los trece años ya había estudiado muchos tomos de la Histoire
naturelle de Buffon. Atraído por las ciencias naturales, al egresar
del colegio desechó la posibilidad de desempeñar una función en la
administración pública y prefirió el cargo de preceptor en una familia
aristocrática de Normandía, con la cual permaneció seis años. Completó de forma
autodidacta su formación científica, parte de la cual consistía en emprender, a
orillas del Canal de la Mancha, el estudio de la fauna marina, disecando
moluscos, estrellas de mar y otros animales, y dibujando cuanto veía con una
precisión tal que, cuando sus dibujos cayeron en manos del naturalista y
agrónomo abate Tessier, éste se los hizo llegar a Geoffroy Saint-Hilaire, que
inmediatamente lo invitó a irse a París.
Venga usted para desempeñar entre nosotros el papel de un segundo
Linneo, legislador de la Historia Natural
le escribió Saint-Hilaire. Ante semejante convocatoria, no podía
negarse: en París se impuso rápidamente, fue nombrado profesor en el Collège
de France y luego en el Museo.
La sagacidad de sus investigaciones en anatomía comparada, su capacidad de
sintetizar y de sistematizar y, más aún, su casi legendaria habilidad para
reconstruir, sobre la base de pocos fragmentos fósiles, esqueletos completos de
los grandes mamíferos de la Era Terciaria le valieron una fama muy superior a
la del propio Buffon, igualada en su época solamente por la de Linneo, y le
dieron una autoridad tal que durante más de tres decenios dominó la biología
francesa. Murió a los 63 años, víctima de la epidemia de cólera que en 1832
azotó Europa, y en particular la capital de Francia.
El punto central de su concepción biológica era de indudable factura
aristotélica: consideraba a Aristóteles el mayor naturalista de todos los
tiempos y, siguiendo su doctrina, aseguraba que el rasgo esencial de los seres
vivos era la forma:
No es la sustancia vegetal o animal la que permite a la especie
manifestarse, sino su forma. Probablemente no hay dos hombres o dos robles
cuyas sustancias tengan sus componentes en la misma proporción. Además, estos
componentes se transforman sin cesar, circulando más bien en el espacio que
acostumbramos designar «forma». En pocos años, no quedará probablemente ni uno
de los átomos que constituye actualmente nuestro cuerpo, tan sólo la forma
persiste y se multiplica, trasmitida por la misteriosa virtud de la
reproducción a una interminable serie de individuos.
En su magistral exposición de la anatomía comparada publicada entre 1800
y 1805 (Leçons d’anatomie comparée) intervenían tanto los elementos
morfológicos como los fisiológicos, y se trataba al hombre en pie de igualdad
con todas las demás especies: el sistema circulatorio de una sanguijuela no era
un objeto de estudio menos importante que el sistema vascular humano.
El método comparativo con el que trabajaba podía ser eficiente si y sólo si se
daba por presupuesta la vigencia de un principio general. Este principio era la
célebre ley de la correlación de las partes:
Todo ser organizado constituye un conjunto, un sistema único y cerrado
cuyas partes se corresponden mutuamente, cooperando en una actividad definida,
unitaria y conjunta del cuerpo. Ninguna parte puede cambiar sin que cambien las
demás; por consiguiente cada parte —tomada separadamente— determina todas las
otras.
La estrecha interdependencia de las partes de la organización animal
permitía, por ejemplo, determinar cómo debía ser en un pájaro la disposición de
huesos como la clavícula y el esternón (que intervienen en el vuelo) a partir
de las formas que presentaban sus plumas, e, inversamente, de la forma de tales
huesos podían sacarse conclusiones acerca de la forma de las plumas. La
influencia mutua que ejercían entre sí las funciones y los órganos permitía
deducir relaciones con certeza matemática.
Así como la ecuación de una curva implica todas sus propiedades, y al
tomar separadamente cada propiedad como base de una ecuación particular se
reencontraría la ecuación original, de análoga manera el biólogo que poseyera
racionalmente las leyes de la anatomía orgánica podría mediante las uñas, los
omóplatos, los fémures y todos los demás huesos tomados separadamente
reconstruir todo el animal.
La anatomía podía actuar del mismo modo que la mecánica celeste, que,
anclada en el análisis matemático y en la ley de Newton (y con una confianza
ilimitada en el determinismo), podía reconstruir toda la trayectoria de un
astro a partir de algunas observaciones astronómicas. Así, guiado por su ley de
correlación, Cuvier lograba, sobre la base de un reducido número de fragmentos
—algunos dientes y trozos de huesos—, reconstruir el esqueleto completo de un
animal. El éxito más impresionante lo obtuvo, como es de esperar, en el terreno
de los fósiles, que constituían una prueba convincente de que la fauna del
pasado había conocido especies de las cuales el reino animal del presente no
ofrecía ya representantes. Cuenta Cuvier:
Me encontraba en la situación de un hombre que había recibido fragmentos
mutilados e incompletos de algunos centenares de esqueletos: restos de veinte
grupos distintos de animales. Era preciso que cada hueso encontrase su vecino
con el cual estaba unido en el cuerpo del animal vivo. Tuve que efectuar, pues,
casi una resurrección, sin disponer no obstante de la todopoderosa trompeta de
la Providencia. Pero las inmutables leyes prescriptas a los organismos vivos la
reemplazaban. Por orden de la anatomía comparada, cada hueso, e incluso cada
fragmento de hueso, iban a ocupar su puesto. No encuentro palabras adecuadas
para describir mi alegría al comprobar cómo las características previstas a
partir de un fragmento emergen sucesivamente: los pies se encuadran a lo
anunciado por los dientes, y los dientes concuerdan con lo anunciado por los
pies. Los huesos de las piernas, del muslo, todos aquellos que debían formar
las extremidades, se ensamblan perfectamente en la estructura que he imaginado
con anticipación. En una palabra, cada una de las especies renace, por así
decirlo, sobre la base de uno solo de sus elementos.
Mediante este mecanismo, Cuvier logró evocar el aspecto de muchas
especies extinguidas, reconstituyendo los esqueletos completos de sus
representantes desaparecidos: sólo por nombrar algunas, el Paleotherium
magnuni, un paquidermo del tamaño del caballo y con pies provistos de tres
dedos; el Anoplotherium commune, que se ubica entre los paquidermos
y los rumiantes; el Pterodactylus, un dinosaurio volador, o
el Megatherium, un perezoso del tamaño del rinoceronte, cuyo primer
ejemplar había sido desenterrado en 1787 por el dominico Manuel Torres de las
barrancas del río Luján (Argentina) y que después de reconstruirlo y dibujarlo,
lo encajonó y envió a Madrid.
En su trabajo Recherches sur les ossements fossiles, de 1812,
presentó el estudio de 168 especies de vertebrados fósiles, de las cuales 49
eran descriptas por primera vez. Con todos estos esfuerzos, Cuvier lograba
unificar y sistematizar la paleontología, que hasta entonces no era más que una
colección de hallazgos más o menos inconexos y con frecuencia mal
interpretados, convirtiéndola en una ciencia propiamente dicha. Al mismo
tiempo, en contra de muchos naturalistas de la época y sin ser geólogo,
señalaba el papel complementario que incumbía a la paleontología y a la
geología en la difícil tarea de establecer un esquema cronológico de la
historia natural.
Obviamente, no se le escapó el hecho de que cuanto más antiguas eran las capas
geológicas en las que se indagaba, tanto menos se parecían los fósiles a las
formas actuales, lo cual podría haberlo llevado a abrazar las ideas
transformistas que estaban cobrando fuerza y que defendía enfáticamente
Saint-Hilaire. Sin embargo, permaneció atado a la doctrina de la fijeza de las
especies, ya fuera por sus convicciones religiosas —era un protestante
ortodoxo— o porque, como argumentaba, no se encontraban fósiles con
características intermedias entre las de la fauna del pasado y de la fauna
actual, de lo cual concluyó que los animales fósiles no habían dejado
descendientes y que las especies del pasado eran tan inmutables como lo eran
las del presente, idea en cierto modo razonable, aunque poco imaginativa.
Cuvier no estaba siendo arbitrario o, por lo menos, no del todo. Entre las dos
teorías opuestas, daba preferencia a la que estimaba, con razón en su época,
menos especulativa, menos cargada de elementos hipotéticos. Sin embargo, había
un punto verdaderamente flojo en el fijismo: la extinción masiva de especies.
¿Cómo era posible que tantas especies hubieran desaparecido por completo desde
el origen de los tiempos? Para explicarlo, Cuvier pergeñó su teoría de los
cataclismos. La Tierra había sido sacudida en el pasado por tres catástrofes de
escala planetaria (la última había sido nada menos que el Diluvio) que habían
causado enormes estragos entre los seres vivos, aunque ninguna había llegado a
destruirlos a todos: siempre había quedado alguna región que había logrado
escapar del desastre y cuyos habitantes se habían encargado de repoblar el
mundo. Pero tres catástrofes parecían poco para una extinción tan masiva. Hubo
un discípulo que elevó el número a 27 y otros que llegaron a sostener que, tras
algunos de los cataclismos, la nueva fauna y flora había sido creada
nuevamente, desde cero, por Dios.
Los estudios de anatomía comparada y su éxito para interpretar restos fósiles
condujeron a Cuvier a una clasificación natural de los animales: tomando el
conjunto de la forma y las funciones de los órganos y eligiendo como criterios
sistemáticos primordiales, por un lado, el cerebro y la médula espinal —que
gobiernan las funciones animales— y, por el otro, los aparatos circulatorio y
respiratorio —que dirigen la vida vegetativa— distinguió cuatro tipos:
1.
Vertebrados, con esqueleto axial y cavidad medular.
2.
Mollusca, con sistema nervioso compacto en masas
separadas.
3.
Articulata, con sistema nervioso consistente en dos
cuerdas ventrales; evidencian además la transición del aparato circulatorio
vascular de los tipos anteriores hacia el sistema traqueal.
4.
Radiata, sin sistema nervioso ni circulatorio;
efectúan las funciones animales y vegetativas en forma rudimentaria, y se
caracterizan por una estructura con simetría radiada.
Cada uno de estos grandes tipos contaba con subdivisiones, de modo que
se llegaba a categorías cada vez menores: clases, órdenes, géneros y especies.
Lo interesante de todo esto es que los cuatro tipos, para Cuvier, poseían la
misma realidad material que los propios organismos individuales que formaban
parte de la clase; cada uno correspondía a un plan de la naturaleza, a un
pensamiento único del creador, y por lo tanto entre esas cuatro formas
estructurales no había transición posible que permitiera insinuar la idea de
una escala evolutiva de los seres vivos.
Fueron estas convicciones las que motivaron, en 1830, la resonante controversia
que sostuvo con quien había sido su maestro y amigo en París, Geoffroy
Saint-Hilaire, y de la que hablaremos en el próximo capítulo, ya que la
polémica, por debajo de los detalles sobre el parecido entre mamíferos y pulpos
(en lo cual Cuvier tenía toda la razón), ponía en juego la idea biológica
central del siglo XIX: la teoría de la evolución.
Parte V
En busca de la unidad
Contenido:
25. La teoría
de la evolución
26. La
república celular y la invasión microbiana
27. El
triunfo de los átomos
Capítulo 25
La teoría de la evolución
La sorda, y luego abierta, lucha entre transformistas —como se llamaban
los que creían que las especies podían variar— y partidarios de la fijeza de
las especies se había arrastrado durante buena parte del siglo XVIII. La
historia natural no tenía aún el Copérnico, ni el «Newton de la brizna de
hierba», que Kant reclamaría en la Crítica del juicio.
Ya vimos que Linneo, el más exitoso de los tantos que intentaron poner orden en
el caos de las clasificaciones, había logrado armar un sistema botánico gracias
a sus propios viajes y a los ejemplares que sus discípulos le enviaban desde
todo el mundo. Basándose en un rasgo específico, los órganos reproductivos de
las plantas, había dividido el reino vegetal en 24 clases, a su vez divididas
en órdenes, géneros y especies con nombres según el sistema binomial (que ya
había sido propuesto, pero que Linneo generalizó). Todo esto tenía en sí mismo
mucho sentido, pero más aún si, como el propio Linneo lo hacía, se pensaba que
las especies habían sido creadas todas al principio del mundo por un acto
divino, de modo tal que resultaba concebible proponer un catálogo completo de
la vida sobre el planeta.
Si bien más tarde aflojó su posición ante la evidencia de que los agricultores
creaban especies híbridas (que eran, por lo tanto, nuevas), lo cierto es que
había algunos argumentos de peso contra el transformismo. Uno de ellos era
(¿cuándo no?) de índole religiosa: el fijismo permitía pensar que la enorme
variedad del mundo natural estaba desde el principio en la mente de Dios y que
nada nuevo se producía por sí mismo. Admitir el transformismo, por el
contrario, era aceptar que, nada menos que en el terreno de la vida, se
producían novedades que no necesariamente estaban en la mente del Creador
(aunque ya sabemos que finalmente la teología termina adaptándose a todo
aquello que no logra detener).
Otro argumento, más interesante para nosotros, era de índole metodológica y
científica: consistía, simplemente, en que no había evidencias contundentes que
apoyaran el transformismo. Los fósiles demostraban que había especies que se
habían extinguido, pero no que se hubieran transformado en especies nuevas.
¿Dónde estaban, si era así, los fósiles de las especies intermedias? Fue ése el
argumento que utilizó Cuvier, que, como recordarán, rechazaba tajantemente la
posibilidad de continuidad entre los cuatro «tipos» que había definido, que no
eran sino formas eternas presentes en la mente de Dios.
§. La tradición transformista
Muchas veces es fácil rastrear las líneas de pensamiento tan atrás como se
quiere: así, si uno se lo propone, la línea transformista (es decir, la
evolucionista) puede remontarse a la Antigüedad, ya que el propio Anaximandro
de Mileto (s. VII a.C.), aquel discípulo de Tales que imaginaba la Tierra como
un cilindro, opinaba que la vida se había originado en el agua y, por lo tanto,
los seres terrestres procedían de los animales del mar.
Es interesante establecer estas líneas de filiación, encontrar aparentes
cadenas de pensamiento en la historia humana, pero hay que ser cuidadoso: todas
ellas estaban basadas en una noción muy vaga (por no decir: nula) de «especie»
y, por supuesto, no se sostenían sobre ninguna evidencia seria. Considerar que
estas ideas son el comienzo del evolucionismo sería tan exagerado como decir que
los inventores de animales mixtos como los centauros y pegasos fueron
precursores de la ingeniería genética, o que lo fue la leyenda de Cadmo, según
la cual la humanidad nació de los dientes de un león.
Sólo se pudo avanzar seriamente en el sendero evolucionista cuando la idea de
especie quedó fijada, y eso ocurrió recién en el siglo XVII. Luego, la
sugerencia de que esas especies pudieran variar representaba un paso audaz y
exigía proponer algún mecanismo por el que semejante cosa podía llegar a
ocurrir. Durante la Revolución Científica, Francis Bacon sostenía en su Nueva
Atlántida que experiencias futuras con las especies lograrían
dilucidar cómo éstas se habían engendrado y modificado y Leibniz sugirió
también que las especies estaban sujetas a cambios.
En Francia, Benoît de Maillet, como buen neptunista que era —es decir,
partidario de la teoría del océano en retirada—, ya había tratado de actualizar
las ideas de Anaximandro, «haciendo descender» a las aves de los peces
voladores, los leones de las focas y al hombre del tritón, compañero legendario
de la sirena.
El transformismo del siglo XVIII ya es otra cosa: en pleno Iluminismo, Buffon
sostenía una idea de universo en movimiento y cambio: aunque mantuvo los
arquetipos fijos (moldes internos), creados por Dios, se las arreglaba para
incluir variaciones que se podrían interpretar como modificación de especies.
Aseguraba, por ejemplo, que muchas de las formas que se podían ver día a día
eran «degeneraciones» de faunas anteriores, lo cual —se mire como se mire—
lindaba más con el transformismo que con el fijismo.
El siglo XVIII empezó a preparar el terreno para que, en el siglo siguiente,
Darwin resolviera la cuestión. Pero antes de hablar de Charles Darwin, uno de
los más grandes científicos de toda la historia, tenemos que hablar de otro
Darwin.
§. Erasmus Darwin
Porque nuestro Darwin, el protagonista indiscutible de este capítulo, no
surgió ex nihilo sino todo lo contrario: su familia había
tenido un vínculo casi íntimo con la biología y con el problema de la
evolución. Seguramente Robert Darwin (1682-1754), el padre de Erasmus —y
bisabuelo de Charles—, fue el primero en acercarse a una disciplina que todavía
estaba tan en ciernes que ni siquiera tenía nombre cuando, en 1718, observó un
fósil inusual incrustado en un bloque de piedra que se encontraba en el pueblo
y, movido por la curiosidad, decidió estudiarlo: en realidad, hoy se sabe que
era parte de un plesiosauro del período Jurásico. Lo cierto es que, gracias a
él, el fósil fue presentado a la Royal Society y, como agradecimiento, se lo
invitó a asistir el 18 de diciembre de aquel año a una reunión de esta
sociedad, donde conoció al propio Newton, que entonces era su presidente.
Su hijo Erasmus, el abuelo de Darwin, se formó por lo tanto en un ambiente donde
la curiosidad por el mundo natural era mayor que lo normal. Luego de recibirse
como médico en 1755 y ya con cierto renombre como poeta, comenzó a publicar
informes científicos sobre otros temas, entre los cuales sobresalía la
preocupación por la posibilidad de construir máquinas de vapor y por entender
el modo en que se forman las nubes. Se casó con Mary Howard, conocida como
Polly, y la pareja tuvo tres hijos que llegaron a la edad adulta (Charles,
Erasmus y Robert, el padre del gran Charles).
Mientras trabajaba como médico, Erasmus fue nombrado miembro de la Royal
Society en 1761, se codeó con científicos de la talla de James Watt, Benjamin
Franklin y Joseph Priestley, fue el primer inglés en aceptar las teorías de
Lavoisier sobre el oxígeno, tradujo a Linneo, se interesó por las inversiones
en canales, apoyó la creación de una fábrica siderúrgica… y, fundamentalmente,
se hizo muy amigo de Josiah Wedgwood, un millonario fabricante de cerámicas,
con cuya hija se casaría su propio hijo, Robert. Antes de que se casaran,
Josiah falleció, dejándole como herencia a su hija el equivalente de dos
millones de libras actuales. Se imaginarán por qué el hijo de este matrimonio,
el mismísimo Charles Darwin, nunca tendría que preocuparse por cuestiones
económicas.
Les conté que Erasmus Darwin era, entre otras cosas, poeta. Pero no era un
poeta cualquiera: usaba los versos y las rimas para intentar atraer a la gente
hacia los placeres de la botánica, en una obra que se basaba esencialmente en
las teorías de Linneo. Y también se le animó a la prosa: en 1794, publicó el
primer volumen de su Zoonomía, donde expuso su teoría sobre el
transformismo, como entonces se llamaba a la evolución, que en verdad ocupaba
apenas uno de los cuarenta capítulos.
Erasmus mostraba detalladamente la evidencia de que las especies habían sufrido
cambios en el pasado y llamaba la atención especialmente sobre el modo en que
dichos cambios se habían producido, tanto en plantas como en animales, por la
intervención deliberada del ser humano —por ejemplo, al criar caballos de
carrera más rápidos o desarrollar cultivos más productivos mediante procesos de
selección artificial—, algo que sería de ayuda crucial para la teoría que más
adelante formularía su nieto. Aseguraba que los descendientes heredaban las
características transmitidas por sus padres, destacando, entre otros casos, el
de «una camada de gatos con una garra de más en cada pata» y explicaba cómo
determinadas características adquiridas les facilitaban a diferentes especies
la obtención de alimento:
Algunos pájaros han adquirido una mayor dureza en los picos para partir
nueces, como es el caso de los loros. Otros, como los gorriones, han
desarrollado picos adaptados para cascar semillas más duras. Otros los tienen
adaptados para vaciar semillas más blandas.
Pero además, Erasmus, que era un huttoniano (es decir, partidario de que
los ciclos geológicos de la Tierra no daban «señales de principio ni atisbos de
final»), llegó a la conclusión de que toda la vida existente en la Tierra podía
provenir de una fuente común, tal como vimos que tiempo después lo haría
Saint-Hilaire. Por implicación, esto incluiría a los seres humanos.
Si no era posible negar la existencia de Dios, al menos era sí posible limitar
su papel: ya no se trataba de un demiurgo que incidía cada dos por tres sobre
los procesos de la vida en la Tierra, sino que operaba como un primer motor que
ponía en marcha las cosas y luego las dejaba que anduvieran siguiendo el curso
trazado por la evolución natural. Una evolución de la que, vale aclarar, no se
sabía nada de nada.
No se sabía, decía, aunque sí se conjeturaba: Erasmus pensaba que lo que
producía cambios en los cuerpos de los animales vivos y de las plantas eran sus
esfuerzos por conseguir algo que necesitaban (por ejemplo, alimento) o para
escapar de los depredadores, casi del mismo modo en que un levantador de pesas
incrementa su musculatura. Como luego lo haría Lamarck, el abuelo de Charles
supuso que las características adquiridas pasarían luego a la descendencia del
que las había adquirido, produciendo un cambio evolutivo: el hijo del
levantador de pesas sería, por herencia, forzudo. Es bastante increíble que una
teoría tan fácil de refutar empíricamente sobreviviera tanto, pero hasta
entrado el siglo XX hubo gente que la defendió. Y es que tenía la enorme
ventaja de encajar con el sentido común.
Erasmus continuó desarrollando sus teorías durante el resto de su vida y, en
1803, se publicó The Temple of Nature or the Origin of Society (El
templo de la naturaleza o el origen de la sociedad), donde, ahora en verso,
acometía nuevamente el tema de la evolución. Sus ideas fueron condenadas:
estaban claramente fuera de lugar en una sociedad que se encontraba en guerra
con la Francia napoleónica y ansiaba mucho más la estabilidad y la seguridad
que la revolución y la evolución.
Erasmus ya había muerto en 1802, a los 70 años de edad. No obstante, quizá
precisamente por la situación política existente, fue en la Francia
napoleónica, como ya lo sabemos, donde se asumieron y desarrollaron, en algunos
aspectos de manera más completa, teorías similares a las de Erasmus Darwin. Y
fue justamente allí donde se desencadenó la polémica de la que les prometí que
les hablaría en el capítulo anterior y al comienzo de éste, y que es
conveniente retomar aquí.
§. La polémica de 1830 entre Cuvier y Saint-Hilaire
Cuenta el físico Frédéric Soret que cuando visitó a Goethe unos pocos días
después de la revolución parisina de julio de 1830 (que había destronado al rey
Carlos X y que habría de imponer a Luis Felipe, de la rama Borbón-Orleáns, ya
no como rey de Francia por derecho divino sino como «rey de los franceses»), se
produjo una conversación como la que sigue. No bien entró Soret al gabinete del
gran escritor alemán, éste lo acometió:
GOETHE: — ¿Qué piensas de este gran evento? ¡El volcán ha erupcionado, todo
está en llamas!
SORET: —Una historia terrible, pero… ¿podría haberse esperado, bajo
circunstancias tan notables y con un ministro tal, otra cosa que no fuera la
expulsión de la familia real?
GOETHE: —Parece que no nos estamos entendiendo, mi buen amigo… No estoy
hablando de toda esa gente en las calles, para nada, sino de algo completamente
diferente. Estoy hablando de la polémica, de la mayor importancia para la
ciencia, entre Cuvier y Geoffroy Saint-Hilaire, que ha estallado en plena
Academia.
Soret permaneció callado.
Lo que ocurre es que Goethe exageraba, pero no tanto. Las discusiones entre las
dos grandes figuras de la anatomía comparada francesa, que se llevaron a cabo
de manera pública a lo largo de dos meses en 1830 pero que se venían gestando
durante toda la última década, fueron un verdadero acontecimiento que sacudió
el mundo científico y que tuvo en vilo a miles de personas de la Europa
ilustrada, poniendo sobre el tapete uno de los temas que habría de generar una
de las más importantes revoluciones de la cosmovisión occidental de que se
tenga memoria.
Saint-Hilaire había creado un gran sistema, es verdad, pero, como suele
ocurrir, lo había extendido más allá de sus posibilidades, para hacerlo
universalmente válido. Y algunas de las conclusiones que sacaba —como aquella
que les conté acerca de la homología entre el esqueleto de los artrópodos y la
columna vertebral de los vertebrados— junto a, obviamente, su transformismo
radical, provocaron la oposición de su antiguo ayudante y amigo Cuvier, ahora
convertido en rey —más bien dictador— de la biología francesa.
La tensión entre ambos sistemas estaba latente (el transformismo de Geoffroy
era obviamente incompatible con la idea de Cuvier de que entre los cuatro
grandes tipos no había ninguna forma de relación), pero la ruptura definitiva
se produjo cuando Saint-Hilaire sometió con entusiasmo a la Academia de París
el trabajo de dos jóvenes naturalistas Laurencet y Meyranx, que pretendían
demostrar que la estructura anatómica de pulpos, calamares y sepias podía ser
concebida como si el animal fuera un vertebrado doblado hacia atrás a la altura
del ombligo, con la pelvis debajo de la nuca y los pies en la proximidad de la
cabeza. De este modo, un pulpo, al desplazarse con sus tentáculos, ofrecería
cierta semejanza con los movimientos de un acróbata que marchara
simultáneamente con sus pies y con sus manos, doblados la cabeza y los hombros
hacia atrás.
Era ir demasiado lejos, sobre todo para alguien que, como Cuvier, basaba su
propio sistema en una separación tajante entre vertebrados y artrópodos. La
situación lo merecía y la Academia, ni lenta ni perezosa, organizó una serie de
debates públicos que se llevaron a cabo todos los lunes por la tarde. En
discusiones que tomaban horas y en las que los argumentos se repetían hasta el
hartazgo frente a un público masivo y ruidoso, el entonces pope de la biología
francesa mostró, en primer lugar, que las analogías propuestas por los
«apadrinados» de Saint-Hilaire eran claramente inventadas, pero luego amplió el
campo y atacó la unidad del plan anatómico del reino animal, iniciando así una
discusión de mucho mayor alcance, que merece indudablemente un capítulo aparte
en la historia de las grandes polémicas científicas.
El interés despertado por las discusiones terminó por alcanzar a todos los
países donde había científicos que meditaban sobre tales problemas. Parecía que
habían vuelto los tiempos antiguos, en los que las discusiones filosóficas
sacudían al mundo (como lo testimonia la anécdota de Goethe). Las posiciones de
los científicos estaban divididas: los pensadores austeros, acostumbrados a la
marcha severa de la ciencia antes que a su vuelo rápido, dieron la razón a
Cuvier, mientras que los espíritus audaces adhirieron a Geoffroy.
Acaso por el prestigio con el que ya contaba, acaso por la meticulosidad con la
que presentaba sus argumentos o por sus vastísimos conocimientos de anatomía,
la polémica concluyó con una «victoria» de Cuvier, que logró poner en evidencia
las exageraciones de Geoffroy y convencer al público en general de que era
aconsejable rechazar su teoría del plan unitario de la naturaleza y la
evolución de las especies a partir de un arquetipo. Lo cual demuestra que estos
grandes torneos no siempre dan la razón al futuro, y sostiene el dicho de que
«tener razón demasiado pronto es lo mismo que estar equivocado».
La noche de Galois
Aunque no tenga específicamente que vercon el tema que estamos tratando,
aprovechemos que estamos en época pararetomar, brevemente, una historia que les
prometí en el lejano capítulo sobreel Renacimiento y que nunca les conté.
Cuando hablamos de las ecuacionesalgebraicas y sus resoluciones en el siglo XV,
les había contado que sehabían resuelto todas hasta las de cuarto orden (es
decir, con la incógnitaelevada a la cuarta potencia) y les dije que la de
quinto orden tardaríamucho en encontrar su resolución y que estaría asociada
con una historia de amory de muerte. Es el momento de contarla.
La ecuación de quinto orden (x5+ bx4 + cx3 + dx2 + ex+ f =
0) se resistía, y se resistió durante dos siglos por lo menos.Recién a
principios del siglo XIX, primero Niels Henrik Abel (1802-1829) yluego Évariste
Galois (1811-1832) —noten las edades— demostraron que eraimposible encontrar
una fórmula que la resolviera: es lo que técnicamente seexpresa como que la
ecuación de quinto grado, y cualquiera de grado mayor, nose puede resolver por
radicales —es decir mediante una fórmula general—.
Lo que es extraordinario es el caminoque tomó Galois, deduciendo esta propiedad
de la teoría de grupos, un tipo deestructuras que inventó o descubrió. La
historia fue una combinación de geniomatemático, pasión política y duelo
romántico: los descubrimientos losrealizó de adolescente; más tarde, tras la
revolución de 1830 en Francia, quepara decepción de los manifestantes culminó
con el entronizamiento de LuisFelipe de Orléans, Galois, ferviente republicano,
fue perseguido y pasóvarios meses preso.
Nuestro personaje fue uno de los grandesmatemáticos de la historia. Cuando
abandonó la cárcel por última vez se vioenvuelto en un lío de polleras que lo
llevó, un mes después, a batirse en unduelo. La noche anterior a aquel día
fatídico, escribió una carta exponiendotodas sus teorías matemáticas, que
sirvieron de motor para un siglo dedesarrollo del álgebra, y que tardaron mucho
en ser comprendidas porcompleto. La teoría de conjuntos, potenciada por la
teoría de grupos, fue unade las grandes conquistas del siglo XIX, y surge de
esa carta desesperada queGalois escribió la noche anterior al duelo a causa del
cual moriría tres díasmás tarde.
Y tenía veinteaños.
Porque Cuvier, con su rígida adhesión a la fijeza de las especies y con sus
multiplicables catástrofes —empeoradas por sus discípulos— pertenecía, en
cierta forma, a las estribaciones del siglo XVIII, mientras que Geoffroy se
estaba embarcando de lleno en el siglo XIX. Y lo hacía porque su idea del
arquetipo parecía exigir una teoría de la evolución del tipo de la que Lamarck
había propuesto veinte años antes, y que ya revisaremos.
Saint-Hilaire, con su transformismo a flor de piel, es entonces una buena puerta
de entrada para la gigantesca aventura intelectual que significó el siglo XIX,
no sólo para la biología sino para todos los campos de la ciencia.
Allá vamos.
El transformismo y su época
Hay que decir que el transformismo encajaba con los tiempos que corrían
—el término mismo «evolución» ya había sido acuñado por Albrecht von Haller
(1708-1777) para su teoría embriológica—: el imaginario europeo se estaba
embarcando en la doctrina del progreso y las ideas de cambio —y aun de cambio
rápido— comenzaban a prevalecer sobre las de permanencia, duración y eternidad.
En 1776, Adam Smith publicó La riqueza de las naciones, una teoría
dinámica del sistema capitalista naciente, y en 1798 apareció el Ensayo
sobre la población de Malthus, que tanto inspiraría a Darwin. Por otro
lado, la geología en expansión aportaba al transformismo el ingrediente
esencial que le faltaba: tiempo.
Aunque nadie lo sabía aún, la doctrina de la fijeza de las especies había
entrado en una fase terminal y, en ese sentido, las hipótesis catastrofistas
fueron, ya de entrada, un anacronismo; las ideas transformistas, sin embargo,
no dejaban de ser intuiciones oscuras, pasos a tientas, ensoñaciones
manifiestas, casi cuestión de creencia y opinión.
Y así y todo, se percibía la necesidad de una reforma.
Linneo y Cuvier habían jugado para la biología el papel que Tycho Brahe había
cumplido para la astronomía, al establecer un método de observación preciso,
inspirado en el mecanicismo newtoniano. Hacía falta que alguien redondeara y
reuniera en una teoría coherente todas esas intuiciones básicas del mismo modo
en que Copérnico había reunido las ideas flotantes desde la Antigüedad sobre el
heliocentrismo y les había conferido legalidad y estatus científico.
Y bueno. Una especie de Copérnico del transformismo (con todo el cuidado que
hay que tener cuando se compara a alguien con Copérnico) fue Jean Baptiste de
Lamarck (1744-1829), que fusionó todas aquellas ideas vagas en una teoría
completa y transformó el transformismo en evolución.
§. Lamarck
Jean Baptiste Lamarck (1744-1829) desarrolló buena parte de su carrera de
naturalista como botánico, pero en 1794 debió encargarse en París del estudio
de los invertebrados en el Muséum d’Histoire Naturelle que la
Revolución había montado sobre el antiguo Jardin du Roi. Allí
construyó una clasificación que le dio un lugar prominente en la biología,
palabra que, dicho sea de paso, él mismo inventó (al mismo tiempo que los
médicos alemanes Treviranus y Burdach).
Transformista desde el vamos, Lamarck optó por el arquetipo cambiante que ya
vimos que sostenía Erasmus Darwin: su versión de la evolución consideraba que
en cada especie determinados animales podían ir cambiando sus características
en su interacción con el medio ambiente y legar esos rasgos cambiados a su
progenie. En 1809, en su Filosofía zoológica, afirmó que los seres
vivos tendían a adaptarse mediante el abuso de algunas partes de su cuerpo y el
descuido de otras, abuso y descuido que se transmitían a sus descendientes. Las
partes inútiles se atrofiaban gradualmente, mientras las adaptativas se
desarrollaban y así, mediante la transmisión hereditaria y la acumulación,
lentamente las especies se iban modificando. Los primeros y primitivos seres
vivientes se habían originado por generación espontánea a partir de una especie
de caldo inicial y mediante ese mecanismo de adaptaciones, atrofias e
hipertrofias, habían dado lugar a la enorme variedad biológica actual.
El ejemplo favorito de Lamarck era el de un animal recién descubierto por los
europeos: la jirafa. Un antílope primitivo, sostenía Lamarck, aficionado a
comer hojas de árbol, estiró su cuello hacia arriba con toda su fuerza para
alcanzar el máximo de hojas posible y junto con su cuello también sus patas y
su lengua. El estiramiento así producido se transmitió a sus hijos, que
repitieron la operación, estirando patas, cuello y lengua más aún. De esta
manera, de generación en generación, las proporciones de aquel olvidado
antílope se fueron modificando, hasta devenir toda una jirafa. Los cambios se
iban profundizando durante siglos y los sucesivos desarrollos iban mejorando
las especies que mostraban, al final, la maravillosa adaptación que hoy vemos.
La hipótesis era atractiva, qué duda cabe, pero tenía un obstáculo insalvable:
los caracteres adquiridos no se heredan. Por más que una jirafa estire su
cuello, su prole no heredará el estiramiento, del mismo modo que, si se le
corta la cola a un ratón, sus hijos no nacerán sin cola: la doctrina de los
caracteres adquiridos no pasaba la prueba empírica (Lamarck y sus seguidores
tampoco habían realizado demasiados estudios concretos que dieran cuenta de los
mecanismos por los que los ambientes permiten este proceso de mejora de la
especie, no examinaron fósiles y tampoco prestaron atención a la biogeografía).
Aunque, intuitiva como era, podía explicar bastante bien la evolución de las
especies.
Y era efectivamente una estocada contra la doctrina que, con mano de hierro,
Cuvier defendía en Francia. Pero justamente la «dictadura» del fijismo
«cuvieriano» (si se me permite un neologismo tan espantoso) impidió que la
teoría de la evolución de Lamarck tuviera la suerte que merecía. Aunque hay que
reconocer que, al fin y al cabo, Cuvier había hecho hincapié, para combatirla,
en el punto que verdaderamente no funcionaba, que era el de la herencia de los
caracteres adquiridos. Cuando Lamarck murió, a los noventa y cinco años, casi
olvidado, en el elogio fúnebre Cuvier lo ensalzó como botánico y taxonomista,
pero ni siquiera mencionó su teoría de la evolución. Lo cual, en verdad, era
una cretinada.
La pionera teoría de Lamarck tuvo el ambiguo destino de tantas teorías que
fueron pioneras: no alcanzó a imponerse pero sirvió de base —o de plataforma— a
quienes, luego, descubrirían cuál era el verdadero mecanismo de la evolución.
El mismo año en que se publicaba la Filosofía Zoológica, como si
fueran eslabones de una cadena de producción, nacía en Inglaterra Charles
Darwin.
Darwin emprende un viaje alrededor del mundo
Podemos comprender, hasta cierto punto, por qué hay tanta belleza por toda la
naturaleza, pues esto puede atribuirse, en gran parte, a la acción de la
selección natural.
DARWIN, El origen de la especies
Charles Darwin (1809-1882) no estaba destinado a ser naturalista sino
médico, como su padre y su abuelo Erasmus. A los 16 años fue a estudiar a
Edimburgo donde, asqueado por las cirugías, duró sólo dos años, pero alcanzó a
conocer a geólogos y biólogos. Ante su falta de capacidad médica, fue enviado a
estudiar religión a Cambridge, donde también se vinculó con los círculos
científicos.
Pero la vida del futuro héroe de la biología dio un vuelco cuando, en 1831,
consiguió el puesto de naturalista de a bordo del Beagle, barco de
Su Majestad Británica, que recorrería los mares del mundo. Retrospectivamente,
se puede decir que fue el viaje más importante de la historia de la biología.
No fue un viaje corto, ni un viajecito de placer: la expedición duró cinco
años. Entre los mareos que le provocaba el vaivén del barco y los intensos
momentos que vivía en tierra firme, Darwin tuvo tiempo de leer los Principios
de geología, de Lyell, donde el gran geólogo sostenía, como ustedes ya
saben, el uniformitarianismo (esto es, la idea de que los cambios en la
superficie terrestre son resultado de procesos geológicos en larguísimos
períodos). Nuestro viajero, que había partido de Inglaterra convencido, por
acción u omisión, de la fijeza de las especies, encontró especies muy próximas
y ligeramente diferentes que parecían responder a presiones ambientales: en el
archipiélago de las Galápagos pudo ver que entre los pájaros pinzones que
habitaban las diferentes islas había diferencias en los picos que se debían a
las necesidades alimentarias que les imponía el lugar. A pesar de su formación
religiosa, Darwin ya no podía creer que Dios se hubiera tomado el trabajo de
crear tantas especies tan parecidas de un mismo tipo de pájaros. ¿Para qué?
Cuando regresó, en 1836, ya tenía cierta reputación, ganada gracias a las
cartas que enviaba regularmente a Inglaterra contando sus observaciones.
Rápidamente se posicionó en el seno de la comunidad científica y se dedicó a
escribir libros, folletos y su diario de viaje, que resumía sus experiencias en
el Beagle. Mientras tanto, comenzó a juntar sus notas en busca de
una respuesta al «problema de las especies». El viaje lo había llevado a creer
cada vez menos en el fijismo y más en la posibilidad de que se produjeran
cambios graduales por acción del medio ambiente.
También sabía, obviamente, de la selección artificial que los humanos hacen de
plantas y animales, eligiendo y reproduciendo aquellos que mejor cumplen los
objetivos de utilización. Habló extensamente con criadores que le explicaron
cómo, mediante cruzas, conseguían acumular los rasgos más deseables en sus
animales: velocidad en algunos caballos, fuerza en otros.
El hombre no puede crear variedades ni impedir su aparición; puede
únicamente conservar y acumular aquellas que aparezcan.
Pero, ¿qué ocurría cuando no había intervención humana? Evidentemente la
naturaleza debía resultar determinante a la hora de seleccionar algunos rasgos
y no otros, aunque no podía hacer nada para que «apareciera» tal o cual rasgo.
¿Qué mecanismo jugaba en la naturaleza el papel del criador y se constituía en
el motor del cambio? Ése era el asunto.
Esas cosas estaba pensando cuando, en 1838, cayó en sus manos el libro de
Thomas Malthus llamado Ensayo sobre el principio de la población,
en el cual exponía una teoría sobre la competencia por sobrevivir que, según
él, se daba en la sociedad humana:
La población, si no se pone obstáculos a su crecimiento, aumenta en
progresión geométrica, en tanto que los alimentos necesarios al hombre lo hacen
en progresión aritmética.
Malthus sostenía que el único límite para el crecimiento de la población
estaba dado por el medio ambiente y la cantidad de alimento disponible, que, al
multiplicarse más lentamente que los humanos, los obligaría, tarde o temprano,
a competir tenazmente para conseguir el sustento. Sólo algunos sobrevivirían.
Este enunciado tan catastrófico como poco serio (ya que ninguna de las
progresiones de Malthus puede ser atestiguada) ayudó a Darwin a dar con la
clave del mecanismo evolutivo: la selección natural.
De cada especie y en cada generación nacen muchos más ejemplares de los
que el medio ambiente puede sostener; solamente una fracción sobrevive a la
lucha por la existencia y llega a poder reproducirse. Como nacen más individuos
de los que pueden sobrevivir, y parte de éstos deben desaparecer, en cada caso
hay una lucha por la existencia, ya sea entre individuos de la misma especie,
con los de otra o con las condiciones de vida.
Ahora bien, cada camada presenta variaciones naturales:
habrá ejemplares más y menos fuertes, con un color más y menos propicio al
mimetismo, más y menos ágiles, con mayor o menor capacidad alimentaria o con
mayor capacidad de huir de sus predadores.
Hay también muchas diferencias ligeras, como las que se observan en
distintos descendientes de los mismos padres, y a las que llamaremos
«diferencias individuales». Estas diferencias son de gran importancia, ya que
aportan material sobre el cual actúa acumulativamente la selección natural, tal
como el hombre acumula, en una dirección determinada, las diferencias
individuales de las especies domésticas.
Y seguía:
Pero cada uno de estos cambios es tan pequeño, y su acumulación tarda
tanto tiempo, que no alcanzamos a apreciarlo, y cuando observamos las
transformaciones producidas a lo largo de los períodos geológicos sólo vemos
que las formas orgánicas actuales son muy diferentes de las antiguas.
Aquellos con un carácter más adaptativo tendrán mejores posibilidades de
llegar a reproducirse, y como el carácter no es adquirido sino natural, sí lo
transmitirán a sus descendientes. En sucesivas generaciones, la selección
actuará una y otra vez en favor de ese rasgo, que tenderá a hacerse
predominante. Y así, estos caracteres diferenciados, cuando se acumulan, a
través de las eras, terminan por dar lugar a una nueva especie. No es que el
antílope de Lamarck estirara su cuello hasta convertirse en jirafa, es que,
para continuar con el ejemplo, aquellos antílopes que debido a las variaciones
naturales tenían el cuello un poco más largo podían alimentarse mejor, y
tenían, en consecuencia, más chances de procrear una descendencia que, como se
trataba de un rasgo natural, heredaba el cuello largo.
Debido a la lucha por la existencia, la más pequeña variación, si es de
alguna manera favorable a los individuos de una especie, ayudará a la
conservación de los mismos y será, en general, heredada por sus descendientes.
Éstos, a su vez, tendrán mejores posibilidades de seguir con vida, pues de los
muchos individuos de una especie que nacen, sólo un pequeño número puede
sobrevivir.
La operación, repetida al compás de las generaciones, iría lentamente
favoreciendo la reproducción de los que tuvieran cuellos más largos hasta dar,
mucho después, una jirafa. No era la naturaleza presionando para que los
individuos cambiaran ni los individuos esforzándose por adaptarse a la
naturaleza (como proponía Lamarck) sino al revés: se producía alguna variación
casual en algún individuo y, si tal variación respondía mejor a una presión
ambiental, este individuo tendría más posibilidades de sobrevivir y, por lo
tanto, de reproducirse.
Aquellas especies que no evolucionan al compás del medio ambiente, por su
parte, tienen un triste horizonte por delante: la extinción.
Cuando una especie se extingue, no reaparece jamás, ni siquiera si
vuelven las mismas condiciones de vida, ya que al perderse la especie madre las
formas que pudieran desarrollarse por acumulación de pequeñas variedades
presentarían, sin duda, algunas diferencias. Según la teoría de la selección
natural, la extinción de formas viejas y la aparición de otras nuevas están
estrechamente vinculadas. La antigua idea de que todos los seres que poblaban
la tierra habían sido aniquilados por catástrofes sucesivas ha sido abandonada.
Opinamos ahora que las especies y grupos de especies desaparecen gradualmente,
unos tras otros, primero de un sitio, luego de otro y, por fin, del mundo.
Como Copérnico, Darwin tenía todos los datos básicos para exponer su
teoría, pero no se atrevía a darlos a conocer y seguía dando vueltas. En 1842
finalmente publicó un boceto y en 1844 un ensayo más amplio que estaba pensado
para publicación sólo si él moría. A fines de los cincuenta empezó a preparar
un libro de varios volúmenes.
Pero tuvo que apurarse: en 1858 recibió un trabajo que delineaba un concepto
similar al suyo de la selección natural, desarrollado por Alfred Russell
Wallace (1823-1913). Wallace se ganaba la vida coleccionando animales raros,
para lo que había viajado mucho; él también había recibido la influencia de las
ideas de Lyell y Malthus y avanzaba hacia la idea de selección natural, aunque,
como no se interesaba en la reproducción animal, no había utilizado como
ejemplo la selección artificial y se había basado más bien en subespecies que
en individuos de características particulares dentro de una misma especie. La
cuestión es que en 1858 le escribió a Darwin, con quien ya había mantenido una
nutrida correspondencia, preguntándole por su opinión acerca de la idea que
estaba esbozando.
Darwin había trabajado en lo suyo por años y no estaba dispuesto a perder la
prioridad de su gran teoría. Por recomendación del mismo Lyell, publicó al
mismo tiempo que Wallace, su propio trabajo en una revista científica. Hay que
decir que entre ellos no se generó una típica competencia académica por la
prioridad, como las de Newton y Hooke o Newton y Leibniz, sino que resolvieron
las cosas como caballeros.
Y finalmente, llegó el gran libro: el 24 de noviembre de 1859 salió a la venta
la primera edición de El origen de las especies con todos los
detalles de la teoría.
En el prólogo, Darwin reconocía que la motivación para publicar el libro había
sido especialmente
el que Wallace ha llegado casi exactamente a las mismas conclusiones
generales a que he llegado yo sobre el origen de las especies.
La primera edición de 1.250 ejemplares se agotó ese mismo día y lo mismo
ocurrió con la segunda edición de 3.000. En realidad, se agotó porque los
distribuidores hicieron fuertes compras y no porque el público se precipitara a
adquirirlo, pero de todos modos no estaba nada mal para una obra científica en
tiempos en que un bestseller llegaba a vender 30 o 40 mil ejemplares.
El origen de las especies es muy claro y honesto en cuanto a la
fuerza de la teoría y las dudas del autor y es, en sí mismo, una gran obra de
divulgación científica. Resulta interesante que Darwin no usara la palabra
«evolución», sino otros términos como «descendencia con modificación» y
«selección natural», que luego fueron resumidos con la palabra que utilizamos
hoy. En 1889, después de la muerte de Darwin, Wallace publicaría un libro
llamado Darwinismo en el que rendía honor a la gran labor de
su colega y amigo.
El segundo libro de Darwin, El origen del hombre y la selección con
relación al sexo, expandió la evolución para incluir cuestiones morales y
psicológicas. Ya fuera por miedo, por cautela o por falta de convicción, en
ninguna parte Darwin habló específicamente del hombre como descendiente de los
monos o de los grandes simios, sino que le dejó ese campo a uno de sus más
fervorosos apologistas, Thomas Huxley (1825-1895), el abuelo del escritor.
Huxley llevó las conclusiones de la teoría de la evolución más lejos que el
mismo Darwin y publicó, en 1863, su propio libro (La evidencia del lugar del
hombre en la naturaleza), en el que aseguraba que
en cualquier grupo de órganos que se estudiara, las diferencias
estructurales que separan al hombre del gorila y del chimpancé no son tan
grandes como las que separan al gorila de los monos más simples.
Provocó, desde ya, el horror de la sociedad de la época. Esos dignos
caballeros y damas victorianos que se consideraban el centro del mundo no
aceptaban fácilmente estar emparentados con los monos.
Del mismo modo que Copérnico había descentrado a la Tierra del centro del
universo, Darwin descentraba al hombre del centro de la biología y destruía la
idea de su especificidad, presentándolo como el resultado de una fuerza ciega,
la selección natural, que actuaba sin objetivos ni propósitos.
Había que ser cauto, no obstante, con la cuestión religiosa. Y Darwin
ciertamente lo fue:
Hay magnificencia en esta concepción de que la vida, con sus variadas
posibilidades, fue alentada originariamente por Dios en unas pocas formas o en
una sola, y que, mientras la Tierra giraba según la ley de gravitación, desde
un comienzo tan sencillo se propagaron y desarrollaron formas infinitas, cada
vez más hermosas y deslumbrantes.
Pensada así, la selección natural no sólo no le restaba importancia y
magnificencia a la tarea divina de la creación sino que, por el contrario, se
las sumaba: si Dios podía lograr la maravillosa diversidad de la vida a partir
de la conjunción de una sola forma original, un puñado de
leyes físicas y, fundamentalmente, el tiempo (cosa que a Dios, por supuesto, le
sobra)… ¿para qué esforzarse en vano diseñando tantas especies desde el
principio? ¿No era más conmovedor pensar que en un arquetipo (como aquel en el
que pensaba Saint-Hilaire) estaba contenida, en potencia, toda la vida que
habría de venir?
Para la Iglesia Anglicana, por lo menos, la respuesta estaba clara: no. Cuando
Thomas Huxley defendió frente al obispo de Oxford la teoría de la evolución y
éste le preguntó si él descendía del mono por parte de madre o de padre,
respondió con británica y darwiniana flema:
Preferiría descender del mono por ambas partes y no tener el minúsculo
cerebro de quien formuló la pregunta.
Darwin murió en 1882 y fue enterrado con todos los honores en la Abadía
de Westminster, cerca de la tumba de Newton.
§. La teoría de la evolución estaba incompleta
Aunque es mucho lo que permanece oscuro, no puedo abrigar la menor duda
de que el punto de vista que hasta hace poco sostenía la mayoría de los
naturalistas, y que yo mantuve anteriormente, a saber, que cada especie ha sido
creada de manera independiente, es erróneo. Estoy convencido de que las
especies no son inmutables, sino que las que pertenecen a lo que se llama el
mismo género son descendientes directos de alguna otra especie generalmente
extinguida, de la misma manera en que las variedades reconocidas de una especie
cualquiera son descendientes de esta especie.
DARWIN
El origen de las especies tuvo un impacto
comparable a los Principia de Newton (si es que algo se le
puede comparar) y terminaría por convertirse en el eje de la biología. Pero la
teoría de la evolución de 1859 tenía sus dificultades: ¿por qué es que hay
especies tan definidas y faltan los numerosos pasos intermedios que deberían
existir entre una y otras? ¿Es posible que haya rasgos que no representen
ninguna ventaja adaptativa? ¿Cómo surgen los instintos en la evolución? ¿Por
qué los descendientes de especies cruzadas son estériles? Darwin ensayó
respuestas razonables y muchas veces provisorias, pero en realidad el gran
problema es que no contaba con una teoría de la herencia que permitiera
redondear las cosas y explicar cómo se difundían los caracteres seleccionados
dentro de las poblaciones. Era una dificultad seria, pero allí no había nada
que hacer.
Las leyes que gobiernan la herencia son desconocidas. Nadie puede decir
por qué algunas características se heredan a veces y a veces no; por qué un
individuo se parece en ocasiones a sus abuelos o a antepasados aún más remotos,
ni por qué algunas peculiaridades se transmiten a los descendientes de ambos
sexos y otras sólo a los de un sexo.
Si Darwin hubiera leído este libro, se habría enterado de que en esos
mismos momentos, en medio del silencio de un monasterio austríaco, un monje
llamado Gregor Mendel (1822-1884) publicaba buena parte de la solución a este
problema. Pero prácticamente nadie lo leería (a Mendel, no este libro) hasta el
siglo siguiente, cuando comenzara a desarrollarse la teoría genética.
La polémica que levantó el darwinismo fue tan intensa como la que derivó de la
teoría heliocéntrica y todos los biólogos se sintieron obligados a tomar
partido, pero los defectos trababan su victoria completa. A fines del siglo XIX
y comienzos del XX, aunque ningún científico dudaba de que efectivamente había
habido evolución de las especies, la teoría darwinista de la evolución por
selección natural era tratada como una hipótesis más. Recién con el desarrollo
de la teoría cromosómica que explica la herencia y los cambios y la genética en
general, hacia los años 1930, se elaboró la gran síntesis neodarwiniana que dio
al evolucionismo por selección natural una solidez absolutamente indiscutible.
§. Pero no para todos
El golpe propinado por Darwin al orgullo humano fue, si se quiere, más violento
que el de Copérnico: le quitó el lugar de protagonista de la Creación, amo y
señor de la naturaleza, para convertirlo en un accidente más en la historia de
la biología. Era difícil de aceptar y no fue aceptado así nomás. En la década
de 1920, en los Estados Unidos, una ley del estado de Tennessee prohibió
enseñar la teoría de la evolución:
La teoría darwiniana será ilegal para todo profesor, en cualquiera de
las universidades, colegios normales y otras escuelas públicas del Estado.
Tres estados más se adhirieron a la prohibición, y a raíz de ella se
desarrolló un resonante juicio que atrajo la atención de todos los Estados
Unidos y que fue bautizado como «El juicio del mono».
En 1925, un maestro de Tennessee, John Thomas Scopes, joven profesor de
biología, decidió desafiar públicamente la prohibición y enseñó la teoría de la
evolución en su escuela, lo cual le valió la cárcel y el sometimiento a juicio,
tal como estaba previsto.
Lo defendió Clarence Darrow, un célebre abogado criminalista norteamericano.
Como era imaginable, el juicio se convirtió en una discusión que fluctuaba
entre la biología, la teología y la interpretación literal de la Biblia; a
pesar de la habilidad del defensor, Scopes fue declarado culpable y multado con
cien dólares. La historia fue llevada al teatro (y luego al cine) con el
título Heredarás el viento
El asunto no terminó allí: a partir de los ochenta, corrientes religiosas
fundamentalistas norteamericanas volvieron a insistir para que la evolución se
enseñara como «una opción más» frente al relato bíblico. La última variante de
estas posturas es la del «diseño inteligente», que acepta la evolución de los
animales más grandes, pero que niega rotundamente la posibilidad de que los
animales muy simples hayan evolucionado sin una «mente superior» que los
diseñara.
La ciencia newtoniana, por cierto, no es fácil de aceptar para todo el mundo. Y
los procesos culturales son lentos, lentísimos.
§. Una confusión sobre la supervivencia del más apto
Darwin era consciente de que el término «selección natural» que utilizaba para
describir este proceso invitaba a la confusión, ya que «seleccionar» parece un
acto volitivo, de la voluntad. Por eso, reconoció que no podía encontrar uno
mejor pero se ocupó de aclarar posibles dudas:
Se ha dicho que yo hablo de la selección natural como de una potencia
activa o una divinidad, pero ¿quién hace cargos a un autor que habla de la
atracción de los planetas?
La selección natural no es una fuerza que actúe con propósito alguno, ni
en determinada dirección;
no produce los cambios, como han entendido ciertos autores; sólo implica
la conservación de las variaciones que aparecen y que resultan beneficiosas
para los seres orgánicos en su adaptación a las condiciones de vida.
Asimismo, los rasgos seleccionados «positivamente» no están ligados a
valores «positivos» trascendentales sino relativos: algo puede ser positivo en
un determinado ambiente y negativo en otro. La velocidad, el tamaño, la vista o
incluso la inteligencia pueden ser buenos, malos o neutros en un medio ambiente
siempre cambiante, y sólo se manifiestan como tales a lo largo de millones de
años. La selección natural sólo conserva los rasgos adaptativos, es una fuerza
ciega y puramente material.
Por supuesto, la tentación de usarla en cuestiones sociales fue inmediata y así
lo hizo la corriente del darwinismo social, que aplicó la lógica de la
evolución a la sociedad humana, argumentando que las personas y los grupos
están sujetos a las mismas leyes de selección natural que había descripto
Charles Darwin. De esta manera, por ejemplo, la dominación de un pueblo por
otro era entendida como un mero reflejo de una supremacía «natural» legitimada
por la ciencia positiva.
Uno de los representantes más conocidos del darwinismo social fue Herbert
Spencer (1820-1903), que fue el que en realidad acuñó el concepto de
«supervivencia del más apto». Spencer pensó a la sociedad como un organismo
vivo en el que eran válidas las leyes biológicas. Así, el individualismo y la
competencia funcionaban como las claves para entender a una sociedad que tiende
a mejorar inevitablemente, de la misma manera que las especies supuestamente
mejoraban gracias a la evolución. La teoría spenceriana especulaba a partir de
una definición del más apto muy alejada de la ciencia darwiniana y manejándose
con períodos de tiempo que nada tienen que ver con la biología, pero era lógico
que el capitalismo triunfante, todavía con grandes resabios de la Revolución
Industrial, la utilizara para legitimar algunas de sus atrocidades.
La derivación más terrible del darwinismo social fue la eugenesia, inventada
por el antropólogo británico Frances Galton (1822-1911) —primo de Darwin—,
quien creó el término a partir del griego eugenes, que significa
«dotado por la herencia de la cualidad de los nobles». La idea de Galton era
que los rasgos mentales y físicos eran hereditarios y, por lo tanto, debería
cruzarse a los mejores para generar una raza de seres superiores. Prácticas
eugenésicas se produjeron durante la primera mitad del siglo XX en muchos
países «insospechables», y las teorías y horrores raciales de los nazis están
vinculados con ellas.
§. Balance
La teoría de la evolución integra finalmente a la biología dentro del universo
de las disciplinas newtonianas y la selección natural se transforma en el
principal mecanismo que describe la historia de la vida. El mundo orgánico,
así, tiene una historia que puede ser descripta, analizada y contrastada.
Y aunque en ese sentido la teoría de Darwin es plenamente clásica, la selección
natural, esa fuerza ciega sobre la que casi nada se puede decir y que sólo
permite explicaciones ex post, no es completa ni enteramente
newtoniana, ya que incluye el azar y una buena cuota de impredictibilidad. Ni
siquiera es estrictamente una «ley» en el sentido newtoniano, sino una
resultante de infinidad de procesos empíricos que no permiten hacer
predicciones ni emitir juicios de valor.
En cierta forma, dentro de la teoría de la evolución estaban ya en germen
algunos aspectos que luego eclosionarían y revolucionarían la ciencia de fines
del siglo XIX y el siglo XX.
Interludio:
Milonga Darwiniana
Milonguita darwiniana
de los pies a la cabeza,
se sabe cuándo termina
pero nunca cuándo empieza.
En el barrio de Pompeya
muy cerca de donde están
las vías, hubo un malevo
apellidado Galván.
Como un rey en la milonga
y una luz con el facón
a Galván lo fascinaba
la ley de la evolución.
«¡Qué grande fue Charles Darwin!
— reflexionaba el malevo—,
se puede decir que él solo
fabricó el mundo de nuevo».
Y en medio de la milonga
mandaba parar la cosa
para mandarse un discurso
medio en verso y medio en prosa.
Le decía al malevaje:
«Escuchen esta teoría
que es el punto culminante
de toda la biología».
Si por ái se retobaba
la audiencia desconcertada,
los mantenía en un puño
clavandolés la mirada.
Decía: «Nunca sabemos si algo
está bien o está mal,
eso el tiempo lo decide
por selesión natural.
No se sabe cuáles son
los rasgos adaptativos,
a veces los más borregos
resultan ser los más vivos.
Escuchen si no esta historia:
los mató una suerte perra
a los grandes dinosaurios
que dominaron la tierra.
No pudieron adaptarse
a un planeta que cambiaba
ni mantener el calor
mientras el mundo se enfriaba.
Escuchen con atención
esto que les digo yo:
en el mundo y en Pompeya
quien no se adapta, sonó».
Explicaba con paciencia:
«En cada generación
no da abasto el medio ambiente
pa’ toda la población
y así empieza cada bicho
la lucha por la esistencia,
por la hembra, la comida
y por dejar descendencia.
Los que son más adaptados
reciben el mejor trato,
los otros se van derecho
para la quinta del ñato.
Los rasgos adaptativos
sufren acumulación,
que se hace más pronunciada
con cada generación.
Y a medida que varían
las cercustancias malevas
las especies van cambiando
y salen especies nuevas.
Las especies estinguidas
millones de años atrás
aunque hayan sido valientes
dejan güesos, nada más.
Y hay que andarse con mucho ojo
porque acá en el arrabal
¡es más fuerte que la yuta
la selesión natural!
El malevo de suburbio
que no sabe biología
podrá tener muchas minas
pero siempre anda en la vía.
No me gusta la inorancia
aquí hay que usar la cabeza.
Como dijo Charles Darwin,
«siempre por algo se empieza».
Y le digo al malevaje
que es importante estruirse
porque si no, cualquier día,
van a tener que estinguirse.
Malevo que da consejos
no es malevo, es un amigo,
escuchen lo que les digo
y estudien la evolución
para estar bien preparados
cuando llegue la estinción».
Milonguita darwiniana
con su corte y su quebrada,
enseguida se termina
y aquí no ha pasado nada.
Capítulo 26
La república celular y la invasión microbiana
Mientras en lo macro se desplegaba el hilo que conduciría a la teoría
central de la biología —la teoría de la evolución—, por debajo se iba
desenvolviendo un cable más fino, si se quiere, aunque con tantas idas y
vueltas como aquél, hacia otra gran síntesis: la teoría celular. Aquí no se
puede ignorar el peso que tuvieron los filósofos de la naturaleza, que, si no
le prestaron demasiada atención al problema de la evolución, sí resultaron
claves al insistir en la idea de que toda la materia viva debía estar organizada
alrededor de alguna unidad fundamental.
De todos modos, hay que decirlo, no todas las unidades son lo mismo: es
necesario dejar bien en claro qué se entiende por «unidad». Una cosa es pensar,
como lo hacían los Naturphilosophen, en una unidad orgánica del
mundo, permeada por fuerzas vitales, escurridizas e inaprehensibles, y otra muy
distinta es pensar la unidad del mundo como la de un mecanismo regido por leyes
impersonales, atento a los últimos resultados de la física y la química y sin
aditamentos metafísicos. Fue este último el concepto de «unidad» que
prevaleció, aunque arrastrando algunos resabios vitalistas y organicistas.
Así, la teoría celular tuvo un largo período de maduración, del mismo modo que
su prima mayor, la teoría de la evolución.
Como ya les conté, la palabra «célula» había sido acuñada por Robert Hooke al
ver, microscopio mediante, minúsculos agujeros o celdillas en una lámina de
corcho. Las células, o la sombra de ellas, habían sido avistadas también por
otros microscopistas como Malpighi o Grez.
Y era lógico: la fiebre del microscopio había abierto las puertas para una
exploración sistemática y desesperada de todo lo que había al alcance de las
manos. Lo que nadie podía ni siquiera soñar era que aquello que se dibujaba
tras la lente pudiera ser el elemento único y básico de los seres vivos.
Si se piensa un poco, la teoría celular es puramente experimental. Las
hipótesis evolutivas —tanto la de Lamarck, como la finalmente triunfante de
Darwin— se basaban en toneladas de datos observacionales, pero fíjense que ni
la presión del medio ambiente con la consecuencia de atrofia e hipertrofia de
órganos, ni el principio de la selección natural y supervivencia del más
adaptado eran observables ni se deducían directamente de los datos: eran
principios teóricos generales extraídos de otras consideraciones generales:
nacen más animales que los que pueden sobrevivir, y sólo permanecen los rasgos
de aquellos que logran reproducirse.
Pero el desarrollo de la teoría celular puede asimilarse al de la visión y de
los aparatos para ver —en este caso el microscopio—. Naturalmente, lo que se ve
o se cree ver —especialmente cuando los instrumentos son toscos como eran los
microscopios de los siglos XVII y XVIII— depende de ideas generales sobre lo que
se puede ver, ideas que están presentes siempre, conscientemente o no, en la
cabeza del investigador. La observación despojada de «ídolos» que pregonaba
Bacon es rara, muy rara. Nadie se acerca a un fenómeno sin una idea previa o un
preconcepto. Lo cual no significa que se pueda proyectar cualquier idea sobre
el resultado de la observación. El volátil autor de estas páginas cree que
existe un mundo objetivo que pone límites experimentales a cualquier exceso de
la imaginación.
La exploración y el desarrollo de la teoría celular, entonces, se pareció
conceptualmente más a la exploración del cielo —digamos, la que hizo Herschel—,
dependiente de lo que permitían ver los telescopios de la época, que a las
grandes generalizaciones mecánicas, físicas o químicas.
I. La teoría celular
§. Las fibras de Von Haller
Es probable, aunque no seguro —en realidad muy inseguro—, que los grandes
microscopistas y los biólogos de los siglos XVII y XVIII se preguntaran si
había algún tipo de unidad en los seres vivos a medida que veían más cosas con
sus microscopios. Por poner sólo algunos ejemplos, en 1665, en su libro Tratado
sobre el tejido que une las vísceras, la grasa y los conductos adiposos,
Malpighi encontró en una muestra de sangre de puercoespín unos glóbulos que
poseen una silueta de una forma particular y son rojizos; su aspecto general es
el de una guirnalda de coral rojo.
En una comunicación enviada a la Royal Society en 1682, Leeuwenhoek contó que
en una muestra de sangre de raya había podido distinguir unas partículas planas
y ovaladas que flotan en un agua cristalina. Cuando se encuentran aisladas,
estas partículas ovaladas carecen de color, pero cuando tres o cuatro de ellas
se apilan, empiezan a mostrar un color rojo.
Ambos estaban viendo los glóbulos rojos, aunque obviamente no lo sabían. Y
menos que menos podían intuir que esas partículas vistas al azar y que no
aparecían en otras muestras animales tuvieran algún tipo de generalidad.
En 1672, en su libro Tratado sobre la naturaleza irritable del tejido,
el médico inglés Francis Glisson propuso que los tejidos animales están
formados por «unidades fundamentales e irritables», a las que llamó «fibras», y
sugirió que eran ellas las que formaban a todos los seres vivos.
Cien años más tarde, Albrecht von Haller (1708-1777) —uno de los anatomistas
más importantes de la segunda mitad del siglo XVIII (y acaso el más importante
de todo el siglo), que exploró todos los rincones de su ciencia e hizo enormes
contribuciones a la medicina, dejando una obra escrita de montones y montones
de volúmenes— tomó la idea de Glisson, y su enfoque fue dominante durante todo
el siglo del Iluminismo. Para él, la unidad de los seres vivientes y el
elemento tectónico de la materia viva estaba dado por las fibras, que en el
microscopio se revelaban como masas alargadas e inorganizadas y que, según
pensaba, componían las partes sólidas, tanto de los vegetales como de los
animales.
Lo estableció casi como un axioma —y esto no es una exageración—, como pueden
ver por su famoso apotegma:
La fibra es, para el fisiólogo, lo que la línea para el geómetra.
Haller pensaba, además, que las fibras que se veían con el microscopio
estaban formadas por microfibras más pequeñas aún, unidas por una sustancia
pegajosa. Tras analizar distintos tejidos animales, llegó a la conclusión de
que existían tres tipos de microfibras: las musculares, las nerviosas y las
celulares (estas últimas, decía, eran las encargadas de sostener el cuerpo).
Había otras variantes, pese a la amplia aceptación de la fibra: por ejemplo, en
1781, el anatomista italiano Felice Fontana escribió:
Los primitivos cilindros retorcidos que descubrí en el tejido nervioso,
los tendones y los músculos, son los más pequeños que he podido encontrar en
todas las partes y órganos que conozco. Son mucho más pequeños que las más
pequeñas vesículas rojas presentes en la sangre. Todos mis intentos por
romperlos en cilindros de menor tamaño han fallado.
Y el filósofo de la naturaleza Ockem, en 1805, sostenía que todos los
seres orgánicos son aglomeraciones de vesículas o «células mucosas».
Había para todos los gustos. Aunque en general la terminología era confusa (y
suena muy confusa a nuestros oídos actuales). ¿Qué quería decir Von Haller
cuando hablaba de «microfibras celulares»? La palabra célula se usaba,
seguramente, con distintos significados, y muy probablemente los que hablaban
de «células» querían decir cosas diferentes. Por ejemplo, es posible que Von
Haller identificara las «microfibras celulares» con las «células» de Hooke sin
que esto significara una aproximación a la célula moderna. Pero es interesante
que la palabra se usara. Además, es muy probable que si veían células, o creían
verlas, las consideraran como una de las tantas cosas que hay en el organismo,
como los nervios, o las venas, o los órganos, pero no como el componente
principal.
Toda esta confusión terminológica no debe extrañarnos: la precisión conceptual,
en general, va a la zaga de la comprensión de los fenómenos.
§. Los tejidos de Bichat
En 1801, el famosísimo médico francés François Bichat (1771-1802) no hablaba de
células, ni de fibras, ni de microtubos: consideraba que el elemento común a
los órganos animales era el tejido. Bichat disecó esos órganos hasta obtener
fragmentos que eran —o que le parecían— homogéneos, y los sometió a muy
diversas manipulaciones (maceración, cocción, acción de los ácidos y de los
álcalis), lo cual le permitió distinguir 21 tipos de tejidos, que eran
—afirmaba— irreductibles. Los anatomistas debían limitarse a estudiarlos y
clasificarlos, no había una realidad más allá.
Pero sí la había, y quizá Bichat la hubiera entrevisto si hubiera utilizado el
microscopio en lugar de una lupa, cosa que no hacía porque consideraba que el
nuevo aparato devolvía imágenes equívocas.
De todas maneras, en los primeros decenios del siglo XIX la mayor parte de los
biólogos se repartían entre las fibras de Von Haller y los tejidos de Bichat.
La mayor parte, sí, aunque no todos: hubo algunos botánicos, como el alemán
Conrad Sprengel o el francés Charles-François Mirbel, que volvieron a la carga
con el término y la noción de «célula», pero ahora lo proponían como elemento
estructural universal, que constituía hasta los vasos de las plantas (como lo
comprobó en 1806 Rudolf Christian Treviranus).
Si tuviera que conjeturar por qué la teoría celular tardó tanto tiempo en
alcanzar su culminación, diría que el gran problema fue el microscopio o, mejor
dicho, la falta de él. No sólo Bichat no lo usó sino que la gran mayoría de los
investigadores lo miraba de reojo, con una sólida desconfianza: uno de los más
brillantes discípulos de Cuvier, Henri de Blainville (1777-1850), llegó a
subrayar más de una vez que no tenía ningún papel que jugar en el análisis de
la estructura de la materia viva:
El microscopio no enseña nada nuevo sobre la constitución anatómica del tejido
celular.
E incluso prevenía contra las teorías erróneas a las que el microscopio
fácilmente prestaba ayuda con sus falsas ilusiones.
El propio Auguste Comte, fundador de la filosofía positivista, condenó el uso
de este instrumento de exploración tan «dudoso» y tronó contra los espíritus
ambiciosos que procuraban desintegrar el irreducible tejido en «mónadas
orgánicas». Es decir, en células. Comte no vacilaba en calificar de «mera
metafísica» el concepto de la célula microscópica.
Era cierto que los microscopios de la época de Bichat eran todavía bastante
primitivos, y no habían adelantado demasiado desde los tiempos de Hooke —aunque
vale recordar todo lo que hizo él con un microscopio primitivo en el siglo
XVII—, pero a mediados de siglo se produjo un gran perfeccionamiento que
eliminó las aberraciones cromáticas y ópticas que contribuían a hacer difusas
las imágenes y a que los investigadores vieran a través de ellos más lo que
querían ver, o lo que sus prejuicios o ideas preconcebidas les hacían ver, que
lo que realmente se veía.
Con microscopios como la gente, la teoría celular estaba ya lista para madurar,
puesto que lo que faltaba era solamente mirar con atención. Pero mirar es
difícil.
§. Schleiden y Schwann y la generalización de las células
Como mirar es difícil, la teoría celular estuvo lejos de imponerse de manera
repentina: de la misma manera que todas las grandes teorías científicas, avanzó
paso a paso. Y uno de esos pasos, fundamental por cierto, fue el que dieron el
botánico Schleiden y el zoólogo Schwann.
Matthias Jacob Schleiden (1804-1881) fue quien, de hecho, rompió con las fibras
de Van Hallen y los tejidos de Bichat. Después de haberse dedicado sin éxito a
la jurisprudencia, trató de suicidarse y falló: como consecuencia de ese fallo,
no sólo no repitió el intento sino que descubrió que su vocación eran las
ciencias naturales (cosa por cierto no muy frecuente entre los suicidas
fallidos) y se dedicó con energía a su estudio. En 1838 publicó un informe que
hacía de la célula la base de la morfología vegetal y sostenía que todas las
plantas, con el conjunto de sus órganos, no eran más que una aglomeración de células:
la célula era la unidad básica viviente de la estructura vegetal y representaba
la entidad fundamental a partir de la cual la planta se desarrollaba. Cada
célula lleva una doble vida: una autónoma y primaria, que pertenece a la célula
como unidad, y otra incidental y secundaria, como parte integral de una planta.
Ambos procesos vitales son manifestaciones de una fuerza formadora o plasmadora
que prevalece en toda la naturaleza, dando origen a los cristales inorgánicos,
a las células orgánicas, y reuniendo a éstas en la estructura completa de los
seres vivos.
La parte complementaria de la obra botánica de Schleiden estuvo a cargo, como
no podía ser menos, de un zoólogo, que extendió la idea al mundo animal. Teodor
Schwann (1810-1882) hizo de todo: entre otras tantas cosas mostró,
adelantándose a Pasteur, que la fermentación y la putrefacción eran producidas
por microorganismos, cosa a la que nadie prestó la más mínima atención en su
momento. Pero la parte más importante de su obra fueron sus investigaciones
sobre la estructura celular de los tejidos animales. A fines de 1838 comprobó
que en la cuerda dorsal del renacuajo había células provistas de núcleos
semejantes a las células vegetales descriptas por Schleiden (el núcleo había
sido descubierto, o avistado, digamos, poco antes, en 1831, por Robert Brown).
Observó lo mismo en el tejido embrionario del cerdo y en las hojas germinales
del pollo; buscó células en los más diversos tejidos del organismo animal,
oponiéndose a las tesis de Bichat de que los tejidos eran irreductibles —lo
cual era «cierto» si se tiene en cuenta que, con una miserable lupa por
instrumento como la que él usaba, los tejidos pueden parecer irreductibles— y
generalizó el asunto mediante un enunciado general:
Por diferentes que sean los tejidos, existe un principio universal en su
desarrollo, y este principio es la formación celular.
Así estableció que la célula era un elemento común a los reinos animal y
vegetal, una de las grandes generalizaciones de la historia de la biología, que
tuvo impacto inmediato y que se convirtió en el eje para la interpretación de
todos los fenómenos biológicos (por lo menos en el nivel micro).
Es que reemplazar los 21 tejidos de Bichat por una única unidad fundamental
abrió de pronto enormes posibilidades a la fisiología y a la patología, e
incluso con el correr del tiempo aclaró algunos problemas que subsistían en
torno de la fecundación —uno de los méritos de Schwann, de hecho, fue haber
reconocido que el huevo es una célula, sea su tamaño microscópico o
macroscópico—.
Sin embargo, la teoría no estaba para nada completa y varias incógnitas
quedaban flotando en el aire: ¿Cómo se reproducían las células? ¿Y de dónde
salían? Tanto Schleiden como Schwann pensaron que el proceso se parecía al de
una cristalización en la cual quien cumplía el rol del líquido cristalizable
era el «citoblastema», la masa semilíquida y sustancia fundamental de la
célula. ¿Pero a partir de qué?, ¿de un material difuso? Y entonces, ¿cómo era
que ese material difuso previo a la célula no constituía él mismo la buscada
unidad? Aquí había un agujero teórico, sin duda.
El citoblastema, poco después, fue llamado «protoplasma» por obra y gracia del
botánico Hugo von Mohl (1805-1872), que dio un paso adelante respecto de
Schleiden y Schwann: se ocupó de describir con bastante fidelidad el desarrollo
y evolución de la célula y sugirió que se reproducía por división (cosa que ya
había sido observada por otros biólogos).
Pero igual no alcanzaba: quedaba pendiente el mecanismo de esa división. Los
botánicos suponían que, antes de que ocurriera, el núcleo se disolvía en el
protoplasma para reconstruirse más tarde en las células hijas. Recién en 1852,
Robert Remak (1815-1865) pudo establecer que era en cierta forma justo al
revés: el proceso se inicia con la partición del núcleo, y luego la del
protoplasma.
§. La república celular de Virchow
El remate de la teoría celular se alcanzó con Rudolf Virchow (1821-1902), que
concibió al organismo de un ser vivo como una república celular en la que cada
célula es un ciudadano.
Así, la célula pasó de ser solamente el elemento estructural —o parte del
elemento estructural, si nos atenemos a lo que dije sobre Schleiden y Schwann—
a ser la última unidad vital de los seres vivos, el concepto capital de la
biología: fibras y tejidos se retiraron y abandonaron el centro de la escena.
Todo animal aparece como una suma de unidades vivientes, cada una de las cuales
lleva en sí misma las características completas de la vida.
Virchow no aceptó la teoría de la generación celular a partir de una masa
amorfa —el citoblastema de Schwann— y estableció que donde nacía una célula
tenía que haber habido antes otra célula, así como un animal no puede proceder
sino de otro animal y una planta de otra planta. El principio del «omnis
cellula ex cellula» («toda célula procede de otra célula») era un acorde
biológico renovado del viejo principio filosófico del «nihil ex nihilo»
(«de la nada, nada sale»).
Con Virchow, la teoría celular parecía encontrar el grado más grande de
generalidad. Y sin embargo, todavía faltaba un pequeño detalle para
completarla: en 1857 se observaron células que carecían de membranas rígidas,
que mostraron que la pared celular es en verdad un elemento accesorio, y que
permitieron afirmar a Virchow que lo esencial de la célula es el protoplasma:
Una célula es una gota de protoplasma en cuyo seno existe un núcleo, y
hay una esencial semejanza del protoplasma en los animales y los vegetales.
Aparentemente se había dado el paso final y ahora sí se podía decir que
la teoría celular estaba completa: las investigaciones que siguieron no
hicieron sino descubrir su complejísima estructura interna, tan compleja y
maravillosa que ni Schleiden, ni Schwann ni Virchow podían imaginar. En las
décadas de 1870 y 1880 se lograron nuevos desarrollos en el campo de la
microscopía, se desarrollaron métodos para cortar las muestras en capas muy
delgadas, sustancias que permitían preservarlas y formas de teñirlas para
hacerlas más fácilmente visibles; se pudo saber que los poros de Hooke en el
corcho eran espacios vacíos dejados por células muertas, que los «animálculos»
de Leeuwenhoek eran organismos formados por una sola célula; que las células
vegetales están rodeadas por una pared rígida que les confiere una forma
característica y que no está presente en las células animales. En fin: que
fibras, vesículas y glóbulos resultaban no ser más que diferentes
manifestaciones de la unidad que constituía a todos los seres vivos, la célula,
que a su vez conformaba los tejidos.
Hacia fines de siglo ya se habían identificado los cromosomas y se sospechaba
que eran los portadores del material genético. El siglo XX, con sus
microscopios electrónicos, permitió disecar la célula hasta sus últimos
detalles, aumentados miles, luego decenas de miles y después millones de veces.
Si hubiera que resumir la teoría celular tal como la conocemos ahora,
y sin entrar en los detalles, podría resumirse en los siguientes puntos:
·
La célula es la unidad fundamental de todos los
seres vivos.
·
Las células se multiplican por división: una célula
madre se divide en dos células hijas.
·
Las células están rodeadas por una membrana y
contienen un núcleo.
·
Las células poseen un material genético que se
transmite de una generación a otra.
·
Todas las células tienen la misma composición
química.
·
Dentro de las células ocurre el flujo de energía
que permite a los organismos crecer y mantenerse con vida.
La teoría celular fue, entonces, una de las grandes teorías
sintetizadoras del siglo XIX, un siglo que estuvo incansablemente en busca de
la unidad en todos los ámbitos y, aunque de manera provisoria, la encontró.
II. Pasteur y la teoría de la infección microbiana
La destrucción de la materia orgánica muerta es una de las necesidades
para la perpetuación de la vida. Es necesario que la fibrina de nuestros
músculos, la albúmina de nuestra sangre, la gelatina de nuestros huesos, la
urea de nuestras orinas, la materia leñosa de las plantas, el azúcar de los
frutos, el almidón de las semillas… se transformen lentamente hasta alcanzar el
estado de agua, amoníaco y anhídrido carbónico, de forma que estos principios
elementales de la sustancias orgánicas complejas vuelvan a ser recogidos por
las plantas, elaborados de nuevo, sirvan como alimento a nuevos seres vivos
semejantes a los que le dieron vida y así continúen ad infinitum hasta el fin
de los siglos.
LOUIS PASTEUR
Si, como veremos, Dalton completaría la obra de Lavoisier y pondría a la
química en la senda cuantitativa al introducir los átomos y los pesos atómicos,
fue Louis Pasteur quien estableció un nexo de hierro entre la química y la
biología de lo minúsculo, nexo que permitía explicar la relación entre vida y
materia como un flujo de continuo intercambio. Se trataba de una preocupación
que flotaba en el ambiente: de hecho, si lo recuerdan, a mediados del siglo
XVIII, el propio Stahl, con su teoría del flogisto, había intentado explicar
este comercio constante entre lo vivo y lo químico. Hacía siglos que la vida y
la muerte se cruzaban cotidianamente en las pestes que asolaban Europa y no
había ninguna teoría convincente que las explicara (al menos desde el punto de
vista científico). Era tiempo de empezar a hurgar de manera un poco más
consecuente en las causas de las enfermedades: romper con la teoría de los
humores o la generación espontánea, que funcionaban en el campo de la biología
como las esferas aristotélicas lo habían hecho en el de la astronomía.
Además, como es evidente, un nuevo mundo de animales diminutos se había
desplegado frente a la mirada de los hombres de ciencia gracias al trabajo de
los microscopistas. Nadie podía imaginarse entonces el poder de aquellos
«animálculos» ni el papel que juegan en el mundo cotidiano. El sentido común
indicaba que era a lo más grande a lo que había que temer, como los terremotos,
las bombas de los cañones o incluso la pinza del dentista, mientras que lo más
pequeño, lo minúsculo, no podía representar ningún peligro. Pero ya se sabe: el
sentido común suele ir para un lado, mientras que la realidad lo hace para el
otro. Es lo que empezaban a sospechar quienes tenían los pies en una Tierra que
no parecía moverse y que, sin embargo, lo hacía.
§. Inesperados fabricantes de cerveza
Ya nos encontramos con Louis Pasteur (1822-1895) cuando hablábamos de la
generación espontánea. Era hijo de un curtidor y ya a los 23 años había
resuelto un curioso problema sobre la estructura de los cristales de ácido
tartárico y sus propiedades de desviar la luz hacia la izquierda o la derecha,
lo cual le había dado cierta reputación. Pero sus primeros grandes trabajos,
que le permitirían tener un gran impacto en la realidad cotidiana de la gente,
estuvieron relacionados con la fermentación y la putrefacción. Ambos fenómenos
eran objeto de una polémica entre quienes sostenían que eran procesos puramente
químicos y los que los atribuían a microorganismos (además, por supuesto, de
todos los que abogaban por una tercera posición). No eran pocos los que se
dedicaban a este asunto; la fermentación era ya entonces un proceso muy
utilizado en la industria (como la cervecera) y quien la comprendiera podría
resolver muchos problemas prácticos.
El paradigma más o menos vigente, apoyado por figuras como el químico Joseph
Gay Lussac (1778-1850) y sobre todo por su discípulo Justus von Liebig
(1837-1850), sostenía que el aire activaba procesos químicos que producían la
fermentación. Pero, en 1853, Charles Cagnard de Latour (1777-1859) postuló que
en el aire existían gérmenes vivos responsables del fenómeno: a través del
microscopio había observado pequeñas células que resultaban inmediatas
candidatas para cumplir esa función. Sus hipótesis fueron recibidas con
incredulidad, ya que en algunos tipos de fermentación no se encontraba nada
parecido a los microorganismos que Cagnard había observado en la levadura.
Y justamente en 1857, investigando cómo eliminar procesos irregulares que
aparecían durante la fermentación de la cerveza, Pasteur logró encontrar a los
culpables, organismos aún más pequeños que la levadura, y comprobó que eran
ellos los responsables del ácido láctico que aparecía en la cerveza, arruinando
su sabor. En los años siguientes, acumuló pruebas a favor de la teoría
microbiana, aclarando el papel de la levadura y aislando al microorganismo
responsable de la producción de vinagre a partir del vino común. En 1861
encontró la relación entre la fermentación y los procesos metabólicos: la
fermentación era la forma en la que la levadura obtenía energía del azúcar
cuando no había presencia de aire. En la década del setenta comprendió que el
mismo proceso podría aplicarse a las células vivas… Puede parecer una mera
anécdota de la historia de la industria, pero en realidad lo que estaba
diciendo era que la fermentación, más que un proceso químico, era un fenómeno
de la vida.
Si las fermentaciones fueran enfermedades, se podría hablar de epidemias de
fermentación.
Estaba avanzando hacia la idea de que en nuestro cuerpo ocurre más o menos lo
mismo que se ensaya y observa en el laboratorio. La fermentación, la vida y la
enfermedad eran tres fenómenos íntimamente ligados y él estaba dispuesto a
demostrarlo.
§. Se ocupa de los gusanos de seda y los cura
En 1865, el gobierno francés le pidió ayuda para detectar la causa de una
enfermedad del gusano de seda que estaba arruinando la producción en el sur de
Francia. Pasteur no sabía nada del tema, pero confiaba enormemente en el método
científico para detectar y eventualmente neutralizar la causa de la enfermedad.
Incluso afirmaba que su desconocimiento jugaba en su favor, ya que le
permitiría enfrentar el desafío sin prejuicios de ningún tipo.
Después de cuatro años de prueba y error, y de investigar pacientemente las
enfermedades de los gusanos, pudo comprender mejor los mecanismos del contagio.
Aunque la mayoría de sus numerosos críticos, especialmente médicos y
veterinarios, había menospreciado la posibilidad de que el trabajo de
laboratorio diera resultado en el campo de las enfermedades, Pasteur fue el
primero en darse cuenta de que el mal de los gusanos de seda en realidad no era
uno sino dos, causados por la presencia de diminutas esporas que dejan sus
huevos en las plantas nuevas. Una vez aisladas ambas enfermedades pudo, por
medio de una cuidadosa selección, permitir la procreación de aquellos gusanos
que no portaban ninguna de ellas, cuidando también de que no se contagiaran
nuevamente la enfermedad.
En marzo de 1869, probablemente consciente de su gesto demoledor hacia los
críticos, Pasteur envió cuatro lotes de huevos de gusanos o «semillas» a la
Comisión de Seda de Lyon, donde se habían expresado algunas reservas sobre su
trabajo. Junto con los lotes explicaba lo que ocurriría con cada uno de ellos:
el primero estaría sano y daría una buena cantidad de seda; el segundo sufriría
de una de las enfermedades, la llamada pebrina; el tercero sufriría de la otra
enfermedad, la «flaqueza», y el cuarto desarrollaría ambas enfermedades. Sus
predicciones se cumplieron al pie de la letra y su reputación siguió creciendo.
Por si faltaba algo para aumentar su fama de ser capaz de sobreponerse a
cualquier dificultad, una hemorragia cerebral lo había dejado casi paralizado
del lado izquierdo. Pero en cuanto se repuso un poco publicó un libro que
describía sus investigaciones, mientras los campos de gusanos de seda volvían a
dar ganancias por primera vez en una década. Y como era de esperar, en poco
tiempo su técnica de selección se utilizaba comúnmente en Austria e Italia.
§. Epidemias, contagio
Durante la epidemia de sífilis que se produjo en Francia en el siglo XVI,
Girolamo Fracastoro (1478?-1553), el mismo que había tratado inútilmente de
arreglar con 79 esferas el sistema de Aristóteles, sostuvo la primera hipótesis
más o menos precisa sobre la existencia del contagio por medio de un agente
vivo, que transmitía la enfermedad a través de objetos contaminados o incluso
del aire.
La idea, a pesar de hacerse bastante evidente en las epidemias (y de que se
tomaran medidas teniéndola en cuenta, dado que se aplicaba la cuarentena),
chocaba en cierta forma con la idea de que la enfermedad provenía de adentro
del cuerpo por un desequilibrio en los humores.
En tiempos de Pasteur, grandes médicos como Joseph Lister (1827-1912) o Ignaz
Semmelweis (1818-1865) empezaban a introducir medidas antisépticas, aunque no
supieran exactamente cuál era el origen de la enfermedad. El caso es
particularmente interesante porque muchas veces es puesto como modelo de
investigación científica.
El Hospital General de Viena era una de las instituciones más prestigiosas de
Europa, pero tenía un punto negro: la atención de las parturientas, que
alcanzaba altas cifras de mortalidad por la fiebre puerperal. El hospital tenía
dos pabellones dedicados a la atención gratuita de partos de mujeres que
carecían de dinero para pagarla (obreras, sirvientas, solteras, prostitutas y
mendigas). En la sala 2, las parturientas eran atendidas bajo la dirección del
doctor Bartsch, y los casos de mortalidad por fiebre puerperal eran muy bajos
(del 2 al 2,7 por ciento). En tanto, en la sala 1, bajo la dirección del doctor
Klein, la mortalidad era cinco veces mayor. Semmelweis, miembro del equipo
médico de la Primera División de Maternidad del Hospital de la Escuela Superior
de Medicina, se propuso descubrir qué variable era la que incidía en el curioso
fenómeno.
Primero descartó la teoría de las influencias epidémicas, es decir, la
atribución de la prevalencia de la enfermedad a los cambios
atmosférico-cósmico-telúricos. Semmelweis sostenía, con sensatez, que si la
frecuencia de muertes se debiese a tales «influencias epidémicas», no debería
haber diferencias en la mortalidad entre los dos pabellones o salas.
Algunos médicos pensaban que el hacinamiento era la causa de la mayor mortandad
en la sala 1. Semmelweis señaló que, en verdad, había un mayor hacinamiento en
la sala 2, en parte como consecuencia del terror y la resistencia que oponían
las mujeres que ingresaban al hospital para ser internadas en la sala 1,
temible por el alto número de muertes.
Se preguntó si la posición física de las mujeres podía influir en el fenómeno:
en la sala 1 las parturientas se mantenían acostadas de espaldas, mientras que
en la sala 2 se las mantenía de lado. Semmelweis hizo atender a las mujeres de
la sala 1 en la misma posición que en la sala 2: la tasa de muertes no bajó.
En 1846, una comisión designada para investigar este problema atribuyó el mayor
índice de mortalidad al examen poco cuidadoso que se realizaba a las mujeres en
el trabajo de parto. Semmelweis refutó la idea argumentando que el parto es un
acto mucho más violento que el reconocimiento, y que en las dos salas se
examinaba a las pacientes de la misma manera.
Probó hipótesis que podían parecer absurdas: en la sala 1, cuando un sacerdote
acudía a dar los últimos auxilios a las moribundas, debía atravesar toda la
sala, cosa que no ocurría en la sala 2, donde el acceso del sacerdote a las
enfermas graves era directo. La aparición del sacerdote era anunciada por una
campanilla y Semmelweis pensó que la presencia del sacerdote significaba la
muerte para las parturientas y por lo tanto les producía tal terror que las
hacía susceptibles a la fiebre puerperal. Solicitó al sacerdote evitar el uso
de la campanilla y cambió su itinerario, sin que por ello la mortalidad
disminuyera.
Finalmente, dio con la causa: en la sala número 2 las parturientas eran
asistidas por comadronas o parteras, mientras que en la sala 1 lo hacían
estudiantes que, antes de revisar a las pacientes, habían hecho disecciones de
cadáveres, y concluyó que había algún «material cadavérico» responsable del
contagio.
Puso a prueba la hipótesis y comprobó que estaba en lo cierto: apenas obligó a
los estudiantes a lavarse las manos, la tasa de infección bajó inmediatamente a
un 2 por ciento. Luego amplió sus cuidados de higiene al lavado del
instrumental y comprobó estadísticamente, una vez más, la efectividad de su
método.
Semmelweis sostuvo que, si su suposición era correcta, se podría prevenir la
fiebre puerperal destruyendo químicamente la materia cadavérica en las manos de
los médicos y los estudiantes. Dictó por tanto una orden que exigía a todos los
estudiantes de medicina el lavado exhaustivo de manos con cal clorurada antes
de efectuar el reconocimiento de las enfermas.
En apoyo a su hipótesis, Semmelweis hizo notar que la menor mortalidad en la
sala 2 se debía a que las comadronas no practicaban autopsias.
La implantación de estas medidas disminuyó en forma inmediata la mortalidad en
ambos pabellones hasta menos del 1 por ciento. La mortalidad por fiebre
puerperal en el Hospital General de Viena alcanzó el punto más bajo en su
historia: 0,23 por ciento.
A pesar de todo, las cosas no fueron fáciles. Cuando pidió a Klein, el jefe de
la sala 1, que diera el ejemplo a los estudiantes con el lavado de sus manos,
Klein se indignó (celos profesionales) y se negó. Semmelweis tuvo un violento
enfrentamiento con él y fue despedido de la clínica, aunque luego de un tiempo
lo readmitieron, pero sólo para enterarse de una terrible noticia: Kolletschka,
que había sido su admirado maestro y protector, había muerto un día antes de su
llegada a consecuencia de una herida que se había hecho durante la autopsia del
cadáver de una mujer fallecida de fiebre puerperal, lo cual le hizo provocar un
escándalo que alcanzó tal magnitud que fue destituido nuevamente.
El destino me ha elegido como misionero de la verdad en cuanto a las
medidas que deben tomarse para combatir la plaga de la fiebre puerperal. Desde
hace mucho tiempo he dejado de responder a los ataques de los que soy objeto
sin cesar; el orden de las cosas ha de probar a mis rivales que yo tenía
enteramente la razón, sin que sea necesario que participe en polémicas que en
adelante no pueden servir para nada al progreso de la verdad,
escribió.
Recaló en el hospital de la ciudad de Pest (Hungría), donde introdujo reformas
higiénicas que abatieron en forma considerable la muerte a causa de la fiebre
puerperal, como lavar las sábanas, dar de alta a las enfermas a los nueve días
de hospitalización y no a los cuarenta, como se acostumbraba.
Poco después, una epidemia de la enfermedad de la que ya era especialista se
presentó en el hospital de la Universidad de Pest. Esta circunstancia permitió
a Semmelweis reanudar su lucha y lo convenció de escribir su obra De la
etiología, el concepto y la profilaxis de la fiebre puerperal. Para ello,
reunió todas las notas que había acumulado y las analizó con una lógica
verdaderamente aniquiladora. En el curso de su carrera médica había aplicado
sus descubrimientos a 8.537 parturientas. Durante 11 años sólo 184 mujeres que
estuvieron a su cargo fallecieron por fiebre puerperal. Esto representaba el
0,02 por ciento. Era imprescindible documentarlo en forma suficiente para
convencer a las incrédulas sociedades médicas.
Pero no lo aceptaron ni lo comprendieron, y los ataques que le dirigieron
fueron tales que empezó a perder su equilibrio mental. Escribió cartas y
manifiestos en los que acusaba de asesinos a quienes se oponían a sus teorías.
Es célebre su «Carta abierta a los profesores de obstetricia», que comienza
así:
¡Asesinos! Llamo así a todos los que trabajan sin tomar las medidas que
propongo con el fin de combatir la fiebre puerperal. A ellos me dirijo y me
declaro su enemigo, de la manera en que hay que hacerlo frente al autor de un
crimen. No puedo menos que tratarlos de asesinos. Para atajar los males que
deploramos en las clínicas para parturientas no hay que cerrar éstas, sino que
es preciso arrojar de ellas a los tocólogos, que son los verdaderos portadores
de las epidemias. ¡El crimen debe cesar! ¡Estoy velando para que el crimen
cese!
Un grave ataque de esquizofrenia obligó a su familia a buscar ayuda
médica y prácticamente lo recluyeron en su casa, con la idea de mandarlo luego
a un asilo en Viena.
Pero Semmelweis se enteró, y un mal día salió sigilosamente de su casa, fue a
la clínica de maternidad, agarró un bisturí con el que los estudiantes estaban
haciendo la autopsia del cadáver de una mujer que había muerto de fiebre
puerperal, se hizo un pequeño corte en el dedo y luego introdujo su mano en el
vientre del cadáver. El 13 de agosto de 1865, después de unas pocas semanas,
murió a causa de la misma enfermedad que había combatido.
§. Una alianza entre Jenner y las vacas derrota a la viruela
En 1854, cuando se produjo un repentino brote de cólera en la Broad Street de
Londres que mató a 500 personas en un radio de 200 metros, un estudioso de la
época llamado John Snow concluyó, y luego demostró, que el problema residía en
que la fuente de agua que se utilizaba en el área estaba contaminada con
materia orgánica proveniente de un enfermo de cólera. Eran pasos firmes, pero
inciertos, porque faltaba el dato fundamental: saber cuál era exactamente el
agente de transmisión.
El médico rural inglés Edward Jenner (1749-1823) comprobó el saber popular de
que las ordeñadoras de vacas, que solían contraer la viruela vacuna (poco
peligrosa para humanos), y que se transmitía de manera directa de las ubres al
ordeñador, no desarrollaban nunca la variante humana, más peligrosa, de la
enfermedad. A partir de 1778 empezó a reunir sus observaciones y el 14 de mayo
de 1796 hizo la prueba decisiva: tomó fluido linfático de la mano de una
lechera y lo inoculó en el brazo de James Phipps, un chico sano de ocho años, a
quien dos semanas más tarde expuso al pus de la viruela humana. El chico no se
enfermó; quedaba demostrado que la viruela vacuna inmunizaba contra la humana.
Era el primer caso de vacunación empíricamente comprobado, aunque Jenner había
desarrollado su método sin tener idea del agente causal de la enfermedad, ni el
mecanismo por el cual se producía la inmunización. La vacuna se extendió
enormemente e incluso Jenner fue premiado por el Parlamento inglés, aunque los
casos en los que la enfermedad sí se desarrollaba pese a la vacunación
siguieron generando polémicas.
En realidad, la idea de inocularse material infectado para prevenir
enfermedades ya se había practicado en China, India y Persia, donde se habían
tomado muestras de casos poco virulentos y se habían colocado en lastimaduras
de personas sanas que quedaban a salvo del contagio. La esposa de un embajador
inglés en Constantinopla, a fines del siglo XVII, llevó la práctica a sus
compatriotas, que comenzaron a utilizarla. De allí pasó a América, donde en
1721 un médico la utilizó en Boston para prevenir la viruela, estimulado por un
terrateniente local que se había enterado de esta práctica por sus propios
esclavos africanos. Se introducía el material infectado debajo de la piel del
paciente, que si bien no siempre desarrollaba la enfermedad, podía contagiar a
otros fácilmente, por lo que era común que varios amigos se inocularan al mismo
tiempo para pasar juntos la cuarentena. A pesar de todo, había ocasiones en las
que la enfermedad se desarrollaba lo suficiente como para matar al paciente, lo
que, obviamente, generaba muchas resistencias a la práctica.
El éxito de Jenner terminó con esa práctica de la «variolización» (el contagio
voluntario de formas leves de la enfermedad) sustituyéndola por la vacunación.
Era natural que se intentara aplicar la fórmula a otras enfermedades. A
mediados del siglo XIX llegó a la Academia de Medicina Francesa la idea de
inocular con sífilis a los jóvenes franceses para prevenir las regulares
epidemias y se levantó una enorme polémica.
Y así fue que uno de los libros que trataba la propuesta llegó a las manos de
Pasteur en 1878, quien inmediatamente se interesó en el tema, mientras se
preguntaba por qué no había otros casos tan exitosos de vacunación como el de
la viruela vacuna. En realidad, nadie sabía por qué la vacuna de Jenner
inmunizaba.
Las vacas habían ayudado a Jenner. Ahora era el turno de las gallinas.
§. Las gallinas colaboran con Pasteur
Era un buen momento: desde fines de los setenta, Pasteur investigaba el cólera
de las gallinas. Durante sus experimentos se topó con que un cultivo de bacilos
que guardaba desde largo tiempo era incapaz de provocar la enfermedad en las
gallinas en las que lo inoculaba. Probablemente molesto por el contratiempo,
consiguió una nueva cepa virulenta y la introdujo en sus gallinas, algunas de
las cuales habían recibido el bacilo fallido. Para su sorpresa, estas gallinas
no desarrollaron la enfermedad, mientras que las otras sí lo hacían. ¡Pasteur
comprendió que había encontrado otro caso en el que la vacunación funcionaba!
En la publicación sobre su descubrimiento utilizó la palabra «vacunación» como
homenaje a Jenner y la definió como la capacidad de aumentar la resistencia de
un ser vivo a un agente enemigo específico. Era un paso que servía para
prevenir una enfermedad más, pero que también permitía ilusionarse con lo que
podría hacerse con muchas otras. En los cuatro años siguientes aplicó la
técnica con éxito a la prevención de otras enfermedades animales. Alcanzaba con
atenuar al agente virulento por medio de calentamiento, el paso del tiempo o
por medio de un pasaje intermedio por otros animales: en cada caso las
enfermedades eran ligeramente diferentes y había que descubrir sus
particularidades para debilitarlas exitosamente. Por otro lado, había que
afinar bien los experimentos y reducir los fracasos al mínimo para evitar darles
argumentos a quienes no creían en la vacunación, en su mayoría médicos.
§. Pasteur recibe ayuda de un gigante: Robert Koch
En 1876, Robert Koch (1843-1910) publicó una obra completa donde describía el
bacilo que produce el carbunclo y unas esporas muy resistentes al calor que se
desarrollan una vez que se dan las condiciones necesarias. Dos años más tarde
explicaba en una nueva obra que los microorganismos no sólo producen
enfermedades, sino que cada uno de ellos produce una enfermedad específica.
Pasteur, que durante sus propios estudios sobre el carbunclo no supo de la obra
de Koch, avanzaba sobre el tema partiendo de los mismos principios que había
establecido para demostrar que no era posible la generación espontánea.
Sabiendo que ya se había observado que en la sangre de los animales muertos por
el carbunclo se encontraba una suerte de bastoncitos rectos, se dedicó a aislarlos
y reproducirlos en su laboratorio.
Diluyendo una gota de sangre en sucesivas muestras de orina esterilizada, pudo
comprobar que la última muestra seguía produciendo la enfermedad tal como la
primera, aunque ya no quedara nada de la sangre originaria, pero sí las
bacterias, que evidentemente eran el «principio virulento» causante de la
enfermedad. Era algo que no le había ocurrido con el cólera de las gallinas:
¿cuál podía ser la diferencia?
En uno de los tantos intentos dejó reposar el líquido en el que hacía sus
cultivos: comprobó que el líquido de la superficie no producía la enfermedad,
mientras que el del fondo sí lo hacía, y concluyó que las bacterias más
peligrosas habían decantado hacia el fondo de los recipientes y, por lo tanto,
la parte superior del líquido serviría como vacuna.
Y así estuvo en condiciones de dar un golpe maestro contra quienes aún se
oponían a la vacunación: el 2 de junio de 1881 hizo una demostración pública
frente a periodistas y diversas personalidades en la aldea de Pouilly le Fort,
Francia. Allí inoculó 48 ovejas con el carbunclo que sabía que era virulento.
Las 24 que previamente Pasteur y sus colaboradores habían vacunado no mostraron
síntomas de la enfermedad, en tanto que las otras murieron en menos de dos
días. Era una demostración acabada del origen microbiano de la enfermedad junto
con la de Koch. Pero también era una prueba contundente sobre la vacunación.
En las dos décadas siguientes se descubriría la mayoría de las bacterias
causantes de enfermedades (aunque no necesariamente las vacunas). El mismo Koch
encontró el bacilo de la tuberculosis, una de las principales causas de muerte
de la Europa de aquel entonces, aunque la vacuna debió esperar varias décadas.
Sin embargo, todavía faltaba dar el paso decisivo: experimentar las vacunas «de
laboratorio» en seres humanos. Y le tocó a la rabia.
§. El turno de los perros
Pasteur comenzó a estudiar la rabia, según se cree, porque de chico había
presenciado la muerte de varios de sus vecinos a causa de la mordida de un lobo
rabioso. A pesar de sus avances y experimentos, se resistía a probar si los
resultados también se verificaban en los seres humanos. Finalmente la realidad
lo obligó: el 6 de julio de 1885 el niño de 9 años Joseph Meister llegó a su
laboratorio acompañado del médico local y cubierto de mordeduras de un perro
rabioso. Los médicos le dijeron a Pasteur que las posibilidades de que se
desarrollara la enfermedad eran muy altas y se hicieron responsables de las
consecuencias que pudiera tener el tratamiento (ya que Pasteur no era médico).
Durante los días siguientes se le inocularon 13 versiones distintas del virus
atenuado, cada una más virulenta que la anterior. El pequeño Joseph no tuvo
ningún síntoma de rabia.
El éxito de la primera aplicación de la vacuna contra la rabia, un azote
milenario, no sólo aseguró el triunfo de la teoría de la infección microbiana,
sino que repercutió en todo el mundo hasta el punto de que se generó una
campaña internacional para juntar fondos que permitieran crear un instituto especialmente
dedicado a la rabia. Además, por supuesto, convirtió a Pasteur en una especie
de héroe público mundial.
Por otra parte, con la masificación de la técnica se multiplicaron los errores
y comenzaron a surgir médicos, como el mismo Robert Koch, que se negaban a
vacunar a sus pacientes (lo que no impidió que el método se siguiera
popularizando): tal vez los médicos no le perdonaban a un químico como Pasteur
que se metiera en un campo que le era supuestamente ajeno, como la medicina.
Por otra parte, también es cierto que en aquel entonces nadie comprendía por
qué funcionaba la vacunación para prevenir la enfermedad. ¿Qué era lo que
ocurría? La respuesta llegaría recién hacia fines del siglo XIX, junto con el
nacimiento de los estudios sobre inmunología: las células de nuestro cuerpo son
reconocidas por nuestro sistema inmunológico; cuando aparece un elemento
extraño, se desencadena una respuesta defensiva de este sistema que empieza a
producir anticuerpos para neutralizar ese elemento. Al colocar elementos
atenuados que no pueden producir la enfermedad, lo que se le está dando al
cuerpo es la información necesaria para que se pueda defender en el futuro si
llegara a ingresar al cuerpo un microbio capaz de producirla.
En 1878, el cirujano militar Sedillot inventó la palabra «microbio» para los
gérmenes capaces de provocar enfermedades. Al poco tiempo se descubriría que no
sólo las bacterias sino también los virus pueden producirlas.
Pasteur murió en 1895, cuando ya llevaba años tan debilitado que prácticamente
no podía trabajar.
§. La teoría de la infección microbiana
Poco antes de morir, dio una conferencia a jóvenes estudiantes para la que tuvo
que usar a su hijo como intermediario con el público. Allí sostuvo que la
ciencia «traería la felicidad al mundo». Este católico devoto tenía también
mucha fe en la ciencia como camino constante e irreversible hacia la verdad.
Su cuerpo yace en el Instituto Pasteur de París, en una pequeña capilla en
cuyos mármoles se puede leer: «Fermentations, Générations dites espontanées,
Etudes sur le vin…” y más nombres de los trabajos con los que fue develando
los secretos de la vida.
Bastante tiempo después, durante la Segunda Guerra Mundial, cuando los nazis
ocuparon París, el portero del instituto se suicidaría para no tener que guiar
a los invasores a la tumba de Pasteur. Se llamaba Joseph Meister: era aquel
mismo chico de nueve años en quien por primera vez en la historia de la
humanidad se probó una vacuna fabricada en el laboratorio.
Capítulo 27
El triunfo de los átomos
La obra de Copérnico y Newton, la gran Revolución Científica, y los
largos y complicados procesos que remataron en las teorías de Lavoisier y
Darwin ayudaron a cercar vastos sectores de la informal y difícil naturaleza y
del mundo, y a construir un edificio magnífico, presidido por la razón —no
siempre presta— y corroborado por la empiria —no siempre dócil—. Pero cada
conquista permitía, a la vez, problematizar nuevos territorios y plantear
renovadas exigencias: una vez dominada la combustión y ordenada la química,
libre de flogisto, apareció la vieja pregunta sobre la estructura de la
materia; una vez comprendida la manera en que las especies cambiaban a lo largo
de los eones, el darwinismo necesitaba desesperadamente entender los mecanismos
de la herencia. Y continuamente aparecían nuevos interrogantes que ayudaban —o
retrasaban, tanto da— el armado del rompecabezas.
Así, a lo largo del siglo XIX, la ciencia avanzó espectacularmente, pero, como
siempre, a los tumbos, confundiendo lo verdadero con lo erróneo, ensayando
explicaciones disparatadas hasta dar —por casualidad, por genialidad o por
descarte— con la correcta (o con la que parecía correcta). Y tropezando una y
otra vez con la misma piedra se construyó la cosmogonía actual que va desde las
tortugas a las estrellas y de los átomos al universo entero.
El mundo es impiadoso con los que no tienen éxito y la ciencia no lo es menos.
Cuando se reconstruye la manera en que creció y se expandió el conocimiento, se
suele ignorar, por economía de la narración, los miles de esfuerzos vanos, las
vidas perdidas detrás de una hipótesis equivocada, los espejismos, los errores,
las tonterías y hasta los fraudes. Y sin embargo, nadie sabe a priori cuál
es el error que ayudará a encontrar el camino correcto.
Uno piensa que si algunos científicos vieron más lejos es porque estaban
subidos a hombros de gigantes. A veces es verdad, pero en la mayoría de los
casos estuvieron subidos en los hombros de hombres y mujeres comunes y
corrientes, igual que ellos, y que no tuvieron tanta suerte.
El siglo XIX, que muchos califican, un poco apresuradamente, como «el siglo de
la ciencia», de alguna manera representa la culminación del programa
newtoniano. Así como en biología se estableció una teoría central —la teoría de
la evolución—, casi todos los fenómenos del mesomundo, es decir, el
mundo a escala media —que es la nuestra— fueron más o menos dominados.
En esta pelea victoriosa, antes de que la crisis de fin de siglo pusiera todo
en cuestión, la química, y luego la física, consiguieron descifrar el
persistente misterio de la estructura de la materia, y el viejo asunto de los
átomos, el desacuerdo esencial entre quienes creían y quienes negaban su
existencia, se resolvió de manera definitiva.
Justamente porque era una cuestión casi tan antigua como la ciencia misma, creo
que vale la pena repasarla y volver a su punto de partida con Demócrito. Ya lo
conté en su momento, en los lejanos capítulos en que hablamos sobre la
Antigüedad, pero permítanme una recapitulación, que muestra que las ideas
científicas son siempre culturales, y que la evolución de la ciencia se desliza
entre ellas, hacia adelante y hacia atrás, una y otra vez.
Recordemos, pues, al viejo Demócrito.
§. La primera teoría atómica
Sólo existen los átomos y el espacio vacío. Todo lo demás es opinión.
DEMÓCRITO DE ABDERA
Si bien Lavoisier completó su revolución en la química sin pronunciarse
sobre la estructura profunda de la materia, una cuestión que consideraba de
índole «metafísica» y, por ende, fuera del alcance y las obligaciones de una
ciencia newtoniana, ya cinco siglos antes de Cristo (y más de veinte antes de
Lavoisier) los filósofos griegos sí consideraban legítimo plantearse la
pregunta y de hecho hasta ensayaron algunas respuestas. Dos respuestas
distintas y opuestas, en realidad. Por un lado, estaba la de Leucipo y
Demócrito, quienes sostuvieron que todo lo que existe está compuesto por
«átomos», minúsculas partículas indivisibles, «sin partes» (eso es lo que
significa precisamente «a-tomo» en griego; «a», sin y «tomo», parte). Ya
recordaran cómo razonaba Demócrito: si un cuchillo penetra la materia es porque
hay en ella vacíos, intersticios naturales por donde abre el cuchillo su camino
separando a los átomos; si no existieran esos intersticios, el cuchillo jamás
podría penetrar. Así, concluía, cada sustancia no es más que un conjunto de
pequeñas partículas macizas, indivisibles y específicas de esa sustancia. Hay
infinitos átomos que, gracias a sus formas complementarias, pueden combinarse
dando todas las demás. Aunque invisibles, los percibimos por sus propiedades
secundarias: por ejemplo, aquellas sustancias con átomos redondeados acarician
la lengua (y tienen gusto agradable), mientras que las que están formadas por
átomos rugosos resultan ácidas e irritantes.
Los átomos de Demócrito eran invisibles, pero para nada abstractos o teóricos,
sino perfectamente reales. Y aunque no pudiera haber evidencia empírica sobre
su existencia, para los atomistas eran una realidad contundente.
La otra respuesta fue la de Aristóteles, quien se opuso al atomismo de la
escuela de Abdera y lo criticó ácidamente al sostener que la materia podía
dividirse de manera indefinida. Y era coherente, porque Aristóteles, al negar
en forma radical la posibilidad del vacío, no podía aceptar que entre átomo y
átomo no hubiera nada. Además, argumentaba, si los átomos tenían volumen, por
chico que fuera éste… ¿por qué no se iban a poder dividir? Bastaría con tener
un instrumento suficientemente fino.
Pero el asunto es que como la controversia era imposible de resolver
experimentalmente, ambas posiciones (o creencias) se mantuvieron en equilibrio
a lo largo de los siglos. A pesar de la enorme autoridad de Aristóteles, un
atomismo larvado empujaba a los alquimistas; Galileo, Newton y los hombres de
la Revolución Científica —en Inglaterra especialmente— en general fueron
atomistas, y los físicos del siglo XVIII, que se interesaron por los gases,
tendían a pensarlos como conjuntos de partículas, imaginando que la presión
sobre las paredes de una caja se debía al golpeteo simultáneo de grandes
cantidades de átomos. Descartes y los cartesianos, por el contrario,
sostuvieron la continuidad e infinita indivisibilidad de la materia, que
identificaban con el espacio mismo.
Así las cosas, cuando en el año 1771 se publicó la primera edición de la Enciclopedia
Británica, la palabra «átomo» se describía casi con la misma definición de
Demócrito:
En filosofía ( sic ), una partícula de materia tan pequeña que no admite
división. Los átomos son la minima naturae (los cuerpos más pequeños) y se
conciben como los primeros principios de toda magnitud física.
Lo cual muestra que no se había avanzado nada y los átomos seguían
siendo tan especulativos como siempre. Lavoisier, de hecho, escribió
imprudentemente:
Respecto de esos simples e indivisibles átomos de los cuales toda la
materia está compuesta, es muy probable que nunca sepamos nada sobre ellos.
Es decir, una especie de programa negativo, que hablaba de lo que nunca
se podría hacer. Siempre es peligroso. Y en este caso, justamente, los átomos
químicos estaban a punto de entrar en escena.
§. Un señor que confundía los colores
Tal vez no haya que culparlo demasiado a Lavoisier por no haber redondeado «del
todo» su revolución; al fin y al cabo, la Revolución Francesa se encargó de
cortarle la cabeza antes de que pudiera intentarlo. Bastante hizo, de todos
modos, pero la tarea quedó en manos de John Dalton (1766-1844), que le dio
rango constitucional y cuantitativo, a la vez que un contenido empírico, a la
gran intuición de Demócrito sobre la estructura de la realidad.
Dalton nació en la pequeña localidad inglesa de Eaglesfield, pero en 1793 se
trasladó a Manchester, donde habría de vivir el resto de su vida y donde
regularmente presentó trabajos ante la Literary and Philosophical
Society, que presidió a partir de 1817. El primero de ellos trataba «de la
ceguera ante los colores», enfermedad que padecía y que desde entonces se llama
daltonismo.
Más o menos desde 1800, nuestro amigo venía reflexionando sobre el hecho —bien
conocido por los químicos— de que si un compuesto contenía dos elementos en la
proporción de cuatro a uno, siempre iba a mantener esas proporciones y nunca 9
a 1, o 4 a 2. Esto es: no importaba qué cantidad de ese compuesto se tuviera,
las proporciones siempre serían fijas. Y lo curioso es que, además,
involucraban números enteros. Louis Joseph Proust (1754-1826) pudo demostrarlo
pesando los compuestos cuidadosamente.
Dalton llegó entonces a la conclusión de que este fenómeno era una buena prueba
de la existencia de los átomos de Demócrito, dado que se entiende fácilmente si
se supone que cada elemento está formado por partículas indivisibles: si la
partícula de un elemento pesa cuatro veces más que la partícula de otro y el
compuesto se forma al unir una partícula de cada uno, las relaciones de peso
serán justamente ésas (4:1) y ninguna otra. Para elaborar una teoría científica
de los átomos, Dalton usó esta ley de las proporciones simples y también la ley
de las proporciones múltiples, en las que un elemento se combina en dos
proporciones definidas, como por ejemplo el carbono, que puede hacerlo con una
parte de oxígeno, y da monóxido (CO) o dos y da dióxido de carbono (CO2).
Y así fue cómo en 1808 dio a conocer estas ideas en su Nuevo Sistema de
Filosofía Química, basándose en un nutrido aporte de hechos experimentales
y cuatro supuestos.
·
Toda la materia está compuesta de átomos sólidos,
indivisibles y completamente homogéneos, es decir, sin huecos en su interior.
·
Los átomos son indestructibles y preservan su
identidad en todas las reacciones químicas; no pueden descomponerse para formar
otros átomos.
·
Las reacciones químicas implican un cambio en la
distribución de esos átomos: las cenizas que quedan después de la combustión y
los gases que se liberan son de la misma materia que había al comienzo, pero
reorganizada.
Hay tantas clases de átomos como elementos químicos; a cada elemento químico
corresponde un tipo de átomo definido y específico y, por supuesto, no es
posible transmutar un átomo en otro distinto.
Hasta aquí, seguía los pasos de Demócrito (salvo en el hecho de que para
Demócrito había infinitas clases de átomos), pero el cuarto supuesto iba más
lejos:
·
ada átomo está asociado con una magnitud propia que
lo caracteriza: el peso atómico.
Resumiendo: los átomos daltonianos son sólidos, indivisibles,
incompresibles y completamente homogéneos —sin huecos en su interior—; son
indestructibles y preservan su identidad en todas las reacciones químicas. Hay
tantas clases de átomos como de elementos químicos, a cada elemento químico
corresponde un tipo de átomo definido, y difieren ligeramente en peso.
Precisamente, la característica que define a un átomo es su peso (peso atómico,
para ser más precisos), el encargado de darle entidad experimental y de
sacarlos del limbo especulativo.
Con estos supuestos, Dalton daba a los átomos entidad científica y
experimental, ya que el peso atómico se podía medir y de paso permitía
cuantificar completamente la química. Y ahí, justamente ahí, estaba el asunto.
Porque lo que hizo nuestro amigo fue calcular los pesos atómicos de los
elementos definidos por Lavoisier (tomando como unidad el peso del hidrógeno) y
sentar firmemente la nueva teoría, que fue aceptada por la mayoría de los
químicos, sorprendentemente, con relativamente poca oposición. Con Dalton, la
química se hizo atomista y, aunque las discusiones subsistieron, especialmente
acerca de si los átomos eran «reales» o no, ya no habría marcha atrás: aunque
los átomos aún no se podían ver, ahora por lo menos se podían pesar; y pasaban
definitivamente, pues, del terreno de la filosofía al de la química.
Las pequeñas bolitas de Dalton, además, se combinaban en «átomos compuestos»
(en terminología actual, moléculas), lo cual parecía resolver el problema de la
estructura de la materia. Eran como los de Demócrito, macizos, y así habrían de
perdurar; sólo hacia comienzos del siglo XX cada uno de los presupuestos de
Dalton empezó a ser demolido por nuevos y asombrosos descubrimientos.
Si bien Dalton era cuáquero y sus principios no le permitían admitir ninguna
forma de gloria, el éxito de la teoría atómica daltoniana crecía y su fama
también; empezaron a lloverle honores de las sociedades científicas extranjeras
y su entierro, en 1844, estuvo muy lejos de su deseada intimidad: se acercaron
allí más de 40.000 personas.
§. La hipótesis de Prout
Los átomos de Dalton se impusieron, pero las dudas respecto de su existencia
real se mantuvieron durante muchas décadas. Todo el mundo estaba convencido de
que la teoría atómica era esencial y conveniente para calcular proporciones y
compuestos, pero los átomos propiamente dichos no se podían ver ni tocar y, de
hecho, se manejaban como entidades puramente abstractas o matemáticas (algo así
como los meridianos y los paralelos: aunque la geografía no funciona sin ellos,
nadie espera tropezar con un meridiano cuando viaja por la superficie de la
Tierra). ¿Se trataba entonces de elementos teóricos o tenían existencia —y
consistencia— física? La verdad es que nadie era capaz de contestar esa
pregunta.
Aun en 1860 los átomos eran tomados con mucha precaución por los químicos, y no
había, por cierto, ninguna prueba de su existencia real.
Pero además había otro asunto, un reparo de tipo metafísico y si se quiere
hasta religioso. Dalton había supuesto que a cada uno de los elementos químicos
—en esa época se conocían ya unos cuantos— le correspondía un átomo distinto,
lo cual implicaba que el mundo estaba construido por lo menos con cincuenta
bloques básicos elementales. Y esto ya resultaba increíble. ¿Cómo podía ser,
argumentaban algunos, que Dios hubiera utilizado tantos bloques distintos para
construir el mundo? Entre los detractores de la teoría estaba Humphry Davy, el
hombre que puso en el camino de la ciencia a Faraday y que encima había encontrado,
él mismo, más bloques, como el sodio, el potasio y el cloro. Era difícil de
creer. La vieja obsesión por la simplicidad, la firme y enraizada creencia de
que el fondo de la naturaleza es sencillo, la obsesiva convicción de que la
arquitectura del mundo es elegante y simple reaparecía una vez más.
Es una creencia, por supuesto, porque no hay ninguna razón para suponer que el
mundo en el fondo es simple. Podría perfectamente ser muy complicado, y hasta
se puede decir que lo es. Este asunto de la simplicidad se había planteado en
astronomía: el sistema astronómico griego, elaborado por Tolomeo, era
extraordinariamente complejo, era infernalmente complicado y Copérnico lo
reformó, entre otras cosas, por eso. Algo por el estilo pensaría el físico inglés
William Prout en 1815, casi una década después de la formulación de Dalton.
Prout observó un fenómeno muy interesante: los pesos atómicos de casi todos los
elementos se aproximaban mucho a números enteros y eso, pensaba, no podía ser
porque sí ni por casualidad.
El hidrógeno es el más simple de los elementos y su peso atómico es 1. Los
pesos son los pesos de los átomos, pero medidos en relación con el peso de un
átomo de hidrógeno. Si se lo midiera en gramos, sería
0,000000000000000000000001 de gramo o poco menos que 10 a la menos 23 gramos.
El peso atómico del carbono es 12, es decir, que pesa como doce átomos de
hidrógeno, y el peso atómico del nitrógeno es 14, es decir, equivalente a 14
átomos de hidrógeno. El oxígeno tiene un peso atómico de 16, el sodio 23 y así
sucesivamente. Tenía que haber una explicación para semejante fenómeno.
A Prout se le ocurrió que, de alguna manera, todos los elementos eran
conglomerados de átomos de hidrógeno. El peso atómico del carbono era 12 porque
el átomo de carbono estaba formado por un paquete de 12 átomos de hidrógeno, y
el peso atómico del oxígeno era 16 porque 16 átomos de hidrógeno formaban uno
de oxígeno.
Vistas las cosas de esta manera, el hidrógeno se transformaba en una especie de
sustancia primordial, el protohylo, que de alguna manera formaba
todas las demás.
Debemos considerar que el «protohylo» de los griegos es, en realidad, el
hidrógeno
decía Prout.
Así formulada, esta conjetura, que rescataba y al mismo tiempo proponía la
vieja idea de la unidad profunda de la materia, que tuvo partidarios y
acérrimos opositores —entre ellos, y notablemente, Mendeleev—, fue conocida
como «la hipótesis de Prout». Y aunque nadie podía imaginárselo, es
impresionante lo cerca que estaba de la verdadera pista.
De todos modos, la refutación (provisoria) no tardó en llegar cuando se
empezaron a medir los pesos atómicos con mayor precisión y se encontró que no
eran números enteros.
§. El enigma de los elementos
Todo lo que se puede decir del número y la naturaleza de los elementos
está, en mi opinión, confinado a discusiones de tipo puramente metafísico.
LAVOISIER
La teoría atómica tuvo una inmediata aceptación, aunque los químicos,
como ya les conté, siguieron discutiendo sobre la realidad» de los átomos:
¿eran objetos verdaderos, contantes y sonantes, o simples «ficciones útiles»?
¿Y las moléculas? ¿Existían o eran puramente teóricas? El congreso de Karlsruhe
de 1860, al que acudieron los grandes químicos de Europa y en el que no se
resolvió demasiado (excepto la distinción entre átomos y moléculas), marcó una
época porque todos tomaron conciencia de estar trabajando en un terreno y con
un programa común y porque fue el primer congreso científico internacional.
La existencia de átomos y moléculas no era por cierto la única incógnita:
también era desconcertante la proliferación de los elementos: ¿Podía ser que el
mundo se edificara a partir de cincuenta elementos químicos?
¿Cincuenta sustancias elementales? ¿No era demasiado? ¿No tenía que haber un
orden subyacente? En busca de ese orden esquivo estaban los químicos.
Porque lo cierto es que a cada rato se descubrían nuevos elementos, lo cual
planteaba inquietudes e interrogantes nuevos: ¿Cuántos elementos había
exactamente? ¿Habría un límite o se irían multiplicando ad infinitum?
¿No había algo de arbitrario a la hora de definir un elemento, puesto que
siempre era esperable que algo que había sido reconocido como elemento se
subdividiera aún más (como pensaba el viejo Aristóteles)?
Además, se podía percibir que ciertos grupos contaban con propiedades
similares, de modo que se imponía la necesidad de pensar en algún criterio que
permitiera poner orden en el caos de la profusión elemental. Johan Dóbereiner,
catedrático de química en la Universidad de Jena, percibió en 1829 que uno de
los elementos recientemente descubiertos, el bromo, tenía ciertas propiedades y
un peso atómico que lo situaban a mitad de camino entre el cloro y el yodo. Lo
mismo ocurría, según se dio cuenta un tiempo después, con el estroncio (que
estaba a mitad de camino entre el calcio y el bario) y con el selenio (que se
posicionaba entre el azufre y el telurio). Llamó tríadas a los
grupos, pero pensó que podía tratarse de una simple coincidencia y no elaboró
ninguna explicación ulterior.
Dos años más tarde, el científico inglés John Newlands (1837-1898), sin haber
escuchado nada de lo que hacía su colega, elaboró su propio patrón: descubrió
que si listaba los elementos en orden ascendente de pesos atómicos, en líneas
verticales de siete, las propiedades de los elementos correspondientes a las
líneas horizontales eran notablemente similares.
En otras palabras, el octavo elemento a partir de uno dado es una especie de
repetición del primero, como la primera octava en una escala musical.
La llamada «ley de las octavas» tenía sus problemas, uno de los cuales (acaso
el más importante) era que las propiedades de algunos elementos, en especial de
los de peso atómico más elevado, no encajaban para nada. Cuando comunicó sus
hallazgos a la Chemical Society de Londres, sus integrantes se limitaron a
ridiculizarlo. En medio del jolgorio general, uno llegó incluso a preguntarle
si había pensado en organizar los elementos por orden alfabético. Recién en
1887 su trabajo fue reconocido y la Royal Society lo condecoró con la Medalla
Davy en 1887.
Era el turno de Mendeleev.
§. Mendeleev resuelve el problema
Dimitri Ivanovich Mendeleev (1834-1907) nació en Tobolsk, Siberia, el mismo año
en que su padre se quedó ciego. Fue el menor de los catorce hijos que tuvo
Maria Dimitrievna Kornilieva, quien debió hacerse cargo ella sola de la familia
porque su marido, que era director de la escuela local, fue echado de su
trabajo. Para mantener a sus hijos, Maria reabrió la fábrica de cristal de su
abuelo, situada en una remota aldea, con tanta mala suerte que, en 1847, ardió
hasta los cimientos. En 1849, cuando Dimitri Mendeleev tenía quince años y
Maria ya era viuda, nuestro protagonista partió junto con una de sus hermanas y
su madre hacia Moscú, un viaje de más de dos mil kilómetros, donde consiguió
una plaza para estudiar matemáticas y ciencias naturales, además de una pequeña
beca del gobierno, suficiente para sustentarse.
Mendeleev comenzó a trabajar en los laboratorios del instituto, donde pronto
empezó a realizar experimentos originales y publicó algunos trabajos. En 1855
obtuvo la calificación de profesor, junto con la medalla de oro como mejor
estudiante del año, y a la prematurísima edad de veintidós años fue nombrado privatdozent (profesor
sin cargo ni salario, que dependía del dinero pagado por los estudiantes que
asistían a su curso). En 1859, con una beca del gobierno para estudiar dos años
en el extranjero, se mudó a París.
A su regreso a San Petersburgo obtuvo un puesto docente en el Instituto
Técnico, pero pronto se dio cuenta de que no existía un solo libro de texto
ruso sobre la química orgánica moderna. Entonces se sentó a escribir uno y
completó quinientas páginas en sesenta días. Mendeleev empezaba a hacerse un
nombre. Y de hecho, a los treinta y dos años, fue nombrado profesor de Química
General en la Universidad de San Petersburgo, un puesto excepcionalmente
prestigioso para una persona tan joven.
A comienzos de 1869, Mendeleev había completado el primer volumen de los dos
que pensaba escribir para Los principios de la química. Allí, los
elementos y sus compuestos eran organizados conjuntamente en grupos que
exhibían propiedades similares, cada uno a continuación de los anteriores: el
final del primer volumen, por ejemplo, cubría el grupo de los halógenos —cloro,
bromo, yodo—. Cada miembro del grupo de los halógenos se combinaba con el sodio
para producir sales que tenían propiedades muy similares (la más conocida de
las cuales era, por supuesto, la sal de mesa, el cloruro de sodio). Los
halógenos se combinaban también fácilmente con el potasio. Así pues, era
natural que el segundo volumen comenzara por los grupos de metales alcalinos,
al que pertenecía, justamente, el potasio. En cálculos de Mendeleev, éstos
ocuparían los dos primeros capítulos.
La mañana del viernes 14 de febrero de 1869 estos dos capítulos estaban ya
completos. Y entonces fue que se presentó el problema: no tenía ni la menor
idea de cómo seguir. Si hasta entonces la vorágine de la escritura había
impuesto un orden medio arbitrario, conseguido un poco a los tumbos, ahora era
necesario descubrir algún principio subyacente que permitiera organizar los
elementos. Tenía que haber una clave en alguna parte. Pero el tiempo apremiaba:
tres días más tarde, Dimitri tenía programada una breve excursión para
inspeccionar las granjas de un pequeño pueblo rural y aconsejar a una
cooperativa acerca de los métodos convenientes para la producción de queso.
Fueron tres días de angustia: la solución no aparecía por ninguna parte. Porque
por entonces, como cualquier químico de la época, pensaba que el patrón debía
estar relacionado con los pesos atómicos de los elementos. Fue entonces que se
le ocurrió una gran idea. En sus recorridos en tren, a falta de algo mejor que
hacer, Mendeleev acostumbraba jugar solitarios. La inminente partida y el
pensamiento obsesivo que lo tenía ocupado desde hacía días se unieron en su
cabeza y se le ocurrió hacer de cuenta que cada elemento fuera una carta de la
baraja, para lo cual empezó a escribir sus nombres en una serie de tarjetas en
blanco, añadiendo sus pesos atómicos y sus propiedades químicas.
Estaba ahí, a un pasito de encontrarlo todo, y sin embargo no podía. Entonces
se quedó dormido. Cuando despertó, había resuelto el problema.
§. Sueños
En un sueño, vi una tabla en la que todos los elementos encajaban en su
lugar. Al despertar, tomé nota de todo en un papel.
MENDELEEV
La historia del sueño puede ser más mitológica que real, pero lo cierto
es que ese día Dimitri descubrió que cuando se listaban los elementos por orden
de pesos atómicos, sus propiedades se repetían en una serie de intervalos
periódicos. Por este motivo, llamó a su descubrimiento tabla periódica de los
elementos.
Su histórico trabajo fue publicado dos semanas después bajo el título «Una
propuesta para un sistema de los elementos». Empezando por la parte superior de
la columna de la izquierda, las columnas verticales listan los elementos en
orden ascendente de pesos atómicos, mientras que las horizontales agrupan los
elementos de acuerdo con propiedades similares.
A primera vista parecía haber una serie de problemas con su tabla. Para
empezar, si todos los elementos se agrupaban horizontalmente en función de sus
propiedades, algunos de los pesos atómicos no encajaban en el orden ascendente
exacto. En tales casos, Mendeleev sugería que el peso del elemento en cuestión
había sido mal calculado. Pero lo más audaz de todo fue que, donde no había un
elemento que encajara en el patrón, dejaba un espacio vacío: algún día
aparecería, en la naturaleza, el elemento destinado a ocupar ese sitio. Por
poner sólo un ejemplo: en la novena fila horizontal predijo que debía haber un
elemento aún no descubierto entre el aluminio y el uranio. Llamó a este
elemento eka-aluminio, vaticinó cuáles serían sus propiedades y anunció que
cuando fuera descubierto su peso atómico sería 68.
El sueño de Mendeleev necesitaba, para convertirse en realidad, que la empiria
lo avalara: hacía falta que hiciera su aparición estelar (o mejor dicho,
atómica) alguno de los elementos destinados a ocupar los huecos dejados ad
hoc por el creador. Y así fue: a finales del verano de 1874, la
Academia de las Ciencias de París recibió una trascendental carta del químico
francés Paul Lecoq de Boisbaudran:
Hace dos noches, el 24 de agosto de 1875, entre las tres y las cuatro de
la mañana he descubierto un elemento nuevo en una muestra de sulfuro de zinc
procedente de la mina Pierrefitte, en los Pirineos.
El gallium (galio) tenía un peso atómico de 69,
pertenecía al grupo del boro y estaba situado entre el aluminio y el uranio: el
nuevo elemento respondía casi a la perfección a las propiedades que Mendeleev
había predicho para el «eka-aluminio». Cinco años después, el químico alemán
Clemens Winkler detectó la presencia de otro elemento —el germanio—, cuyo lugar
había quedado hueco en la tabla a la espera de su hallazgo.
Los descubrimientos de estos nuevos elementos, predichos por Mendeleev,
tuvieron un impacto similar al que tuvo el retorno del cometa Halley para la
Ley de Gravitación: ya nadie podía dudar de la ley periódica. Con la tabla,
quedaban posicionados los ladrillos de los que estaba construido el universo.
Sufrirían algunos movimientos a lo largo del siglo XX, es cierto, pero la
estructura se mantendría prácticamente incólume.
§. Aunque persistían ciertas incógnitas
Algunas cosas, sin embargo, no estaban contestadas, y tenían que ver con la
también vieja historia de los cómo y los porqués.
Mendeleev había mostrado cómo se ordenaban los elementos, es cierto, pero… ¿por
qué ocurría eso? Era una pregunta que muchos podían tratar de «metafísica»,
sobre todo aquellos que se basaban en la vieja cantinela de que en ciencia no
interesa el porqué, sostenida por el «no formulo hipótesis» newtoniano: desde
esta perspectiva, las cosas son como la experiencia: la única guía certera
muestra que son, el discurso de las cosas es el resultado de los experimentos,
y punto. Así como los jueces hablan por sus fallos, la naturaleza sólo habla a
través de los experimentos.
Pero lo que ocurre es que el discurso de las cosas no es un código, es un
lenguaje y, en consecuencia, tiene su gramática, su sintaxis, incluso su
retórica y su literatura. Y ahí hay mucha tela para cortar, ya que la pregunta
por el porqué es equivalente a preguntarse si no habrá otra estructura, más
profunda, que explique, por ejemplo en este caso, los motivos por los cuales la
tabla periódica se ordena como se ordena.
La iniciativa por entender esta estructura profunda ya no corría por cuenta de
los químicos sino que estaba, desde hacía tiempo, en manos de los físicos.
§. Los físicos juegan con los tubos de vacío
Y es que mientras los químicos se entretenían con la tabla periódica y
discutían sobre la «realidad» de los átomos y las moléculas, los físicos
estudiaban los efectos de la electricidad cuando se la hacía atravesar un tubo
de vacío —o con un gas muy enrarecido—: en el electrodo positivo (ánodo)
aparecía un resplandor verdoso y era lógico pensar que se debía a algún tipo de
radiación que salía del cátodo (electrodo negativo). A esta emisión se la
llamó, de manera no demasiado creativa, «radiación catódica».
Lo que no estaba para nada claro era la naturaleza de esos rayos
catódicos, asunto sobre el que se armó una verdadera controversia: había
quienes los consideraban ondas electromagnéticas como las que existían según
las ecuaciones de Maxwell, que habían unificado definitivamente la electricidad
y el magnetismo, y los que pensaban (como los físicos ingleses en general) que
se trataba de partículas. Joseph John Thomson (1856-1940), en 1897, demostró
categóricamente que se trataba de partículas, ya que eran desviadas por campos
eléctricos y magnéticos de una manera que no cuadraba con las ondas electromagnéticas.
¿Pero de qué partículas podía tratarse? La verdad es que no había demasiadas
alternativas. Puesto que eran atraídas hacia el electrodo positivo, era obvio
que estaban cargadas negativamente. Thomson intuyó que se trataba de las
partículas que transportaban la unidad de carga, algo así como los «átomos de
la electricidad» meramente teóricos, por supuesto a los que el físico alemán
Joseph Goldstein, que andaba más o menos en lo mismo, ya había llamado
«electrones».
Pero había algo más. Cuando midió la masa de sus electrones, encontró que era
extraordinaria, ridículamente pequeña: ¡Un electrón pesaba solamente un
milésimo de un millonésimo de millonésimo de millonésimo de millonésimo de
millonésimo de gramo! Y sobre todo, pesaba menos que un átomo
de hidrógeno. ¡Menos que un átomo de hidrógeno, el más liviano y sencillo de
los átomos! ¿Cómo podía ser? ¿Y de dónde salían esos electrones?
Y aquí es donde Thomson lanzó una hipótesis afortunada y audaz, muy audaz, una
de esas hipótesis que hacen historia: que los electrones salían de adentro de
los átomos.
Era una afirmación terrible: los átomos de Demócrito, los átomos de Dalton,
macizos, indivisibles, compactos, fundamento último de la materia… ¡tenían
partes, después de todo! ¡No eran indivisibles! ¡Tenían cosas adentro! Como
dijo el propio Thomson, muy a la inglesa:
La suposición de que exista un estado de la materia más finamente
dividido que el átomo es en cierto modo sorprendente.
No era «en cierto modo sorprendente»… Era increíble.
§. El asunto no terminaba ahí
En realidad, nadie se imaginaba todavía que lo pequeño encerraba un mundo. Pero
así era: los experimentos demostraban que los electrones eran todos iguales,
sin importar el material del cual salían, lo cual permitía sospechar que no
sólo eran partes de algunos átomos, sino que eran partes de todos los átomos.
Ya era una sorpresa y una novedad: si era así, la electricidad, que parecía
hasta entonces un fenómeno particular y, si se quiere, lateral, estaba en
verdad implicada en la esencia misma de la materia… ¡y buena parte de la
naturaleza del mundo resultaba ser eléctrica!
Thomson elucubró un modelo del átomo que mantenía, en cierta forma, la idea del
átomo macizo de Demócrito y Dalton, pero ya no era una esfera homogénea sino
una extensión de materia más o menos tenue (y cargada positivamente) en la que
los electrones estaban incrustados como las pasas de uva en un pan dulce, de
tal manera que resultara eléctricamente neutro.
Es muy probable que Thomson, al diseñar su átomo, pensara que estaba dando la
puntada final al problema de la estructura de la materia. Ni se imaginó que la
cosa recién empezaba.
Porque el átomo de Thomson que no era muy lindo, dicho sea de paso no estaba
destinado a durar. En 1896 llegó a su laboratorio un joven físico que se
llamaba Ernest Rutherford (1871-1937). Nacido en Nueva Zelanda, había trabajado
con sus padres, granjeros, en tareas campestres; cuando recibió la noticia de
que había ganado una beca para la Universidad de Cambridge, estaba plantando
papas en la granja familiar y dijo « ¡ésta es la última papa que planto en mi
vida!». O por lo menos, eso es lo que cuenta la leyenda.
Rutherford trabajó un tiempo junto a Thomson, pero enseguida se orientó hacia
la radiactividad, el nuevo campo abierto por Roentgen, Becquerel y Marie Curie,
de los que pronto hablaremos, aunque no en este capítulo. En 1898 viajó a la
Universidad McGill, en Montreal, Canadá, donde le fue muy bien: pronto comprobó
que los elementos radiactivos emitían por lo menos dos clases de rayos
diferentes: unos, que llamó alfa, cargados positivamente, y otros
más penetrantes y cargados negativamente que llamó beta (más
tarde se observaría una tercera radiación, la gamma). Las
partículas alfa salían de los elementos radiactivos con una velocidad que las
transformaba en proyectiles interesantes para estudiar los átomos: se las
lanzaba a toda velocidad contra ellos y se veía luego cómo se comportaban.
Por ejemplo, para ver cómo estaban distribuidos los electrones en el pan dulce
de Thomson, Rutherford probó, en 1908, lanzar partículas alfa contra una lámina
de oro de sólo cinco diezmilésimas de milímetro de espesor (es decir,
relativamente pocos átomos). Observó, con bastante sorpresa, que la mayoría de
los proyectiles atravesaba la hoja de oro sin sufrir desviaciones, pero de
tanto en tanto algunas partículas se desviaban en ángulos enormes y no faltaban
aquellas que volvían para atrás, como si hubieran chocado con algún obstáculo
sólido y pesado.
¿Por qué era una sorpresa? Porque Rutherford, como todos los físicos, tenía en
la cabeza el modelo «budín inglés» de átomo que había propuesto Thomson, el de
una esfera más o menos llena de materia tenue y cargada de electricidad
positiva, donde estaban incrustados los electrones de carga negativa. El
resultado del experimento, sin embargo, desmentía esa imagen; si algunas
partículas eran desviadas tan violentamente, incluso en ángulos rectos, y aun
mayores, en alguna parte del átomo tenía que haber algo duro y macizo: las
partículas fuertemente desviadas eran aquellas que por casualidad rozaban esa
región o chocaban con ella.
¿Qué podía ser? Un golpe de intuición feliz le permitió a Rutherford decidir
que toda o casi toda la masa del átomo estaba concentrada en
un espacio muy reducido en su centro, el núcleo, y era contra ese núcleo que
habían chocado las partículas alfa. El átomo «lleno» de Thomson saltó hecho
pedazos y así apareció el átomo «modelo Rutherford»: un centro (el núcleo)
compuesto de partículas que Rutherford llamó «protones» (los primeros), a cuyo
alrededor giraban los electrones, muy lejos, ya que si el núcleo fuera una
pelota de tenis en medio de un estadio de fútbol, los electrones estarían en
las tribunas.
Los protones del núcleo, mucho más pesados que los electrones y cargados
positivamente, compensaban las cargas negativas de los electrones. El número de
protones que tenía el núcleo, por su parte, determinaba de qué elemento era el
átomo (un protón significa hidrógeno; dos, helio; tres, litio; cuatro, berilio,
y así; el hierro tiene 26 y el oro 79 protones). Al fin y al cabo, Prout no
andaba tan equivocado cuando sugirió que todos los átomos eran agregados de
átomos de hidrógeno. Puesto que un protón era, efectivamente, un núcleo de
hidrógeno, y puesto que todos los núcleos eran agregados de protones, es decir,
de núcleos de hidrógeno, ¡resultaba que Prout había dado, casi, casi, en la
tecla!
Era interesante, además, ese núcleo compuesto por protones. Puesto que el
número de protones en el núcleo era la marca de identidad del elemento, se
abría una inquietante posibilidad: bombardeando al nitrógeno, Rutherford
comprobó que su carga de siete protones pasaba a nueve pero enseguida perdía un
protón y se quedaba con ocho… ¡y por lo tanto se había convertido en oxígeno!
¡Se habían transmutado átomos! La cosa era tan extraordinaria que Rutherford y
su discípulo Soddy vacilaron en anunciarla… la palabra «transmutación» tenía
tan mala fama que tuvieron que hacer verdaderos malabarismos de lenguaje para
dar a conocer el fenómeno al público y llevó algunos años que se aceptara del
todo.
Además, había algo vertiginoso en el átomo de Rutherford: estaba constituido,
casi en su totalidad (el 99,99999%), por espacio vacío. La materia, finalmente,
estaba compuesta por trocitos de nada, duros núcleos rodeados por una lejanía
de electrones: si les quitáramos el espacio vacío a los trillones de átomos de
nuestro cuerpo, el resultado cabría holgadamente en la cabeza de un alfiler:
todo lo que nos rodea, lo que somos y lo que hay es, casi íntegramente, espacio
vacío.
Sin embargo, y a pesar de ese irremediable y terrible vacío, este modelo tenía
un atractivo profundo, entroncado con uno de los más antiguos mitos humanos: la
identidad entre micro y macrocosmos, que lo más pequeño se pareciera a lo más
grande. Pensar que en el fondo de la materia se repetía una estructura parecida
a la del sistema solar, con el núcleo en el lugar del Sol, los electrones como
planetas y la atracción eléctrica en el papel de la gravedad, que el universo
tuviera una sola impronta repetida en diferentes escalas, excitaba la
imaginación. En verdad, era de un encanto irresistible: ¡en el reino de lo
diminuto aparecía la misma estructura que en lo inmenso!
No es de extrañar que el átomo, concebido como un sistema solar en miniatura,
tuviera un éxito fulminante y que su imagen perdure hasta hoy, como si fuera un
logotipo de nuestra época.
§. Nada es perfecto
Sin embargo, el átomo de Rutherford, a pesar de su indudable encanto, tenía un
gravísimo defecto: ocurre que, según las leyes del electromagnetismo
establecidas por Maxwell, cuando una carga eléctrica gira, como los electrones
alrededor del núcleo, emite ondas electromagnéticas y en consecuencia pierde
energía, que pronto no le alcanza para mantenerse en órbita y cae
irremisiblemente hacia el centro. El hermoso átomo de Rutherford no era
estable: los electrones tenían que caer forzosamente hacia el núcleo y el átomo
se derrumbaba sobre sí mismo. ¿Habría que abandonar la bella idea de un sistema
solar en miniatura?
No. Ya estaba lista la mano —o mejor dicho la mente— salvadora. Niels Bohr
(1885-1962), que había nacido en Copenhague, en 1911 se doctoró en física, se
destacó en fútbol y ganó una beca que le permitió viajar a una de las mecas de
la física del momento, Cambridge, para trabajar con J. J. Thomson, el
descubridor del electrón. Parece que no se llevó muy bien con Thomson (las
malas lenguas dicen que era muy autoritario, pero quizá valía la pena
aguantarlo; al fin y al cabo siete de las personas que trabajaron con él
ganaron el Premio Nobel), y pronto se orientó hacia Rutherford, cuyo átomo
inestable se sostenía tenuemente en el vacío, con la amenaza de inmediata
catástrofe.
Bohr actuó con rapidez y un poco alocadamente: siguiendo los pasos de Planck y
Einstein, y con una increíble audacia, en 1913 elaboró una teoría del átomo
completamente novedosa. Puesto que los electrones de Rutherford, mientras
giraban, debían irradiar energía y caer al núcleo, decidió inventar un modelo
en el que los electrones no irradian. Era mucho decir, pero no era todo. Bohr
decidió también que los electrones no pueden girar en cualquier lugar, sino en
ciertas órbitas absolutamente prefijadas, del mismo modo que los autos no
pueden circular por cualquier lugar, sino por las calles que son mano. Así,
sostuvo Bohr, hay una primera capa donde giran (circulan) los electrones menos
energéticos, una segunda capa con órbitas más energéticas que la primera, pero
menos que la tercera y así. Cada nivel corresponde a cierta cantidad fija de
energía y no hay órbitas intermedias (así como entre dos calles contiguas no
hay calles intermedias y un automóvil no puede seguir cualquier trayectoria).
Los electrones no irradian mientras se mueven en sus órbitas; sólo lo hacen cuando
saltan de una órbita más energética a una menos energética.
Es una situación parecida a la de los autos que giran alrededor de una plaza. A
medida que la calle inmediatamente alrededor de la plaza se llena, los autos
deben empezar a dar vueltas por las calles siguientes (que requieren mayor
energía, mayor consumo de nafta, porque el trayecto es más largo); cuando ésas
también se llenan, los autos-electrones deben ir una calle más allá, y así
sucesivamente. Cuando se desocupa algún lugar en una calle más cercana al
centro, inmediatamente el lugar es ocupado por un auto que gira más lejos, pero
como para alcanzar la órbita más cercana al centro debe doblar, debe poner la
luz de guiño y emitir (luz), es decir, perder energía.
Era una idea absolutamente radical, como si Bohr hubiera sostenido que hay
«calles» en un lugar donde todos pensaban que sólo existía una enorme planicie
asfaltada en la que los vehículos podían circular por donde se les antojaba.
Pero con ella conseguía zanjar la dificultad del átomo de Rutherford y lo que
es todavía mejor lograba explicar una buena cantidad de fenómenos empíricos.
Y otra cosa: el esquema de Bohr explicaba la estructura obsesiva y repetitiva
de la Tabla Periódica. A medida que las capas se van llenando (la primera se llena
con dos electrones, la segunda con ocho, la tercera también con ocho y así),
como si sus calles se fueran embotellando, los electrones no tienen más remedio
que circular por las calles más alejadas y ocupar las capas subsiguientes. Es
el número de electrones en la última capa el que determina las propiedades
químicas, ya que es la última capa la que interactúa con el resto de los
átomos.
Al fin y al cabo, son los autos del último de los trayectos alrededor de la
plaza los que interactúan con el resto del tránsito. El cobre, la plata y el
oro, por ejemplo, tienen un solo electrón en la capa más externa y por eso sus
propiedades son parecidas.
Era un paso peligroso. Es verdad que se conservaba la plácida imagen de un
minúsculo sistema solar, pero a costa de violar las leyes clásicas de la
física. Y era peligroso porque marcaba un límite entre macro y microcosmos: las
leyes del electromagnetismo que claramente establecían que el electrón debía
emitir no valían en el mundo del átomo de Bohr: allí el electrón no emitía
mientras estaba en la órbita, sino sólo cuando saltaba de una a otra. No era
fácil de digerir y las reacciones a la propuesta de Bohr fueron una mezcla de
entusiasmo y escepticismo que a veces llegaba a la incredulidad. El mismo
Rutherford, que seguía de cerca a su alumno, fue muy cauto. Pero el nuevo
modelo ¡funcionaba en los experimentos! Y es que las cosas son así: la ciencia
avanza con pasos de ciego, con audacia e irresponsabilidad, y a veces una
propuesta temible es la base sobre la que pueden apoyarse los que vendrán
después. El átomo de Bohr (o el de Rutherford salvado por Bohr), con su núcleo
ocupado por protones, de carga positiva, y los electrones en órbitas fijas a su
alrededor, fue un hallazgo feliz y permitió los modelos más complicados que
vinieron después.
Naturalmente, ésta no era la idea que había tenido Dalton de sus átomos (ni
Demócrito, desde ya). Ahora resultaba que los átomos no sólo eran divisibles,
sino que tenían una complicada estructura interna. Pero con sólo dos partículas,
el electrón y el protón, se explicaban todas las propiedades de la materia y la
profusión de elementos de la Tabla Periódica.
Y sin embargo, todavía faltaba algo.
En ciencia, las cosas son así: siempre falta algo.
Parte VI
De los rayos X a la doble hélice
Contenido:
28. Los rayos
X y la radiactividad
29. El anhelo
de la conservación y la ley de leyes
30. El mapa y
el territorio: las geometrías no euclidianas, el infinito y el éter
31. Einstein
y la teoría de la relatividad
32. La teoría
de la deriva continental y la estabilización de la geología
33. La
genética
34. La
medicina científica entre la anestesia y los trasplantes
Capítulo 28
Los rayos X y la radiactividad
La maquinaria científica del siglo XX se puso en marcha a fines del
siglo XIX. Y los grandes motores que la alimentaron, o que por lo menos
alimentaron el arranque, fueron los rayos X y la radiactividad.
Veamos cómo empezó todo.
Wilhelm Roentgen era un modesto profesor de la Universidad de Würzburgo, en
Alemania, que el 8 de noviembre de 1895 estaba experimentando con descargas
eléctricas en un tubo de vidrio donde se había hecho previamente el vacío. Más
tarde se habría de recordar esa fecha como el comienzo de algo, como el inicio
de una nueva era, como el arribo a un nuevo mundo, como el acontecimiento que
marca un antes y un después, pero Roentgen no podía sospecharlo en el
laboratorio a oscuras, donde se afanaba sobre los aparatos hasta que hizo pasar
una corriente eléctrica a través del tubo, envuelto en un papel negro, y vio de
pronto un pequeño resplandor en el otro extremo del laboratorio. A veces las
cosas empiezan así. A veces las cosas ni siquiera empiezan: a veces amanece, a
veces un pequeño indicio es el comienzo de un insospechado alud.
Vio una luz, un pequeño resplandor. Interrumpió la corriente, y el resplandor
desapareció. Dejó pasar la corriente otra vez, y algo volvió a brillar en la
oscuridad. Era una época en que los investigadores todavía se maravillaban ante
los milagros de la electricidad y los tubos de descarga no eran una novedad:
todos o casi todos los físicos estaban acostumbrados a trabajar con ellos. En
realidad, era bastante sencillo: se evacuaba un tubo de vidrio que tuviera placas
de metal adosadas a sus extremos y se conectaban ambas placas a una batería o
una bobina de inducción —más o menos igual a la bobina que alimenta a las
bujías en el motor de un auto— y cargado de esta manera eléctricamente, el
interior del tubo cerrado empezaba a brillar.
Así era. El brillo emergía de la placa negativa (el cátodo) y se zambullía en
la placa positiva (el ánodo). Dándole al ánodo una forma cilíndrica, y
enfocándolo adecuadamente, los rayos catódicos —llamados así porque,
justamente, partían del cátodo— se podían proyectar, y si el rayo tenía
suficiente energía como para alcanzar la pared de vidrio, ésta se iluminaba con
una elegante fluorescencia, de color verde si el tubo estaba hecho de vidrio
cálcico inglés y de color azul si estaba construido en el más duro vidrio
plúmbico alemán. Pero esta vez la luz que vio Roentgen no estaba en el otro
extremo del tubo, donde debía estar, sino en el otro extremo del laboratorio.
Así fue.
Aunque Roentgen no lo sabía (ni podía saberlo), esto ya había ocurrido otras
veces. Poco tiempo antes, en 1894, el físico inglés Joseph John Thomson —el
mismo que más tarde descubriría el electrón— vio también un resplandor a unos
metros del tubo, pero no le prestó atención. Y el físico de Oxford Frederick
Smith, cuando comprobó que las placas fotográficas que estaban cerca de un tubo
de rayos catódicos se velaban, se limitó a decir a su asistente que las
cambiara de lugar.
No es lo que hizo Roentgen, que se puso de inmediato a examinar la naturaleza
de ese resplandor. Comprobó que venía de una lámina colocada sobre una mesa y
cubierta con platino-cianuro de bario, un compuesto que fluorece fácilmente, es
decir, que brilla apenas sus átomos son excitados. Dio vuelta la pantalla, para
que la cara recubierta quedara de espaldas al tubo de vacío con el cual
experimentaba: el resplandor no cejó. Alejó la lámina del tubo: el resplandor
era el mismo. Interpuso su mano entre el tubo y la lámina, y entonces vio algo
que nadie había visto antes: vio perfilarse la sombra borrosa de sus huesos. Un
mundo nuevo empezaba.
§. Una novedad insólita
Muy entusiasmado, Roentgen se convenció de que indudablemente algo extraño
salía del tubo, algo capaz de atravesar el papel oscuro que lo cubría y que, de
alguna manera, excitaba los átomos del compuesto de bario. Algo para lo cual
los objetos eran transparentes, incluyendo los tejidos de su propia mano. Por
cierto que no imaginaba el alcance de lo que acababa de ver por vez primera.
En diciembre de 1895, publicó los resultados de sus experimentos: cuando un haz
de rayos catódicos (que, como J. J. Thomson demostró poco después, era un
chorro de electrones) choca con la pared de vidrio de un tubo de descarga, esta
pared fluorece y emite una radiación de propiedades sorprendentes.
Muy sorprendentes, en verdad. La mayoría de los objetos parecían ser
transparentes ante ella. Esta nueva radiación era tan penetrante que podía
atravesar el aire, el vidrio, el papel y la madera: se propagaba en línea
recta, no se desviaba por la acción de un campo eléctrico o magnético y
electrizaba el aire.
Naturalmente, de todas estas propiedades, la que hizo a estos rayos
inmediatamente famosos fue la capacidad de atravesar los tejidos blandos del
cuerpo pero no los tejidos duros: cruzaban sin problemas la piel y los
músculos, pero eran detenidos por los huesos, que aparecían delineados sobre
una pantalla fluorescente o una placa fotográfica. Roentgen le pidió a su
esposa que interpusiera una mano en el haz, y pudo fijar sobre una película
fotográfica los huesos de esa mano, donde se distinguía claramente el anillo de
matrimonio.
El impacto fue formidable: Roentgen recibió el primer Premio Nobel de Física,
que se otorgó en 1901. En verdad, y en honor a la justicia, hay que decir que,
según parece, la primera radiografía fue tomada antes de que
se inventaran los rayos X, y completamente de casualidad. En 1890, Arthur W.
Goodspeed, de la Universidad de Pennsylvania, mientras estaba fotografiando
chispas eléctricas y descargas en tubos de vacío, vio dos discos negros en una de
las placas, que no pudo explicar en su momento. Pero luego del anuncio de 1895,
en febrero de 1896 repitió la exposición y, efectivamente, pudo comprobar que
los dos discos se debían a la «sombra» en rayos X proyectada por un par de
objetos circulares.
Obviamente que el descubrimiento «verdadero», por decirlo de alguna manera, le
correspondía a Roentgen. Es por eso que el nombre «Rayos Roentgen» se imponía
por sí solo. Pero, curiosamente, el que insistió para otorgarles otro nombre
fue el propio Roentgen, que eligió un apodo extraño para una radiación extraña:
rayos X. X, como la incógnita de una ecuación matemática. La X significaba que
Roentgen no sabía en realidad qué eran. Supuso —y no andaba lejos de la verdad—
que los rayos eran análogos a los rayos de luz, pero mucho más energéticos. En
realidad, no tenía demasiada idea. Lo cierto es que no podía tenerla. Ni podía
saber que su descubrimiento era el primer eslabón de una larguísima cadena que
modificaría el curso de la historia humana.
El mismo Roentgen se preocupó de difundir el resultado de sus experimentos: el
anuncio fue hecho el 28 de diciembre de 1895 y corrió como un reguero de
pólvora. Hacia enero de 1896 se había creado una enorme conmoción en todo el
mundo. El 20 de enero, en la reunión semanal de la Academia de Ciencias
francesa, Henri Poincaré mostró las primeras fotografías con rayos X tomadas
por Roentgen, y uno de los científicos presentes tuvo una idea que decidió
poner en práctica de inmediato y corrió a su laboratorio. Se llamaba Henri
Becquerel.
¿Habrá otras sustancias también fluorescentes capaces de producir rayos X?, se
preguntaba Becquerel, sin siquiera sospechar que estaba a las puertas de un
descubrimiento sensacional. « ¿Por qué no probar con un compuesto de uranio?,
¿por qué no el uranio?», pensaría un tiempo después Becquerel.
§. El gran descubrimiento: la radiactividad
El sol no brilla siempre en París. El 20 de enero de 1896, Henri Becquerel oyó
hablar de los rayos X y se apuró. Hijo y nieto de físicos, Becquerel ocupaba la
cátedra de Física del Museo de Historia Natural en París, y era un experto en
fluorescencia. La reunión de la Academia de Ciencias en la que Henri Poincaré
mostró radiografías y habló de los rayos X recién descubiertos por Roentgen le
había dado una idea: tras escuchar que los nuevos rayos emergían de la zona
fluorescente del tubo de descarga se le ocurrió probar con varias sustancias
fluorescentes para ver si ellas también emitían rayos. Fue corriendo a su
laboratorio e inició los experimentos, exponiendo diversos compuestos
convenientemente envueltos a la luz solar sobre una placa fotográfica. La idea
era simple: el sol estimularía la fluorescencia de las sustancias haciéndoles
emitir rayos X, que a su vez impresionarían la placa.
Pero el sol no siempre brilla en París: durante diez días, Becquerel trabajó
sin éxito, examinando diferentes compuestos, hasta que decidió probar con una
sal de uranio no demasiado común y de nombre complicado: el sulfato doble de
uranio y de potasio. La expuso al sol en el marco de su ventana, y esta vez sí
encontró que la placa se había ennegrecido. Efectivamente, pensó Becquerel, tal
vez el uranio emita rayos X. Y después, la casualidad se mezcló con el asunto,
y el cielo se nubló.
Porque el sol no brilla siempre en París y, para desesperación de Becquerel,
estuvo diez días sin aparecer, mientras las sales de uranio, convenientemente
empaquetadas y sobre la placa fotográfica, dormían en un cajón.
Pero ocurrió que el primer día de marzo el sol volvió a salir y Becquerel
decidió continuar con el experimento, sacó los paquetes del cajón y, primero,
reveló la placa, esperando ver los débiles restos de la fluorescencia. Pero
para su sorpresa no los vio: había una imagen nítida. Así, pues, la radiación
que había impresionado la placa no provenía de la fluorescencia (ya que en la
oscuridad de un cajón cerrado nada podía producirla) ni de los rayos X
presuntamente derivados de aquélla. Ni nada parecido.
¿Y entonces? Entonces a Becquerel se le ocurrió que lo que había velado la
placa era un nuevo tipo de radiación, algo nuevo, algo distinto, una radiación
que no podía provenir sino del propio compuesto de uranio. Y así lo publicó en
una nota aparecida el 2 de marzo de 1896 en las actas de la Academia de
Ciencias.
Becquerel no se equivocaba: lo que había descubierto era efectivamente algo
nuevo, algo completamente nuevo y radicalmente distinto de
todo lo visto hasta entonces. Tan diferente que nada en adelante sería igual.
Había echado el primer vistazo, había tenido el privilegio de intuir por
primera vez un fenómeno que provenía del corazón mismo de la materia.
Un fenómeno que poco después Marie Curie llamó radiactividad.
§. Las andanzas de Marie Curie
La acción ocurre en un país oprimido y tenaz: Polonia, Irlanda, la República de
Venecia, algún estado sudamericano o balcánico… Ha transcurrido, mejor dicho,
porque aunque el volátil autor de estas páginas es contemporáneo (y aunque sus
personajes en cierto sentido son eternos) la historia referida por él empezó al
comenzar o promediar el siglo XIX. Digamos, para comodidad narrativa, Polonia,
digamos 1815, cuando tras la caída de Napoleón se cernía la todopoderosa y
temible figura del canciller austríaco Metternich y, desde Viena, una sombría
oleada reaccionaria se abatía sobre Europa. Los restos del imperio napoleónico
fueron repartidos y en particular Polonia fue descuartizada entre Austria,
Rusia y Prusia. Hasta el levantamiento de 1830, el sector ruso gozó de un
estatus especial, pero al ser aplastada la revolución, las «libertades polacas»
se desvanecieron. La historia de Polonia seguiría signada por esas
insurrecciones, a pesar de las cuales no volvió a existir como país
independiente hasta finalizada la Primera Guerra Mundial.
Apenas cuatro años después de un nuevo intento de rebelión polaca en 1863, que
implicó aún mayor represión por parte de los ocupantes rusos, nació Marie
Sklodovska. Su familia pertenecía a la intelligentzia varsoviana:
su padre era profesor de física y su madre directora de un colegio, y la vida
de la familia estuvo marcada por las dificultades políticas, la estrechez
económica y la desgracia: la madre de Marie murió de tuberculosis cuando ella
era muy chica.
Pero a pesar de la penuria, Marie recibió de su padre las bases de una
educación científica; desde muy joven se orientó hacia la química y la física.
Cuenta la leyenda que, cuando quiso matricularse en la Universidad de Cracovia
en aquellas materias, se le respondió amablemente que en esas disciplinas no
había vacante, pero que podía intentar seguir estudios en «labores, cocina y
economía doméstica». La anécdota puede no ser cierta pero refleja perfectamente
el hecho cierto de que no tenía demasiadas posibilidades de recibir enseñanza
superior en la Polonia sometida. Así, sus pensamientos se volvieron hacia el sueño
de todos los polacos: Francia. Ya un hermano y una hermana mayores que ella se
habían marchado a París en busca de una formación universitaria. En 1891
consiguió juntar el dinero necesario y emprendió el decisivo viaje.
En París llevó una vida dura. Se inscribió en La Sorbona y vivió con una
frugalidad rayana en lo irresponsable: los desmayos provocados por la pésima
alimentación e incluso el hambre requirieron la intervención de su hermana y su
cuñado, ya recibidos de médicos. Pero se graduó con las mejores notas, lo cual
era una hazaña para una mujer en aquellos no tan lejanos tiempos.
Sin embargo, no todo fue estudio: en 1894 conoció a un físico francés, que se
había hecho ya un cierto nombre por el descubrimiento de la piezoelectricidad
(la manera de producir un potencial eléctrico aplicando presión sobre ciertos
cristales). El 26 de julio de 1895 se casaron. El físico en cuestión se llamaba
Pierre Curie. Marie Sklodovska se transformó —para siempre— en Marie Curie.
Corrían los tiempos de la radiación y Marie buscaba un tema de tesis. Hacía muy
poco que Roentgen había anunciado la existencia de los rayos X, y menos todavía
que Becquerel había encontrado una radiación de naturaleza desconocida, emitida
por las sales de uranio.
La radiación de Becquerel no era ni de lejos tan espectacular como la de
Roentgen: no permitía obtener fotografías de los huesos, ni se perfilaba como
una atracción de circo, donde ya algunos empezaban a bailar en esqueleto detrás
de una pantalla iluminada con rayos X. No, nada de eso: la radiación de
Becquerel era firme y persistentemente emitida por el uranio, un elemento sin
demasiada tradición: ni despertaba demasiado interés, ni tenía demasiada
utilidad, en el extremo de la Tabla Periódica de los Elementos Químicos. No
había, por lo tanto, legiones de científicos persiguiéndola. Marie Curie
decidió que ella sí investigaría las propiedades de los rayos de Becquerel.
Seguramente era un buen tema de tesis: ¿por qué no?
En realidad, tanteaba en la oscuridad. Como Roentgen, en su laboratorio a
oscuras, como Becquerel, exponiendo sus sales de uranio al sol, Marie ignoraba,
pero ignoraba por completo, lo que habría de venir. Para decirlo al viejo
estilo, estaban leyendo un nuevo capítulo del libro de la naturaleza, pero no
lo sabían.
¿Cómo podían saberlo?
Así, Marie Curie empezó estudiando las propiedades de los rayos de uranio, pero
en vez de detectarlos mediante el ennegrecimiento de placas fotográficas, como
lo había hecho Becquerel, pensaba medir los rayos mediante la curiosa capacidad
que tenían para descargar cuerpos cargados eléctricamente. Era como si los
rayos se las arreglaran para transformar el aire que atravesaban de aislador a
conductor y en ese efecto vio Marie Curie la posibilidad de calcular su
intensidad. Para lograrlo, necesitaba medir corrientes sumamente débiles y para
ese trabajo poseía un instrumento excelente: un electrómetro que había sido
diseñado por su marido Pierre Curie y su cuñado Jacques.
Pero pronto se hizo la pregunta crucial: ¿sería el uranio la única sustancia
capaz de emitir esos extraños e inexplicables rayos? Y al investigar la
cuestión hete aquí que descubrió que el torio, el elemento 90 de la Tabla
Periódica, emitía una radiación similar. Ya nadie podía decir que se trataba de
una habilidad particular y exclusiva del uranio, sino de un fenómeno más
general. ¿Cómo llamarlo? ¿Cómo llamar a esta propiedad de emitir una extraña e
inexplicable radiación? Marie Curie eligió un nombre que tendría fortuna:
radiactividad.
Y así comenzó una búsqueda sistemática para ver si había alguna otra sustancia
que tuviera esta propiedad. A veces ensayó minerales puros, otras, minerales
tal como llegaban de la mina, o compuestos puros. Pero nada: el uranio y el
torio parecían ser únicos.
Con una sola excepción: la pechblenda. Es verdad que la pechblenda era un
mineral de uranio, pero su emisión era mucho más intensa que la del uranio
puro. ¿Cómo podía ser? Marie Curie pensó en la posibilidad de que la emisión se
debiera a alguna otra sustancia —y no al uranio— escondida en
la pechblenda.
Y como no podía ser ninguno de los elementos conocidos de la Tabla Periódica,
tenía que ser un elemento nuevo, alguno de los candidatos a llenar los
casilleros vacíos que aún quedaban, de acuerdo con la ordenación que había
hecho el gran químico ruso Dimitri Mendeleev. Era cuestión de aislarlo, y en
este punto Pierre Curie se sumó a los trabajos de su mujer, abandonando sus
propias investigaciones. El camino parecía verdaderamente promisorio y no era cuestión
de perdérselo.
Pero pensarlo era más fácil que hacerlo: separar la misteriosa y nueva
sustancia radiactiva no era una tarea sencilla, por cierto. Los Curie
gestionaron ante el gobierno austríaco el envío de rezagos de la mina de
Joachimstahl. Tiempo después, el primer transporte de desechos radiactivos
llegaba a la puertas del laboratorio de los Curie. Marie y Pierre tuvieron que
moler, disolver, precipitar, filtrar, separar químicamente, volver a filtrar
con sus propias manos, sin aparatos que los ayudaran, más de una tonelada de
pechblenda. Finalmente, en julio de 1898, pudieron aislar una sustancia
radiactiva, un nuevo elemento al que llamaron «polonio», en honor al país de
origen de Marie. Era un avance en la tarea de completar la Tabla Periódica,
pero no sería el último, porque aún sin el polonio la pechblenda tercamente
seguía mostrando radiactividad. Cuando se separaba bario, un elemento ubicado
en la mitad de la Tabla (y que muchos años más tarde jugaría un papel
protagónico en otro gran descubrimiento) arrastraba radiactividad. Marie y
Pierre Curie separaron y concentraron el material activo: era un nuevo elemento
— ¡otro más!— novecientas veces más radiactivo que el uranio. Cuando en
diciembre del mismo año de 1898 anunciaron sus trabajos, lo llamaron «radio».
En 1903, Marie y Pierre Curie compartieron con Becquerel el Premio Nobel de
Física.
El descubrimiento del polonio y el radio fue un gran triunfo de la física y la
química experimentales. Las radiaciones de esos dos elementos, más la del torio,
mostraron que la radiactividad era un terreno más vasto de lo que parecía al
principio y una característica que compartían muchos elementos químicos: poco
más tarde se agregaron el actinio (gracias al trabajo de André Louis Debierne)
y el gas radiactivo radón. Debía ser, por lo tanto, alguna propiedad profunda
de la materia, o por lo menos de parte de ella.
Pero además de todo, el polonio y el radio están asociados a la figura de Marie
Sklodovska, Madame Curie o simplemente «Madame», como se llegó a llamarla
cuando, poco tiempo más tarde, se transformó en la autoridad indiscutida de la
ciencia francesa.
Y es lógico, dado que tiene todos los atributos del arquetipo heroico en la
historia de la ciencia: originaria de un país oprimido, de una familia con
dificultades económicas —debidas en gran parte a la opresión política—, con una
enorme fuerza de voluntad que le permitió ser casi una autodidacta. Su vida en
París, sus desmayos a causa del hambre, sus vestidos descuidados, la
convirtieron con justicia en una heroína de novela. A lo cual contribuyó,
naturalmente, el hecho de ser una mujer en un ambiente donde las mujeres se
veían rara vez, salvo en el papel de consortes.
Lo cierto es que Madame Curie fue más que una científica, fue una verdadera
institución, una leyenda, un mito en Francia y el mundo. Recibió dos veces el
Premio Nobel, ya que en 1911 le otorgaron el de química. Además fue la primera
mujer en acceder a la Academia Francesa de Ciencias. Incluso la muerte de
Pierre, arrollado por un carro en las calles de París en 1906 —tras lo cual
Marie ocupó su cátedra—, contribuyó a fortalecer el impacto de su historia. A
medida que el radio y la radiactividad ganaban terreno tanto en las ciencias
teóricas y experimentales como en la medicina, donde eran utilizados para
combatir el cáncer —en lo que se llamó entonces «curieterapia»— ganó fama
universal. Durante la Primera Guerra Mundial reformó las unidades que
utilizaban la radiología —entonces bastante incipiente para atender a los
heridos—, y montó laboratorios radiológicos móviles que conducía ella misma.
Cuando en 1921 viajó a los Estados Unidos, fue aclamada por verdaderas
multitudes y cuando murió en 1934, Francia y el mundo entero le rindieron
homenaje. Además, fue la fundadora de una dinastía científica, ya que su hija
Irene Curie también habría de ser una física renombrada.
Madame Curie es el arquetipo del científico que en una época importante
resuelve un problema fundamental o inicia un camino. En aquellos años de
radiación incipiente y radiactividad balbuceante, el polonio y el radio
contribuyeron a establecer el nuevo fenómeno como uno de los temas centrales de
la investigación científica. Los rayos X y la radiactividad eran fenómenos
nuevos y espectaculares, muy apropiados para un cambio de siglo.
Y sin embargo, no eran más que el preámbulo de una aventura que sólo estaba
empezando: la aventura de contestar una de las preguntas más viejas del mundo
(¿de qué y cómo están hechas las cosas?), la aventura de comprender y descifrar
la estructura de la materia.
§. Espectros
En 1895, el descubrimiento de los rayos X causó sensación. Los periódicos del
mundo les dedicaron páginas y páginas y no es para asombrarse. Hoy, cualquiera
de nosotros está acostumbrado a ver radiografías, pero, en el momento, los
rayos X parecían capaces de acceder a lo invisible, de fotografiar un objeto
encerrado dentro de una caja de madera y sobre todo, de ver, sin necesidad de
bisturí, lo que nunca se había visto hasta entonces: el interior del cuerpo
humano. Había algo mágico en esos rayos de Roentgen. Cuando en mayo de 1896
Edison hizo la primera exhibición pública de los rayos X en Nueva York, cientos
o miles de personas hicieron cola para interponer sus manos o sus piernas en el
haz de rayos y ver la sombra de sus huesos dibujarse en la pantalla
fluorescente.
Aun en 1927, Thomas Mann, en La montaña mágica, muestra el impacto
que producía la visión de una radiografía.
El Dr. Becher llevó luego su amabilidad hasta permitir que el pensionista
contemplase su propia mano en la pantalla luminosa. Y Hans Castorp vio lo que
ya debía haber esperado, pero que, en suma, no está hecho para ser visto por el
hombre, y que nunca hubiera creído que pudiera ver: miró dentro de su propia
tumba. Vio el futuro trabajo de la descomposición, lo vio prefigurado por la
fuerza de la luz, vio la carne, en la que vivía, descompuesta, aniquilada,
disuelta en una niebla inexistente. Y en medio de ella, el esqueleto, cincelado
esmeradamente, de su mano derecha, en torno de cuyo anular la sortija, procedente
de su abuelo, flotaba negra y fea: un objeto duro de esta Tierra con el que el
hombre adorna su cuerpo, que está destinado a desaparecer, de modo que, una
vez, libre, vaya hacia otra carne que pueda llevarlo un nuevo lapso de tiempo.
La estupefacción dio pie para toda clase de extravagancias e incluso volvieron
los viejos sueños de los alquimistas medievales. Un granjero de Iowa, Estados
Unidos, aseguró que había transmutado metales en oro irradiándolos con rayos X:
George Johnson, un joven granjero del condado de Jefferson, graduado del
Columbia College, que ha estado experimentando con rayos X, piensa que ha hecho
un descubrimiento que va a asombrar al mundo. Por medio de los rayos X fue
capaz de transformar en tres horas de exposición una pieza de metal barato
(cuyo valor era de 13 centavos) en una pieza de oro de 153 dólares. La pieza de
metal ha sido comprobada y efectivamente es oro, informó un despacho el 20 de
abril de 1896, y la noticia apareció el 6 de mayo del mismo año en el Electric
Engineer de Nueva York. El «invento» no fue patentado, aunque en 1918
se dio una patente a un médico llamado Germán Pérez, que sostenía haber
transformado mercurio en oro, y en 1924-25 la compañía Siemens Halske sacó
cinco patentes de transformación de mercurio en oro mediante descargas
eléctricas. Usaban descargas de 150 mil voltios y efectivamente obtenían
pequeñas cantidades de oro en el mercurio. Pero desgraciadamente para ellos —y
por suerte para la química—, lo que ocurría era que el mercurio estaba ya contaminado
con residuos de oro.
Se patentaron máquinas de rayos X a cuerda, portátiles y máquinas accionadas
por monedas. Alguien quiso utilizar los rayos X para curar el hábito de fumar o
de beber (más o menos como se hace con el láser hoy en día) y no faltaron
quienes pretendieron usarlos para modificar conductas antisociales: una buena
dosis de rayos X dirigida al cerebro (dijeron) y el más feroz de los criminales
se transformaría en un inocente corderito. Se escribieron poemas, se hicieron
bromas y se especuló con inquietantes posibilidades: ¿no se podría acaso espiar
la desnudez de las mujeres mediante un adecuado uso de rayos X?
En el verano de 1896, un estudiante de Columbia llamado Herbert Hawk hacía
demostraciones de equipos en lugares públicos, enfocando los rayos sobre su
cabeza, para que los espectadores se extasiaran contemplando su mandíbula en la
pantalla. La Legislatura del estado de Nueva Jersey, Estados Unidos, debatió
una ley que prohibía el uso de rayos X en los binoculares de teatro. (Dicho sea
de paso, las legislaturas estaduales norteamericanas tienen una interesante
tradición en inmiscuirse en cuestiones científicas: en 1897, en Indiana, las
cámaras estuvieron a punto de aprobar una ley que fijaba el valor del número
pi, y en la década del veinte, en Tennessee, se prohibió por ley la enseñanza
de la teoría de la evolución de Darwin.) También en 1896, Snowden Ward, uno de
los más prolíficos conferencistas sobre las maravillas de los rayos X, mostró a
una audiencia de médicos, estudiantes y fotógrafos la radiografía de una mano
de un chico con un doble pulgar, pero cuando se quiso repetir el experimento el
doble pulgar no apareció por ninguna parte (lo que había pasado era que,
durante la exposición, la mano se había movido un poco).
Los rayos X también parecieron la panacea médica: más allá de las radiografías,
se pensó que podían servir (y se aplicaron) como «tratamiento» para múltiples
enfermedades. Un texto de 1907 hace un listado de las dolencias que los rayos X
podían aliviar: lupus, eczema, acné, psoriasis, lepra, tuberculosis,
neuralgias, migrañas y epilepsia, además de diversos tipos de cáncer.
Sin embargo, desde muy temprano se empezó a observar que las largas sesiones en
que los pacientes eran sometidos a irradiación X, a veces durante horas,
generaban problemas, y problemas serios. No obstante, la furia radiológica
siguió: hubo zapaterías que colocaron tubos de rayos X de tal modo que uno
podía ver exactamente cómo calzaban los huesos del pie en el zapato que estaba
comprando, y esta costumbre se mantuvo hasta los años cincuenta.
Como los elixires y remedios que «curaban» todas las enfermedades,
verdaderamente los rayos X parecían mágicos. No es de extrañar que cosas muy
parecidas ocurrieran con la radiactividad.
§. Los años locos
Porque aunque no tanto como con los rayos X, la gente también se enloqueció con
la radiactividad. Una bailarina célebre pidió a Marie Curie que empapara con
radio sus ropas vaporosas para hacerlas brillar e impresionar a su público. Los
Curie se negaron—no tenían mucho radio para desperdiciar— pero se hicieron
amigos de la artista.
No fue el único caso: la radiactividad desató una oleada de aplicaciones
extravagantes. En 1919 se vendía una «crema activa» radiactiva, y los carteles
anunciaban que «provoca una actividad particular de revitalización de los
tejidos: la piel, colocada en situación de juventud eterna, se torna más fina y
más blanca y las arrugas desaparecen». En 1933 se promocionó una crema de
belleza a base de radio y torio; se decía que respondía a una fórmula de un tal
Dr. Alfred Curie (que jamás existió), y se describía como una «revolución en el
arte de embellecer el rostro». Digamos, de paso, que en las minas de uranio de
Joachimstahl se tomaban «baños radiactivos», para los cuales se habían construido
instalaciones especiales: los «pacientes» se sumergían en agua que contenía
radio y respiraban el radón gas peligrosamente radiactivo que se desprendía del
suelo. Aun hoy, en Europa existen estaciones termales que promocionan los
mismos «saludables vahos» de radón.
También se intentó aplicar en medicina a tontas y a locas: los Laboratorios
Pierre Koeheren de Estrasburgo inventaron una «compresa de radio» y sostenían
que servía para curar migrañas, arteriosclerosis y apendicitis. El propio
Pierre Curie pensó que la radiactividad podía ser útil para tratar afecciones
de los ojos. En 1899 se informó que el radio estimulaba la retina y se especuló
con que podía devolver la vista a los ciegos. Incluso se llegó a tomar
«radiografías» de radio; al fin y al cabo, los rayos emitidos por el radio
también eran capaces de atravesar los tejidos e impresionar una placa
fotográfica. Éste es el comentario hecho en 1904 sobre una de estas
«radiumgrafías» (tomadas tras una exposición de seis horas): «Mientras la
permeación es considerable, los contrastes son pobres y otra desventaja es que
lleva horas obtener una imagen». Hay un testimonio (hecho muchísimos años más
tarde) sobre el tratamiento que se utilizaba para combatir el lupus, en 1914,
en una clínica de Birmingham.
El doctor sostenía lo que parecía una pequeña piedra en el extremo de
una caña de bambú, y con ella iba tocando muy cuidadosamente la piel. El médico
estaba utilizando algo que sabía peligroso, pero de cuyos alcances no sabía
nada. Unos pocos años más tarde, perdió ambas manos como resultado de la
exposición a las radiaciones.
Como ocurrió con los rayos X, las terapias basadas en el radio se usaron
con total desconocimiento e imprudencia. Los preparados de radio se
consideraban la cura milagrosa prácticamente de cualquier enfermedad, desde la
artritis al cáncer, desde la alta presión a la ceguera. Se fabricaron
cinturones radiactivos para usar en cualquier parte del cuerpo: la «oreja de
radio» (una ayuda para mejorar la audición) y dentífricos radiactivos, cremas
para la cara y para las manos… En 1932, Frederick Gosfrey, un peluquero
británico, propagandeaba un tónico radiactivo para el pelo. En Alemania se
vendía chocolate tratado con radio como rejuvenecedor. Y aun en 1953, una
compañía de Denver promovía un gel anticonceptivo radiactivo.
También se especuló con el efecto benéfico de las aguas radiactivas de Hot
Springs, Arkansas, Estados Unidos. En 1952, un artículo de la revista Life sobre
los «beneficios» del radón envió a miles de pacientes de artritis a respirar
los peligrosos gases en el fondo de algunas minas.
§. Fotografiar lo invisible
Sea como fuere, los rayos X no fueron solamente una atracción de circo ni todas
las primeras radiografías tuvieron el aire despreocupado y casual de una feria
de diversiones. Los médicos se dieron cuenta desde el principio de que eran en
realidad una formidable herramienta de diagnóstico, tal vez una de las más
formidables que hubiera existido jamás. Una radiografía es exactamente una
fotografía tomada con rayos X en vez de luz visible. La placa fotográfica,
ubicada detrás del cuerpo, es impresionada según la cantidad de radiación
recibida, y así se verá, como en el negativo de una fotografía cualquiera,
negra en las zonas de tejidos blandos y blanca en la parte ocupada por los
huesos, donde los rayos fueron detenidos. Y aunque para los profanos la única
distinción observable a simple vista es entre hueso y tejidos blandos, las
radiografías muestran toda una gradación de grises que permiten al ojo
experimentado del radiólogo un diagnóstico de detalle. El 7 de febrero de 1896,
John Cox, profesor de física en la Universidad McGill, de Montreal, Canadá,
sometió a un joven paciente a una sesión de 45 minutos de Rayos X, de tal modo
que los médicos pudieran localizar y extraer una bala alojada en una de sus
piernas. Y no habían pasado dos meses desde el descubrimiento. La práctica de
radiografiar se extendió rápidamente entre los médicos, que enviaban a sus
pacientes a laboratorios especializados. Hacia fines de 1897, un laboratorio
que se ocupaba del asunto ya había tomado más de 1.400 radiografías… y no
habían transcurrido aún dos años desde el anuncio de Roentgen. En 1898, una
unidad de rayos X acompañó al ejército británico al Sudán, donde Inglaterra
intentó vencer a los derviches.
Además, los rayos X se usaron —o intentaron usarse al menos— para muchas otras
aplicaciones curiosas. Por ejemplo, para encontrar monedas dentro de los envíos
postales. La reina Amalia de Portugal radiografió a las damas de su corte para
demostrar lo dañinos que eran los corsés ajustados. Un tal Dr. Braduc pretendió
usar los rayos X para curar a alcohólicos y adictos al tabaco, otro tal M.
Gaudoin puso en práctica un tratamiento de rayos X para depilación, y así.
Y más: en el número de julio de 1896 del Strand Magazine, Thurstan
Holland, que había tomado radiografías de diamantes y que había encontrado un
pájaro momificado sometiendo a los rayos X un objeto que le habían traído de
Egipto, contaba la siguiente historia bajo el título «Aventuras de un hombre de
Ciencia»:
Un hombre sospechoso de haber robado un diamante y habérselo tragado
para ocultarlo fue traído a mi laboratorio: lo hice desvestir y luego, de
alguna manera, me las arreglé para que se colocara en una posición tal que los
rayos X pasaran a través de su cuerpo. Apagué la luz y saqué la cobertura de la
cámara. El resultado fue una excelente placa mostrando el diamante justo debajo
de la válvula ileocecal.
Pero el autor ignoraba que los diamantes falsos son opacos a los rayos X
y los diamantes verdaderos no. O sea que el diamante robado, en realidad, era
falso.
No faltaron los fraudes. Un joyero de Virginia, Estados Unidos, sostuvo que
podía fotografiar lo invisible sin el uso de rayos X. El mismo Dr. Braduc, que
usó los rayos X para que sus pacientes dejaran de beber o de fumar, pretendió
haber tomado una radiografía del alma.
Lo cierto es que, salvo esas exageraciones, que no fueron las únicas ni las
mayores, como se verá, la radiografía inauguró una nueva época en la medicina.
Por más que las primeras radiografías fueran toscas, con poca resolución y
requirieran mucho tiempo de exposición, los rayos X salvaron cientos de miles
de vidas y propinaron a la medicina un impulso verdaderamente formidable. Como
la anestesia, transformaron ramas enteras de la medicina y, muchos años más
tarde, sus descendientes directos, como la tomografía computada y la tomografía
de emisión de positrones, seguirían transformándolas.
§. La radiactividad y el tiempo
Las sustancias radiactivas «trabajan» emitiendo partículas o rayos: los núcleos
de los átomos que las componen están constantemente degenerando y escupiendo
partículas alfa, beta o rayos gamma hasta que alcanzan la estabilidad.
Uno de los problemas de la desintegración radiactiva estaba relacionado con el
tiempo. Porque uno se podría preguntar lo siguiente, y hasta encontrar una
paradoja de la naturaleza: los núcleos se desintegran radiactivamente para
alcanzar configuraciones más estables y niveles de energía más bajos,
desprendiéndose de partículas molestas.
Un núcleo de torio 230, por ejemplo, se saca de encima una partícula alfa, con
lo cual se convierte —al perder dos protones y dos neutrones— en radio, que es
un poco más estable aunque sigue siendo radiactivo. Ser más estable no es más
que una aspiración legítima de cualquier núcleo bienpensante y no podemos
reprocharle al torio ni a ningún otro núcleo que desee hacerlo. Pero, ¿por qué
se toma tanto tiempo? ¿Por qué no se desintegra instantáneamente? ¿Por qué a
una partícula alfa le puede llevar millones de años abandonar un núcleo que no
la quiere y que no desea sino desprenderse de ella?
Y sin embargo, es así. En vez de sacarse de encima alfas, betas y otras yerbas
de un saque, cada elemento radiactivo tiene su propia paciencia, su ritmo de
desintegración, un tiempo característico que depende de él solamente y cuyas
cifras se cocinan en el interior del núcleo, como si tuvieran un reloj y un
programa interno. Hay núcleos que se desintegran en cuestión de horas y otros,
como el del torio o el uranio, que tardan millones, o miles de millones de
años.
Ese tiempo característico, que mide lo que a cada núcleo le «cuesta»
desintegrarse —el precio temporal de su lucha por la estabilidad— se denomina
«período de semidesintegración» o «vida media» como también es usual, debido a
un abuso de traducción de las palabras half-life del inglés. Y
el período de semi desintegración de un núcleo, que es característico de él, y
sólo de él, es el tiempo en que una cierta cantidad de ese elemento tarda en
reducirse a la mitad.
Por ejemplo, el período de semi desintegración del radio 226 es de 1.600 años.
Pues bien: si tenemos diez gramos de radio, al cabo de 1.600 años tendremos
cinco; después de otros 1.600 tendremos dos y medio y así sucesivamente. Lo
mismo ocurriría si hubiéramos partido de una tonelada o de un miligramo. Cada
mil seiscientos años, el radio existente en el universo se reduce a la mitad.
Cada elemento radiactivo tiene un período característico, que puede ser muy
variado: el del uranio 238 es de cuatro mil quinientos millones de años; el del
plutonio 244, de 70 millones de años; el del cloro 36, de trescientos mil años;
el del sodio 24, quince horas y el del hidrógeno 3 o tritio, de 12,3 días,
entre otros.
Esta peculiar relación con el tiempo ha tendido una inesperada mano a la
historia, la arqueología y la antropología, proporcionándoles un método notable
y eficaz de datación de acontecimientos: puesto que cada material radiactivo
tiene su ritmo propio de desintegración, en cierta medida sirve como reloj.
Como en casi toda porción de la naturaleza hay isótopos radiactivos, si uno
sabe qué cantidad de radio, digamos, había en una roca originariamente,
midiendo la cantidad que hay ahora (es decir, la que no se desintegró) podemos
calcular la edad de la roca. Los métodos de datación radiactivos permitieron
establecer escalas de tiempo y medir edades que nunca, antes, se pensó que se
podrían medir.
§. Peligros
Al mismo tiempo que se vio que los rayos X y el radio tenían un alto valor
médico (y científico en general), se empezó a percibir que la sobreexposición
podía ser peligrosa. En 1903 murió Clarence Dally, el ayudante de Edison, que
había seguido trabajando sobre los rayos X, convirtiéndose en la primera
víctima de la radiación. Ya en 1902 uno de los pioneros de la radio-protección,
William Rollins, advirtió el peligro y aconsejó exponer una placa fotográfica a
cada equipo por siete minutos y, si se velaba, aumentar la protección. En 1908,
los miembros de la Sociedad Americana de Rayos Roentgen, durante su reunión
anual, escucharon la lectura de una larga lista de personas que habían sido
afectadas por el abuso de los rayos X y se enteraron de que las compañías de
seguros de vida empezaban a considerar con cuidado las pólizas de los
radiólogos.
Pero los radiólogos no se impresionaron demasiado. Habían adquirido la
costumbre de «medir» la potencia del tubo de rayos X metiendo la mano en el haz
de rayos; el tiempo que tardaba en enrojecerse la piel y el tamaño de la zona
afectada les daba una idea de cómo funcionaba el equipo. Esta peligrosa
práctica se aplicaba también en los lugares de fabricación de los aparatos, y
no se interrumpió a raíz de las primeras advertencias; como suele suceder
cuando aparece una herramienta poderosa, nadie estaba muy dispuesto a limitarse
en su uso. Los rayos X eran demasiado útiles como para amarrocarlos. Además,
los datos sobre efectos y posibles medidas de protección eran completamente
imprecisos: no existía una guía adecuada para protegerse y nadie podía decir a
ciencia cierta cuánta protección exactamente hacía falta. Muchos radiólogos se
negaron incluso a blindar los tubos de rayos X, e incluso hubo quien trató de
que se desterrara la palabra «quemaduras» para referirse a los daños de la
radiación. ¿Razones? Podría ahuyentar a la gente y detener el progreso de una
disciplina terriblemente promisoria. Al fin y al cabo, los rayos X estaban
salvando miles de vidas.
Durante la Primera Guerra Mundial, cuando los rayos X mostraron toda su
potencia y efectividad, las propias necesidades bélicas hicieron que no se
tomaran medidas precautorias: además de trasladar los equipos, sobrecargarlos
con blindajes parecía imposible, y probablemente muchos de los radiólogos de
guerra hayan sufrido por eso.
Naturalmente, era cierto que los rayos X salvaban miles de vidas y ahorraban
infinitos sufrimientos, pero el argumento no era incompatible con medidas
adecuadas que permitieran salvar aún más vidas.
Algo parecido ocurría con la radiactividad. En abril de 1901, Becquerel les
pidió prestado a los Curie un tubo que contenía radio, que llevó durante seis
horas en un bolsillo. Luego descubrió que le había quemado la piel a través de
la ropa, y producido una herida muy parecida a las quemaduras que causaba la
sobreexposición a los rayos X. El propio Pierre Curie investigó el asunto
exponiendo sus brazos a la radiación y comprobó que, efectivamente, el radio
producía quemaduras.
Si bien ya se mostraba como una herramienta efectiva contra el cáncer, se
abusaba de la radiactividad y se la usaba como terapia en el caso de un montón
de sintomatologías y enfermedades contra las cuales poco y nada tenía que
hacer. Y, como siempre, funcionó la negación: en 1916 la revista médica Radium sostenía
que «el radio no tenía efecto tóxico alguno».
§. Una estabilización (precaria)
Pero el exceso de confianza adquirido durante la guerra producía cada vez más
muertes entre los radiólogos y el personal auxiliar que trabajaba con ellos. En
los años veinte se produjo el escándalo de las pintoras de relojes envenenadas
con radio, que vale la pena contar.
El radio, como ya saben, tenía la atractiva capacidad de brillar en la
oscuridad, lo cual sugería muchas aplicaciones comerciales. Una de ellas fue la
de los relojes de la U. S. Radium Corporation, cuyos diales eran pintados a
mano con una mezcla de radio 226 y sulfuro de zinc por un conjunto de pintoras.
Las mujeres pintaban rápidamente, ya que cobraban por pieza, pero encontraban
tiempo para bromear entre ellas y pintarse los dientes o las uñas para que
brillaran cuando las luces se apagaran. Además, para lograr una precisión
superior, afinaban los pinceles de pelo de camello con los labios.
Hacia 1924, nueve de las pintoras de relojes de la U. S. Radium Corporation
habían muerto de diversas causas, que iban desde una úlcera en el estómago
hasta necrosis de la mandíbula. Si bien una primera investigación absolvía a la
empresa de toda culpa (ya que, según explicaba, el radio no era tóxico), un
artículo publicado en el Journal of the American Dental Association revelaba
que se había observado un caso de infección en la mandíbula causado por
sustancias radiactivas usadas en la manufactura de relojes luminosos.
En mayo de 1925, un nuevo informe aseguraba que los casos eran causa de
«envenenamiento por radio», un nuevo tipo de enfermedad.
La compañía, en tanto, había encargado su propia investigación a un equipo de
la Universidad de Harvard. Cuando los investigadores llegaron a la planta
decidieron sacar a las trabajadoras de la luminosa sala donde trabajaban y
llevarlas a habitaciones en penumbras… ¡Las empleadas brillaban en la
oscuridad! Una prueba hecha a 22 empleados reveló que ninguno tenía la cantidad
normal de glóbulos rojos. En mayo de 1925, la autopsia de dos pintoras de
relojes demostró altos niveles de radiactividad en huesos y órganos. Se
demostró que la pintura que era tragada se acumulaba en diversos órganos,
irradiando y dañando las células cercanas. Pero, sobre todo, se encontró por
qué habían proliferado los tratamientos que hacían de la radiactividad una
panacea: el envenenamiento radiactivo podía comenzar con una apariencia de
buena salud, ya que, en efecto, la primera reacción del cuerpo es la
sobreproducción de glóbulos rojos.
Con casos tan estremecedores a la vista, en la década del veinte empezaron a
insinuarse las primeras medidas de protección. En 1920, la Sociedad Americana
de Rayos X formó un comité a fin de recomendar medidas de protección, que se
publicaron en 1922. A su vez, el Comité Británico para la Protección de los
Rayos X y el Radio hizo públicas sus primeras recomendaciones en 1921: se
especificó cuánta protección en plomo tenían que tener los tubos, el grueso de
las paredes de los lugares donde se guardaba radio y el tamaño y el color
(negro) en que debían pintarse los lugares donde se practicaba radiología (para
que los rayos no se reflejaran).
Pero la «dosis de enrojecimiento», que era la dosis necesaria para que la piel
se empezara a enrojecer —del mismo modo que ocurre cuando nos sobreexponemos al
sol— y que durante mucho tiempo fue la medida más popular de los efectos de la
radiación, era muy imprecisa y la gente, tanto los radiólogos como los
auxiliares y los pacientes, seguía sufriendo los daños. En 1924, Arthur Mustcheller
inició una investigación y concluyó que el cuerpo humano podía tolerar una
exposición de 0,01 de «dosis de enrojecimiento» por mes. Esa «dosis de
tolerancia», según Mustcheller, no producía daño a los «trabajadores de la
radiación». Aunque impreciso —ya que la investigación no había sido ultra
rigurosa— ya era un primer límite de seguridad, al que contribuyó con una cifra
muy similar el sueco Rolf Sievert en 1925. Durante el Primer Congreso
Internacional de Radiología de 1925, aunque no se tomaron medidas efectivas, se
vio la necesidad de definir unidades. En el Congreso Internacional de
Radiología de 1928 se adoptó el roentgen como unidad
internacional de exposición a la radiación (que se definía como la cantidad de
radiación necesaria para producir una determinada cantidad de iones en una
determinada cantidad de aire). Sobre el radio, se recomendó que estuviera bien
blindado, que se manejara sólo mediante pinzas y que se guardara en cajas de
plomo, y se especificaron medidas de higiene en los lugares de trabajo, aunque
no se incluían referencias a las «dosis de tolerancia». Se creó, sin embargo,
el Comité Internacional de Protección de los Rayos X y el Radio (que ahora se
llama ICRP: Comisión Internacional de Protección Radiológica).
En 1927 se calculó que una «dosis de enrojecimiento» era 600 roentgen. Recién
en marzo de 1934, el Comité Internacional de Rayos X y Radio adoptó el límite
de Mutscheller: 6 roentgen por mes, o 0,2 por día.
Mientras tanto, en el Massachusetts Institute of Technology se iniciaban
estudios serios sobre el efecto de la radiación en animales y seres humanos.
Hacia 1941, el MIT había estudiado 27 personas expuestas al radio y cuando el
26 de febrero se reunió un comité ad hoc que revisó los casos,
encontró que aquellos que tenían menos de medio millonésimo de curie (una
unidad que representaba la cantidad de radiación emitida por un gramo de radio
en un segundo) en su cuerpo no habían sufrido daños, mientras que sí los habían
padecido quienes albergaban en el cuerpo más de 1,2 millonésimo. El límite de
0,1 millonésimo de curie se usó como tope, y el de 3 millonésimo de millonésimo
de curie por litro de aire como límite para el radón. En los Estados Unidos se
estableció el límite de 0,1 roentgen por día para la radiación X y gamma.
Finalmente, se estaba llegando a la adopción de medidas que permitieran
utilizar los beneficios de la radiación sin sufrir sus riesgos. Aunque la
historia de la protección radiológica recién empezaba: en los años treinta se
levantó en Hamburgo un monumento a los mártires de la radiación.
De modo que hacia los años treinta el estudio de las radiaciones se había
estabilizado, ya se sabía más o menos bien qué cantidad era dañina y cuál
inofensiva, y la protección radiológica salvaguardaba la vida y la integridad física
de los radiólogos.
Poco más tarde, se cernió sobre el mundo la ominosa sombra de la bomba atómica
lanzada sobre Hiroshima, que daría a todo uso de la radiactividad (incluso al
más pacífico) un tinte indeleble de mito bélico.
Pero ésa es ya otra historia.
Capítulo 29
El anhelo de la conservación y la ley de leyes
El siglo XIX fue el de las grandes teorías abarcadoras: ya vimos algunas
de ellas, como la teoría de la evolución, la teoría cinética del calor o la
teoría atómica, que habría de convertirse en el espinazo de la química. La
sensación que podía tener un científico de la época es que se estaba accediendo
al sustrato que anida por debajo de lo real y se estaban encontrando sus leyes
fundamentales.
Pero ya no se trataba de un sustrato al estilo platónico, un mundo ideal del
cual el nuestro es una suerte de imagen terrenal, por proyección, sino de un
sustrato geométrico e invariante, ontológicamente previo a los fenómenos
particulares: un «espacio» donde los fenómenos existen en su forma pura y del
cual se puede tener un atisbo, o bien por medio del laboratorio, que es una
ventana abierta hacia él, o bien por medio de ese otro laboratorio abstracto,
perfecto y mental que son las matemáticas —reino de la verdad y la certeza por
excelencia—, de donde resulta el mundo real por acumulación, confusión y mezcla
de fenómenos.
En realidad, la búsqueda de los invariantes, de aquello que permanece frente a
los cambios contingentes o a los tristes ciclos de nacimiento, crecimiento y
muerte, de lo que verdaderamente existe, de los andamios oscuros y
palpitantes que sostienen el edificio de la realidad, había empezado cuando
empezó la ciencia. Basta, para demostrarlo, recordar el agua de Tales, el
ápeiron, el aire de los milesios, el Ser de Parménides, los átomos de Demócrito
y Leucipo, el propio mundo de las ideas de Platón, o la muy generalizada y
pitagórica creencia de que las matemáticas subtienden la estructura de lo real.
La Edad Media no tuvo demasiado problema con este asunto, ya que el sustrato
era el Dios cristiano, una postura mantenida tanto por la fe como por la
coacción visible o invisible de las fuerzas que dominaban la política (la
Iglesia y el Imperio, entre otras).
Pero con la ciencia moderna, todo cambió.
§. La búsqueda de invariantes: Descartes y Leibniz
Porque apenas la ciencia se separó de la filosofía y de la religión, sin romper
lanzas del todo, la búsqueda de invariantes abandonó lo metafísico y se volcó
hacia lo físico y lo geométrico. Los invariantes de los Principia de
Newton fueron el espacio absoluto, siempre igual e idéntico a sí mismo, y el
tiempo matemático que fluía sobre todo el universo. Una distancia espacial era
siempre una distancia espacial, y un intervalo de tiempo era siempre un
intervalo de tiempo, se midiera desde donde se midiera. Y, naturalmente, las
leyes del movimiento y la Ley de Gravitación.
Pero antes había habido una postulación de Descartes que consideraba que Dios
había puesto una cierta cantidad de movimiento al crear el mundo, y que eso era
lo que permanecía siempre constante. Definía esa cantidad como el producto de
la masa por la velocidad, y aunque no se refería a la conservación en relación
con algún fenómeno particular, como el del choque de las bolas de billar (que
estudió y describió con poco tino), proponía que Dios había creado la materia y
la había organizado dotándola de un monto invariable, constante y eterno de
movimiento y reposo.
Las deducciones de Descartes se derivaban generalmente más de principios
metafísicos que de otra cosa, y acaso eso explique la curiosidad de que, en
pleno siglo XVII, distinguiera tajantemente el movimiento y el reposo; sobre
todo si tenemos en cuenta que había leído cuidadosamente a Galileo, quien como
recordarán había dejado bien en claro que el movimiento y el reposo no eran dos
estados sustancialmente diferentes sino relativos al observador, de modo que lo
que está en reposo para un observador puede estar en movimiento para otro (y
viceversa).
Más allá de sus errores mecánicos, o a pesar de ellos o — ¿quién puede
saberlo?— tal vez gracias a ellos, Descartes enunció el esbozo
de lo que en física se llama una ley de conservación, es decir, la idea de que
a través de cualquier cambio mecánico hay algo, una cantidad, que permanece
invariable (en su caso, la cantidad de movimiento).
Otra de las grandes figuras de la física de aquellos tiempos, Christiaan
Huygens, llegó a una conclusión diferente: aseguró que la cantidad de
movimiento sólo se conservaba si se tomaban en cuenta las direcciones y sentido
de las velocidades, lo cual tornaba todo demasiado complicado. Introdujo
entonces otra cantidad:
La suma de los productos entre la masa y el cuadrado de la velocidad de
cada cuerpo es la misma antes y después del choque.
Es decir: la masa por la velocidad al cuadrado antes del choque debía
dar lo mismo que la masa por la velocidad al cuadrado después. Esa cantidad se
conservaba y era un número, de modo que se podía prescindir del
análisis de las direcciones y sentidos (es, ni más ni menos, el duplo de lo que
hoy llamamos energía cinética, que no es exactamente m × v2 sino
½ m × v2).
El siguiente actor del drama de la conservación fue el gran filósofo y
científico Gottfried Leibniz (1646-1716). Leibniz, como Descartes, razonaba a
partir de posturas metafísicas generales, pero estaba un poco más atento a los
progresos de la física moderna: al adoptar la relatividad del movimiento
enunciada por Galileo, rechazaba la posibilidad de que el sustrato de lo real
fuera algo relativo al observador (y justamente el movimiento lo era) pero
continuaba sosteniendo que tenía que haber algo que verdaderamente existiera
de manera absoluta. Ese algo, sustrato inconfundible de lo real, era la fuerza,
inherente a la materia y que subsistía por fuera de todo movimiento.
Así, pues, llamó a la cantidad en cuestión fuerza viva y
consideró que se trataba de un principio general de la física: el
principio de conservación de las fuerzas vivas. La fuerza viva era
la causa del movimiento, la capacidad de actuar, que permitía el pasaje de la
metafísica a la naturaleza. Analizando cuidadosamente el fenómeno de la caída
de los cuerpos, Leibniz sostuvo que la cantidad propuesta por Huygens se
conservaba en todos los casos. Lo que permanece invariante en todo cambio
mecánico es el producto entre la masa del cuerpo y el cuadrado de su velocidad.
La conservación de la cantidad de movimiento (o de la vis viva),
según demostró D´Alembert, podía deducirse matemáticamente a partir de la ley
de Newton. Así quedó establecido un principio general en la mecánica,
fundamental para los físicos de una época en que, justamente, la mecánica era
el centro de la física (y de toda reflexión sobre la naturaleza).
Se había conseguido un principio de conservación, pero… ¿qué pasaba fuera de la
mecánica? Porque si bien era la estrella, como ya les dije, no era la única
rama de la física, sino que estaba rodeada por muchas otras, por ejemplo la que
estudiaba el calor o la que estudiaba la electricidad. Empezó a dibujarse
entonces la idea de que la ley de conservación de la fuerza viva había que
extenderla a otros terrenos. Y así llegamos al siglo XIX, cuyo recorrido dio
paso, en cincuenta o sesenta años, hacia la conquista de una formulación
verdaderamente universal de conservación, la ley de leyes: el principio de
conservación de la energía.
Veamos cómo se llegó hasta allí.
§. La causa de Mayer
Julius Robert Mayer (1814-1878) estudió medicina en Tübingen, visitó París
cuando lo expulsaron, durante un año, de la universidad, y se embarcó en un
navío holandés rumbo a Java, como médico de a bordo. Allí observó un fenómeno
interesante y que lo sorprendió: al sangrar (el fatídico sistema «terapéutico»
de las sangrías, que se aplicaba sin ton ni son y que producía los consecuentes
desastres), al sangrar, decía, a los tripulantes, el rojo de la sangre era más
intenso que en Europa. Lo comprobó con su propio cuerpo también y consideró que
era un fenómeno que valía la pena explicar, o por lo menos tratar de hacerlo.
La observación fue fortuita, desde ya, pero lo importante era tener una mente
alerta para pescarla. Recordemos esta anécdota, por más que parezca que no
tiene nada que ver con el asunto de la conservación, porque ya la retomaremos
más adelante.
Cuando volvió a Europa, publicó un trabajo, «Sobre la determinación
cuantitativa y cualitativa de las fuerzas», que fue prolijamente ignorado.
Después se orientó al estudio del calor y del movimiento. Pero en 1842 escribió
un segundo artículo, «Observaciones sobre las fuerzas inorgánicas de la
naturaleza», donde se planteaba dos interrogantes básicos: ¿qué entendemos por
fuerza? y ¿cómo se relacionan las distintas fuerzas entre sí?
Y sobre todo: ¿qué ocurre cuando el movimiento no da lugar al movimiento? ¿Qué
pasa cuando un cuerpo cae desde cierta altura y se detiene al chocar con la
tierra? La pregunta era, en verdad, qué era lo que ocurría cuando se salía del
mundo de la mecánica.
Aclaremos una cosa: Mayer llamaba «fuerza» a un concepto que no tenía del todo
claro y que no se había generalizado, pero que ya había sido propuesto y tenía
su nombre, aunque él no lo sabía. La palabra había sido lanzada por Thomas
Young, el mismo del experimento de las dos ranuras que explicó el fenómeno de
la difracción (no lo dije en su momento, pero vale la pena aclarar que Young
era un verdadero espíritu universal, de aquellos que indagan en todos los
terrenos posibles del saber). El caso es que Young había propuesto una
palabrita fundamental en 1807 para referirse al trabajo potencial almacenado en
las cosas, que rápidamente se aplicó a cualquier fenómeno en el que se operara
una conversión en trabajo.
Decía Young:
La palabra «energía» puede ser aplicada con mayor propiedad al producto
entre la masa o el peso de un cuerpo y el cuadrado del número que expresa su
velocidad.
Es decir, Young proponía llamar «energía» —resaltemos el término, que
veremos adquirir la más alta generalidad en ciencia (aún más que la fuerza de
gravitación, lo cual es decir mucho) — a la cantidad que Leibniz llamaba «vis
viva», que Mayer llamaba «fuerza» y a la que nosotros, como ya les dije,
llamamos energía cinética.
Mayer estaba formulando un concepto que se convertiría en la piedra basal de la
física del siglo XIX. Y, como ocurre a menudo en la ciencia, lo hacía
tanteando, especulando, pensando sin tener totalmente en claro las cosas. Era,
en este sentido, bastante transparente en sus escritos:
Sé de qué hablo cuando digo materia pero no cuando digo fuerza. Si de un objeto
afirmo que es material, quiero decir que posee unas cualidades bien definidas,
como el peso o la extensión. Pero la noción de fuerza conlleva la idea de algo
desconocido, hipotético. Pues bien, yo, Julius Mayer, propongo aquí una
definición: las fuerzas son causas. Y antes de que objeten que en el cambio
semántico no gané nada, les descubro mis intenciones: quiero aplicar a las
fuerzas el principio de igualdad entre causa y efecto (causa aequat effectum).
Mayer, en realidad, razonaba así: en el mundo, las causas tienen que ser
iguales a los efectos. Las causas, a su vez, se definen mediante dos
propiedades esenciales:
1.
En primer lugar, son indestructibles, no
desaparecen (a lo sumo se vuelven efectos) y además pueden asumir diversas
formas.
2.
En segundo lugar, son cuantitativamente
indestructibles y cualitativamente convertibles.
Mayer proponía así una especie de ley de conservación de las causas, un
enunciado que a nosotros, desde nuestra terminología actual, nos puede parecer
un tanto desconcertante.
Pero no para él, que además aclaraba que había solamente dos tipos de «causas»
(las fuerzas y la materia) y que nunca se convertían una en otra, de acuerdo
con la experiencia (lo cual era una afirmación bastante audaz). De modo que la
materia, cuando funcionaba como causa, tenía a la materia por efecto y la
fuerza, como causa, tenía como efecto a la fuerza.
El primer enunciado no es otro que la ley de conservación de la materia de
Lavoisier: «nada se pierde, todo se transforma», esto es, la cantidad de
materia involucrada en cualquier transformación química o física permanece
siempre constante. El segundo es el de Leibniz.
Si era claro que la fuerza, o la fuerza viva, se conservaba, por la ya razonada
indestructibilidad de las causas en el terreno de la mecánica, quedaba
legitimada la pregunta de la que partía Mayer para hacer toda esta
especulación, que como recordarán consistía en saber qué ocurría con las causas
cuando el movimiento no tenía como consecuencia más movimiento. Por ejemplo,
cuando una pelota choca contra una pared y su movimiento cesa: ¿en qué se ha
convertido la causa? Si las fuerzas son causas, y las causas, como sabemos, son
indestructibles, no se pueden destruir: sólo podrán cambiar de forma.
§. La forma de las fuerzas
Pero entonces: ¿qué otra forma, a la que nos hemos acostumbrado, como nos
acostumbramos al movimiento, es capaz de asumir la fuerza? Mayer observaba que,
llegados a este punto, sólo la experiencia podía conducir a una conclusión. Y
su experiencia determinante había ocurrido en altamar.
En uno de los momentos angustiantes de su travesía a las entonces Indias
Holandesas, actualmente Indonesia, nuestro amigo tuvo una intuición: mientras
el mar se agitaba en torno y se debatían angustiosamente los tres mástiles de
su nave, pensó que las aguas agitadas debían ser más cálidas que las calmas. En
el momento, aquélla no era más que una impresión pasajera, y acaso equivocada,
pero en cuanto las aguas se calmaron hizo lo que todo buen científico hubiese
hecho en su lugar: reprodujo la situación para verificar si su intuición había
sido correcta. Llenó la mitad de una botella de agua y comenzó a sacudirla
violentamente. Al cabo de unos minutos, pudo comprobar que había elevado la
temperatura del agua en un grado, de doce a trece grados centígrados. ¿De dónde
provenía ese calor que mediante la agitación podía ser llamado a la existencia
en cuanto uno quisiera? No lo dudó: de las vibraciones mismas.
Como el Beagle a Darwin, la experiencia de a bordo le sirvió a
Mayer para responder a la pregunta fundamental:
La otra forma que puede asumir la fuerza es el calor, y sin el
reconocimiento de una conexión causal entre movimiento y calor es tan difícil
explicar la producción de calor como dar cuenta del movimiento que desaparece.
(Lo cual explicaba, de paso —y acá cumplo con mi promesa de retomar el
problema de las sangrías en el barco—, el fenómeno sobre el rojo brillante de
la sangre que le había llamado la atención en un principio: el calor de los
trópicos hacía que el cuerpo no necesitara «quemar» tanto oxígeno para mantener
la temperatura; al quedar más oxígeno en sangre, se veía con ese particular
color rojo.)
Mayer fue cauteloso al respecto:
No quiero establecer definitivamente que, en muchos casos, no se pueda
hallar otro efecto del movimiento más que el calor, y que no se pueda encontrar
otra causa para el calor producido más que el movimiento. No hablo en esos
términos. Más bien prefiero suponer que el calor procede del movimiento. De
otro modo deberíamos resignarnos a la observación de una causa sin efecto, y de
un efecto sin una causa.
Y trató de establecer una conexión cuantitativa:
Si existe una ecuación que relaciona las fuerzas y el movimiento, por un
lado, con el calor, por el otro, su solución exige que respondamos a la
siguiente pregunta: ¿cuál es la cantidad de calor que corresponde a una dada
cantidad de movimiento? Podríamos, por ejemplo, preguntarnos a qué altura debe
ser elevado un peso dado para que el movimiento desarrollado en la caída sea
equivalente a un aumento de temperatura de un grado centígrado de una cantidad
de agua que pese lo mismo que el peso.
Para determinarlo, hizo una serie de experimentos, cuya conclusión fue
que
elevar la temperatura de una determinada cantidad de agua de cero a un
grado centígrado corresponde a una caída de un peso igual al del agua desde una
altura de trescientos sesenta y cinco metros.
La intuición de Mayer había reconocido una conexión causal entre el
calor y el movimiento, una conexión que —ya vimos hace algunos capítulos— había
sido registrada por el extravagante, pintoresco y poco simpático conde Rumford.
Las ideas de Mayer, primero, y las de James Joule después, rescataron del
olvido sus curiosas y notables experiencias con cañones y caballos.
Pero la vida de Mayer se convirtió rápidamente en un abismo. En 1848, en rápida
sucesión, murieron dos de sus hijos. Al año siguiente intentó suicidarse y
fracasó: saltó desde la ventana de un tercer piso y se arruinó definitivamente
las piernas. Dos años después fue internado en una institución mental.
Imagínense lo cruel y siniestra que era una institución mental en ese entonces:
hasta hacía relativamente poco, los locos eran exhibidos los domingos en las
ferias de atracciones. Mayer sobrevivió, pero nunca se recuperó completamente.
Desde entonces fue hasta tal punto ignorado que cuando el editor de la revista
que había publicado sus trabajos por primera vez disertó públicamente sobre las
ideas de Mayer, en 1858, se refirió a él como a un hombre muerto… ¡Y viviría
todavía veinte años más!
Por suerte para Mayer, a partir de 1858, Hermann von Helmholtz (1821-1894), y
Clausius (1822-1888) redescubrieron su obra y le retribuyeron la credibilidad
que merecía. Mayer recobró su salud, o parte de ella, y fue premiado con la
medalla Copley de la Royal Society en 1871, siete años antes de su muerte.
§. La fuerza de Joule
Por un camino distinto, un cierto industrial inglés llegó casi a las mismas
conclusiones que Mayer: James Prescott Joule (1818-1889). A diferencia de la de
su colega, su vida estuvo libre de complicaciones y desgraciados avatares: a
los veintitrés años era ya un industrial establecido, que financiaba sus
inquietudes científicas con las ganancias de una cervecería heredada de su
padre que poseía cerca de Manchester y que se sentía fascinado por las máquinas
eléctricas de su fábrica, en las que no dejaba de observar que en los hilos
conductores, a medida que la corriente circulaba, se generaba calor. Resulta
que el calor estaba directamente relacionado con la cantidad de combustible que
la máquina consumía, lo cual lo llevó a iniciar un inmediato estudio de la
cuestión.
Rueda de paletas de joule
Con la misma suposición de fondo que Mayer y Rumford (esto es, que de
algún modo el calor y el trabajo mecánico eran dos aspectos de un mismo
fenómeno, que se manifestaba, muy claramente, con el rozamiento), Joule inició
sus investigaciones y llegó a la conclusión de que existía, en efecto, una
relación invariable entre el trabajo y el calor. Otra vez como Mayer, supuso
que si el calor podía traducirse en movimiento (y viceversa), su relación tenía
que poder medirse cuantitativamente, por lo cual se concentró en establecer
numéricamente esa equivalencia.
El más famoso de sus experimentos fue el de la rueda de paletas. Joule elevaba
el peso mediante la manivela; el peso gradualmente descendía y hacía girar las
paletas que, sumergidas en el agua, giraban. Al cabo de un cierto tiempo, el
peso alcanzaba su punto más bajo y las paletas se detenían. Joule medía
entonces el cambio de temperatura del agua. La explicación era sencilla: la
fuerza viva del peso, como la llamaba Leibniz, o la fuerza, como la llamaba
Mayer (o el propio Joule), se había convertido en calor mediante el rozamiento
de las paletas contra el agua. Joule medía el cambio de temperatura y calculaba
la cantidad de calor empleado, al tiempo que comprobaba que la cantidad de
calor producida por el rozamiento de los cuerpos, sólidos o líquidos, era
siempre proporcional a la cantidad de fuerza gastada.
La cantidad de calor necesaria para elevar la temperatura de una libra
de agua en un grado Fahrenheit equivale al gasto de una fuerza mecánica que
representa la caída de 50 kilos de una altura de un metro.
Establecida la relación entre calor y movimiento, en 1847 presentó sus
ideas en la Asociación Británica para el Avance de las Ciencias, en Oxford.
William Thomson, probablemente el más famoso científico inglés del momento (que
más tarde se llamaría Lord Kelvin), asistió a aquella presentación y, tras
algunas dudas, se convenció de las ideas de Joule.
Aquí hubo una pequeña disputa de prioridades. Mayer se enteró del trabajo de
Joule y escribió a la Academia Francesa de Ciencias para dejar en claro que él
había sido el primero que había tenido la idea de la equivalencia (en lo cual
tenía perfecta razón). En cuanto su carta fue publicada, Joule reaccionó. Sabía
que el prestigio científico de Thomson, que lo apoyaba a él, prevalecería ante
cualquier academia.
Pero Thomson fue diplomático y obró con verdadera elegancia: le sugirió a Joule
que admitiera la prioridad de Mayer sobre la idea del equivalente mecánico,
pero que reclamara su propia prioridad sobre la verificación experimental.
Lo cierto es que Joule había terminado por establecer numéricamente la
equivalencia entre el calor y el movimiento. Pero esa equivalencia, ¿no suponía
la existencia de otras? En términos propios de Mayer: ¿no existirían nuevas
formas equivalentes del calor y el movimiento a las que no nos habíamos
acostumbrado todavía?
§. Helmholtz y, finalmente, la Gran Ley
Hermann Helmholtz nació en Potsdam, Alemania, en 1821. Hijo de un profesor mal
pago de colegio secundario, que había servido en el ejército prusiano contra
Napoleón, asistió a los cursos de filosofía y de literatura que impartía su
padre. Le interesaba la física y quería estudiar en la universidad, pero la
posición económica de la familia exigía de Hermann la obtención de una beca, y
como el gobierno sólo sostenía económicamente a los estudiantes de medicina, no
tuvo más remedio que iniciar el camino hacia la profesión de médico.
Así, estudió en Berlín, pero asistió paralelamente a otros cursos de la
universidad, como los de química y fisiología. Incursionó en las matemáticas
por cuenta propia, leyendo a Euclides obviamente y a Laplace, y llegó, de
alguna manera, a las mismas conclusiones que Mayer y Joule.
En 1847 escribió un artículo («Sobre la conservación de la Fuerza») en el que
estudiaba los principios matemáticos que subyacen al principio de conservación,
donde mostraba que todo sistema mecánico está sometido a la ley de
conservación de la fuerza
Pero iba un paso más allá y sostenía que esa fuerza podía ser de dos tipos: o
bien fuerza viva, tal como la entendía Leibniz, o bien lo que él
llamaba fuerza de tensión, entre la que se incluían todas las
fuerzas conocidas (la fuerza de gravedad, la de atracción eléctrica, la
elástica). A partir de allí, generalizaba a una ley de conservación de
la fuerza y desarrollaba las consecuencias de esa hipótesis en los
distintos campos de la física (el calor, la electricidad, el magnetismo, las
reacciones químicas).
La constatación del alcance general de la ley debe ser vista, al
parecer, como una de las tareas principales que ocupará a los físicos en el
futuro inmediato.
En 1862 avanzó un poco más: en una conferencia en Karlsruhe, la misma
ciudad que dos años antes había albergado el primer congreso internacional de
química, sostuvo que en las últimas décadas el desarrollo científico había
conducido al reconocimiento de una nueva ley universal, rectora de todos los
fenómenos naturales, incluso —afirmaba con entusiasmo— los de los tiempos más
remotos y los lugares más distantes.
La ley que enunció fue la que llamamos de conservación de la energía,
y establece que la cantidad de energía que puede ponerse en acción en la
naturaleza es inalterable, es decir, no puede aumentarse ni disminuirse. Como
muestran los experimentos, allí donde se pierde una determinada cantidad de
trabajo mecánico, se obtiene una cantidad equivalente de calor, o de fuerza
química, por ejemplo, e inversamente, cuando se pierde calor, se gana una
cantidad equivalente de fuerza química, o mecánica, y otra vez, cuando la
fuerza química desaparece, aparece una cantidad equivalente de calor o trabajo.
Es decir que en todos los intercambios entre diversas fuerzas naturales
inorgánicas, la capacidad para realizar trabajo, la energía, desaparece bajo
una forma para reaparecer bajo otra forma, exactamente en la misma cantidad.
Pero en el proceso total esa energía no aumenta ni disminuye, sino que siempre
permanece constante.
Así, la cantidad de energía del universo es inalterable: podrá alterar
su forma, podrá variar su ubicación, pero su cantidad no cambiará. El
universo posee, de una vez y para siempre, una reserva de energía que no puede
ser modificada por ningún fenómeno, que no puede aumentar ni disminuir, que
permanece inconmovible mientras, a su alrededor, todo se transforma.
§. Era la ley de leyes
La ley de conservación de la energía era un principio feliz: todo lo que hay
habrá, y nunca perderemos nada. Se sucederán las generaciones, y las máquinas,
se levantará el polvo de la tierra por la acción de las ruedas que producen
rozamiento y calor y volverá a posarse, pero la cantidad de energía disponible
para realizar trabajo y hacer funcionar el mundo siempre será la misma y estará
ahí, ya sea almacenada en la materia (energía química), en el movimiento
(energía cinética), en el campo gravitatorio (energía potencial), en la
incipiente electricidad o en el calor, y cualquiera de estos tipos de energía
se podría reciclar indefinidamente.
¡No podía existir un principio mayor de plenitud en una ciencia que se expandía
aceleradamente, y que con instrumentos cada vez más finos, con matemáticas cada
vez más precisas y una confianza cada vez más robustecida, se sentía capaz de
escrutar todos los rincones hasta agitarlos!
El principio de conservación de la energía (o primer principio de la termodinámica,
la palabra que Lord Kelvin acuñó en 1849 para designar el estudio del calor) y
el mismo concepto de energía fueron las ideas unificadoras de la física en el
siglo XIX, así como la Teoría de la Evolución y la Teoría Celular lo fueron en
biología. Junto a la idea de conservación de la materia, que había enunciado
Lavoisier, la conservación de la energía, que también se transforma sin
perderse, pintaba un panorama del mundo: a la viejísima pregunta «¿qué es lo
que hay?», que había sido respondida de maneras tan diversas a lo largo de la
historia, la respuesta no era ni el agua, ni el Ser, ni los cuatro elementos,
ni la fuerza vital, ni siquiera la sustancia divina (cuando Napoleón preguntó a
Laplace por qué no había mencionado al Sumo Hacedor en su Mecánica
Celeste, Laplace contestó: «No he tenido necesidad de esa hipótesis»): en
el universo solamente hay materia y energía, y nada de ellas se pierde jamás.
Era un panorama tranquilizador: el mundo como mecanismo cedía a la imagen del
mundo como un motor. La materia y todos los movimientos eran acompañados por un
combustible, la energía, que no se consumía sino que se transformaba.
Entonces los científicos vieron el mundo que habían construido (o explicado) y
constataron que era bueno. Aunque no por mucho tiempo.
§. Carnot sienta las bases
Porque pronto el segundo principio de la termodinámica iba a
echar un balde de agua fría sobre el optimismo del primero.
No voy a contarles en detalle la conquista, si es que así puede llamársela, del
segundo principio, porque se volvería todo demasiado técnico. Pero sí puede
decirse que sus primeras formulaciones se remontan al libro Reflexions
sur la puissance motive du feu (Reflexiones sobre la potencia
motriz del fuego) que en 1824 publicó el joven Sadi Carnot (1796-1832),
hijo del Gran Carnot, que había participado de manera decisiva en la Revolución
Francesa (organizando y armando a los ejércitos de la república) y que luego se
convertiría en ministro de Guerra de Napoleón Bonaparte.
En su libro, Carnot (hijo, obviamente) analizaba la eficiencia de las máquinas
para convertir el calor en trabajo y demostraba que el trabajo se producía
cuando el calor pasaba de una fuente con temperatura más alta a otra más baja,
al tiempo que constataba que siempre el calor fluía de un objeto más caliente a
otro más frío, y nunca al revés (lo cual es ya un enunciado primitivo del
segundo principio).
Carnot murió de cólera a los 36 años de edad, y aunque sus cuadernos contenían
más descubrimientos relacionados con esta teoría, en la época en que falleció
aún no habían sido publicados y la mayoría fueron quemados, junto con sus
efectos personales. Allí aparecían algunas cosas que luego proclamarían los
trabajos de Mayer y Joule, lo cual muestra, de paso y una vez más, que las
ideas científicas no sólo funcionan en la mente de un científico
particularmente genial, sino que flotan en el «espíritu de la época».
El problema es que las Réflexions no tuvieron mucha influencia
en sus tiempos: recién la tendrían sobre la generación de físicos que llevó a
cabo la revolución de la termodinámica, especialmente William Thomson y Rudolf
Clausius, de quienes tendremos que hablar a continuación.
§. William Thomson (Lord Kelvin) y las leyes de la termodinámica
William Thomson, que más tarde se llamaría lord Kelvin, pasó casi toda su vida
en entornos universitarios. Su padre, James Thomson, era profesor de
matemáticas en la Royal Academical Institution de Belfast hasta que se mudó a
Glasgow, para ocupar un cargo allí. William asistió a clases universitarias
desde los 10 años (¡desde los 10 años!) y escribió su primer trabajo a los 16.
La vocación estaba clara: unos años más tarde, se trasladó a la Universidad de
Cambridge y se licenció en 1845, habiendo obtenido ya varios premios por sus
ensayos científicos y habiendo publicado una serie de trabajos en el Cambridge
Mathematical Journal. Tras conseguir la licenciatura, trabajó durante algún
tiempo en París, donde se familiarizó con la obra de Carnot. Luego retornó a
Glasgow en 1846 (cuando tenía 22 años) y ocupó la cátedra de Filosofía Natural
hasta que se jubiló, a los 75 años, en 1899. Y fíjense en esta curiosidad:
después de jubilarse, se matriculó como estudiante de investigación para no
perder la práctica, con lo que, además de haber sido el estudiante más joven
que hubo en aquella universidad, llegó a ser también el más viejo. Falleció en
Largs, a unos cincuenta kilómetros de Glasgow, el 17 de diciembre de 1907.
En realidad, su fama e importancia en Inglaterra se basaban especialmente en
sus contribuciones a lo que ahora llamaríamos «ciencia aplicada»: fue
responsable del éxito del primer cable telegráfico que funcionó a través del
océano Atlántico, que constituyó un paso fundamental en la globalización de las
comunicaciones (proceso que aún estamos viviendo hoy, con Internet, y que no
sabemos hasta dónde llegará) e hizo una gran fortuna con patentes de distintos
inventos, lo cual le valió el título de Sir en 1866, y el de lord Kelvin en
1892, nombre que tomó del río que atraviesa la Universidad de Glasgow.
La escala de temperatura absoluta o termodinámica se llama escala Kelvin en su
honor: para no entrar en demasiados detalles engorrosos, digamos que si el
calor es movimiento de las partículas, el cero absoluto, la temperatura mínima
posible, se alcanza (en realidad no se puede alcanzar prácticamente) cuando
todas las partículas están quietas y equivale a 273,15 grados centígrados bajo
cero, o 0 grado Kelvin.
Pero quizá su contribución más importante fue la de organizar la termodinámica
como una disciplina científica hecha y derecha en la segunda mitad del siglo
XIX.
Y aquí entra a jugar Rudolf Clausius (1822-1888), que en Alemania estaba
puliendo y desarrollando las teorías de Carnot. Lord Kelvin supo de los trabajos
de Clausius a principios de la década de 1850, cuando ya estaba trabajando en
una línea similar. Ambos llegaron, más o menos independientemente, a la segunda
ley de la termodinámica, que dice, en una de sus formulaciones más brutales,
que bajo ninguna, absolutamente ninguna circunstancia, el
calor puede por sí mismo pasar de un objeto más frío a otro más caliente. Pero
fundamentalmente establece que si se utiliza calor para producir trabajo y
luego se quiere usar ese trabajo para recuperar el calor, no se podrá
recuperarlo del todo. Esto es: hay algo que se ha transformado definitivamente
en calor.
La energía, en el curso de sus transformaciones, se desgasta, y en todos los
procesos una parte de ella se convierte irremisible e irreversiblemente en
calor. Se desgasta mediante una cantidad que Clausius llamó «entropía» y
que en cada proceso físico termodinámico, o en los procesos mecánicos mediante
el rozamiento, aumenta. En el universo sólo son posibles los procesos en los
que la entropía aumenta. Dicho de una manera más lúgubre, toda la energía se va
convirtiendo lenta, sistemática y fatalmente en calor.
Si el primer principio de la termodinámica era una ley optimista, que
garantizaba la eternidad del universo, el segundo principio era decididamente
pesimista, ya que aseguraba que el constante aumento de la entropía conduciría
inexorablemente a la muerte térmica del cosmos: como en cada proceso físico una
parte de la energía se convierte en calor, tarde o temprano la totalidad de la
energía sería calor, incapaz de producir trabajo mecánico alguno, y todo
movimiento cesaría, todo se hundiría en una nada sin límites, en la que
flotaría la materia disgregada. Una inmensa nada inmóvil e inerte donde, aunque
por supuesto la cantidad de energía total sería idéntica, la entropía
alcanzaría su máximo y ningún fenómeno podría producirse, porque en ningún caso
la entropía podría disminuir.
El descubrimiento de la entropía resultaba tristísimo. No era nada agradable,
en medio de una época de confianza y expansión, tomar conciencia de que cada
fósforo que se enciende, cada movimiento, cada pensamiento (que genera calor a
partir de los circuitos eléctricos cerebrales) aceleran la muerte térmica del
universo; no era el mejor momento para saber con total certeza que todos los
esfuerzos terminarían siendo mera radiación térmica, vulgar temperatura,
miserable vacío caliente. La entropía marcaba una flecha del tiempo que
señalaba la tumba, un reloj que contaba minuciosamente los segundos hasta
disolverse él mismo en un calórico final. En un mundo donde se pensaba que
todos los procesos eran reversibles, el segundo principio de la termodinámica
aseguraba que el mundo evolucionaba en una sola dirección: la de la muerte
térmica.
No podían funcionar eternamente los ciclos geológicos que había soñado Hutton,
ni resultaba cierta su idea de que la Tierra era un enorme mecanismo, sin
comienzo ni atisbo de final: en cada ciclo, la entropía forzosamente tenía que
aumentar. Tampoco el Sol podría brillar por siempre, porque cualesquiera que
fueran las formas en que producía su calor (por entonces desconocidas), no
había forma ni mecanismo natural alguno que pudiera restituir ese calor perdido
para que el Sol siguiera funcionando. Y así siguiendo.
Sin embargo, había una paradoja, algo que no encajaba del todo. El segundo
principio venía a declarar que los procesos termodinámicos eran irreversibles,
pero resulta que el calor era un proceso mecánico, originado en el movimiento
de las moléculas. Y la mecánica, a diferencia de la termodinámica, sí es
reversible (salvo por el detalle del rozamiento). Dado que los flujos de calor
se daban siempre de una fuente más caliente a una más fría (el único proceso
permitido), era posible pensar que si se invertía el movimiento de las
moléculas se podría revertir el proceso. Porque… ¿cómo podía ser que un proceso
reversible como el del movimiento de las moléculas pudiera dar origen a un
proceso irreversible como el flujo de calor, que no era sino el resultado de
ese movimiento?
El problema dejó perplejos a los físicos que estudiaban la termodinámica,
incluyendo al propio Maxwell, que sembró la sospecha de que el segundo
principio era de naturaleza estadística.
Veamos cómo es eso.
§. Boltzmann y la interpretación estadística de la entropía
Ludwig Boltzmann nació en 1844 en Viena, en 1867 se doctoró en Física, ocupó
distintas cátedras y enseguida se destacó como una autoridad en mecánica
estadística, dejando su nombre vinculado a figuras de la talla de Helmholtz y
el mismísimo Maxwell, dios del electromagnetismo. Su fama crecía aceleradamente
y tanto prometedores talentos como figuras importantes se acercaban para
trabajar o polemizar con él.
Pero además de su enorme cantidad de trabajo en la mecánica estadística,
Boltzmann le encontró una vuelta al segundo principio de la termodinámica o ley
del aumento de la entropía, considerada como algo inexorable por la mayoría de
sus contemporáneos (aunque algunos planteaban sus dudas).
Lo que hizo fue interpretar la entropía como la medida del desorden de un
sistema. Cuanto más desordenado, más entropía: por poner un solo ejemplo, el
hecho de que las moléculas se distribuyan al azar ocupando todo el ámbito donde
el volátil autor de estas páginas escribe hace que el sistema sea más
desordenado que si todas las moléculas que hay en ese mismo ámbito se
apretujaran en un rincón. Del mismo modo, el calor es el estado de máximo
desorden.
Boltzmann transformó la inexorabilidad en una alta probabilidad: según su
interpretación, no es que el universo deba evolucionar fatalmente del
orden al desorden, sino que, puesto que el número de estados desordenados es
mucho, pero muchísimo mayor que el de ordenados, naturalmente se
mueve de los estados menos probables a los más probables.
No hay, así, nada devastadoramente fatal en el aumento de la entropía: después
de todo, la entropía podría disminuir, del mismo modo que ninguna ley impide
que en la ruleta salga el número 5 un millón de millones de veces seguidas (si
ocurriera no habría que cambiar una sola palabra en los libros de probabilidad)
o que las moléculas de una habitación se ordenen espontáneamente (violando la
ley del aumento de la entropía) y se acumulen en una de las esquinas,
asfixiando de paso a quienes estén presentes. Entonces no es que fuera
imposible que el calor se transmitiera de un cuerpo más frío a uno más
caliente: era, en realidad, altísimamente improbable.
En cierta medida, Boltzmann les dio al mundo y a los fenómenos una remota,
remotísima esperanza. Le quitó a la segunda ley su aura funeraria, su aureola
de muerte (térmica) inconmensurable; abrió, si se quiere, una rendija por la
que existe una lejanísima posibilidad de atisbar. Transformó la certeza
absoluta del fin en un «optimismo» atado a bajísimas probabilidades.
Pero no se hagan ilusiones: la probabilidad de que un cuerpo frío se caliente
espontáneamente, o de que una mancha de tinta disuelta en un vaso se concentre
en un punto, o la de que un jarrón roto vuelva a recomponerse sólo es tan
remota que no alcanzaría con que el universo durara cien mil millones de millones
de millones de veces lo que va a durar como para que pudiera presenciarse un
fenómeno así.
El 5 de octubre de 1906, Boltzmann se suicidó, ahorcándose en una playa
italiana cerca de Trieste. En su lápida figura la fórmula S= k log W base de su
interpretación un poco más optimista o mejor, un poco menos pesimista de la ley
que ordena a la entropía aumentar.
§. Síntomas
Los dos principios de la termodinámica, junto a la Teoría de la Evolución, la
teoría celular y otros desarrollos que ya vimos y seguiremos viendo, parecían
alcanzar la plenitud de la ciencia. No en el sentido de que ya todo estuviera
dominado, sino en el no menos fuerte de que se sabía el procedimiento a seguir
para aquellas regiones no conquistadas aún. No se había explorado todo el territorio,
pero el mapa estaba diseñado a grandes rasgos y se avanzaba con brújulas de
precisión.
Sin embargo, había algunas señales de que las cosas no eran del todo así,
aunque es lógico que nadie las viera en su momento y que sólo las percibamos
ahora con la ventaja que da la perspectiva.
Así como la ley de conservación de la energía, la ley de leyes, era un gran
triunfo clásico, el segundo principio no respondía (en especial en la lectura
de Boltzmann) exactamente al canon newtoniano y determinista. No se trataba de
una ley de conservación, por empezar, e incluía el concepto no newtoniano y no
determinista de probabilidad.
Y algo por el estilo estaba incrustado en la Teoría de la Evolución. La
selección natural era una fuerza impredecible, que no apuntaba a ningún lugar
definido, que, como el aumento de la entropía, no era reversible, y cuyo
funcionamiento se podía sospechar estaba ligado de alguna manera a las
probabilidades y a la forma azarosa en que los rasgos adaptativos se
distribuían entre las poblaciones. Eran señales tenues, síntomas, pero no eran
los únicos. Ya tendremos tiempo de analizarlos con detalle.
Interludio:
Cómo se fabricó el fin del mundo
De las nueve jerarquías celestiales que en el siglo VI describió
Dionisio Areopagita (que más tarde sería conocido como el seudo-Dionisio) —en
orden descendente: serafines, querubines, tronos, dominaciones, virtudes y
potencias, principados, arcángeles y ángeles propiamente dichos—, eran los
tronos y las dominaciones los que se encargaban de fabricar con exquisito
cuidado las leyes de la naturaleza.
Que eran elevadas a la asamblea conjunta de serafines y querubines para que les
dieran su aprobación, y cada éxito se festejaba con estallidos de alabanzas,
himnos, danzas, cánticos espirituales y bailes de los que raramente estaba
ausente el champagne. Cuando la asamblea seráfica aprobó finalmente, después de
muchos retoques, idas y vueltas, la ley de inercia, los nueve coros se
corrieron una francachela tan larga que pareció agotar la Eternidad, al mismo
tiempo que las partículas abandonaron su movimiento caótico e impredecible,
irregular y sin finalidad alguna (porque de repente estaban acá, de repente
allá y nadie entendía nada) y comenzaron a moverse en línea recta y con
velocidad absolutamente uniforme.
Y cuando algunos eones más tarde (¿quién cuenta los períodos de la eternidad?)
las dominaciones tallaron la ley de gravitación, que los tronos corrigieron
mínimamente sustituyendo la cuarta potencia de la distancia por la segunda, y
ésta apareció en el Boletín Oficial del Empíreo, las partículas se atrajeron
gravitatoriamente y muchas empezaron a moverse unas alrededor de las otras:
tanto los tronos como las dominaciones se sintieron felices ante un mundo que
funcionaba como un perfecto mecanismo, se dedicaron a completar la obra
afilando la mecánica de sólidos, de fluidos y de gases (el agua bajó por las
laderas y el humo se elevó mientras se expandía con precisión) y decidieron,
emborrachadas por el éxito, relegar a los principados y arcángeles a ocuparse
de la termodinámica, siempre más fastidiosa y menos limpia (o por lo menos así
les parecía).
Pero tanto los principados como los arcángeles se tomaron la tarea muy en serio
y abordaron el problema con decisión. Usando todos los recursos (incluso la
fuerza física y mental) aislaron la idea de energía y discutieron qué hacer con
ella durante interminables reuniones, pero cuando la tuvieron lista, el mundo
se llenó de pronto de luz y de calor: los átomos, que no habían hecho hasta
entonces más que obedecer las leyes frías de la mecánica, se desviaron de sus
trayectorias, chocaron entre sí y empezaron a formar grupos lechosos que
inmediatamente se contrajeron bajo la acción de la gravedad, y en cuyos centros
se produjeron fusiones nucleares que empezaron a irradiar nueva luz y calor al
espacio, mientras se organizaban las galaxias espirales y empezaban a rotar
lentamente como ruedas arrancadas de algún fuego de artificio.
Y al contemplar tanta belleza (el cosmos negro, vacío, frío y mecánico, de
pronto bullente de calor y luz gracias al invento de la energía), los
principados y arcángeles decidieron en un solo instante que nada de eso debía
perderse y que aquello debía permanecer por siempre, aunque sólo fuera para
asegurar tan maravilloso espectáculo, y así fue como diseñaron la «ley de
leyes»: el principio de conservación de la energía, que aseguraría que por toda
la eternidad la energía existente en el mundo sería siempre la misma.
La ley de leyes despertó la envidia y el malestar de tronos y dominaciones, que
protestaron porque argüían que interfería con su bello mundo mecánico, pidieron
que no fuera aprobada y sostuvieron que, evidentemente, los coros inferiores no
tenían la menor idea de cómo se fabricaba un mundo.
Sin embargo, a los serafines les encantó, y el Gran Plenario del Noveno Coro,
con todo el poder que le daba ser la más alta instancia del Paraíso, sancionó
la Gran Ley: inmediatamente las grandes estrellas estallaron en supernovas
multicolores y el gas se reagrupó para dar nuevas generaciones estelares,
alrededor de las cuales se agruparon cuerpos opacos; el mundo entero adquirió
una dinámica circular y en todos los puntos apropiados se encendieron focos de
calor y de luz.
Tronos y dominaciones se escandalizaron ante tanto desorden y exigieron que se
pusiera un límite, problema que los serafines, temerosos de una sublevación,
remitieron a los principados y arcángeles, que después de pensarlo un poco, y
temerosos de que la protesta pusiera en peligro su Gran Ley, crearon una nueva
entidad que medía el desorden: la llamaron entropía y establecieron que la
entropía, es decir el desorden, sería, como la energía, siempre el mismo
(entropía = constante): lo llamaron Segundo Principio y lo despacharon hacia
los coros superiores.
Pero no contaban con la decisión con que tronos y dominaciones querían
arruinarles el pastel, para lo cual acudieron a la más baja de las jerarquías,
los ángeles, que no siempre respetan el orden jerárquico, que están en todas
partes, que son juguetones y traviesos y que se pusieron muy contentos con la
posibilidad de hacerles una jugarreta a los arcángeles (que muchas veces son
severos con ellos). Varios angelitos interceptaron el mensaje y transformaron
el segundo principio en: «la entropía (el desorden) aumenta inexorablemente»,
que así llegó, endosado por los tronos y las dominaciones, hasta querubines y
serafines que la aprobaron sin más, creyendo que era un mero trámite, y que les
proporcionaría el placer de presenciar nuevos fuegos de artificio.
Y el mundo, tan preciosamente construido, empezó a morir: paulatinamente el
desorden lo invadía todo sin que hubiera vuelta atrás; algunas estrellas se
apagaban sin dar origen a estrellas nuevas; todas las formas de energía se
transformaban lentamente en calor, y la materia misma empezaba a desgastarse y
a fraccionarse en radiación que se perdía en el espacio y no regresaba más.
Cuando los serafines lo advirtieron, ya era demasiado tarde: el segundo
principio había sido promulgado y no podía darse marcha atrás sin enojar al
Altísimo. Así, el mundo quedó sentenciado a ser alguna vez totalmente negro y
vacío, sin movimiento ni luz, sin que una chispa agitara los océanos de
oscuridad.
Los tronos y las dominaciones festejaron su triunfo. Los principados y los
arcángeles no se repusieron nunca de su aflicción, y por eso rara vez se los
ve. Y en cuanto a los ángeles que habían montado la operación, ni se percataron
del problema, porque ya se sabe que a los ángeles el mundo les importa muy
poco, y en todo caso podrán seguir jugando y divirtiéndose después de que el
universo se haya precipitado hacia la nada.
Capítulo 30
El mapa y el territorio: las geometrías no euclidianas, el infinito y el éter
A ustedes puede sonarles conocido el título de este capítulo por dos
motivos: o bien porque leyeron la preciosa novela de Michel Houllebecq, o bien
porque ya lo leyeron aquí, unas páginas más atrás, cuando el volátil autor de
estas páginas intentaba (acaso infructuosamente) organizar de alguna manera la
enorme diversidad del pensamiento científico del siglo XIX.
Les decía allí que la ciencia de este siglo se sentía segura de sí misma y que,
gracias a las grandes teorías generales y a los nuevos principios, creía contar
con un mapa bien delineado y una brújula precisa con los que avanzar sobre
territorios que —se sabía— restaban inexplorados.
Pero resulta que el mapa no estaba tan bien delineado y la brújula no era tan
precisa como lo fueron demostrando poco a poco algunas de esas grandes teorías
que, si bien fueron y siguen siendo de alguna manera el modelo y la culminación
del pensamiento científico occidental, introdujeron pequeñas cuñas en el enorme
edificio que había legado el siglo XVIII al introducir elementos
probabilísticos que no encajaban del todo en el ideal de ciencia newtoniana y
determinista.
Entre estos síntomas que ponían en duda la precisión del mapa y la afinación de
la brújula apareció uno verdaderamente gravísimo. Verdaderamente gravísimo,
digo, porque apuntaba ni más ni menos que al cuestionamiento de la sólida y
establecida concepción del espacio, ese lugar absoluto y feliz que había sido
fijado en el siglo XVII, inmóvil, eternamente igual a sí mismo, previo a todos
los fenómenos que ocurrían en él y que las matemáticas y la geometría
describían en forma exhaustiva. De repente, ya no era tan claro qué forma
tenía.
Y todo, todo, porque había algo en los axiomas del viejo Euclides que no
cerraba. ¿Recuerdan el quinto postulado? Repasemos un poco.
I. Las geometrías no euclidianas
§. Recordando a Euclides
Cuando hablamos, hace ya mucho, de la Escuela de Alejandría y de Euclides, les
contaba que se había hecho cargo del desastre pitagórico (el descubrimiento de
la irracionalidad de la raíz cuadrada de 2) y se había puesto a edificar las
matemáticas de forma exclusivamente geométrica en sus Elementos, en
los que construía toda la geometría en una obra tan amplia y definitiva que
puede equipararse a los Principia de Newton, o El
origen de las especies de Darwin, y que fue, después de la Biblia, el
libro más editado.
También les decía que Euclides tomaba uno de los grandes caminos de la
filosofía griega, se apartaba de cualquier corriente empirista, se ubicaba en
el «puro pensar» de los pitagóricos y, en la tradición de Parménides de Elea,
enfrentaba el dilema que se había dejado sin resolver: si se construía un
sistema basado en el pensar, también era necesario resolver el problema de por
dónde había que empezar. Euclides lo resolvió, como recordarán, imponiendo
algunos principios que daba por verdaderos sin discutirlos: los axiomas o los
postulados, de los cuales debía poder deducirse todo enunciado de la geometría,
aun el más intrincado. De paso sea dicho, Euclides dejaba un asuntillo sin
resolver o resuelto de una manera poco convincente: el de la arbitrariedad en
la elección de los postulados, que se justificaba afirmando que se trataba de
verdades «autoevidentes», cosas de las que no se podía dudar, y que no
necesitaban demostración. Los postulados eran claros, simples, contundentes y eso
—se suponía— alcanzaba para que fueran legítimos. Repasemos brevemente algunos
de ellos:
1. Que por cualquier punto se pueda trazar una recta que pase por otro punto
cualquiera.
2. Que toda recta limitada pueda prolongarse indefinidamente en la misma
dirección.
3. Que con un centro dado y un radio dado se pueda trazar un círculo.
4. Que todos los ángulos rectos sean iguales entre sí.
Hasta aquí, todo parece en orden. Pero presten atención al siguiente:
5 Que si una recta, al cortar a otras dos, forma los ángulos internos de un
mismo lado menores que dos rectos, esas dos rectas prolongadas indefinidamente
se cortan del lado en que están los ángulos menores que dos rectos.
Los primeros cuatro son sencillos y no presentan mayores dificultades. Pero el
quinto postulado… daba mucha tela para cortar.
§. El misterio del quinto postulado
El quinto postulado era molesto. No tanto porque hubiera alguna duda sobre su
verdad sino a causa de su enunciado: imagino que ustedes, amables lectores del
libro, habrán tenido que examinarlo detenidamente para comprender qué es lo que
está diciendo. Y seguramente recién cuando vieron el dibujo se les aclaró el
panorama. Lo cual es lógico, porque tal y como fue enunciado, el postulado es
demasiado complicado: parece artificioso y carece de la sencillez de los otros.
El propio Euclides había tomado buena nota de este asunto y, siempre que pudo,
evitó recurrir a él. De hecho, el quinto postulado y su artificiosa textura se
convirtieron en un dolor de cabeza permanente… durante dos mil años, hasta tal
punto que ¡en 1759! D’Alembert llamó al problema «el escándalo de los elementos
de la geometría».
Hubo un segundo tipo de abordaje, que consistió en intentar demostrar el quinto
postulado deduciéndolo de los otros, de tal manera que dejara de ser
cuestionable. Entre los que emprendieron este camino, el esfuerzo más
importante, por lo menos cronológicamente, fue hecho por Gerolamo Saccheri
(1667-1733), un sacerdote jesuita y profesor de la Universidad de Pavía. Lo que
pretendió hacer fue negar el axioma de las paralelas y mostrar que se llegaba a
una contradicción (lo que nosotros llamamos una demostración por el absurdo).
Negar que por un punto exterior a una recta pasa una sola y única paralela es
suponer que, o bien no pasa ninguna, o bien pasan muchas.
Saccheri empezó suponiendo que no había ninguna paralela y, trabajando con este
presupuesto, llegó a la tan ansiada contradicción. Luego probó con la segunda
posibilidad. Aceptó que por el dichoso punto pasa más de una paralela y logró
demostrar muchos teoremas, hasta que llegó a una propiedad tan extraña que la
consideró una contradicción: concluyó así que el quinto postulado estaba
demostrado, y tituló su libro, por si a alguien le quedara alguna duda, Euclides
ab omni naevo vindicatus (Euclides exonerado de toda culpa,
1733). El problema parecía terminado… solamente parecía.
Poco después de Saccheri, Johann Heinrich Lambert (1728-1777) abordó el asunto.
En su libro (escrito en 1766 y publicado en 1786) Teoría de las rectas
paralelas, Lambert, como Saccheri, consideró las dos posibles opciones.
También como Saccheri, encontró que suponer que no pasa ninguna paralela
conduce a una contradicción.
Sin embargo, cuando analizó la otra hipótesis (que pasan muchas) llegó a
resultados muy extraños, por ejemplo, que los ángulos interiores de un
triángulo suman menos que 180 grados. Resultados extrañísimos, por cierto, pero
que no constituían ninguna contradicción lógica.
¿Y entonces? Y entonces ocurrió algo fundamental, porque Lambert avizoró el
hecho de que cualquier colección de hipótesis que no condujera a
contradicciones ofrecería una posible geometría, que sería una estructura
lógica válida, aun cuando pudiera tener poco que ver con el espacio físico real
y a priori verdadero. Era un paso conceptual tremendo, abismal, y Lambert dudó
frente al precipicio.
Pero quien no vaciló en absoluto fue Gauss, a quien suele considerarse —si bien
el asunto es discutible— el princeps mathematicorum, el más grande
matemático del siglo XIX. Hasta el año 1799 Gauss trató, como tantos otros, de
demostrar el dichoso postulado, hasta que se convenció de que era imposible:
He hecho ya algunos progresos en mi trabajo. Sin embargo, el camino que
he elegido no conduce en absoluto a la meta que buscamos (la deducción del
axioma de las paralelas). Más bien parece obligarme a dudar de la verdad de la
geometría misma,
escribía a su amigo, el matemático Wolfgang Bolyai.
«Dudar de la geometría misma» era mucho decir, pero todo parecía indicar que
podía existir una geometría perfectamente coherente en la que el postulado no
se cumpliera. A partir de 1813 trabajó en esa dirección, aunque le parecía una
idea tan audaz que, como le decía a otro amigo en una carta, probablemente
jamás publicaría sus hallazgos sobre el particular, pues tenía miedo al
ridículo o, como él decía, temía el clamor de los beocios (en una referencia a la
tribu griega cuya torpeza los griegos ilustrados consideraban proverbial).
El miedo era razonable, porque lo cierto es que el mundo intelectual en general
(y en especial la rama de los matemáticos y los físicos) estaba dominado por la
convicción de que la geometría euclídea era la única posible. Y publicar
semejante cosa, con un prestigio ya bien ganado y asentado, era un riesgo que
Gauss no estaba dispuesto a correr.
Pero bien acorde con un siglo que empezaba a poner todo en cuestión, el asunto
estaba a punto de llegar a un desenlace.
§. Lobachevski y Bolyai: las geometrías no euclidianas
Desenlace que se desencadenó gracias a los trabajos del matemático ruso Nicolai
Ivanovich Lobachevski (1793-1856) y el húngaro Johann Bolyai (1802-1860), hijo
del Wolfgang Bolyai al que le escribía Gauss. A partir de 1825, uno y otro,
separadamente, desarrollaron sus propias ideas sobre la geometría y
construyeron una geometría no euclidiana (lo cual hasta ese momento hubiese
parecido una contradicción en los términos) partiendo de que por un punto
exterior a una recta pasan infinitas paralelas.
Bolyai escribía:
He realizado descubrimientos tan maravillosos que estoy completamente
asombrado.
En efecto, la nueva geometría tenía propiedades muy extrañas, pero en
absoluto contradictorias. Recuerden el ejemplo que les ofrecí antes: la suma de
los ángulos interiores de un triángulo, en esta geometría, es menor que 180
grados, y la diferencia depende del área (cuanto más grande el triángulo, menor
la diferencia). La nueva geometría resultaba tanto más estremecedora en tanto
crecía poco a poco la sospecha de que podía aplicarse al espacio físico de
manera tan precisa como la euclídea. Hasta entonces, el espacio físico en que
trabajaban los científicos y vivían todos los hombres era el descripto por la
geometría euclidiana: así lo había construido Newton, y así lo había sancionado
el gran filósofo Kant. Se trataba de la geometría necesaria de la empiria.
Pero tanto Gauss como Lobachevski estaban convencidos de que esta nueva
geometría que iban esbozando podía ser aplicable y era utilizable para
describir las propiedades del espacio físico tan precisamente como la euclídea,
ya que, pensaban, era poco científico garantizar la verdad física de la
geometría euclídea basándose en consideraciones a priori.
Así, hacia 1830 no sólo había una geometría no euclídea (aunque aceptada por
pocos), sino que su aplicabilidad al espacio físico era considerada al menos
como posible. El asunto no era menor, ya que todo el edificio de la física
estaba construido sobre la presunción de que la geometría euclídea era la
geometría necesaria del espacio físico: si de repente, digamos, resultaba que
los ángulos interiores de un triángulo medían menos que 180 grados, era
necesario revisar todo lo que se apoyara en ese supuesto.
El problema de cuál era la geometría que mejor se acomodaba al espacio físico,
suscitado primeramente por la obra de Gauss, estimuló la creación de una nueva
geometría que dio al mundo matemático motivos frescos para creer que el espacio
físico podía muy bien ser no euclidiano. Su inventor (¿o debería decir
«descubridor»?) fue Georg Bernhard Riemann (1826-1866), discípulo de Gauss y
posteriormente profesor de matemáticas en Gotinga. En la geometría de Riemann
no sólo no pasa ninguna paralela por un punto exterior a una recta, sino que ni
siquiera existen rectas paralelas. Lo cual parece rarísimo, aunque no lo es:
para visualizarla, se la puede pensar como si las rectas fueran los meridianos
terrestres, que al cortarse en los polos no conocen el paralelismo.
De repente toda la construcción de la mecánica newtoniana, que se había basado
en la idea de un espacio euclídeo absoluto, mostraba la hilacha. En su conferencia
en la Facultad de Filosofía de Gotinga de 1868, titulada «Sobre las hipótesis
que se encuentran en los fundamentos de la geometría», Riemann reconsideraba el
problema general de la estructura del espacio. Y lo hacía —esto es lo
interesante— desde una perspectiva empírica: ya no alcanzaba con que la
geometría contara con una lógica interna implacable, sino que la pregunta,
ahora, era por las condiciones que se le presuponían al propio concepto de
espacio antes de que se determinara mediante la experiencia cualquier propiedad
que pudiera presentarse en el mundo físico. Era toda una novedad: las verdades
autoevidentes de Euclides podían depender de la experiencia.
En verdad, y acá me veo obligado a hacer una digresión, es algo injusto decir
que Euclides no hubiera considerado esta posibilidad. A pesar de oponerse
decididamente al empirismo, el propio concepto de «auto evidencia» es una
suerte de concesión. ¿Por qué sería autoevidente e indiscutible que, por
ejemplo, «toda recta limitada pueda prolongarse indefinidamente en la misma
dirección», salvo por el hecho de que, efectivamente, parecía que en la
práctica era así? (Y digo «parecía» porque en la práctica no existen ni las
rectas ni los segmentos abstractos de Euclides.) Resulta, entonces, que lo que
Riemann estaba diciendo era que los axiomas de Euclides no eran las festejadas
verdades autoevidentes, sino que eran simples verdades empíricas.
De este modo, la cuestión misma del espacio, de su naturaleza y su geometría,
tambaleaba. El mapa que se había diseñado, que parecía tan perfecto y había
conducido a creer en un progreso indefinido y sin obstáculos en la carrera del
conocimiento, empezaba a generar algunas sospechas: ¿tenía que ser un mapa
euclídeo? ¿O a lo mejor convenía explorar el territorio con un mapa no
euclídeo, a pesar de sus extrañas y antiintuitivas propiedades? Si éste era el
caso, el terreno era pantanoso. Porque si cualquier geometría lógica (es decir,
que no presentara contradicciones internas) podía ser aplicada al espacio
físico con éxito, resultaba que este espacio físico en realidad no era otra
cosa que un espacio lógico con tantas posibilidades de ser representado como
geometrías no contradictorias pudieran postularse. Definitivamente, ya no era
el espacio en el que los científicos seguros del siglo XIX se manejaban.
Y el siglo XX se encargaría de demostrar que efectivamente era así, y aún más,
que la geometría real del espacio no es precisamente la euclídea. Pero ya
llegaremos allí.
II. El triunfo del infinito
La enorme sofisticación del postulado de las paralelas se debía en parte
al recelo de Euclides (y de los matemáticos griegos en general) ante el
concepto de infinito: las paralelas son rectas que no se cortan ni siquiera en
el infinito, un lugar no definible, donde nadie sabía lo que pasaba realmente.
Así, el postulado de las paralelas estaba relacionado con el concepto de
infinito, que no había sido resuelto jamás por los matemáticos griegos:
Euclides, de hecho, seguía a Aristóteles, que aceptaba el infinito como una
cantidad que crecía sin límites (es decir, un infinito potencial) pero negaba
la posibilidad del infinito real (o actual), es decir, del infinito existente
aquí y ahora.
La respuesta aristotélica o euclidiana es la primera que se le ocurre a quien
trata de responder acerca de la definición del infinito desde el sentido común,
o, lo que es lo mismo, desde la intuición directa. Uno suele imaginarse una
cantidad muy grande. Pero las cantidades muy grandes, como, digamos, el número
de granos de arena de todas las playas de la tierra (del que, como recordarán,
se ocupó Arquímedes en su momento en su Arenario) están lejísimos
de ser infinitas, tan lejos como lo están las estrellas que vemos en el cielo,
felizmente. Y digo felizmente porque si el número de granos de arena de una
playa fuera infinito, su peso también lo sería y, en consecuencia, el de la
Tierra también. La cantidad de átomos en el universo, que asciende a la
friolera de
1.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.
000.000.000.000.000
, es tan poco infinita que da lástima. En realidad, semejante cifra no
está más cerca del infinito que colegas más modestas como 2, 15 o 2089, lo cual
es rarísimo, y explica por qué la dificultad para concebir el infinito, salvo
como algo potencial, se arrastraba desde la Antigüedad.
§. El cálculo infinitesimal
Más allá de los devaneos medievales y teológicos sobre si la potencia de Dios
era o no infinita, en los siglos XVI y XVII el infinito matemático, que es el
que nos interesa a nosotros, había tenido un imprevisto y fructífero
renacimiento. Varios matemáticos habían empezado a considerar que, por ejemplo,
un cuadrado podía pensarse como un conjunto infinito de segmentos infinitamente
delgados, o un volumen como una pila de infinitas rebanadas, cada una de ellas
también infinitamente delgadas, y habían utilizado esa aproximación para
calcular áreas y volúmenes. Newton y Leibniz, por su parte, al inventar el
cálculo infinitesimal, habían utilizado cantidades «infinitamente pequeñas» y
operado con ellas, sus cocientes y sus desarrollos.
Como es un poco técnico explicar qué es exactamente el cálculo infinitesimal,
lo hago muy pero muy esquemáticamente. Analicemos por ejemplo el concepto de
velocidad instantánea. Cuando la aguja del velocímetro marca, digamos, 60
kilómetros por hora, damos por sentado que mide la velocidad del auto en ese
instante, sin pensar en la dificultad del concepto. Porque… ¿qué es un
instante? Un intervalo de duración cero. ¿Y cuánto recorre el auto en un
intervalo que dura cero? Obviamente 0 kilómetro. Pero si la velocidad en un
instante es el cociente del espacio por el tiempo, llegaríamos al absurdo de
que es 0/0, lo cual no tiene ningún sentido.
Es aquí donde irrumpe el cálculo infinitesimal para proponer otra manera: lo
hace con intervalos de tiempo y de espacio infinitamente pequeños, que se
dividen y se «hacen cero» (o, como ellos decían, se «desvanecen»); de esa
manera evitaban el 0/0 y llegaban a un valor, la velocidad instantánea.
En términos generales, el cálculo infinitesimal, la más grande invención
matemática desde la Antigüedad hasta hoy, consiste en operar con estas
cantidades infinitamente pequeñas, ya sea en las magnitudes físicas o en las
funciones.
El cálculo infinitesimal, si bien tuvo inmediatas aplicaciones debido a su
inmensa utilidad —y se siguió utilizando pese a no estar suficientemente bien
fundamentado—, recibió críticas desde el punto de vista filosófico,
notablemente por parte del obispo Berkeley (1685-1753), quien preguntaba qué
clase de entidades eran ésas, infinitamente pequeñas y que se «desvanecían». No
le encontraba sentido alguno. Y la verdad es que no le faltaba razón, puesto
que no había una buena respuesta para estas cuestiones en ese momento.
Pero finalmente, en el siglo XIX, se consiguió forjar un aparato formal que
trataba estas cuestiones con rigor y más o menos explicaba qué significaban las
cantidades que se «desvanecían». De modo que el problema de lo infinitamente
pequeño parecía resuelto, y el análisis matemático, rigurosamente justificado.
Sin embargo, el tema del infinito no hacía sino empezar. Faltaba enfrentarse
con las cantidades infinitamente grandes, y ésa fue la tarea de Georg Cantor
(1845-1918).
§. Cantor y los infinitos
Para encontrarnos con conjuntos que ningún número pueda contar debemos recurrir
al mundo de los objetos matemáticos. Pero no necesitamos adentrarnos demasiado:
ahí nomás, en el zaguán, tenemos a los números naturales (1, 2, 3, 4, 5,...),
que obviamente son infinitos, terriblemente infinitos. Y cuando uno se enfrenta
con conjuntos infinitos, enseguida encuentra que funcionan de manera peculiar,
para decirlo suavemente. Si no, miren el famoso ejemplo del hotel de Hilbert.
Para mostrar la dificultad de concebir el infinito, el gran matemático David
Hilbert ponía como ejemplo un hotel de infinitas habitaciones y un viajero que
llega durante una noche de tormenta y ve en la puerta el cartel que dice
COMPLETO. En un hotel finito, la temible palabra sumiría a nuestro viajero en
la desesperación (el hotel de Hilbert queda a cientos de kilómetros de
cualquier otro lugar civilizado, en medio de un páramo, rodeado de ciénagas
espantosas repletas de cocodrilos). Pero en este caso nuestro viajero pide
tranquilamente un cuarto. El conserje no se inmuta (en realidad ni siquiera se
sorprende). Levanta el teléfono y da una orden general: que el ocupante de la
habitación uno se mude a la habitación dos, el de la habitación dos a la
habitación tres, el de la tres, a la cuatro, y así sucesivamente. Mediante esta
sencilla operación, la habitación uno queda vacía, lista para el nuevo huésped,
todos los ocupantes del hotel tienen, como antes, una habitación, y el hotel
seguirá, también como antes, completo.
Ahora supongamos que en vez de llegar un solo viajero llegaran infinitos. El
conserje, esta vez, indicaría al ocupante de la habitación uno que se mudara a
la dos, al de la dos, a la cuatro, al de la tres, a la seis, y otra vez
lograría acomodar a la multitud recién venida en las habitaciones impares, que
quedarían todas vacías. Y si el dueño del hotel decidiera clausurar la mitad de
las habitaciones, no por eso la cantidad de cuartos cambiaría. Sería la misma y
tan infinita como antes. El particular comportamiento del Hotel de Hilbert es
apenas una pequeña anomalía que se presenta al manejarse con el infinito. Hay
más. Digamos de paso que el hotel de Hilbert es una fantasía matemática que no
podría tener realidad física, ya que, si el universo es finito, no cabría en
él, y si no lo es, como en el caso de los granos de arena, tendría una masa y
un volumen infinitos, que producirían trastornos en cualquier tipo de universo
con el que nos manejemos.
Pero volvamos a Cantor, quien empezaba a pensar las cosas desde el punto de
vista de la teoría de conjuntos. Y fue justamente trabajando con conjuntos que
se dio cuenta de algo muy raro. Dos conjuntos son iguales si se pueden poner en
relación uno a uno sus elementos. Cuando uno se pregunta, por ejemplo, si hay
más números naturales o más números pares, conjuntos infinitos ambos, la
primera tentación es decir que hay más naturales que pares, ya que solamente algunos
de los naturales son pares. Cantor demostró que la respuesta intuitiva, como
tantas otras veces, no era correcta. Para determinarlo, no había más que poner
en correspondencia los dos conjuntos:
1 → 2
2 → 4
3 → 6
y así siguiendo.
Como es evidente, siempre habrá un número a la derecha que se puede poner en
correspondencia con uno de la izquierda, y además, tanto en la columna de la
derecha como en la de la izquierda están todos los elementos del conjunto.
Dicho de otra manera, los números naturales y los números pares pueden ponerse
en correspondencia uno a uno, lo cual significa afirmó Cantor que, aunque sean
infinitos, hay exactamente la misma cantidad, a la que llamó aleph (la
primera letra del alfabeto hebreo) sub cero (א0).
Había inventado el primer número transfinito. א0 mide la
cantidad de números naturales, la cantidad de números pares, y la de múltiplos
de cualquier número. También sirve para describir el conjunto de los números
enteros negativos e incluso el de las fracciones. Esto quiere decir, nada más y
nada menos, que hay tantos números naturales como números pares, como
fracciones y como habitaciones en el hotel de Hilbert. La misma cantidad. Todos
ellos son conjuntos numerables, como se llaman aquellos medidos por א0,
el menor y más hogareño de los infinitos. Es interesante saber que ya Galileo
había notado este peculiar comportamiento de los conjuntos infinitos y había
notado también que, simplificando un poco, hay la misma cantidad de números
naturales que de pares, con el mismo razonamiento que usaría Cantor dos siglos
después.
Pero la cosa fue más allá: ese raro comportamiento fue sólo la primera sorpresa
de las muchas y muy razonables que Cantor tenía para sacar de la galera. La
siguiente, aún más extraña que la anterior, fue que los infinitos no son todos
iguales.
En efecto, Cantor demostró que la cantidad de números irracionales, o la
cantidad de puntos de una recta, es mayor que aleph cero, es decir que hay más
números irracionales que números naturales, enteros o fraccionarios. El número
transfinito que los mide es más grande que aleph cero: familiarmente se lo
llama c , la potencia del continuo. Los puntos de una recta,
las rectas de un plano, los números irracionales, tienen la potencia del continuo.
En el recuadro de la página siguiente les demuestro por qué los números
irracionales son más que los naturales y los pares.
De modo que si al hotel de Hilbert, que tiene aleph cero habitaciones, llegaran
c viajeros, no habría manera de ubicarlos, aunque el hotel estuviera vacío: las
habitaciones no alcanzarían. Esta distribución jerárquica de los infinitos, que
tanto (y tan comprensiblemente) sorprendió a los colegas de Cantor, no termina
con c. Existen más infinitos, cada vez más grandes, que excitan la
fantasía y el misterio.
De cualquier manera, los números transfinitos de Cantor y las operaciones que
éste mostró que se podían hacer con ellos no convencieron a todo el mundo.
Aunque Hilbert llegó a decir que Cantor había mostrado «un paraíso del que
nadie nos expulsará», matemáticos tan importantes como Kronecker consideraron
que toda la aritmética transfinita no era más que una simple locura.
Medir los infinitos
Los númerosirracionales son aquellos que no pueden expresarse como un
cociente de dosnúmeros enteros y que tienen infinitas cifras decimales (no
periódicas). Porejemplo, la raíz de dos es 1,414213562373… y así siguiendo, o
pi es 3,14159…,etcétera (ya se conocen varios millones de cifras decimales de
pi, que nopongo aquí por obvias razones). Pero lo cierto es que tanto pi como
la raízde dos, dos números de la más grande importancia para la historia
delpensamiento científico, tienen infinitas cifras decimales.
Ahora supongamosque efectivamente tenemos una lista que pone en correspondencia
a los númerosnaturales con los irracionales. Sería algo de este tipo (por
comodidadtomamos los números irracionales comprendidos entre 0 y 1, es decir,
queempiezan con 0 y tienen infinitas cifras decimales):
1 → 0, 34526578568987409865389….
2 → 0,453432349067685648738883….
3 → 0, 8423212154789076895674….
Y así siguiendo.
Es fácil mostrarque la lista de la derecha no es exhaustiva, es decir, si yo
puedo exhibirpor lo menos un número irracional que no está en la lista que
estoypostulando, entonces quedaría demostrado que la lista de la derecha no
escompleta y, por ende, que el infinito que la representa es más grande.
Yefectivamente yo puedo concebir ese número. Pensemos en un número
irracionalcuya primera cifra sea diferente de la primera cifra decimal del
primero dela lista (o sea, diferente de 3), cuya segunda cifra sea diferente de
la delsegundo (5), cuya tercera cifra sea diferente de la del tercero (2) y
asísucesivamente. Es evidente que ese número no está entre los
númerosirracionales que yo emparejé con los naturales. Porque si digo que está
en laposición, por ejemplo, 1.000.000, estaría mintiendo flagrantemente, porque
lacifra número un millón será distinta. Y esto pasa con cualquier posición en
laque pruebe.
De manera quequeda demostrado que la lista de la derecha no abarca a todos
losirracionales; algunos quedan afuera, y por lo tanto su cardinal, el
númerotransfinito que lo describe, es mayor que aleph 0, lo cual significa
que…¡hay infinitos más grandes que otros!
Lo cierto es que era un verdadero sacudón: así como las geometrías no
euclidianas habían puesto en cuestión el espacio cómodo y euclidiano en el que
se pensaba toda la física de la época, la teoría de los conjuntos infinitos
contribuiría a desatar una crisis en la teoría de conjuntos que pondría en
jaque a las matemáticas de principios del siglo XX y que se conoce como «la
crisis de los fundamentos». Parecía que no sólo la geometría podía estar
equivocada sino, lo que era mucho más grave, todo el basamento de las
matemáticas.
III. El éter
Eran épocas de conmoción. El siglo XIX parecía haber construido un
edificio de conocimiento gigantesco sobre el que sólo faltaba seguir agregando
pisos (acaso indefinidamente), pero cuyas bases, se creía, estaban tan
sólidamente establecidas que nada podría hacerlas tambalear. Y de repente
aparecían nuevas geometrías e insospechados infinitos, que, por más abstractos
que fueran, hacían pensar que la estructura podía no ser tan firme. Para colmo,
de un momento a otro, el longevísimo éter —esa sustancia empírica, metafísica e
inasible que se arrastraba desde los tiempos de los griegos, que se aferraba
con uñas y dientes a la existencia, que llenaba uniformemente el espacio y que
se encargaba de sostener un edificio cuyas rajaduras ya se tornaban visibles—
empezó a dar muestras de inexistencia.
§. Biografía del éter
Ya hemos hablado de esto antes, pero vale la pena repasarlo para entender el
grado de importancia que tuvo la cuestión del éter. Cuando Aristóteles acuñó
por dos milenios este feo asuntillo de los cuatro elementos (tierra, agua, aire
y fuego), que había tomado de Empédocles, inventó un quinto elemento, una
quintaesencia para los cielos, libres de corrupción, sujetos a regularidades
eternas, y donde el cambio estaba prohibido. Como podrán adivinar, se trataba
del éter, que formaba las esferas y los planetas y aseguraba la perfección del
espacio supralunar.
Recordemos que para Aristóteles, discípulo de Platón a pesar de las enormes
diferencias que separan sus filosofías, había dos mundos ontológicamente
diferentes, gobernados por leyes diferentes y formados por sustancias
diferentes: el sublunar, corrupto y cambiante, y el supralunar, de la órbita de
la Luna para afuera, perfecto y eterno, donde el cambio no era posible. El
hecho es que, como componente exclusivo del mundo supralunar, desde su
nacimiento el éter no fue de este mundo: formaba las esferas, pero más allá de
cualquier alcance. La palabra griega «aether» significaba
originariamente el cielo azul, o el aire de las alturas, supuestamente más puro
y distinto del aire más bajo, al nivel de tierra. Los romanos importaron la
palabra, y Lucrecio (siglo I a.C.), en su De rerum natura habla
del
innubilus aether divum numen sedesque quietae.
(el éter sin nubes que cubre y protege a la divinidad y sus lugares de
paz)
El éter aristotélico persistió durante la Edad Media como una pieza de la
cosmogonía, como aquello que ocupaba los espacios vacíos, como una sustancia
metafísica y teológica no muy implicada con las cosas prácticas, modestamente
fuera de alcance de los mortales —lo cual, dicho sea de paso, no era un gran
inconveniente en una época poco inclinada hacia la experiencia, y más propensa
al sueño y la imaginería—.
Pero cuando Descartes decidió reconstruir el conocimiento sobre bases firmes,
le dio al éter un papel muy distinto. Puede parecer raro, porque uno diría que
en el universo rígidamente mecanicista de Descartes, el éter (incoloro,
inodoro, insípido y casi puramente metafísico), en principio no parecía un
personaje adecuado. Pero como Descartes no aceptaba la existencia del vacío, ya
que para él la materia era inseparable de la extensión (el espacio), su
universo era un plenum, y como era un plenum algo
tenía que ocupar todos los huecos en los que no hubiera nada. El candidato a
ocupar ese lugar, naturalmente, fue el éter, que Descartes describió como
«materia sutil», infinitamente divisible y sin límites en extensión.
El éter cartesiano era diferente del aristotélico; no se limitaba a llenar,
como una mera presencia ontológica que tranquilizaba conciencias con horror al
vacío. Nada de eso: el éter era activo, estaba por todas partes y transportaba
las fuerzas magnética y gravitatoria (ya que, recordemos, Descartes tampoco
aceptaba la acción a distancia). La fuerza no podía transmitirse sino por la
presión o el impacto, esto es, sólo por contacto, de modo que el éter
cartesiano era el encargado de formar los torbellinos o vórtices que
funcionaban como vehículos de las acciones a distancia, fueran cuales fueren.
En el sistema de Descartes, era la fuerza activa más potente del universo,
aunque desde ya era imposible saber de qué estaba hecho o qué clase de cosa
era.
Cuando Newton tomó las riendas del mundo, construyendo su sistema pavoroso,
basado en la acción a distancia y las fuerzas que se propagan a través del
vacío, el éter pudo haber sufrido un sacudón. Pero no fue así. El mismo Newton
aceptaba el éter (naturalmente, un éter de naturaleza corpuscular) y le
atribuía la propiedad de conducir el calor, e incluso llegó a especular con que
la fuerza de gravitación se debía a presiones del éter sobre los cuerpos, o
deformaciones del éter, aunque finalmente optó por atenerse a su máxima: «yo no
formulo hipótesis».
En realidad, el problema, como tantas veces, era la luz. Newton concebía la luz
como un flujo de corpúsculos a los cuales se les podían aplicar las leyes de la
mecánica, entre ellas, la de gravitación universal. Pero tanto su rival Hooke
como Huygens sostenían que los fenómenos luminosos se explicaban mucho mejor
partiendo de la hipótesis de que la luz no está formada por corpúsculos, sino
que consiste en ondas, pequeñas vibraciones.
¿Vibraciones de qué? Porque cuando la luz se propaga en el vacío… ¿qué es lo
que vibra? El vacío no es nada, y la nada no puede vibrar. El éter se deslizó
por la ranura luminosa para que la teoría ondulatoria pudiera vivir y hubiera
algo que vibrara transportando la luz.
Ya no era un éter activo, como el que proponía Descartes, ni tenía las
propiedades mecánicas que lo llevaban a formar torbellinos y generar los
movimientos; tampoco formaba los cuerpos celestiales de Aristóteles. Ahora era
puramente pasivo: no ofrecía ninguna resistencia al movimiento de los cuerpos
que lo atravesaban (o que él atravesaba).
El éter ya era de por sí bastante inverosímil, pero a medida que la teoría
ondulatoria de la luz se afianzaba, fue adquiriendo características
estrafalarias. Los trabajos de Young y de Fresnel mostraron que las vibraciones
luminosas eran perpendiculares a la dirección de propagación. Y para que esto
pudiera ocurrir, el éter tenía que ofrecer algún tipo de resistencia a la
deformación. Pero si esto ocurría, resultaba que el éter se comportaba como un
sólido elástico, lo cual generaba un inconveniente nada pequeño: ¿cómo hacían
los inmensos planetas en el cielo para atravesar enormes distancias de un
sólido elástico? Este asunto de los planetas era un engorro, pero se solucionó
con cierta facilidad: G. G. Stokes, en 1845 —y noten el año— sugirió que el
éter se comportaba como un sólido para las vibraciones muy rápidas como las de
la luz, pero como un fluido para movimientos muy lentos como los de los
planetas, y describió sus propiedades mediante un conjunto de espeluznantes
ecuaciones.
La hipótesis del éter se reforzó cuando el físico escocés James Clerk Maxwell,
entre los años 1864 y 1873, unificó los conceptos de electricidad y magnetismo
mostrando que eran aspectos de un único fenómeno, el electromagnetismo, y
mediante un puñado de leyes muy simples logró explicarlo por completo y
predecir la existencia de ondas electromagnéticas (entre ellas la luz). ¿Cuál
era el soporte material de esas ondas? El éter, por supuesto.
Las cosas pasaban a mayores. En tiempos en que ya se manejaba la tabla de
Mendeleev y se estaba ante las puertas de la radiactividad era muy difícil
aceptar una sustancia con una naturaleza química tan indeterminada. ¿De qué
estaba hecho, en efecto, el éter? Parecía una sustancia puramente metafísica,
por más extravagante que eso suene. Pero incluso si se hubiese aceptado que lo
fuera: ¿de qué manera una sustancia puramente metafísica podía comportarse como
un sólido elástico o como un fluido? El éter era químicamente molesto,
completamente anacrónico.
Y además —y esto sería determinante— estaba en reposo absoluto en el propio
espacio en reposo absoluto. Y si el éter estaba en reposo absoluto, el
movimiento absoluto debía existir también. Porque si el éter en reposo absoluto
llenaba todo el universo, la Tierra, al moverse a través de él, debía recibir
una corriente de éter (de la misma manera que un avión en movimiento recibe una
corriente de aire en contra de su movimiento). Y esa corriente tenía que poder
ser medida.
Es lo que se propuso el físico norteamericano Abraham Michelson.
§. El experimento de Michelson-Morley
En el fondo, la idea de Michelson era sencilla. Puesto que el éter estacionario
era una cosa material y rodeaba la tierra como un océano, ésta, al moverse en
él, debía recibir una corriente de éter en contra. Así, si se enviaba un rayo
de luz en la dirección contraria a la corriente de éter y un rayo de luz en
dirección perpendicular a la corriente, el rayo en dirección contraria a la
corriente debía mostrar un pequeño retraso respecto del otro, del mismo modo
que la corriente de un río retrasa el movimiento de un bote, pero no influye en
quien lo cruza a nado perpendicularmente.
En vista de ello, Michelson ideó el siguiente experimento: enviaría un rayo de
luz en una distancia definida y otro en una distancia igual pero en ángulo
recto a la dirección del primero. Ambos rayos se reflejarían en un espejo y
volverían en seguida a su punto de partida común. El viento de éter tenía que
producir un retraso en uno de los dos rayos.
El experimento tenía que estar preparado para detectar diferencias mínimas, y
para no ser afectado por las condiciones externas (vibraciones del edificio,
por ejemplo) pero esa exigencia no lo arredró, y diseñó un ingenioso aparato
llamado interferómetro. Trazó los planos de una máquina que fue construida por
un fabricante de Berlín, y con ese nuevo instrumento realizó el experimento.
O los experimentos, mejor dicho.
El primero se realizó en el laboratorio de Helmholtz, en el Instituto Físico de
Berlín. El instrumento fue colocado sobre un basamento de piedra, pero las
vibraciones del tránsito por la noche causaban alteraciones. Michelson, en
vista de ello, fue al Observatorio Astrofísico en Potsdam, en abril de 1881,
para realizar otra tentativa. Allí, el instrumento extraordinariamente sensible
dio resultados, aunque las pisadas en la calle a una manzana del sótano del
observatorio dificultaron grandemente la medición.
La cosa es que los experimentos de Michelson no detectaron retardo alguno en la
transmisión de la luz en ningún sentido: los rayos volvían en el mismo
instante. Dio cuenta de sus averiguaciones en el número de agosto de 1881
del American Journal of Science bajo el título «The
relative motion of the earth and the luminiferous ether» («El movimiento
relativo de la Tierra y el éter lumínico»).
Desde ya, no todos se convencieron y lo que siguió fue la crítica más habitual
para cualquier experimento que contradiga las creencias arraigadas: que estaba
mal hecho. Así, por ejemplo, sir Oliver Lodge, una figura prominente en los
círculos científicos ingleses, se negó a aceptar la conclusión experimental de
Michelson, y siguió definiendo al éter como
una sustancia continua que llena todo el espacio, que puede vibrar luz,
que puede ser transformado en electricidad positiva y negativa, que en
torbellinos constituye materia y que transmite por continuidad y no por impacto
todas las acciones y reacciones de que es capaz la materia.
Digamos, de paso, que el propio Michelson tampoco estaba demasiado
convencido del asunto. De modo que decidió seguir probando. En 1866 conoció a
Edward W. Morley, del Western Reserve College, y juntos proyectaron otra serie
de experimentos, que fue generalmente conocida con el nombre de «experimento
Michelson-Morley». En 1887, todo el voluminoso aparato (muy mejorado) fue
montado en una pesada losa de piedra que flotaba en mercurio para evitar
errores debidos a vibraciones, presiones y tensiones. Otra vez no apareció
retraso alguno en ese ir y volver de la luz.
Los resultados eran claros: no había ningún éter estacionario. Michelson
informó, sin embargo, que los resultados de su experimento
podían ser explicados por la suposición de que la Tierra arrastra al
éter casi a su misma velocidad, de manera que la velocidad relativa entre el
éter y la superficie de la Tierra es cero o sumamente reducida.
Pero además de esta posibilidad, existía otra. Aunque era extraña,
extrañísima, tanto que era difícil creerla.
§. La solución de Fitzgerald-Lorentz
Aun de existir un éter, el resultado obtenido por Michelson y Morley podía
explicarse. Es más, en 1895, dos matemáticos y físicos, George F. Fitzgerald,
del Trinity Collage de Dublín, y Hendrik A. Lorentz, de Leyden, ofrecieron una
explicación, aunque, como les dije, muy extraña. Basados en ciertas propiedades
del campo eléctrico, partieron de la base de que la longitud de un objeto
cambia con el movimiento. Una varilla disminuye su longitud, para un observador
externo en reposo, si se mueve a través del espacio siguiendo la dirección de
su longitud, y la disminución —es decir, la diferencia en la longitud de la
vara cuando está inmóvil y cuando se mueve a gran velocidad— depende de esa
velocidad.
Es verdad que el efecto no se siente a velocidades bajas, aunque existe, pero
empieza a hacerse perceptible cuando las velocidades crecen mucho, y se
aproximan a la de la luz. Los cálculos matemáticos demostraban que una
velocidad de 480 kilómetros por hora causaría una reducción de sólo un
billonésimo de uno por ciento, disminución que, naturalmente, nuestros
instrumentos no podrían registrar. Pero cuando usaban una velocidad teórica de
145.000 kilómetros por segundo, la disminución llegaba a un trece por ciento.
Al ser aumentada esta velocidad, también aumentaba ese porcentaje, hasta que
finalmente, según sus cálculos, cuando la velocidad llegaba a los 300.000 kilómetros
por segundo (la velocidad de la luz), el porcentaje de la reducción llegaba a
un ciento por ciento. En otras palabras, a esta velocidad la vara desaparecía
como consecuencia de una reducción total.
Esta nueva idea podía explicar con un grado suficiente de plausibilidad el
resultado aparentemente negativo de los experimentos de Michelson-Morley,
porque no habían tenido en cuenta la reducción del brazo del interferómetro
durante las mediciones. El efecto de esta reducción era justo lo suficiente
para contrarrestar el retardo de la luz por el éter: las conclusiones de
Michelson habían ignorado totalmente el fenómeno expresado en la teoría de la
contracción de Lorentz-Fitzgerald.
Era un planteo desconcertante para cualquiera acostumbrado a pensar en términos
de la física tal como se conocía hasta entonces y, como era de esperar, alteró
a los físicos tradicionalistas, que lo consideraron completamente fantástico.
Algunos de ellos, incluso, evocaron la observación del físico norteamericano
Josiah Willard Gibss, que había hecho fundamentales aportes al desarrollo de la
termodinámica:
Un matemático puede decir lo que se le ocurra, pero el físico debe estar
por lo menos parcialmente cuerdo.
La explicación de Lorentz-Fitzgerald, a pesar de su audacia y de su
eficacia para salvar los resultados aparentemente negativos de los experimentos
en la derivación del éter de Michelson, seguía basándose en las leyes de la
física clásica tradicional. Y aunque hizo vacilar a los hombres de ciencia, no
los derribó por completo. Al fin y al cabo, las leyes clásicas del movimiento
de Newton seguían rigiendo.
Pero faltaban algunas sorpresas. De las ecuaciones de Fitzgerald-Lorentz se
deducía también que el tiempo variaba con la velocidad: cuanto mayor fuera la
velocidad a la que se movía un objeto, más lentamente transcurría el tiempo
para un observador externo. A lo cual se agregó la masa, cuya variación con la
velocidad fue confirmada por Walter Kauffman a partir de 1901. Todo se
transformaba a medida que la velocidad aumentaba: parecían violarse de a poco
los principios de la gran construcción de la física clásica.
Y, de hecho, se produjo un verdadero impasse en el mundo de la
física, que era incapaz de explicar los insólitos resultados salvo recurriendo
a hipótesis que lindaban con la fantasía. Así, el «fracaso» del experimento de
Michelson-Morley abriría un nuevo capítulo, no sólo en la física, lo cual ya
sería mucho decir, sino en la propia concepción que tenemos del universo.
Interludio:
La biblioteca de Babel y el infinito
El universo (que otros llaman la Biblioteca) se compone de un número
indefinido, y tal vez infinito, de galerías hexagonales con vastos pozos de
ventilación en el medio, cercados por barandas bajísimas.
JORGE LUIS BORGES, «La Biblioteca de Babel»
Los hombres siempre acostumbraron a jugar con los grandes números: en
una de sus piezas maestras, Borges imagina al Universo como una vasta
biblioteca de hexágonos regulares que se extienden sin límite en todas
direcciones: a cada uno de los muros de cada hexágono corresponden cinco
anaqueles; cada anaquel encierra treinta y dos libros de formato uniforme; cada
libro es de cuatrocientas diez páginas; cada página de cuarenta renglones; cada
renglón, de ochenta letras de color negro, donde prolijamente se alinean
veinticinco símbolos ortográficos, sin orden ni significado alguno. El universo
físico es una penosa selección de posibilidades: la Biblioteca de Borges, por
el contrario, es total y sus anaqueles registran todos los libros posibles que
pueden construirse combinando los veinticinco símbolos ortográficos: número,
aunque vastísimo, no infinito.
En efecto, el número no es infinito, en efecto es vastísimo. Borges intenta
inducir (y lo logra) en el lector la zozobra de la totalidad. Pero ¿a cuánto
asciende la totalidad? O mejor dicho: ¿cuántos libros hay en la Biblioteca de
Babel? La piadosa aritmética permite que el cálculo sea simple. Elementales
multiplicaciones nos indican que en cada libro hay un millón trescientos doce
mil espacios. Un sencillo razonamiento permite inferir cuántos libros
diferentes pueden construirse en esas condiciones. Puesto que en el primer
espacio puede figurar cualquiera de los veinticinco signos que menciona el
autor, sólo para el primer lugar hay ya veinticinco posibilidades distintas.
Pero esas veinticinco posibilidades se multiplican por veinticinco al llegar al
segundo espacio, ya que allí también puede aparecer cualquiera de los signos
ortográficos (debe recordar el lector que los libros no necesitan tener
sentido, basta que sean posibles). Esas 625 (25 x 25) posibilidades que brindan
los dos primeros lugares se bifurcan nuevamente en el tercero, y en el cuarto,
hasta llegar al último espacio del último renglón de la última página; para
saber cuántas posibilidades hay en total tengo entonces que multiplicar 25 por
sí mismo un millón trescientas doce mil veces: el número que describe el
resultado no tiene nombre propio en ningún idioma: es un uno seguido de
1.836.800 ceros. Un hombre dotado de la suficiente paciencia podría llegar a
escribirlo, pero ningún hombre (probablemente) puede imaginarlo. Para abarcar
la malévola inmensidad de esa cifra es necesario recurrir al más antiguo y
perverso de los trucos: la comparación.
El número de átomos que existen en el universo se puede representar
generosamente por un uno seguido de cien ceros: la cantidad, al lado del número
de volúmenes de la Biblioteca, es francamente ridícula: si en cada átomo del
universo se colocara un libro, no habríamos ubicado ni siquiera un milésimo por
ciento del total de los libros.
Sin embargo, el hecho de que los átomos sean tan claramente insuficientes no
debería descorazonar a nadie, ya que el Universo real, que nuestros
radiotelescopios exploran hasta una distancia de diez mil millones de años luz,
no sólo no está lleno de átomos, sino que es casi en su totalidad espacio
vacío. ¿Cabrá la Biblioteca en semejante inmensidad?
Aunque el autor no da mayores precisiones métricas, señala que cada uno de los
volúmenes es de tamaño normal: tomando como guía la edición de las Obras
completas de Borges, podemos conjeturar que las dimensiones de cada
libro son 22 cm de alto por 13 cm de ancho y 2 centímetros de espesor: 572
escasos centímetros cúbicos. Si prescindiendo de los anaqueles (que ocupan un
molesto espacio en la vana pretensión del orden) juntáramos todos los libros en
una masa compacta, la esfera así formada tendría un radio, expresado en años
luz, de un uno seguido de 7.203 ceros. La Biblioteca de Babel no cabe en el
Universo: si lo llenáramos con los libros, sin dejar resquicio alguno,
nuevamente no habríamos hecho sino empezar. Los diez mil millones de años luz
de distancia (un uno seguido de tan sólo diez ceros) que nos separan de los
quásares más lejanos nuevamente quedan reducidos a la insignificancia.
Y otra cosa más: la densidad del universo (el número de átomos por centímetro
cúbico) según las todavía imprecisas estimaciones actuales anda muy cerca del
valor crítico, que determinaría si el universo seguirá su expansión
indefinidamente o se contraerá finalmente sobre sí mismo. La densidad de la
Biblioteca de Babel es muchísimo más alta, y produciría el colapso gravitatorio
del cosmos. Es decir: si el universo fuera en realidad la Biblioteca, el
universo no existiría, o tal vez dado que nuestros conocimientos sobre los
primeros instantes son todavía difusos, nunca podría haber existido. Sin
embargo, Borges fue un creador de universos, y su Biblioteca brilla allí, ya
eterna, verdadera, incesante. Señalando la angustia de no poder imaginar la
totalidad.
Capítulo 31
Einstein y la Teoría de la Relatividad
Si mi teoría resulta cierta, los alemanes dirán que soy un alemán y los
franceses que soy un alemán que debió huir de su patria; si mi teoría resulta
falsa, los franceses dirán que soy un alemán y los alemanes dirán que soy un
judío.
ALBERT EINSTEIN
Después de un largo y a veces arduo camino que nos condujo a través de
las especulaciones de Platón, los trabajos de Tolomeo, la revolución de
Copérnico, la relatividad de Galileo, la síntesis de Newton, el derrumbe del
éter y las geometrías no euclidianas, llegamos, finalmente, a la figura de
Albert Einstein, el creador de algunas de las teorías más importantes de la
historia de la física: teorías que, sin lugar a dudas, marcaron el rumbo del
pensamiento en el siglo XX y que, hasta hoy, se mantienen incontestadas,
guiando el rumbo de miles de científicos de todo el mundo.
Sería bueno empezar a hablar directamente de él (tiene méritos de sobra), pero
no entenderíamos nada si no volviéramos un poco sobre nuestros pasos. Ahí
vamos.
§. La crisis del fin del siglo XIX
Cuando todavía faltaban tres décadas para entrar en el siglo XX, el
impresionante edificio de la ciencia newtoniana alcanzó una nueva culminación:
en 1864 James Maxwell exhibió una formidable síntesis. De un saque y con un
puñado de ecuaciones, resumió dos siglos y medio de experimentación y logró
explicar todos, pero todos, los fenómenos eléctricos y magnéticos conocidos
hasta entonces, mostrando, de paso, que electricidad y magnetismo no eran sino
dos caras de una misma moneda. Fue una hazaña grandiosa, a la manera de Newton;
de pronto, una región entera de la física y del conocimiento se estructuraba
matemáticamente, como había previsto y querido Galileo.
Claro que tuvo sus colofones increíbles, porque hete aquí que operando con las
ecuaciones y combinándolas, Maxwell obtuvo una ecuación idéntica a la que
describía el desplazamiento de las ondas. Fiel y leal a la idea de que el libro
de la naturaleza está escrito con caracteres matemáticos (y que, además,
traduce a la naturaleza real), concluyó que si en el electromagnetismo aparecía
la ecuación de las ondas, entonces tenían que existir ondas
electromagnéticas. Fue una predicción genial: nueve años después de su muerte
en 1888, Heinrich Hertz (1857-1894) logró emitir una señal y recibirla pocos
metros más allá dentro de su laboratorio. Era la primera transmisión humana de
una onda electromagnética en la historia. Ya estaban allí en germen la radio,
la televisión y las señales enviadas por las naves que exploran los límites del
Sistema Solar.
Maxwell tuvo una segunda intuición igualmente genial: sugirió que la luz
también era una onda electromagnética, esto es, campos eléctricos y magnéticos
que vibraban y se perseguían en el éter, esa sustancia invisible, inodora,
insípida, perfectamente porosa, totalmente elástica cuando hacía falta y por
completo rígida si era necesario, y que, casi como artículo de fe, llenaba
uniformemente el universo desde los tiempos de Aristóteles.
El electromagnetismo abría una interesante posibilidad. La física tradicional
(de Aristóteles) establecía una distinción decisiva entre el movimiento y el
reposo: lo que se movía, se movía, y lo que estaba quieto, estaba quieto. El
movimiento era algo absoluto. Galileo rechazó esa afirmación: el movimiento no
es algo absoluto que hacen los móviles, sino que es simplemente una relación
entre ellos: lo que está en reposo para alguien, se está moviendo para otro
observador, y por lo tanto es indistinguible del reposo: si viajamos en un
barco, por ejemplo, los objetos del barco nos parecerán en reposo. Ni qué
hablar en un avión, aunque Galileo no podía saberlo.
El principio de relatividad de Galileo, piedra de toque de la ciencia moderna y
perfectamente establecido desde el siglo XVII, base también de los Principia de
Newton, dejaba bien en claro que el movimiento rectilíneo y uniforme era
siempre relativo y que ningún experimento mecánico permitía detectarlo: nada de
lo que ocurre dentro de un avión lanzado a velocidad crucero demuestra que se
está moviendo.
Newton aceptaba el principio, desde ya, y relegaba el concepto de «reposo
absoluto» para el espacio en su conjunto. El «espacio mismo», signifique esto
lo que signifique, estaba en «reposo absoluto», aunque advertía que ningún
experimento mecánico detecta el movimiento rectilíneo y uniforme respecto de
ese espacio absoluto inmóvil (las ecuaciones newtonianas no distinguen entre
reposo y movimiento rectilíneo y uniforme). No había manera de demostrar, por
caso, el movimiento de la Tierra mediante un experimento mecánico, del mismo
modo que es imposible demostrar, dentro de un avión, que se está moviendo. La
mecánica era taxativa.
Pero las ecuaciones de Maxwell también eran taxativas. Ellas sí distinguían
entre reposo y movimiento y predecían que el comportamiento de un rayo de luz
debía ser diferente según el sistema (sea que estuviera en reposo o en
movimiento). Esto es: después de todo, había una manera de medir el movimiento
absoluto de la Tierra a través del espacio absoluto. Ningún experimento
mecánico podía detectarlo, pero un experimento electromagnético sí tenía que
poder hacerlo.
Justamente es eso lo que se habían propuesto, como recordarán, Michelson y
Morley, que trabajaban con la hipótesis de que la Tierra, al atravesar el éter,
producía una corriente de ese mismo éter en contra, que sería capaz de retrasar
un rayo de luz. Aunque, como ya vimos, no les dio ningún resultado: no se
detectó ningún arrastre de éter. Los rayos se reflejaron y volvieron juntos. Y
aunque Michelson repitió el experimento una y otra vez, el rayo de luz no parecía
conmoverse ni siquiera mínimamente por el hecho de que hubiera una corriente de
éter en contra.
La situación era grave, ya que se había producido un choque evidente entre la
empiria y la teoría, entre el electromagnetismo, que predecía un arrastre de
éter, y la experimentación, que no lo encontraba. Uno de esos choques que se
arreglan con emparches que no convencen demasiado a nadie, mientras crecen el
malestar y el desasosiego. La física entraba en un atolladero y en una zona de
inestabilidad.
El experimento de Michelson y Morley, además de poner en entredicho una teoría
maravillosa como el electromagnetismo, causó sorpresa, una enorme sorpresa. Y
para percibir la magnitud, vale la pena intentar la analogía, tan distante de
la metáfora, que alimenta a la poesía o a la narración, que estructura la vida
humana y la historia. La analogía tiene contactos —tenues y distinguidos— con
la alegoría (esa derivación dudosa del arte) y el panfleto (ese producto tantas
veces necesario de la literatura).
Un automóvil se detiene a cargar nafta en una estación de servicio y en un día
perfectamente calmo; ni una brizna de hierba se conmueve, ni una brisa turba el
enorme océano de aire en reposo que rodea al pacífico mundo de los viajeros,
que por la radio escuchan, aquietados, un coral del infinito e inagotable Juan
Sebastián Bach. Terminada la faena, el auto arranca y alcanza la nada prudente
velocidad de ciento cincuenta kilómetros por hora en la autopista.
Naturalmente, dentro del automóvil, no habrá experimento mecánico alguno que
demuestre el movimiento una vez que se alcance una velocidad estable y los
objetos de adentro del automóvil permanecen (para los viajeros) en absoluto
reposo; el libro sobre las rodillas, la moneda que se tira al aire y se recoge,
mientras atraviesan el océano de aire en reposo que los rodea.
Pero todos saben que apenas intenten un experimento electromagnético, esto es,
un experimento que se desarrolle en el aire que se desplaza a ciento cincuenta
kilómetros por hora hacia atrás —y que en la analogía hace las veces de campo
electromagnético—, podrán darse cuenta de que el coche está en movimiento:
basta sacar una mano por la ventanilla y comprobar cómo el viento la golpea.
Pero hete aquí que al sacar la mano por la ventanilla en ese mundo electromagnético,
no se siente ninguna corriente de aire: el aire está tan en reposo como cuando
el auto se encontraba detenido en la estación de servicio. Y si se abren las
ventanillas, no habrá corriente alguna que haga volar los papeles del interior,
o que modifique las cosas, o que haga que el sonido se propague en el aire
dentro del coche de una manera diferente. Y lo mismo ocurre con todos los autos
que circulan por la autopista: sin importar la velocidad a la que se muevan, o
que estén detenidos al costado, quien saque una mano por la ventanilla o la
abra encontrará que el aire externo está en reposo.
Para Michelson y Morley y el electromagnetismo de entonces, la Tierra era el
automóvil que recorría a toda velocidad un mar de éter en reposo, y cuando los
dos físicos sacaron la mano con sus aparatos, encontraron que el éter estaba
tan en reposo como si la Tierra estuviera quieta, por lo cual era incapaz de
modificar el comportamiento de un rayo de luz.
Nadie debía inquietarse porque se encontrara el asunto extraño, incomprensible
y desconcertante: efectivamente, parecía urgente encontrar alguna solución. En
este sentido, ya les conté la propuesta de Lorentz y Fitzgerald, quienes
imaginaron que, con el movimiento, las distancias se contraen y los tiempos se
dilatan. Aceptando esas extrañas propiedades del tiempo y el espacio y haciendo
los cálculos apropiados, se entendía por qué el experimento de Michelson-Morley
no había revelado ningún retraso en el rayo de luz, ya que los dos
experimentadores norteamericanos no habían tenido en cuenta la contracción de
los brazos de su aparato en la dirección del movimiento.
Pero la explicación tenía un punto flojo: ¿por qué se van a contraer los
cuerpos con el movimiento? ¡Si no hay ninguna razón para que lo hagan! En
realidad, era una solución de compromiso, una transacción ad hoc,
que dejaba a salvo el éter, el electromagnetismo, el rayo de luz que no se
retrasaba y la predicción de que se retrasaría. Arreglaba las cosas, pero al
costo de un dolor de cabeza. Por primera vez se habían tocado el espacio y el
tiempo, esos dioses que reinaban desde la época de Newton, y que parecían
intocables. Era un poco chapucero, pero el daño estaba hecho.
A fines del siglo XIX, Occidente en general se aproximaba lenta pero firmemente
a una seria crisis, no solamente en la física sino también en el nivel político
y cultural: la paz armada y la competencia capitalista entre las potencias
europeas desembocarían en la guerra del 14 y el ascenso del socialismo y el
movimiento obrero en las revoluciones rusas; la pintura se desprendía de la
forma, enfilaba hacia el cubismo y, más allá, la abstracción; la música
ensayaba disonancias; la literatura iniciaba el camino que la apartaría del
naturalismo y desembocaría en el fluir de la conciencia de Proust, Woolf y
Joyce; las matemáticas sufrían los rigores de la teoría de conjuntos, que
sacudirían la filosofía y que rematarían en el Círculo de Viena y en el
positivismo lógico.
La física, que en el siglo XIX se jactaba de poder explicar todo lo existente,
por su parte, estaba en un brete bastante serio. Ya contamos los problemas que
había traído el electromagnetismo de Maxwell, el conflicto del éter y el
desastre de la experiencia de Michelson y Morley. Pero no era el único frente
de tormenta: hacia fines del siglo XIX se había profundizado la investigación
en el terreno del átomo; primero los rayos X y luego la radiactividad ofrecían
avalanchas de datos sin una teoría comprensiva. En el año 1900, Max Planck
había propuesto una explicación del fenómeno de la radiación del cuerpo negro
(un problema heredado del siglo XIX) que contenía una hipótesis novedosa y
sobre todo herética (cuyos alcances el mismo Planck estaba lejos de imaginar).
Planck suponía que la energía era emitida de manera discreta, en «paquetes», o
«cuantos» de energía, es decir, rompiendo el baluarte de la continuidad que
ostentaba hasta entonces el concepto de energía. Eso, en 1900.
En 1903 ingresó en la oficina de patentes de Berna como perito de tercera clase
un muchacho de 24 años y de nombre Albert Einstein (1879-1955). Había nacido en
Ulm y tenía dos años cuando Michelson iniciaba su seguidilla de experimentos
sobre el éter y la luz. Estaba terminando su doctorado en Física y se dedicaba
a reflexionar sobre las cuestiones que preocupaban a los físicos de aquel
entonces: el éter, el movimiento absoluto, las propuestas de Planck, el
movimiento browniano. No había sido, hasta el momento, un estudiante
especialmente destacado, pero sin embargo fue, al decir de sus jefes, un buen
empleado, que en los intersticios del trabajo se dedicó a pensar en la física
del momento. Así son las cosas.
Desde la cómoda perspectiva que da el tiempo, parecería que se preparaba para
el año 1905, crucial en la historia de la ciencia del siglo XX.
§. El año milagroso de 1905
Ese annus mirabilis, Einstein publicó cinco trabajos en los Annalen
der Physik. El primero, recibido por la revista el 18 de marzo de 1905,
tomaba la teoría recientemente formulada por Planck sobre los cuantos de
energía y la extendía a la luz. Sobre ese trabajo descansa toda la mecánica
cuántica y toda la física atómica de la primera mitad del siglo XX, de la cual
ya nos ocuparemos, y fue este trabajo el que le valió el Premio Nobel que
habría de recibir en 1921.
El segundo (fines de abril) se llamaba «Una nueva determinación sobre las
dimensiones moleculares» y era su disertación doctoral sobre la determinación
de la cantidad de moléculas de azúcar en un cierto volumen de agua y el tamaño
de las moléculas.
El tercero (principios de mayo) enfrentaba problemas que eran una herencia del
siglo XIX: el movimiento browniano. Einstein lo cerraba de una vez por todas y
predecía, entre otras cosas, que el movimiento errático de las partículas
suspendidas en el agua se debía al golpeteo de miles de moléculas (de agua) y
debía poder observarse en un microscopio. Para muchos fue este trabajo el que
convenció a todo el mundo de la existencia efectiva de átomos y moléculas, un
tema que se discutía desde los tiempos de Dalton.
Neptuno: la posibilidad de un planeta
La postulación de un planeta paraexplicar una anomalía en las mediciones
astronómicas había tenido un célebrey exitoso antecedente. Recordarán que en
1781 William Herschel, telescopiomediante, descubrió el planeta Urano. El
problema es que ya en las primerasdécadas del siglo XIX estaba claro que algo
raro pasaba con este nuevoprotagonista de la novela astronómica: en 1832 George
Biddell Airy se dirigióa la British Association for the Advancement of Science
(BAAS) para admitirque no parecía haber ninguna órbita elíptica que pudiera
predecir o describirlos movimientos efectivamente visibles del nuevo planeta.
Por ese entonces, la astronomía ya habíaalcanzado una precisión bastante
aceptable y se había convertido en unaciencia focalizada en el Sistema Solar,
cuya principal tarea era fijar lascoordenadas de los cuerpos celestes basándose
en la Gran Ley que,supuestamente, lo explicaba todo: la gravitación universal
de Newton.Estábamos en esos momentos que, recordando un poco expresiones
anteriores,podemos llamar de «exploración del territorio»: con el mapa trazado,
setrataba de sistematizar los conocimientos de áreas específicas,
conocimientosque resultaban en cierta medida predecibles y esperables. Y de
repenteaparecía un planeta cuyo vagabundeo resultaba, por lo menos para los
datosconocidos en el momento, inexplicable.
Era desesperante: la astronomía era laCiencia de las ciencias, pero algo no
encajaba. Para solucionar elinconveniente hubo dos hipótesis: una, que la ley
de gravitación actuaba demanera rara a la enorme distancia a la que quedaba
Urano; la otra, que debíahaber algo todavía no observado que, atrayendo a Urano
con la exacta relacióndescubierta por Newton, modificaba su órbita.
Fue con esta segunda hipótesis con laque trabajó Jean Joseph Leverrier
(1811-1877). Instigado por el director delObservatorio de París, comenzó a
examinar la influencia mutua de los planetasen sus órbitas y logró trazar un
mapa impresionante del sistema solar con susrespectivos movimientos, lo cual ya
le habría valido fama universal.
Pero en verdad es más famoso porque, ensu minucioso estudio, corroboró que la
órbita de Urano no era como la que sedesprendía del conjunto de las ecuaciones
de Kepler-Newton. Sin desplomarsefrente a la abrumadora empiria, que le tiende
trampas incluso al más atento,Leverrier supuso que había un planeta aún no
descubierto que era elresponsable de la atracción que desviaba a Urano de su
órbita y presentó, enjunio de 1846, un trabajo en el que predecía su posición
exacta. Tres mesesdespués, Johann Galle (1812-1910) examinó esa porción de los
cielos yencontró el planeta de Leverrier.
Al mismo tiempo, pero independientementede Leverrier, John Couch Adams realizó
los mismos cálculos, y también detectóteóricamente la presencia de Neptuno,
aunque con mayor error que Leverrier.De todos modos, el nombre de Adams también
se asocia al descubrimiento deNeptuno.
El cuarto (fin de junio) abordaba el problema planteado por el experimento de
Michelson y Morley, aunque sus autores no eran citados para nada en el trabajo,
y tenía un título en apariencia abstruso: «Sobre la electrodinámica de los
cuerpos en movimiento». En la historia y la ciencia quedaría con un nombre
mucho más sonoro y elocuente: Teoría de la Relatividad.
En su trabajo, Einstein enfrentaba los problemas del movimiento absoluto, el
electromagnetismo y sus derivados con una solución original y una visión del
mundo radicalmente distinta de la que había reinado hasta entonces.
Del quinto nos ocuparemos un poco más adelante.
§. La Teoría de la Relatividad Especial
Durante esos años de preparación, Einstein había reflexionado cuidadosamente
sobre los conceptos corrientes de espacio y tiempo y había llegado a la
conclusión de que era necesario revisarlos.
Pero reformar las ideas sobre el espacio y el tiempo era iniciar una revolución
conceptual (de la misma manera que revisar las ideas de espacio y tiempo medievales
había llevado a la construcción de la ciencia moderna). El espacio físico y el
tiempo matemático newtonianos presuponían que existían intervalos espaciales,
lapsos temporales, masas y energías idénticos para todos los observadores
(«objetivos», si se quiere): existía un reloj que daba la hora universal; un
segundo era un segundo y un metro era un metro, en cualquier lugar y momento
del universo. El espacio, por su parte, estaba uniformemente lleno de éter
inmóvil, en reposo absoluto, y dentro del espacio sucedían los fenómenos.
Espacio, tiempo, masa y energía por un lado, previos a los fenómenos, que eran
independientes de ellos: era éste el escenario epistemológico y metafísico que
había permitido construir el magnífico edificio de la física y dar cuenta de
todos los eventos conocidos (aunque no de la falta de «arrastre de éter» en el
experimento de Michelson y Morley). Tampoco, en realidad, de un desconcertante
comportamiento del planeta Mercurio: su perihelio —el punto de su órbita más
cercano al Sol— se desplazaba 42 segundos de arco por siglo, un desplazamiento
que no surgía de las ecuaciones de Newton. Durante un tiempo se especuló con la
existencia de un planeta entre Mercurio y el Sol al que incluso se puso nombre,
Vulcano, que, con su gravitación, era el responsable del movimiento del
perihelio. Pero a diferencia de Neptuno (del que les hablo en el recuadro
anterior) nunca se lo encontró. De cualquier manera, eran fenómenos laterales.
Einstein barre este plácido y hasta cierto punto seguro paisaje tan bien
establecido y al que dos siglos de funcionamiento no habían logrado desgastar.
Rompe con la idea de un tiempo único y un espacio único: no hay un reloj
idéntico para todos los observadores, que serán incapaces de ponerse de acuerdo
sobre la marcha de los relojes, las duraciones de tiempo y las distancias: cada
observador tendrá su reloj y su regla de medir y no valen más unas que otras.
El espacio y el tiempo empiezan a estar atados a los fenómenos y a depender de
ellos.
Veamos las cosas con algunos ejemplos.
Imaginemos un tren que se mueve con movimiento rectilíneo y uniforme, una
persona adentro de ese tren y un jefe de estación que observa, obviamente desde
la estación, lo que ocurre allí. Imaginemos ahora, también, que todavía no se
ha inventado el sistema de apertura automática de puertas y que, por lo tanto,
la tarea del hombre que está parado en uno de los vagones, exactamente en el
medio, es enviar dos rayos de luz (uno a su derecha y uno a su izquierda) para
que los reciban unos detectores que hay en las puertas delantera y trasera y se
abran.
Miren, en la imagen, lo que ocurre a la izquierda: el hombre parado en
el medio arroja dos haces de luz, que viajan a 300 mil kilómetros por segundo,
de manera simultánea. De modo que las puertas, para él, abren exactamente al
mismo tiempo: la distancia que recorre la luz, que fue liberada en el mismo
instante hacia la derecha y hacia la izquierda, es la misma y, como la
velocidad es la misma también, tarda el mismo tiempo. Si el vagón midiera 600
mil kilómetros de largo, diríamos que tanto la puerta de adelante como la
puerta de atrás se abren al pasar un segundo de que nuestro hombre mande sus
señales.
Ahora bien: ¿es esto lo mismo que percibe el jefe de estación? Por más raro que
suene, no. Como la velocidad de la luz es absoluta (o sea, es la misma para él
que para el pasajero) y no se ve afectada por el movimiento del tren, lo que ve
nuestro nuevo observador es que la puerta trasera se mueve hacia el pulso de
luz, mientras que la delantera se aleja de él. Miren ahora la misma figura,
pero a la derecha: para él, entonces, la puerta trasera se abre antes que la
puerta delantera, porque la distancia que recorre la luz para llegar allí es
menor. Esto quiere decir que la apertura de las puertas, que es simultánea para
el pasajero, no lo es para el jefe de estación. Lo cual muestra que algo raro
pasa con el tiempo…
Porque supongamos, ahora, que el jefe de estación le plantea un desafío al
pasajero. Le pide que, sin reloj, mida la duración exacta de un segundo.
Imaginemos que el vagón mide, desde donde se envía el pulso de luz hasta el
techo, 150 mil kilómetros. Al pasajero se le ocurre una idea fenomenal: pone un
espejo arriba y envía un haz de luz hacia allí, de modo que tarda exactamente
un segundo en subir y bajar (recuerden: como el tren está en movimiento rectilíneo
y uniforme, para quien está adentro es exactamente lo mismo que si estuviera en
reposo). Hasta acá todo está bien: si no hay errores de medición —y demos por
sentado que no los hay— el pasajero ha medido efectivamente un segundo.
Y sin embargo, para el jefe de estación la luz recorre un camino más largo,
como pueden ver en la siguiente imagen y, por ende, tardará más en subir y
bajar. Lo cual significa que el segundo del pasajero, medido por el jefe de
estación, es más largo. Esto significa que el flujo del tiempo se modifica con
el movimiento.
¿Quién tiene razón? En realidad, los dos. Simplemente ocurre que los
intervalos de tiempo no son absolutos y se modifican con el movimiento.
Sólo habrán de coincidir en una cosa los observadores: el valor de la velocidad
de la luz en el vacío, idéntico para todos.
La luz se propaga siempre en el espacio vacío con una velocidad que es
independiente del cuerpo emisor.
La luz siempre viaja a la misma velocidad en el vacío y así la miden
todos los observadores, independientemente de sus diferentes sistemas de
referencia inerciales (en movimiento relativo y uniforme). Era mucho decir,
sobre todo si se lleva la cosa a la empiria: si alguien va corriendo a 200 mil
km/s al lado de un rayo de luz que se mueve a 300 mil km/s, no lo ve moverse a
100 mil (como ocurriría en un marco newtoniano), sino a 300 mil. Y en el
improbable caso de que alguien pudiera correr a la misma velocidad de la luz,
no la vería quieta, sino moviéndose ¡también a 300 mil km/s!
Pero el principio de constancia de la velocidad de la luz implica abandonar la
idea de un tiempo único. Basándose en la constancia de la velocidad de la luz,
Einstein demuestra la relatividad del tiempo, del espacio, de la masa y de la
simultaneidad.
§. El principio de relatividad
Decía Einstein:
Los infructuosos intentos de detectar un movimiento respecto del éter
lumínico llevan a la conjetura de que ni los fenómenos de la mecánica ni los de
la electrodinámica (el electromagnetismo) tienen propiedades que correspondan
al concepto de reposo absoluto. Elevaremos esta conjetura (cuyo contenido será
denominado en adelante «el principio de relatividad») al estatus de un
postulado.
Es decir, ningún experimento, ni mecánico, ni
electromagnético, ni óptico (ni de ningún tipo) permite distinguir entre el
reposo y el movimiento (rectilíneo y uniforme). Einstein incorpora así el
electromagnetismo al principio de Galileo. Las leyes de la física (y no sólo
las de la mecánica) son idénticas y tienen la misma formulación en todos los
sistemas de referencia. Lo cual vale para las ecuaciones de Maxwell y para toda
otra ley. Por eso el experimento de Michelson y Morley no había detectado
ningún viento de éter, ni retraso en los rayos de luz: el principio de
relatividad lo prohibía.
En cierta forma, la Teoría de la Relatividad establece que los movimientos son
relativos, pero las leyes (y la velocidad de la luz en el vacío) son absolutas.
Es casi una teoría del absoluto más que una teoría de lo relativo. Lo que
ocurre es que el postulado de invariancia de la velocidad de la luz transforma
en relativas otras magnitudes: los intervalos de tiempo, los intervalos
espaciales y la masa. El espacio y el tiempo se mezclan en un continuo
espaciotemporal de cuatro dimensiones, en el que el valor de metros y segundos
depende de los sistemas de referencia.
Piénsese en la obra de demolición de este muchacho: ha destruido el espacio y
el tiempo absolutos de Newton, ha extendido los principios de la relatividad a
todos los fenómenos y ha establecido —eso sí— la velocidad de la luz como
absoluta e idéntica para todos los observadores y como la velocidad tope a la
que se puede mover cualquier objeto material o que transporte información.
§. Equivalencia de la masa y la energía
Y no conforme con todo eso, en septiembre de ese mismo año Einstein presentó un
nuevo trabajo (el quinto de esa gloriosa seguidilla de las que les hablé al
principio) donde abordaba el problema de la materia y la energía en el marco de
la relatividad. « ¿La inercia de un cuerpo depende de su contenido de
energía?», se preguntaba. Del mismo modo que el espacio y el tiempo se combinan
en un continuo espacio-tiempo, lo que percibimos como materia o como energía
son distintos aspectos de un mismo fenómeno, de un continuo de materia y
energía, y su equivalencia está dada por la famosa fórmula:
e = mc2
Cuando estalla una bomba atómica, parte de la masa de los átomos de
uranio que se fisionan se transforma en energía, en la muchísima energía que se
esconde en un poquito de materia: si un kilo de masa (aproximadamente un litro
de agua) se transformara por completo en energía, alcanzaría para mantener
encendidas diez bombitas de cien vatios durante un millón de años.
Así, la teoría especial de la relatividad modifica la ontología del mundo
newtoniano que presentaba un escenario: el tiempo absoluto y matemático
fluyendo sobre el espacio absolutamente inmóvil y dentro de ese escenario, la
materia y la energía, como fenómenos diferenciados. Para la Teoría de la
Relatividad, la masa no es sino una forma más de la energía. Einstein destruyó
el espacio y el tiempo absolutos y también la separación entre materia y
energía. La revolución relativista es una revolución ontológica, ya que cambia
la clase de objetos que existen en el mundo y que son pasibles de reflexión
científica. Era un nuevo sacudón, probablemente sólo comparable al que había
producido Newton 200 años antes.
¿Y el éter?
Eso, ¿y el éter? Su sentencia de muerte fue pronunciada tajantemente por Albert
Einstein en «Sobre la electrodinámica de los cuerpos en movimiento»:
La introducción de un éter lumínico se mostrará superflua, puesto que la
idea que se va a introducir aquí no requiere de un espacio en reposo absoluto
dotado de propiedades especiales.
Después de haber trabajado esforzadamente durante dos mil años, llenando
el espacio y manteniéndose inmóvil (en reposo absoluto), siendo soporte de todo
aquello que se desconocía, el éter fue relegado al desván de las sustancias que
nunca existieron.
§. Apologías y rechazos
Salvo por un puñado de físicos, la Teoría de la Relatividad no fue aceptada de
inmediato. Era demasiado audaz, demasiado imaginativa, rompía demasiado con
conceptos bien establecidos, en especial con la sacralidad del tiempo y el
espacio, esas intuiciones puras del entendimiento que Newton había elevado al
más alto sitial: el espacio inmóvil como marco general y escenario global
dentro del cual suceden los fenómenos, y donde una distancia siempre es la
misma distancia. Por otro lado, en ese espacio transcurría también un tiempo
absoluto, matemático y universal; tanto el espacio como el tiempo eran
entidades independientes de los fenómenos y resultaba inconcebible que las
cosas fueran de otra manera.
Es ahí donde la Teoría de la Relatividad introduce una ruptura metafísica:
según Einstein, el espacio y el tiempo se amalgaman en algo distinto, el
«espacio-tiempo», que depende de los observadores: dos sucesos que son
simultáneos para uno de ellos pueden no serlo para el otro, y lo mismo ocurre
con las duraciones y longitudes: un segundo no necesariamente dura lo mismo
para dos observadores diferentes. El reloj que da la hora para todo el universo
ha dejado de existir. Situación que se agudizará en 1915 con la Teoría General
de la Relatividad (básicamente una teoría de la gravitación), donde la
geometría misma del espacio-tiempo depende de la estructura de los fenómenos,
en especial de la distribución de la masa y la energía, capaz de curvar el
espacio y hacer que el tiempo modifique su transcurrir.
El lugar del absoluto, a partir de 1905, retrocede una vez más (como lo venía
haciendo desde los tiempos de Copérnico) y se refugia en dos recovecos. Uno, la
velocidad de la luz, que a diferencia de los segundos y los metros es
exactamente la misma para todos los observadores, y el otro, las leyes de la
naturaleza, que también tienen exactamente la misma forma para todos los
observadores.
Pero la Relatividad Especial de 1905 no tenía correlato experimental posible
(ya que los efectos relativistas sólo son medibles a velocidades muy altas), y
no pasaba de ser una apuesta teórica, aunque hoy en día la dilatación temporal
ya se ha medido y comprobado experimentalmente en laboratorios y ciclotrones, y
se utiliza para que los GPS actúen con precisión.
§. La relatividad se vuelve general
La Teoría de la Gravitación Universal de Newton tenía un único inconveniente:
la acción a distancia. La fuerza de gravedad actuaba de manera instantánea,
atravesando el vacío. Emanaba del Sol, de la Tierra o de cualquier objeto, y
aferraba los cuerpos sin intermediarios. ¿Cómo era posible? Los cartesianos no
podían aceptar tal cosa y Leibniz se quejó de que en la construcción de una
ciencia mecánica se introdujera lo que él llamaba contrabando metafísico. La
Relatividad Especial, por su parte, estaba restringida a los movimientos
rectilíneos y uniformes. Pero a partir de su publicación, Einstein se dedicó a
trabajar para extender el principio de relatividad a todos los movimientos
(acelerados, rotatorios) y a los campos gravitatorios.
La gravitación era todo un problema para la Relatividad Especial, ya que la
imposición de la velocidad de la luz como velocidad tope chocaba con la idea de
la gravitación newtoniana que actuaba de manera instantánea (es decir, con
velocidad infinita), en una flagrante violación del principio de relatividad.
Einstein necesitó diez años de tentativas y fracasos. Recién en 1916 publicó la
Teoría de la Relatividad General, bastante más compleja que la Teoría Especial,
que extiende el principio de relatividad a todos los sistemas de referencia.
Y en la que, además, se formula una nueva teoría de la gravitación.
Si la gravitación newtoniana era una fuerza que emanaba de los cuerpos y se
propagaba instantáneamente, la gravitación que surge de la Teoría General es
una deformación del espacio y el tiempo por efecto de las masas: el Sol, por
ejemplo, curva y modifica el espacio y el tiempo a su alrededor, de la misma
forma que una piedra situada en el centro curvaría un mantel sostenido sólo
desde las puntas, haciendo que todo objeto caiga hacia la hondonada central
como si fuera atraído por una fuerza que emanara de ella.
Si, de repente, apareciera una masa de la nada, en la teoría newtoniana también
aparecería una fuerza de gravedad que instantáneamente llegaría hasta los
confines del universo; según la Teoría General, al surgir una masa se altera la
geometría del espacio-tiempo, se modifican las distancias y los intervalos de
tiempo alrededor de esa masa y las modificaciones se expanden con la velocidad
de la luz.
Las masas alteran el espacio y el transcurrir del tiempo: los segundos se
vuelven más largos en presencia de un campo gravitatorio; un reloj en la
superficie del Sol marcha más despacio que en la Tierra, y, en el borde de un
agujero negro, se detendría.
Otra vez era mucho decir. Y, para colmo, todo esto todavía tenía que ser
comprobado.
§. Nuevamente, un eclipse
Tal como había ocurrido con Newton y el cometa Halley, fue un fenómeno celeste
el que terminó por darle la razón a Einstein. Hacia 1916, ambas Teorías de la
Relatividad (tanto la general como la especial) eran «teoría pura», no
proponían ningún experimento que pudiera comprobar empíricamente lo que estaban
diciendo, más allá de que solucionaran los problemas derivados del experimento
de Michelson-Morley y, de paso, el del perihelio de Mercurio. Al fin y al cabo,
los efectos relativistas sólo se perciben a velocidades muy próximas a la de la
luz, que, como ya dijimos, en aquella época era imposible de alcanzar
experimentalmente. Un coche que corre a doscientos kilómetros por hora se
«contrae» menos de una milmillonésima de milímetro. Para que la longitud de un
cuerpo se reduzca a la mitad, debe moverse a nada menos que… ¡262 mil
kilómetros por segundo!
Pero había una posibilidad: puesto que las masas modifican la curvatura del
espacio-tiempo, y el espacio se curva alrededor del Sol, la luz debe seguir
trayectorias curvilíneas.
El rayo de luz de una estrella que pasa junto al Sol sufre una
desviación de 0,83 segundo de arco, y la distancia angular de la estrella
respecto del Sol debe estar aumentada en esta cantidad. Puesto que las
estrellas fijas en regiones del cielo próximas al Sol son visibles durante los
eclipses totales de Sol, esta consecuencia de la teoría puede compararse con lo
observado en la experiencia.
Con esa sentencia, la Teoría General hacía una predicción importante: si
las masas modifican el espacio y el tiempo, las rectas que pasan cerca de
grandes masas tienen que curvarse y los objetos deberían verse desplazados.
Es lo que tendría que ocurrir con la luz proveniente de estrellas cercanas al
Sol, pero el fenómeno no se podía observar bien justamente porque el resplandor
solar lo impedía. Sólo se podría hacer la experiencia durante un eclipse. Y así
fue: se aprovechó el eclipse total del 29 de mayo de 1919 en el que dos
expediciones británicas fotografiaron las estrellas próximas al Sol desde una
isla al oeste de África y desde Brasil.
El 6 de noviembre, en Londres, se anunció que las observaciones confirmaban la
predicción de Einstein. Al día siguiente, el Times de esa
ciudad publicó en primera plana: «Revolución en la ciencia. Nueva teoría del
universo. Las ideas de Newton destronadas». El 10 de noviembre se publicaron
titulares en The New York Times: «La luz se curva. Triunfa la
teoría de Einstein». De la noche a la mañana, Einstein se convirtió en una
celebridad mundial.
Pero hay algo más: las dos teorías, la especial y la general, le permitieron a
Einstein imaginar un modelo global del universo. En contraposición al cosmos
newtoniano infinito y abierto, imaginó un universo finito y cerrado sobre sí
mismo. Finalmente, la cosa no resultó ser así, pero fue la primera
reformulación a fondo desde la revolución científica del siglo XVII.
Y todo había empezado en 1905. Verdaderamente, se trató de un año milagroso.
Como un mago, Einstein sacó de la galera al siglo XX.
§. El significado de la relatividad. ¿Fue un cambio de paradigma?
El estudio y la resolución de las ecuaciones de la Relatividad General muy
pronto mostraron que daban cuenta del misterioso movimiento del perihelio de
Mercurio, que se convertía así en una prueba más. Desde entonces, las
confirmaciones han sido múltiples: el alargamiento de los intervalos de tiempo
y el aumento de las masas se han verificado en experimentos diversos; la
equivalencia de la masa y la energía, en las bombas atómicas y las centrales
nucleares; el desvío de la luz por galaxias, en el curioso fenómeno de las
«lentes gravitatorias», y en el más familiar GPS.
La introducción de la relatividad también permitió establecer mejores modelos
del átomo; la concepción relativista del mundo hizo pie en el fondo de la
física (y de la filosofía).
Sea como fuere, la Teoría de la Relatividad, a pesar de no concordar con la
mecánica newtoniana, no implica una ruptura tan grande como a veces suele
creerse: se puede perfectamente entender como un refinamiento, como si Einstein
le hubiera sacado un decimal más a la realidad.
De hecho, para velocidades bajas (típicas del mundo corriente, y aun de los
viajes a la Luna) no son necesarias las correcciones relativistas, que sólo
aparecen cuando las velocidades se aproximan a la de la luz (como ocurre en los
grandes aceleradores de partículas, por ejemplo). Con Newton, se puede llegar a
la Luna sin problemas.
Einstein fue, probablemente, el científico más importante del siglo XX y se
convirtió prácticamente en el arquetipo del científico y del genio. La Teoría
de la Relatividad es mucho más que una teoría: es una verdadera cosmovisión. El
mundo de la física sintió el impacto: era la época de los grandes
descubrimientos y la revolución relativista complementaba la otra revolución
que recién empezaba: el descubrimiento del microcosmos atómico y nuclear.
La obra de Einstein está en la base misma de la física y de la ideología de
nuestro tiempo. Fue la fórmula de Einstein sobre la equivalencia de la masa y
la energía la que inspiró a Lise Meitner (1878-1968) para descifrar el misterio
de la fisión del uranio. Fue el efecto fotoeléctrico descripto por Einstein en
1905 el que puso en marcha las ruedas de la mecánica cuántica. Y fue la Teoría
de la Relatividad General la que explicó la forma global del universo y
permitió descubrir y en muchos casos prever fenómenos como la fuga de las
galaxias, la expansión del universo, las lentes gravitatorias y los agujeros
negros.
Y todo esto ocurría en las agitadas primeras dos décadas del agitado siglo XX.
En una Europa en pie de guerra, que habría de vivir los horrores del nazismo
(que, por su condición de judío, obligaron a Einstein a emigrar a Estados
Unidos), el estalinismo y de las bombas atómicas, Einstein no se limitó a
producir su revolución física (lo cual, dicho sea de paso, no habría sido poca
cosa), sino que reflexionó e intervino sobre los problemas más acuciantes de la
época.
§. Una vuelta de tuerca sobre el vacío
La célebre fórmula de Einstein (E = mc2) introdujo una vuelta más a
la vieja historia del vacío. Recuerden que durante siglos predominó la teoría
del horror vacui, que más castizamente puede enunciarse como «la
naturaleza le tiene horror al vacío», puntualmente creída durante dos mil años.
Los «horrorvacuistas» argüían que la naturaleza se encargaba de impedir que
hubiera resquicios desprovistos de algo que los llenara: el vacío era
absolutamente imposible. Así lo creyó Aristóteles, así lo creyó la Edad Media,
y así pensaba, cartesianamente, Descartes, que identificaba materia y extensión
y concluía que por lo tanto no se podía concebir espacio sin materia que lo
ocupara.
Ya sabemos que la imposibilidad del vacío no sobrevivió al Renacimiento. El
barómetro de Torricelli mostró claramente que podía haber vacío y de a poco la
aceptación de su existencia fue ganando terreno. Lo cierto es que el nuevo
estatus ontológico del vacío encajaba perfectamente dentro de la atmósfera
intelectual del siglo XVII, dentro del nuevo universo que estaba en ciernes y
que alcanzaría su culminación en los Principia de Newton: un
espacio geométrico que existía per se, hubiera materia para
llenarlo o no. El horror al vacío fue prolijamente relegado al museo de
antigüedades, y hoy ya nadie cree semejante cosa. La imagen actual que se tiene
del universo es exactamente la opuesta a la del «espacio lleno» de Aristóteles y
los físicos del plenum: hoy sabemos que el universo es, casi en su
totalidad, espacio vacío.
Pero vacío de materia, no de radiación o energía. Y como a partir de la Teoría
de la Relatividad sabemos que materia y energía son equivalentes, la pregunta
por la existencia del vacío adquiere una nueva luz. ¿Podrá existir espacio
vacío tanto de materia como de energía? Veamos.
Tomemos una caja y saquemos toda la materia. ¿Quedará completamente vacía? No,
porque la atraviesan ondas electromagnéticas, que poseen energía. Supongamos
que blindamos nuestra caja contra toda forma de radiación. ¿Ahora quedará
vacía? No, porque todavía están los campos gravitatorios, que actúan dentro de
la caja y que también tienen energía. Y no hay blindaje posible contra los
campos gravitatorios que, al tener energía, tienen por lo tanto materia.
Estas objeciones relativistas a la existencia del vacío absoluto se combinan
con otras provenientes de la mecánica cuántica, y aun de otras curiosidades
clásicas como el efecto Casimir. Naturalmente, nada de esto implica una
restauración del apolillado «horror al vacío». Indica, sí, que la idea de «vacío
absoluto» fue afectada por el gran huracán que modificó todas las ideas que se
tenían sobre el espacio, el tiempo y la materia.
¿Por qué iba a salvarse el vacío?
§. Balance
La actividad científica de Einstein fue escasa luego de la formulación de la
Teoría de la Relatividad General. Se podría decir que, en realidad, eran
tiempos de intensa agitación bélica, donde se estaba definiendo el mapa y el
futuro del mundo. Lo cierto es que, a partir de la Relatividad General,
Einstein había tomado, en el campo de la física, un camino sin salida: la
teoría del campo unificado que pretendía, justamente, unificar la mecánica, la
gravitación y el electromagnetismo. Aunque en ese momento podía parecer
razonable, más tarde se probó que no lo era, en especial porque se descubrieron
otras dos fuerzas de la naturaleza (la nuclear fuerte y la débil).
Otro de los puntos que destacan la labor de Einstein post-Relatividad General
fue su polémica con Bohr sobre la mecánica cuántica y el principio de
incertidumbre, de la cual tendremos que ocuparnos en alguno de los próximos
capítulos. Einstein nunca creyó del todo en esas postulaciones e ideó
experimentos mentales que, una y otra vez, eran refutados por Bohr desde lo que
se llamó la «interpretación de Copenhague» de la mecánica cuántica. Esta última
prescindía de la naturaleza de los fenómenos cuánticos y ponía el acento en el
éxito del modelo explicativo (que, verdaderamente, describía los fenómenos
atómicos a la perfección). De esa discusión se desprende la famosa frase einsteniana
de que «Dios no juega a los dados» y la sugerencia de Bohr: «Einstein: deja de
decirle a Dios lo que debe hacer (con sus dados)».
En el campo político, Einstein siguió proclamando su pacifismo en medio de la
Guerra Fría. Se ha vuelto ya célebre su premonitoria frase: «No sé con qué se
peleará la Tercera Guerra Mundial, pero sé que la cuarta se hará con palos y
piedras». Entre otras cosas, también rechazó el ofrecimiento que se le hizo de
ser Presidente del recién fundado Estado de Israel.
La salud de Einstein se fue deteriorando hacia el año 1950. Murió pacíficamente
el 18 de abril de 1955, en Princeton, New Jersey, Estados Unidos.
Interludio:
Milonga relativista
Milonga relativista,
milonguita pasajera.
Que se compone en Almagro
y se canta en Balvanera.
Hubo un malevo en Retiro
que sin fuerza ni jactancia
chamuyaba al malevaje
pa’ combatir su inorancia,
y esplicaba los conceptos
del tiempo y de la distancia.
«Si ustedes quieren saber
qué pasa en nuestra ciudá
hace falta la teoría
de la relatividá.
Todo es relativo a todo,
como lo sabe el más bruto,
el tiempo, el facón y el tango
están muy relacionados
con el espacio asoluto.
El tiempo que todos piensan
que es uniforme y perfecto,
que es lo igual por eselencia,
que anda siempre al mismo paso
y con la misma paciencia,
transcurre distinto en cada
sistema de referencia».
«¿Y el éter?», preguntó alguien.
«No hay éter», le contestó.
«Lo creían los antiguos
pero el éter se acabó.
Con la relatividá
uno entiende el universo
y todo queda muy claro
sin dar vueltas y sin verso.
Las estrellas, las galaxias,
la materia y la energía
se someten al poder
de esa eselente teoría.
Las lentes gravitatorias
sin Einstein no esistirían.
Y sin esas grandes lentes,
los que no ven bien, ¿qué harían?
Es una cosa profunda
y esencial para el malevo:
ese hombre con su mente
construyó el mundo de nuevo.
Él esplicó el universo
desde Almagro hasta Pompeya.
Estudien esa teoría,
nada funciona sin ella».
Milonga relativista,
milonguita pasajera.
Que se compone en invierno
y se olvida en primavera.
Capítulo 32
La teoría de la deriva continental y la estabilización de la geología
Si bien aún quedan muchas cosas por contar en el terreno de la física,
cuyos desarrollos en el siglo XX fueron verdaderamente impresionantes, vamos a
abandonar este campo por un momento para ser testigos del desarrollo de la
geología a lo largo del siglo XIX, y de su estabilización en el siglo XX
gracias al descubrimiento de la tectónica de placas. El camino que tuvo que
transitar hasta llegar a una síntesis general, como corresponde a la geología,
fue ríspido. Para seguirlo, tendremos que volver sobre nuestros pasos y retomar
propuestas y teorías a las que ya nos hemos referido en otros momentos, pero
que son necesarias para poder seguir el hilo del pensamiento geológico en los
siglos XIX y XX.
§. Repasemos un poco
Ya lo sabemos: los hombres de la Revolución Científica se esforzaron por
comprender la superficie de la Tierra, se preguntaron sobre la naturaleza de
los fósiles y el origen de las montañas y también investigaron y reflexionaron
sobre los fenómenos y procesos naturales que afectan a la Tierra, como los
terremotos, los volcanes o la erosión. Pero el aparato bíblico seguía
imponiendo un marco rígido del que resultaba difícil zafar, y dentro de ese
aparato aparecía como gran protagonista el famoso Diluvio, que llevó a algunos
a postular la gran teoría del océano en retirada, según la cual la Tierra había
estado cubierta por un gran océano que iba dejando al descubierto la tierra
firme a medida que retrocedía.
Como la teoría tenía algunos puntos débiles, uno de los cuales era que no podía
explicar el origen de los volcanes, se desarrolló rápidamente la otra línea de
pensamiento de la que hablamos, el plutonismo, que sostenía que el centro de la
Tierra continuaba estando muy caliente y que la tierra firme no era otra cosa
que roca fundida que se había abierto paso desde el mundo subterráneo y luego
se había enfriado y endurecido. Para los plutonistas, no era el agua sino los
volcanes y el fuego interior los que constituían la gran fuerza que mantenía
las cosas en marcha. Todo esto traía aparejado una evolución en el manejo de
las escalas de tiempo: la Tierra, según diversos cálculos hechos por
naturalistas de la época, era muchísimo, pero muchísimo más antigua de lo que
se había creído hasta entonces. El uniformismo de Lyell, que se oponía a las
teorías catastrofistas y sugería que hacían falta períodos inmensos de tiempo
para que el planeta hubiera llegado a ser lo que era, fue fundamental para
proveer el marco en el que podría desarrollarse una teoría tan revolucionaria
como la de la evolución de Charles Darwin.
Era necesario, ya para aquel entonces, proponer alguna teoría verosímil sobre
el origen. Empezó entonces a circular una idea según la cual la Tierra había
sido un trozo desprendido del Sol que se había ido enfriando lentamente. La
teoría del enfriamiento parecía explicar muchas cosas, y en 1828 aparecieron
pruebas: un especialista en botánica fósil, Adolphe Brongniart (1801-1876),
mostró que en el período terciario (es el que va desde 65 a 1,8 millón de años
atrás) había habido un clima mucho más benigno. Las grandes cantidades de
carbón acumuladas que databan de entonces eran, para él, la evidencia de que
allí, en zonas actualmente desérticas o frías, había existido una vegetación
exuberante que luego se había depositado y carbonizado. El «clima benigno»
significaba calor, por lo cual el hallazgo de Brongniart, según lo
interpretaban algunos, apuntalaba la teoría del enfriamiento progresivo de la
Tierra. (Dicho sea de paso, y aunque no tenga mucho que ver específicamente con
el tema, Brongniart hizo una observación casi profética sobre la Tierra
originaria: dedujo que la atmósfera tenía que haber estado cargada de dióxido
de carbono —CO2— y las primeras plantas lo habían descompuesto
tomando el carbono y liberando el oxígeno; era ese oxígeno liberado por las
plantas el que permitió que proliferara la vida animal. Casi como —se supo
después— realmente ocurrió.)
De a poco, la idea de que la Tierra había nacido como un cuerpo muy caliente y
se estaba enfriando se impuso lentamente como la línea principal de pensamiento
en la geología. Parecía obvio que debajo de la superficie había por lo menos
una capa a muy alta temperatura: la prueba eran las erupciones en forma de lava
ardiente que emanaban de las bocas de los volcanes.
Sin embargo, la teoría tenía sus inconvenientes. Uno de ellos era que distintos
geólogos calculaban que, aunque el centro de la Tierra estuviera muy caliente,
la cantidad de calor que llegaría a la superficie sería insignificante. En este
sentido, representaba una seria objeción para quienes pensaban, como
Brongniart, que el clima externo estaba relacionado en forma directa con la
temperatura interna del planeta.
Seguramente por eso, porque cuando la ciencia deja de explicar ciertas cosas es
la propia ciencia la que tiene que salir a buscar nuevos caminos, surgió una
línea de pensamiento alternativa que negó el hecho de que la temperatura
estuviera bajando desde el origen: quienes adscribieron a esta nueva teoría
consideraron que efectivamente había habido una variación climática a lo largo
de la historia del planeta, pero esa variación no se podía describir como un
enfriamiento constante. Por el contrario, lo que había habido era una
alternancia de períodos cálidos y períodos muy fríos. Estos últimos tienen un
nombre famoso y una vital importancia para el desarrollo de las ciencias
geológicas: las glaciaciones.
§. Las glaciaciones confirman lo que se suponía
El asunto era el siguiente: en el norte de Europa y de América del Norte
parecía haber señales claras de que el paisaje había sido «tallado» por
glaciares gigantescos, que habían arrastrado grandes capas de piedritas,
piedras y rocas gigantescas (de varias toneladas) que provenían de otras
regiones cercanas, y que no podían haber sido transportadas sino por fenómenos
de proporciones realmente grandes. A la vez, había marcas relativamente claras,
paralelas a la dirección de avance, dejadas en las rocas a causa de la
fricción. Era un tema polémico y muchos grandes científicos de la época dudaban
de la evidencia al respecto.
Pero había un elemento de prueba central: hay una diferencia bastante neta
entre un valle cavado por el agua (que tiene una forma de «V» más pronunciada),
y el que cava un glaciar, que es más redondeado en su base, con forma de U.
Fuera como fuere, suponer la existencia de glaciaciones, periódicas o no,
exigía que se explicara qué era lo que las causaba, lo cual resultaba mucho más
complicado de lo que se creía. A diferencia de tantas teorías, que andan por el
mundo en la búsqueda de una buena comprobación empírica que las valide, las
glaciaciones acumulaban evidencia tras evidencia y, sin embargo, su
justificación continuaba siendo enigmática. Y lo sería por un buen rato: las
explicaciones plausibles sobre sus causas tendrían que esperar hasta bastante
entrado el siglo XX.
§. La teoría de la Tierra que se contrae
Si la teoría de las glaciaciones entraba en un impasse, la historia
de la Tierra que se enfriaba seguía adelante y tenía todas las apariencias de
triunfar. Había algunas pruebas que parecían indiscutibles: por ejemplo, Von
Buch, discípulo de Werner, encontró evidencias de que en el centro de Francia
había existido una intensa actividad volcánica en tiempos inmemoriales y creía
que esto había ocurrido repetidamente a lo largo de la historia planetaria. El
gran naturalista Alexander von Humboldt (1769-1859), cuya influencia permeó
todo el siglo XIX (bueno, casi todo el siglo), también
concluyó que la actividad volcánica había tenido una responsabilidad
fundamental en la aparición de las montañas y notó que las zonas aledañas a los
volcanes habían sufrido una presión ascendente que las había elevado. En un
trabajo de 1829, Léonce Elie de Beaumont (1798-1874) sostenía que en tanto
cualquier objeto que se enfría pierde volumen, la Tierra, al sufrir ese
proceso, había formado una corteza que se quebraba y plegaba a medida que la
temperatura seguía bajando; de esta manera se formaban las montañas y demás
variaciones en la superficie. Uno de sus seguidores explicaba el fenómeno con
una metáfora: la Tierra era como una manzana que, al secarse, va produciendo
pliegues en su cáscara.
Otros pensaban en un proceso distinto. Eduard Suess (1831-1914), por ejemplo,
estudiando los Alpes europeos, llegó a la nada novedosa conclusión de que
efectivamente la Tierra se enfriaba y, junto con la temperatura, bajaba el
ritmo de los cambios geológicos. Pero al mismo tiempo —y esto sí era
novedoso— propuso que más comunes que los plegamientos eran las superposiciones
de una «cáscara terrestre» que se había quebrado, fenómeno que había sido más o
menos repentino. De acuerdo con otros geólogos, sugirió en 1861 que los
continentes actuales habían sido, originariamente, uno solo (al que llamó
«Gondwana»), que se había partido por el constante enfriamiento del planeta.
La idea servía perfectamente a los biólogos, que ya habían observado que
existían muchas especies comunes en los distintos continentes, coincidencia muy
difícil de justificar: ¿cómo podía explicarse que esos animales «universales»
hubieran llegado a rincones tan alejados entre sí como Oceanía, África y
América?
El continente único de Suess resolvía la cuestión con cierta elegancia, pero
generaba sus serios problemas: había que dar un buen motivo, para empezar, de
por qué el continente originario se había partido en pedazos. Y aunque todavía
no hubiera una respuesta sensata, el nombre «Gondwana» quedó —larvadamente,
mientras se desarrollaba la teoría unificadora— y aún ahora, ciento cincuenta
años más tarde, sigue siendo el que utilizamos para referirnos a la masa de
Tierra que luego dio origen a los continentes del Hemisferio Sur y que se había
separado antes de Pangea, un supercontinente aún más grande.
Por ahí apareció otro dato: que el material del que están hechos los
continentes es más liviano que el del fondo de los océanos. Fue por ello que
Clarence Dutton (1841-1912) presentó un modelo en el que los continentes se
movían como balsas livianas respecto de las rocas fundidas más densas que
estaban bajo la superficie.
Vale decir que la teoría que indicaba que la Tierra se enfría estaba equivocada,
pero no del todo: es verdad que la temperatura de la masa planetaria baja muy
lentamente, pero no es cierto que eso pueda provocar una condensación
suficiente como para justificar la existencia de montañas y otras formas de
relieve.
En realidad, la idea coincidía con el estado de cosas del momento: si
efectivamente la Tierra había empezado como un cuerpo muy caliente, no había
mecanismo conocido que pudiera mantener ese calor. El propio lord Kelvin, esa
especie de dios de la termodinámica que conocimos al hablar de ella, creía que
el calor solar tenía que estar disminuyendo, ya que ninguna estrella podía
durar más de 20 o 40 millones de años (lo cual, obviamente limitaba la
antigüedad posible del planeta). Esos períodos, que en otros casos se elevaban
hasta los cien millones de años, eran en cierto modo escasos para justificar la
teoría de la evolución. Aun a los geólogos les resultaban cortos para acomodar
sus observaciones sobre los lentos procesos de sedimentación.
Había un choque entre las escalas de tiempo que proponía la termodinámica y las
que necesitaba la geología y aun la biología. Las escalas se unificarían al
descubrirse, a fines del siglo XIX, la radiactividad, una fuente de energía
inmensamente poderosa y durable.
Así, la geología avanzaba desordenadamente. Aquí y allá aparecían nuevos
modelos, nuevas pruebas y nuevas explicaciones, pero faltaba una teoría
unificadora, capaz de organizar a la geología dentro de un marco firme, como
una rama de la ciencia estabilizada. Faltaba, en fin, aquello que define al
pensamiento en general y al pensamiento científico en particular: la síntesis.
§. Hacia la síntesis
El siglo XX marcó el fin de la exploración del planeta por parte de los
europeos, que detallaron cada rincón y levantaron mapas con los últimos
detalles: el noruego Roald Amundsen visitó en 1904 las profundidades del Polo
Norte y, en 1911, fue el primer hombre en pisar el Polo Sur. En 1953, Tenzig
Norgay haría cumbre en el Monte Everest, el más alto del mundo. Incluso el
lecho marino fue investigado hasta en sus profundidades más inaccesibles, en
buena medida como un recurso de guerra para poder detectar mejor los submarinos
enemigos.
A su vez, la perforación de un túnel a través de los Alpes, el Simplón, a
principios del siglo XX, para comunicar Suiza e Italia (un túnel que aún se
utiliza, y que en su momento fue un emprendimiento gigantesco, que parecía
alcanzar los límites de la potencia humana —y en cierto modo lo hacía—) brindó
una posibilidad ideal para conocer el corazón de una montaña, y se pudo
observar directamente que la teoría de las capas de corteza terrestre que se
amontonaban por presión lateral, como ocurriría si la Tierra se contrajera, no
era cierta, sino que más bien se habían corrido o superpuesto unas sobre otras.
Por otra parte, se comprobó que la densidad de la corteza terrestre no es la
misma en todas partes, sino que el material más liviano es el que forma los
continentes (constituidos sobre todo por silicatos de aluminio), mientras que
el más pesado es el que se junta en el lecho marino, formado por silicatos de
magnesio. Los continentes, efectivamente, y como lo había propuesto Dutton en
el siglo XIX, eran como balsas livianas apoyadas en un líquido más denso.
Al mismo tiempo, Arthur Holmes (1890-1965) avanzaba en la medición de la edad
de la Tierra, que extendió primero a 1.600 millones de años y luego a la cifra
que hoy manejamos: 4.500 millones.
Uno puede pensar que en el siglo XX la velocidad de los descubrimientos
científicos y el tiempo mismo de la ciencia se aceleraron, y en verdad así lo
parece, aunque esa aceleración puede ser un efecto de perspectiva: siempre
parece que nuestra propia época progresa o transcurre más rápido que las
anteriores.
Lo cierto es que las teorías se afinaban: los geólogos acordaron que se habían
producido cuatro glaciaciones separadas por períodos más cálidos, aunque las
causas de esas glaciaciones seguían siendo desconocidas. Algunos, como Milutin
Milankovitch (1879-1958), trataban de explicarlas por medio de fenómenos
astronómicos, mediante un modelo matemático acerca de la forma en la que el
calor solar afecta la temperatura de la atmósfera. Las mediciones de
Milankovitch no siempre encajaban bien en los períodos de las glaciaciones y no
fueron pocos los que descartaron su hipótesis. Köppen (1846-1940), en cambio,
la desarrolló más y publicó un libro sobre el tema.
A Köppen lo ayudaba su yerno, el también meteorólogo Alfred Wegener
(1880-1930), quien por entonces era un poco conocido pionero en el uso de
globos aerostáticos para estudiar el clima. Pero pronto revolucionaría, con
inspiración y errores, toda la geología.
§. Wegener
Wegener nació en Berlín el 1° de noviembre de 1880 y estudió en las
universidades de Heidelberg, Innsbruck y Berlín, consiguiendo su doctorado en
astronomía en esta última en 1905. Después entró en el Observatorio Aeronáutico
Prusiano, en Tegel, donde trabajó durante cierto tiempo junto con su hermano
Kart, con quien emprendió un vuelo en globo que duró 52 horas y media, un
tiempo récord entonces, para probar ciertos instrumentos. Luego fue el
meteorólogo de una expedición danesa hacia el interior de Groenlandia y más
tarde se incorporó a la Universidad de Marburgo como profesor de meteorología y
astronomía. Publicó un libro de texto de meteorología en 1911, pero para
entonces ya estaba desarrollando sus teorías sobre la deriva continental, que
se editaron por primera vez en 1912, en un par de informes basados en
conferencias que había dado en Frankfurt del Main y en Marburgo en enero de
aquel año.
En 1913, contrajo matrimonio con Else Koppen, pero su vida académica fue
perturbada por el estallido de la Primera Guerra Mundial, y Wegener fue
reclutado como teniente en la reserva. Fue herido dos veces en el frente
occidental, a consecuencia de lo cual lo declararon inútil para el servicio
activo y lo trasladaron al servicio meteorológico del ejército.
Durante el período de convalecencia de sus heridas, redactó la primera versión
de su famoso libro El origen de los continentes y de los océanos,
que dicho sea de paso —o no tan de paso— produjo un impacto insignificante, en
gran parte porque se publicó en 1915, en medio de la guerra, y las cosas no
andaban como para pensar en continentes que se movían: había cosas más
urgentes, como invadir países y enfrentar ejércitos en una interminable
estrategia de trincheras.
Cuando terminó la guerra, Wegener fue profesor de meteorología en la recién
fundada Universidad de Hamburgo y se hizo conocer como un meteorólogo
destacado, aunque no por eso abandonó la teoría geológica, y publicó versiones
sucesivas y aumentadas de su libro. A partir de 1924, fue profesor de
meteorología de la Universidad de Graz, en Austria, y en ese mismo año publicó,
junto con Wladimir Köppen, un trabajo que intentaba explicar la evolución y el
desarrollo del clima pasado basándose en la hipótesis de la deriva continental.
Su muerte fue trágica. A los 49 años, en 1930, Wegener dirigió una expedición a
Groenlandia con el objetivo de encontrar pruebas que apoyaran la hipótesis de
la deriva, pero la expedición se vio en apuros y en el campamento escasearon
las provisiones. El 1° de noviembre de 1930 (el día en que cumplía 50 años)
Wegener se dirigió en compañía de un esquimal hacia la base principal situada
en la costa, pero nunca llegó. Durante la primavera siguiente, su cuerpo fue
hallado en el casquete glaciar, en la ruta que enlazaba los dos campamentos,
cuidadosamente envuelto en su saco de dormir y con los esquíes plantados hacia
arriba marcando el lugar; de su compañero nunca se volvió a saber nada.
§. A la deriva
Hablemos, ahora sí, de la teoría propiamente dicha. En 1912, Wegener retomó la
idea de que los continentes alguna vez habían estado comprimidos en un solo
proto continente al que llamó Pangea («todas las tierras»), que subsistió al
menos hasta el período carbonífero, hace alrededor de 300 millones de años. Le
parecía probable que un poco después, o a lo sumo en el Jurásico (hace unos 180
millones de años), comenzara a romperse y separarse hasta generar los
continentes actuales.
Los continentes, a su vez, se habían «movido» hasta el lugar que ocupan ahora
y, en principio, seguían moviéndose. Wegener partía del hecho desconcertante
—ya advertido tanto por los geólogos, como por los geógrafos y los mismos
escolares— de que la costa oeste de África encastra perfectamente con la
brasileña y el Caribe, como si fueran las piezas de un rompecabezas, y lo mismo
pasa en el Pacífico y América del Norte, por un lado, y Madagascar e India, por
el otro. Esta complementación se hace aún más obvia cuando, en lugar de
comparar las costas, se comparan las partes sumergidas.
Había muchas más evidencias: una de ellas, como ya les conté, era el
asunto de que los fósiles que se encontraban en cada una de las «piezas» de
este rompecabezas coincidían, indicando que habían estado pobladas por una
fauna y una flora similares. Obviamente estos organismos nunca podrían haber
cruzado los océanos tal como los conocemos hoy, y la teoría de un
supercontinente parecía a Wegener más plausible que los «puentes terrestres»
que postulaban algunos geólogos para explicar la «coincidencia» (puentes que,
dicho sea de paso, nadie sabía adónde habían ido a parar).
Además, había evidencias de una glaciación en el período Pérmico, hace unos 260
millones de años, en lugares actualmente tan alejados y con climas tan
distintos como Australia, África, India y Sudamérica. Semejante coincidencia
sólo podía explicarse si entonces hubieran estado todos en la misma región del
planeta y hubieran compartido el mismo clima.
Y, por si todo esto fuera poco, la hipótesis de la deriva también proveía una
explicación interesante para la formación de las montañas: si los continentes
se movían hasta encontrar un límite que les ofreciera resistencia, su
superficie se plegaría formando cordilleras, de la misma manera que lo hace un
mantel que se desliza sobre una superficie y encuentra un obstáculo. La Sierra
Nevada sobre el Océano Pacífico en América del Norte y los Andes en el Sur se
citaban como ejemplo. Wegener también sugirió que la India se había desplazado
hacia el norte, hacia el interior del continente asiático, formando así los
Himalayas, en tiempos muy recientes (en tiempos geológicos muy recientes,
claro), a juzgar por su enorme altura.
§. Pero había un problema
La hipótesis de la deriva continental tuvo poco éxito y en general no fue muy
bien recibida por la comunidad geológica. Y la verdad es que, por más
explicativa que resultara, tenía una falla grande: Wegener era incapaz de
proponer un mecanismo que justificara la deriva y la forma en que los
continentes podían vencer la enorme fricción que implicaba arrastrarse sobre el
lecho marítimo.
En realidad, no es que fuera incapaz de proponer un mecanismo cualquiera: era
incapaz de proponer un mecanismo convincente. Porque lo cierto es que ensayó
dos hipótesis ad hoc que «justificaban» el movimiento. Una era
que la Luna ejercía una atracción que desplazaba las masas continentales hacia
el Oeste. Cuando se calculó esa fuerza, arrojó una cifra ridícula en
comparación con la que hacía falta. La otra era que la rotación terrestre
producía una fuerza centrífuga que alejaba a los continentes del Ecuador. La
comunidad científica la rechazó principalmente debido a que las fuerzas
generadas por la rotación terrestre tampoco alcanzaban ni lejanamente para
justificar el desplazamiento.
Así, aunque la teoría de la deriva continental podía dar cuenta de muchas
cosas, le faltaba lo fundamental, es decir, explicar cómo podía ser que los
continentes anduvieran a la deriva, en un momento en que en la geología
prevalecía una visión estática sobre el interior de la Tierra. Porque si bien
muchos de los argumentos parecían contundentes, había demasiadas cosas que
quedaban en la oscuridad. Wegener, de hecho, aseguraba que en realidad a su
teoría le faltaba un «Newton», lo cual seguramente era una exageración.
Pero así, sin Newtons a la vista, la cosa no andaba.
§. Aparece una posibilidad: las placas tectónicas
Sin embargo, en 1929, más o menos en la época en la que Wegener dejaba de ser
tenido en cuenta y un año antes de su muerte, Arthur Holmes, el mismo que había
medido con precisión la edad del planeta mediante la radiactividad, comenzó a
trabajar con una hipótesis diferente que dio a conocer en 1944. Ese año,
publicó un libro que se convirtió en un clásico de la disciplina (Principios
de geología física), en el que incluyó un capítulo sobre la hipótesis de
que los continentes andaban a la deriva flotando por el planeta sobre un mar de
roca fundida, el manto, que era más denso, pesado y en constante ebullición.
Dentro del manto, las zonas más profundas y calientes ascendían en forma de
corrientes de lava elevándose desde lo profundo, hasta enfriarse y volver a
caer, formando verdaderos chorros de roca ardiendo que suben y luego bajan. El
proceso de enfriamiento y calentamiento, repetido en muchas ocasiones, daba
como resultado una corriente suficientemente fuerte como para mover los
continentes.
Holmes sugirió que esta convección térmica funcionaba como una especie de cinta
transportadora: la presión ascendente podía romper un continente y hacer que
sus partes se movieran en direcciones opuestas.
Tenía sentido, pero había dos inconvenientes. Por un lado, casi del mismo modo
en que Aristóteles creía en un espacio supralunar inconmovible y ajeno al
cambio, todavía los geólogos creían firmemente en un interior de la Tierra
estable y quieto; por el otro, la convección térmica era incomprobable en esa
época y, por lo tanto, no llegaba ni a la categoría de hipótesis.
Para hacerlo, necesitaría del desarrollo de una nueva disciplina, o
subdisciplina, o campo de estudios, o como se quiera llamarla. Es un lugar
común en la historia de la ciencia: una teoría parece estancarse y, por más que
acude a todos los medios que tiene a su alcance, no logra salir adelante. Y lo
que ocurre es que las herramientas que tiene a mano, tanto teóricas como
observacionales, muchas veces no son suficientes, y posiblemente necesite de
unos cuantos años para que aparezcan nuevas herramientas y se demuestren
competentes para resolver las incógnitas (o, eventualmente, la falsedad) de la
teoría. Herramientas que, dicho sea de paso, no necesariamente están concebidas
para afrontar los problemas que la teoría en cuestión había dejado sin
solucionar. Por ejemplo, el desarrollo de la teoría celular, como vimos en su
momento, se debió en gran parte al progreso de los microscopios. Pero este
progreso no era un resultado del desarrollo de la biología sino de la óptica.
Lo cuento porque muchas veces se dice que una teoría «inventa» sin mayores
fundamentos las herramientas que necesita, para asegurarse su éxito, pero si
bien a veces puede llegar a ser cierto, ejemplos como el del microscopio, en el
que las herramientas fueron inventadas desde otra teoría, lo desmienten.
Lo que ocurrió es que, después de la Segunda Guerra Mundial, se intensificó el
estudio del lecho oceánico y del magnetismo remanente que el campo magnético de
la Tierra dejaba en las rocas (lo cual, de paso sea dicho, no era para nada
desinteresado: las potencias buscaban desesperadamente desarrollar técnicas que
permitieran detectar submarinos y minas magnéticas).
Pero lo que se vio en esa exploración terminaría siendo fundamental para la
teoría de la deriva continental: escarbando en las montañas, se verificó que
pequeños fragmentos con carga magnética habían «acomodado» sus polos dentro de
las rocas en formación de acuerdo con la distribución de los polos magnéticos
terrestres en la época (los polos magnéticos no son fijos, sino que derivan y
en ciertos casos se invierten: el polo norte pasa a ser sur y viceversa).
Calculando de qué época era esa roca se podía calcular también dónde se había
ubicado el norte magnético de ese entonces. También ocurría que grandes
superficies de rocas del mismo período, pero en continentes distintos,
señalaban nortes magnéticos diferentes, lo que permitía suponer que los
continentes se habían movido.
Por un lado, entonces, se pudo observar que los patrones magnéticos impresos en
las rocas, efectivamente, se disponían de un modo tal que apoyaban la hipótesis
de la deriva (por ejemplo, los estudios paleo magnéticos de los años cincuenta
en la India coincidieron con la idea de Wegener de que ese subcontinente había
chocado con Asia). Pero, además, la detección de rasgos como fisuras oceánicas
sugería que la convección —el movimiento ascendente de la roca caliente en el
manto— efectivamente podía estar funcionando.
Semejantes descubrimientos (y otros) llevaron a Harry Hess (1906-1969) y a
Robert Dietz (1914-1995) a publicar la hipótesis basada en las corrientes de
convección del manto, conocida como sea floor spreading, algo así
como «dispersión del lecho marítimo». Era básicamente lo mismo que había
propuesto Holmes más o menos treinta años antes, pero ahora había mucha más
evidencia a favor.
En 1967, Dan McKenzie (n. 1942) utilizó por primera vez el término «placas» en
un artículo de la revista Nature para describir esos bloques
macizos que «flotaban» sobre el manto. Ésa fue la partida de nacimiento que le
faltaba a la criatura que poco a poco comenzó a ser aceptada en el mundo
científico.
Las placas tectónicas
Como pueden ver en la imagen, las «placas» son sólo un puñado: algunas
cargan con continentes o fragmentos de continentes sobre ellas, otras, con
trozos de corteza submarina y otras, con las dos cosas. La placa sudamericana,
por ejemplo, está constituida por el continente sudamericano y por parte del
océano Atlántico. Es más: el lecho marino, e incluso los continentes que
Wegener pensaba que eran una especie de unidades mínimas, en realidad no tienen
casi relevancia en términos geológicos. Lo importante son las placas, que a su
vez se conectan entre sí de maneras distintas.
El funcionamiento de este modelo, en la actualidad, está fuertemente
establecido y comprobado, y es relativamente simple. La corteza está dividida
en un puñado de placas, que pueden tener tanto continentes visibles en la
superficie como lechos marítimos y que se tocan unas con otras. Las placas
flotan sobre el «manto», la capa de roca fundida que cuando sale por los
volcanes se llama magma o lava. Dentro del manto se producen corrientes de roca
que arrastran las placas de la corteza hasta que chocan y comienzan a
superponerse como explicaba Wegener. La que queda abajo se calienta, funde y
mezcla con el manto. Mientras, en el fondo de los océanos surgen nuevos trozos
de manto enfriado, es decir, de roca. ¿Por qué surge roca nueva? Cuando una
placa se desplaza, se aleja de otra y se produce una fisura. Por ahí aflora el
manto en forma de magma y se va formando nuevacorteza. Así se explican océanos
y montañas. El océano Atlántico se formó durante los últimos millones de años
porque las placas de América y África se separan unos cuatro centímetros por
año (los inmigrantes europeos que llegaron a Latinoamérica hace un siglo
tuvieron que recorrer cuatro metros menos de los que serían necesarios hoy). Y
Wegener tenía razón: el Himalaya, la cadena montañosa más alta del mundo, es
consecuencia del choque de la placa indoaustraliana que empuja contra la placa
euroasiática. Lo mismo ocurre con la cordillera de los Andes, consecuencia del
choque entre las placas de Sudamérica y la llamada placa de Nazca.
§. La estructura de la Tierra
Así, la tectónica de placas redondeó la descripción del planeta y permitió dar
respuesta a muchos y viejos enigmas: los terremotos, por ejemplo. La nueva
teoría explicaba que las placas se desplazan lentamente; al chocar, juntan
presión y, cuando ésta se hace demasiado intensa, se produce un ajuste
repentino que se traduce en una sacudida. Lo mismo puede decirse de las
explosiones volcánicas, que estallan por la enorme presión generada en las
colisiones subterráneas. Las últimas explosiones del Etna se debieron a que
Italia está en el borde de la placa africana, que empuja contra Europa haciendo
subir los Alpes y estallar el volcán.
También se ha elaborado una razonable descripción de cómo es la Tierra por
dentro. Hoy se sabe que la corteza terrestre sobre la que vivimos y sobre la
que se apoyan los océanos es delgada: tiene de 5 a 70 kilómetros promedio,
según se la mida en el lecho marino o en una región montañosa. Es muy poco si
se la compara con los 6.300 kilómetros de radio del planeta: en proporción, es
menos que la cáscara de una naranja respecto de toda la naranja.
La estructura de la tierra
Debajo de esta corteza insignificante se encuentra el manto, que llega
hasta los 2.800 kilómetros de profundidad y que está formado por rocas en
distintos estados de fusión: las rocas del manto fundidas o semi fundidas
fluyen lentamente y gigantescas corrientes de roca más caliente que su entorno
suben desde las profundidades hasta la corteza, chocan con ella y se desplazan
hacia los costados con la fuerza de un monstruo imparable.
Debajo mismo del manto está el núcleo terrestre, que soporta el peso de todo el
planeta y que tiene también unos 3.500 kilómetros de radio, aproximadamente el
tamaño de Marte. Está formado de hierro, un poco de níquel y pequeñas
proporciones de otros elementos (oxígeno, azufre y potasio). La parte externa
del núcleo es líquida (fluida) y su parte interna sólida. En cuanto a su
temperatura: en la frontera entre manto y núcleo hay unos 3.300 grados. Dentro
del núcleo, entre el límite líquido y sólido, llega a unos 6.600 grados, más
que en la superficie del Sol. La conexión más directa que existe entre el manto
y la superficie terrestre, además de los movimientos que producen los
terremotos, son los volcanes, que funcionan básicamente como caños conectados
con el interior de la Tierra. Cuando el magma sale por el cráter y entra en contacto
con la atmósfera, empieza el desastre: los gases se liberan y las rocas
fundidas salpican y arrasan todo lo que está a su alcance. Incluidas ciudades
enteras.
§. Un planeta con su historia
Pero eso no era todo. Una vez armada la tectónica de placas, con sus
supercontinentes que se rompen, sus continentes que navegan y sus acuciantes
cordilleras alzándose, sus volcanes mensajeros del desastre y con la avalancha
de datos, mediciones, exploraciones, dataciones y otros «ones» cada vez más
precisos, se pudo reconstruir la historia de ese planeta que llamamos Tierra:
el Sistema Solar nació hace cuatro mil quinientos millones de años, como una
esfera de polvo estelar que rotaba alrededor del Sol recién nacido, que
empezaba a transformar su enorme peso en gigantescas temperaturas en su centro
y, con ellas, a fusionar el hidrógeno para dar luz y calor.
Los pedazos de polvo chocando una y otra vez se pegotearon hasta formar piedras
y fragmentos más grandes que siguieron creciendo hasta ser primero planetoides
y luego planetas. Podemos soñar la primera imagen de la Tierra: una enorme
esfera de hierro y níquel envuelta por un manto de roca en estado de fusión. En
pocos millones de años más, en la parte superior del manto se formó una especie
de costra que flotaba sobre la roca fundida, mientras el planeta entero era
bombardeado por meteoritos.
Quinientos millones de años después, la lluvia de meteoritos cesó. La Tierra
tenía ya un manto y un núcleo, mientras la costra se fundía, volvía a subir y
se enfriaba, reciclándose una y otra vez, acumulando materiales más pesados;
había ya parches continentales más grandes y empezó a formarse la corteza
oceánica.
Mientras tanto, el agua lanzada como vapor por los volcanes elementales del
principio y traída por los meteoritos del bombardeo llenaba los huecos; para la
época del fin de la lluvia de meteoritos, parece, había ya océanos en este
mundo primitivo y desolado, en cuya atmósfera faltaba por completo el oxígeno,
que empezó a acumularse cuando apareció la vida en el mar, hace tres mil
quinientos millones de años.
Los primeros continentes eran pequeños y crecían despacio, pero mil quinientos
millones de años más tarde aparecieron los continentes verdaderamente grandes,
hasta que fueron suficientemente pesados para partirse e iniciar el ciclo
geológico de las placas tectónicas, agrupándose y rompiéndose una y otra vez.
Dos mil millones de años más tarde, el Homo sapiens evolucionó
en uno de los continentes resultantes de la última fractura: África. Nada,
apenas un suspiro en la inmutabilidad y serenidad de la roca.
Interludio:
Canción de cuna del volcán (glosa)
Nana, niño, nana,
del volcán enorme
arrojando lava.
Cenizas oscuras
por doquier brotaban
cubriendo los campos
como fina grava
que mata al ganado
y quema las plantas.
Nana, niño, nana,
del volcán enorme
arrojando lava.
Duérmete, clavel,
que el volcán se comienza a encender.
Duérmete, rosal,
que el volcán ya comienza a estallar.
El cráter muy fino,
la cumbre astillada,
el túnel enorme
donde sube el magma.
Lanzaban ceniza
¡ay, cómo lanzaban!
La sombra corría
más fuerte que el agua.
Duérmete, clavel,
que el volcán se comienza a encender.
Duérmete, rosal,
que el volcán ya comienza a estallar.
Allá en lo profundo
se funden placas
y forman burbujas
de roca incendiada
que suben cruzando
la corteza blanda.
Duérmete, clavel,
que el volcán se comienza a encender.
Duérmete, rosal,
que el volcán ya comienza a estallar.
Nube cenicienta,
residuos de magma.
¡No vengas, no entres,
cierra la ventana!
¡No cubra la nube
tu colcha de Holanda!
El niño se duerme.
El niño descansa.
Duérmete, clavel,
que el volcán ya comienza a ceder.
Duérmete, rosal,
que el volcán ya se empieza a apagar.
Capítulo 33
La genética
Las leyes que gobiernan la herencia son desconocidas. Nadie puede decir
por qué algunas características se heredan a veces sí y a veces no; por qué un
individuo se parece en ocasiones a sus abuelos o a antepasados aún más remotos,
ni por qué algunas peculiaridades se transmiten a los descendientes de ambos
sexos y otras sólo a los de un sexo.
DARWIN
En el campo de las ciencias biológicas, el siglo XIX había sido testigo
de una gran revolución. La gran teoría de la evolución de Darwin se había
convertido finalmente, con mucho esfuerzo, en el eje de toda la biología,
gracias a una ley sencilla pero apabullantemente sintética que daba cuenta de
la multiplicidad de la naturaleza: la selección natural. Era una ley
impresionante, por cierto, pero tenía un delicadísimo problema. Recuerden que
la selección natural actuaba sobre las variaciones naturales que aparecían en
cada generación de una especie, conservando las «buenas» (las adaptativas) y
descartando las «malas» (las menos adaptativas), en una acción que se
arrastraba lentamente a lo largo de las eras. Pero ocurría que nadie —con una
sola excepción— tenía la menor idea de cómo funcionaban los mecanismos de la
herencia.
Darwin, por ejemplo, creía que los caracteres de un individuo eran una especie
de mezcla o promedio de los de sus progenitores, lo cual no dejaba de plantear
un problema: ¿qué pasaba cuando emergía un rasgo adaptativo, pero el poseedor
de ese rasgo se apareaba con individuos que no lo poseían? ¿Los rasgos nuevos
no terminarían diluyéndose en el promedio general? Para salvar este
inconveniente (que no era el único), los evolucionistas abandonaron en parte la
idea de la selección natural actuando sobre individuos y pensaron en
poblaciones portadoras del nuevo rasgo que se apareaban entre sí,
perpetuándolo. Pero la solución era más bien oscura, porque era difícil admitir
que aparecieran de la nada poblaciones enteras con un rasgo nuevo.
La falta de una teoría sobre la herencia constituía sin duda el flanco débil de
la concepción darwiniana. Al no poder explicar el origen de la diversidad de
rasgos que permitía la acción de la selección natural, ni la manera en que esos
rasgos, una vez seleccionados, se mantenían sin perderse a través de las
generaciones, nuestro buen amigo se vio obligado a emparchar una y otra vez la
teoría de la evolución, introduciendo incluso dudosos elementos lamarckianos.
Y sin embargo, mientras Darwin se enfrentaba infructuosamente con el problema,
la solución empezaba a gestarse en un monasterio austríaco, donde un
contemporáneo suyo estaba a punto de dar con las reglas básicas del mecanismo
de la herencia de las características físicas.
El tema, en realidad, y como siempre, era muy antiguo.
§. Breve historia del asunto
Porque obviamente, desde siempre, se supo que los hijos se parecen a los
padres, a los abuelos, a los tíos o incluso a parientes más lejanos. Pero la
humanidad vivió durante muchos siglos —durante la mayoría de su historia, en
realidad— sin comprender los mecanismos de la herencia, a pesar de que usaba
algunos conocimientos intuitivos de manera práctica. Por poner sólo un ejemplo,
hace más o menos 7 mil años, en el período conocido como Neolítico, los hombres
comenzaron a domesticar animales, a cultivar plantas y a efectuar cruzas
eligiendo los ejemplares que resultaban más beneficiosos para obtener mejoras
en la descendencia. No quiero decir con esto que nuestros ancestros neolíticos
estuvieran al tanto de la genética, desde ya, pero lo que está claro es que al
menos operaban de manera básica con ella, sin tener ni la menor idea (por lo
menos, desde el punto de vista científico) de lo que estaban haciendo.
Durante mucho tiempo nadie se preguntó cómo funcionaba el mecanismo. Y cuando
se empezó a reflexionar de manera más o menos sistemática sobre el asunto (es
decir, cuando surgió la ciencia) se pensó que la clave de todo el asunto
debería residir en la «semilla».
Se trata de una viejísima metáfora: el viejo Hipócrates sostenía que las
diversas partes del cuerpo producían unas partículas específicas, o «semillas»,
que se transmitían a la descendencia en el momento de la concepción haciendo
que ciertas partes de la progenie se asemejaran a esas mismas partes de los
padres.
Aristóteles, por su parte, negó que el semen proviniera de todas las partes del
cuerpo: de hecho, los hijos muchas veces se parecen más a sus abuelos, o sus
bisabuelos, que a sus padres. Si era así: ¿de qué manera estos parientes
lejanos podrían haber contribuido con las «semillas» de la carne y de la sangre
que eran transmitidas de los padres a los hijos? Para resolver este enigma,
postuló que el semen del macho estaba formado por ingredientes mezclados en
forma imperfecta, algunos de los cuales habían sido heredados de generaciones
pasadas. El semen se producía en el cuerpo masculino a partir de la sangre, y
era un vehículo adecuado para transportar el pneuma, aquel
omnipresente principio vital encargado de iniciar el desarrollo fetal gracias a
un calor que estimulaba el crecimiento, del mismo modo que el Sol estimula el
crecimiento de las plantas. Por su parte, la materia del cuerpo era aportada en
forma exclusiva por el fluido menstrual de la mujer. El macho, en todas las
especies, aportaba el principio vital o alma; la hembra cooperaba con la
materia, además de hospedar al niño en su vientre y darle alimento. En la
fecundación, el semen masculino se mezclaba con el fluido menstrual, que para
él era el «semen femenino». En esa mezcla, el principio masculino le daba forma
a la sustancia amorfa femenina, a partir de la cual se desarrollaba la
progenie.
Galeno se diferenció de Aristóteles al intentar explicar por qué los hijos se
parecen tanto a su madre y ancestros maternos como al padre y ascendientes
paternos. Para él, ambos progenitores aportaban forma y materia al mismo
tiempo, y ambos eran capaces de contribuir al desarrollo del embrión, lo que se
conoció como «teoría de las dos semillas». Semillas que, dicho sea de paso, no
tenían la misma jerarquía: dado que las mujeres eran más «frías» que los
hombres y, por ello, más pequeñas, recubiertas con menos pelo, y con órganos
reproductivos internos, su aporte era más débil; en los hombres, el calor
interior hacía que los órganos reproductivos fueran externos y su semilla más
poderosa.
Bastante después se planteó la oposición entre epigénesis y preformación, de la
que ya hemos hablado en su momento, que se extendió a lo largo de varios
siglos. Recuerden: la disputa era sobre si el individuo que iba a nacer ya
estaba preformado en el semen masculino (o en el óvulo femenino) o si en verdad
surgía de un tejido indiferenciado.
Los preformacionistas pensaban que el semen o los ovarios femeninos albergaban
un hombre muy pequeño con todos sus órganos, y éste sólo necesitaba crecer en
tamaño, lo cual, en los humanos, tenía lugar durante los nueve meses de
embarazo. Se creía que sucedía lo mismo con todos los demás seres vivos; es
más, estaban convencidos de que todos los organismos, los pasados, los
presentes y los futuros, existían desde el primer acto creador y estaban a la
espera de ser activados mediante la fecundación.
William Harvey, el descubridor de la circulación de la sangre, fue el
representante más destacado del epigenetismo, la doctrina que negaba que el
organismo estuviera preformado y recuperaba las ideas de Hipócrates y de Galeno
de que todas las partes del cuerpo contribuían al desarrollo del futuro ser. Lo
que sostenía esta teoría es que el embrión se formaba a partir de una mezcla
más o menos homogénea de sustancias materna y paterna; a lo largo del
desarrollo, esa materia se iba diferenciando progresivamente y los distintos
órganos iban tomando forma. Harvey identificó al huevo como el rudimento de la
vida («ex ovo omnia», «todo viene del huevo») y explicó la reproducción
sexual en términos similares a lo que sucede en los animales ovíparos, como las
aves y los reptiles. Pero no pudo responder la pregunta sobre el origen último
del huevo en los organismos vivíparos, es decir, los que se desarrollan en el
vientre materno (lo cual es bastante lógico: el descubrimiento de los ovocitos
en los ovarios sería realizado dos siglos después, en 1827, por el biólogo
alemán Karl Ernst von Baer).
En el siglo XVIII, la teoría preformacionista tenía una buena cantidad de
adeptos, pero no tardarían en aparecer voces de discordancia. En 1745, el
físico y astrónomo francés Pierre Louis Moreau de Maupertius (1698-1759), a
través de su libro Venus Physique, se propuso desbaratar la
hipótesis de la preformación y afirmó que, en la herencia, el padre y la madre
realizan un aporte equivalente, determinado por el más ciego azar. El conde de
Buffon, por su parte, postuló la existencia de lo que denominó «moléculas
orgánicas», unidades primitivas que darían lugar a todos los seres vivos
uniéndose a lo largo del desarrollo del embrión y que, a manera de un molde,
mantenían las características de cada especie a través de las generaciones.
El siglo XIX heredó este panorama en el que nada estaba muy claro y en el que
las dos hipótesis convivían. El mismísimo Darwin, que para completar su teoría
de la evolución necesitaba una explicación coherente acerca del mecanismo
mediante el cual las características de una generación pasan a la siguiente,
postuló una hipótesis propia heredera de las ideas de Hipócrates, Galeno y
Harvey. Efectuó la primera presentación de su conjetura en 1868 (casi diez años
después de la publicación de El origen de las especies), en el
capítulo final de un libro sobre la variación en animales y plantas bajo la
domesticación. A su teoría le dio el nombre de «pangénesis», término que, en
virtud del prefijo griego «pan», indicaba que todas las células del
cuerpo contribuían a la herencia a través de unas partículas que bautizó como
«gémulas», que eran capaces de sufrir y cambiar al compás del medio ambiente, y
que se almacenarían en los óvulos o en los espermatozoides. Esta hipótesis
proponía que cada órgano y estructura del cuerpo producía gémulas, que llegaban
a los gametos a través de la sangre.
Lo cierto es que todos tanteaban en un terreno resbaladizo y oscuro, y Darwin
seguía sin una buena explicación para aclarar el mecanismo de la herencia.
§. Las arvejas dan la clave
Si Darwin hubiera leído este libro, se habría enterado de que en esos mismos
momentos, mientras él especulaba con inexistentes gémulas, un monje llamado
Gregor Mendel (1822-1884), en medio del silencio de un monasterio austríaco,
publicaba buena parte de la solución a este problema. Pero prácticamente nadie
lo leería hasta el siglo siguiente, cuando comenzara a desarrollarse la teoría
genética propiamente dicha.
Así eran las cosas y así son muchas veces: aislado de todos los científicos de
su época, un clérigo desconocido elaboraba las respuestas que necesitaba Darwin
y que, dicho sea de paso, no dependían del desarrollo de grandes tecnologías
(si se excluye la compleja y mal repartida tecnología de la paciencia).
Mendel nació en un pequeño pueblo llamado Heinzendorf, en la región de Moravia,
que en aquellos tiempos pertenecía al Imperio Austro-húngaro (y hoy forma parte
de la República Checa). Dado que sus padres eran campesinos pobres, la idea de
realizar estudios universitarios parecía ciertamente utópica, hasta que vino la
ayuda en la forma de unos dinerillos que le prestó su hermana menor y que le
permitieron asistir durante dos años al Instituto Filosófico de la ciudad de
Olmütz (actualmente Olomouc, República Checa). La vida no era fácil allí para
un estudiante sin recursos, por lo cual optó por la única salida viable para
alguien que en aquella época buscara una educación pero no tuviera el dinero
para solventarla: con el nombre de Gregor, entró como fraile en un convento
agustino en la ciudad checa de Brno (entonces Brünn), en el centro del Imperio
Austro-húngaro.
Dado que, a diferencia de otras órdenes, los agustinos daban mucha importancia
a la enseñanza y a la investigación, Gregor pudo estudiar todas las disciplinas
que lo entusiasmaban y —lo más importante para nuestra historia— tuvo libre
acceso al invernadero. Allí realizaría, entre 1854 y 1862, sus famosos
experimentos sobre la reproducción y la herencia, cuyos resultados presentó
tres años después en las reuniones de la Sociedad de Historia Natural de Brünn.
En 1866 los publicó en las actas de la Sociedad con el título de «Experimentos
sobre hibridación de plantas», y ciertamente hubieran generado una revolución
impresionante en el campo de la biología. Sin embargo, la publicación fue
ignorada por completo. Sólo se captaría su relevancia en la primavera de 1900,
treinta y cinco años después de la publicación, y dieciséis años luego de su
muerte.
Nada de lo que vio Mendel hubiera sido posible sin la ayuda de las generosas
arvejas (o guisantes), plantas útiles para el experimento, ya que son fáciles
de cultivar y se hacen adultas en una estación. Tienen además la particularidad
de ser autopolinizantes, es decir, contienen todo lo necesario para su
autorreproducción, sin necesidad de interactuar con otras.
Algo le llamaba la atención a nuestro monje en la homogeneidad entre sus
arvejas, porque comenzó a experimentar abriendo las flores antes de que se
desarrollaran del todo para quitarles el polen propio e intercambiarlo con el
de otra flor seleccionada para sus experimentos. De esta manera forzaba su
cruzamiento.
La historia es que reunió 34 cepas de arvejas de toda Europa y afinó sus
selecciones por medio de cruces forzados hasta obtener líneas o variedades
puras, es decir, que durante generaciones venían dando una característica
particular sin variaciones: altas, bajas, verdes, amarillas, gruesas, delgadas.
Centrémonos en el color. Gregor, gracias a sus entrecruzamientos, había llegado
a tener dos cepas de características puras: unas eran completamente verdes y
daban siempre arvejas verdes; otras eran completamente amarillas y daban
siempre arvejas amarillas. En uno de sus experimentos cruciales, mezcló plantas
de semillas que habían sido exclusivamente amarillas con otras similares, pero
verdes. El resultado fue una generación (llamémosla G1) de plantas totalmente
amarillas. Pero cuando mezcló las plantas de esta nueva generación entre sí,
observó con sorpresa que en la segunda generación (G2) aparecían plantas con
flores verdes en una proporción de 1 a 3. Obviamente, el carácter «verde» había
permanecido oculto y latente en la generación amarilla (G1).
La paciencia de Mendel era realmente monástica: después de generaciones de
experimentación obtuvo una muestra de 8.023 plantas que dieron una proporción
de 6.022 amarillas y 2.001 verdes, y después de realizar muchas observaciones
más, sacó algunas conclusiones, que van a resultar más claras si miran las
siguientes figuras:
·
En primer lugar, había una especie de «unidades de
herencia», capaces de transportar los rasgos de una generación a otra, que
Mendel llamó «factores hereditarios» y que se presentaban de a pares: los
padres contribuyen cada uno con uno.
·
Hay algunos «factores hereditarios» dominantes y
otros recesivos. Cuando ambos rasgos heredados indican que el descendiente sea
verde, la planta será verde, y si ambos indican que sea amarilla, será
amarilla. Pero ¿qué pasa si uno indica verde y el otro amarillo? Mendel
comprobó que en estos casos la planta sería amarilla porque este color, de
alguna manera, era más «fuerte» o «dominante» por así decirlo, que el verde,
que es recesivo.
·
Los factores recesivos no desaparecen, sino que
quedan ahí, y pueden ser transmitidos a la descendencia. Y así estos
ejemplares, que tenían un rasgo de cada tipo heredado de sus progenitores,
pasarían en partes iguales los rasgos verdes y amarillos a su descendencia, lo
que permitiría que éstos tuvieran en un caso los dos genes dominantes (como se
llama a los más «fuertes»), en otro los dos recesivos (los «débiles») y en
otros una mezcla. Sólo en el que tienen los dos recesivos la planta sería
verde.
Mendel había llegado a este secreto de la naturaleza sólo por la
estadística: sin microscopios, ni conocimientos de una ciencia genética que
simplemente no existía. En los años siguientes extendió sus experimentos a
otros fenotipos (rasgos observables), como plantas con semillas redondas o
arrugadas, y elaboró toda una serie de «Leyes descubiertas por los guisantes».
Pero aunque el descubrimiento era extraordinario, nadie parecía notarlo. Para
colmo se frustró en sus siguientes experimentos, en los que sus teorías no
pudieron avanzar. Había enviado su artículo a muchos naturalistas importantes,
pero sólo obtuvo respuesta de Karl Naegeli (1817-1891), un famoso botánico de
la época, que se mostraba escéptico y no podía entender cómo un híbrido Aa
transmitía el carácter A y perdía el recesivo, ya que defendía la idea de la
herencia por mezcla, por completo contraria a los resultados de Mendel. Naegeli
le recomendó experimentar con otra planta llamada «diente de león». Por
desgracia, Mendel no encontró rastros de sus leyes al experimentar con estas
plantas que, como se descubrió años más tarde, se reproducen sin fertilización
ni entrecruzamiento de distintos ejemplares, con lo cual cada descendiente es
un clon de la planta madre. Además, en 1868 fue elegido abad de su monasterio y
quedó absorbido por las tareas administrativas. Murió en enero de 1884, a los
63 años, dos años después que Darwin, quien nunca supo de sus trabajos.
Poco después de su muerte, en el patio del monasterio, en el lugar que había
ocupado el invernadero, se hizo una hoguera con todos sus papeles personales y
científicos. Es posible que el nuevo abad, por pura competencia con su
predecesor, quisiera eliminar todo recuerdo de su antecesor, unos papeles en
los que nadie parecía estar interesado.
Las tres leyes
Las conclusiones de Mendel dieron lugar a lo que se conoce como leyes de
la herencia, principios que funcionan demanera general en todas las especies.
La primera ley, de la «uniformidad de loshíbridos de la primera generación»,
afirma que cuando se cruzan dosindividuos de dos variedades puras de la misma
especie, que difieren en elaspecto que presenta un mismo carácter (por ejemplo,
semillas amarillasversus verdes), los descendientes serán iguales entre sí e
iguales a uno delos progenitores, el que aporta el factor dominante (semillas
amarillas).
La segunda ley es la de la «segregaciónde los caracteres» y demuestra que los
factores hereditarios constituyenunidades independientes, que pasan de una
generación a otra sin sufriralteración alguna. Si se cruzan entre sí los
descendientes de la primerageneración (a partir de dos líneas puras), el
carácter recesivo transmitidopor uno de los progenitores (semilla verde), que
no se manifestaba, se haceevidente en una cuarta parte, y el dominante en las
tres cuartas partes delos descendientes.
La tercera ley, de la «independencia delos caracteres», afirma — simplificando
muchísimo— que cada carácter sehereda en forma independiente de los demás.
Las tres leyes de Mendel permitenexplicar y predecir cómo serán los rasgos
físicos (fenotipo) de un nuevoindividuo. Ahora bien, sólo la segunda y la
tercera se refieren a cómo setransmiten los caracteres a la descendencia. La
primera, en cambio, no trataacerca de la transmisión, sino de la expresión de
los caracteres.
Suele afirmarse que, si Darwin hubieraconocido el informe de Mendel, habría
podido pensar en un mecanismo para laselección natural y su teoría habría
quedado mejor respaldada frente a losadversarios. Sin embargo, quienes se
oponían a esas ideas estaban menospreocupados por el mecanismo de la selección
natural que por el hecho mismode que esa selección hubiera acontecido: la
teoría darwiniana atacaba lascreencias más básicas acerca del lugar del hombre
en el universo y del papelde cualquier dios en la creación.
§. Una sustancia cualquiera
Para que en algún momento se llegara a la formidable síntesis que fue la
genética, primero fue necesaria otra síntesis de la que ya hablamos hace
algunos capítulos: la teoría celular, mediante la cual la biología alcanzó su
tan ansiada unidad fundamental.
Gracias a la formulación de la célula como unidad de la vida (es decir, gracias
a un concepto teórico) y al mejoramiento de los microscopios (es decir, gracias
a un progreso observacional), comenzaron a verse cosas que nunca antes se
habían visto o, si se habían visto, nunca se habían podido interpretar. En
1869, Johann Friedrich Miescher (1844-1895), que no sólo era suizo sino también
químico y trabajaba en un hospital de Tubinga, al sudoeste de Alemania, al que
llegaban heridos de la Guerra de Crimea, empezó a estudiar la secreción que se
juntaba en los vendajes. Rompió con enzimas digestivas la membrana celular de
los glóbulos blancos en el pus de las heridas y encontró una sustancia que
contenía fósforo y nitrógeno, hecha de moléculas en apariencia muy grandes y
que se encontraban en el interior del núcleo de los glóbulos blancos. La llamó
«nucleína» y, como una década más tarde se comprobó que tenía propiedades
ácidas, se la redesignó como «ácido nucleico». O mejor dicho, «ácidos
nucleicos», porque había de dos tipos: uno que contenía el azúcar ribosa y el
otro el azúcar desoxirribosa. Y por lo tanto, se llamaron ácido ribonucleico
(ARN) y ácido desoxirribonucleico (ADN). Miescher no abandonó sus ácidos y en
1889 aisló por primera vez el ADN del esperma de un salmón. Eran moléculas
grandes, pesadas, gomosas, molestas e incluso poco simpáticas, con una
indescifrable estructura y que, en principio, no servían para nada. ¿A quién
podían interesarle dos aciduchos que parecían estar ahí sin ningún motivo?
Había, sin embargo, algo que resultaba curioso: la cantidad de ADN en los
espermatozoides era la mitad del que había en las células normales. Cosa rara,
es cierto, pero nada más para una época que todavía no estaba lista para interpretar
la importancia del hecho.
En 1880, un biólogo alemán llamado Walter Flemming (1843-1905), trabajando con
las células, utilizó tintura roja y vio que se adhería a unas tiritas que
aparecían en el núcleo y a las que, justamente por su capacidad de recibir el
color, llamó «cromatina» (por chromo, color en griego). Y que jugaban, en
apariencia, algún papel importante en el proceso de la división celular: la
cromatina, observó, se agrupaba en forma de filamentos que emigraban a ambos
lados de la célula mientras ésta se estrechaba por el medio y se dividía en dos
—eso al menos era lo que se veía en el microscopio—. Ocho años más tarde, el
biólogo alemán Wilhelm von Waldeyer (1836-1921) llamó a los filamentos
«cromosomas» y enseguida se pudo comprobar que cada especie tenía un número
fijo y específico de esa especie (por ejemplo, el hombre tiene 23 pares, es
decir, 46 cromosomas). Pero además — ¡oh sorpresa!— resultaba que en las
células germinales había exactamente la mitad. A principios del siglo XX, el rompecabezas
se estaba armando. Pero, por el momento, todo permanecía en el estrecho ámbito
de lo puramente observacional.
§. Resucitan las leyes de Mendel
Los cada vez más detallados estudios empíricos sobre las células confluyeron
con la resurrección de las investigaciones de Mendel por parte de tres hombres
al mismo tiempo, para trazar el sinuoso camino de la genética.
En los últimos años del siglo XIX, un botánico holandés llamado Hugo de Vries
(1848-1935) llevaba cerca de veinte años cruzando un tipo especial de flores y
separando a aquellas que presentaban alguna particularidad llamativa. Después
de algunas generaciones, estas últimas habían sufrido lo que él llamó
«mutaciones» y resultaban imposibles de cruzar con las originarias. Era lo que
había imaginado Darwin, aunque sin poder demostrarlo experimentalmente.
Sus conclusiones se publicaron sobre el final del siglo en un libro que cayó en
manos de Karl Correns (1864-1933), quien había comenzado a experimentar con
arvejas y había llegado a conclusiones similares a las de Mendel. Al revisar
los archivos de su maestro Karl Naegeli, cuyo papel en esta historia les conté
un poco más arriba, se topó con la correspondencia que Mendel le había enviado,
y cuando leyó la obra de De Vries rápidamente encontró una similitud… una
enorme similitud con los resultados de nuestro monje, a tal punto que acusó a
De Vries de plagio.
El susodicho tuvo que «aceptar» que había leído a Mendel poco antes de publicar
su libro y que no lo había citado porque «no se había dado cuenta», aunque
aseguró que había llegado a las conclusiones por sí mismo. Haya sido como haya
sido, en las siguientes publicaciones reconoció explícitamente la primacía del
abad.
El tercer hombre fue el botánico austríaco Erich von Tschermak (1871-1962).
También él realizó experimentos con arvejas y también él llegó a las mismas
conclusiones que su compatriota había registrado unas décadas antes. Mientras
escribía los resultados de sus experimentos, Tschermak encontró una referencia
al trabajo de Mendel que lo llevó a buscar la obra y rápidamente descubrió que
el abad no sólo había llegado a los mismos resultados que él, sino que lo había
superado. En 1900, los tres investigadores publicaron una suerte de
reivindicación de la obra del monje.
Las leyes de Mendel experimentaron una verdadera resurrección. Pero, así y
todo, seguían sin dar ninguna respuesta (y ni siquiera una pista) acerca de la
naturaleza de lo que Mendel había llamado «factores hereditarios». El principio
organizador ya estaba; ahora el asunto era avanzar para describir esos
paquetitos de información que hacían que una arveja fuera verde o amarilla, que
un pájaro tuviera el pico de tal o cual forma o que un chico fuera rubio o
morocho, y no hubiera siempre una regresión al promedio, como temía Darwin.
Todo apuntaba a los cromosomas: al fin y al cabo, como los factores
hereditarios, aparecían de a pares. En 1902, el estadounidense Walter Sutton
(1877-1916), cuando aún era un estudiante, escribió un par de trabajos que
daban la demostración más temprana de cómo es que los cromosomas funcionan
dividiéndose y volviéndose a juntar en un individuo nuevo y sugirió que este
mecanismo podía dar cuenta de las leyes mendelianas. Pero había una objeción
casi de sentido común: los cromosomas eran muy pocos (23 pares, como
recordarán), y, si verdaderamente transportaban los factores hereditarios de
los rasgos, tenían que estar sobrecargadísimos.
«Factores hereditarios»: la terminología empezaba a resultar pesada. El 31 de
julio de 1906, durante la 3ª Conferencia de Hibridación y Reproducción de
Plantas, se aceptó la palabra «genética» (de la palabra griega genos,
que significa, entre otras cosas, «generación») como nombre para el estudio de
los fenómenos de la herencia y la variación y, en 1909, Wilhelm Johannsen
(1857-1927), un fisiólogo vegetal, decidió que los factores hereditarios
deberían recibir un nuevo nombre y los llamó «genes».
§. Aparecen candidatos firmes
Todos corrían la carrera en busca de esos «genes» hasta entonces invisibles. Y
la cosa transcurría con cierta vertiginosidad. Hacia el año 1908, Thomas Morgan
(1866-1945) instauró un nuevo método de experimentación con moscas del vinagre,
como se conoce habitualmente a la Drosophila melanogaster, bicho
que tiene la ventaja (para los investigadores, por supuesto, no para ellas) de
hacer todo su ciclo vital —desarrollo, reproducción y muerte— en dos semanas.
Era una gran mejora cronológica frente a las arvejas, con las cuales conseguir
una nueva generación llevaba meses.
Morgan estaba seguro, como tantos otros, de que los cromosomas tenían mucho que
ver con las leyes de la herencia, pero era obvio que no podían ser ellos mismos
los factores hereditarios, sino que, en todo caso, debían transportar
gigantescos paquetes de esos factores. A esos segmentos de los cromosomas que
efectivamente estaban encargados de almacenar la información hereditaria los
llamó, siguiendo la terminología de Johannsen, genes.
Herman Müller (1890-1967), biólogo estadounidense, se dedicaba mientras tanto a
preguntarse cómo es que si sólo se heredan rasgos paternos y maternos, cada
tanto pueden aparecer mutaciones que no tienen antecedentes en la especie. En
1923, tras numerosos experimentos en los que irradiaba los cromosomas con rayos
X, concluyó que las mutaciones que se observan habitualmente son producto de
una alteración aleatoria en los genes, cuyas consecuencias no se pueden
pronosticar (al menos hasta ese momento).
Por otra parte, entre 1926 y 1930, James Sumner (1887-1955) y John Northrop
(1891-1987) explicaron que todas las enzimas responden a las leyes de la
química y que no son otra cosa que proteínas que permiten la producción de
otras proteínas con distintas funciones para la vida.
Las proteínas, una suerte de comodín biológico, eran consideradas por todo el
mundo como las mejores candidatas para ser los genes, los mensajeros de la
herencia. Frederick Griffith (1881-1941) llegó a esa conclusión al intentar
aislar el principio gracias al cual la información de las células puede
intercambiarse, y lo cierto es que si en ese momento hubiera habido una
elección, las proteínas hubieran ganado por goleada.
Y entonces vino un alumno de Griffith, el canadiense Oswald Avery (1877-1955),
y mandó a parar. Con la intención de probar, como lo habían hecho Sumner y
Northrop con las enzimas, que los genes no eran más que proteínas, hizo el
experimento decisivo: en 1944 aisló extractos de células y comenzó a separar
proteínas, lípidos, ácidos nucleicos y otros a fin de ver cuál era el principio
fundamental que permitía seguir reproduciéndose a la bacteria que estudiaba.
Trabajaba con neumococos, los causantes de la neumonía. Y aquí viene el asunto,
porque había dos cepas: una era suave, rodeada por una cápsula protectora; la
otra, rugosa, sin cápsula. Por alguna razón, las bacterias rugosas no podían
sintetizar la cápsula. Avery le agregó a la cepa rugosa un extracto de la
suave; instantáneamente las rugosas empezaban a fabricar la cápsula.
Obviamente, el extracto transportaba las instrucciones para fabricarla, es
decir, conducía la información genética que le indicaba a la célula rugosa cómo
encapsularse. Ahí tenían que estar las ansiadas proteínas que, supuestamente,
acarreaban la información…
Era un momento vital para el desarrollo de la teoría biológica, uno de esos
momentos destinados a marcar un antes y un después en el ámbito científico, y
es lógico que Avery se pusiera a buscar con afán y ansiedad dentro de ese
extracto que daba la pauta para fabricar la cápsula. El problema es que, por
más que hurgó… ¡no había allí ninguna proteína! Había, eso sí, ácidos
nucleicos. La conclusión estaba a la vista: no eran las proteínas sino las
viejas y queridas moléculas de Miescher, el ARN y el ADN, esas inútiles, los
vehículos de la información hereditaria.
Empezaba una nueva época.
§. El asalto final: la doble hélice
Sabiendo que el secreto de la herencia se encerraba en el ARN y el ADN, en 1953
el estadounidense James Watson (n. 1928) y el británico Francis Crick
(1916-2004) que llegarían a ser dos de los científicos más reconocidos del
siglo XX, se prepararon para el asalto final: detectar la estructura del ADN.
El modelo que finalmente fabricaron indicaba una estructura en espiral de dos
tiras; cada tira es una larga cadena de fosfatos de los cuales cuelgan azúcares
y bases: cada par azúcar-base es un nucleótido. Hay sólo cuatro nucleótidos
diferentes, según la base que contengan (el azúcar es siempre el mismo). Las
dos tiras de la doble hélice, por su parte, están unidas por hidrógenos. Cuando
llega el momento de la reproducción, ambas tiras se separan y cada una fabrica
una réplica de sí misma.
Watson y Crick creyeron que las tiras principales estaban separadas y que cada
una servía como molde para la formación de otras moléculas. Este proceso
complejo de copiado explicaba la replicación de los genes y, eventualmente, de
todo el cromosoma.
Las cadenas de ADN tienen la forma de una escalera enroscada. Si tomáramos
todas las cadenas que se encuentran en una sola célula humana y las uniéramos,
obtendríamos un cordón de cerca de dos metros de largo y de 20 mil millonésimas
de centímetros de ancho.
Los laterales están hechos de grupos de azúcar y fosfato alternados. Los
«escalones» están formados por nucleótidos (bases nitrogenadas) de Adenina,
Guanina, Citosina o Timina, a las que, para facilitar, se llama A, G, C y T.
Por sus características químicas, la A sólo se puede unir con la T y la G con
la C, lo cual no deja tantas opciones de combinaciones.
Toda la información hereditaria, que especifica las características de un
individuo, está contenida en los genes y los genes no son sino trozos de ácido
desoxirribonucleico (ADN). Lo impresionante es que con apenas cuatro
nucleótidos, como si fueran las letras de un alfabeto mínimo, se escriben todas
las instrucciones necesarias para la materia viviente, desde los virus a los
elefantes, en secuencias como ATGTGAGGGGG, que especifican la forma en que cada
célula fabrica proteínas.
La longitud de los genes es variable, según la especie y la función: puede ir
de unos pocos cientos a varios miles de nucleótidos seguidos, que se aprietan
en mucho menos que una milésima de milímetro. Una señal (una cierta combinación
de nucleótidos) en la hebra indica que el gen comienza; una segunda señal
anuncia que empieza el mensaje genético (es decir, la sucesión de nucleótidos
relevante para la fabricación de una determinada proteína), hasta que una
tercera señal anuncia el fin del mensaje. Una última señal informa a quien
corresponda que allí termina el gen.
Puede parecer increíble, pero en esas secuencias está la información que permite
que se forme un ojo en toda su complejidad, que se produzcan jugos gástricos o
que indica la forma en que una neurona debe contactarse con otras para, por
ejemplo, leer estas líneas. Es un recetario para crear proteínas que se
combinan en una complejidad pasmosa. Es mucha información y cada célula la
tiene absolutamente toda porque, de hecho, nuestro cuerpo entero proviene de
una sola célula, formada por la unión de un óvulo y un espermatozoide que
sufrió millones de divisiones celulares.
El trabajo de Watson y Crick no fue un final sino un comienzo: con el tiempo se
fue revelando la gran cuestión pendiente, que consistía en determinar de qué
manera el orden de las unidades que componen el ADN (recuerden: ATCG) podía
especificar la secuencia de aminoácidos en una proteína. El mecanismo hallado
asombra por lo maravilloso. Dicho de manera simplísima: el ADN o, mejor, una
parte del ADN correspondiente a uno o varios genes, se copia en una molécula de
ácido ribonucleico (ARN), que se llama ARN mensajero. Este ARN mensajero sale
del núcleo y es llevado a los ribosomas, unos pequeños orgánulos que se
encuentran en el citoplasma de la célula, donde es «leído», y se ensamblan los
aminoácidos que formarán las proteínas.
§. Reproducción y evolución: la teoría sintética
Recién con el desarrollo de la teoría cromosómica, que explica la herencia y la
genética en general, se elaboró en la década del treinta la gran síntesis
neodarwiniana que dio al evolucionismo por selección natural una solidez
absolutamente indiscutible.
La fundación de la genética echó una nueva luz sobre el darwinismo: si los
caracteres pasan de generación en generación mediante unidades de herencia
discretas, como los genes, el punto oscuro de la teoría de Darwin quedaba
aclarado. Los genes sufren cada tanto leves cambios al azar (mutaciones), que
implican pequeñas modificaciones de los rasgos que transportan. Cuando se
produce la mezcla de portadores de caracteres «buenos» y «malos» (con todas las
salvedades del caso: recuerden que no hay caracteres buenos o malos de manera
absoluta, sino que dependen siempre del contexto), éstos no se mezclan en la
descendencia, sino que aparecen puros en el nuevo individuo. La selección
natural desecha a los portadores de genes con modificaciones «malas» y conserva
a los que tienen genes «buenos», expandiendo, de esta manera, estos últimos
genes, que sí se reproducen. Así, con la guía aportada por la genética —y no
sin duro trabajo—, entre 1930 y 1940 se elaboró la Teoría Sintética (o síntesis
neodarwiniana), que nuevamente dio una explicación acabada de la evolución
natural mediante los mecanismos mendelianos de la herencia y que uno de sus
notorios constructores, Theodosius Dobzhansky (1900-1975), resumió así:
«Evolución es un cambio en la composición genética de las poblaciones». Con la
nueva síntesis, otra vez pareció que el problema de la evolución estaba
terminado y que los problemas restantes serían solucionados por la nueva
genética de poblaciones.
Intervalo siniestro:
El caso Lysenko
Al compás del acordeón
canto en honor del gran Lysenko.
Gracias a sus enseñanzas
sembramos y recogemos el trigo
y hemos echado al mal tiempo de los campos
trabajando duro en ellos.
Todo miembro de las granjas colectivas
está orgulloso del gran Lysenko
que enseña a todo el país
cómo cultivar un jardín.
Hay una fiesta en la naturaleza
que cruza todo el país
y hará fructificar
la vida de la Unión Soviética.
Al compás del acordeón
canto en honor del gran Lysenko.
«El canto del koljós», letra de A.
SALNIKOVA, música de K.
MASALITAINOVA, canción de los
tiempos de Stalin en honor de Lysenko
Ésta es una historia trágica. De la misma manera que el juicio a Galileo
en el siglo XVII, el «caso Lysenko» muestra en el XX las nefastas y explosivas
consecuencias de la mezcla entre ciencia, política e intolerancia. En febrero
de 1935, en plena época estalinista, y durante el Segundo Congreso Soviético de
Granjas Colectivas de la URSS, un tal Trófim Denisovich Lysenko habló y
denunció a los genetistas que trabajaban científicamente y con rigor mendeliano
diciendo que eran «enemigos del pueblo». El mismísimo Stalin, que estaba
presente, interrumpió el discurso y gritó: « ¡Bravo, camarada Lysenko, bravo!».
Fue suficiente. A partir de ese momento, Lysenko inició un ascenso meteórico
que le permitió transformarse durante treinta años en el dictador de la biología
soviética. Y un dictador nada blando, por cierto.
¿Quién era Lysenko? Un biólogo del montón, que en los años veinte se había
interesado por la adaptación de ciertas variedades de plantas a climas
rigurosos. En diversos artículos aseguró haber obtenido fabulosos rendimientos
por hectárea, y reclamó que se extendieran sus «nuevos métodos» al conjunto de
la agricultura, ante el escepticismo de los biólogos soviéticos, que
cuestionaban el rigor de su metodología, la veracidad de sus cifras, o la
temeraria afirmación de que un experimento a escala reducida pudiera
generalizarse a un territorio tan vasto y complejo como el de la URSS. Otros,
simplemente, lo ignoraban.
Pero Lysenko, entre tanto, no se quedó con el resultado de sus «experimentos».
Entre 1931 y 1934 elaboró una «teoría» de la herencia que negaba todos los
principios de la genética mendeliana. Según Lysenko, los genes no existían y la
transmisión hereditaria era una propiedad general interna de la materia viva,
que no necesita de ningún mecanismo especial. La intención era clara: volver a
la ya refutada teoría lamarckiana según la cual los caracteres adquiridos por
adaptación al medio ambiente pueden ser transmitidos a la descendencia.
La ciencia soviética reaccionó, y con una catarata de trabajos refutó las tesis
de Lysenko. Lo cual no hubiera sido más que una mera polémica entre tantas, si
se recuerda que en aquellos años la genética, aunque ya bien establecida, no
tenía aún el formidable aparato de la biología molecular para respaldarla. Pero
en el medio se impuso el apoyo explícito de Stalin a las «innovaciones» de don
Lysenko, y una simple controversia académica se convirtió en una sangrienta
tragedia.
En 1937, una revista dirigida por Lysenko acusó con nombre y apellido a muchos
genetistas de bujarinistas y trotskistas (Bujarin acababa de ser ejecutado poco
antes). En febrero de 1938, Lysenko fue nombrado presidente de la Academia
Nacional de Ciencias Agrícolas. Su poder creció ininterrumpidamente con el
apoyo explícito de Stalin, que era su ardiente partidario, a pesar de los
fracasos que la aplicación de las tesis lysenkianas producía una y otra vez en
la agricultura y que eran sistemáticamente atribuidos a saboteadores, con la
consiguiente ola de denuncias y arrestos.
Buena parte de la plana mayor de la biología soviética fue eliminada: N. V.
Agol, acusado de trotskista, fue ejecutado; Levitt fue arrestado también y
murió pronto en prisión. Nikolai Ivanovich Vavilov, uno de los botánicos más
eminentes de su tiempo, fue enviado a la cárcel en 1940 y condenado a muerte.
Aunque la sentencia fue pospuesta, Vavilov murió en 1943 en la prisión de
Saratov.
En 1948, un decreto del Ministerio de Educación ordenaba la abolición de todos
los cursos sobre genética mendeliana, la eliminación de todos los proyectos de
investigación que tuvieran esa orientación, la erradicación de los libros que
la apoyaran y la reorganización de todos los departamentos de ciencias
biológicas de las universidades, destituyendo a los biólogos mendelianos y
reemplazándolos por lysenkistas (y esto ocurría sólo cinco años antes de que
Watson y Crick descifraran la estructura del ADN).
Desde 1948 hasta 1964, Lysenko reinó soberano en la biología y la agricultura
soviéticas (ya que, tras la muerte de Stalin, Krushov también le prestó su
apoyo, para desesperación de su hijo, Serguei Nikítich Krushov, que era
científico aeronáutico y no dejaba de decirle a su padre que el lysenkismo era
un disparate sin ninguna base racional). La investigación y el desarrollo en
una de las ramas más dinámicas de la ciencia contemporánea lentamente fue
deslizándose al marasmo y finalmente se detuvo, con sus lógicas consecuencias
en la agricultura: en 1963, por primera vez en su historia, la Unión Soviética
debió importar granos para alimentar a su población.
El desastre agrícola que el lysenkismo produjo en la Unión Soviética no fue
para nada ajeno a la caída de Krushov, el 14 de octubre de 1964. El retraso
científico en un área central como la biotecnología fue tal que la entonces
Unión Soviética nunca pudo recuperar el tiempo perdido.
§. El proyecto genoma humano
Pero volvamos a hablar de cosas felices. El desarrollo de la genética fue
espectacular, y en el año 1990 nació el ambicioso Proyecto Genoma Humano (PGH),
un programa internacional originariamente dirigido por James Watson, destinado
a determinar la secuencia completa de pares de bases químicas que componen el
ADN humano, es decir, cartografiar la totalidad de nuestra información
genética.
Inicialmente, se trató de un emprendimiento público, que se desarrollaba en
centros públicos de investigación y universidades, pero a partir de 1995
entraron en carrera empresas privadas como Celera Genomics, creada en 1998 por
el biólogo estadounidense Craig Venter, que ocultándose detrás de la intención
de poner en marcha un nuevo método de secuenciamiento, mucho más rápido, reveló
finalmente su intención de patentar genes (lo cual desató una verdadera batalla
económica y ética entre quienes sostenían que la información tenía que ser de
acceso público y los empresarios, que abogaban por un acceso restringido y
estaban decididos a recuperar el tiempo y el dinero invertidos).
Finalmente, con el acuerdo de ambos grupos, en junio de 2000 se dio a conocer
un borrador inicial del genoma. Un año más tarde, también ambos grupos
publicaron informes en las revistas Nature y Science,
donde revelaban la secuencia del genoma y finalmente, en abril de 2003, el
NHGRI (National Human Genome Research Institute) y el Departamento de
Energía de los Estados Unidos anunciaron oficialmente la terminación exitosa
del PGH. En un artículo publicado en Nature el 24 de abril de
2003, justo cuando se cumplían cincuenta años de la comunicación de la
estructura del ADN realizada por Watson y Crick, presentaron lo que denominaron
«una visión para el futuro de la investigación sobre el genotipo». Venter, por
su parte, debió admitir que la información fuera ofrecida al dominio público.
De hecho, los datos de la secuencia generados por el PGH fueron depositados en
bases de datos públicos y puestos a disposición de los científicos de todo el
mundo, sin restricciones en cuanto a su uso o redistribución.
El secuenciamiento del genoma generó algunas sorpresas: si bien se creía que
estábamos conformados por alrededor de 100 mil genes, resultó que no poseemos
más que unos 30 mil, un valor no muy lejano de los que poseen algunos gusanos.
Por otra parte, la evidencia mostró que la especie Homo sapiens,
según las evidencias arqueológicas y genéticas, tuvo un único origen en África
y de allí se dispersó a otras regiones del planeta. Quedó demostrado, al mismo
tiempo, que los genes que determinan ciertas características pueden ser muy
diferentes entre dos personas cuyos rasgos externos hacen que sean considerados
de la misma raza: dos individuos que pertenecen a distintas razas pueden
presentar más similitud genética en ciertas características que dos personas
que pertenecen a la misma. Lo cual, felizmente, transformó en obsoleto el
concepto de raza.
El secuenciamiento del ADN planteó, obviamente, nuevos desafíos. Uno de ellos,
por ejemplo, fue el del denominado «ADN basura». En un principio, se puso en
evidencia que sólo el 1,2 por ciento del ADN total está constituido por genes,
es decir, por secuencias que contienen claves para la fabricación de proteínas;
el resto no es más que una sucesión de «letras» en apariencia sin sentido, que,
según se pensaba, no servía para nada. Era un dato algo incómodo, pero la
investigación científica parecía confirmarlo: una buena parte del ADN, esa
molécula central para la vida, era absolutamente inútil. Sin embargo, un
informe de 2012 realizado por un proyecto internacional que involucra a más de
400 científicos (ENCODE) reveló que un porcentaje importante de ese conjunto
aparentemente inútil (al menos el 80 por ciento) cumple un papel central a la
hora de determinar el comportamiento de las células, los órganos y otros
tejidos: funcionan como una suerte de «interruptores» que activan o desactivan
a los genes y cuyo mal funcionamiento puede ser responsable de enfermedades
conocidas.
En fin: como ocurrió en su momento con la microbiología de Pasteur y Koch, la
genética despertó (y sigue despertando) expectativas desmesuradas sobre la
futura cura de enfermedades hasta entonces (y hasta ahora) rebeldes, como el
cáncer u otras. Muchas de esas ilusiones ya se revelaron como lo que eran
(justamente, ilusiones) y se vio que no guardaban relación con lo que
efectivamente podía lograrse en su momento. Si aún hoy mantenemos las
esperanzas de que la genética sea un puntal de la medicina, que en cierto
sentido lo es, todavía habrá que esperar e incorporar otros conocimientos y
técnicas, muchas de ellas novedosas e inimaginables por ahora.
Capítulo 34
La medicina científica entre la anestesia y los trasplantes
A lo largo de este libro hemos seguido la dudosa evolución de la
medicina y sus balbuceos desde los remotos tiempos de Hipócrates de Cos. Ya
entonces, les decía que recién en el siglo XIX logró, finalmente, constituirse
como una disciplina verdaderamente científica (en lugar de un conjunto de
prácticas sueltas, unidas por vacilantes, y a veces fantásticas, teorías
generales) y empezar el impresionante crecimiento que la llevó a alcanzar la
potencia que tiene ahora.
Naturalmente, esto pudo producirse al concretarse una unión de hierro con la
química, que también por entonces adquiría su mayoría de edad. Pero no
solamente: hubo otras vertientes que contribuyeron a encaminar y estabilizar el
ámbito de la medicina. Acaso una de las más importantes de todas haya sido la
teoría celular, formulada en su forma acabada por Rudolf Virchow, quien en 1858
aseguró:
No importa cuántas vueltas le demos, al final siempre regresaremos a la célula.
Si la patología sólo es la fisiología con obstáculos y la vida enferma no es otra
cosa que la vida sana interferida por toda clase de influencias externas e
internas, entonces la patología también debe referirse finalmente a la célula.
En contra de otras tradiciones que postulaban que el sitio de la enfermedad
eran los distintos órganos internos o incluso los tejidos, Virchow se remontaba
un paso más hacia el mundo de lo pequeño. La enfermedad actúa sobre las
células: era el comienzo de la patología celular.
Entre la idea de la patología celular, que establecía una alianza con la biología,
y el pacto de hierro que la medicina había sellado con la química, las cosas
estaban bastante encaminadas. Y no tenemos más remedio que volver al centro del
asunto, que es la teoría microbiana.
§. La teoría microbiana de la enfermedad (revisitada)
Fíjense que de todos los conceptos de enfermedad postulados a lo largo de la
historia, seguramente el más inverosímil e increíble es el que la concibe como
resultado de la acción nociva de agentes biológicos, en su mayoría invisibles.
Y sin embargo, la idea era antigua: Tucídides (ca. 460 a.C.) la insinúa
en su Historia de las guerras del Peloponeso, y a partir de
entonces circula por muchos otros autores. En el siglo XVI, Fracastoro había
señalado que el contagio de algunas enfermedades se debía a ciertas semillas.
Pero la primera demostración directa de un agente biológico en una enfermedad
humana la hizo Giovanni Cosmo Bonomo (ca. 1687), cuando describió con su
microscopio al parásito de la sarna, el ácaro Sarcoptes scabieii, y
con toda claridad le atribuyó la causa de la enfermedad; sin embargo, su
trabajo fue olvidado.
La primera prueba experimental de un agente biológico como causa de una
enfermedad epidémica la proporcionó Agostino Bassi(1773-1856), quien debido a
problemas con su vista (que lo acompañaron toda su vida y le impidieron el uso
del microscopio) había renunciado a su profesión de abogado y se había retirado
a su granja en Mairago. Allí, su interés científico lo llevó a estudiar una
enfermedad que presentaban los gusanos de seda: el calcinaccio o mal
del segno, por culpa del cual la larva se cubría de un polvo blanco y
moría. Bassi invirtió veinticinco años en el estudio sistemático de este asunto
y exploró la hipótesis de que la causa fuera un «germen externo que entra desde
fuera y crece» hasta que, finalmente, identificó al agente causal como un hongo
parásito. Entonces publicó sus observaciones, consignó la naturaleza infecciosa
de la enfermedad y dio las instrucciones completas para curar a los cultivos de
gusanos afectados mediante sustancias químicas que también él descubrió. Sin
ninguna prueba empírica, pero con bastante intuición, Bassi generalizó el
asunto y pensó que podía servir para comprender el funcionamiento de
enfermedades humanas como el sarampión, la peste bubónica, la sífilis, el
cólera o la rabia.
Pero el gran teórico de la enfermedad microbiana, si se quiere más que el
mismísimo Pasteur, fue Robert Koch, a quien nos hemos referido en el capítulo
26, y seguro que no con el detalle que merece su verdadero papel. Si bien a
Koch se lo conoce principalmente como el descubridor del agente causal de la
tuberculosis, el Mycobacterium tuberculosis, no fue ésa su
contribución principal a la teoría infecciosa de la enfermedad. Lo fundamental
fueron sus trabajos previos acerca del ántrax y las enfermedades infecciosas
traumáticas, que realizó cuando era médico de pueblo en Wollstein. Koch pudo
aislar los agentes causales microbianos de seis infecciones diferentes y
señaló:
La frecuente demostración de microorganismos en las enfermedades
infecciosas traumáticas hace probable su naturaleza parasitaria. Sin embargo,
la prueba sólo será definitiva cuando demostremos la presencia de un tipo
determinado de microorganismo parásito en todos los casos de una enfermedad
dada y cuando además podamos demostrar que la presencia de estos organismos
posee número y distribución tales que permiten explicar todos los síntomas de
la enfermedad.
La medicina se enrolaba así en el camino causal: una vez sabidas
las causas verdaderas de la enfermedad (pero esta vez no
adivinadas, o derivadas de una teoría más o menos fantástica —como la de los
humores— sino basadas en la prueba experimental), el camino se despejaba, y
quedaba establecido de inmediato el objetivo central del tratamiento: la
eliminación del parásito.
Luego, Koch estableció los procedimientos (identificación, aislamiento y
demostración de patogenicidad) que todavía sirven en las investigaciones sobre
la etiología de las enfermedades infecciosas, en lo que se conoce como los
postulados de Koch-Henle (por su maestro Henle). Al mismo tiempo, se definía un
programa de acción, desarrollo e investigación que la medicina seguiría —y
luego extendería a enfermedades no infecciosas— que consiste en encontrar
sustancias capaces de eliminar al microbio sin afectar al ser humano.
(Naturalmente, llegó el momento en que se demostró que no era cierto que todas
las enfermedades eran causadas por microorganismos.)
Todo esto, si se quiere, forma parte del crecimiento de la medicina en su
vertiente teórica. Pero antes de seguir quiero hablarles de otra cosa, que no
surgió de la teoría pero que hace directamente a la otra vertiente médica (el
arte de curar) y que fue uno de los pasos más gigantescos que la medicina dio
en toda la historia humana, sin el cual no habría medicina moderna.
§. La anestesia
La cosa venía desde hacía tiempo. Los antiguos egipcios habían logrado la
insensibilidad temporal aplicando presión sobre la arteria carótida en el
cuello, deteniendo de esa manera la circulación de la sangre en la cabeza. Los
chinos habían usado un anestésico llamado polvo Ma Fat, una especie
de hachís que descubrieron en el siglo II. El jugo de la mandrágora y otras
plantas fue empleado durante siglos para aliviar el dolor. Los indios
sudamericanos masticaban hojas de coca y cal y escupían en la herida mientras
operaban.
Paracelso, aquel médico-astrólogo suizo, extravagante y pendenciero, introdujo
el láudano en el siglo XVI; en 1805, Sertürner dio un paso adelante y extrajo
la morfina (un gran calmante) del opio crudo. Algunos «médicos» de París,
Edimburgo y Calcuta incluso usaron el hipnotismo para producir efectos
anestésicos temporales, y se dice que el cirujano francés Dupuytren solía
insultar deliberadamente a las damas para que éstas se desmayaran antes de una
operación. Sin embargo, la solución vendría de un lugar inesperado.
En 1842, William Thomas Green Morton, hijo de un agricultor y almacenero
acomodado de Massachusetts, EE.UU., presentó el resultado de sus esforzados
trabajos de investigación: una placa dental económica. Era un mecánico hábil,
que ya había inventado un soldador para fijar dientes postizos a placas
dentales, podía hacer puentes dentales e incluso alguna primitiva cirugía
plástica. La verdad es que su nueva placa era un verdadero adelanto, y el
público estaba dispuesto a acogerla con entusiasmo. Pero existía un grave
obstáculo…
Para que su placa se ajustara cómodamente al paladar, era necesario extraer las
raíces de los dientes viejos, e incluso dientes sanos. Lo cual, como es obvio,
dolía mucho (cualquiera a quien le hayan sacado una muela con anestesia y haya
soportado los dolores posteriores con potentísimos analgésicos puede imaginarse
fácilmente el mismo procedimiento pero sin ningún paliativo). De poder hallar
alguna manera de evitar el dolor durante la extracción, lo cual parecía
imposible, los dientes artificiales que estaba fabricando en gran escala
podrían venderse por millares y ganaría una fortuna.
No era el único que buscaba un antídoto contra el dolor: otro joven dentista
norteamericano, Horace Wells, estaba buscando el método de producir una
anestesia temporal para sus trabajos dentales.
Y, así son las cosas en la historia, en diciembre de 1844 Wells leyó un aviso
en el Courant de Hartford anunciando una demostración de un
artista ambulante, Gardner Q. Colton, quien prometía mostrar los efectos de un
«gas hilarante» que se administraría «solamente a caballeros sumamente
respetables para que el espectáculo sea refinado».
El gas hilarante no era nuevo, en realidad, sino que había sido descubierto por
Joseph Priestley en 1772, antes aún que el oxígeno. Veintitrés años después,
Humphry Davy, uno de los fundadores de la electroquímica, lo inhaló para
aliviar el dolor que le causaban sus encías inflamadas y observó su poder
anestésico.
Como el óxido nitroso en su amplia operación parece capaz de eliminar el
dolor físico, es probable que pueda ser usado ventajosamente en operaciones
quirúrgicas en que no tenga lugar una gran efusión de sangre
escribió.
Pero tuvo poca repercusión entre los médicos. En cambio, sí la tuvo entre los
artistas profesionales, que viajaron por el mundo haciendo demostraciones, a
una de las cuales, como les estaba diciendo, asistió Horace Wells junto a su
esposa luego de leer el aviso en el diario. El espectáculo, en el que vio
administrar el gas a varios voluntarios que perdieron todo sentido del dolor,
le hizo pensar a Wells que el famoso gas hilarante podía funcionar como
anestésico para sus operaciones dentales. Después de terminado el show,
convenció a Colton de que se lo administrara a él mismo y se hizo extraer un
diente sin sentir ningún dolor. Se convenció de tal manera de que ésa era la
sustancia que andaba buscando que logró concertar una demostración pública ante
la Facultad Médica y los estudiantes de Harvard. Pero algo marchó mal durante
la demostración: uno de sus pacientes falleció mientras se hallaba bajo la
influencia del anestésico. Obviamente, el auditorio no quedó convencido de su
eficacia y Wells abandonó la odontología y se dedicó a una serie de negocios
fracasados durante los dos años siguientes, viajando por el estado de
Connecticut y vendiendo diferentes artículos hogareños.
En 1847, se mudó a París. Pero no le duró mucho: al volver a Estados Unidos, se
volvió adicto al cloroformo (cuyos efectos nocivos no se conocían en absoluto)
y un día, delirando, les arrojó ácido sulfúrico a dos mujeres en plena calle.
Fue a parar, como es obvio, a la cárcel neoyorquina de Tombs, donde no tardó en
darse cuenta de lo que había hecho y se suicidó cortándose una arteria de la
pierna con una navaja de afeitar, no sin antes inhalar una dosis analgésica de
cloroformo para paliar el dolor.
Entretanto, Morton, que había estado asociado a Wells durante un breve período
y lo había ayudado en la infortunada demostración de Boston, empezó a buscar
algún otro agente. ¿No serviría el éter? Este líquido incoloro y volátil era
conocido desde hacía varios siglos. Valerius Cordus había descripto, en 1540,
la manera de fabricarlo tratando el alcohol de maíz con ácido sulfúrico. Tanto
Cordus como Paracelso conocían sus propiedades anestésicas y su facultad de
sumir temporalmente en la inconsciencia a ciertos animales. El mismísimo
Michael Faraday había estudiado el líquido al punto que en 1818 había publicado
un artículo sobre sus propiedades en el Journal of Science and Arts. Unos
años más tarde, el doctor John D. Goldman, un norteamericano, también realizó
experimentos y llamó la atención sobre sus efectos anestésicos. Pero los
médicos seguían sin hacer caso.
Morton decidió probar personalmente las propiedades del éter. En su casa de
campo de West Needham lo aplicó primero a varios insectos, gusanos, peces,
gallinas y a su perro. Dio resultado. Decidió entonces probar sus efectos en sí
mismo. Se sentó en un sillón, echó éter en un pañuelo y, con el reloj en la
mano, aplicó el pañuelo húmedo a su nariz y su boca. No tardó en perder el
conocimiento, y necesitó siete minutos para recuperarlo. Era lo suficiente para
extraer no un diente sino tres, se dijo. Morton pidió a uno de sus amigos que
le extrajera uno de sus dientes sanos mientras se hallaba bajo la influencia
del éter. Nuevamente dio resultado: Morton no sufrió ningún dolor.
Esa misma tarde, un hombre llamado Eben Frost llegó a su consultorio sufriendo
terriblemente a causa de una muela infectada y pidió a Morton que lo
hipnotizara antes de extraérsela para no sufrir un dolor horrible. Morton le
dijo que tenía un nuevo producto químico que lo dormiría, y Frost consintió en
que Morton realizara la extracción empleando ese nuevo método. Por la noche, el
30 de septiembre de 1846, Morton extrajo un «bicúspide firmemente arraigado»
sin que el paciente sufriera dolor alguno.
Recordemos esa fecha, el 30 de septiembre de 1846, porque ese día nació la
anestesia.
Morton hizo que Frost firmara una declaración atestiguando lo que había pasado.
Al otro día el Daily Journal, de Boston, publicó un anuncio sobre
el acontecimiento:
Anoche fue sacada una muela a un hombre sin que éste experimentara
ningún dolor. Fue sumido en una especie de sueño mediante la inhalación de un
preparado cuyos efectos duraron aproximadamente un minuto, justo lo suficiente
para extraer una muela.
Con el paso del tiempo, la práctica de Morton empezó a mejorar. Como no
estaba satisfecho con el método de inhalación, diseñó un artefacto más
eficiente, que consistía en un globo de vidrio que llevaba un tubo en un lado y
en el otro un agujero que se tapaba con un corcho. Se le ocurrió entonces que
podía extender los beneficios del éter a todo el campo de la cirugía,
multiplicando así su negocio de manera exponencial. Si lograba que algún
cirujano eminente de Boston lo probara, el mundo dolorido y Morton resultarían
igualmente beneficiados.
En el Hospital General de Massachusetts, halló a dos hombres dispuestos a hacer
la prueba. El doctor John C. Warren, el cirujano más famoso de Nueva Inglaterra
y profesor de Cirugía de la Escuela de Medicina de Harvard, consintió en
realizar una operación en el anfiteatro quirúrgico del Hospital General de
Massachusetts en la mañana del viernes 16 de octubre de 1846. El paciente,
Gilbert Abbott, un impresor de veinte años, fue llevado al anfiteatro. Tenía un
tumor vascular bajo la mandíbula, que debía ser extirpado. Morton se acercó al
paciente y sacó el corcho del inhalador de vidrio. Abbott puso el tubo en su
boca, y tres minutos más tarde estaba dormido.
Warren, que tenía cerca de setenta años, trabajó rápida y hábilmente con el
bisturí, y el tumor fue extraído. El paciente seguía respirando pesadamente, y
tardó cinco minutos en salir de su estupor. Warren le preguntó si había sentido
dolor. La respuesta fue que no, que solamente había sentido un ligero arañazo.
Volviéndose al doctor Henry J. Bigelow y a los demás médicos allí reunidos, y
dirigiéndose también a los estudiantes que se hallaban en sus bancos, el doctor
Warren exclamó:
Señores, esto no es un cuento.
Un mes después de la prueba histórica de Boston, Bigelow publicó un
artículo en el Boston Medical and Surgical Journal anunciando
el gran acontecimiento a todo el mundo médico. El famoso periódico médico de
Inglaterra, The Lancet, anunció:
El descubrimiento del doctor Morton indudablemente ocupará un lugar
prominente entre los dones de los conocimientos y descubrimientos del hombre.
La cirugía, de golpe, cambió: los cirujanos podían atreverse a realizar
operaciones que parecían imposibles antes de la anestesia del éter. Los
experimentos en animales recibieron también un nuevo impulso. Antes de concluir
el año 1846, los cirujanos de Londres y París estaban empleando la anestesia
del éter y en enero del año siguiente, Alemania y Austria pudieron disponer de
esa nueva «arma de la medicina».
Entre los que aplicaron el método estaba el doctor James Young Simpson, jefe de
las salas de maternidad de la Enfermería de Edimburgo, quien si bien sabía que
el éter era mejor que nada, fue impulsado, por una serie de efectos
desagradables, a buscar un anestésico que lo sustituyera. Y probó con el
cloroformo, que también tenía su historia. En realidad, había sido producido
por primera vez por Samuel Guthrie, un cirujano militar norteamericano, a fines
de 1830, cuando trató el cloruro de calcio con alcohol de maíz. Publicó sus
resultados dos años más tarde, mientras otros dos químicos (Soubeiran en Francia
y Liebig en Alemania) llegaban de manera independiente al mismo producto
químico aproximadamente en la misma fecha. En su artículo original, Guthrie
demostró que no ignoraba el uso posible de este nuevo producto químico:
En los últimos seis meses un gran número de personas ha bebido la
solución de éter calórico —llamado posteriormente «cloroformo» por Dumas— en mi
laboratorio, no en gran cantidad, pero frecuentemente, hasta el punto de
embriagarse… para descubrir su probable valor como medicina.
La cuestión es que Simpson, que no estaba del todo contento con el éter,
ensayó los efectos del cloroformo en conejos y otros animales pequeños. Cuando
los resultados parecieron satisfactorios, él y dos de sus amigos inhalaron
personalmente los vapores del líquido y se convencieron de que era un
anestésico seguro y eficaz. En noviembre de 1847, por primera vez, empleó el
cloroformo como anestésico durante un parto, mientras los teólogos escoceses se
escandalizaban porque resultaba contrario a la voluntad de Dios «es decir, al
mandato bíblico de sufrir».
La refutación de Simpson fue inteligente: recurrió a la Biblia y eligió el
vigésimo primer versículo del segundo capítulo del Libro del Génesis,
confrontando a los teólogos con el relato de la extracción de la costilla de
Adán de la cual fue hecha Eva. Simpson señaló que Dios había hecho que Adán
quedara profundamente dormido antes de realizar la «cirugía», lo cual
demostraba que al Señor, cuando le tocaba oficiar de cirujano, no se oponía a
que fuera suprimido el dolor. La disputa terminó en abril de 1853, cuando la
Reina Victoria dio a luz a su séptimo hijo, el príncipe Leopoldo, bajo la
acción del cloroformo.
§. La controversia del éter
Al mismo tiempo que el éter, el óxido nitroso y el cloroformo empezaban a
aliviar los dolores de la humanidad y a salvar vidas, se desarrollaba una
violenta controversia sobre la prioridad del descubrimiento y los derechos de
patente del éter: la llamada «controversia del éter». Más o menos fue así:
mientras Morton estaba dedicado a su negocio odontológico, siguió algunos
cursos en la Escuela de Medicina del Colegio de Harvard, donde conoció al
doctor Charles Thomas Jackson (1805-1880), en cuya casa vivió durante algún
tiempo mientras estuvo en Boston. Jackson poseía su propio laboratorio de
química, se dedicó a trabajos geológicos y realizó numerosos inventos. Cuando
Morton le contó el fracaso del óxido nitroso como anestésico, Jackson mencionó
que podía probar el éter y le ofreció una cierta cantidad. Morton escuchó atentamente
todos los informes relacionados con los usos y propiedades de esa sustancia,
pero se resistió a entrar en cualquier sociedad o acuerdo con Jackson, quien
tenía una reputación poco envidiable (solía, se dice, arrogarse la prioridad de
muchos descubrimientos que anunciaban sus colegas).
Morton indicó que una demostración pública del empleo del éter como anestésico
en cirugía tendría un éxito inmediato, y Jackson le sugirió que se pusiera en
contacto con el doctor Warren, del Hospital General de Massachusetts. Pero
antes de dar este paso, le recomendó que patentara su éter bajo algún nombre
comercial. Morton solicitó una patente para su Letheon (en honor a las aguas
mitológicas del Leteo, que hacían olvidar todos los recuerdos dolorosos) en su
nombre y el de Jackson, acordando darle a este último el diez por ciento de las
ganancias que se obtuvieran con el empleo del éter y su inhalador. Jackson
aceptó el arreglo, pero más tarde, temiendo un posible fracaso de la
demostración pública, pidió el pago de 500 dólares al contado por el «consejo
dado» a Morton, renunciando a todo otro derecho.
Después de haber declarado públicamente el doctor Warren al mundo entero que la
anestesia del éter no era una fábula, Morton continuó manteniendo en secreto la
naturaleza del líquido que estaba empleando. Pero el 12 de noviembre, a menos
de un mes de la histórica prueba, le fue concedida la patente Nº 4818. Morton
divulgó el secreto a Warren y a Bigelow, quienes anunciaron la gran nueva en
el Medical and Surgical Journal, de Boston. Esta noticia debía ser
despachada en un vapor que zarpaba para Europa el 19 de diciembre. Jackson,
entre tanto, envió una carta por el mismo buque a un amigo, Elie de Beaumont,
miembro de la Academia de Ciencias francesa, pidiéndole que reclamara la
prioridad del descubrimiento de la anestesia del éter en su nombre sin perder
tiempo.
Jackson, evidentemente, estaba decidido a no dejar escapar de sus manos esa
mina de oro. El 2 de marzo de 1847, en una reunión de la Academia de Boston,
afirmó ser el único descubridor de la nueva anestesia, sin siquiera mencionar
el nombre de Morton. Nuestro viejo conocido Horace Wells decidió también sacar
su parte de las ganancias. Morton le había escrito pidiéndole que lo ayudara a
acelerar la obtención de la patente del éter en Nueva York. En lugar de
hacerlo, Wells reclamó para sí la prioridad del descubrimiento el 7 de
diciembre de 1846 en el Courant de Hartford.
Morton, en tanto, proyectaba una campaña mundial de ventas para su anestesia.
Para empezar, dio al gobierno norteamericano inhaladores a precio de costo para
el ejército y la armada y se ofreció a enseñar gratuitamente el uso de la
anestesia del éter. El ejército y la armada efectivamente la emplearon durante
la guerra de México (en la cual los EE.UU. se apropiaron de la mitad del
territorio mexicano de aquel entonces), pero Morton no recibió compensación
alguna del gobierno. Y de hecho, jamás consiguió que el descubrimiento le diera
ganancias. Cirujanos, dentistas y hospitales del mundo entero emplearon su anestesia
sin pagar ningún tipo de derechos.
Su situación financiera empeoró rápidamente. En 1849 solicitó al Congreso una
recompensa monetaria en lugar de los derechos que no le habían sido pagados, y
el senador Stephen A. Douglas habló en su favor. Gran Bretaña había
recompensado a Jenner con 25.000 libras por su descubrimiento de la vacuna
contra la viruela; ¿por qué no debía Estados Unidos hacer lo mismo con sus
hijos? Tal vez hubiera recibido Morton el dinero de no haber sido por el
reclamo de Jackson, quien aseguraba hipócritamente que había rechazado la
patente porque no quería beneficiarse con los sufrimientos de la humanidad y
calificaba a Morton de «charlatán e individuo vil».
El suicidio de Horace Wells en esos días no hizo más que aumentar las
dificultades de Morton. La viuda pidió al Congreso que reconociera las
reclamaciones de su difunto esposo, y el senador Truman Smith empleó esa
reclamación como un argumento más contra la concesión de una suma en favor de
Morton. El asunto estuvo a punto de convertirse en un escándalo público.
Y llegó hasta Europa: en 1850, la Academia de Ciencia francesa dispuso que el
Premio Montyon, de 5.000 francos, fuera dividido igualmente entre los dos
«benefactores de la humanidad», Morton y Jackson. Al rechazar Morton indignado
su parte del premio, se acuñó una medalla de oro en su honor. En Inglaterra se
recolectaron 50.000 dólares para el dentista norteamericano, pero cuando los
amigos de Jackson lo supieron provocaron tal tumulto que el dinero fue devuelto
a los donantes. Otras naciones europeas dividieron sus simpatías. Morton
recibió condecoraciones de Rusia, Suecia y Prusia, mientras Italia y Turquía
honraban a Jackson.
Ocho años después de haber dado Morton la anestesia de éter al mundo, el
Congreso norteamericano seguía debatiendo aún si debía prestarle ayuda.
Mientras tanto, la Universidad de Harvard le otorgó un grado honorario y el
Hospital General de Massachusetts le regaló una copa de plata que contenía
1.000 dólares en efectivo. Pero Jackson seguía combatiendo a su rival con todas
las armas a su alcance: por entonces se enteró de que un médico rural de
Georgia parecía haber utilizado la anestesia de éter cuatro años antes de la
demostración pública de Morton. En Athens, Georgia, a donde se dirigió
especialmente (lo cual demuestra la saña del personaje), confirmó que Crawford
W. Long había sido el primero en realizar una operación quirúrgica bajo la
anestesia del éter.
La historia había sido así: Long había prestado servicios como interno en una
sala de cirugía durante dieciocho meses y había empezado a pensar en la
anestesia, como todos, contemplando a un artista ambulante hacer demostraciones
del efecto del gas hilarante. En verdad, más que en la anestesia pensaba en la
diversión: el éter poseía propiedades embriagadoras y los jóvenes solían
reunirse y divertirse inhalándolo. Pero un día Long observó que varios jóvenes
que se habían lastimado durante esas sesiones etéreas (por llamar de una manera
elegante a lo que eran, en realidad, orgías hechas y derechas) no daban señales
de sentir dolor. Probó entonces personalmente y verificó lo que sospechaba: el
éter podía usarse para operar. Por eso, cuando su amigo James M. Venable le
contó sobre los tumores que tenía en la nuca, Long vio la posibilidad única de
operarlo anestesiándolo con éter. Venable aceptó.
El 30 de marzo de 1842, Long echó éter en una toalla, la colocó sobre la nariz
de su amigo y esperó a que se durmiera, empezando a cortar el tumor. Cuando le
pareció que su paciente comenzaba a salir de su sueño, echó otras gotas del
líquido en la toalla y continuó la operación hasta que le extirpó uno de los
tumores. Venable recuperó el conocimiento y Long se dio cuenta de que había
realizado la primera operación con anestesia en la historia de la humanidad.
Pero ni el uno ni el otro se dirigió a los periódicos o la oficina de patentes.
Long, que entonces tenía veintiséis años, ni siquiera notificó a ninguna
sociedad médica acerca del trascendental suceso. Quería repetir el experimento.
En junio del mismo año, empleando obviamente su nuevo método, Long extirpó el
segundo tumor del cuello de Venable y al mes siguiente amputó un pie. En los
cuatro años siguientes, realizó ocho intervenciones quirúrgicas de importancia
secundaria, usando éter en ellas.
El problema es que Long consideraba con cierto escepticismo la posibilidad de
una aplicación más amplia de la anestesia de éter, y no se tomó el trabajo de
dar cuenta de sus operaciones hasta diciembre de 1849, más de siete años
después de haberlo usado por primera vez (y cuando ya la controversia estaba en
su punto álgido).
Long se había abstenido, hasta entonces, de participar de la polémica. Pero en
1853, escribió en el Southern Medical and Surgical Journal
Sé que he demorado demasiado tiempo la publicación para recibir honor
alguno por la prioridad del descubrimiento, pero habiendo sido persuadido por
mis amigos de que presentara mis derechos ante la profesión, prefiero que su
exactitud sea plenamente investigada por la Sociedad Médica. Si la Sociedad
dijera que mi reclamación, aunque bien fundada, ha prescripto por no haber sido
presentada antes, contestaré alegremente: «Así sea».
Aparecía un nuevo actor, y Morton ya estaba cansado:
Mi sistema nervioso parece estar tan destrozado que cualquier sorpresa o
ruido repentino me produce un choque.
Pero la disputa por la patente continuó durante dieciséis años. Jackson
triunfó al final, y la patente de Morton fue anulada oficialmente el 1º de
diciembre de 1862. Entretanto, había estallado la Guerra Civil. Morton ofreció
voluntariamente sus servicios al Norte y administró éter a centenares de
heridos yanquis. Los ejércitos del sur también usaron esta anestesia.
Pero ni los horrores de la guerra pudieron hacer olvidar a Morton su lucha
personal. En 1868 apareció en una revista un artículo que mantenía los derechos
de Jackson. Morton lo leyó mientras se encontraba en Nueva York y es de pensar
que no pudo soportarlo: sufrió un ataque y murió poco después en el Hospital de
St. Luke, dejando en la indigencia a su esposa y cinco hijos. A Jackson no le
fue mejor. Su mente cedió bajo esa larga tensión y debió ser confinado en un
manicomio, en donde falleció en 1890.
En fin: dediqué todos estos extensos párrafos a la anestesia y su historia (y a
la sórdida disputa sobre su paternidad) porque creo que pocas cosas fueron tan
impresionantemente útiles para aliviar el sufrimiento, cosa que pienso cada vez
que me siento en el sillón del dentista. Pero la anestesia no se limitó a eso
sino que permitió una exploración del cuerpo humano inconcebible hasta
entonces. Resolvió miles de problemas, y no sólo en el campo de la cirugía.
Wells se suicidó en un ataque de locura, Morton murió de un ataque, Jackson
terminó en un manicomio: fueron tristes finales para estos benefactores de la
humanidad.
§. Lister y la antisepsia
Después del gigantesco, monstruoso paso adelante que significó la anestesia, la
antisepsia se llevó la siguiente corona de laureles. El éxito se debió, en gran
parte, a los trabajos del inglés Joseph Lister (1827-1912). Terminados sus
estudios en Londres, se trasladó a Edimburgo, ciudad donde permaneció siete
años y llevó a cabo la mayor parte de su obra. Lister partió de una observación
básica: las fracturas expuestas siempre supuraban, mientras que aquellas en las
que la piel estaba intacta se mantenían libres de pus. Combinando sus
observaciones con las de Pasteur, y asumiendo que la teoría microbiana era
aplicable a la putrefacción de los tejidos vivos en las heridas, supuso que la
fuente primordial de la infección residía en los microorganismos existentes en
el aire, aunque no se le escapó que los microbios podían ser transportados por
los instrumentos quirúrgicos.
Para eliminar los microorganismos, Lister comenzó por buscar una sustancia
«antiséptica», es decir, que disminuyera las posibilidades de una infección.
Ensayó con cloruro de zinc, luego con sulfitos y finalmente, en 1865, se detuvo
en el ácido fénico (que ya había sido recomendado, por el químico francés
François Jules Lemaire). Lister comenzó a limpiar las heridas con
pulverizaciones de ácido fénico, protegiéndolas luego con varias capas
impregnadas unas con ácido fénico, otras con parafina. El éxito fue
extraordinario: en los tres primeros años, de acuerdo con las propias
estadísticas hospitalarias, logró disminuir drásticamente la mortalidad. En 1867
publicó los resultados de sus tratamientos de fracturas expuestas y de abscesos
en dos artículos, el segundo de los cuales («Sobre los principios antisépticos
en la práctica de la cirugía») puede ser considerado como el texto fundante de
la antisepsia. Curiosamente, tuvo poca repercusión en Inglaterra, aunque se
difundió rápidamente en Europa: el primero de los «listerianos» franceses —Just
Lucas-Championnière (1843-1913)— dio un paso más al reconocer la importancia de
la esterilización de los instrumentos mediante el vapor, mientras que el alemán
Ernst von Bergmann (1836- 1907) introdujo los procedimientos asépticos que
luego se volvieron clásicos.
Recordemos aquí que tanto Lister como Bergmann tuvieron un incomprendido y gran
precursor en la figura del ginecólogo húngaro Ignaz Semmelweis, cuya vida
trágica les conté en el capítulo 26.
§. En busca de las balas mágicas
Después de este recorrido quirúrgico, fundamental para entender en qué andaban
las cosas en el siglo XIX, volvamos al programa principal de la medicina, que
se estableció al tiempo que triunfaba la teoría de la enfermedad microbiana.
Cuando en 1905 se identificó la bacteria que produce la sífilis, el modelo
microbiano se afianzó y generalizó y, como sucede muchas veces, la teoría
extendió su imperialismo. La idea fundamental era que todas las enfermedades
eran producidas por un agente biológico y el programa, como ya les dije,
consistía en encontrar compuestos químicos capaces de exterminar al agente
causal sin producir «daños colaterales» en el paciente. Esos compuestos
químicos eran escurridizos y tardaron mucho en ser descubiertos.
Aunque, a decir verdad, el naturalista irlandés John Tyndall ya se había topado
con uno de ellos mucho antes de que se descubrieran y se empezaran a usar los
antibióticos propiamente dichos. En 1875, estudiando la distribución de las
bacterias en el aire, había observado que en la superficie de algunos caldos
que utilizaba para sus experimentos flotaban mohos del grupo Penicillium.
En un artículo que publicó un año después, escribió que
en todos los casos en que el moho era denso, las bacterias morían o se
volvían inactivas o caían al fondo como sedimento.
Era —por lo visto— un moho que mataba las bacterias, ni más ni menos.
Pero de la misma manera que los que veían aire deflogisticado donde en verdad
había oxígeno, Tyndall había encontrado la «bala mágica» (como la llamaría
muchos años después el gran médico alemán Paul Ehrlich) antes de tiempo: aún no
estaba fraguada del todo la teoría de la infección microbiana y Tyndall apenas
le prestó atención a lo que observó.
Cuando el propio Ehrlich comenzó a estudiar el asunto, la historia era
diferente, a tal punto que dedicó su vida a esta tarea. Su método era clara y
puramente empírico: probaba en animales sustancia tras sustancia y medía los
resultados, en general —y naturalmente— sin éxito. Hasta que en determinado
momento, después de probar y probar, encontró una sustancia (la 606) que tuvo
resultados inmediatos en conejos infectados con la bacteria de la sífilis, y
fue muy promisoria en humanos, aunque generaba efectos secundarios
desalentadores (algunos pacientes quedaron permanentemente sordos, otros desarrollaron
gangrena). Era el comienzo de todo, pero solamente el comienzo.
§. Los antibióticos
La gloria quedó para Alexander Fleming(1881-1955), un escocés que había
estudiado medicina en el hospital St. Mary’s de Londres y se dedicaba desde su
graduación, en 1908, a la bacteriología, las vacunas y la microbiología de las
heridas de guerra y su tratamiento. La historia es que en 1928, en la víspera
de sus vacaciones, Fleming sembró unos cultivos bacterianos en varias placas de
vidrio para que se desarrollaran durante su ausencia. Era una operación de
rutina, pero dos semanas después, cuando regresó, encontró que las placas se
habían contaminado, algunas de ellas con mohos del grupo Penicillium (el
mismo que había encontrado Tyndall más de sesenta años antes). Que se hubieran
llenado de moho no era nada demasiado extraño, pero había otra cosa que sí lo
era: alrededor de ese moho no había crecido ninguna colonia de bacterias.
Fleming había encontrado —o reencontrado, para ser más precisos— la bala
mágica.
No se dio cuenta inmediatamente, pero después de varios experimentos llegó a la
conclusión de que el moho fabricaba una sustancia que combatía las colonias de
bacterias: la llamó penicilina y no tardó en probarla con
éxito en pacientes que tenían infecciones oculares.
Así y todo, Fleming no vio los alcances reales de lo que había encontrado, y,
si bien publicó un par de artículos sobre el tema, la penicilina cayó en el
olvido. Aunque por poco tiempo. En 1932, un discípulo de Ehrlich, Gehrard
Domagk, descubrió lo que su maestro había buscado toda su vida: el protonsil,
un colorante que la industria textil había descartado, tenía evidentes
propiedades antibacterianas. Domagk observó que, en efecto, la inyección
intravenosa curaba a los ratones infectados con bacterias. Entonces decidió
inyectárselo a su hija, que ya era considerada un caso perdido por una
infección que ningún médico había podido controlar. La inyección la curó por
completo.
El protonsil reavivó la esperanza de encontrar sustancias que atacaran las
bacterias de manera efectiva. Poco después, Ernst Chain (1906-1979), un químico
que había escapado de la dictadura nazi, consiguió fondos de la Fundación
Rockefeller y armó un grupo que logró determinar la estructura química de la
penicilina, la purificó en forma de cristales y demostró que su toxicidad en
los animales de laboratorio era bajísima. El experimento con el que comprobó
esto último es lo que se conoce como un «experimento crucial»: infectaron a
ocho ratones con dosis mortales de bacterias y a cuatro de ellos les aplicaron,
además, una dosis de penicilina. Los ratones que recibieron el antibiótico
sobrevivieron; los otro cuatro murieron.
Los resultados fueron publicados en el número del 24 de agosto de 1940 de The
Lancet, nuevamente. Era el anuncio público de la «bala mágica», que, al ser
probada en humanos, dio resultados espectaculares. Cinco años más tarde, la
penicilina ya había salvado miles de vidas.
§. La inmunología
El origen de la inmunología se identifica con el de las vacunas, debidas a
Jenner, y con el del primer método general para producirlas, desarrollado por
Pasteur. Pero ni Jenner ni Pasteur tenían la menor idea acerca de qué era lo
que ocurría en el organismo cuando se hacía resistente a una enfermedad
infecciosa. El primero que pudo decir algo al respecto fue Elie Metchnikoff
(1845-1916), biólogo originario de Rusia que realizó la mayor parte de su
carrera en el Instituto Pasteur de París.
Él mismo cuenta que en 1883, mientras su familia disfrutaba de un espectáculo
de monos amaestrados en el circo, se había quedado observando en el microscopio
la actividad de unas células móviles de una larva de estrella de mar. De
repente, se le vino una idea a la mente: pensó que, tal vez, células similares
podrían funcionar para proteger al organismo contra invasores dañinos.
Pensé que, si mi suposición era correcta, una astilla clavada en la
larva de la estrella de mar pronto debería rodearse de células móviles, tal
como se observa en la vecindad de una astilla en el dedo. Tan pronto como lo
pensé lo hice. En el pequeño jardín de nuestra casa tomé varias espinas de un
rosal y las introduje por debajo de la cubierta de algunas bellas larvas de
estrellas de mar, transparentes como el agua. Muy nervioso, no dormí durante la
noche, esperando los resultados de mi experimento. En la mañana siguiente, muy
temprano, encontré con alegría que había sido todo un éxito. Este experimento
fue la base de la teoría fagocítica, a la que dediqué los siguientes 25 años de
mi vida.
Metchnikoff discutió sus hallazgos con Virchow —el gran responsable del
triunfo de la teoría celular—, cuando éste visitó Mesina meses después, y,
estimulado por el gran patólogo alemán, publicó su famoso artículo «Una
enfermedad producida por levaduras en Daphnia: una contribución a
la teoría de la lucha de los fagocitos en contra de los patógenos» (1884),
donde presentaba con claridad su teoría y explicaba el proceso de fagocitosis
(es decir, aquel por el cual algunas células «atrapan» partículas sólidas y las
desintegran en su interior):
Ha surgido que la reacción inflamatoria es la expresión de una función
muy primitiva del reino animal basada en el aparato nutritivo de animales
unicelulares y de metazoarios inferiores (esponjas). Por lo tanto, debe
esperarse que tales consideraciones lleven a iluminar los oscuros fenómenos de
la inmunidad y la vacunación, por analogía con el estudio del proceso de la
digestión celular,
decía allí.
La teoría de Metchnikoff era sólida y tenía un buen sustento material, pero
pronto apareció otra escuela que iba a contender por la supremacía del
mecanismo fundamental de la inmunidad: a la teoría celular o
de la fagocitosis se opuso la teoría humoral —un pésimo
nombre, digamos de paso, ya que remitía a concepciones perimidas hacía tiempo—
o de los anticuerpos, de Emil Behring (1854-1917) (quien en 1896 ingresó a la
nobleza y desde entonces añadió «von» a su apellido). La disputa fue histórica,
pero como a veces ocurre en esta clase de disputas, Behring admiraba mucho a
Pasteur y era gran amigo y compadre de Metchnikoff; además, resultó que los dos
bandos tenían razón y que tanto las células como los anticuerpos (que no son
células sino proteínas) participan en la inmunidad. (De hecho, Behring recibió
el Premio Nobel en 1901 y Metchnikoff lo compartió con Ehrlich en 1908.)
La naturaleza química y la estructura molecular de los anticuerpos se
establecieron en la segunda mitad del siglo XX, junto con los mecanismos
genéticos que controlan su especificidad. Uno de los avances más importantes en
la inmunología fue el descubrimiento de la participación de los linfocitos
(glóbulos blancos), realizado por James L. Gowans (n. 1924) y sus
colaboradores, aunque antes ya se había identificado a la célula plasmática
como la responsable de la síntesis de los anticuerpos.
El conocimiento a fondo del sistema inmunológico condujo a la posibilidad del
trasplante de órganos. En 1967, el cirujano sudafricano Christian Barnard llevó
a cabo el primer trasplante mundial de corazón en el paciente Louis Washkansky.
En este caso, el paciente falleció a los 18 días por complicación pulmonar,
pero ahora los trasplantes se practican con gran éxito desde hace varios años.
La operación pionera de Barnard fue el inicio de muchas otras, entre las que se
pueden mencionar los trasplantes cardiopulmonares en bloque, los trasplantes de
riñón, de médula ósea…
§. La imposibilidad de resumir
Narrar la historia de algo en la segunda mitad del siglo XX, y sobre todo la de
la ciencia, es prácticamente imposible. Sería una empresa sin sentido intentar
resumir aquí la avalancha de descubrimientos y éxitos médicos del siglo XX,
muchos provenientes de los terrenos de la química. Un buen ejemplo son las
vitaminas: desde la introducción del término en 1912, por parte del bioquímico
polaco Casimir Funk, se ha aislado una gran variedad de estos compuestos y se
han definido sus funciones nutricionales. Pero la bioquímica, que ya es capaz
de escudriñar y modificar moléculas, ha sido esencial, también, para determinar
la función de las hormonas, para aislar y estudiar las proteínas (lo cual
condujo al descubrimiento del ADN) y para desarrollar fármacos específicos para
diferentes enfermedades.
A la mejora en el tratamiento y diagnóstico se agregaron aparatos cada vez más
y más sofisticados: el electroencefalograma, el electrocardiograma, los rayos
X; más cerca de nuestro presente, la tomografía computada (que consiste en una
serie de radiografías que permiten reconstrucciones en tres dimensiones), la
tomografía mediante emisión de positrones (partículas exactamente iguales al
electrón, pero de signo contrario), la resonancia magnético-nuclear, el
microscopio electrónico, los materiales radiactivos para destruir células
dañadas, los marcadores radiactivos para poder seguir las evoluciones
fisiológicas dentro del cuerpo… Nadie los ha contado, pero es probable que hoy
existan más de mil exámenes y pruebas de laboratorio útiles para el diagnóstico
y el tratamiento de la mayoría de los enfermos, con las que ni Hipócrates, ni
Boerhaave, ni Harvey, soñaron en sus respectivos tiempos para auxiliar a sus
pacientes.
Y al mismo tiempo, creció y se impuso la medicina como bien social, y el acceso
a la salud de todos como un mandato que, en la actualidad, se cumpla o no, es
aceptado por todos los países y figura entre los derechos del hombre fijados
por las Naciones Unidas. Como resultado de ello, se crearon las organizaciones
mundiales de la salud: en 1945 se fundó la World Medical Association, que
engloba a más de cincuenta asociaciones médicas nacionales, y en 1948 nació la
Organización Mundial de la Salud (OMS), autoridad que coordina los problemas y
proyectos sanitarios de carácter internacional.
De esta manera la medicina, que había vagado sin brújula durante la mayor parte
de su larga historia, por fin se estabilizó. Y todo había comenzado, si se
quiere, más de dos mil años atrás, con aquellas viejas especulaciones griegas
sobre el equilibrio y desequilibrio de los humores.
Parte VII
Persiguiendo el origen: el camino a la partícula divina
Contenido:
35. La
mecánica cuántica
36. La fisión
nuclear y la bomba atómica
37. El núcleo
atómico y el modelo estándar
38. En busca
del origen
39. La
estructura del universo y la teoría del Big Bang
40. La
«Máquina de Dios»
Capítulo 35
La mecánica cuántica
Muy pronto, la realidad cedió en más de un punto.
J. L. BORGES, «Tlon, Uqbar, Orbis Tertius»
Todo empezó de la manera más inocente, con la luz y la radiación. En las
últimas décadas del siglo XIX, la teoría ondulatoria de la luz había triunfado
contundentemente sobre la teoría corpuscular, lo cual significaba que se
concebía la luz como una radiación electromagnética, tal y como había predicho
Maxwell y como había demostrado experimentalmente Hertz en 1888. Una vez
establecidas las dos partes que componían el mundo, la materia y la radiación,
la cuestión era averiguar cómo interactuaban entre ellas.
No se notaba, a simple vista, que tal relación pudiera traer demasiadas
complicaciones. Pero lo cierto es que desató una revolución tan grande en la
física que todos los conceptos tuvieron que ser revisados —más aún que con la
teoría de la relatividad— y se convirtieron en un cuerpo de doctrina
completísimo y tremendamente eficaz: la mecánica cuántica. Es un camino ríspido
y complejo, porque la mecánica cuántica lo es. Seamos pacientes, entonces, y
sigamos con cuidado y atención los pasos de su construcción.
§. El hilo se corta por lo más grueso
Todo empezó, les decía, de la manera más inocente. A principios del siglo XX, y
ya repuestos (o a medias repuestos, a decir verdad) del shock del
descubrimiento de que el átomo era algo compuesto y que había partículas
incluso más chicas, los físicos creían tener un mapa más o menos completo
gracias al cual sabían aproximadamente bien qué debían hacer. Al menos, lo
hacían bajo el amparo de una ávida y segura concepción: los objetos materiales,
como los átomos, o los recién llegados y ya aceptados electrones, tenían que
ser descriptos como partículas, pero la radiación electromagnética, incluida la
luz, había que entenderla en forma de ondas. De lo que se trataba, ahora, era
de comprender de qué manera interactuaba la radiación con la materia, una
tarea, si se quiere, de rutina: parecía seguro que por ahí iban las cosas que
permitirían construir una imagen armoniosa que unificara la física. Pero
debemos retroceder un poco para entender la dimensión de la revolución conceptual
que se desató cuando se indagó a fondo en estos temas. Para empezar, hay que
decir que todo cuerpo emite radiaciones electromagnéticas. El espectro
electromagnético, que pueden ver en la imagen siguiente, clasifica las diversas
radiaciones de acuerdo con su frecuencia (es decir, el número de repeticiones
por unidad de tiempo) y su longitud de onda (inversamente proporcional a la
frecuencia). Así, por ejemplo, un cuerpo que emite con mucha frecuencia y
longitud de onda corta lo hará en ultravioleta o, aún más, emitirá rayos gamma.
La forma de estudiar cómo interaccionan materia y radiación consiste en
observar un objeto caliente, ya que éste irradia mucha energía
electromagnética. Cuanto más caliente está, más energía irradia, cada vez con
longitudes de onda más cortas (lo que es lo mismo que decir: con frecuencias
más altas). Así, por ejemplo, un cuerpo demasiado frío para irradiar luz
visible puede emitir radiación infrarroja de baja frecuencia, inaprehensible
para el ojo humano, pero perfectamente detectable por los aparatos.
El recurso estándar que se utilizaba para medir la radiación en ese momento era
el llamado «cuerpo negro», un objeto teórico, perfecto absorbente o emisor de
radiación (es decir, que absorbe toda la radiación que le llega). Además de ser
un excelente objeto teórico, es fácil construir un cuerpo negro más o menos
riguroso en el laboratorio: basta tomar una esfera hueca, o un tubo con los
extremos cerrados, y practicar un pequeño agujero en su superficie. Cualquier
radiación, como la luz, que penetre por ese agujero, quedará atrapada en el
interior, rebotando en las paredes hasta ser absorbida; es muy improbable que
pueda salir a través del hueco debido a ese rebote o, si sale, lo hará en una
fracción mínima. Por lo tanto, el cuerpo la absorbe y ese agujero es un cuerpo
negro.
Y es entonces cuando se produjo un chispazo entre lo que se medía
experimentalmente y la teoría clásica. La cuestión es así: las leyes del
electromagnetismo clásico preveían que un cuerpo negro ideal, cuando estaba en
equilibrio térmico, debía emitir energía en todos los rangos de frecuencia
(desde las ondas más largas a las más cortas) pero siguiendo una
proporcionalidad muy específica: a mayor frecuencia, mayor energía emitida. Lo
cual suponía que en el rango más elevado del espectro (es decir, aquel con
frecuencias más altas y longitudes de onda más cortas: el ultravioleta, dado
que los rayos gamma aún no se conocían) la emisión de energía debía ser enorme,
infinita, en realidad.
Y resulta que la curva de emisión del cuerpo negro no encajaba para nada con lo
que se esperaba. Esa energía infinita que predecía la teoría, y que obviamente
no podía ser, fue llamada «catástrofe del ultravioleta», y atrajo la atención
de un buen número de físicos durante la última década del siglo XIX. Uno de ellos
fue Max Planck (1858-1947), un científico a todas luces clásico que quería
explicar la catástrofe del ultravioleta mediante las leyes de la termodinámica,
en las cuales se había mostrado especialmente interesado.
Por entonces, se conocían dos ecuaciones que, unidas, o mejor dicho, pegadas, o
enganchadas, proporcionaban una pasable descripción del comportamiento del
cuerpo negro: una que daba buenos resultados para grandes longitudes de onda, y
otra que se ajustaba bastante a las observaciones efectuadas a baja longitud de
onda. Pero lo cierto es que era un pastiche, y nadie podía creer que no
existiera una única ley que describiera el comportamiento de un cuerpo que, en
el fondo, era un dispositivo sencillo y estilizado.
Planck tenía enfrente al cuerpo negro y un puñado de leyes en las que no
confiaba del todo, tal fue la cuestión.
Se venía ocupando de él desde 1895 y hasta 1900 publicó varios artículos, muy
interesantes, sí, pero que no resolvían el problema. Ensayaba vueltas de tuerca
diferentes, pero siempre se quedaba a mitad de camino: parecía ser que, o bien
había que aceptar la discrepancia entre la teoría y la empiria, o bien había
que arreglárselas con la ensalada de las dos leyes.
Pero en 1900 Planck cambió de estrategia y dio un salto al vacío. Como muchas
veces pasa en la historia de la ciencia, una vez agotados los recursos
razonables se prueba con uno que a primera vista no lo es y esto no siempre se
produce como resultado de consideraciones científicas frías, serenas y lógicas,
sino como un medio extremo en el que se mezclan el azar, la intuición y la
buena o mala suerte.
Así fue: ahí lo tenemos a Planck, decidido a probar con una solución
inverosímil: ni más ni menos que suponer, contra toda la teoría clásica de la
física y todo lo que se sabía sobre la naturaleza de la energía, que ésta no
era emitida ni absorbida en forma continua, sino en pequeños «paquetes», o
cuantos, tal como si se tratara de partículas. Era un disparate, cosa que él
mismo pensaba a medias, pero resulta que con esa suposición en apariencia
disparatada consiguió una fórmula matemática simple que proporcionaba la forma
completa de la curva y que concordaba perfectamente con las observaciones de la
radiación emitida por el cuerpo negro. Aunque, por supuesto, nadie —ni él— entendía
cuál podía ser el soporte físico de semejante hipótesis.
Una vez que hizo conocer su fórmula en una reunión de la Sociedad de Física de
Berlín en octubre de 1900, Planck intentó encontrar una interpretación física
para su ley (esencialmente matemática) haciendo varias hipótesis para ver cuál
encajaba mejor con las ecuaciones. Finalmente, tuvo que aceptar una que no le
resultaba muy grata: imaginar a los emisores de radiación como pequeños
—pequeñísimos— osciladores, que emitían energías que se expresaban por la
fórmula
e = hν
donde ν es la frecuencia y h es una
constante que desde entonces se conoce como la Constante de Planck. La fórmula
es una de las más importantes de toda la historia de la física, comparable a la
einsteiniana (y unos años posterior):
e = mc2
Lo que decía, de manera increíblemente sintética, era justamente que la
radiación no puede ser emitida ni absorbida de manera continua, sino sólo en
«paquetes» cuya energía depende de la frecuencia de la radiación.
Planck había logrado mostrar que si se trataba de manera discreta aquello que
todo un siglo había pensado como continuo, las cosas encajaban. La energía era
discreta, se comportaba como si fuera una partícula. Era increíble, tan
increíble que el propio Planck, en una catarata de artículos posteriores,
siguió tratando de encontrar una explicación clásica, mientras muchos de los
físicos que conocieron su trabajo continuaban considerándolo simplemente un
truco matemático, un artificio para salir del paso, tan provisorio, si se
quiere, como el pegoteo con que se trabajaba anteriormente. En 1931, en una
carta a Robert William Wood, Planck recordaba su trabajo de 1900:
Puedo caracterizar el procedimiento entero como un acto de
desesperación… Tenía que encontrarse una interpretación teórica a cualquier
precio, por alto que éste fuera.
Del mismo modo que los representantes de los Estados Generales franceses
que se resistieron a la orden de desalojo del rey en 1789 no sabían qué era lo
que estaban desatando, la fórmula de Planck, tímida por cierto, aplicable
solamente a casi teóricos osciladores del cuerpo negro, era el comienzo de una
profunda revolución y ponía de manifiesto una limitación a la física clásica.
No importaba el alcance exacto de tal limitación: el hecho de que existieran
fenómenos que no podían ser explicados únicamente con las ideas clásicas era
suficiente para anunciar la proximidad de una crisis y una nueva era en la
historia de la física.
Ya no habría marcha atrás. El primer paso estaba dado; el segundo paso de la
saga estaría asociado al nombre de Einstein y al fenómeno conocido como efecto
fotoeléctrico.
§. El turno de Einstein y el efecto fotoeléctrico
Cuando hablamos de Einstein, hace un par de capítulos, nos detuvimos en el «año
milagroso» de 1905 y en algunas de sus grandes contribuciones. Una era la
relatividad especial; la segunda, el movimiento browniano, y la tercera, el
efecto fotoeléctrico. No es disparatado considerar que esta última es tan
importante como la mismísima relatividad, ya que puso en marcha la mecánica
cuántica, pasando por encima de los escrúpulos de los físicos de la época.
Einstein fue el primero en tomar en serio las implicaciones físicas del trabajo
de Planck y en tratarlas como algo más que las consecuencias de un truco
matemático al aplicarlas a otroproblema, de carácter bastante misterioso, que
se arrastraba desde el siglo anterior. Resulta que dos físicos, Phillip Lenard
(1862-1947) y J. J. Thomson (el descubridor del electrón) habían conseguido
demostrar, en los últimos años del siglo XIX y trabajando independientemente,
que si se iluminaba la superficie de un metal situado en el vacío, la luz
«arrancaba» electrones. Pero había una cosa sorprendente. Era obvio que, si se
aumentaba la intensidad de la luz, cada centímetro cuadrado de superficie
metálica recibiría una cantidad mayor de energía, y también parecía obvio que
si un electrón recibía más energía, debía ser expulsado del metal con mayor
velocidad.
Pero resulta que la empiria no repara en obviedades: de nuevo, tozudamente,
decía que aquello que resultaba lo más esperable no era lo que verdaderamente
ocurría. Por más variaciones que se hicieran en la intensidad, la velocidad de
salida de los electrones no se alteraba.
Al acercar el foco luminoso al metal, aumentaba el número de electrones
liberados pero cada uno de éstos emergía con la misma velocidad con que lo
hacían los expulsados por un haz de luz más débil (o más fuerte) del mismo
color. Si, en cambio, se utilizaban haces de luz de frecuencia más alta
(ultravioleta, por ejemplo, en lugar de luz azul o roja), los electrones avanzaban
más rápidamente. El asunto era inexplicable desde la mecánica clásica. Aunque
no lo era tanto si se utilizaban los resultados de Planck y se consideraban sus
ecuaciones como base. Pero nadie se atrevía a dar este importante y peligroso
paso…
Excepto Einstein.
Lo que hizo fue aplicar la ecuación de Planck y afirmar que, así como la
radiación electromagnética se transmitía en «paquetes», la luz no es una onda
continua, como los científicos habían creído durante cien años, sino que está
integrada por cuantos —que después se llamarían fotones—. Con esta asunción
simple se explicaba todo. Al afirmar que la luz estaba compuesta por fotones,
Einstein estaba diciendo que toda la luz de una determinada frecuencia (v), es
decir, de un color particular del espectro electromagnético, consiste en
fotones de la misma energía E. Cada vez que uno de estos fotones golpea a un
electrón, le proporciona la misma cantidad de energía y, por tanto, la misma
velocidad. Mayor intensidad de luz significa simplemente que hay más cuantos de
luz (fotones) de la misma energía; sin embargo, si hay cambio del color de la
luz, la frecuencia varía y, por ello, se altera la energía transportada por
cada fotón. En consecuencia, ese fotón le transmite más energía al electrón,
que parte con mayor velocidad.
La teoría de los fotones no fue aceptada de inmediato, y aunque los
experimentos con el efecto fotoeléctrico concordaban con la propuesta de
Einstein, pasaron más de diez años hasta que el físico experimental
norteamericano Robert Millikan —que logró una determinación ajustadísima del
valor de la constante de Planck, que midió muy precisamente la carga del
electrón en un célebre experimento y que, cosa curiosa, había sido un tenaz
opositor a la postulación einsteiniana— mostró experimentalmente que la teoría
del efecto fotoeléctrico era correcta.
Mientras tanto, Einstein amplió sus ideas cuánticas sobre la radiación en los
años que siguieron y mostró que la estructura cuántica de la luz es una
consecuencia inevitable de la ecuación de Planck. Ante una comunidad científica
poco receptiva, el físico más importante del siglo sostuvo que la mejor forma
de entender la luz podría consistir en una fusión de las teorías ondulatoria y
corpuscular que habían competido entre sí desde el siglo XVII. A pesar de que
en 1917 Einstein ya estaba convencido de la realidad de lo que hoy se llaman
fotones, recién en 1923 quedó completamente demostrada su existencia. El efecto
fotoeléctrico, digamos de paso, se convirtió en una pieza central de la
tecnología moderna: el funcionamiento de las células fotoeléctricas se basa en
él, así que cada vez que veamos cómo se abren automáticamente las puertas de un
ascensor, estamos recibiendo un ramalazo del trabajo de Einstein.
Pero ahora retrocedamos unos años, hasta 1912. Discúlpenme por estas idas y
vueltas: la historia de la ciencia es tan desordenada como la historia humana y
muchas veces la cronología es, para la narración, más un obstáculo que una
herramienta. Revisitemos un tema que hemos tocado ya y que constituyó un espaldarazo
más para la teoría cuántica.
§. El átomo de Bohr, nuevamente
Ya hablamos en su momento sobre la manera en que Bohr resolvió las dificultades
del modelo de Rutherford del átomo, que lo presentaba como un sistema solar en
miniatura, con un núcleo en el centro y bandas de electrones girando alrededor
como los planetas alrededor del Sol. Y vimos cuál era la dificultad. Al girar,
siguiendo las leyes de Maxwell, los electrones debían perder energía, con lo
cual se suponía que debían caer hacia el centro, cosa que obviamente no
ocurría: la materia no se suicidaba. Vimos también cómo Bohr solucionó el
problema: afirmó que los electrones alrededor del núcleo de un átomo se
mantenían en la misma órbita porque no podían radiar energía continuamente
(como exigía la teoría clásica), sino que sólo podían emitir o absorber un
cuanto completo de energía —un fotón— y eso únicamente en determinadas órbitas.
Por otra parte, las mismas órbitas estaban cuantificadas, y no todas estaban
permitidas. Mientras el electrón se movía en estas órbitas no irradiaba, y sólo
lo hacía cuando saltaba de una órbita a otra, absorbiendo o emitiendo un fotón.
El modelo de Bohr utilizaba explícitamente el modelo de los cuantos de Planck,
y con eso había logrado no sólo una solución teórica al inestable átomo de
Rutherford sino varias predicciones en relación con la energía radiada por un
átomo de hidrógeno, que coincidían puntualmente con los resultados del
laboratorio.
Era una ruptura completa con las ideas clásicas, pero resolvía las dificultades
muy elegantemente. Así, Bohr introdujo la idea de cuantificación en un modelo
concreto, como era el átomo de hidrógeno, aunque sus posturas, desde ya, no
convencieron a todo el mundo. El propio Rutherford dudaba y recomendaba
moderación.
El problema, en verdad, es que aún no había una verdadera teoría cuántica y los
físicos avanzaban a tientas, mezclando conceptos nuevos y viejos para lograr
que las cosas funcionaran. Durante una década, la empiria tomó la ventaja,
aunque la teoría esperaba ahí, agazapada.
Pero entonces estalló la Primera Guerra Mundial, y la investigación teórica,
como suele suceder en las guerras, que destruyen el libre flujo de las ideas,
se detuvo.
§. Impasse: el azar
Mientras mantenemos en mente a las potencias europeas destrozándose en el campo
de batalla, produciendo una de las masacres más espantosas de la historia,
nosotros retrocederemos aún más, a los primeros años del siglo XX, cuando
Rutherford y su colega Frederick Soddy estaban investigando la naturaleza de la
radiactividad. Recuerden que fue allí donde apareció una nueva e intrigante
propiedad del átomo, o más bien de su núcleo: la desintegración radiactiva, ya
sea en partículas alfa o beta (todavía no se conocía la radiación gamma), que
se producía en cada átomo individual, y no parecía verse afectada por ninguna
influencia exterior. Se calentaran los átomos o se enfriaran, se les colocara
en vacío o en un depósito de agua, el proceso de la desintegración radiactiva
continuaba imperturbable.
Lo cual no era particularmente alarmante. Lo que sí resultaba novedoso era que
no parecía existir forma alguna de predecir exactamente cuándo un átomo
particular de la sustancia radiactiva se desintegraría, emitiendo una partícula
alfa o una partícula beta.
Ni Rutherford ni Soddy comprendían la causa por la cual un átomo se desintegra
en un momento dado y otro no, y empezaron a tratar el fenómeno
estadísticamente. Y ahí, los experimentos demostraban que cuando el número de
átomos radiactivos estudiado era grande, una cierta proporción se desintegraba
siempre en un cierto tiempo. Recuerden que para cada elemento radiactivo existe
un tiempo característico, llamado «vida media», durante el cual se desintegra
exactamente la mitad de los átomos de la muestra. Ya hemos dicho esto: el radio,
por ejemplo, tiene una semivida de 1.600 años; el carbono 14 tiene una semivida
de un poco menos de 6.000 años (lo cual resulta útil para las dataciones
arqueológicas) y el potasio radiactivo se desintegra con semivida de 1.300
millones de años.
Era una solución práctica, pero no dejaba satisfechos a los científicos que,
aunque muchas veces no lo admitan, no sólo están interesados por «modelos» o
explicaciones empíricas, sino por conocer la verdadera naturaleza de las cosas.
En efecto, el misterio de lo que pasaba con cada átomo individual persistía
tenazmente. Era, como luego lo demostraría Einstein, un problema similar al que
se desprendía del modelo atómico de Bohr, que estipulaba que un electrón
saltaba de una órbita prefijada a otra pero no decía nada acerca de cuándo lo
hacía (y mucho menos, como se verá, qué es lo que hacía cuando estaba «en
tránsito»). Rutherford, Soddy y el mismísimo Einstein pensaban que algún día
alguien descubriría exactamente el mecanismo de la desintegración de un átomo individualizado
y con ello se lograría explicar el asunto.
Y es aquí donde se produce una bifurcación entre las ideas clásicas y las
cuánticas o, digámoslo de otra manera, entre la manera clásica de pensar el
mundo y la manera cuántica de pensar el mundo.
En el mundo clásico todo tiene su causa. Y no me refiero sólo al mundo de la
física clásica, sino a aquel inaugurado por la primera formulación de la
ciencia hecha por nuestro viejísimo amigo Tales de Mileto: uno busca la causa,
y la causa de la causa, y se remonta por la cadena causal hasta donde quiera, o
hasta una causa primera, si es que la hay, o si uno cree que la hay. Pero un
átomo radiactivo se desintegra en un momento dado, sin que aparentemente
haya una razón para que esto ocurra. Tiene una probabilidad de hacerlo en
cada momento, y en algún momento lo hace. Y punto.
Un fenómeno como éste desafía una de las más arraigadas concepciones de la
ciencia: el determinismo. ¿Qué es esto? Sintéticamente, un modo de concebir la
realidad de manera tal que nada está librado al azar: si hay cosas que no
podemos prever o explicar no se debe a que sean naturalmente impredecibles o
inexplicables sino a alguna deficiencia nuestra (falta de información, o falta
de instrumentos adecuados, o falta de atención). Lo decía Pierre Simon Laplace
(1749-1827):
Podemos mirar el estado presente del universo como el efecto del pasado
y la causa de su futuro. Se podría concebir un intelecto que en cualquier
momento dado conociera todas las fuerzas que animan la naturaleza y las
posiciones de los seres que la componen; si este intelecto fuera lo
suficientemente vasto como para someter los datos a análisis, podría condensar
en una simple fórmula el movimiento de los grandes cuerpos del universo y del
átomo más ligero; para tal intelecto nada podría ser incierto y el futuro, así
como el pasado, estarían frente a sus ojos.
El azar al que nos referimos habitualmente, desde esta perspectiva, es
sólo producto de nuestra falta de información: la bolilla de la ruleta gira y
cae en un número «al azar», pero si un demonio, al estilo del de Descartes, o
una súper súper computadora como la Multivac de Asimov, pudiera reunir todos
los datos sobre la trayectoria de la bolita —sus choques con las ranuras de la
ruleta, la velocidad con la que corre, la magnitud del rozamiento— podría
pronosticar exactamente en qué lugar caería. Si coloco un alfiler en punta en
una mesa en perfecto equilibrio y no hay una razón para que caiga para un lado
o para el otro (razón que, insisto, nosotros podemos desconocer pero no pasar
por alto), éste se quedará donde está por los siglos de los siglos. El universo
actúa siempre y cuando haya una buena razón para que haga esto o aquello; si
no, no hace nada y permanece donde está.
Pero resulta que en el mundo cuántico no es así: esta causalidad directa,
determinista, que aún hoy a nosotros nos parece algo bastante intuitivo,
desaparece tan pronto como nos fijemos en la desintegración radiactiva y en las
transiciones de los electrones en el átomo.
En cierto modo era fatal que esto ocurriera, aunque estaba implícito en la
teoría del cuerpo negro de Planck: para llegar a su fórmula, el físico alemán
se había inspirado en Boltzmann (las ideas nunca surgen de la nada) y su
interpretación estadística de la entropía, de la cual hablamos en el capítulo
respectivo. La entropía, vimos entonces, era para él un fenómeno probabilístico.
No era una «cosa» que crecía, sino que expresaba la tendencia del universo a
ubicarse en los estados más probables, que son los más desordenados.
A través de ese hueco que abrían Planck, Einstein, Rutherford y Bohr, una nueva
forma de azar, un azar ontológico, se deslizaba en el mundo. El asunto era
saber si lo hacía para quedarse. Al principio, la mayoría de los físicos
pensaban que no, pero en seguida fueron desbordados por nuevos y aún más
extraños descubrimientos.
§. De Broglie: partículas y ondas
Ya les conté que los fotones pasaron a formar parte del lenguaje científico
ordinario después de 1927, pero no hemos dicho que fue en ocasión del quinto
Congreso Solvay, bajo el título «Electrones y fotones». Lo curioso era que al
mismo tiempo que los fotones hacían revivir la vieja teoría corpuscular de la
luz, era también evidente su naturaleza ondulatoria. Como afirmó Einstein:
resultaban entonces dos teorías de la luz, ambas indispensables… sin
ninguna relación lógica.
La idea genial, que vendría a resolver las cosas —o a complicarlas, vaya
uno a saber— provino de un físico francés, Louis de Broglie (1892-1987),
descendiente de una familia de nobles cuyas actuaciones en la historia francesa
se remontaban a dos siglos o más. A Louis de Broglie se le ocurrió un
planteamiento muy simple, como muchos de los planteamientos geniales. Si la
ondulatoria luz, como era evidente, se «disfrazaba» de partícula, ¿por qué un
electrón no podría «disfrazarse» de onda?
De Broglie desarrolló matemáticamente esta posibilidad en su tesis doctoral,
describiendo cómo se deberían comportar las ondas de materia y sugiriendo
formas en las que podrían ser observadas. Al mismo tiempo, aclaraba que él no
sostenía que el electrón podía estudiarse como una partícula o una onda, sino
que era una partícula y una onda (significare esto lo que
significare).
Sostenía que el fracaso de los experimentos para poner de manifiesto, de una
vez por todas, si la luz es onda o partícula se debía a que ambos tipos de comportamiento
van unidos, hasta el punto de que para medir la propiedad corpuscular que
representa la velocidad hay que conocer la propiedad ondulatoria llamada
frecuencia. Y lo mismo ocurría con los electrones, que por entonces eran
considerados como partículas típicas —excepto por el curioso modo de ocupar los
distintos niveles de energía dentro de los átomos— y que se convertían, gracias
a De Broglie, en algo dual: partículas, sí, pero también ondas.
El jurado que estudió la tesis de De Broglie apreció las matemáticas que
exhibía pero no creyó ni por un momento que la propuesta de una onda asociada a
una partícula como el electrón tuviera algún sentido real: lo estimaron como un
simple truco matemático, tal como había ocurrido en su momento con la ecuación
de Planck. De Broglie no estuvo de acuerdo y cuando uno de los examinadores le
preguntó si se podría diseñar algún experimento para detectar las ondas de
materia, él contestó que sería posible efectuar las observaciones requeridas
difractando un haz de electrones mediante un cristal, del mismo modo que se
difracta una onda de luz a través de un grupo de ranuras (no sabía que ya en
1914 dos físicos norteamericanos, Clinton Davisson y su colega Charles Kunsman,
habían detectado este curioso comportamiento al utilizar haces de electrones
para el estudio de cristales, aunque lo interpretaron de otra manera).
De Broglie trató de persuadir a experimentalistas para llevar a cabo la prueba
de la hipótesis de la onda del electrón; mientras tanto, su director de tesis
envió una copia del trabajo a Einstein, quien se lo tomó muy en serio, y en vez
de considerarlo un artificio matemático pensó que las ondas de materia debían
ser reales:
Creo que representa más que una mera analogía,
aseguró.
Y le pasó las noticias a Max Born, de Gottingen, donde el director del
Departamento de Física Experimental, James Franck, comentó que los experimentos
de Davisson ya habían establecido la existencia del efecto esperado. De todos
modos, los experimentalistas no se dejaron influir por esta reinterpretación de
sus resultados y los devaneos de un teórico que no era más que un primerizo
estudiante de veintiún años. Incluso en 1925, a pesar de haberse demostrado
experimentalmente, la teoría de las ondas de materia no pasaba de ser un
concepto vago.
Sólo cuando Erwin Schrödinger realizó una nueva teoría de la estructura atómica
que incorporaba y ampliaba la idea de De Broglie, los experimentalistas
consideraron urgente comprobar la hipótesis de la onda del electrón mediante la
realización de experimentos de difracción.
§. Schrödinger
Cuando se tomó conciencia de que no sólo los fotones y los electrones sino
todas las partículas y todas las ondas son, de hecho, una mezcla de onda y
partícula, puede decirse que se consumó la ruptura con la física clásica.
En nuestro mundo ordinario, la componente corpuscular domina de manera total en
el cóctel onda-partícula. Si se trata, por ejemplo, de una piedra o de un auto,
el efecto ondulatorio está, pero es completamente insignificante, lo cual se
debe al pequeñísimo valor de la constante de Planck, del mismo modo que los
efectos relativistas están, pero son insignificantes debido al altísimo valor
de la constante c, la velocidad de la luz. En el mundo de lo muy pequeño, donde
los aspectos corpusculares y los ondulatorios de la realidad física son
igualmente significativos, las cosas se comportan de un modo radicalmente
distinto del de la experiencia cotidiana, y —lo que es peor— de la física
clásica.
Sir Arthur Eddington lo resumió en 1929:
No pueden elaborarse concepciones familiares sobre el electrón, afirmó,
y el átomo es algo desconocido que hace no sabemos qué.
Era necesario desterrar la asociación instintiva de los átomos con
esferas duras y de electrones con diminutas partículas.
A finales de 1925, cuando la teoría de las ondas de electrones de De Broglie ya
había aparecido en escena pero no se habían realizado los experimentos
definitivos que probarían la naturaleza ondulatoria del electrón, se produjo un
nuevo paso adelante: el de una teoría matemática que daba cuenta de los
fenómenos cuánticos basándose en la teoría ondulatoria.
Fue en uno de los trabajos de Einstein, publicado en febrero de 1925, donde
Erwin Schrödinger (1887-1961) leyó los comentarios sobre la idea de De Broglie.
Las opiniones de Einstein tenían un peso específico gigantesco, y fueron
suficientes para que nuestro personaje se dedicara a investigar cuáles podían
ser los caminos que se abrían si se tomaba a De Broglie literalmente.
Schrödinger trató de restaurar la comprensión sencilla de las ideas físicas
mediante la descripción de la física cuántica en términos de ondas, entidades
familiares en el mundo físico, y luchó hasta su muerte contra los nuevos
conceptos de indeterminación y transición instantánea de electrones de un
estado a otro.
De Broglie había indicado el camino con su idea de que las ondas de electrones
en órbita alrededor de un núcleo atómico habían de ajustarse a un número entero
de longitudes de onda en cada órbita, por lo que existían órbitas intermedias
prohibidas. Schrödinger amplió las matemáticas sobre ondas para calcular los
niveles de energía permitidos en tal situación, y consiguió un buen acuerdo con
las observaciones. Las ecuaciones en la variante de Schrödinger sobre la teoría
cuántica pertenecen a la misma familia que describen ondas reales en el mundo
ordinario: ondas sobre la superficie del océano, o las ondas que transmiten
ruidos a través de la atmósfera. El mundo de los físicos recibió esta
aportación con entusiasmo, precisamente por resultar tan familiar.
Algunos habrán pensado que las cosas todavía podían encarrilarse.
Pero no. Todavía faltaba un experimento fundamental.
§. El experimento de la doble ranura
¿Se acuerdan del experimento de Young, de 1801, con el que se quiso verificar
si la luz era una onda o una partícula? Imagínense una pantalla con dos
pequeños agujeros en ella. A un lado de esta pantalla hay otra que lleva
incorporada un detector. Una fuente lanza fotones, o electrones —digamos,
electrones— contra la pared que tiene los dos agujeros. La pregunta es: ¿qué
sucede cuando los objetos pasan a través de los agujeros y llegan hasta la
pantalla? Es decir, ¿qué figura consiguen que forme el detector?
El resultado es sorprendente, por cierto. Si se tapa una de las dos rendijas,
los electrones se comportan estrictamente como partículas, y caen en el sitio
que corresponde en el detector, como se ve en la figura 1.
Figura 1
Ahora fíjense lo que pasa con una onda: la onda pasa por las dos
rendijas, se bifurca y forma dos ondas diferentes, que se superponen por
momentos. En donde las ondas están superpuestas, la pantalla detectora mostrará
mayor intensidad: el patrón que se obtiene es como el que se ve en la figura 3.
Ahora bien, ¿qué pasa si arrojo un haz de electrones a través de las dos
rendijas abiertas? Si considero que se trata de partículas, lo más lógico sería
pensar que cada electrón individual pasa a través de un agujero o del otro, con
lo cual se formaría un patrón similar al de la figura 1 pero con dos líneas en
lugar de una sola, tal como se puede ver en la figura 2.
Figura 2
Y sin embargo, no. Cada electrón pareciera atravesar ambas rendijas como
una onda, y produce sobre la pantalla figuras de interferencia, como si fuera
una onda (es decir, como se ve en la figura 3). ¿Pero cómo «sabe» el electrón
si está abierta una sola rendija o las dos mientras se aproxima a la pared para
decidir cómo comportarse? Es un verdadero misterio.
Figura 3
Además, supongamos que el electrón está viajando hacia las dos rendijas
abiertas —se supone que como una onda— y entonces decidimos observarlo mientras
las atraviesa. En ese caso, el electrón instantáneamente colapsa hacia una
partícula, como si «supiera» que lo queremos observar. Y es más, colapsa si
decidimos observarlo después de que haya partido, por lo cual volveríamos a
obtener la figura 2.
¿Qué conclusión se puede sacar de esto? ¿Se trata de la dualidad
onda-corpúsculo con la que se ha aprendido a convivir? Si es una onda, no
sorprende encontrar que se difracte y produzca una figura de interferencia.
Millares de electrones inciden sobre los agujeros, y se puede predecir sobre
una base estadística dónde llegarán, empleando esta interpretación de la onda.
Pero, ¿qué le sucede a cada electrón individual? Acá viene una de las grandes
revoluciones conceptuales de la mecánica cuántica.
§. La interpretación de Copenhague
En todas las ficciones, cada vez que un hombre se enfrenta con diversas
alternativas, opta por una y elimina las otras, en la del casi inextricable
Ts’ui Pen, opta —simultáneamente— por todas. Crea, así, diversos porvenires,
diversos tiempos, que también proliferan y se bifurcan.
J. L. BORGES, «El jardín de senderos que se bifurcan»
Un electrón individual, o un fotón, cuando incide sobre un agujero de la
pared, obedece en cada caso a las leyes estadísticas previstas, lo cual sólo
puede ocurrir si «sabe» si el otro agujero está abierto o cerrado. Se puede
tratar de «despistar» al electrón disparando más o abriendo repentinamente uno
de los agujeros, mientras el electrón está ya en tránsito, por el aparato. No
importa; la figura en la pantalla es siempre la «correcta» atendiendo al estado
de los agujeros en el instante en que el electrón llega a la primera pared.
Se puede, también, tratar de ver por cuál de los agujeros pasa el electrón.
Cuando el experimento correspondiente se realiza, el resultado es todavía más
extraño: los electrones se comportan como las partículas corrientes del mundo
ordinario. Siempre se detecta un electrón pasando por uno u otro de los
agujeros, pero nunca por los dos a la vez. Los electrones resulta que no sólo
«saben» si los dos agujeros están abiertos o no, sino también si están siendo
observados o no, y ajustan su comportamiento en consonancia. No existe un
ejemplo más claro de interacción entre el observador y el experimento. Cuando
se intenta observar la onda dispersa del electrón, ésta se colapsa en una
partícula definida, pero si no se la observa mantiene su carácter ondulatorio.
Salvo que alguien lo observe, la naturaleza misma «ignora» por qué agujero pasa
el electrón.
Así pues, por lo que parece, el aparato, los electrones y el observador son
partes integrantes del experimento. No se puede afirmar que un electrón pasa
por uno de los agujeros si no se están observando los agujeros ante el paso de
los electrones. Un electrón sale del disparador y llega al detector, y parece
que posee información del montaje experimental completo, incluyendo al
observador.
Esto es lo que se conoce como «interpretación de Copenhague», que fue
encabezada por Niels Bohr. En la física clásica, cualquier sistema de
partículas se comporta de manera determinista independientemente de que esté
siendo observado o no; en la cuántica, el observador interactúa de tal manera
con el sistema que casi no puede ser considerado un mero observador. Su
actividad observante modifica el sistema que quiere estudiar: si elige medir
con precisión la posición, fuerza a una partícula a presentar mayor incertidumbre
en su velocidad y viceversa. Si elige algún experimento para medir propiedades
ondulatorias se eliminan peculiaridades corpusculares, y no hay experiencia
posible capaz de poner en juego ambas naturalezas. Las partículas cuánticas, a
diferencia de las clásicas, no tienen una posición y velocidad precisas en el
espacio-tiempo.
En realidad, es difícil de creer, pero la mecánica cuántica es una teoría de
una firmeza que parece indestructible, es coherente con todos los experimentos,
y ha permitido el desarrollo de tecnologías muy poderosas, como los láseres,
los microscopios electrónicos (que utilizan ondas de electrones en lugar de
ondas de luz y que son mucho más potentes que los ópticos), la generación de
energía nuclear, los circuitos integrados que a su vez permiten las grandes
computadoras… y la lista sigue.
Hubo de pasar mucho tiempo para que estas ideas se desarrollaran y para que su
significado fuera captado. Hoy, las características de la interpretación de
Copenhague se pueden explicar y entender más fácilmente en términos de lo que
pasa cuando se efectúa una observación experimental. En primer lugar, se ha de
aceptar que el mero hecho de observar una cosa la cambia y que el observador
forma parte del experimento, es decir, no hay un mecanismo que funcione
independientemente de que se lo observe o no. En segundo lugar, toda la
información la constituyen los resultados de los experimentos. Se puede
observar un átomo y ver un electrón en el estado de energía A, después volver a
observar y ver un electrón en el estado de energía B. Se supone que el electrón
saltó de A a B, quizás a causa de la observación. De hecho, no se puede
asegurar siquiera que se trate del mismo electrón y no se puede hacer ninguna
hipótesis sobre lo que ocurría cuando no se observaba. Lo que se puede deducir
de los experimentos, o de las ecuaciones de la teoría cuántica, es la
probabilidad de que si al observar el sistema se obtiene el resultado A, otra
observación posterior proporciona el resultado B. Nada se puede afirmar sobre
lo que pasa cuando no se observa, ni de cómo pasa el sistema de A a B, si es
que pasa. Los saltos cuánticos son simplemente una interpretación subjetiva de
por qué se obtienen dos resultados diferentes para el mismo experimento, y es
una falsa interpretación. A veces las cosas se observan en el estado A, a veces
en el B, y la cuestión de qué hay en medio o de cómo pasan de un estado a otro
carece completamente de sentido.
Lo extraño de la inusual interpretación de Copenhague del mundo cuántico es que
es el acto de observar al sistema físico el que lo obliga a seleccionar una de
sus opciones. Nada es real salvo que sea observado, y cesa de ser real en
cuanto se detiene la observación.
Vivimos en un mundo donde las partículas sólo parecen reales cuando se las
observa, y donde incluso propiedades como la velocidad y la posición son
únicamente artilugios de las observaciones.
En cierto modo, me hace acordar a la interpretación de Wittenberg de la
astronomía copernicana, que consideraba también los resultados
independientemente de la existencia de epiciclos o no, desde un punto de vista
instrumentalista. Naturalmente, la astronomía de Copérnico no tenía
presupuestos tan estrafalarios como que una partícula «sabe» qué pasa con las
rendijas, pero quizás el movimiento de la Tierra a muchos les resultara igual
de alucinante.
§. El principio de incertidumbre
El futuro puede predecirse a partir del pasado. Si conociéramos la
velocidad y posición de todas las partículas del universo, podríamos predecir
el futuro con total exactitud.
LAPLACE (otra vez)
Aunque pueda sonar un tanto omnipotente, la afirmación de Laplace, de
hace menos de 200 años, reflejaba muy bien el espíritu que presidió el
desarrollo y cenit de la ciencia clásica durante el siglo XIX y principios del
XX: si se tuvieran a disposición todos los datos del presente, se podría
predecir perfectamente el futuro. Naturalmente, nadie pensaba que se podían
tener de manera efectiva esos datos, pero era tan sólo una cuestión de
imposibilidad práctica. En teoría, era posible: el futuro estaba exactamente
determinado por el presente, mediante la acción de las leyes físicas. El mundo,
en suma, era predictible por la ciencia. Este credo determinista, del que ya
hemos hablado, sufrió un duro revés con la mecánica cuántica.
Más o menos al mismo tiempo que Schrödinger desarrollaba su modelo ondulatorio,
Heisenberg encontraba una formulación alternativa (que luego se mostró que era
equivalente), una de cuyas consecuencias más inquietantes (y más
espectaculares) es, justamente, el principio de incertidumbre, que enunció en
1927. Laplace sostenía que se podría predecir el futuro del universo si se
pudieran conocer la posición y velocidad de todas las partículas del universo…
El principio de incertidumbre, precisamente, afirma que esto es imposible. Pero
no imposible como el sentido común sabe que es imposible (es decir,
técnicamente imposible) sino ontológicamente imposible. Es más: ni siquiera se
pueden conocer exactamente la posición y velocidad de una partícula aislada. Se
puede medir con exactitud la posición de un electrón. También se puede medir
con exactitud la velocidad de ese electrón. Lo que no se puede hacer es medir
ambas, posición y velocidad, simultáneamente y con absoluta precisión. Cuanto
más precisamente se mida la velocidad, más incertidumbre habrá en cuanto a la
posición, y cuanto más exactamente se mida la posición, más indeterminada
quedará la velocidad.
Es como si no se pudieran saber a la vez el teléfono y la dirección de una
persona, como si en la agenda donde están anotados, el número de teléfono se
tornara más borroso a medida que se clarifica la dirección y, a la inversa, a
medida que se vuelve más fácil leer el número de teléfono, la dirección fuera
borrándose. Y en el caso extremo en que el teléfono quedara absolutamente
claro, el lugar correspondiente a la dirección quedaría en blanco.
El propio Heisenberg trató de explicar este curioso rasgo de la naturaleza de
manera más o menos intuitiva: si uno quiere determinar la posición de un
electrón, debe iluminarlo para ver dónde está, pero, para la escala del
electrón, los fotones de luz son suficientemente energéticos como para alterar
su velocidad. Recíprocamente, si uno quiere averiguar la velocidad, debe
abstenerse de iluminarlo, y entonces no sabrá dónde se encuentra. O una
magnitud, o la otra. O las dos, pero no demasiado precisamente.
El ejemplo de Heisenberg, no obstante su valor intuitivo, puede sugerir que el
problema de la medición simultánea de magnitudes como la velocidad y la
posición (o la energía y el tiempo) puede deberse a un problema relacionado con
la medición. Nada de eso. La incertidumbre cuántica parece ser un rasgo
fundamental de la naturaleza: no es que sea imposible medir simultáneamente
velocidad y posición de una partícula atómica o subatómica, sino que hablar de
la velocidad y la posición simultáneas de una partícula carece de sentido.
Volviendo al ejemplo de la dirección y el teléfono, lo que el principio de
incertidumbre afirma es que el señor X no puede tener al mismo tiempo dirección
y teléfono definidos: o bien lo llamamos a un teléfono celular cuya posición es
totalmente imprecisa, o bien lo llamamos a un teléfono de línea, que sabemos
dónde está, pero que no nos da ninguna garantía de encontrarlo.
Naturalmente, estos fenómenos no se observan en el mundo macroscópico, debido a
su incidencia infinitesimal, pero de todas maneras plantean preguntas (por
ahora sin respuesta) sobre la estructura de la realidad.
§. Paradojas y posibilidades
No es sorprendente que muchos físicos de prestigio, incluyendo a Einstein, hayan
dedicado décadas enteras a tratar de encontrar vías alternativas a esta
interpretación de la mecánica cuántica. Pero sus intentos han fallado todos, y
cada nuevo fracaso en la búsqueda de acabar con la interpretación de Copenhague
no ha hecho sino reforzar su base.
Ya dijimos que, para los físicos de Copenhague, las imprecisiones,
probabilidades e incertidumbres de la mecánica cuántica no son una limitación
de la física, o la señal de que la mecánica cuántica es una teoría incompleta,
sino que la naturaleza es así: un electrón es una superposición de
probabilidades de estar aquí o allá, tal y como la mecánica cuántica lo
describe. Pensar en un electrón en tal lugar no tiene sentido (a menos que lo
observemos, en cuyo caso la función de onda «colapsa» hacia una posición fija,
todos los estados se condensan y el electrón aparece tan campante ocupando una
determinada posición).
La primera paradoja famosa postulada para poner en entredicho esta postura fue
planteada por el mismísimo Schrödinger, quien en 1935 propuso un curioso
experimento mental que quedó en el folklore como «la paradoja del gato de
Schrödinger». Y es así.
Imaginemos una caja completamente cerrada que contiene un gato vivo y una
pequeña cantidad de material radiactivo. Imaginemos también que dentro de la
caja hay un dispositivo diabólico (pero perfectamente posible) por el cual
cuando una partícula es emitida por alguno de los átomos radiactivos, se pone
en funcionamiento un detector que a su vez suelta un martillo que rompe una
ampolla de vidrio llena de un gas venenoso, efectivo e instantáneo. O sea,
apenas un átomo se desintegra, el gato muere. Para la mecánica cuántica, no hay
manera de saber en qué momento un átomo se va a desintegrar: todo se reduce a
probabilidades. Solamente mirando podemos saber si el átomo se ha desintegrado
o no, y mientras la caja esté cerrada, los átomos en cuestión son una mezcla de
dos estados (se desintegró-no se desintegró). Entonces, razonaba Schrödinger,
puesto que no tiene sentido preguntarse si el material radiactivo se desintegró
o no hasta que abramos la caja y miremos, tampoco tiene sentido preguntarse si
el gato está vivo o no hasta ese mismo momento. Simplemente —siguiendo la
interpretación de Copenhague— el gato está en una mezcla de dos estados, «vivo»
y «no vivo», y pensar que está vivo o que está muerto no tiene sentido.
Obviamente, la intención de Schrödinger fue amplificar la incertidumbre
cuántica hasta llevarla a términos cotidianos (¿quién puede imaginarse a un
gato como una mezcla de gato vivo y gato muerto?) de tal manera que chocara aún
a los teóricos de Copenhague. Naturalmente, a éstos no les chocó, aunque hasta
ahora no hay respuestas enteramente satisfactorias a la paradoja, que Einstein
celebró efusivamente.
(Dicho sea de paso, no es raro que Schrödinger haya elegido a un gato, animal
que tiene mucho de misterioso y extraño. El gato de Schrödinger, con su mezcla
de estados, es primo directo del gato de Cheshire de Lewis Carroll en Alicia
en el País de las Maravillas, capaz de esfumarse por partes y dejar su
sonrisa flotando.)
La segunda paradoja corrió por cuenta de Einstein, quien durante los años
treinta y cuarenta mantuvo una pertinaz y divertida discusión con Niels Bohr
sobre este mismo punto. Para Einstein, el electrón tenía que tener una
velocidad y una posición determinadas: si la teoría se las negaba, era una
muestra de la debilidad de la teoría; para Bohr, la teoría era firme como una
roca, y en todo caso la debilidad era de la naturaleza, o de nuestro concepto
de la realidad. Einstein proponía experimentos (teóricos) que permitieran medir
velocidad y posición de un electrón en forma simultánea (para mostrar que se
violaba el Principio de Incertidumbre), experimentos que Bohr refutaba
graciosamente. Uno de los más sonados quedó en la literatura como la paradoja
EPR (por Einstein, Podolsky y Rosen, que lo sugirieron en 1935).
Simplificando las cosas hasta el escándalo, la idea era la siguiente:
supongamos, decían Einstein, Podolsky y Rosen, que dos partículas, A y B,
parten en direcciones contrarias, de tal manera que a partir de una de ellas
uno pueda deducir la situación de la otra. Entonces, uno podría perfectamente
medir la posición de A, y la velocidad de B. A partir de la velocidad de B, se
deduce la de A, con lo cual sabríamos exactamente ambas magnitudes de A, en
contra del Principio de Incertidumbre. Bohr no se inmutó y aseguró que, al
medirse la posición de la partícula A, la velocidad de la partícula B se
alteraría, como si «supiera» que a su compañera la estaban midiendo. En este
punto, la cosa desembocó en un callejón sin salida, porque el experimento era
entonces impracticable.
Pero en los años setenta el físico británico John Bell inició un camino teórico
que permitió a Alain Aspect en 1982 llevar a cabo un experimento que zanjó la
discusión. En vez de electrones, posiciones y velocidades, se usaron fotones y
direcciones de polarización, pero el sentido del experimento fue el mismo. Y
tanto los trabajos de Aspect de 1982 como las repeticiones ulteriores le dieron
la razón a Niels Bohr y refutaron a Einstein.
La polémica sobre la mecánica cuántica sigue. No es para sorprenderse. En ella
está comprometida nuestra concepción del mundo y de lo que entendemos por
«realidad». El universo es, tal vez, un lugar aún más misterioso de lo que
solemos imaginar.
Intermezzo matemático:
La crisis de los fundamentos
La denominada «crisis de los fundamentos», fiel al espíritu epocal,
contribuyó a desarmar una imagen construida a partir de la Revolución
Científica según la cual la Ciencia (así, con mayúscula) progresaba en un
camino ilimitado hacia la Verdad (también así, con mayúscula), camino que no
presentaba más obstáculos serios que el enorme tiempo que llevaba recorrerlo.
§. Paradojas
La palabra «paradoja» viene de la palabra latina «paradoxus», a su vez
descendiente directa del griego «parasofos», y en los tres idiomas
significa «conocimiento que choca con el sentido común». Por alguna razón las
paradojas tienen algo encantador: el atractivo que despierta la posibilidad de
los viajes en el tiempo, por ejemplo, aumenta con la paradoja que los impide:
¿qué ocurre si yo viajo al pasado y asesino a mis ancestros, impidiendo mi
propio nacimiento? Este dilema (irresoluble), muestra que viajar al pasado es
imposible, pero que es posible la trilogía Volver al Futuro, de
Zemeckis y Spielberg, que es mucho mejor y es objeto de devoción por parte del
volátil autor de estas páginas.
Cuando Einstein enunció la Teoría de la Relatividad Restringida, en 1905, dio
pie para muchos juegos paradojales, especialmente con el tiempo, que desvelaron
a los científicos. Por ejemplo, la paradoja de los gemelos: según la teoría de
la relatividad (restringida), uno ve que sobre un cohete en movimiento el
tiempo transcurre más lentamente. Entonces, imaginemos a dos hermanos gemelos,
uno de los cuales se embarca en un cohete para emprender un largo viaje
espacial. El hermano que permanece en tierra ve que el reloj del viajero va más
despacio que el suyo (porque el tiempo en la nave corre más despacio), que su
hermano estelar envejece más lentamente que él y, por lo tanto, lo ve más joven
que él.
Pero a su vez el hermano que viaja en el cohete (siempre según la Teoría de la
Relatividad Restringida) supone que en realidad él está quieto, que es la
Tierra la que se mueve (con su hermano sobre ella). Y en consecuencia, el reloj
de su hermano terrestre va más despacio y su hermano es más joven. O sea: cada
uno ve al otro más joven. ¿Qué pasa cuando el viajero regresa y se produce el
reencuentro? No puede ser que cada hermano sea más joven que el otro. La
solución no es nada sencilla y requiere recursos de la Relatividad General que
exceden por completo a este libro.
La mecánica cuántica, como ustedes ya saben, no dejó de agregar su cuota en
este mundo contrario al sentido común (el gato de Schrödinger es el mejor
ejemplo).
Éstas son paradojas planteadas por la física, pero una de las más famosas no
viene de allí sino del campo de la lógica: se trata de la del «catálogo de
catálogos» propuesta por el gran filósofo, matemático y lógico inglés Bertrand
Russell (1872-1970).
Síganme con atención.
Como todos sabemos, hay catálogos de libros que se incluyen a sí mismos como un
libro más; hay otros, en cambio, que no. Incluirse a sí mismo o no es una
decisión que en cada caso toma el editor, basado en sus preferencias
personales.
Pero imaginemos, propuso Bertrand Russell, que queremos hacer un Super catálogo
donde figuren todos los catálogos que no se incluyen a sí
mismos y solamente ellos.
A primera vista parece fácil. Pero no es así. Porque… ¿qué hacemos con el
propio Super catálogo? ¿Lo incluimos o no lo incluimos? ¿Lo ponemos o no lo
ponemos? Y, no. Porque si lo incluimos en el índice, el Super catálogo se
convierte en un catálogo de libros que se contiene a sí mismo, y por ende, no
debe figurar. Entonces, no lo ponemos.
Pero si no lo ponemos, nuestro Super catálogo es un catálogo que no se
contiene a sí mismo y entonces sí debe figurar.
O sea que no hay manera de resolver el problema. Russell planteó esta paradoja
en términos de la Teoría de Conjuntos y en 1902 se la envió al matemático
alemán Gottlieb Frege (1848-1925).
Frege acababa de terminar el segundo volumen de un ambicioso intento de
construcción de una estructura matemática coherente y completa desde el punto
de vista lógico. El libro se estaba imprimiendo (salió en 1903) cuando recibió
la carta de Russell. Frege comprobó que su sistema no podía resolverla, y tuvo
que añadir, al final del volumen, un párrafo en el que admitía que el
fundamento de su razonamiento había fallado y que, por lo tanto, el libro era
inútil. Fue una verdadera catástrofe intelectual, que demostró lo que nadie
podía concebir: los fundamentos de las matemáticas eran dudosos. Y si los
fundamentos de la matemática están mal… ¿cómo podemos estar seguros de que la
física está bien? Y si la física es dudosa…, no lo será también la medicina,
que le debe tanto Los matemáticos se lanzaron entonces a tratar de encontrar un
sistema de axiomas que pudiera fundamentar las matemáticas. Y, notablemente, en
1931, un lógico llamado Gödel mostró que no se puede… bueno, no exactamente,
sino que el intento tiene muchos bemoles.
§. El teorema de Gödel
Cada hombre está eternamente obligado, en el curso de su breve vida, a
elegir entre la esperanza infatigable y la prudente falta de esperanza, entre
las delicias del caos y las de la estabilidad.
Memorias de Adriano, MARGUERITE YOURCENAR
Desde muy antiguo se consideró a la matemática, y con bastante justicia,
como la reina de las ciencias. Este precepto, cuando Galileo en el siglo XVII
proclamó que «el libro de la naturaleza está escrito con caracteres
matemáticos», confirió a la corona los atributos del derecho divino. Y hasta
cierto punto los de una monarquía absoluta. Si las matemáticas nunca
parafrasearon a Luis XIV diciendo «la ciencia soy yo» fue tan sólo porque son
incapaces de hablar, y tal vez por falsa modestia. Lo cierto es que, a partir
del triunfo de la mecánica newtoniana, las matemáticas se convirtieron en la
aspiración común de todas las disciplinas científicas: matematizar una ciencia
garantizaba su verdad. Es preciso reconocer, de paso, y a despecho de cualquier
aspiración republicana, que este sistema de gobierno dio resultados
espectaculares: la reducción de las ciencias a fórmulas y su manipulación
produjeron la acumulación de conocimientos más formidable que recuerde la
memoria humana.
Ese papel central de la matemática deriva de su método: la obtención de
resultados mediante la deducción puramente lógica a partir de un puñado de
axiomas elementales que se aceptan como verdaderos. De hecho, ésta fue la
metodología que utilizó Euclides en sus célebres Elementos, que
conocimos en el lejano capítulo sobre la Escuela de Alejandría —aunque, como
ven, todo vuelve—, que se usaron sin mayores variantes hasta hace ciento
cincuenta años y que permanecen, sin demasiadas transformaciones, en los textos
de geometría que se utilizan aún hoy en la escuela secundaria.
Es verdad que durante el siglo pasado la supuesta verdad absoluta de los
axiomas de la geometría euclidiana recibió un duro golpe: partiendo de axiomas
diferentes de los de Euclides, Lobachevski y Riemann construyeron geometrías
perfectamente coherentes, aunque distintas de la euclidiana, y de alguna manera
la búsqueda de la verdad fue sustituida por el afán de coherencia y no
contradicción.
Pero hacia finales de siglo XIX, el triunfo del método axiomático era completo:
las investigaciones de la lógica matemática se dirigían con especial énfasis a
buscar una formalización y axiomatización de toda la matemática.
La idea se inscribía perfectamente en la muy finisecular concepción del
progreso: una vez encontrados los axiomas adecuados, todas las verdades podrían
ser deducidas a partir de ellos, mediante la lógica y la paciencia. Cuando en
1900 el gran matemático David Hilbert presentó un programa enunciando la lista
de problemas matemáticos pendientes (apenas un puñado), hizo un alarde de
confianza: resolverlos era sólo cuestión de tiempo. La potencia de las
matemáticas parecía infinita, y siguió pareciendo infinita hasta 1931.
Porque en ese año, en efecto, el matemático y lógico Kurt Gödel dio a conocer
un teorema que se transformó en un clásico de la lógica matemática. En él se
demuestra que no todas las verdades matemáticas pueden ser alcanzadas. Más
sencillamente: que en cualquier sistema que contenga la aritmética, existe por
lo menos una fórmula, que, aun siendo verdadera, no podrá jamás ser demostrada.
No importa cuál sea el conjunto de axiomas que se use: siempre habrá algo que,
si bien es verdadero, no se puede demostrar.
Es decir: en el seno mismo de las matemáticas hay cosas no alcanzables, lugares
a donde la paciente deducción no llegará jamás. Naturalmente, este curioso
resultado no afecta para nada la utilización de las matemáticas por el resto de
los científicos, ni al papel central que ésta juega en todo el sistema de las
ciencias. Pero de alguna manera limita su omnipotencia. Desde la Revolución
Francesa en adelante, y como bien lo pudo comprobar Luis XVI, ya se sabe que
las monarquías absolutas no son del todo seguras, y si bien no es cierto que
las matemáticas hayan perdido su cetro, puede decirse que su largo y glorioso
reinado, desde el teorema de Gödel en adelante, adquirió los contornos de una
monarquía constitucional.
Capítulo 36
La fisión nuclear y la bomba atómica
Es concebible que en manos criminales el radio pueda llegar a ser muy
peligroso y uno puede preguntarse si es conveniente para el hombre revelar los
secretos naturales, si está preparado para beneficiarse con ellos o si este
conocimiento irá en detrimento suyo. El ejemplo de los descubrimientos de Nobel
es característico: los explosivos de gran poder han permitido que el hombre
llevara a cabo trabajos admirables. Son también un medio terrible de
destrucción en manos de los grandes criminales que llevan a los pueblos a la
guerra. Me cuento entre aquellos que creen, lo mismo que Nobel, que la
humanidad obtendrá más bien que mal de los nuevos descubrimientos.
Discurso de PIERRE CURIE al recibir el Premio Nobel de Física, compartido con
MARÍA CURIE y HENRI BECQUEREL
En el año 1938, la física Lise Meitner (1878-1968), que desde 1917
dirigía el Departamento de Física Radiactiva del Instituto Káiser Wilhelm,
estaba trabajando junto a Otto Hahn (1879-1968) con los núcleos atómicos. La
idea era fabricar un elemento transuránico.
¿Y qué era un elemento «transuránico»?
Pues esto: la Tabla Periódica llegaba hasta el uranio, el elemento 92. Lise y
Otto lanzaban neutrones contra el núcleo de uranio, con la esperanza de que uno
de ellos fuera absorbido por el transformado en protón, y diera el elemento 93,
el primer transuránico, que iría más allá del límite que imponía la tabla
periódica. Pero no lo conseguían.
Por cierto, en ese año de 1938 había otras cosas de que preocuparse. Desde
1933, Hitler y sus secuaces del partido nazi gobernaban Alemania con una
política caracterizada por drásticas medidas antisemitas y de persecución
racial, que además de conducir a una de las masacres más terribles de la
historia provocó el razonable éxodo de científicos judíos. Niels Bohr —a quien
ya hemos visto elaborando un modelo del átomo de hidrógeno en 1912— recorría
las universidades alemanas tratando de ayudar a sus colegas en problemas,
buscándoles empleo en otros lugares de Europa y en los Estados Unidos.
Lise Meitner pertenecía a una familia protestante pero uno de sus abuelos era
judío, razón suficiente para caer dentro de la brutalidad de las leyes nazis
(que expulsaban a los judíos de cualquier puesto de la administración y, a
fortiori, de las universidades). Hasta el 38, Meitner, que era de
nacionalidad austríaca, había estado más o menos protegida. Pero cuando Hitler
invadió Austria y la anexó al Tercer Reich, Meitner se convirtió de facto en
ciudadana alemana y automáticamente estuvo en peligro: el 17 de julio de 1938,
partió hacia Holanda, desde donde viajaría a Suecia.
Justo a tiempo. El 9 de noviembre se producía en Alemania la famosa Kristallnacht («Noche
de los cristales») en que se destruyeron y saquearon los negocios
pertenecientes a judíos, se quemaron todas las sinagogas y se deportaron veinte
mil judíos a campos de concentración.
Mientras Lise Meitner se refugiaba en Suecia, Otto Hahn seguía investigando en
la pista de los transuránicos. Pero los transuránicos no aparecían por más que
se bombardeara el núcleo de uranio, aunque sí aparecían otros elementos
más livianos, como el bario. ¿Cómo podía haber bario, cuyo núcleo es
aproximadamente la mitad del núcleo de uranio, entre los restos del uranio
bombardeado? ¿Cómo podía ser? Era como si el núcleo de uranio se hubiera
partido en dos, pero Hahn no podía creer en semejante cosa.
Tal vez usted pueda sugerir alguna explicación fantástica. Comprendemos
perfectamente que el uranio no puede, de ninguna manera, quebrarse y dar bario,
así que ¿por qué no trata de pensar en alguna otra posibilidad?
le escribió a Meitner.
Meitner contestó inmediatamente:
Sus resultados son realmente asombrosos. ¡Un proceso que conduce al
bario! Por el momento, la hipótesis de una ruptura del núcleo de uranio me
parece difícil de aceptar, pero en física nuclear hemos recibido ya tantas
sorpresas, que en ningún caso, ante una situación extraña, podemos decir, sin
dudar «es imposible».
Y se fue a pasar las Navidades en Kungalv, en el sur de Suecia, a casa
de una familia que la había invitado. Allí se le unió su sobrino, el físico
Otto Frisch, que a la sazón vivía en Dinamarca, donde se había refugiado de los
nazis.
Tía y sobrino caminaron, pasearon y esquiaron pero inevitablemente la
conversación recayó sobre los sorprendentes experimentos de Berlín.
Parecía imposible. Era impensable «cortar» el núcleo, si se piensa en la
cantidad de ligazones nucleares que había que romper,
contó más tarde Frisch, quien, aunque estaba intrigado por el asunto,
estaba más urgido por esquiar. Pero Lise era implacable y, finalmente, tía y
sobrino se sentaron sobre unos troncos. Meitner sacó un papel y un lápiz e hizo
algunos dibujos en los que sugería la manera en que el núcleo podía dividirse,
elongándose lo suficiente y luego dividiéndose en dos partes, dos pequeños
núcleos de relativamente poco tamaño (en este caso, bario —el elemento 56— y
criptón —el elemento 36—) que se separarían a gran velocidad, debido a la
energía liberada: 200 millones de electrón-volt. (El electrón-volt es una
medida de energía, una medida muy chica, que se usa a nivel atómico y nuclear.
Aún doscientos millones de electrón-volt no son demasiado para el mundo en que
nos movemos cotidianamente, pero para un solo átomo son una barbaridad.)
¿De dónde podría salir semejante cantidad de energía? ¿De dónde podían venir
nada menos que doscientos millones de electrón-volt? Lise Meitner había
asistido a conferencias de Einstein en 1909, en las que éste había expuesto la
fórmula de equivalencia entre masa y energía (E = mc2) y ese día
—era el 24 de diciembre de 1938— las recordaba perfectamente bien.
También estaba al tanto de que —contó Frisch— al partirse el núcleo de
uranio, los dos núcleos resultantes no pesaban exactamente lo mismo que el
núcleo original, sino un poquito menos. Y poniendo ese poquito menos en la
fórmula de Einstein, le daba justo 200 millones de electrón-volt. Todo
encajaba.
Esa masa que faltaba se había liberado en forma de energía. Hasta tal
punto encajaba, que, aunque ninguno de los dos lo sabía, en ese momento, y en
aquel apartado rincón de Suecia, comenzaba la era nuclear.
§. La fisión del uranio
Meitner no estaba del todo segura, por lo cual no comunicó sus conclusiones a
Hahn y regresó a Estocolmo. Frisch, en cambio, volvió a Copenhague y fue
corriendo a contarle las novedades a Bohr, quien «inmediatamente y en todo se
puso de acuerdo con nosotros», según le escribió a Meitner ese mismo día.
Meitner y Frisch escribieron un trabajo sobre el tema consultándose por
teléfono (¡por los teléfonos de entonces!). Frisch lo redactó en borrador el 6
de enero y se lo mostró a Bohr, que le pidió el trabajo en limpio. El tiempo
volaba. Frisch alcanzó a pasar sólo dos páginas del trabajo y se las alcanzó a
Bohr en la estación desde donde salía el tren que lo llevaría al puerto para
embarcarse hacia los Estados Unidos. Bohr prometió no decir una palabra durante
el viaje, para preservar la prioridad de Meitner y Frisch, que dedicó los días
siguientes a preparar los experimentos e inició las mediciones el 13 de enero.
El 23 de enero apareció el primer artículo en Nature
¿Qué nombre ponerle a un fenómeno tan insólito? Frisch fue a ver a
William Arnold, un biólogo amigo, y le preguntó: « ¿Cómo se llama, en biología,
el proceso por el cual una célula se divide en dos?».
Y Arnold le contestó: «fisión».
§. La noticia se extiende
Bohr había prometido no comentar los resultados, pero durante el viaje en barco
no se pudo contener y habló de la fisión con León Rosenfeld (1904-1974), el
gran teórico belga, que también viajaba. A su vez, cuando el lunes 16 de enero
de 1939 desembarcaron en los Estados Unidos, Rosenfeld contó la historia, que
inmediatamente se esparció como un reguero de pólvora: ¡el núcleo de uranio se
partía liberando cantidades enormes de energía! ¡Era el descubrimiento del
siglo! Enseguida llegó a los periódicos: primero el Washington Post,
luego el New York Times y enseguida el San Francisco
Chronicle.
La fisión del uranio abría una posibilidad inquietante. Si un átomo de uranio,
al partirse bajo el impacto de un neutrón, liberaba, además, neutrones
adicionales, esos neutrones podían, a la vez, partir nuevos núcleos, generando
lo que se llama una reacción en cadena.
En marzo, desde el otro lado del Atlántico, llegaron noticias: en París,
Frédéric Joliot, Hans von Halban y Lew Kowarski informaron que, efectivamente,
al fisionarse el uranio, además de los productos de fisión ya conocidos, se
emitían neutrones, Entonces, en principio la reacción en cadena era posible.
Pero hasta no tenerla, no se tendría nada.
La fisión del uranio
§. El uranio y la energía
El microcosmos no se anda con vueltas y cuando entrega energía, lo hace en
serio: al partirse un átomo se liberan las fuerzas que soportan al universo,
esas que mantienen los núcleos pegados sin que se desparramen y nos permiten
existir. La fisión de un núcleo de uranio 235 libera 200 millones de eV
(0,00000000004 joule), que a escala macroscópica no parece mucho —y, de hecho,
no lo es—: la fisión de un solo átomo de uranio conseguiría mover un kilogramo
de masa apenas una millonésima de millonésima de metro. A nadie le conviene
guardar un átomo de uranio en la heladera para que su fisión lo ayude en las
tareas cotidianas.
Pero si la energía liberada por la fisión de un átomo es poca, también es
cierto que los átomos son muchos, o mejor dicho, que en un pequeño volumen
caben muchos átomos: 235 gramos de uranio contienen seiscientos mil millones de
billones (6 x 1023) de átomos. Si todos ellos se fisionaran, liberarían energía
suficiente como para levantar un millón de toneladas a diez mil metros de
altura. Y eso ya es como para tener en cuenta: la fisión nuclear es, en
relación con la masa involucrada, uno de los procesos más energéticos del
universo.
¿De dónde sale esa energía? Como les decía antes, es la que estaba acumulada en
el núcleo para mantenerlo amarrado. Son fuerzas poderosas. Después de producida
la fisión, después de haberse partido el núcleo de uranio, las masas sumadas de
los subproductos resultantes (el bario, el criptón y los tres neutrones
viajeros) es ligeramente menor que la masa original que albergaba el núcleo
recién fisionado. Esa pequeña diferencia de masa da cuenta de la
energía liberada, siguiendo la fórmula de Einstein.
Otra posibilidad era el plutonio, que, según se había calculado, también se
fisionaba. Pero el plutonio tiene un pequeño inconveniente: no existe en la
naturaleza y, si existió alguna vez, ya se desintegró. Si uno quiere plutonio,
no puede ir y servirse: tiene que fabricarlo: era uno de los famosos
«transuránicos»: el elemento 94. Entre noviembre de 1939 y marzo de 1940,
Ernest Lawrence (1901-1958), con su ciclotrón de California, lo consiguió y
pudo fabricar por primera vez elementos inexistentes en la naturaleza. Y bien,
ahí estaba el plutonio, listo para ser explorado.
Lo cierto es que, cuando se descubrió la fisión, los físicos pensaron de
inmediato que el átomo no sólo sería un terreno a explorar para satisfacer la
eterna curiosidad del hombre sino que también podía convertirse en un inmenso
surtidor de energía. El destino del mundo no se jugaba en los campos de batalla
o en las cortes de la política, sino —como ocurría desde la revolución
científica— en los laboratorios. Y los laboratorios decían —aseguraban, creían—
que el núcleo atómico proporcionaría cantidades ilimitadas de energía, toda la
energía necesaria para hacer marchar al mundo.
Lo cual permitió imaginar otra cosa: si esa energía se liberaba de pronto y de
manera descontrolada, tendría un enorme potencial destructivo. Sería una bomba
atómica. Tanto los ingleses como los norteamericanos se dieron cuenta que, de
hecho, una bomba era mucho más fácil de fabricar que un reactor: para obtener
energía que pueda utilizarse hay que controlar la reacción, mientras que para
obtener una explosión, basta con dejar que las cosas corran y se descontrolen
solas.
§. La guerra
El 1º de septiembre de 1939, unos minutos antes de las cinco de la mañana, el
ejército alemán cruzó la frontera polaca y desencadenó la Segunda Guerra
Mundial.
No voy a extenderme sobre los horrores del nazismo, probablemente el régimen
más repulsivo que se haya concebido nunca y cuya más íntima característica fue
la persecución letal a los judíos: medidas antisemitas se sucedieron a medidas
antisemitas y la represión racial y política estuvieron a la orden del día.
Enseguida se instalaron los primeros campos de concentración para los
adversarios del régimen y las «razas inferiores».
Tras la invasión a Polonia, Francia e Inglaterra declararon la guerra a
Alemania.
Pero los polacos podían hacer poco frente al millón y medio de soldados
alemanes, que avanzaron rápidamente hacia Varsovia y la dominaron en
septiembre. En pocos días más se completó la ocupación. En el Este, los rusos
hicieron su parte invadiendo la Polonia oriental, cuyo territorio les había
sido garantizado gracias al famoso (y deleznable) pacto de no agresión de la
Unión Soviética con Alemania, conocido como Pacto Ribbentrop-Mólotov por los
nombres de los ministros que lo firmaron.
Hubo un impasse invernal, mientras en Polonia reinaba el terror: la intelligentzia polaca
era masacrada, los judíos eran perseguidos y muertos y se empezaba a enviarlos
a los campos de concentración. Polonia había de ser la sede de muchos de ellos,
entre ellos acaso el más famoso de todos: Auschwitz, del cual dio buena cuenta
Primo Levi en su magnífica (y tremenda) Trilogía de Auschwitz.
En abril se reanudó la ofensiva alemana con la ocupación de Noruega y
Dinamarca. En mayo cayeron Holanda y Bélgica. Francia estaba en la mira. Los
alemanes, entrando desde Bélgica, sortearon las defensas francesas. El 9 de
junio de 1940 llegaron al Sena, y el 14 de junio entraron en París.
¡París en manos de Hitler! Hubo una conmoción mundial.
La rendición de Francia dejó a Inglaterra absolutamente sola. Mientras tanto,
Rumania, Bulgaria y Hungría se convirtieron en satélites nazis y enseguida las
tropas alemanas invadieron Yugoslavia y Grecia. Decididos a liquidar el último
foco de resistencia, el 20 de mayo tropas aerotransportadas se lanzaron sobre
Creta.
A fines de mayo del 41, excepto Suecia y Suiza, que eran neutrales, y
naturalmente Inglaterra, Europa occidental se había convertido en un inmenso y
temible lago nazi. De los países neutrales del sur, la España de Franco y el
Portugal de Salazar eran regímenes fascistas. Berlín se había transformado en
el centro de un vasto imperio europeo, e Inglaterra se sostenía tan sólo debido
a su fuerza aérea y a su privilegio insular. Parecía que nada podía parar a
Alemania.
Entonces, los objetivos militares alemanes se volvieron hacia el Este. El 22 de
junio de 1941, uno de los ejércitos más grandes que jamás se hubiera reunido en
la Historia —tres millones de hombres, siete mil piezas de artillería y dos mil
quinientos aviones— empezó la invasión de la Unión Soviética. Las defensas
rusas se derrumbaron y en agosto los nazis alcanzaron las bocas del Dnieper en
el Mar Negro. El 2 de diciembre de 1941 algunas avanzadas alemanas penetraron
en los suburbios de Moscú. Pero allí mismo empezó la reacción soviética, que
cortó la ofensiva alemana. Para marzo, el Ejército Rojo había recuperado casi
250 kilómetros.
Como una rueda que cae por la ladera de la montaña y nadie puede parar, la
guerra se globalizaba: el 7 de diciembre de 1941, los japoneses atacaron por
sorpresa y destruyeron parte de la Flota del Pacífico en la enorme base
norteamericana de Pearl Harbor. Los Estados Unidos respondieron declarando la
guerra al Japón y automáticamente, y en cumplimiento de la alianza
germano-nipona, Hitler declaró la guerra a los Estados Unidos. Ahora, el
conflicto era total: desde Oriente a Occidente, el planeta entero estaba
involucrado. En el verano del 42, las tropas alemanas sortearon Moscú y
cruzaron el Donetz. Esta vez, el objetivo era una ciudad llamada Stalingrado.
Mientras tanto, en Chicago, y en el máximo secreto, bajo las gradas de la
tribuna del campo de deportes de la universidad, se estaba construyendo un
reactor nuclear, que estuvo listo para ser probado el 2 de diciembre y fue un
perfecto éxito. No había sido —ni había pretendido ser— un gran negocio: la
potencia alcanzada había sido sólo medio watt (y había costado
un millón de dólares). En el Pacífico se desarrollaba la batalla de
Guadalcanal, la mayor avanzada realizada hasta el momento sobre el Imperio de
Japón, y el Departamento de Estado norteamericano informaba que dos millones de
judíos habían perecido en Europa y que cinco millones más estaban bajo
inmediata amenaza. Todo se sabía.
§. La carrera por la bomba
Si se lo piensa fríamente, había buenas razones para temer que los alemanes
fabricaran una bomba atómica, razones tanto históricas como científicas. En
realidad, los físicos de Alemania y los del campo aliado eran más o menos lo
mismo: habían participado juntos de los años dorados, habían integrado los
mismos equipos, eran discípulos unos de otros (como Heisenberg de Bohr).
Idéntica formación, idéntica información: ¿Por qué no habrían de planear y
proyectar las mismas cosas? ¿Por qué no habían de pensar en una bomba, si era
una idea que prácticamente a todo el mundo se le había ocurrido apenas se
descubrió la fisión?
Efectivamente, en septiembre de 1939 la Oficina de Guerra alemana había
convocado a una conferencia en Berlín, a la que asistió la primera plana de la
física nuclear, donde se analizó el estado de la cuestión, se examinaron las
probabilidades de fabricar un arma basada en la fisión. En una segunda
conferencia, desarrollada en septiembre, se delineó un Plan Preparatorio para
explotar las consecuencias de la fisión nuclear. La dirección de la
investigación teórica estaría a cargo de Heisenberg, el mismo que había
enunciado el principio de incertidumbre que vimos en un capítulo anterior.
No tiene nada de sorprendente que algunos de los físicos no alemanes se
asustaran. Mientras Alemania avanzaba sobre Europa sembrando el terror y la
destrucción, también avanzaba en el camino de la bomba. Al comenzar la guerra,
los físicos alemanes estaban muy a la par de sus colegas británicos y
norteamericanos.
§. El proyecto Manhattan
En el verano de 1939, los físicos Leo Szilard y Eugene Wigner se habían
entrevistado con Einstein y le habían pedido que le escribiera una carta al
presidente norteamericano Franklin Delano Roosevelt para informarle que esta
nueva forma de energía se podía utilizar para fabricar bombas y advertirle
sobre el peligro de que esas bombas quedaran en poder de Alemania. La carta,
sintetizada, decía lo siguiente:
El trabajo reciente hecho por E. Fermi y L. Szilard me conduce a creer
que el elemento uranio puede transformarse en una nueva e importante fuente de
energía en el futuro próximo. Este nuevo fenómeno podría conducir a la
construcción de bombas y es concebible —aunque más incierto— que puedan
fabricarse bombas extremadamente poderosas de un nuevo tipo. Una sola bomba de
esta clase, llevada por un barco ( sic ) y detonada en un puerto, podría
perfectamente destruir el puerto entero junto con parte del territorio
circundante. Sin embargo, esas bombas podrían ser muy pesadas para transportar
por aire. Tengo entendido que Alemania ha suspendido la venta de uranio de las
minas checoslovacas que ha ocupado. Esta acción probablemente debe ser
entendida en el sentido de que el hijo del viceministro de Relaciones
Exteriores alemán, Von Weizacker, fue asignado al instituto Káiser Guillermo en
Berlín, donde algunos de los trabajos norteamericanos sobre el uranio están
siendo reproducidos.
La carta se entregó a Roosevelt el 11 de octubre de 1939 (ya había
estallado la guerra), pero la decisión definitiva fue tomada por Roosevelt
recién el 9 de octubre de 1941: ese día resolvió usar la enorme masa de
recursos que hacía falta para construir la bomba atómica. Era muy oportuno: un
mes y medio más tarde, el 7 de diciembre, los japoneses bombardeaban Pearl
Harbor y los Estados Unidos entraban en la guerra. (Dicho sea de paso, ésta no
fue la única intervención de Einstein en el problema nuclear; más tarde, el 7
de marzo de 1940, enviaría otra más para insistir sobre la necesidad de contar
con una bomba nuclear y, aun después, una tercera para pedir que la bomba, que
ya había sido construida, no se arrojara sobre Hiroshima).
Como es natural, la guerra aceleró todo. El Proyecto Manhattan (llamado así por
una oficina, precisamente en Manhattan, donde se tomaron las primeras
decisiones fundamentales) fue una vasta y compleja organización, que involucró
alrededor de 150 mil personas, costó unos dos mil millones de dólares de la
época (muchísimo más que dos mil millones de ahora), construyó una verdadera
«ciudad atómica» en Los Álamos (Nuevo México), y estaba decidida a fabricar, en
tres años, «el arma más poderosa que jamás existió».
Naturalmente, los militares se reservaron la conducción global, que recayó en
el general Leslie Richard Groves, un especialista en ingeniería militar que
había dirigido la construcción del Pentágono. La dirección científica estuvo a
cargo de Robert Oppenheimer, un científico que representaba el prototipo del
científico contemporáneo con un abanico muy amplio de intereses y a quien nada
humano le era ajeno (y que, de paso sea dicho, había sido un visionario en un
terreno completamente distinto: el de la astrofísica, donde predijo la
existencia de estrellas de neutrones y agujeros negros).
La vida en Los Álamos no era fácil: los científicos estaban bajo la nada
simpática vigilancia militar y vivían dentro de un cerco de alambre de púas,
con correspondencia censurada, teléfonos cortados y en un absurdo régimen de
«compartimentalización», según el cual el que trabajaba en un sector tenía
prohibido hablar de sus tareas con quien trabajaba en otro. La vida en medio
del desierto debe haber sido penosa para gente acostumbrada a ciudades como
Roma, Berlín, Londres o Nueva York.
Y además estaba la paranoia de Groves, en parte debido a un antisemitismo
larval que latía en él. Sospechaba no sólo de los enemigos germánicos sino de
los aliados y colaboradores ingleses y de todos los científicos de ascendencia
europea —en especial si eran de origen judío—que trabajaban en el proyecto.
Naturalmente, también sobrevivía una cierta animadversión hacia los rusos
—también aliados, por otra parte.
Y mientras Groves tomaba medidas obsesivas y hasta ridículas, se transmitían
secretos a los rusos en sus propias narices. Klaus Fuchs, uno de los
científicos del proyecto, les pasaba a los soviéticos toda la información que
necesitaban saber a través de mecanismos realmente ingenuos: salía en su
automóvil llevando un sobre con la información secretísima, se encontraba con
su contacto en una calle de Santa Fe, próxima a Los Álamos, y le daba el sobre.
Así, ayudó a los rusos a ganar alrededor de dieciocho meses en su propio camino
hacia la bomba atómica. Al fin y al cabo, no hizo más que lo que Niels Bohr y
otros habían propuesto: compartir el conocimiento nuclear con la Unión
Soviética.
Los científicos fueron incapaces de convencer al gobierno norteamericano que la
fabricación de la bomba atómica no era algo que se pudiera mantener oculto
mucho tiempo, y de que, tarde o temprano, los rusos fabricarían la propia. El
gesto de buena voluntad de los Estados Unidos al compartir el know how nuclear,
o parte de éste, podría haber ahorrado una buena dosis de Guerra Fría.
§. De nuevo en Stalingrado
Stalingrado, que los rusos defienden desde hace tres meses, sigue sin
caer en manos de los alemanes.
Diario de Ana Frank, lunes 9 de noviembre de 1942
—Cuando llegó al campo [de Auschwitz], ¿por qué eligió no morir?
—La verdad es que todos nosotros queríamos morir. No teníamos la fe de una
pronta liberación, ni de que la batalla sería proseguida por otros. Nosotros no
teníamos esperanzas.
— ¿Cuándo cambió esto?
—Con las noticias de Stalingrado. Cuando nos enteramos de que los nazis habían
sido derrotados en una batalla, pensamos que podían ser derrotados en otras
batallas.
Reportaje a CHARLES PAPIERNIK, sobreviviente de Auschwitz, por CLAUDIO URIARTE,
Página/12, 22 de enero de 1995
Dejamos a los alemanes, dominadores de casi toda la Europa occidental,
evitando Moscú y dirigiéndose hacia Stalingrado. La guerra se acercaba así a su
punto de quiebre: el ejército alemán, que estaba hasta entonces invicto, fue
derrotado en la más sangrienta batalla de la historia de la humanidad, que se
cobró, según se estima, entre tres y cuatro millones de vidas.
Luego de seis meses de una lucha tenaz y encarnizada, el 31 de enero de 1943 el
teniente Von Paulus, completamente cercado por el ejército soviético,
desobedeció las órdenes de Hitler y se rindió con 91 mil soldados hambrientos.
Desde ese momento en adelante, los nazis no harían más que retroceder.
Unos meses antes, en el norte de África, el general inglés Montgomery había
resuelto esperar al ejército alemán comandado por Erwin Rommel cerca de una
estación de ferrocarril llamada «El Alamein», donde le había infligido una
terrible derrota el 25 de octubre de 1942. El norte de África estaba perdido
para los alemanes.
Y para colmo, ya desde principios de 1942 la aviación inglesa y sus aliados
norteamericanos habían empezado el bombardeo sistemático del «Reich» alemán, y
los raides penetraban cada vez más profundamente en el territorio enemigo con
la intención de destruir la industria de guerra nazi.
En 1944, las misiones empezaron a bombardear Berlín. Era el comienzo del fin:
Alemania había perdido la guerra.
§. La derrota alemana
Negra leche del alba te bebemos de noche
te bebemos a mediodía la muerte es un maestro venido de Alemania
te bebemos en la tarde y la mañana bebemos y bebemos
la muerte es un maestro venido de Alemania sus ojos son azules
te hiere con una bala de plomo con precisión te hiere
un hombre habita en la casa tus cabellos de oro Margarete
azuza contra nosotros sus mastines nos sepulta en el aire
juega con las serpientes y sueña la muerte es un maestro venido de Alemania.
PAUL CELAN, Todesfuge
«Hoy, Día D», ha dicho la BBC al mediodía, y con razón: «Éste es “el día”». ¡El
desembarco ha comenzado! Transmisión inglesa en alemán, holandés, francés.
Transmisión inglesa en alemán a las once: discurso del comandante en jefe, el
general Dwight Eisenhower. A mediodía, en inglés: la lucha dura empezará ahora,
pero después de ella, la victoria. El año 1944 es el año de la victoria
completa. ¡Buena suerte!
Diario de Ana Frank, martes, 6 de junio de 1944
Efectivamente, el 6 de junio de 1944 los aliados occidentales comenzaron
la invasión de Europa. Bajo el comando general de Dwight Eisenhower, cientos de
miles de hombres desembarcaron en las costas francesas de Normandía, mientras
los aviones dejaban caer miles de paracaidistas detrás de las filas alemanas.
Era el esperado «Día D». A las nueve de la mañana, las defensas alemanas habían
sido quebradas y la cabeza de playa se había consolidado. «Transmisión de la
BBC: once mil aviones dejan constantemente caer tropas en paracaídas detrás de
las líneas», escribe Ana Frank, «cuatro mil navíos, más pequeñas embarcaciones,
aseguran el servicio constante de transporte de tropas y de material entre
Cherburgo y Le Havre. Las operaciones de las tropas inglesas y norteamericanas
han comenzado. Discursos de Gerbrandy, del primer ministro de Bélgica, del rey
Haakon de Noruega, de De Gaulle para Francia, sin olvidar el de Churchill». Más
y más tropas desembarcaban en Normandía y la aviación seguía bombardeando el
imperio nazi —cada vez más chico—. El 25 de agosto de 1944 era liberada París.
Siguió el sur de Francia y el valle del Ródano. Muy pronto las posiciones
alemanas colapsaron en el norte de Francia y, el 29 de agosto, los aliados
entraban en Bruselas.
También se progresaba desde el Sur. Desde septiembre del 43, las tropas aliadas
cruzaron el estrecho de Messina, pusieron su pie en Europa continental y
empezaron a avanzar hacia el norte por la península italiana.
Desde el Este, el Ejército Rojo, en junio del 44, alcanzó las orillas del
Vístula. El 31 de junio del 44 llegaron a Varsovia y se detuvieron por seis
meses, dejando tranquila y siniestramente que los alemanes destruyeran la
insurrección polaca.
Alemania, felizmente, se derrumbaba: los aviones aliados bombardeaban Berlín,
las fábricas de aviones y las refinerías de petróleo alemanas. A principios de
1945, el sistema de transportes del Tercer Reich ya estaba paralizado. En enero
del 45 cayó Varsovia en poder de los rusos, que en pocos días más hicieron pie
en Alemania. Los aliados se acercaban por el oeste también: en la noche del
22-23 de marzo cruzaron el Rin y, en abril, el Elba, mientras los soviéticos
llegaban a los suburbios de Berlín en ruinas.
El 30 de abril, Hitler se suicidó en su búnker, mientras las tropas soviéticas
estaban apenas a un kilómetro de distancia. Su sucesor Doenitz (luego juzgado y
ejecutado en los juicios de Nüremberg) firmó la rendición incondicional de
Alemania en la medianoche del 8 de mayo de 1945. La Segunda Guerra Mundial —o
por lo menos su parte europea— había terminado.
La guerra provocada por Hitler fue probablemente la más destructiva de la
historia: en 1945, cincuenta países se habían unido a los aliados y movilizaron
sesenta millones de personas, de los cuales por lo menos diez millones
murieron, aunque las cifras de China y URSS son vagas. Nueve países se habían
unido al Eje y movilizado treinta millones de hombres, de los cuales por lo
menos seis millones murieron. El total de los explosivos que se usaron fue de
seis millones de toneladas de TNT. Las bajas civiles debido al hambre,
enfermedades, bombardeos y campos de exterminio, fueron aun mayores; el mundo
entero se vio envuelto en una vasta maquinaria de conflicto. Las atrocidades
cometidas por los nazis establecieron un antes y un después en la historia de
la barbarie humana, bien nutrida por cierto.
Quedaba Japón y la guerra en el Lejano Oriente. Los norteamericanos avanzaban
de isla en isla a costa de grandes pérdidas humanas. Por el otro lado, los
ejércitos soviéticos, liberados del frente alemán, se preparaban para la
invasión de Manchuria, ocupada por los japoneses.
Lo cierto es que, a esa altura, Japón ya estaba derrotado. Los bombardeos
habían dañado completamente su capacidad de guerra y sus ejércitos cedían. Lo
cual no significa que las cosas fueran fáciles; el alto mando japonés no
aceptaba los términos de rendición incondicional exigidos por los aliados. La
derrota final era segura, pero la invasión y ocupación de Japón iban a ser
sangrientas y costosas.
§. Más brillante que mil soles
Yo soy el Tiempo que creciendo avanza y arrebata todo.
Yo soy la Muerte que estremece los mundos.
BHAGAVAD-GITA
Volvamos, entonces, a lo nuestro. En julio de 1945 —la guerra en Europa
ya había terminado— la bomba atómica estaba lista para ser probada y la fecha
del ensayo fue fijada para el 16 de ese mes.
Los científicos estaban tan seguros sobre la bomba de uranio que no la
probaron, pero sí la de plutonio y su delicado mecanismo de detonación. La
prueba se llamaría «Trinity», nombre tomado de un soneto de John Donne, cuya
poesía religiosa Oppenheimer andaba leyendo por esos días.
En mitad del desierto, trescientos cincuenta kilómetros al sur de Los Álamos,
en un lugar muy apropiadamente llamado «Jornada del Muerto» desde los tiempos
de los españoles —lleno de escorpiones, víboras de cascabel y tarántulas—, se
montó una torre de acero sobre una base de hormigón. A treinta metros de
altura, había una plataforma donde se instaló el artefacto de plutonio.
A quince kilómetros, en cada dirección, se pusieron puestos de observación para
aquellos que tendrían el raro privilegio de presenciar el experimento en mayor
escala de la historia humana.
A las dos de la mañana, todos los participantes estaban en su lugar, en el
campo base. A las 5:29 el artefacto estalló:
El general Thomas Farrell, una de las figuras fuertes del proyecto Manhattan,
pensó:
Todo el lugar se iluminó con una luz impresionante, de una intensidad
mucho mayor que el mediodía… treinta segundos después de la explosión, la
presión del aire que nos empujó a los unos contra los otros nos hizo pensar que
habíamos desatado fuerzas solamente reservadas al Todopoderoso.
El físico Hans Bethe, que había descifrado el funcionamiento de las
estrellas, pensó:
Parecía como un gigantesco flash de magnesio que se mantuviera por uno o
dos minutos, aunque fueron en realidad uno o dos segundos.
Emilio Segrè, que había descubierto el tecnecio, y ayudado a completar
la Tabla Periódica, pensó:
Lo más impresionante fue la brillante luz. Yo estaba anonadado por el
espectáculo. El cielo entero se inundó de una luz brillante…Por un momento creí
que la explosión podía incendiar la atmósfera entera y terminar con el planeta,
aunque sabía positivamente que no era posible.
Isidor Isaac Rabi, que había estudiado como nadie el momento magnético
de los átomos, pensó:
Había nacido algo nuevo, una nueva forma de control, una nueva forma de
conocimiento que el hombre había adquirido sobre la naturaleza.
Y era cierto: los átomos, que Demócrito se imaginó como esferas
compactas y que Newton quiso — y no pudo— someter a las leyes de la
gravitación, los átomos teóricos de Dalton, los átomos llenos de Thomson con
electrones incrustados, los átomos vacíos que Rutherford imaginó como sistemas
solares en miniatura, el átomo que Bohr disciplinó y sometió a las leyes
cuánticas, el átomo radiante de María Curie, el átomo que Heisenberg redujo a
la incertidumbre, el que Fermi bombardeó sin piedad y Lise Meitner y Otto Hahn
lograron partir en dos, el átomo cuyo secreto descubrieron Meitner y Frisch,
los átomos estrujados, investigados, perseguidos, adivinados, anhelados,
teorizados por legiones de científicos a lo largo de cincuenta años de esfuerzo
intelectual, en apenas millonésimos de segundo se partieron y liberaron la
energía almacenada en doce millones de millones de millones de millones de
núcleos de plutonio, produciendo una pavorosa explosión equivalente a veinte
mil toneladas de TNT, el explosivo más poderoso hasta el momento.
El estallido —que fue cuatro veces mayor que lo esperado— indicaba, en efecto,
el comienzo de algo nuevo: las fuerzas del microcosmos —las más duras e
intensas del universo— irrumpieron en el mundo en el desierto de Nuevo México.
La guerra estaba ganada, pero el mundo ya no volvería a ser el mismo.
Tal vez fue lo que pensó Oppenheimer cuando, tras el estallido, recordó un
pasaje del Bhagavad-Gita, el libro sagrado del hinduismo.
Si una luz más brillante que mil soles irrumpiera de pronto en los
cielos sería parecida al esplendor del Altísimo.
§. Hiroshima
Era temprano, la mañana parecía quieta, cálida y bella.
Del diario de MICHICHIKO HACHIYA, médico del hospital de Comunicaciones de
Hiroshima
En la primavera de 1945, un grupo especial dentro del proyecto Manhattan
se dedicó a elegir un blanco para el primer empleo de la bomba atómica: las
ciudades posibles fueron Hiroshima, Kokura, Nigata, Nagasaki y Kyoto, la ciudad
japonesa de los templos. Finalmente, Kyoto se tachó de la lista, pero las otras
fueron cuidadosamente mantenidas aparte de los bombardeos. Se entiende: el
lanzamiento de la bomba atómica, la prueba de la nueva arma, cínicamente debía
hacerse sobre una ciudad intacta.
El 30 de junio de 1945 los habitantes de Hiroshima eran poco más de doscientos
cuarenta y cinco mil. Alemania ya se había rendido, y Japón —la única de las
potencias fascistas aún en guerra— era forzado a retirarse de los territorios
ocupados; los aliados habían recuperado las Filipinas y se combatía tenazmente
en Okinawa. La aviación japonesa estaba destruida y la economía del Japón, en
ruinas. Muchas ciudades japonesas, como Tokio, habían sido terriblemente
bombardeadas. Pero sobre Hiroshima no había caído bomba alguna, o tan pocas que
parecían haber sido arrojadas por error.
El gobierno japonés inició un discreto movimiento para que el gobierno ruso
actuara como mediador ante los aliados y pidiera la paz. El partido
militarista, por su parte, presionaba al Emperador Hirohito para que siguiera
la lucha.
Minutos antes de las tres de la mañana del 6 de agosto de 1945, el Enola
Gay, bombardero B-29 de la Fuerza Aérea norteamericana despegó de la base
situada en Tinian, en las islas Marianas. Estaba ligeramente sobrepasado en
peso: a bordo llevaba a «Little Boy», una de las tres bombas atómicas
fabricadas por los Estados Unidos. Era un artefacto de más de cuatro toneladas
de peso —el avión estaba tan sobrecargado que a duras penas pudo levantar
vuelo—, tres metros y medio de largo y unos setenta y cinco centímetros de
diámetro, que había sido transportada desde los Estados Unidos a Tinian por
partes, en un acorazado pesado y varios aviones.
A las 8:40, el Enola Gay se acercó a Hiroshima, volando a unos
cinco mil metros de altura. Ningún avión japonés trató de interceptarlo ni
recibió fuego antiaéreo. Poco después de las nueve, el Enola Gay dejó
caer la bomba e inmediatamente se alejó para escapar del fuerte impacto
convectivo de la explosión. Cuarenta y tres segundos más tarde, la bomba
atómica explotó, a seiscientos metros de altura sobre el hospital Shima, con
una potencia equivalente a 12.500 toneladas de TNT.
Yo me había levantado de una silla para hablar por teléfono. La casa
quedó llena de un fuego amarillo y el fuego se volvió después azul, y el azul
se hizo rojo hasta que la ciudad tan clara y sin nubes esa mañana, se hundió de
pronto en una noche sucia
contó el señor Michiyoshi Nakushina, que era un comerciante de sake en
1945.
Cuando miré hacia el cielo vi un estallido de luz blanca y el verde de
las plantas, envuelto en esa luz, las hacía parecer hojas secas,
recordó una chica que tenía 5 años aquel 6 de agosto.
Acompañando a ese estallido de luz, hubo un estallido de calor: la temperatura
en las inmediaciones de la explosión se elevó de tal manera que una enorme
lengua de fuego envolvió a la ciudad. Los pájaros, los insectos y las personas
situadas cerca del epicentro de la explosión se carbonizaron en el acto.
En sólo un instante, la ciudad entera se convirtió en un montón de ruinas. A
los treinta minutos de la explosión se inició el incendio con una tormenta de
fuego que alcanzó una velocidad de dieciocho metros por segundo en dos o tres
horas. Entre las once de la mañana y las tres de la tarde, un violento
torbellino avanzó desde el centro de la ciudad hacia la parte norte. En un
radio de dos kilómetros de la explosión todo había quedado destruido por el
estallido y en un radio de trece kilómetros, todo lo existente fue arrasado por
la tormenta de fuego. Entre las nueve de la mañana y las cuatro de la tarde
empezó a caer una lúgubre lluvia negra con materiales radiactivos.
El número de víctimas fue aterrador. Fueron afectadas directamente 350 mil
personas, entre la población estable y la transitoria, entre la que había
muchos coreanos llevados para el trabajo obligatorio en Japón. Para el 31 de
diciembre habían muerto 140 mil personas, ya fuera a causa de la radiación o de
la onda de calor (de tres a cuatro mil grados en el centro de la explosión y
570 grados a un kilómetro de distancia).
Los que fueron lesionados por las radiaciones sufrieron depresión de la médula
ósea, falta de glóbulos blancos, desprendimiento de cabellos, náuseas, vómitos,
aunque los testimonios son confusos, ya que los moribundos muchas veces no
estaban en condiciones de describir sus síntomas.
La situación empeoró aún más porque la mayoría de los establecimientos
hospitalarios estaban cerca del centro de la ciudad y fueron arrasados por el
estallido. Mucha gente pereció en el caos generado, y en las filas de gente que
huía del avance de las lenguas de fuego buscando desesperadamente refugio en el
agua. De 76 mil edificios que había en Hiroshima, setenta mil fueron dañados,
de los cuales 48 mil por completo.
No hay estimaciones exactas de la cantidad de muertes, dado que muchas se
produjeron después, debido a efectos secundarios de la radiación, aunque a los
cinco años las muertes debidas a los efectos secundarios de la bomba podían
estimarse en doscientas mil. Cerca del epicentro, en algunas paredes que se
conservaron en pie, quedaron registradas las sombras de las personas que fueron
evaporadas por el calor.
El gobierno japonés no reaccionó inmediatamente: la destrucción de Hiroshima
había sido tan completa que las noticias tardaron un día entero en llegar al
Palacio Imperial y al Alto Mando. Nuevamente se reanudó la lucha de facciones:
mientras el Emperador quería la rendición, el partido militar no se tomaba muy
en serio la nueva arma y proponía una resistencia prolongada. El 9 de agosto,
«Fat Man», una segunda bomba atómica (esta vez de plutonio) estalló sobre
Nagasaki matando a setenta mil personas.
Ante lo cual, el emperador Hirohito tomó su decisión independientemente de los
comandos militares, y a través de Suiza, hizo una oferta de paz aceptando los
términos de la declaración de Postdam: esto es, rendición incondicional. Ahora
sí, la guerra había terminado. Detrás quedaban las ruinas humeantes del
desastre, los campos de concentración, las cámaras de gas, las ciudades en
ruinas, los pueblos desarticulados, las economías europeas destruidas, las
masacres de Manchuria.
E Hiroshima.
En el desierto de Nuevo México, la explosión de «Trinity» y el hongo nuclear de
malvada belleza podía considerarse un triunfo del intelecto humano: «física
grandiosa», como había dicho Fermi alguna vez. La destrucción de Hiroshima y
las personas quemadas y vagabundeando aterrorizadas con su piel a cuestas eran
ya otra cosa muy distinta.
§. Kokura
Nadie recuerda el nombre de Kokura.
Kokura está en el noroeste de la prefectura de Fukuoko
en la isla de Kyushu.
¿Pero quién conoce el nombre de Kokura?
En 1933 se construyó un arsenal, y desde entonces
la ciudad se volvió un punto estratégico.
Y nadie oyó hablar de Kokura.
La gente de Kokura siguió viviendo como hizo siempre,
y los días amanecieron y terminaron, como siempre.
Y el tiempo pasó y la gente nació y murió, como fue siempre.
Y en 1963 Kokura y cinco ciudades cercanas se fundieron
en una nueva ciudad que se llamó Kitakyushu.
Y el nombre de Kokura dejó de figurar en los mapas
Kitakyushu es ahora un gran centro de comercio
con más de un millón de habitantes.
Y nadie hablará más de Kokura.
Nadie habla de Kokura, nadie
la recuerda, y sin embargo
la segunda bomba atómica
la que hizo estallar en pedazos Nagasaki
esa misma
no estaba destinada a Nagasaki
sino a Kokura.
El avión se llamaba
¿cómo se llamaba el avión?
Bock’s Car, eso es,
está bien que lo recuerden,
y a bordo
instalaron la bomba de plutonio
y alzó vuelo
tres días después de Hiroshima
alzó vuelo, alzó vuelo, poco antes
de las cuatro de la mañana de un amanecer de Tinian
navegando hacia el Sol
alzó vuelo, alzó vuelo
hacia Kokura.
Y voló.
Y voló.
Y voló.
Entre las ocho y las nueve menos diez
dio vueltas sobre Yakoshima
esperando a sus escoltas
uno de los cuales no llegó
y sin él
sin esperarlo
siguió vuelo hacia Kokura.
Y voló.
Y voló.
Y voló.
¿Cómo sería ese día? No lo sé.
¿Qué destino tenía en el almanaque del tiempo?
¿Quién decidió que sobre Kokura hubiera nubes bajas?
Y voló.
Y voló.
Y voló.
El avión llegó a las diez menos diez.
Y voló y voló, en círculo, esperando
que el cielo se despejara.
Ese día los habitantes de Kokura
habrán mirado el cielo, y dicho, «¡qué día gris
sobre el fondo gris de la guerra!».
Algunos habrán dicho: «aquellas nubes
no nos dan tregua
¿no podrían mostrarnos un poco el Sol
sobre el fondo gris de la guerra?».
Y por encima de esas nubes
un avión, ¿cómo se llamaba?, el Bock’s Car
con una bomba atómica ya lista
volaba
y volaba
y volaba
dando vueltas y vueltas en círculo, esperando
que las nubes se abrieran.
¿Cuántos habitantes de Kokura habrán mirado al cielo
deseando que el cielo se despejara,
como lo esperaba el piloto?
Pero nada, la meteorología inclemente
no dio tregua, y para tristeza
de los habitantes de Kokura
el tiempo no mejoró
y como no había esperanzas ni noticias de un cielo despejado
el avión dejó de dar vueltas en círculos
y voló
y voló
y voló
hacia Nagasaki.
Los habitantes de Kokura vivieron porque ese día estaba nublado.
Interludio:
Larga historia de la bomba
Un segundo después del origen del universo se formaron los primeros
núcleos de hidrógeno y de helio; trescientos mil años más tarde esos núcleos
capturaron electrones, se ensambló la materia en gran escala y nacieron los
átomos en medio de un enorme estallido de radiación. Eran átomos simples,
modestos átomos de hidrógeno y de helio, que se condensaron en grandes nubes. Y
las grandes nubes se contrajeron bajo la acción de la gravedad, hasta que la
presión y la temperatura en su centro fue tan grande que los átomos de
hidrógeno comenzaron a fundirse, a apretarse en núcleos más pesados y más
grandes y a emitir grandes cantidades de luz y calor: se estaban encendiendo
las primeras estrellas.
Pacientemente, las estrellas ataron en sus hornos nucleares núcleos complejos,
almacenando en ellos grandes cantidades de energía, anudando protones y
neutrones en paquetes de carbono, calcio, oxígeno, hierro, y luego, cuando se
agotó el combustible nuclear, estallaron dispersando por el espacio los nuevos
elementos. El universo trabajó pacientemente para construir los elementos y
llenar los casilleros de la Tabla Periódica; penosamente nacieron el oxígeno y
el nitrógeno, el bario y el cadmio, la plata y el hierro, el oro y el aluminio,
el torio y el uranio. Algunos eran estables, otros se desintegraban rápidamente
y duraban menos que las estrellas; el plutonio apareció, se extinguió y
desapareció de la naturaleza; pero ésta implacablemente trabajaba, combinando
ahora los átomos en complejas moléculas, capaces de reproducirse y evolucionar
por lo menos sobre un cuerpo opaco que giraba alrededor de una estrella
cualquiera. Y esas moléculas complejas, tras cuatro mil millones de años de
evolución, reconstruyeron el plutonio, lo encerraron en un dispositivo no más
grande que una naranja y se dedicaron a observar qué ocurría cuando los
núcleos, anudados pacientemente a través de los eones, se liberaran de repente
en una reacción descontrolada.
Capítulo 37
El núcleo atómico y el modelo estándar
Uno de los terrenos en los que el siglo XX indagó con enormes resultados
fue el del átomo, aquella unidad constitutiva de todas las cosas donde se
escondían (y probablemente se siguen escondiendo) los secretos mejor guardados
del universo. El descubrimiento del electrón, a fines del siglo XIX, había
llevado a la conclusión evidente de que los átomos no eran, como se creía,
partículas indivisibles sino estructuras compuestas, lo cual diseñó todo un
programa de investigación.
Resultaba obvio que los electrones no podían ser los únicos componentes de los
átomos, cualquiera fuera la estructura de éstos, por una razón muy sencilla. O
dos, mejor dicho: por un lado, los átomos son eléctricamente neutros y, por lo
tanto, en algún lugar tenía que haber una carga positiva que neutralizara la
carga negativa de los electrones; por el otro, la masa total de los átomos es
mucho más grande que la de los electrones. En algún lugar tenían que estar la
carga y la masa que faltaban.
Thomson resolvió este inconveniente con su modelo del plum pudding (según
el cual los electrones estaban incrustados en una esfera de carga positiva), y
pareció que se tenía la clave de la estructura de la materia.
Pero resulta que, como ya vimos, los átomos radiactivos emitían partículas alfa
a gran velocidad. Y, como también vimos, Rutherford usó esas partículas para
bombardear una lámina de metal y vio, contra todo pronóstico, que la mayoría
atravesaba la lámina sin desviarse, mientras que algunas se desviaban mucho,
como si hubieran chocado contra algo muy grande y pesado: concluyó entonces
que, al revés de lo sugerido en el modelo de Thomson, la masa y la carga
positiva del átomo no estaban distribuidas sino concentradas en el centro del
átomo. Y concentradas en un espacio muy pequeño, al que llamó núcleo. Así se
elaboró el modelo del átomo como un sistema solar en miniatura. Un núcleo en el
centro y los electrones girando alrededor.
Lo cual explicaba por qué se repetían las propiedades de los elementos en la
Tabla Periódica. Los electrones se mueven en órbitas alrededor del núcleo y
esas órbitas tienen la capacidad de alojar un cierto número de electrones, nada
más. Cuando una capa se llena, los electrones se van a la siguiente.
Las propiedades químicas de un átomo dependen exclusivamente de la última capa.
El litio, el sodio y el potasio tienen un único electrón en la última capa, y
por eso sus propiedades se parecen. También se parecen los que tienen dos en la
última capa, como el magnesio y el calcio, y los que tienen tres, como el
aluminio y el galio. A medida que las capas se van llenando, se empieza con la
siguiente, y es por eso que las propiedades se repiten.
Electrones y núcleo: otra vez los físicos pensaron que habían alcanzado la
llave que abría el secreto de la materia.
§. Los protones
Pero volvamos al asunto del núcleo. Fíjense que se planteaba de nuevo la misma
pregunta de siempre: ¿qué era el núcleo? ¿Se trataba de una esfera de materia
cargada positivamente, o era a su vez algo compuesto de cosas aún más pequeñas?
Las dos respuestas eran razonables, pero sólo la segunda era cierta. En 1919,
el propio Rutherford demostró que el núcleo estaba compuesto de partículas que
llamó «protones» (lo cual significa «los primeros»). Los protones que definió
Rutherford tenían una carga eléctrica exactamente igual a la del electrón,
aunque de signo opuesto: son los encargados de equilibrar las cargas
electrónicas de modo tal que el átomo sea efectivamente neutro. Si hay siete
protones, hay siete electrones. La diferencia es que los primeros son muchísimo
más grandes (1.836 veces, para ser precisos) que los últimos.
A su vez, son los protones los que le dan identidad a los elementos: un átomo
de hidrógeno, el más simple de todos los átomos, tiene en su núcleo un único
protón alrededor del cual se mueve un único electrón. Un protón y un núcleo de
hidrógeno son exactamente la misma cosa. Pero si se agrega otro protón, ya no
tenemos un núcleo de hidrógeno, sino de helio. Y si hay tres ya estamos ante el
litio; cuatro, berilio; seis, carbono. Si el oro no es lo mismo que el hierro,
es porque el hierro tiene veintiséis protones en su núcleo y el oro setenta y
nueve. Si uno tiene un átomo de hierro y le agrega 53 protones, tiene uno de
oro. Eso es todo.
Así, cada elemento de la Tabla Periódica tiene un número de protones que lo
identifica, que se llama «número atómico» y es lo mismo que el nombre. Uno
puede decir «elemento 1» o hidrógeno, «elemento 26» o hierro. Normalmente, el
número atómico se escribe abajo a la izquierda del nombre del elemento: 1H,
26Fe. El número atómico (es decir, el número de protones) es el documento de
identidad del elemento. Ahora fíjense que si uno puede (y se puede) agregarle
protones al núcleo de un elemento y obtener otro… está realizando una transmutación,
¡el sueño delirante de los alquimistas!
Además, observen también que si los núcleos son agregados de protones y cada
protón es un núcleo de hidrógeno, Prout no andaba tan equivocado cuando en 1815
supuso que todos los átomos eran agregados de átomos de hidrógeno.
Hay un pequeño problema, sin embargo. Los protones, que están apelotonados en
el núcleo, tienen todos cargas eléctricas positivas, razón suficiente para que
pensemos que se deberían rechazar los unos a los otros. ¿Por qué, entonces, no
se desparraman? La razón es que están unidos por una fuerza mucho más poderosa
que el rechazo eléctrico. Pero para entrar en este tema tenemos que hablar,
antes, de la segunda gran partícula del núcleo atómico.
§. Algo llamado neutrón
Rutherford, que de joven había cosechado papas, conocía a la perfección el
antiguo consejo de no dormirse sobre los protones, consejo útil si los hay. Y
no se durmió.
Hacia junio de 1920, cuando pronunció su conferencia ante la Royal Society de
Londres, Rutherford ya era uno de los héroes de la física. La disertación, sin
embargo, no la dedicó a su aclamado modelo del átomo sino que comenzó hablando
de la transmutación del átomo de hidrógeno, luego hizo una recapitulación sobre
el estado de la física en el momento, y después, y sin previo aviso, se puso a
divagar sobre la estructura del núcleo atómico. Imaginó un núcleo neutro, un
núcleo de hidrógeno sin carga eléctrica. Una especie de asociación entre un
protón y un electrón pegados que anularan mutuamente sus cargas y compusieran
una especie de sistema de carga cero, un átomo neutro. No le parecía para nada
imposible la existencia de un objeto semejante.
Este átomo tendría novedosas propiedades: su campo eléctrico sería cero,
y por lo tanto se movería con mucha comodidad por dentro de la materia. Podría
meterse directamente dentro de la estructura de otros átomos y sería una
herramienta ideal para explorar la materia,
dijo.
Nadie entendió muy bien por qué razón Rutherford había empezado a fantasear con
probabilidades tan exóticas sin que viniera demasiado a cuento.
Pero entre los asistentes a la conferencia estaba James Chadwick, un joven
físico que colaboraba con Rutherford y que se tomó en serio las divagaciones de
su maestro. Pensó que Rutherford estaba postulando una partícula neutra, una
nueva partícula que bien podría llamarse «neutrón».
Durante mucho tiempo, Chadwick se dedicó a perseguir al neutrón sin ningún resultado.
Pero en el otoño de 1930, el físico alemán W. Bothe, ayudado por un joven
investigador, H. Becker, observó que el berilio (el cuarto elemento de la Tabla
Periódica), al ser bombardeado por una fuente radiactiva, emitía una radiación
muy penetrante que supuso que era radiación gamma, uno de los productos de la
desintegración radiactiva. Pero esta radiación gamma era demasiado penetrante,
mucho más que cualquier radiación gamma conocida hasta entonces.
Chadwick se enteró de estos resultados, y se enteró también de lo que ocurrió
poco más de un año después, en París. Allí, en diciembre de 1931, Irene Curie
—la hija de la gran Marie Curie— y su esposo Frédéric Joliot repitieron los
experimentos de Berlín, y el 18 de enero de 1932 publicaron en las actas de la
Academia de Ciencias un resultado sorprendente: la radiación del berilio era
tan potente que podía arrancar protones a sustancias como la parafina, el agua
y el celofán.
Cuando Chadwick leyó estos resultados en el Cavendish Laboratory de Cambridge
corrió a mostrárselos a Rutherford, quien exclamó que no los creía «en
absoluto», y le pidió que verificara las mediciones de los Joliot-Curie. El
discípulo tampoco creía en esas mediciones: le parecía imposible que la
radiación gamma fuera capaz de arrancar partículas tan pesadas como el protón.
Para arrancar protones, hacían falta partículas más o menos como ellos, pero
capaces de penetrar sin demasiado problema en los núcleos… tal como había
sugerido Rutherford en aquella lejana conferencia, más de diez años antes.
En otras palabras, Chadwick pensaba que en la misteriosa radiación del berilio
no había ningún rayo gamma, sino las anheladas y hasta ahora ausentes
«partículas neutras». Con esa hipótesis, dedicó diez fatigosos días a refinar
las mediciones. El fin de semana del 13 y 14 de febrero, creyó haber obtenido
su meta. El miércoles 17 de febrero de 1932 envió a la revista un informe con
el título: «Sobre la posible existencia del neutrón».
Finalmente, lo había encontrado.
La verdad es que era imposible creer que el núcleo atómico estaba
compuesto solamente de protones. Como ya vimos, un átomo de
hidrógeno tiene en su núcleo un único protón, cuya carga eléctrica es
neutralizada por un electrón. Sin embargo, el núcleo de helio, el elemento que
sigue al hidrógeno en la Tabla Periódica, y que tiene dos cargas positivas en
su núcleo (es decir, dos protones), no pesa el doble del núcleo de hidrógeno,
sino el cuádruple. Lo cual sugiere que ahí hay algo más.
El núcleo de helio
Y efectivamente, en el núcleo de helio, además de los dos protones de
rigor, hay dos neutrones: aquellas partículas que imaginó Rutherford en su
conferencia de 1920, y que Chadwick encontró en 1932.
Los neutrones son muy parecidos a los protones, aunque su masa es ligeramente
mayor. Un protón equivale a 1836,1 electrones. En cambio, un neutrón equivale a
1838,6 electrones. Es una diferencia mínima, pero, en fin, son más grandes.
Aunque, naturalmente, la diferencia principal entre protones y neutrones es que
el protón está eléctricamente cargado y los neutrones no. Al no tener carga,
son excelentes proyectiles para bombardear el núcleo. Si se bombardea un núcleo
con protones, va a sufrir el rechazo de las cargas eléctricas positivas. Pero
con los neutrones no existe ese problema y, por eso, pueden penetrar
profundamente en la materia. De hecho, son los responsables de los procesos de
fisión nuclear, y los que se utilizan para bombardear núcleos, transmutarlos y
volverlos radiactivos.
A diferencia de los protones, si se agregan neutrones a un núcleo, el elemento
no cambia. Si era carbono, sigue siendo carbono. Sin embargo, el núcleo no es
el mismo, ya que el número de partículas ha variado. Dos núcleos con el mismo
número de protones pero diferente número de neutrones son isótopos (se
llaman isótopos —que significa «el mismo lugar», porque efectivamente ocupan el
mismo lugar en la Tabla Periódica, ya que el elemento no cambia—). Casi todos
los elementos naturales existen en diferentes formas isotópicas (es decir, en
variedades de acuerdo a la cantidad de neutrones). Por ejemplo, un núcleo de
hidrógeno tiene un solo protón en su núcleo. Si además del protón hay un
neutrón, sigue siendo hidrógeno, por supuesto, pero en la variante llamada
deuterio. Si tiene dos neutrones, se llama tritio.
Núcleo de hidrógeno, núcleo de deuterio, núcleo de tritio
Sigue siendo hidrógeno, claro está; el deuterio y el tritio son sólo
variantes o isótopos. Por eso, junto al nombre del elemento, se ponen dos números:
uno es el número de protones (el número atómico) y el otro es el «número
másico», que se marca como superíndice a la izquierda del elemento, y que
indica la suma de protones y neutrones. Así, 2⁴He indica que se trata de helio,
con dos protones (número atómico 2). Pero el cuatro informa que en ese núcleo
hay cuatro partículas (cuatro nucleones) —«nucleones» es la palabra que se
utiliza para referirse a los integrantes del núcleo, sin discriminar si son
protones o neutrones— en total. Es decir, que además de los protones, hay dos
neutrones. 23592U nos dice que el uranio, de número atómico 92 (con 92 protones
por lo tanto), tiene 235 partículas en total. Es decir, 235-92 =143 neutrones.
El 23892U es otro isótopo o variante del uranio, esta vez con 146 neutrones.
Los neutrones juegan un papel central en la estabilidad del núcleo atómico. Sin
los neutrones, probablemente en el mundo no habría nada más que hidrógeno. Para
comprender esto, hablemos primero de las cuatro fuerzas que existen en el
mundo.
§. Las cuatro fuerzas
Cuatro hijuelos hubo el rey, cuatro hijuelos, que no más.
Romance popular español
Que la compleja arquitectura del universo esté basada solamente en
cuatro fuerzas, que se encargan de mantener en pie y en funcionamiento todo lo
existente, es sin duda asombroso. Y recién en los últimos ochenta años el
esquema quedó completo. Primero, la fuerza gravitacional, la fuerza
que nos adosa a la Tierra y nos dota de peso, la que mantiene a los planetas en
sus órbitas y agrupa a las galaxias en grandes cúmulos. Su universalidad es
verdaderamente espeluznante: todos los cuerpos ejercen atracción gravitatoria
sobre todos los otros cuerpos, sin excepción. Es la amalgama
cósmica que mantiene unido al universo, es bella y armoniosa. Y así y todo, es
la más débil de todas las fuerzas. Es triste, pero es verdad.
La gravitación parece muy pobre cuando se la compara con la fuerza
electromagnética: ésta es un billón de billones de billones de veces más
poderosa. Aunque lo que gana en fuerza, lo pierde en universalidad, ya que
solamente actúa allí donde hay cargas eléctricas o campos magnéticos. Es la que
hace que dos cuerpos con cargas de distinto signo se atraigan y que dos cuerpos
con carga de igual signo se rechacen, es la que mueve las limaduras de hierro
hacia el imán, la que mantiene a los electrones ligados al núcleo atómico, la
responsable de que los átomos se combinen formando moléculas, y que las
moléculas se enlacen entre sí. Pero estas dos fuerzas, solas, no bastarían. En
el núcleo de los átomos conviven partículas con cargas de igual signo sin que
la fuerza electromagnética que les ordena rechazarse las haga salir disparando
unas de otras. Si esto ocurre así, es porque una tercera fuerza, más poderosa
aún que la electromagnética, brilla en el fondo de la materia y es capaz de
vencer el rechazo eléctrico. Es la fuerza nuclear fuerte, cien
veces más intensa que la electromagnética, y que ata a los protones y a los
neutrones del núcleo atómico entre sí, y que dentro de los neutrones y protones
amarra a los quarks las partículas fundamentalísimas que los forman, a las
cuales ya nos referiremos. Aunque de corto alcance, e imperceptible fuera del
núcleo, gracias a ella éste no se desparrama en un delirio electromagnético.
Allí donde haya que juntar dos cargas de igual signo, la fuerza nuclear fuerte
es altamente recomendable. Es la más poderosa de las cuatro fuerzas y la que
garantiza la estabilidad de la materia.
Y, en fin, hay una cuarta fuerza: la fuerza nuclear débil, que no
provoca atracciones ni rechazos, sino que actúa en determinados procesos
radiactivos, como la radiación beta (en que los núcleos expulsan electrones a
gran velocidad), o hacen a veces estallar un neutrón en un protón, un electrón
y un neutrino. Es una fuerza mucho más débil que la nuclear fuerte o que la
electromagnética (aunque más potente que la gravitatoria), y, de las cuatro,
probablemente la de menor estatus.
Y punto. La fuerza gravitatoria, la electromagnética, la nuclear fuerte y la
nuclear débil bastan para explicar todos los fenómenos de la física. Es una
realidad bastante simple, sin duda, pero los físicos sueñan con encontrar una
superfuerza única que lo explique todo, una Gran Fuerza Unificada de la cual
las cuatro existentes sean aspectos parciales. Y aunque esa meta parece estar
lejos todavía, algo se ha avanzado en el camino: en 1967 Steven Weinberg y
Abdus Salam consiguieron unificar la fuerza electromagnética y la nuclear débil
en una sola: la fuerza electrodébil. Fue un enorme paso adelante en
la persecución de una teoría unificada.
§. El núcleo atómico
El vacío, aquella Nada que horrorizaba a la escuela eleática, que para
Parménides era el paradigma de lo que «No Es» y que, según Aristóteles —y
Descartes— no podía existir, constituye, sin embargo, la forma predominante de
existencia en este oscuro agujero que llamamos universo.
No es sólo el vacío de los espacios interestelares, con sus raros átomos
flotando en inmensas colmenas de oscuridad donde aparecen de a ratos burbujas
del gas de galaxias que da la apariencia al cosmos.
Nada de eso. En lo más íntimo, en el centro mismo de la materia, allí donde uno
debería confiar en encontrar lo sólido, el sostén de Lo Que Es, no hay más que
espacio vacío. El átomo es sólo un miserable paquete de «casi nada»:
prácticamente toda su masa se concentra en el núcleo, y el volumen del núcleo
es insignificante en relación al átomo total. Si el núcleo tuviera el tamaño de
una nuez colocada en el centro de una cancha de fútbol, los electrones de la
primera órbita andarían por las tribunas. Y en el medio, nada. Aunque el núcleo
contiene casi toda la materia del átomo, su volumen es un centésimo de
millonésimo de millonésimo (0,00000000000001) del volumen total del átomo;
apenas una esferita de un diezmilésimo de millonésimo de millonésimo de
milímetro de radio.
Pero así como su volumen es mínimo, la densidad del núcleo es impresionante:
cien millones de millones de veces la densidad del agua. Una taza de café
compactamente llena de núcleos atómicos pesaría mil millones de toneladas.
El átomo coloca a cualquiera frente al vértigo del vacío, eco lejano de
aquel horror vacui que tanto daño produjo en su momento: si
concentráramos los núcleos de toda la materia de la Tierra en una esfera
compacta, no tendría más de cincuenta metros de radio. Si lo hiciéramos con el
Sol, obtendríamos un astro de pocos kilómetros de radio (como ocurre, por otra
parte, en las estrellas de neutrones). En realidad, si la naturaleza tuviera
horror al vacío, como se creyó durante siglos, la naturaleza no podría existir.
Parecería más bien que a la naturaleza le encanta el vacío, ya que lo
desparrama tan alegre y generosamente que da vértigo.
En fin: el núcleo está compuesto de protones y neutrones. Los protones, para
darle identidad. Los neutrones, para aportar fuerza nuclear sin rechazo
eléctrico. Los protones se rechazan eléctricamente, aunque se atraen con la
fuerza fuerte, que actúa sólo a muy corta distancia. Es como si uno quisiera
aproximar dos imanes de igual polo, cada uno de los cuales estuviera
embadurnado con un pegamento de buena calidad. Los imanes se rechazarían, sí,
pero si uno consiguiera que se tocaran, quedarían pegados, porque la fuerza del
pegamento neutraliza el rechazo magnético. Cuando un núcleo es grande y hay
muchos protones, la cosa se pone brava, porque el rechazo electromagnético es
muy grande y amenaza con hacer un desastre. Y entonces, para eso están los
neutrones. Los neutrones agregan fuerza fuerte —agregan pegamento— y refuerzan
la cohesión del núcleo al tiempo que, como son neutros, no agregan rechazo
eléctrico.
Los protones dan identidad al núcleo, le dan un número atómico y le dan su
carga (oportunamente neutralizada por los lejanos electrones). Los neutrones
colaboran con la estabilidad, evitando que estalle por efecto de la repulsión
electromagnética entre las cargas de igual signo (positivo) de los protones.
Además, un neutrón se puede convertir en un protón y viceversa. Si uno agarra
un protón, y le agrega un electrón, se transmuta en un neutrón. Si un neutrón
emite un electrón (y un neutrino), se transforma en un protón.
El núcleo atómico es todo un mundo, un mundo dinámico donde todo es movimiento
y cambio y donde rigen, como en una cárcel, una fábrica o un paraíso, leyes
propias. Pero no todos los núcleos son posibles —o mejor dicho, estables—. No
cualquier amalgama de protones y neutrones se mantendrá firme. No se pueden
juntar treinta protones sin ningún neutrón, o cuatrocientos neutrones y sólo
dos protones. Como las especies, no todos los núcleos pueden sobrevivir en la
lucha por la existencia. Pero aquí no rige la ley del más apto, sino las
estrictas exigencias de la física: para cada número de protones, hay un número
óptimo de neutrones que permite que el núcleo esté en el nivel de energía más
bajo posible.
Todo, en el mundo, «trata» de alcanzar el nivel de energía más bajo posible y
de desprenderse de la energía que le sobra. Una piedra en lo alto de una
montaña «trata» de caer y de perder energía potencial. O, si se quiere un
ejemplo más prosaico, un chico, cuando está muy excitado, se mueve y molesta a
sus padres hasta que agota su energía, se cansa y se duerme. Y como la ley es
la ley —y en la naturaleza no hay coimas ni corrupción que permitan esquivarla—
cuando un núcleo tiene exceso de neutrones o de protones, no sobrevive. Eso (y
no otra cosa) es el fenómeno al que llamamos radiactividad.
§. Un repaso: la radiactividad
Les voy a contar una leyenda guaraní que acabo de inventar: cuando todos los
hombres (y las mujeres también) estuvieron formados, se presentaron ante
Guandeí, el dios responsable de esos asuntos y le dijeron: «Fíjate que nos
hicieron de manera apresurada, y así algunos tienen muchos brazos y otros
ninguno, y algunos tienen dos cabezas y otros marchan con los ojos pelados, y
sobran por aquí los ojos, y por allá faltan orejas. ¿No podrías hacer algo más
equitativo?». El dios contestó: «No. Ya terminó el momento de la creación y
nada puede remediarse». Y los hombres dijeron: «¿Y entonces, que haremos?» Y el
dios pensó un poco y contestó: «Inventaré algo para que todo quede en su lugar,
y desaparezcan los brazos y las piernas de más, y el mundo esté un poco más
ordenado».
E inventó la guerra. Y en las guerras que se sucedieron, se cortaron los brazos
y las piernas que sobraban y lentamente las cosas volvieron a la normalidad, si
es que eso se puede llamar normalidad.
Algo parecido ocurrió con los núcleos atómicos, pero de manera menos
expeditiva, ya que la burocracia del universo, aunque menos personal, es más compleja.
Poco después del Big Bang —la explosión que dio origen al Universo— empezaron a
formarse los núcleos: hidrógeno, helio y núcleos livianos; luego, apenas se
encendieron las primeras estrellas, en su interior se cocinaron los núcleos más
pesados. Pero en aquellos tiempos primarios el Universo tenía poca experiencia
y los núcleos se formaron casi de cualquier manera, juntando protones y
neutrones a la fuerza. Algunos núcleos quedaron con neutrones de más, a otros
les faltaron neutrones, los de más allá quedaron con más energía de la que
pueden soportar y en su interior las partículas empezaron a agitarse y moverse.
Otros núcleos, en fin, tuvieron la suerte de tener la configuración óptima que
las leyes de la naturaleza permiten.
Lo cierto es que, inmediatamente, los núcleos inestables —los mal formados—
inventaron un mecanismo de corrección: la radiactividad. Del mismo modo que
todos los hombres aspiran a la felicidad, todos los núcleos aspiran a la
estabilidad y entonces se liberan de las partículas excedentes hasta alcanzar
una configuración óptima —y estable—. Y lo hacen desintegrándose. Para
conseguir la estabilidad, un núcleo tiene varios caminos. Uno de ellos es
emitir una partícula alfa, compuesta de dos protones y dos
neutrones (que es un núcleo de helio, dicho sea de paso), con lo cual se liberó
de cuatro partículas. Al dejar ir dos protones, el átomo cambia su posición en
la Tabla Periódica, descendiendo dos lugares. Con una
partícula alfa menos, el núcleo es más estable.
También puede ser que emita una partícula beta, que no es otra cosa
que un electrón. Al emitir un electrón, el núcleo se libera de una carga
negativa, un neutrón se convierte en protón, y al acceder a esa posición más
estable, asciende un lugar en la Tabla Periódica, porque
adquiere un protón extra.
O puede emitir rayos gamma, que son simplemente radiación de muy
corta longitud de onda: con la emisión gamma, el núcleo simplemente pierde
energía y alcanza niveles de energía más bajos y, por lo tanto, más estables.
La radiactividad es así: una partícula alfa y se baja dos lugares en la Tabla
Periódica, una partícula beta y se sube un escalón, un haz de rayos gamma y uno
se queda donde estaba.
Sin embargo, este mecanismo de corrección que el Universo encontró para
remediar los errores iniciales cometidos en materia nuclear no es sencillo.
Porque cuando un núcleo se desprende de una partícula alfa, pierde dos
neutrones y dos protones. Cuando se desprende de una partícula beta, un neutrón
se vuelve protón, con lo cual pierde un neutrón y gana un protón. En cualquiera
de los dos casos, al modificarse el número de protones, se transforma en un
núcleo distinto.
La vida exagerada de un núcleo de uranio
Sigan elitinerario, nada fácil, de un núcleo de uranio 238. Primero,
emite unapartícula alfa, pierde dos protones, y por lo tanto desciende dos
lugares enla Tabla Periódica y se vuelve torio, el elemento 90. Pero aún así,
siguesiendo inestable, por lo cual emite una partícula beta, sube un peldaño en
laTabla y se transforma en protactinio. Luego emite otra partícula beta,
¡yvuelve a ser uranio! Pero no el mismo que el original, sino una variante, un
isótopo.Naturalmente, no se queda quieto: emite una alfa, baja dos lugares, y
heteaquí que se transforma nuevo en torio. Nueva alfa y es radio. Alfa otra vez
yes radón, en la casilla 86. Y ya va barranca abajo, como le ocurre acualquiera
que emita muchas partículas alfa. Otra alfa y será polonio, en ellugar 84. Ni
corto ni perezoso, nueva alfa y se transforma en plomo, pero unavariante
inestable del plomo, y en un último estertor emite una partículabeta, trepa un
escalón y se convierte en bismuto. Una beta más, nuevo escalónhacia arriba y
vuelve ser polonio, y tras una alfa alcanzará el anheladoplomo 206, un núcleo
realmente estable. Todas estas idas y vueltas valieronal fin la pena y, feliz,
se entregará a las delicias de la estabilidad: allí,como plomo, se quedará para
siempre.
Ya lo dice elrefrán: uranio eres y en plomo serás tornado.
Pero este nuevo núcleo puede ser inestable también, con lo cual se reinicia el
proceso: nueva desintegración, nuevo núcleo y así sucesivamente. Así aparecen
verdaderas familias radiactivas que, como las de la mafia, tienen una
impresionante coherencia interna, pero también sus idas y vueltas. Una familia
radiactiva es algo digno de verse.
§. Materia y energía
A esta altura de nuestro conocimiento, podemos pensar que en el universo hay
solamente dos cosas: materia y energía. Tenemos una idea de lo que es la
materia: el brillo del oro, la contundencia del hierro, el carbono que
invisible late en el petróleo, el papel y nuestros cuerpos. El mundo de la
materia es nuestro mundo: vemos una montaña, vemos el agua, vemos el vapor que
se escapa de la ducha, sentimos al aire refrescar la piel. Las estrellas y los
árboles, los protones y los pájaros, los electrones y las vísceras son
claramente materia. Pero sólo tenemos una idea vaga de lo que es la energía.
El mundo se mueve, cambia, choca, chisporrotea. Y lo que permite que las cosas
del mundo se transformen es la energía, que es más difícil y elusiva que la
materia. La energía es la capacidad de producir transformaciones: desplazar
materia, transformar agua en vapor, subir una roca hasta lo alto de una
montaña, mantener encendida una lámpara eléctrica, quemar un leño, caminar.
La historia del hombre es la historia de su relación con la energía y la forma
de dominarla. La primera forma primaria de utilización de la energía fue el
control del fuego. El siglo XVIII presenció la domesticación del vapor, capaz
de mover telares y pistones: el resultado fue la revolución industrial. En el
siglo XIX, el motor de explosión produjo la revolución de los transportes. La
utilización masiva de la energía eléctrica cambió la vida de la humanidad.
La energía, como la materia, se transforma. En una lámpara eléctrica, la
energía eléctrica se transforma en energía luminosa. En las turbinas
hidroeléctricas que generaron esa electricidad, la energía cinética del agua
que caía por la catarata se transformó en la energía mecánica del movimiento de
las turbinas, y esa energía mecánica a su vez se transformó en energía
eléctrica. Cuando hierve una pava de agua, la energía calórica entregada por la
llama se transforma en energía cinética —de movimiento— de las moléculas del
líquido, que se mueven cada vez más rápido y escapan en forma de vapor. El
mundo es un escenario donde permanentemente las formas de energía se
intercambian. Así como los científicos del siglo XVII pensaban el mundo como un
enorme mecanismo que se da cuerda a sí mismo, los físicos del siglo XIX, una
vez asentada la idea de energía como concepto estructurante de la física, se
imaginaban al mundo como un motor con la energía en el papel
del combustible (aunque a diferencia del combustible, la energía no se gasta,
sino que se transforma —y si nos ponemos estrictos, el combustible de, digamos,
un auto, tampoco se gasta, sino que se transforma en otras cosas—).
A finales del siglo XIX, los científicos estaban muy seguros de saber qué era
la energía y de conocer una de sus leyes fundamentales: la primera ley de la
termodinámica, que establece que la cantidad de energía presente en el universo
es constante, es siempre la misma.
Pero la radiactividad los desconcertó. Las emisiones radiactivas liberaban una
cantidad enorme de energía, que obviamente no podía venir de la nada. ¿De dónde
salía? Ningún proceso conocido era capaz de producir tanto.
Y es que, en realidad, los científicos no sabían todo sobre la energía. Así se
los demostró la Teoría de la Relatividad, en la que Einstein —además de los
malabarismos con el espacio y el tiempo— sustituyó la visión dual de materia y
energía por una concepción unitaria en que ambas son aspectos diferentes de una
misma cosa. Recuerden: decir «materia» y decir «energía» es equivalente, y la
estricta medida de la equivalencia está dada por la fórmula E = mc2.
Para la Teoría de la Relatividad, la masa no es sino una forma más de la
energía.
Pero la fórmula E = mc2 dice más que eso: la
presencia del término «c» —la velocidad de la luz, unos 300.000 kilómetros por
segundo, para colmo elevada al cuadrado— significa que en realidad cantidades
muy modestas de masa equivalen a cantidades muy grandes de energía. Con el
equivalente en energía de solamente una tonelada de materia podríamos
satisfacer el consumo energético anual del país que más energía devora en el
mundo: los Estados Unidos.
La verdad es que la fórmula de equivalencia entre la masa y la energía fue una
sorpresa fenomenal. Pero, así y todo, el mundo de las partículas todavía iba a
deparar bastantes sorpresas más: si los físicos pensaban que con el protón, el
neutrón y el electrón habían llegado a descifrar la estructura de la materia,
estaban equivocados.
Una de las grandes sorpresas fue la antimateria.
Las unidades en que se mide la energía
La unidad que se usa habitualmente es eljoule –como homenaje a James
Prescott Joule, uno de los descubridores de la leyde conservación de la
energía—. Como el kilo, el metro y el segundo, un joulees solamente una unidad:
es la energía que cuesta aplicar una fuerza de unkilo a lo largo de diez
centímetros, o la que se necesita para que un cuerpode un kilo que está quieto,
alcance, en un segundo, una velocidad de un metropor segundo.
Es poco, realmente: encender un fósforoimplica una energía de cuatro mil joule;
caminar durante una hora requiere 1millón de joule. Una tonelada de TNT que
explota involucra cuatrocientosmillones. La bomba de Hiroshima, ochenta
millones de millones; la erupción deun volcán, un millón de billones.
Una bombita de cien watt, prendidadurante una hora, consume cien joule. Una
copa de leche nos entrega 159calorías, equivalentes a 670 mil joule. La bomba
de Hiroshima liberó unaenergía equivalente a 12 mil millones de copas de leche.
Un átomo de uranio que se parte liberasolamente una cienmilésima de una
millonésima parte de un joule. Parece muypoco, pero en un gramo de uranio hay
muchísimos átomos. Un hombre jovennecesita unas 3.000 calorías por día, que el
cuerpo transforma en movimientoy calor.
§. ¿Qué es esa cosa llamada «antimateria»?
Para saber un poco qué es esa cosa curiosa llamada «antimateria», tenemos que
hablar de Paul Dirac (1902-1984). Nació en Inglaterra, donde estudió ingeniería
eléctrica con una fuerte formación matemática y física, y pronto se encaminó a
Cambridge, la gloriosa Meca de la física donde reinaba Su Majestad Rutherford.
En Cambridge, Dirac colaboró en la edificación de la mecánica cuántica (cuyas
líneas maestras trazaban Heisenberg y Schrödinger) y en 1927 encontró una ecuación
que describía el comportamiento del electrón pero respetando los principios de
la Teoría de la Relatividad.
La ecuación de Dirac pareció milagrosa a los físicos, en gran parte porque
predecía un montón de resultados experimentales, pero también porque había sido
una deducción a partir de los primeros principios, a la manera de Newton. Pero
el fruto más espectacular de la ecuación «milagrosa» todavía estaba por venir.
Y es que enseguida Dirac se dio cuenta de que la ecuación milagrosa no tenía
una sino dos soluciones posibles, del mismo modo que una raíz cuadrada tiene
dos resultados posibles (la raíz cuadrada de cuatro, por ejemplo, tiene como
soluciones a 2 y a –2). Uno de los resultados correspondía a una partícula de
carga negativa y otro a una de carga positiva. Con la partícula de carga
negativa no había ningún problema, ya que era el electrón. Pero… ¿y la otra
solución? ¿A qué partícula podía corresponder?
«Al protón», pensó Dirac. Corría el año 1930 y se conocían solamente dos
partículas elementales: el electrón —de carga negativa— y el protón, de carga
positiva. Era natural que Dirac pensara lo que pensó.
Pero la verdad es que había algo malo: el protón no encajaba del todo como
contrapartida del electrón, aunque más no fuera por la enorme superioridad de
su masa. Que el protón, tan diferente en realidad del electrón, fuera su
contrapartida positiva hería la delicada debilidad que los físicos (y acaso la
naturaleza) tienen por la simetría. Si no era el protón, hacía falta una
partícula de carga positiva, pero más parecida al electrón: en 1931 Dirac dio
marcha atrás con su propuesta protónica y sugirió que esa solución extraña
correspondía a una partícula exactamente igual al electrón en
todo, salvo en un «detalle»: su carga, que sería positiva. Una especie de
«antielectrón».
Era una predicción teórica, una conjetura, y nada más. Pero a veces las
conjeturas parecen tener vida propia: en septiembre de 1932 Carl D. Anderson,
un joven físico experimental del Instituto de Física de California, envió a la
revista Science un artículo donde contaba que, estudiando los
rayos cósmicos, había encontrado «una partícula cargada positivamente y con una
masa comparable a la del electrón». Increíblemente, era el «antielectrón»
imaginado teóricamente por Dirac, al que le fue concedido el no demasiado
original nombre de «positrón». Su descubridor fue el primer hombre que vio
«antimateria», que de manera sutil había hecho su aparición en un mundo muy
seguro de su materialidad.
Después, naturalmente, la antimateria arreció. En 1955 se vio por primera vez
el antiprotón y, casi inmediatamente, el antineutrón. En los grandes
aceleradores se logró producir átomos de anti hidrógeno: un antielectrón
girando alrededor de un antiprotón. En realidad, hoy en día todas las partículas
tienen su correspondiente antipartícula. Una partícula sin antipartícula
perdería instantáneamente toda consideración social, sería expulsada de los
círculos selectos, las asociaciones y los clubes de partículas.
¿Pero qué quiere decir «antipartícula»? ¿Por qué el electrón y el positrón, el
protón y el antiprotón, el neutrón y el antineutrón son «anti», cada uno del
otro, en vez de tratarse sencillamente de dos pacíficas partículas diferentes?
¿Por qué esa oposición irremediable? La respuesta es triste pero verdadera:
ante todo, las partículas y sus respectivas antipartículas son idénticas, salvo
en su carga eléctrica, cuando la hay. Y también difieren en algo que llama
«spin», y que gruesamente —muy gruesamente— puede interpretarse como la
capacidad de rotar sobre sí misma. Y esta diferencia dista de ser superficial:
una danza y una contradanza pueden sucederse sin inconvenientes; en El
Arte de la Fuga, el infinito Johann Sebastian Bach nos muestra extrañas
composiciones en espejo (fugas y contrafugas) y el conjunto es maravilloso.
Pero entre la materia y la antimateria no puede haber ninguna clase de
componendas. Cuando una partícula y una antipartícula entran en contacto,
¡adiós! Sencillamente se aniquilan: desaparece toda materialidad y se
volatilizan en un torrente de radiación gamma.
Es posible también el proceso inverso: en cualquier laboratorio de medicina
nuclear un rayo gamma emitido por el cobalto 60 choca, de repente, con un átomo
de plomo. Y entonces la energía del rayo gamma se materializa en un electrón y
un antielectrón.
De modo que la antimateria existe, sí, y aunque las antipartículas son
altamente evanescentes (en muy poco tiempo chocan contra la materia y se
aniquilan), prestan una notable contribución a la medicina, por ejemplo con la
Tomografía de Emisión de Positrones.
Y si la materia y la antimateria no se aniquilan en gran escala, destruyendo el
universo, es solamente porque hay muy poca antimateria. Sólo por eso. Y si hay
poca antimateria es porque ya hubo una aniquilación a escala cósmica: fue en
los tempranos momentos del universo, en los cuales un ligero exceso de la
materia sobre la antimateria nos salvó (o mejor dicho: nos permitió) la vida.
§. Un personaje extraño: el neutrino
Ésta es una historia que se parece a la de Dirac y el positrón. La
desintegración radiactiva, en especial la desintegración beta, tenía un serio
problema: al final del proceso había siempre un poco menos de energía que al
principio, de modo que el balance energético no se equilibraba. Una cierta
cantidad de energía se esfumaba por completo, violando el sacrosanto principio
de conservación. ¿Qué ocurría con la energía faltante? Algo había que hacer al
respecto, y fue entonces cuando apareció en escena Wolfang Pauli, otro de los
héroes de la «época de oro» de la física, ese período entre 1900 y 1940 en el
cual se logró —o se creyó que se logró— desentrañar la estructura del átomo.
Pauli había nacido en Viena en 1900, estudiado con el gran físico Sommerfeld en
Münich y, en 1925, había anunciado su Principio de Exclusión, que permitía
explicar ya no cómo sino por qué los
electrones de un átomo se distribuyen en capas superpuestas y producen las
propiedades químicas de los elementos de la Tabla Periódica y que en otro
relato merecería un capítulo entero, pero que por su dificultad lo saltearé. Lo
cierto es que es uno de los basamentos en los que se apoya la física nuclear y
atómica.
Pero no es ésa la causa por la que entra en escena aquí sino, como sospecharán,
por haber contribuido a disipar el misterio de la energía desaparecida durante
la emisión beta. En 1931, Pauli sugirió que durante la desintegración beta se
emitía otra partícula, sin carga y tal vez sin masa. La energía de esa
partícula —dijo Pauli— era justamente la que estaba «faltando». Lo pongo entre
comillas porque en realidad no faltaba: se utilizaba para emitir una partícula
a la que se llamó «neutrino», que significa «pequeña cosa neutra».
El neutrino, así planteado, no era más que una construcción teórica de
propiedades realmente sorprendentes: un neutrino puede atravesar la Tierra de
lado a lado con la misma facilidad con que un rayo de luz atraviesa un vidrio.
La interacción de los neutrinos con la materia ordinaria es mínima, casi
ridícula: mientras yo escribo esto (y ustedes lo leen) estamos siendo
atravesados por cientos de miles de millones de neutrinos, que siguen su camino
tan campantes sin prestarnos la más mínima atención.
Una partícula tan escurridiza, obviamente, es casi imposible de detectar. Pero
en 1956 se intentó un experimento que resultó exitoso: se trató de pescar
neutrinos en lo profundo de una mina de Dakota del Sur, Estados Unidos,
esperando que algunos de esos cientos de miles de millones de ellos
interactuaran con el material contenido en tanques dispuestos con ese fin. Por
supuesto, se utilizaron instrumentos ultrasensibles y las nuevas partículas
fueron, efectivamente, detectadas: los instrumentos midieron la incidencia de
algunos neutrinos, confirmando así de manera experimental la predicción de
Pauli.
En contra de lo que se pensó al principio, el neutrino tiene masa, y, es más,
hay tipos de neutrinos.
Dicho sea de paso, Pauli no era tan afortunado con todas sus predicciones. En
1933, el día siguiente del incendio del Reichstag que proyectó a Hitler al
poder absoluto, hubo una reunión en Gotinga. Varios físicos, entre los cuales
se encontraba Edward Teller (que más tarde sería el cerebro de la bomba de
hidrógeno norteamericana) discutieron la situación política de Alemania. Pauli
declaró enfáticamente que la idea de una dictadura en Alemania era un
disparate: «He visto una dictadura en Rusia; en Alemania simplemente no puede
suceder».
§. Ensaladas de partículas
La verdad es que cuando los neutrones entraron en escena pareció que hasta ahí
se llegaba y que el problema de la estructura de la materia había encontrado
una solución permanente: estaba hecha de átomos, a su vez formados por
neutrones, protones, electrones. Y punto. No era la idea de Dalton o Demócrito,
para quienes los átomos eran las partículas verdaderamente elementales, pero
era así. Si se lo pensaba bien, era incluso mejor: en lugar de muchas clases de
átomos, había sólo tres partículas verdaderamente elementales que, en sus
múltiples combinaciones, formaban todo lo que había. Demócrito hubiese estado
contentísimo.
Pero la naturaleza no respeta las decisiones humanas, ni siquiera las de
alguien tan grande y genial como Demócrito: en la misma década del treinta, el
análisis de la materia, los bombardeos con partículas, el uso de los inmensos
aceleradores y demás yerbas fueron ampliando cada vez más el menú de las
partículas elementales, hasta formar una verdadera e insoportable selva:
piones, kaones (en tres versiones: positivos, negativos y neutros), muones,
partículas tau, tres tipos de neutrinos y una larguísima lista (cada uno con su
antipartícula, además).
El panorama empezaba a complicarse de tal modo que crecieron los suspiros por
un orden subyacente. Al fin y al cabo, pensaban los físicos de partículas, la
naturaleza nunca es tan complicada (lo cual, desde ya, es una
creencia, pero una creencia que al fin y al cabo sostiene buena parte del
impulso científico y que hasta ahora ha dado resultado). Como cuenta el físico
León Lederman: «En los 30, a quien descubría una nueva partícula elemental se
le daba el Premio Nobel. En los 50, se lo maldecía».
§. Los quarks
Three quarks for Muster Mark!
Sure he has not got much of a bark
And sure any he has it’s all beside the mark.
JAMES JOYCE, Finnegans Wake
Y así fue como en los años sesenta, Murray Gell-Mann (n. 1929) y George
Zweig (n. 1937) presentaron una propuesta: la existencia de entidades aun más
fundamentales y todavía más chicas que los neutrones y los protones, a los que
Gell-Mann llamo quarks (en honor a una frase irónica de James
Joyce en Finnegans Wake). Había en la naturaleza—según ellos—, tres
tipos de quarks, a los que se les pusieron extraños nombres: los quarks «up»
(arriba), los quark «down» (abajo) y los quark «strange» (extraño). Las combinaciones
entre ellos daban cuenta de todas las partículas conocidas hasta el momento:
dos quarks up y uno down formaban un protón; dos down y uno up, un neutrón; los
mesones y piones se formaban con dos quarks.
Un protón y un neutrón con sus tres respectivos quarks
El electrón y su no muy numerosa familia (en la cual se cuentan los
muones, la partícula tau y unos tipos específicos de neutrinos), en cambio,
eran los únicos que no estaban compuestos por quarks y que parecían
verdaderamente elementales.
Gell-Mann, como siempre, se cuidó de aclarar que sus quarks eran entidades
meramente especulativas, objetos matemáticos, pero (también como siempre, o
como casi siempre) en 1968, los físicos del gran Acelerador Lineal de Stanford,
bombardeando protones (una operación a escala aún más reducida del famoso
experimento de Rutherford), comprobaron que dentro del protón había,
efectivamente, tres partículas más pequeñas. La rueda no se detuvo allí, y
fueron apareciendo nuevos e insospechados quarks: hoy se conocen seis (y sus respectivos
antiquarks, claro está).
La verdad es que se había recorrido un largo camino desde aquellos primitivos
átomos de tierra, agua, aire y fuego de Empédocles que se unían simplemente por
«amor» y «discordia».
§. El modelo estándar
La experiencia de todo un siglo y los quarks de Gell-Mann permitieron construir
lo que hoy se llama el «modelo estándar», que refleja lo más profundo que se
llegó a conocer sobre la estructura de la materia.
Y es así: la materia observable, una molécula de agua, un fragmento de ADN o un
caballo, está formada básicamente por átomos que miden un diezmillonésimo de
milímetro de diámetro. A su vez, los átomos están formados por electrones que
giran muy lejos de un núcleo central, de diámetro diez mil veces
más chico, de un cienmilésimo de millonésimo de milímetro. Pero el núcleo está
formado por protones y neutrones diez veces más diminutos (menos de un
millonésimo de millonésimo de milímetro). Y esos protones y neutrones a su vez
están formados por partículas más de cien mil veces más
pequeñas: los quarks, de menos de un cienmilésimo de millonésimo de millonésimo
de milímetro de diámetro.
Los seis tipos distintos de quarks, combinados de a tres o de a dos, pueden dar
una variedad enorme de otras partículas intermedias, como los mesones y los
piones.
Por otro lado están los leptones, que no están formados por quarks: el
electrón, el muón (una especie de electrón más pesado), la partícula tau, y
tres clases de neutrinos, que aparentemente sí son elementales.
Pero con esto no alcanza: hay que agregar las partículas que transportan las
cuatro fuerzas que mantienen a los trocitos de materia unidos y sin las cuales
quarks y leptones flotarían sueltos por el universo y nunca podría llegarse a
estructuras más complejas como un protón, un átomo, una molécula, este libro o
su lector.
La interacción fuerte, la débil, el electromagnetismo y la gravitación
funcionan, hasta donde se sabe, a través de partículas, aunque una de ellas, la
que transportaría la fuerza de gravedad (el graviton) aun no pudo
ser detectada a pesar de los tremendos esfuerzos por hacerlo.
El modelo estándar podría parecer simple (o mejor dicho, ordenado). Claro,
siempre y cuando no hubiera nada más. Pero extrañamente, en un mundo que parece
amar la simplicidad, aparecen de manera constante y fugaz otras partículas
huidizas, aunque la gran mayoría tiene una estabilidad tan endeble que si
logran crearse espontáneamente no sobreviven en los laboratorios más que unas
pocas fracciones de segundos (en el mejor de los casos).
En apariencia, hasta aquí se llegó y es lo último que se puede encontrar en el
interior de la materia. Así y todo, para que el modelo estándar cerrara de
manera definitiva (como si tal cosa fuera posible en el campo de la ciencia)
faltaba algo: la famosa partícula divina.
Las tres generaciones de la Materia
(Fermiones)
Tabla de partículas elementales
Interludio: Dios y Pauli
Pauli era conocido y admirado por su increíble capacidad para encontrar
errores en los trabajos y las teorías de los demás (y aun en los suyos
propios). Pauli murió en 1958 e Isaac Asimov contaba la siguiente historia.
Apenas producida su muerte, Dios le dispensó un trato especial y lo recibió en
persona.
—Supongo —le dijo Dios— que después de una vida dedicada a la física, a la que
ha ayudado tanto, igual le quedarán muchas dudas.
—Así es —contestó Pauli—, me he pasado tanto tiempo controlando a mis colegas
para que no cometan ningún error que hay cosas que no tuve tiempo de averiguar.
—Bueno, dígame —pidió Dios.
—Por ejemplo, una cosa que siempre me perturbó fue la cuestión del protón y el
electrón, que como usted sabrá perfectamente son dos de las partículas que
componen el átomo.
—Lo sé, lo sé —asintió Dios—. Los protones están en el núcleo junto a los
neutrones y los electrones giran alrededor. ¿No es un lindo modelo? Me llevó
horas diseñarlo.
—Es lindo —admitió Pauli—, sin duda alguna, aunque para mí hay un error. Hay
algo que me perturba. El protón y el electrón tienen la misma carga (positiva
en un caso, negativa en el otro). Pero la masa del protón es 1.826 veces la del
electrón. ¿Por qué hay una relación tan absurda entre las masas, un número tan
desagradable, si la carga, sacando el signo, es la misma? En todos los trabajos
sobre el tema encontré errores.
—Ah —dijo Dios sonriendo—. Aquí tiene, explicado en términos rigurosos, con
ecuaciones y cálculos, la verdadera razón de la relación entre la masa del
protón y la del electrón. —Y le alargó un fajo de papeles.
Pauli se precipitó sobre las hojas, las miró y rápidamente revisó la primera
página, la comparó con la cuarta, controló la última y le devolvió el fajo a
Dios.
—Aquí también hay errores —suspiró.
Capítulo 38
En busca del origen
Vamos a abandonar por un rato los protones, neutrones, quarks, neutrinos
y el núcleo del átomo, para centrarnos en un tema del que quería hablarles
antes de que esta historia termine: la exploración del pasado humano y las
investigaciones alrededor del origen del hombre, que obviamente están
conectadas entre sí.
El siglo XIX rompió de una vez por todas con la cronología bíblica que
remontaba la edad de la Tierra al 4004 antes de nuestra era, lo cual ya no daba
para mucho en un siglo (el XIX) que se creía con la suficiente potencia
intelectual como para rebasar todos los límites: ya vimos cómo los astrónomos
expandían el universo conocido; los geólogos, los horizontes de nuestro
planeta; el darwinismo, los confines de la biología; los físicos y los químicos,
el corazón de la materia. El cocktail era explosivo y no podía sino, más
temprano que tarde, estallar (aunque, créase o no, la cronología bíblica
subsistió para muchos hasta avanzado el siglo XX).
El descubrimiento del pasado deparó muchas sorpresas: por un lado, hizo
retroceder la historia conocida, englobando a los tiempos míticos; por el otro
desenterró (literalmente) todo un inmenso período de la experiencia humana —que
ocupa nada menos que el 99 por ciento de su historia— y, en última instancia,
fue mucho más allá, rastreando los orígenes biológicos de nuestra especie.
Desde que la burguesía irrumpió, allá por el Renacimiento, iniciando el proceso
que hoy llamamos globalización —y que no es otra cosa que la unificación del
mundo, por la fuerza o la persuasión, bajo la cultura y la tecnología
occidentales— los ojos habían estado puestos en el futuro.
Sin embargo, una serie de acontecimientos y descubrimientos obligó, en el siglo
XIX y luego en el XX, a volver esos mismos ojos al pasado, donde se escondían
riquezas enormes que nos permitirían comprender mejor quiénes somos y de dónde
venimos. Curiosamente, empezó a abrirse paso la idea de que nuestro futuro
estaba atado al pasado, que lo que seríamos tenía que ver con lo que fuimos,
que somos criaturas no sólo culturales sino biológicas, y que todos esos
aspectos están relacionados. Muchas disciplinas convergerían en la empresa. El
pasado era una de las piezas faltantes del rompecabezas. Pieza que la
arqueología, una ciencia de la que poco y nada hemos hablado hasta ahora, se
encargaría de proveer.
§. La arqueología y el azar
Cuando Howard Carter (1874-1939) inició sus excavaciones en Egipto sabía
perfectamente lo que estaba buscando: la tumba de Tutankamón, un insignificante
faraón egipcio que sucedió a la revuelta contra el gran Amenofis IV y su
visionaria revolución religiosa monoteísta del año 1347 a. de C (que se tradujo
también en un movimiento pictórico naturalista).
Pero no siempre es así, y de hecho podría decirse que la arqueología le debe
mucho (mucho más de lo que quisiera, seguro) a la casualidad. Mary Leakey, una
conocida arqueóloga inglesa casada con un arqueólogo y madre de otro, dijo una
vez: «En esta ciencia, uno nunca sabe qué es lo que va a buscar ni lo que va a
encontrar». Así es la historia: el primer «arqueólogo», un campesino italiano
que en 1709 se puso a cavar un pozo en su granja del sur de Italia, sabía
perfectamente lo que estaba buscando (agua), pero en su lugar encontró algo que
hubiera llamado la atención de cualquiera: una ciudad.
En realidad, estoy exagerando un poco. Lo que encontró fueron fragmentos de una
escultura de mármol, pero un príncipe italiano —Italia no era un país por aquel
entonces, sino un amontonamiento de regiones— oyó hablar del hallazgo, compró
la zona y contrató trabajadores para que ensancharan el pozo vertical ya cavado
y luego iniciaran un túnel horizontal. A medida que avanzaban, encontraron
diversas esculturas representando mujeres: el túnel había ido a desembocar, de
purísima casualidad, directamente en el teatro de la ciudad de Herculano,
sepultada más de 1.600 años atrás, junto con Pompeya, por una erupción del
Vesubio.
Las noticias sobre las ciudades enterradas se difundieron rápidamente, al punto
que el rey italiano Carlo III mandó llamar a un ingeniero español para que
excavara y extrajera cada uno de los tesoros con el un tanto egomaníaco objeto
de integrar su museo privado. Apenas es necesario decir que el resultado fue un
desastre para las ruinas, igual que lo fueron las excavaciones llevadas a cabo
casi un siglo más tarde por los franceses durante las guerras napoleónicas que
asolaron Italia. Frescos y estatuas fueron sacados de sus sitios, y se dejaron
al aire edificios que, lentamente, empezaron a arruinarse. Recién en 1861 el
rey de Italia, Víctor Manuel II, emprendió excavaciones con criterio moderno y
conservacionista.
Así y todo, el «método arqueológico» de excavar pozos de agua inaugurado por
aquel ignoto campesino italiano siguió dando frutos hasta bien entrado el siglo
XX: en 1974, en la república Popular China, un grupo de campesinos cavaba pozos
de agua cerca del mausoleo de Qin Shihuangdi (que en el año 221 antes de Cristo
se proclamó primer emperador de la China unificada y que, dicho sea de paso,
fue el constructor de la Gran Muralla) cuando encontraron varias figuras de
terracota de tamaño natural que representaban guerreros. Fue la señal para que
los arqueólogos profesionales se lanzaran sobre el asunto, que terminó dando
sus jugosos frutos: se encontraron seis mil estatuas de soldados (en tamaño
natural), seis carrozas, y mil cuatrocientas estatuas de jinetes, todo ello en
terracota. Más tarde aparecieron setenta y tres figuras de soldados-guardianes
de los comandantes de las carrozas. Cada uno de estos soldados tenía un rostro
distinto (lo cual sugiere que fueron modelados sobre personas reales) y con
rasgos correspondientes a las diferentes nacionalidades que poblaban el Celeste
Imperio, sugiriendo la variedad de elementos que conformaban el ejército
imperial.
En realidad no sólo los pozos de agua dieron una mano a la arqueología: cuatro
años después del múltiple descubrimiento en China, en México D. F., unos
obreros que trataban de abrir un pasadizo para tender cables de electricidad
encontraron un enorme disco de piedra con figuras grabadas, y reconocieron en
ellas imágenes de la diosa azteca de la Luna. En un santiamén llegaron los
arqueólogos (siempre atentos a estos llamados de emergencia) y el tendido
eléctrico quedó olvidado. Justificadamente, por cierto: durante cuatro siglos,
Tenochtitlán, la ciudad capital del imperio azteca, había estado enterrada
debajo de la ciudad de México y ahora aparecían, gracias al capricho del azar,
las ruinas del templo de Huitzilopochtli (dios azteca de la guerra).
§. El descubrimiento de Troya
Los desentierros de Pompeya, de Herculano, de Tenochtitlán, fueron empresas que
indagaron en los tiempos históricos, ya bastante bien conocidos por la
literatura de la época. El siguiente paso en la búsqueda del pasado consistió
en ir en pos de los tiempos míticos.
Vale, para ello, una aclaración. La arqueología es hoy una ciencia
perfectamente reglamentada y las expediciones que cada tanto desentierran los
restos de una cultura pasada, que andan tras las huellas de poblaciones de la
Edad de Piedra, o que intentan reconstruir el tipo de agricultura practicada
por determinados pueblos, están sujetas a una rigurosa disciplina. El terreno
que se explora es medido al milímetro, la tierra se tamiza, y los arqueólogos
actúan como si sus ojos fueran lupas capaces de captar hasta el más mínimo
detalle.
Sin embargo, no fue ése el método que adoptó Heinrich Schliemann (1822-1890),
quien practicó una arqueología que si bien fue ingenua, brutal y destructiva,
abrió nuevos horizontes para la investigación. Schliemann fue un arqueólogo
aficionado en una época en que no abundaban —o mejor dicho casi no existían—
los arqueólogos profesionales y la historia de su vida tiene aires de aventura.
Fue un perfecto modelo del self-made man: hijo de un padre pobre y borracho,
incapaz de darle educación, consiguió entrar como aprendiz de empleado de
comercio con un sueldo de pocas monedas y por las noches estudiaba lenguas. A
los veinte años dominaba siete idiomas, a los veinticinco ya era un avezado
comerciante, a los treinta era rico, a los cuarenta y cinco era millonario y
decidió poner en práctica el proyecto que lo había perseguido siempre:
encontrar las ruinas de la ciudad de Troya, escenario de la Ilíada y punto de
partida de la Odisea.
Aunque algunos osados habían explorado las costas de Turquía en busca de las
ruinas de la ciudad perdida, la posición oficial de la época consideraba los
relatos homéricos como leyendas sin valor histórico comprobable. En efecto, no
había ningún indicio concreto que permitiera deducir que la ciudad de Troya
había existido alguna vez, o que la guerra de Troya hubiera tenido lugar. En la
Antigüedad, por el contrario, se tomaba a los poemas homéricos como historia
pura: los romanos llegaron a fundar incluso una ciudad, «Nueva Ilión», cerca de
la colina de Hissarlik —actual Turquía— , supuesto emplazamiento de la supuesta
ciudad. No era un gesto menor, dado que los romanos se consideraban
descendientes de Eneas, ese príncipe troyano que logró huir de la ciudad en
llamas, como cuenta Virgilio en el Canto II de la Eneida.
Contra toda evidencia, y con la fe de los fanáticos, Schliemann creía en la
verdad literal de los poemas de Homero, e Ilíada en mano recorrió todos los
sitios «probables», hasta decidirse por la tradicional colina de Hissarlik.
En 1870 inició la excavación: fue el primer intento arqueológico de tal
envergadura (tanto por sus objetivos como por su magnitud). Al cabo de tres
temporadas, y tras extraer cientos de miles de metros cúbicos de tierra, mostró
al mundo asombrado que dentro de la dichosa colina se escondían no una sino
siete ciudades superpuestas, cada una de ellas construida sobre las ruinas de
la otra. Parece ser que eran épocas en que la completa destrucción de ciudades
era un deporte mucho más asiduamente practicado que hoy en día (aunque no fue
completamente abandonado, por cierto y por desgracia).
En uno de los estratos, Schliemann encontró una sustancial acumulación de
objetos de oro y en 1873, sin vacilar, proclamó que había descubierto el
«Tesoro de Príamo» (rey de Troya en la Ilíada y padre del héroe troyano Héctor,
a quien mata Aquiles) y decidió que los restos de la tercera ciudad, contando
desde la más antigua, correspondían a la Troya de Homero. En realidad, se
equivocó: la ciudad homérica corresponde, según se cree hoy, al sexto estrato,
contando desde abajo. La ciudad que Schliemann confundió con Troya debió ser
por lo menos mil años más antigua.
Los descubrimientos de Schliemann en Hissarlik, junto a los que posteriormente
llevó a cabo en Micenas, transformaron la imagen que los historiadores tenían
de la evolución histórica de Grecia. Se solía fijar el punto de partida de la
cronología en la Primera Olimpíada, en el año 776 antes de Cristo,
aproximadamente. A partir de Schliemann, la historia griega retrocedió dos mil
años de un solo saque.
Así, los hallazgos de un arqueólogo aficionado proporcionaron a la ciencia
naciente un poderoso impulso, que rebotó en descubrimientos también
espectaculares: en 1900, Sir Arthur Evans desenterró el palacio de Cnossos, en
Creta, sede de una cultura (minoica) que dominó el mar Egeo mil quinientos años
antes de la Era Clásica. En 1922, Carter, a quien ya nos hemos referido,
encontró en Egipto la tumba intacta del faraón Tutankamón. Pero ninguna de
estas hazañas puede, probablemente, compararse a la que realizó Schliemann, al
rescatar aquella ciudad que inspiró la Ilíada y la Odisea, los dos pilares de
la literatura y la cultura europeas.
La epopeya de Schliemann tuvo la particularidad de ser seguida por la prensa
mundial, que mediante el telégrafo informaba día a día los descubrimientos y
los fracasos. Pero los periodistas, siempre ansiosos, no están hechos para los
tiempos de la arqueología: cuando en Tirinto, península del Peloponeso, las
excavaciones avanzaban a paso de arqueólogo (lenta y cuidadosamente), el
corresponsal del New York Times anunció que a Heinrich se le había acabado la
suerte. Suerte que, en realidad, recién había comenzado: pocos días después se
produjo el más espectacular de sus hallazgos, los restos de un palacio que rivalizaba
con los hallados en Troya o Micenas. Así pues, Schliemann desenterró la edad
mítica y la incluyó en la epopeya humana.
Y mientras la prensa transmitía los vistosos descubrimientos de Schliemann,
había otro proceso, algo más silencioso, en marcha: el descubrimiento de la
prehistoria.
§. El descubrimiento de la prehistoria
Junto con las plantas, animales y minerales que los pioneros, exploradores y
naturalistas traían a Europa a partir del siglo XVI, llegaban también objetos
producidos por la mano del hombre que iban a parar directamente a las «vitrinas
de curiosidades», convirtiéndose en piezas de mobiliario habituales en los
hogares de los ricos y los poderosos a partir del Renacimiento. Así nacieron
las grandes colecciones de palacios y monasterios: las de los Uffizi y Pitti de
Florencia, el Louvre de París, El Escorial cerca de Madrid y otras en las
capitales ducales como Dresde.
Pero en el siglo XVIII apareció en Europa otro tipo de colección: el museo
público, que exigía nuevas maneras de clasificar. Hasta entonces, la atención
estaba concentrada en los objetos considerados bellos, como antiguos cetros y
estatuillas de oro o algún instrumento científico raro. No serían esos objetos
sino los más comunes y prosaicos los que abrirían los ojos a la prehistoria,
aquel período previo a la escritura que, como ahora sabemos, representa el 99
por ciento de la historia humana.
Por una serie de circunstancias, el papel crucial lo jugó no un científico sino
un hombre de negocios danés, Christian Jürgensen Thomsen (1788-1865). Había
sido educado en el mundo de los negocios, pero casualmente conoció a la familia
de un coleccionista que había estado destinado en París durante la Revolución
Francesa y había llevado de vuelta a su país varias colecciones compradas a la
—con muchísima razón— asustada nobleza. Esas piezas, junto a otras que fue
agregando, fueron el punto de partida de una importante colección de todo tipo
de objetos que de una manera u otra había que clasificar para exhibir en un
museo público.
Thomsen puso manos a la obra sin nada que le sirviera de guía y ordenó los
objetos guiándose por el sentido común y agrupándolos según el material del que
estaban hechos. Luego los subdividió según su uso, ya fuera como armas,
herramientas, recipientes para alimentos, u objetos religiosos.
Cuando abrió el museo al público, en 1819, los visitantes vieron los objetos
repartidos en tres vitrinas. La primera contenía objetos de piedra; la segunda,
de bronce y la tercera, de hierro. Este ejercicio de clasificación y ordenamiento
llevó a Thomsen a sospechar que los objetos hechos con los mismos materiales
podían ser restos de la misma era. Su perspectiva de aficionado decía que los
objetos de piedra podían ser más antiguos que los de bronce, y que éstos a su
vez debían ser más antiguos que los de hierro.
Thomsen no tenía la suficiente formación académica. Así y todo, dio a luz
finalmente un libro Ledetraad til nordisk Oldkyndighed (Guía de las
antigüedades escandinavas) en el que difundió por toda Europa su división entre
edades (de piedra, de bronce, de hierro). La adaptación del esquema de las tres
edades a todo el pasado humano de Europa no fue tarea fácil, pero fue el primer
intento serio de ordenar la prehistoria, además de que orientó a los
arqueólogos en la busca ya no de grandes palacios sino de objetos
insignificantes y cotidianos, para lo cual era necesario revolver, como ellos
mismos decían, «en los montones de basura del pasado». Así, se descubrió que la
prehistoria visible sólo era la punta de un iceberg gigantesco que, más tarde,
habría de dividirse en subperíodos. Y todo arrancó de aquellas tres vitrinas.
§. El hombre de Neandertal
El descubrimiento de la prehistoria pronto se vería eclipsado por nuevos
hallazgos que harían retroceder la experiencia humana mucho más atrás.
Durante el verano de 1856, una cuadrilla de obreros estaba trabajando en una
cantera, a orillas del río Dussel, en un lugar donde el río atraviesa un valle
angosto (el valle del Neander, o Neandertal— de tal valle—, que tiene la rara
particularidad de ser la traducción griega del nombre Neumann —hombre nuevo—).
A unos veinte metros de altura sobre el río había unas pequeñas cuevas; los
obreros volaron una y, al excavar los restos, encontraron unos huesos que
tiraron entre los escombros.
El Hombre de Neandertal. Esqueleto y reconstrucción
El dueño de la cantera pensó que debía tratarse de los restos de un oso
y entregó los pocos huesos recuperados a un profesor de ciencias naturales de
la localidad, quien comprendió enseguida que se trataba de los restos de un
hombre arcaico jamás visto. Probablemente se tratara de un sobreviviente del
Diluvio Universal, pensó el hombre (¡en 1856!), y se los llevó al gran
anatomista Hermann Schaafhausen, de la Universidad de Bonn, que también
confirmó que se trataba sin duda de los restos de un hombre arcaico. La opinión
fue muy controvertida, puesto que hubo quienes atribuyeron las diferencias en
el esqueleto a deformaciones debidas al raquitismo, golpes y artrosis, y no
faltó quien dijera, basándose en quién sabe qué evidencias, que se trataba de
un cosaco que, herido en una batalla contra Napoleón, se había arrastrado hasta
la cueva: las piernas arqueadas daban cuenta de toda una vida pasada a caballo.
Nada menos que Rudolf Virchow, que había fundado la «república celular» (¿se
acuerdan?) dijo que se trataba de un idiota patológico, que debía haber
recibido muchos golpes a lo largo de su vida.
En realidad, para ese entonces ya había habido un par de hallazgos por el
estilo (uno en Lieja en 1829, otro en 1848 en Gibraltar) pero no se les había
prestado demasiada atención. Ahora, con toda la atención que se merecía, hacía
su entrada triunfal el hombre de Neandertal, especie que habitó el mundo hasta
hace unos 28 mil años atrás y que, incluso, convivió y hasta tuvo descendencia
con individuos de la especie Homo sapiens. Los neandertales
despertaron la curiosidad de todos los estudiosos del pasado humano, porque
durante mucho tiempo fueron la única otra especie humana que se conocía, pero a
pesar de que se descubrirían otras especies humanas fósiles, los neandertales siguen
siendo los más estudiados, y los que más controversias generan.
Sólo faltaban tres años para que Darwin publicara El origen de las
especies, que ordenaría conocimientos hasta entonces dispersos y colocaría
la historia del hombre en conexión con el resto de la biología, permitiendo
explicar hallazgos tan sorprendentes.
§. El origen de las especies y el origen del hombre
Si bien ya había habido algunos antecedentes (el enciclopedista romano Caius
Plinius Secundus había llamado a los grandes monos de África «hombres con cara
de animal»; Linneo había reunido a los hombres y a los simios en un mismo grupo
taxonómico, y Lamarck había insinuado la idea de un parentesco entre ambos),
con la obra de Darwin los alcances del problema cambiaron fundamentalmente. El
nexo del hombre con el resto del reino animal ya no era forzado sino que
resultaba perfectamente lógico, puesto que se lo entendía como la consecuencia
de un proceso y principio general: la evolución por selección natural. Con una
osadía abrumadora, la obra de Darwin hizo ingresar al hombre en el mundo
zoológico, al sugerir que no había nada que indicara que no estaba sujeto a las
leyes de la evolución.
Darwin, no obstante, fue prudente y esquivó como pudo un tema tan sensible,
diciendo apenas que su teoría «arrojaría un día luz sobre el origen y la
historia del hombre». Y punto. Pero otros investigadores (como Charles Lyell
—el gran geólogo, partidario del uniformitarianismo, que había ayudado a
plantear el escenario para que Darwin desplegara su teoría— y Thomas Huxley
—uno de los grandes defensores públicos de la teoría de la evolución, al punto
que se lo llamaba «el bulldog de Darwin»—) fueron más allá.
Lyell reunió pacientemente pruebas en favor de la elevada edad del género
humano, comprobada por los hallazgos del francés Jacques Boucher de Perthes,
uno de los primeros arqueólogos modernos, que había encontrado pedernales y
otros instrumentos del hombre prehistórico en sedimentos pliocénicos (de unos 3
millones de años de antigüedad).
Y si recuerdan, fue justamente Huxley quien tuvo el famoso debate con el obispo
Willberforce, quien le preguntó si descendía del mono por parte de padre o de
madre, a lo cual contestó que prefería descender del mono por parte de ambos
antes de tener el cerebro atrofiado de su interlocutor. Su obra más
importante, Evidence of Man’s Place in Nature (1863), fue una
verdadera trinchera en la historia del darwinismo. En ella, mediante cuidadosos
razonamientos basados en la anatomía y la embriología, Huxley defendía la
teoría de la evolución aunque reconocía, en contra de quien la había postulado,
la posibilidad de que en el desarrollo de la vida se hubieran producido
variaciones repentinas. La verdad es que las pruebas estaban al alcance de
cualquiera, y eso era lo que Huxley quería mostrar: en su estructura, los
esqueletos del hombre y el gorila resultaban extraordinariamente similares; al
mismo tiempo, los cerebros de los simios más desarrollados tenían menos
diferencias con los cerebros humanos que las que podían presentar con un mono
inferior (un lemúrido, por ejemplo). Y por si fuera poco, ahí estaba el famoso
cráneo del «hombre de Neandertal», que reforzaba la convicción acerca del
estrecho parentesco de nuestra especie con la de los primates.
Frente a este panorama, Darwin se vio en la obligación moral de decir algo al
respecto. En 1871, de hecho, publicó un grueso volumen (The Descent of Man
and Selection in relation to sex) en el que encaraba el problema de una
manera (¿cómo decirlo?) más políticamente correcta, al menos, para los
estándares de lo políticamente correcto en la sociedad victoriana: insistía
menos en el parentesco con los monos e intentaba posicionar a la especie humana
dentro de la clase, más general, de los mamíferos. Utilizando la extraordinaria
herramienta de la anatomía comparada, la misma de la que se había valido
Huxley, Darwin señalaba el insoslayable paralelismo entre el cuerpo del hombre
y el del resto de los mamíferos: para cada órgano humano había un órgano
equivalente en la estructura de estos últimos. Y las evidencias no se agotaban
en la anatomía, como quedaba claro por el hecho de que el resto de los
mamíferos y el hombre se mostraban vulnerables a enfermedades y parásitos en
común.
Así y todo, no era fácil aceptar que el hombre formara parte de una cadena tan
prosaica y terrenal. ¿No era evidente, acaso, que las cualidades morales e
intelectuales eran absolutamente privativas de nuestra especie? ¿Se podía
aceptar la existencia, en los animales, de algo parecido a la abstracción, la
imaginación, la generalización? ¿Eran capaces de percibir la belleza? Darwin
postulaba que, contra lo que el sentido común indicaba, todas estas facultades
no eran específicamente humanas sino que aparecían, en forma rudimentaria, en
algunos animales, para lo cual se valía de ejemplos que él mismo había vivido y
que más o menos cualquiera podía identificar: la fidelidad de los perros, el
uso de herramientas por parte de los simios, la obediencia de los elefantes, la
ayuda que ciertas aves le prestaban a sus compañeras incapaces de valerse por
sí mismas. La conclusión estaba al alcance de la vista: el ser humano
—producto, como todos, de la selección natural— tenía diferencias marcadas con
los animales, pero estas diferencias eran tan sólo de grado y
no de esencia.
Si el hombre no hubiese sido su propio clasificador, no se le habría
ocurrido crear para sí mismo un reino especial,
aseguraba.
El hombre, que por los siglos de los siglos había sido considerado el punto
culminante de la creación, el eslabón infaltable y definitivo de la Gran Cadena
del Ser, pasaba a ser uno más en la impersonal cadena evolutiva, gobernada por
la también impersonal selección natural. Una vez derribado de su pedestal, era
necesario trazar una genealogía del hombre. Y Darwin lo intentó, admitiendo que
el antepasado de los humanos pertenecía al grupo de los antropoides. En este
sentido, escribió:
Debemos reconocer, a lo que creo, que el ser humano, con sus nobles
cualidades, con la consideración que siente por lo más desdichado, con la
benevolencia que demuestra no sólo para sus semejantes y simpatía para con los
seres vivientes más humildes, con su divina inteligencia que le permitió
descubrir los movimientos y la constitución del sistema solar, debemos
reconocer que con todas estas sublimes facultades el hombre lleva en su
estructura somática el sello indeleble de su humilde origen.
§. Y mientras tanto…
Los hallazgos fósiles se multiplicaron: en 1891 Eugène Dubois encontró al
hombre de Java (Homo erectus, de casi 2 millones de años de antigüedad)
y, entre 1921 y 1937, al hombre de Pekín (de entre 500 mil y 200 mil años de
antigüedad). Poco a poco, la idea de que el hombre era mucho más ancestral de
lo que se creía, iba acumulando evidencias y la paleoantropología empezaba a
constituirse en una ciencia independiente. Por si fuera poco, en gran Bretaña
apareció un esqueleto, anterior al de Java y al de Neandertal, que enardeció a
los paleoantropólogos británicos y pareció aportar evidencias incontrastables.
La historia fue la siguiente: en 1912, un abogado y arqueólogo aficionado
llamado Charles Dawson se presentó ante Arthur Smith Woodward, director del
Departamento de Geología del Museo Británico, y le mostró fragmentos fósiles de
un cráneo desenterrado en una cantera de arcilla en Piltdown, Sussex
(Inglaterra). Los huesos, desgastados y coloreados, parecían proceder de
arcillas muy antiguas, aunque la forma del cráneo era bastante moderna.
Muy excitado, Smith Woodward acompañó a Dawson a Piltdown y allí, junto al
padre Teilhard de Chardin (que había ido a Inglaterra para estudiar en el
colegio jesuita de Hastings), se puso a revolver los escombros: tanto buscar
tuvo su recompensa y un buen día apareció una mandíbula inferior. Estaba
también coloreada. Pero así como el cráneo de Piltdown era sorprendentemente
humano, la mandíbula se parecía demasiado a la de un mono (aunque tenía dos
molares desgastados de una manera que nunca aparece en los monos y sí en los
humanos). Lamentablemente, faltaban las partes que podían establecer sin ningún
tipo de dudas la pertenencia o no al cráneo.
El cráneo muy humano y la mandíbula muy simiesca formaban una extraña
conjunción. En 1912, Smith Woodward y Dawson expusieron públicamente sus
hallazgos ante la Sociedad Geológica de Londres. No todo el mundo les creyó,
pero la opinión general les fue favorable. Y si algo faltaba para convencer a
los incrédulos, se produjo otra serie de descubrimientos: en 1913 el padre
Teilhard encontró un diente canino que, otra vez, aunque de apariencia
simiesca, estaba desgastado muy humanamente. Y para aventar cualquier duda, en
1915 Dawson mostró una mezcla semejante de cráneo humano y mandíbula de mono
hallada en una excavación cercana a Piltdown. Así fue como el Hombre de
Piltdown adquirió carta de ciudadanía, se le asignó un nombre científico que
honraba a su descubridor (Eoanthropus dawsoni), se le atribuyó una
antigüedad de 800 mil años, y se llegó a considerar, con sorpresa, que el Homo
sapiens descendía de él.
Sin embargo, una buena cantidad de antropólogos mantuvo sus dudas: los años,
mientras tanto, pasaron, y con el paso de los años las técnicas de datación
mejoraron. Hasta que en 1953 se sometieron los restos a una prueba crucial. Los
huesos que permanecen enterrados mucho tiempo gradualmente acumulan flúor. W.
E. Le Gros y J. E. Weiner, de Oxford, examinaron los fósiles de Piltdown y
descubrieron que no contenían suficiente flúor: el cráneo —se reveló
finalmente— era realmente un fósil, pero de apenas 50 mil años, como se
encuentran a carradas en muchas partes. La mandíbula, en cambio, era lisa y
llanamente de orangután. Cráneo y mandíbula habían sido enterrados en el siglo
XX. En suma, era una perfecta farsa científica.
Ulteriores exámenes mostraron que los huesos habían sido teñidos recientemente,
y que los dientes habían sido limados con cuidado para darles aspecto humano.
Todo había sido meticulosamente preparado para engañar a la comunidad
científica, cosa que se logró acabadamente.
¿Pero quién lo había hecho? ¿Dawson (el más sospechoso), para acceder a la
fama? ¿Smith Woodward (que parecía insospechable)? ¿Teilhard de Chardin, que
gastó una broma de estudiante? ¿Los tres, de común acuerdo? El armado de los
huesos exigía una mano profesional: ¿hubo un «cuarto hombre» en complicidad con
los tres o sin ella? Los paleontólogos aficionados a las historias policiales
barajaron acusaciones, pero la verdad de la milanesa es que el autor del fraude
de Piltdown quedó en el misterio, a pesar de la abundancia de sospechosos.
§. El cuarto hombre: posdata a Piltdown
El 23 de mayo de 1996, la revista Nature relataba la solución
del misterio de Piltdown. Resultó que en 1978 apareció un baúl que había
permanecido cincuenta años guardado en los desvanes del Museo de Historia
Natural de Londres. Su contenido fue cuidadosamente catalogado por Andrew
Currant, del Departamento de Paleontología del museo; y hete aquí que el baúl
contenía trozos de huesos y dientes tallados y teñidos exactamente igual que la
colección de Piltdown. No era necesario ser Sherlock Holmes para sospechar del
dueño del baúl. Tampoco era necesario ser Sherlock Holmes para deducir que las
iniciales que figuraban en el baúl eran las de su dueño, Martin Hinton,
conservador de zoología del Museo entre 1912 y 1945. Lo extraño del asunto es
que el baúl, después, se extravió. Y también que recién en 1990 Currant habló
del asunto con Brian Gardiner del Kings College londinense, paleontólogo
interesado desde hacía años en el caso Piltdown.
Martin Hinton era un experto en geología de la era glacial y reunía
perfectamente las características necesarias para cometer el fraude. Las
pruebas eran cantadas: los huesos contenidos en el baúl de Hinton contenían
hierro y manganeso en las mismas proporciones que se habían usado para «tratar»
los huesos de Piltdown. Y además había rastros de cromo, que bajo la forma de
ácido crómico se había usado para desgastar la superficie del hueso. Incluso
había un móvil: Hinton mantenía una desavenencia con el director del museo.
Todas las piezas encajaban y así, finalmente, resultó que no había sido Dawson,
ni Woodward, ni Teilhard de Chardin, ni los tres de común acuerdo.
Y, sin embargo, no todos los «especialistas» en el caso Piltdown comparten esta
certeza de la culpabilidad de Hinton: hay quienes sugieren que, por lo menos,
hubo complicidad de Dawson, o que tal vez Dawson falsificó y Hinton lo
descubrió y no dijo nada. Quienes así opinan y quieren alargar el caso Piltdown
saben perfectamente que las soluciones rara vez están a la altura de los
misterios.
§. Las huellas de Laetoli
No quiero cansarlos con la enorme lista de descubrimientos que llevó a
construir la todavía incompleta genealogía del hombre, que se complejiza más a
medida que se van desenterrando piezas que completan el registro fósil. Pero sí
quisiera hablarles de uno de los hallazgos más impresionantes de esta historia:
el de las huellas de Laetoli.
En el verano de 1978, en Laetoli, una localidad en el sur de Tanzania, un grupo
de investigadores encontró una serie de huellas dejadas sobre las cenizas
volcánicas hace más de tres millones y medio de años, por dos o quizás tres
homínidos.
Huellas de Laetoli
Las huellas se habían conservado gracias al trabajo silencioso y
permanente de la casualidad: aquellos homínidos caminaban sobre un manto de
cenizas —procedentes de la erupción de un volcán, el Sadimán, un poco más al
Este— que se había impregnado de agua de lluvia durante un día, al final de la
estación seca. Si hubiera habido hierba alta, las cenizas no hubieran podido
posarse de manera tan uniforme; la hierba había sido comida, de hecho, por
diversos animales (cuyas huellas también se encontraron).
Pero… ¿Quiénes eran estos dos o tres individuos? Las dos filas de pasos
muestran claramente huellas distintas: más grandes y más pesadas las de la
derecha, más pequeñas y ligeras las de la izquierda, lo cual permite pensar que
las primeras pertenecían a un macho y las segundas a una hembra. El rastro se
extiende a lo largo de unos cincuenta metros, y son dos filas paralelas
distanciadas sólo veinticinco centímetros.
Las huellas podrían indicar o bien que iban muy pegados (de la
mano, prácticamente) o bien que los homínidos pasaron por allí en momentos
distintos: de hecho, la primera fila (la de la derecha) está bordeada de
salpicaduras, como si hubiera sido dejada sobre un terreno más fangoso,
mientras que la segunda (la de la izquierda) aparece más definida, como si
hubiera sido hecha sobre un terreno un poco más endurecido.
Pero además, como ya lo dije, hay quien ve una tercera fila de pasos, contenida
exactamente en el interior de la primera, como si alguien hubiera vuelto a
pasar por las huellas de quien lo precedía. Se ha hecho otra interesante
observación acerca de las huellas de la izquierda: se tiene la impresión, al
observarlas, de que el homínido se hubiera detenido en un momento dado y girado
hacia la izquierda.
La longitud del paso era de unos 38 centímetros, y la altura de estos homínidos
ha sido calculada entre 120 y 140 centímetros (ligeramente inferior a la de los
pigmeos actuales). Lo más impresionante es que, gracias a la «fotogrametría»
(que consiste en cartografiar los distintos niveles, como se hace para los
mapas geográficos que describen las distintas cotas de una montaña o de un
valle), se pudo confirmar que el modo de caminar de los hombres de Laetoli era
absolutamente semejante al nuestro: con los mismos puntos de apoyo (el talón y
la cabeza del primer metatarso), con el arco de la planta elevado y el pulgar
alineado, no oponible.
En suma, se trataba de una huella ya de tipo humano, a pesar de que ciertamente
existían diferencias en la estructura ósea. Lo cual significaba ni más ni menos
que hace 3,7 millones de años la posición erecta estaba ya perfectamente
adquirida.
¿Pero quiénes eran estos homínidos?
§. Lucy en el África con diamantes
Cuando el escritor norteamericano Alexander Haley emprendió la búsqueda más
tarde reflejada en la serie televisiva y el libro Raíces de
sus orígenes africanos, apuntaba en la dirección correcta, y en más de un
sentido, puesto que, según indica cada vez con mayor firmeza la investigación
moderna, no sólo la familia de Haley sino toda la especie humana desciende de
antepasados que corretearon por el este de África.
Lucy
El cómo y el cuándo de la evolución
del hombre fue objeto de múltiples controversias y el árbol evolutivo fue
corregido muchas veces, pero a medida que las ramas se afinan, las raíces
parecen hundirse cada vez más firmemente en el suelo africano.
El gran descubrimiento que apuntaló esta hipótesis se produjo en 1977, cuando
un equipo de investigadores dirigido por el estadounidense Donald Johanson
exhumó en el desierto de Etiopía un esqueleto del sexo femenino que fue llamado
gentilmente «Lucy». Se trataba de una dama homínida (prehumana) de la
especie Australopitecus afarensis y de tres a cuatro millones
de años de edad; fósiles similares encontrados más tarde mostraron que fueron
justamente estos Australopitecus los que dejaron las huellas
de Laetoli. La evidencia que surge de técnicas de filiación genéticas ayudó a
reconstruir y precisar los pasos con que la línea evolutiva de los primates
emprendió el largo camino que la llevaría hasta los ejemplares modernos y lo
cierto es que, según se cree, la cuna del hombre está situada en África, en
algún lugar entre Etiopía y Tanzania.
El valle del Rift
Relatada por la paleontología actual, la historia fue más o menos así:
hace siete u ocho millones de años, se formó el macizo montañoso a lo largo del
valle del Rift, una enorme fractura de tres mil kilómetros que barre el África
oriental de Norte a Sur, provocando un consiguiente caos y transformación
climática: en particular, las selvas del oeste africano se transformaron en
sabanas y los grandes simios, aislados a causa de la recién estrenada cadena
montañosa, con tenacidad y disciplina darwiniana empezaron a evolucionar
adaptándose al nuevo medio ambiente, adoptando costumbres de sabana. Una de
ellas fue la postura bípeda, primera característica de los homínidos, muy útil
para la supervivencia en tanto permite una mejor vigilancia en el espacio
abierto.
En tres o cuatro millones de años habían conseguido alcanzar el estatus
de Australopitecus—el pueblo de Lucy—, mientras sus parientes, los
grandes simios del otro lado de la cadena del Rift, sin semejantes problemas de
adaptación, evolucionaban con modestia hacia los chimpancés y los gorilas
actuales.
Todavía faltaba un millón de años para que naciera Lucy, pero ya empezaban a
definirse las características de la población a la que perteneció: menos de un
metro veinte de altura, andar en dos pies, grandes mandíbulas, cerebro pequeño.
A partir de entonces, la película se aceleró. Hace tres millones de años, el
pueblo de Lucy divergió en dos líneas: una de ellas se quedó en Australopitecus,
una rama sin salida, que vivió y se extinguió en África.
El otro ramal tuvo mejor suerte: en sólo medio millón de años evolucionó hasta
dar el Homo habilis, capaz de fabricar grandes cantidades de
herramientas de piedra. Un millón de años después, el Homo habilis,
que habitó lo que hoy son Etiopía, Kenya, Tanzania y Sudáfrica, dio paso
al Homo erectus, que caminaba ya en posición erguida como la
nuestra: en 1985 se desenterró el esqueleto de un chico de once años — el
«muchacho de Turkana»—, que vivió y murió hace un millón seiscientos mil años.
Para esa época, o quizás un poco antes, el Homo erectus ya
había tomado la decisión de emigrar. Con su nueva posición erguida, que le
permitía ver más y más lejos, quiso visitar y conocer nuevas tierras.
Así, aún nostálgico de sus praderas africanas, estableció campamentos fuera de
África: hace un millón de años, ya había poblaciones de Homo erectus en
Europa, Asia e Indonesia (se han detectado restos fósiles en Georgia de un
millón ochocientos mil años de antigüedad, aunque la datación aún se discute).
Hasta aquí estaba todo más o menos claro. Pero, como siempre ocurre en la
historia del pensamiento, pronto surgió un nuevo problema: ¿fueron esos Homo
erectus migratorios los que evolucionaron en distintos sitios hasta
dar el hombre moderno, o, en realidad, el hombre moderno surgió en un solo
lugar y luego se esparció, barriendo a su paso con cuanto homínido u Homo
erectus encontró?
§. El Arca de Noé y el Candelabro
Las opiniones en este punto no coinciden. Según la «hipótesis del candelabro»
(elaborada por Franz Weidenrech en los cuarenta) el Homo erectus se
distribuyó en Eurasia y evolucionó por su cuenta, en distintos lugares y de
distintas maneras hasta dar el hombre moderno (precisamente como las ramas de
un candelabro). Es muy probable, de hecho, que las distintas poblaciones
de Homo erectus evolucionaran en distintas partes y dieran los
primeros ejemplares de Homo sapiens —una de estas variedades
fue nuestro conocido hombre de Neandertal, que vivía en cavernas y conocía el
fuego, y tenía una cultura sofisticada, además de una inteligencia —medida en capacidad
craneal— semejante a la nuestra. Los neandertales son nuestros primos más
cercanos.
Árbol genealógico de los homínidos
Por el contrario, la hipótesis del «Arca de Noé» supone que el hombre
moderno evolucionó a partir de una sola población que luego se propagó. Ésta es
la opinión más difundida entre los científicos y hoy se acepta en general que
descendemos de una única rama de Homo sapiens que hace
doscientos mil años se originó en África y luego emigró al resto de los
continentes.
El hombre actual, el Homo sapiens, no desciende del hombre de
Neandertal (que se extinguió hace treinta mil años), ni de las diversas
variantes de Homo distribuidas por Eurasia. Para buscar sus
orígenes, como en el caso del autor de Raíces, hay que regresar al
África.
Allí, en algún momento situado entre doscientos y cien mil años atrás, el Homo
sapiens sapiens se abrió al fin paso a través de la maraña
prehistórica, a partir de una única población de Homo sapiens local,
y se preparó para iniciar la conquista del planeta. Hace cuarenta mil años, el
hombre africano ponía por primera vez su pie en Europa y colonizaba Asia y
Australia; hace doce mil años (aunque la cifra es discutible y hay quienes la
remontan a treinta y tres mil) se instalaba en América. Según parece, no fue
una conquista con desplazamientos forzosos y exterminios (como suelen ser las
conquistas): hoy se acepta que, por el contrario, hubo mucho intercambio entre
las distintas poblaciones. El Homo sapiens, como dije en su
momento, convivió con los neandertales en Medio Oriente durante miles de años,
en los cuales no puede dejar de haber habido intercambios de todo tipo. De
hecho, hasta tenemos genes neandertales: de esos intercambios (no sólo con los
neandertales sino con las otras especies o subespecies) se formó el pool
genético del hombre moderno.
Somos una sola especie que navega hacia el futuro, y cada día nos conecta con
toda nuestra historia, que se inició en la noche de los tiempos. No sabemos del
todo de dónde venían los homínidos que dejaron las huellas de Laetoli, pero
sabemos bien hacia dónde se dirigían: aunque no de manera lineal, hacia hoy.
§. El tiempo, un acompañante escurridizo
La cosmología, la geología y la teoría de la evolución nos han acostumbrado a
períodos de tiempo larguísimos: quince a veinte mil millones de años desde el
comienzo del universo, cinco mil millones de años desde el nacimiento del Sol,
centenares de millones de años para la evolución de las especies o sesenta y
cinco millones de años desde que se extinguieron los dinosaurios. Aun una cifra
tan modesta como el millón de años que abarca la historia del hombre hace
palidecer a cualquier lapso al que estemos acostumbrados en la vida cotidiana,
y logra que el debate sobre si la duración de un mandato presidencial debe ser
de seis o de cuatro años parezca ridículo. Lo cierto es que esos períodos de
tiempo de seis cifras o más muchas veces resultan abstractos y difíciles de
palpar intuitivamente. Por eso, es un divertido ejercicio alterar las escalas
temporales hasta términos cotidianos y tratar de imaginar con esos límites la
evolución de la vida. Así, podemos comprimir los cuatro mil millones de años de
historia de la Tierra en el familiar período de trescientos sesenta y cinco
días y ver cómo se desarrolla el proceso de evolución de las especies en esa
escala, en la que un mes representa trescientos treinta millones de años, un
día once millones, y un milenio se reduce a apenas ocho segundos.
Fijemos, pues, la formación de nuestro planeta a la cero hora del primero de
enero. Durante la mayor parte del año que hemos adoptado como marco sólo habrá
formas esquemáticas de vida, apenas moléculas capaces de duplicarse, aunque en
abril ya encontramos bacterias y en junio probablemente organismos
unicelulares. Recién a principios de octubre aparecen los organismos
multicelulares, y hay que esperar un mes y algunos días más para los primeros
vertebrados. El veinte de noviembre ya encontramos peces en los mares
primitivos. Alrededor del primero de diciembre se produce un gran salto en la
evolución: algunos peces abandonan el mar, y empiezan la colonización de la
tierra firme. Aquellos esforzados pioneros, sometidos a las poderosas fuerzas
de la selección natural, cambian y se transforman en animales enteramente
nuevos, los reptiles, que hacia el diez de diciembre inician su epopeya, dando
origen a muchas líneas evolutivas: lagartos y serpientes, tortugas, cocodrilos,
dinosaurios y pájaros, y una novedosa línea de productos biológicos que tiene
especial interés para nosotros. Hacia el 14 de diciembre, los mamíferos entran
en acción. Al principio, poca, ya que por un largo período de veinte días el
mundo es de los dinosaurios, que son la forma prevalente hasta que, por causas
todavía oscuras, se extinguen para la Navidad: el veinticinco de diciembre los
dinosaurios abandonan la escena y los mamíferos heredan la Tierra.
Ahora todo se acelera: los mamíferos crecen y se diversifican. El veintiocho de
diciembre aparecen los monos y antropoides. Pero hay que esperar hasta las tres
de la tarde del treinta y uno de diciembre (¡el último día del año!) para que
el tronco principal de los primates se bifurque por última vez y la rama
evolutiva del hombre se perfile con cierta claridad.
A las cinco de esa tarde decisiva, los primeros homínidos alumbran en el
horizonte y empiezan sus correrías por el norte de África; a las ocho menos
veinte hace su entrada el Homo habilis, capaz de fabricar
herramientas de piedra, y dos horas después el Homo erectus. A las
once y media de la noche de ese 31 de diciembre, ya tenemos al Homo
sapiens, pero sólo a las doce menos cuarto aparece el hombre completamente
moderno que, desde el norte de África, empieza a expandirse por el mundo. El
resto es historia: a las 11:58 de la noche se pintan las cuevas de Altamira; a
las 11:59:23 se construyen las pirámides de Egipto; a las 11:59:40 se funda
Roma, a las 11:59:52, Guillermo el Conquistador invade Inglaterra y derrota a
Haroldo en la batalla de Hastings; cuando faltan sólo tres segundos y medio
para la medianoche, Colón se embarca en el Puerto de Palos.
A las 11:59:59 y cuatro décimas de segundo estalla la Primera Guerra Mundial. A
las doce de la noche del 31 de diciembre, Neil Armstrong pone su pie sobre la
Luna. Es el 20 de julio de 1969.
Interludio:
Éxodo
Porque un día salimos del África, tanteando,
la piel desconocida del planeta.
Buscábamos el mar, para embarcarnos,
el aire, para volar sobre las nubes,
la tierra para arar, la mies, el fruto,
las máquinas, el fuego. La escritura,
y el cable que transporta las palabras.
Y un día nos despedimos en un sitio.
Aquí o allá fue, en cualquier milenio.
¿Qué se hizo
de aquel amigo, de aquella tribu emparentada,
que tomó hacia el sur en un cruce de caminos,
y de quienes nunca más se supo nada?
¿Qué fue de mis primos que esa tarde
decidieron quedarse en la caverna
cuando todos partimos a otras tierras
con más sol, más hierro, o mejor vino?
¿Qué se hizo de aquel grupo de familias,
que cruzaron el río y no volvieron nunca?
¿Y esa gente,
que fabricó una canoa y se alejó por el mar?
Hoy regresamos al África, poblada
de hermanos que una vez se despidieron
por un siglo, un milenio, y no volvieron.
Anhelante,
cada palabra, cada letra que pelea
por vivir reconstruye aquella aldea,
donde aún late tu nombre
en cada instante.
Capítulo 39
La estructura del universo y la teoría del Big Bang
Nos estamos acercando al final y, como al principio, nos volvemos hacia
el cielo y su estructura, que fue el primer lugar adonde los hombres dirigieron
su curiosidad ayudados con los toscos elementos que tenían (cuando no a simple
vista), y lograron conseguir, aun en esas condiciones, resultados asombrosos.
Pero ahora, la Big Science (la ciencia a gran escala) y la
explosión de prodigiosos aparatos nos permiten echar una mirada y tratar de
comprender la estructura a gran escala del universo, alcanzando horizontes que
ni Hiparco, ni Tolomeo, ni el gran Copérnico, ni Tycho, ni Kepler soñaron en
sus divagaciones y anhelos más fantasiosos.
Y me parece que para esa excursión a los confines del espacio y el tiempo, nada
mejor que empezar por nuestra estrella, el Sol, y su esforzada vida.
I. La estructura del universo
§. El Sol
Arpa soy, salterio soy
donde vive el universo.
Vengo del Sol y al Sol voy.
Soy el amor, soy el verso.
JOSÉ MARTÍ
El sol no puede hacer huelga ni tomar vacaciones y sin embargo sus
condiciones de trabajo son penosas: no cobra sueldo aunque produzca con pasmosa
eficiencia y sólo le cabe esperar una muerte segura como premio a sus
esfuerzos. Por empezar, se ocupa de atraer a los planetas y mantener al sistema
solar en funcionamiento. Esta menuda faena gravitatoria es relativamente fácil
(al fin y al cabo todos los cuerpos del universo la cumplen) si se la compara
con la titánica tarea de brillar. Atraer, el sol atrae de taquito. Brillar, son
palabras mayores. Y aunque cueste rendirse a la evidencia, hay que reconocer
que el Sol está lejos de pertenecer al sector servicios; muy por el contrario,
trabaja en uno de los sectores básicos de la economía estelar: la producción de
energía, de la cual, como una especie de aristocracia parásita, nosotros y
todos los seres de la Tierra vivimos y nos desarrollamos (cuando nos dejan).
A primera vista, la estructura del Sol no parece gran cosa: no es sino una
enorme esfera de gas de 1.400.000 kilómetros de diámetro, compuesta casi
exclusivamente por los dos materiales más simples del mundo: hidrógeno (73,5 %)
y helio (24,8%). Apenas un 3%, y aun menos, queda para el resto de los
elementos, en especial el carbono y el oxígeno.
Pero ese paisaje en apariencia sencillo encubre el desarrollo de un drama. Bajo
la acción de su propio peso, que las arrastra hacia el centro, las capas
exteriores comprimen a las interiores, y esta compresión de las capas
interiores produce en el centro del astro una escalada de presión y temperatura
que alcanza valores de pesadilla (los modestos 6.000 grados de la superficie
solar remontan hasta veinte millones de grados o más en el núcleo): en
semejante ambiente, nadie puede razonablemente pretender que la materia
mantenga su compostura. Los núcleos atómicos, de hecho, se aplastan unos contra
otros y se desencadenan reacciones nucleares: dos núcleos de hidrógeno se
funden para formar uno de helio.
El detalle pintoresco es que la masa final (la del núcleo de helio) es
ligeramente inferior a la suma de las masas (de hidrógeno) empleadas para
formarla. La masa que falta se evaporó en forma de energía, según la célebre
formula einsteiniana (e = mc2).
Cada segundo, el Sol cocina seiscientos treinta millones de toneladas de
hidrógeno transformándolas en helio. De esa enorme suma, cada segundo, también,
cuatro millones seiscientas mil toneladas desaparecen para proveer la energía
solar.
Fusionar hidrógeno para fabricar helio (el mismo proceso que, en pequeño, el
hombre ha conseguido reproducir en la bomba de hidrógeno, que es una especie de
sol en miniatura) convierte al Sol en un horno nuclear a escala cósmica. Mal
que nos pese, ése es el secreto del Sol y ésas son las condiciones de su vida.
Ahora bien… ¿Hasta cuándo puede durar tamaño despilfarro? Porque el hidrógeno
es la materia prima que ha sostenido a la estrella desde su nacimiento, hace
cinco mil millones de años, pero la provisión de hidrógeno, si bien muy grande,
no puede ser eterna.
Y no lo es: dentro de unos cinco mil millones de años llegará el momento fatal
en que todo el hidrógeno se habrá consumido en cenizas de helio, y el Sol se
quedará sin combustible. Ese día comenzará la muerte de este esforzado
integrante del proletariado estelar, al que sólo por desconocimiento de los
procesos nucleares se confirió durante siglos el atributo de la inmortalidad y
los oropeles de la monarquía. Primero se expandirá (hasta convertirse en una
Gigante Roja que se extenderá hasta alcanzar más o menos la órbita de Marte),
luego tendrá un breve chispazo de vida, cuando las temperaturas permitan que
arda el helio, transformándose en carbono, y, luego, la gravitación retomará su
tarea: el Sol se contraerá hasta convertirse en una enana blanca, o quizás en
una estrella de neutrones. Pero no veremos al astro rey caer de su trono: la
Tierra, como Mercurio y Venus, se habrá evaporado hace mucho. Podría ser peor.
La muerte del Sol será lenta y continua; no habrá, según se sabe hasta ahora,
ni novas ni supernovas ni malos comportamientos que supongan un brusco
Apocalipsis. Sólo un lento, caliente y largo momento final.
§. Muerte y transfiguración de las estrellas
Cuentan que un astrofísico estaba contando estas cosas en una conferencia, y
cuando habló de la muerte del Sol una viejita muy viejita que estaba entre el
público, empezó a gritar « ¡ay, no!, ¡ay no!». Y se desmayó. Cuando
consiguieron reanimarla, el conferencista le aclaró: «Señora, esto ocurrirá
dentro de cinco mil millones de años. Cinco mil millones de años, ¿me
entiende?».
La viejita suspiró aliviada. «Ah…. Menos mal. Yo había entendido mil millones
de años».
El Sol es una máquina —o un motor, como prefieran ustedes—, y el resto de las
estrellas son máquinas o motores más o menos parecidos cuyo funcionamiento y
evolución dependen de su masa. Como en el Sol, el combustible de fondo es ni
más ni menos que la energía gravitatoria, el mero peso, que trata de comprimir
el centro y cuyo resultado son millones de grados de temperatura, suficientes
para fundir el hidrógeno en helio, proceso que irradia calor y luz suficientes
como para contener la presión gravitatoria. Y como el sol, se formaron a partir
de grandes nubes de gas y polvo que se contrajeron por efecto de la gravedad.
Si es cierto que la vida de una estrella de cine es una lucha constante contra
los periodistas que la acosan y está plagada de escándalos, divorcios y
reconciliaciones, la vida de una estrella de verdad es una lucha no menos
permanente, esta vez contra la gravitación, que pretende aplastarla contra su
centro. Las capas exteriores de una estrella presionan sobre las interiores,
que a su vez empujan a las que tienen la desgracia de encontrarse todavía más
cerca del centro, y entre todas, tratan de que el astro se derrumbe sobre sí
mismo y quede reducido, si esto fuera posible, a un mero punto. Si el destino
de una estrella de cine depende de su suerte (y en cierta medida —no mucha— de
su talento), el destino de una estrella de verdad depende de su masa, es decir,
de la cantidad de materia que contenga. Es ésta la que decidirá si ha de
terminar su carrera con una gigantesca explosión o se enfriará pacíficamente
hasta ser olvidada, entre otras alternativas no menos interesantes.
Cuando el hidrógeno se acaba y los procesos nucleares ya no pueden sostenerla,
la fuerza gravitatoria recupera la iniciativa y mientras las capas más
exteriores la abandonan y se expanden, la estrella comienza inexorablemente a
contraerse y elevar aún más su temperatura hasta que el helio empieza a
fusionarse en elementos más pesados. Aquí es donde entra a jugar la masa,
porque es justamente el peso de la estrella sobre su centro el que determina
las temperaturas que se podrán alcanzar y lo que ha de ocurrir a continuación.
Si la estrella es pequeña (si tiene una masa menor que ocho masas solares —el
obvio caso del Sol—), se enfriará pacíficamente hasta convertirse en una enana
blanca, una estrella pequeña y olvidable; si se trata de una estrella masiva,
los sucesos se precipitan y estallará una supernova.
Al terminarse el hidrógeno, la radiación liberada hacia afuera disminuye y la
presión gravitatoria, ni lenta ni perezosa, empieza a predominar, haciendo que
el núcleo de la estrella se contraiga. Hasta aquí, sabemos todo: se fusiona el
helio, que forma carbono; se fusiona luego el carbono, que da neón, oxígeno y
silicio. Pero cada vez la energía liberada es menor y, por lo tanto, es menor
la fuerza con la que se contrarresta la presión de la masa estelar. El último
acto del drama nuclear empieza cuando se fusiona el silicio para dar núcleos de
hierro, lo cual sólo puede ocurrir en estrellas muy masivas (más de diez masas
solares). Y ése es ya el final, porque el hierro es muy estable, y ya no puede
fundirse a su vez en elementos más pesados. La estrella no puede ir más allá, y
las campanas empiezan a doblar por ella.
La fusión del silicio en hierro es muy rápida: en un día ya tenemos un núcleo
de hierro perfectamente formado. Pero como en el núcleo de hierro ya no se
produce energía como para detener a la enorme masa de la estrella, toda la
materia se precipita hacia el centro, comprimiéndolo hasta densidades
equiparables a las de un núcleo atómico: en este punto insoportable, la
estrella hace un último intento por resistir y por un micro instante el proceso
se detiene, produciendo ondas de sonido que viajan a través del material de la
estrella, se alcanzan unas a otras y se acumulan a una cierta distancia del
centro, que se denomina «punto sónico», mientras el núcleo desarrolla sus
últimas defensas: la materia ofrece una fugaz resistencia, cede, se comprime
más allá de sus posibilidades, y luego rebota (como un pedazo de goma que uno
comprime y luego vuelve a su posición inicial): este ida y vuelta del núcleo
ultra comprimido agrega nuevas ondas que se suman al «punto sónico», y, ahora
sí, todas ellas se empaquetan en el fenómeno que se conoce como «onda de
choque»: una violenta discontinuidad en la presión, que se propaga a través de
la estrella hacia afuera, a una velocidad de cincuenta mil
kilómetros por segundo, arrancando materia y provocando una pavorosa explosión
que la puede hacer brillar como una galaxia entera: una supernova. El noventa
por ciento del material que compone la estrella vuela por el espacio, y en el
centro queda una pequeña estrella de neutrones contrayéndose o bien un agujero
negro.
Todo el proceso, desde el comienzo del colapso, duró alrededor de un
milésimo de segundo
Las estrellas de neutrones son un amontonamiento de neutrones —de ahí su
nombre—y muy chicas (tienen un radio de unas pocas decenas de kilómetros) pero
terriblemente comprimidas y en rapidísima rotación: en esos diez o veinte
kilómetros de radio se condensan masas de hasta dos veces la masa solar, de
modo que una cucharada de materia neutrónica pesaría miles de millones de
kilos. Y estas estrellas tienen campos magnéticos particularmente intensos que
generan un chorro de emisión en los polos magnéticos: al rotar la estrella,
quedamos bañados periódicamente en ese chorro electromagnético, de la misma
manera que un barco recibe periódicamente los impulsos luminosos de un faro que
gira. Por eso se los llama púlsares.
Los púlsares, dicho sea de paso, tienen una curiosa historia: desde ya, fueron
descubiertos antes que las estrellas de neutrones: en febrero de 1968, y en
casi todas partes, la prensa publicó que un grupo de astrónomos había recibido
señales de radio procedentes de una civilización extraterrestre; en la
Argentina, un periódico tituló en primera página: «NOS LLAMAN».
La verdad de la milanesa era que en la revista inglesa Nature (una
de las revistas científicas más prestigiosas del mundo) había salido un
artículo donde un grupo de astrónomos de Cambridge informaba haber recibido
señales de radio, a intervalos regulares, y con muy alta frecuencia (varias
veces por segundo), y que hasta cierto punto habían jugado con la idea de
señales inteligentes, pero muy pronto la desecharon.
Aunque el sensacionalismo de la noticia se disipó rápidamente, el misterio de
los «púlsares», como se dio en llamarlos, subsistió por un tiempo. La enorme
frecuencia de las pulsaciones, que podía alcanzar centenares de pulsos por
segundo, indicaba que las fuentes eran objetos muy pequeños, de no más de
treinta kilómetros de radio, en algunos casos. ¿Qué podían ser? Unos meses más
tarde, dos jóvenes astrónomos, examinando minuciosamente las estrellas en la
zona de la Nebulosa del Cangrejo (resto de la supernova observada por los
chinos en el año 1054), donde latía un púlsar a razón de treinta veces por
segundo, finalmente lograron que el primer púlsar (del puñado conocido hasta
entonces, y que sólo se habían manifestado en ondas de radio) se hiciera
visible. Era una estrella de neutrones en rapidísima rotación.
No todo es muerte, sin embargo, en una supernova: también hay transfiguración.
La materia lanzada al espacio servirá para formar nuevas estrellas. Los átomos
de carbono que forman nuestros cuerpos se cocinaron alguna vez en alguna
estrella primitiva y fueron reciclados por una supernova. En cierto sentido,
las supernovas son una central de distribución de materiales y constituyen,
así, una palanca clave de la evolución y la ecología del universo. Somos lo que
somos porque alguna vez una supernova arrojó al espacio los átomos que nos
constituyen, y, aunque sólo sea por eso, nos deberían resultar simpáticas.
§. Lentes gravitacionales
Con el triunfo de la Teoría General de la Relatividad la imagen del universo
cambió: ya estaba abierto el camino hacia el Big Bang y los agujeros negros, y
también hacia las lentes gravitacionales.
Una lente óptica no es más que un vidrio capaz de desviar los rayos de luz.
Cuando una lupa amplifica un objeto (por ejemplo, una cucaracha), el vidrio,
por sus propiedades y su forma, separa los rayos provenientes del dignísimo
insecto de tal manera que lo vemos más grande. Una lente gravitacional hace
parecidas piruetas luminosas, sólo que a escala cósmica y sin intervención de
cucarachas ni vidrios: son objetos estelares los que participan del proceso, y
el motivo por el cual la luz cambia de rumbo es la gravitación de algún astro,
o conjunto de astros masivos (galaxia, grupo de galaxias) situados entre el
objeto a observar y nosotros.
Lente gravitacional
Aunque previstas teóricamente desde los años treinta, las lentes
gravitacionales, sin embargo, se hicieron esperar: la primera fue descubierta,
y casi por casualidad, el 29 de marzo de 1979, por D. Wars y R. Croswell en
Inglaterra y R. Weimar en los Estados Unidos. Estos caballeros estaban tratando
de ubicar ópticamente (mediante telescopio) el origen de una emisión
electromagnética detectada por los radares (la radiofuente 0957+561). No había
más que dos candidatos: dos quásares (objetos muy alejados, puntuales y
brillantes), ambos de igual luminosidad y características casi idénticas,
separados apenas por 6 segundos de arco. ¿Por cuál decidirse?
Venía casi servida una audaz y salomónica conclusión: ni un quásar ni el otro.
En realidad, ambas imágenes correspondían a un mismo quásar.
Algún objeto masivo, ubicado entre el quásar emisor y nosotros como un
gigantesco vidrio estelar, separaba en dos el rayo puntual emitido por el
quásar mostrando al telescopio óptico dos quásares donde había
sólo uno, de la misma manera que una piedra colocada apropiadamente separa en
dos el hilo de agua que cae por la ladera de una montaña, haciendo creer a un
observador que hay dos fuentes de agua en vez de una. Ulteriores observaciones
confirmaron la hipótesis: una galaxia elíptica poco brillante era la
responsable del fenómeno. Interpuesta en la trayectoria de la luz emitida por
el quásar, su enorme poder gravitatorio curvaba el rayo obligándolo a dividirse
para contornearla, de tal manera que los investigadores recibían dos rayos
distintos y, en consecuencia, veían dos imágenes de un objeto único. Es decir,
una verdadera lente.
Después de esta primera aparición, se descubrieron varias lentes
gravitacionales más, objetos estelares verdaderamente extraños. Aunque no tanto
como los agujeros negros.
§. Agujeros negros
Como vemos, la astronomía contemporánea pobló el pacífico universo de nuestros
antepasados con una fauna exótica: frente a las estrellas que explotan y
brillan como una galaxia entera, ¿a qué se reducen los fuegos infernales que
ardían más allá de la esfera de estrellas fijas? A un inocente pasatiempo. El
sereno universo que turbaba a Kant, los sometidos cielos que creyó dominar
Laplace, el transparente universo construido por Newton, e incluso el cosmos
tranquilo y estacionario que imaginó Einstein, ¿dónde están ahora? La
astronomía nos enfrenta a un universo vivaz, en ebullición, signado por el
movimiento, la violencia y el cambio.
Sin embargo, ni los quásares, ni las supernovas, ni las lentes gravitatorias,
ni el nacimiento y el colapso de las estrellas, ni las galaxias en colisión
producen la punzante inquietud que se experimenta ante algunos recientes
integrantes del zoológico estelar: los agujeros negros, cuya terrible presencia
es uno de los tantos subproductos de la Teoría de la Relatividad General. Según
ésta, recordemos, la materia actúa sobre el espacio-tiempo circundante y lo
modifica. Un reloj colocado en el Sol marcaría los segundos más lentamente que
uno terrestre, y, aquí mismo, el tiempo transcurre más despacio y se envejece
más lentamente en una planta baja que en un piso diez, donde el campo
gravitatorio terrestre es más débil, aunque este efecto es imperceptible y
difícilmente pueda influir en el mercado inmobiliario.
Lo cierto es que imperceptible o no, como una potente tenaza, la materia curva
el espacio y el tiempo. Y cuanto más fuerte es el campo gravitatorio, más se
curva el espacio-tiempo, hasta que, en presencia de una concentración de
materia suficientemente grande —y, por lo tanto, de un campo gravitatorio
suficientemente intenso— estos fenómenos se exasperan: el espacio-tiempo se
cierra sobre sí mismo, formando un borde u horizonte. Lo que permanece dentro
de ese horizonte es un agujero negro. Nada, en adelante, podrá escapar de él,
ni siquiera la luz: de ahí, justamente, su nombre. Ningún pulso luminoso saldrá
jamás de ellos, pero no porque haya una barrera que impida el paso sino porque
el espacio mismo se ha cerrado bajo la poderosa garra de la gravitación. Es
como si alguna fuerza torciera una casa y colocara la puerta de adelante en
exacta correspondencia con la puerta de atrás. Nadie saldría de la casa aunque
recorriera interminablemente los corredores, sencillamente porque no existen
caminos de salida.
Se sospecha la existencia de agujeros negros gravitantes en algunos sistemas de
estrellas binarias y una teoría corriente sobre los quásares ubica agujeros
negros en el centro de las galaxias masivas (la nuestra entre otras). Del mismo
modo, la teoría predice que el destino final de muchas estrellas (aunque no del
sol) es, una vez que se agote el combustible nuclear y que colapsen bajo la
acción de su propio peso, transformarse en agujeros negros y encerrarse para
siempre detrás del horizonte que nada atraviesa dos veces.
La verdad es que los agujeros negros están cerca del límite, constituyen una de
las últimas barreras de la física, la cosmología, y, quizás, de la naturaleza
misma. Algunas teorías suponen que en el centro de ellos existen singularidades
donde el espacio y el tiempo, sencilla y fríamente, terminan. Para graficar esa
terrible sensación, sólo se me ocurre inventar una balada medieval escocesa que
cuenta las desventuras del Tañe de Candor, después de su derrota ante el Tañe
de Mowberry, en las alturas de Hingford Hills:
y lanzando destellos de furor y miedo
huyó perseguido por la implacable jauría
hasta hundirse en el centro de la ciénaga
donde un inmenso agujero negro
lo arrastró hasta el fondo mismo
de los infiernos.
Pero de los infiernos se vuelve: Dante, al menos, lo hizo. De los
agujeros negros, no.
§. Galaxias a escala cósmica
Durante la mayor parte de la historia de la humanidad se pensó que la Tierra
era única. Cuando Copérnico la desalojó del centro de mundo y colocó al Sol en
su lugar, a pesar de todo lo que esto significó, el paisaje a gran escala del
universo no se alteró demasiado: el sistema solar copernicano constituía un
cosmos (relativamente) pequeño, que terminaba en la esfera de las estrellas
fijas, que se imaginaban más o menos como piedrecitas adheridas a ella. Pero el
Sol gozó poco tiempo del privilegio de la unicidad: inmediatamente se
comprendió que las estrellas también son soles, o mejor, que el Sol es una
estrella entre tantas otras estrellas.
Sin embargo, la observación a simple vista del cielo nocturno muestra que las
estrellas, lejos de distribuirse uniformemente, se concentran en una estrecha
franja: la Vía Láctea, donde hay cientos de miles de ellas, dejando al resto
del cielo casi despoblado. La astronomía de los siglos XVIII y XIX imaginó que
la Vía Láctea era todo el universo, una mera y apretada concentración de
estrellas sola, abandonada (y láctea) en la infinitud del espacio vacío. Kant
definió a la Vía Láctea como un «universo-isla» y adelantó la idea de que podía
haber otros; faltaría un tiempo para que se la denominara «galaxia» y se
descubriera que contiene entre cien y doscientos mil millones de estrellas. La
Galaxia se convirtió entonces en un buen candidato para ser la estructura única
y central del universo.
La Vía Láctea
Pero a lo largo de la historia, reiteradamente la unicidad demostró no
ser buen negocio. En el cielo no sólo hay estrellas, del mismo modo que en el
campo no sólo hay espinas. El telescopio mostraba también nubes difusas, de
naturaleza misteriosa, que se supusieron concentraciones de gas o polvo
interestelar y que, guardando fidelidad a su aspecto, se llamaron nebulosas.
En 1845, el astrónomo William Parsons, lanzó una hipótesis audaz: sugirió que
lejos de ser nubes de gas pertenecientes a la Vía Láctea, quedaban por el
contrario muy lejos de ella, y eran nada menos que otras Vías Lácteas, otros
universos-islas, en todo similares al nuestro. La hipótesis de Parsons tuvo
pocos seguidores y aun en 1920 se discutía la ubicación de las nebulosas.
¿Dentro o fuera de la galaxia? Tal era la cuestión.
No duró mucho. En 1924, Edwin Hubble zanjó de una vez por todas el asunto, al
mostrar que una de las nebulosas más notables, Andrómeda, quedaba sin duda
posible fuera y muy lejos de la Vía Láctea. La intuición de Parsons resultó
certera: Andrómeda es efectivamente una galaxia, tan galaxia como la Vía
Láctea. Una vez descubierta la naturaleza de las nebulosas (no de todas, ya que
algunas sí son efectivamente nubes de gas y polvo), nuestra galaxia perdió todo
privilegio, y pasó a ser una entre tantas, en un universo superpoblado.
Galaxias de distintas formas y tamaños: elípticas, espirales, pero todas con
sus miles o cientos de miles de millones de estrellas. Las galaxias resultaron
ser tan numerosas como los granos de arena de una playa o las palabras huecas
de un discurso político.
Pero ocurre que las galaxias, de la misma manera que las estrellas, no
están distribuidas de manera más o menos regular. Hay regiones totalmente
desgalaxiadas, y regiones donde las galaxias se agrupan gravitatoriamente. A
estas agrupaciones se las conoce como cúmulos. La Vía Láctea, Andrómeda, la del
Triángulo y otras treinta galaxias más pequeñas conforman lo que se conoce como
el Grupo Local, el nuestro.
Y encima de todo, allí no termina la cosa. Nuestro Grupo Local pertenece a una
estructura más grande llamada Cúmulo de Virgo, formada por unas dos mil
galaxias. Y los cúmulos galácticos, a su vez, se agrupan en supercúmulos: el
Cúmulo de Virgo y otros son modestos integrantes de Supercúmulos de decenas o
cientos de miles de galaxias. El Supercúmulo de Virgo, por su parte, también
tiene vocación viajera. A la nada despreciable velocidad de novecientos
kilómetros por segundo, se dirige (de la misma manera que el supercúmulo
vecino, el de Hydra Centauro) hacia una concentración de masa todavía más
grande: el Gran Atractor, una fabulosa megalópolis de decenas de miles de
galaxias, situada a unos ciento cincuenta millones de años luz de nosotros.
Estrellas, galaxias, cúmulos, supercúmulos, galaxias que emigran de un cúmulo a
otro, supercúmulos absorbidos por el Gran Atractor… es una enormidad que
aplasta. Resulta curioso: la idea de «universo» es suficientemente general como
para transformarse en una experiencia estética, casi en un estado de ánimo. La
idea de «sesenta galaxias» viajando juntas en nuestro Grupo Local, tiene algo
concreto y contundente que perturba la imaginación. El viejo universo pre
copernicano, y aun el copernicano —rodeado y protegido por la esfera de las
estrellas fijas—, puede resultar ingenuo, pero sin duda era hogareño y seguro.
El Cúmulo Local es frío, vasto, destemplado y asusta. Kant decía que eran dos
las cosas que más lo impresionaban: la conciencia moral en lo más íntimo de sí
y el cielo estrellado en lo más alto. Pero Kant no podía siquiera imaginar la
danza de las galaxias en ese cielo relativamente simple del siglo XVIII.
§. Esa oscura materia del deseo
En El Principito, Saint Exupéry escribió que lo esencial es
invisible a los ojos, frase que tuvo inmediatas derivaciones cosmológicas. Ya
en los años treinta, el astrónomo suizo-norteamericano Fritz Zwicky observaba
tímidamente que la masa total del cumulo galáctico Coma no alcanzaba para
mantener, gravitación mediante, a las galaxias agrupadas sin que se dispersaran
por todas partes: con la cantidad de materia que se veía, el cúmulo no podía
sostenerse y debería haberse deshecho mucho tiempo atrás. Unas décadas más
tarde, cuidadosas mediciones de la velocidad de rotación de las galaxias
mostraron que éstas exhibían una cohesión que la gravitación producida por su
masa no justificaba. Dicho de otra forma: la materia que contiene una galaxia
no alcanza para explicar la fuerza gravitacional que esa misma galaxia exhibe.
¿De dónde sale la fuerza gravitacional que falta? Dado que la fuerza
gravitacional es directamente proporcional a la masa, no había demasiadas
alternativas: tenía que haber más masa, más materia, escondida en algún lugar.
Esa materia que no se ve pero que tiene que estar para que se cumplan las leyes
de la física fue llamada «materia oscura». Los cosmólogos sienten una especial
predilección por ella, y algunos sostienen que conforma, en realidad el noventa
por ciento de la materia existente en el cosmos.
Por impresionante que parezca el hecho de que la mayor parte del universo sea
invisible, la materia oscura, en realidad, no significa una gran sorpresa:
todas las hipótesis sobre el origen del universo, a partir de la teoría
estándar del Big Bang (la gran explosión), afirmaron que la cantidad de materia
que ven nuestros instrumentos es poca. La constatación experimental de este
hecho (que hay más materia de la que se ve) a partir de mediciones recientes
representa una importante victoria de la teoría, y una prueba más de que Saint
Exupéry, en general, tenía razón.
Materia oscura, bien. Invisible, por ahora, perfecto. ¿Pero de qué puede estar
formada? Hay diversas posibilidades. Ciertas extrañas e impalpables partículas
de sonoros nombres, como los fotinos, los WIMPS y los gravitinos, presentan sus
candidaturas. Pero esas partículas hasta ahora nunca fueron observadas y su
existencia es puramente teórica. O sea: se sabe que existe, pero no se sabe qué
es. Tampoco se sabe muy bien cómo está distribuida. Hoy por hoy, la mayor parte
de la materia que forma nuestro universo está encerrada entre dos gigantescos
signos de pregunta.
§. Cantar del Alma que se eleva en pos de la Materia Oscura (glosa)
Una noche de locura
con el ansia científica inflamada
busqué materia oscura
dispersa o agrupada
por muy pocos instrumentos detectada.
En silencio, buscaba
esa materia que nadie comprendía
y en pos de ella viajaba
sin otra luz ni guía
que una vaga observación y una teoría.
Aquélla me guiaba
más cierta que la luz del mediodía
y con fe yo esperaba
que según se preveía
la materia oscura al fin se mostraría.
¡Oh dichosa aventura!
¡Extender por el espacio la mirada
buscar materia oscura
con ansias inflamadas
y más tarde volver, sin hallar nada!
II La teoría del big bang y el origen del universo
§. Primero fue el espacio y el tiempo
Quinientos años antes de nuestra era, el grande y querido Tales de Mileto
sostuvo que el mundo se había originado en el agua; veinticinco siglos más
tarde, Edwin Hubble —el mismo en honor a quien se nombró el que fuera hasta
hace poco el telescopio más grande del mundo— escudriñaba el cielo,
focalizándose en lo que se llamaban «nebulosas», manchas blancas y difusas
sobre cuya naturaleza, como les conté, se discutía. Había quienes decían que se
trataba de objetos de la Vía Láctea y había quienes sostenían que en realidad
estaban fuera de ella y eran enjambres de estrellas idénticos a la Vía Láctea y
que el universo estaba poblado por muchísimos agrupamientos similares.
Pero no había manera de zanjar la discusión, hasta que Hubble emprendió su
trabajo titánico y logró demostrar que, efectivamente, las nebulosas eran otras
galaxias tremendamente alejadas de la nuestra y que contenían también cientos
de miles de millones de estrellas agrupadas por la gravitación.
Pero no fue todo lo que vio.
Había una cosa rara con la luz de esas galaxias lejanas: aparecía enrojecida,
«corrida hacia el rojo», como dicen los astrónomos. Ahora bien, el corrimiento
al rojo es el equivalente, en la luz, al corrimiento a los graves de un sonido
cuando la fuente se aleja de nosotros; Hubble adelantó entonces la increíble y
sorprendente idea de que todas las galaxias se alejan de nuestro planeta a una
velocidad proporcional a la distancia que nos separa de ellas. Las más lejanas
que podían observarse en su época retrocedían a la respetable velocidad de
40.000 kilómetros por segundo, pero, a medida que los instrumentos se
perfeccionaron y se alcanzaron regiones aún más distantes en el espacio
profundo, pudieron verse galaxias que escapaban a 100.000 kilómetros por
segundo y más. ¡Un tercio de la velocidad de la luz! Si bien a
primera vista podría haber puesto un poco paranoico a más de uno esa ansiedad
de la materia del Universo por alejarse de la Tierra, en realidad lo que
demostraba esta observación era algo mucho más grandioso y extraño: que el
Universo entero estaba en expansión y que cada observador, en cualquiera de las
galaxias, vería que las demás se alejan de él.
Ya es clásica la imagen de un globo, con manchas en su superficie, que se
infla. Si uno se parara sobre cualquiera de esas manchas, vería que el resto de
ellas se aleja y que lo hace más rápido cuanto más lejos está. No es que cada
galaxia en particular esté retrocediendo desde nuestro punto de vista, sino que
el universo en su conjunto, el mismo que Tolomeo creyó limitado y finito, el
que Newton imaginó como infinito y eterno, el que Einstein describió como
finito, cerrado, ilimitado y estático, ese cosmos, después de haber sufrido
tantos avatares, como un inmenso globo tridimensional, crece y se expande,
arrastrando en su expansión a los objetos que lo conforman.
El descubrimiento de la expansión del universo fue como un fogonazo: se
convirtió en el eje, en el concepto que organizó, en adelante, toda la
cosmología y la impregnó de historia. El universo, aquel paisaje que
pacientemente se descubría —y describía— aquel «lugar de todos los lugares»,
donde ocurrían los sucesos astronómicos, aquel escenario que cobijaba el
transcurrir de la materia, se transformó en un objeto palpitante y en continuo
cambio, en permanente modificación, en algo casi vivo, que tenía un pasado y
que debía, a cada momento, responder por él.
El problema de lo que el universo era quedó ligado de manera indisoluble a lo
que el universo había sido… y a la manera en que había empezado, porque en el
universo en expansión no es posible la eternidad. Algo era evidente: las
galaxias no pudieron estar alejándose unas de otras desde siempre. A
medida que se retrocediera en el tiempo, deberían haber estado más y más
próximas. La expansión tuvo que haber empezado alguna vez. Había que explorar
hacia atrás, y allí, en el principio, sólo se avizoraba una gran masa caliente
y densa que concentraba toda la materia y energía.
En 1927, el sacerdote y astrónomo belga Georges Lemaître (1894-1966) elaboró
una teoría del origen del Universo, al que imaginó en el principio como una
esfera del tamaño de treinta veces nuestro Sol en la que estaba concentrado
todo, a la que llamó «huevo cósmico». Según Lemaître, al explotar este
gigantesco huevo, el Universo empezó a llenarse de materia y a transformarse en
lo que es hoy.
En la década del cuarenta, Georges Gamow (1904-1968) elaboró una teoría más
refinada y demostró cómo es que las interacciones nucleares que tenían lugar en
el universo primitivo podrían haber convertido el hidrógeno en helio, lo que
explicaba las proporciones de estos elementos en estrellas muy viejas. Gamow
publicó su idea en un artículo de 1948, donde se predecía que debía poder
percibirse aún radiación de las etapas más tempranas y calientes del Universo,
del momento en que la luz en forma de fotones pudo propagarse libremente
después de la gran explosión: una radiación que debía haberse enfriado desde
entonces y que debería tener ahora unos 5 grados Kelvin (o sea 268 grados centígrados
bajo cero).
Naturalmente, se trataba de una hipótesis altamente especulativa y respaldada
por poca evidencia empírica, hasta el punto de que el nombre con que se la
conoce («Big Bang», o «Gran explosión») fue puesto con sorna por uno de sus más
serios opositores, el astrónomo inglés Fred Hoyle (1915-2001).
Pero ocurrió que en 1964 Arno Penzias y Robert Wilson, dos científicos de los
laboratorios Bell, mientras trataban de calibrar una antena, descubrieron un
«ruido» en la franja de microondas, de 3 grados K, que provenía de todas las
direcciones y que no variaba ni de día ni de noche, ni con el transcurrir del
año. Era ni más ni menos que la radiación predicha por Gamow, el grito del
universo temprano.
La detección de la radiación de Gamow dio a la teoría del Big Bang un nuevo
impulso, y, desde entonces, la evidencia se acumuló hasta el punto de que es
hoy una teoría firmemente asentada entre los cosmólogos.
La radiación cósmica de fondo. Una «foto» del universo cuando tenía apenas
380 mil años de existencia.
§. El Big Bang
Así se pudo elaborar una teoría completa, o casi. Porque aunque el momento
preciso del Big Bang, el «tiempo cero», se escurre todavía de las manos de
físicos y astrónomos, la actual teoría cosmológica ha llegado bastante cerca,
hasta el momento en que el Universo tenía sólo un billonésimo de trillonésimo
de trillonésimo de segundo de edad. Era entonces más pequeño que un núcleo
atómico, tenía una temperatura de un trillón de trillón de grados y las fuerzas
que hoy manejan el universo (a nivel intraatómico y entre átomos) también
estaban mezcladas en una superfuerza. La hazaña no es pequeña y tampoco lo es
haber descripto con bastante coherencia lo que ocurrió desde entonces hasta
hoy, mientras el Universo se expandía y enfriaba.
La gravitación fue la primera en separarse de esa fuerza única. La fuerza
nuclear fuerte fue la segunda y acto seguido el Universo emprendió una etapa de
expansión ultrarrápida —conocida como «etapa inflacionaria»— de la cual emergió
con el tamaño de una naranja y como una sopa de quarks, leptones, fotones y sus
respectivas antipartículas. Entonces fue el turno de la fuerza débil, y
enseguida de la electromagnética, con lo cual las cuatro fuerzas de la
naturaleza adquirieron su identidad actual.
Mientras tanto, partículas y antipartículas se aniquilaron en gran escala
transformándose en luz; un minúsculo predominio de las primeras sobre las
segundas garantizó el triunfo de la materia sobre la antimateria. Los quarks se
unieron formando protones y neutrones, el Universo alcanzó el tamaño de una
pelota de fútbol: pero todavía no tenía un segundo de edad.
Era tan denso que la luz no podía atravesarlo a través de la maraña de
electrones y partículas que lo llenaban y lo tornaban opaco. Cuando el reloj
indicó que ya habían pasado tres minutos desde el origen, este universo-bebé,
que ya llegaba a apenas el millón de grados, emprendió una infancia de cien mil
años, durante la cual se formaron los primeros núcleos de helio y se generó la
radiación de fondo. Los átomos deberían esperar aún a que la temperatura bajara
lo suficiente como para que los núcleos pudieran captar y retener electrones.
Sólo entonces la luz empezó a encontrar el paso libre y en adelante el cosmos
fue transparente y oscuro. Apenas cien millones de años más tarde, todo estaba
bañado en un gas difuso de átomos de hidrógeno y helio; aquí y allá el gas se
condensaba en grandes nubes bajo la acción gravitatoria, en cuyo interior y
llegado el momento, se encenderían las primeras y primitivas estrellas.
Las primeras estrellas duraron poco, apenas unos cientos de millones de años.
Eran grandes, pesadas y explotaron como gigantescas supernovas que lanzaron
toda la materia al espacio. Esa materia formó nuevas nebulosas que empezaron a
contraerse por efecto de la gravitación. Hace cinco mil millones de años, una
de esas estrellas se encendió y alrededor de ella una nube de polvo se
concentró en planetas; el tercero de ellos formó una corteza y océanos, y allí
las moléculas, después de mucha prueba y error, inventaron una estructura capaz
de replicarse, transportando información genética (que tres mil millones de
años más tarde Georg Mendel, un monje paciente, lograría decodificar) e
iniciaron el ciclo de la selección natural. Luego se recubrieron de una
membrana y formaron una célula que evolucionó hasta dar criaturas capaces de
mirar a las estrellas y remontar la historia hasta adivinar los primeros
instantes del universo.
§. Cosmogonía
Todas las culturas tuvieron su cosmogonía, desde las primitivas tortugas que
sostenían al mundo a la lucha de Tiamat, la serpiente esencial, y Marduk, el
dios babilonio del orden y la armonía; dioses desdibujados y tristes que
fabricaban un mundo porque no tenían otra cosa que hacer. Pero el universo de
hoy es muy complejo para dejarlo en manos de dioses que se confundirían y
serían incapaces de lidiar con neutrones y neutrinos, con galaxias y con
estrellas, con esas máquinas maravillosas que transforman gravedad en la luz y
el calor que irradian, dioses que sólo podían pensar en términos de bien y mal,
de luz y oscuridad, incapaces de imaginar siquiera los delicados mecanismos de
la vida y el sistema sutil por el que se transmite la herencia; dioses sin el
ingenio de Mendel o la tenacidad de Pasteur o la visión abarcadora de Darwin,
dioses temerosos, sin la audacia de Copérnico (si hubiera sido por los dioses,
habrían dejado a la Tierra en el centro del mundo por siempre).
La teoría del Big Bang es hoy nuestra cosmogonía, provisoria, como todo aquello
que la razón descubre; una teoría que pretende dar cuenta de todo lo que
existe, todo lo que fue y lo que será, y que intenta describir cómo llegó a
ser: el universo desaforado y múltiple, poblado por cien mil millones de
galaxias cada una con cien mil millones de estrellas, que se esparcen como filamentos
asombrosos.
En cierto modo, es la culminación del gigantesco rompecabezas que comenzó a
armarse desde que Copérnico movió a la Tierra desde el centro del universo y
los hombres de la Revolución Científica descifraron los mecanismos básicos del
mundo; que creció con Lavoisier y la larga epopeya que arrancó con Dalton y se
adentró en los secretos de la materia, que invadió la biología cuando Darwin
logró describir la saga de la vida a través de las épocas y Pasteur y Mendel
inclinaron su mirada inteligente sobre sus minúsculos mecanismos; que se
redondeó cuando Einstein barrió con las ideas de espacio y tiempo absolutos y
estableció el fundamento de una nueva cosmología y la tectónica de placas ligó
la historia y el presente de nuestro planeta a la historia del cosmos.
La teoría del Big Bang nos cuenta cómo, de casi un punto de temperaturas
infernales se llegó hasta un universo helado: su temperatura es hoy de 270°C
bajo cero. Y, además, vacío, ya que casi no hay materia, y de la que hay, cerca
de tres cuartos son hidrógeno, casi todo el otro cuarto es helio y sólo el 1%
queda para los demás elementos, entre ellos los que forman al hombre.
Dentro de las galaxias funcionan esas máquinas que son las estrellas, en cuyo
interior se fabrican los elementos más pesados como el carbono y el oxígeno,
que con la muerte de las estrellas serán devueltos al espacio. Sin las enormes
dosis de energía del centro de las estrellas sería imposible que se formaran
átomos más complejos como el oxígeno o el carbono, para no hablar del uranio
(que sólo se forma en las explosiones de estrellas).
Una de estas cien mil millones de galaxias es la nuestra, la Vía Láctea que
vemos cruzando el cielo en las noches oscuras, y el Sol es una de las cien mil
millones de estrellas que la forman, muy lejos del centro, en un brazo
espiralado.
Y a su alrededor giran los planetas; en la delgada costra de uno de ellos
vivimos nosotros, en un mundo en el que somos absolutamente minoritarios frente
a los insectos o a las bacterias. Somos una especie reciente, de apenas tres
millones de años de antigüedad, que mira asombrada intentando comprender ese
universo.
Y la teoría también nos dice cómo seguirá todo, mientras el universo se expande
y se expande y se enfría. Hace poco se descubrió que la expansión se acelera
más y más. Nadie sabe a qué se debe este fenómeno, pero en muchos casos se lo
atribuye a la acción de la energía oscura, concepto elusivo si los hay, y del
que nadie puede dar una explicación cabal, ni demostrar su existencia.
Dentro de tres mil millones de años, Andrómeda y la Vía Láctea chocarán,
fundiéndose en una supergalaxia.
Dentro de cinco mil millones de años, el Sol habrá agotado su combustible y en
su último suspiro, destruirá a los planetas más cercanos a él, como Mercurio,
Venus y la Tierra, y se transformará primero en una esfera del tamaño de
nuestro planeta, una enana negra de carbono y oxígeno.
Y mientras tanto, el universo se seguirá expandiendo y se irá haciendo menos
denso; dentro de un millón de millones de años, los cúmulos galácticos que
están cerca se van a fusionar entre sí, y las supergalaxias que resulten se
alejarán ya unas de otras sin remedio.
Pero al mismo tiempo se irán agotando las reservas de hidrógeno de todo el
universo y ya no se podrán crear nuevas estrellas; habrá un momento en que
muera la última estrella que existe, y por lo tanto las supergalaxias no serán
más que cementerios estelares sin brillo.
Y el universo continuará su expansión.
Sólo los agujeros negros, esos extraños objetos nacidos de la relatividad
general, permanecerán ligeramente activos, pero también ellos se agotarán
alguna vez.
Y el universo se seguirá expandiendo hasta que no queden siquiera agujeros
negros.
Y quede solamente la nada y la radiación, cada vez más fría y más tenue, que se
aproximará, sin saberlo, y sin alcanzarlo nunca, al cero absoluto.
Y el universo se seguirá expandiendo y expandiendo sin fin.
Y será sólo pura inmensidad en expansión.
Que se expande y se expande.
Y se expande.
Y se expande.
Interludio:
Milonga del Big Bang
Hubo en la calle Brasil
llegando a Constitución,
un hombre llamado Arteaga
muy hábil con el facón.
Supo el arte del puntazo
en el momento oportuno
y el sábado, en la milonga,
bailaba como ninguno.
No le importaba la gloria
ni el filo de los espejos
ni le importaban los cuentos
que entretienen a los viejos.
El hombre se dedicaba
a estudiar cosmología
que era ciencia de malevo
y más, asigún decía.
Paraba todas las tardes
en el boliche de Armando
empinaba una ginebra
y andaba siempre esplicando.
Y le hablaba al malevaje
para darle educación:
«Ha empezau nuestro universo
con una gran esplosión».
«La saben llamar Big Bang
(que es esplosión en inglés)
ustedes me aprenden eso
antes de que cuente diez».
Se le asombró el rengo Panno,
nacido en La Paternal:
«yo creiba que el universo
había sido siempre igual».
Y Arteaga le contestó:
«me va a perdonar, hermano,
si le digo con respeto
que usté es precopernicano».
«Yo soy nacido en el diez», dijo uno
«y no lo tengo sabido,
si aquí la cosa explotó
tuvo que hacer mucho ruido
y alguno la hubiera oído».
Contestó Arteaga: «los oigo
y no creo lo que escucho
estas cosas que les cuento
ocurrieron hace mucho.
No se hagan los sobradores
ni me hablen con aspavientos
el Big Bang tuvo lugar
antes del mil novecientos».
Y otro dijo desde atrás
con un movimiento de hombros
«si aquí hubo alguna esplosión,
¿en dónde están los escombros?»
Dijo Arteaga: «ustedes sí
que son unos inorantes
estas cosas en Uropa
se saben de mucho antes.
¿Se piensan que el universo
es sólo Costitución?
¿No saben que está Pompeya,
y después la inundación?»
Y explicó con gran paciencia
«a toda velocidá
se nos fugan las galasias,
lo mismo que hacen ustedes
cuando la yuta hace razzias.
Y es cosa muy simple ver
cómo las cosas apuntan:
si las galasias se fugan
es que antes estaban juntas.
Entonces, basta pasar
la película hacia atrás
pa’ ver un mundo tan lleno
que ya no da para más.
Y estaban ya arrejuntados
en ese instante inicial
el tango de meta y ponga
y el farol de mi arrabal
la callecita empedrada
las muchachas de mi flor
y un malevaje que mezcla
el odio con el amor.
Y un universo repleto,
¿cómo no quieren que esplote?
¡si estaban más apretados
que multitud en un bote!
Así nació el universo
y así nació el arrabal,
le dio ritmo de milonga
la espansión universal.
Quiero que ustedes comprendan
las verdades de la ciencia
combinando al mismo tiempo
la teoría y la esperiencia
Saben que a mí me gusta
convencer por persuasión
pero si alguien se retoba
siempre me queda el facón».
Y en los cien barrios porteños
se decía, con razón,
que solamente dos ciencias
había en Constitución
la ciencia que estudia el cosmos
y la ciencia del facón.
La milonga del Big Bang
se canta con devoción
allá en la calle Brasil
llegando a Constitución.
Capítulo 40
La «Máquina de Dios»
Y finalmente llegamos a la estación final de nuestro largo recorrido,
una gran conversación en la que fuimos deteniéndonos en diferentes lugares,
distintos hitos que marcaron el pensamiento científico y cuyos hilos tratamos
de seguir, a veces con más y a veces con menos éxito, desde Tales hasta hoy.
Los caminos no son lineales, por supuesto, pero por más que se deformen, se
bifurquen y hasta se corten, siempre terminan aportando algo al desarrollo del
conocimiento: los científicos que fracasan, aunque muchas veces permanezcan en
la oscuridad y sean olvidados, le dejan una herencia fundamental a las
siguientes generaciones, mostrándoles los caminos que no hay que seguir.
A lo largo de nuestro viaje pudimos ver cómo cada generación, en la búsqueda de
respuestas (razonables o no, verdaderas o no), abre nuevas preguntas que muchas
veces permanecen latentes por siglos: así, por ejemplo, Euclides, al responder
a la pregunta de cómo (o por dónde) empezar a razonar, deja un flanco abierto
que se abrirá aún más dos mil años más tarde con las geometrías no euclidianas
de Lobachevski y Riemann; Tales, al postular la empiria como la fuente
imprescindible para el conocimiento, deja la puerta abierta a su
cuestionamiento, y Parménides, al negar radicalmente esa empiria, muestra
claramente —y sin quererlo, desde ya— que sin ella la totalidad de la ciencia
se paraliza, como quedará clarísimo después de la Revolución Científica.
También fueron apareciendo diversos juegos de oposiciones que muchas veces
duraron largos siglos: los atomistas contra los que sostenían que la materia
era infinitamente divisible, los partidarios y los adversarios de la existencia
del vacío, los que defendían la idea de una electricidad única y los que se
inclinaban por creer que había dos, los defensores de lo continuo y los de lo
discreto, los que creían en la finitud del universo y los que optaban por la
infinitud, los inductivistas y los racionalistas. Se trata de controversias
larguísimas que, en su devenir, conformaron el grandioso espectáculo del desarrollo
del conocimiento racional del universo.
En ese largo trayecto que transitamos juntos no hubo más remedio que dejar
afuera algunos de los últimos adelantos, como por ejemplo la informática, que
cambió y continúa cambiando de maneras insospechadas nuestra vida cotidiana; la
utilización de las células madre en medicina, o las neurociencias, que
avanzaron espectacularmente en las últimas décadas: el cocktail actual
de nuevos descubrimientos, con el bombardeo cada vez más vertiginoso de
resultados, no permite encontrar los hilos del pensamiento ni adivinar cuáles
son reales avances y cuáles son el simple resultado del estado de ánimo
científico o de la moda. Basta, para justificar mi cautela respecto de los
nuevos adelantos, recordar las múltiples veces en la historia de la ciencia en
que los problemas parecieron resueltos cuando en realidad no se hacía sino
empezar (y muchas veces, errando) el camino.
Así y todo, me parece que es necesario mencionar algunos de los grandes
problemas actuales de la ciencia, por más que el panorama no esté demasiado
claro. Uno de ellos es, sin lugar a dudas, el famoso cambio climático: el
aumento de unos pocos grados de la temperatura promedio del planeta, que
proviene del efecto invernadero (esto es, del lanzamiento a la atmósfera de
combustibles fósiles), amenaza con un cambio global que, según dicen algunos,
puede llegar a acarrear trastornos de todo tipo (subida del nivel del mar,
cambio de régimen de lluvias, vientos y fenómenos meteorológicos en general) y
modificar el panorama geo-climático del planeta con importantes consecuencias
culturales, económicas y demográficas.
No está claro, en verdad, qué cosa es el cambio climático: hay quienes piensan
que es antropogénico (es decir, que se debe a motivos relacionados con el
accionar del hombre) y hay quienes lo atribuyen a factores astronómicos, como
modificaciones de algunos parámetros de la órbita de la Tierra alrededor del
Sol que se dan cíclicamente. La discusión no es ociosa: si el problema es
antropogénico, se puede contrarrestar más directamente que si es astronómico…
aunque esto está por verse, a juzgar por la falta de cumplimiento de la mayoría
de los países de los protocolos firmados para reducir las emisiones.
Así como no hablé del cambio climático, tampoco lo hice en su momento de la
ciencia humboldtiana (por Alexander von Humboldt, 1769-1859), que en lugar de
buscar un sustrato matemático de la realidad —como quería Platón— o la ligazón
punto a punto entre los fenómenos experimentales —como pretendía Aristóteles—
ensayó ya entonces la descripción de sistemas integrales en los que grandes
conjuntos de datos están interrelacionados de una manera dinámica (el clima, la
geografía, la fitogeografía) y muchos otros que derivarían en una ciencia de
sistemas (y no ya de hechos) y desembocarían en los que hoy llamamos sistemas
complejos (aunque la palabra tiene cierto contenido técnico y no significa
simplemente difícil o complicado), en cierto modo siguiendo la tradición de
Francis Bacon: listas de resultados y tablas, pero anudando esas tablas con
nexos causales o correlaciones.
Pero hasta aquí llegó el lamento. Aprovechemos el espacio que queda para
cumplir con la promesa que hicimos al principio: ésta iba a ser una historia de
las ideas científicas desde Tales de Mileto hasta la Máquina de Dios. Tales de
Mileto fue el protagonista del primer capítulo. Y de la Máquina de Dios,
justamente, nos toca hablar ahora.
§. El modelo estándar, de nuevo
Pero para eso, y aunque ya hayamos hablado de él, tenemos que hacer un breve repaso
del modelo estándar. En parte porque acaso quedó un poco confuso cuando
hablamos de él hace algunos capítulos, pero más todavía porque es vital para
comprender por qué se puso tanta energía y esfuerzo para encontrar al
escurridizo Bosón de Higgs, una partícula que, mientras se escriben las últimas
líneas de nuestro relato, sigue siendo estudiada en el mayor experimento de la
historia de la humanidad.
El modelo estándar de partículas es, más que un modelo, una teoría que
identifica a todas las partículas materiales que componen el universo y explica
los modos en que interaccionan. De acuerdo a éste, las partículas
verdaderamente elementales (en el sentido de que no pueden ser divididas
ulteriormente) son:
·
Los quarks, que forman
a su vez otras partículas como los mesones, los bariones y
los hadrones. Dentro de los últimos (formados por tres quarks) se
encuentran dos de nuestros viejos conocidos: los protones y los neutrones. Hay,
en total, seis quarks.
·
Los leptones, que no están
formados por quarks: electrón, muón, partícula
tau y tres tipos de neutrino
Al mismo tiempo, hay cuatro fuerzas (la electromagnética, la
gravitatoria, la nuclear fuerte y la nuclear débil) que actúan por mediación de
otras partículas que las transportan. Esto es complicado de entender, pero
simplificando un poco podemos decir, a modo de ejemplo, que en el caso de la
fuerza electromagnética el fotón es la partícula encargada de
interaccionar con la materia para transmitirla: dos cargas que se atraen o
rechazan intercambian fotones y la fuerza será más o menos intensa de acuerdo a
la interacción de las partículas. Cuando dos partículas cargadas se atraen,
intercambian fotones, del mismo modo que dos personas que intercambiaran una
pelotita de golf parecerían unidas. A las partículas fundamentales que vimos al
principio (los quarks —con sus múltiples variaciones— y los leptones) tenemos
que sumarles, entonces, otras partículas:
Fotón: transporta la fuerza electromagnética
Partículas W y Z: transportan la fuerza débil
Gluones: Transportan la fuerza fuerte
Y podríamos incluir al gravitón, que transportaría la fuerza
gravitatoria, pero aún no fue detectado.
Por supuesto, cada una de ellas cuenta con su respectiva antipartícula.
Parece demasiado, ¿no? Y encima, hay un problema fundamental: el modelo no
cierra. Por empezar, no incluye a la gravitación y a las interacciones
gravitatorias, que se resisten a someterse a los rigores de la mecánica
cuántica; por otro lado, no explica de dónde sacan las partículas su masa, por
qué el electrón es casi dos mil veces menos masivo que el protón o el fotón
carece completamente de masa.
Para resolver este inconveniente (un inconveniente un poco más puntual, en
realidad, pero no importa), en 1964 el físico británico Peter Higgs sugirió que
el universo entero está inmerso en un campo (el campo, precisamente, de Higgs),
que es el que confiere masa a las partículas. La partícula cuántica que lo
representa, aquella que interacciona con el resto de las partículas, es ni más
ni menos que el bosón de Higgs.
El Modelo Estándar propone entonces, además de las partículas y de las fuerzas,
la existencia de un campo que se encarga de darle a cada partícula su masa de
acuerdo a cómo interaccione con él. A simple vista parece difícil de entender,
pero no lo es tanto. Piénsenlo así: si la masa es la medida de cuán difícil
resulta acelerar un objeto (es decir, de cuán difícil le resulta moverse), que
A tenga el doble de masa que B quiere decir que hay que hacer el doble de
fuerza para acelerar a A que para acelerar a B. Imagínense que entran un
vendedor de diarios y un vendedor de helados a un salón lleno de niños. Es
evidente que el vendedor de diarios pasará sin pena ni gloria, interaccionando
mínimamente con los chicos. En cambio, el vendedor de helados tendrá enormes
dificultades para abrirse paso entre la multitud. Si aceptamos la idea de que
la masa es la resistencia que ofrece un cuerpo al movimiento, se puede pensar
que el heladero es más masivo que el vendedor de diarios (por más que pesen
exactamente lo mismo).
En el campo de la física de partículas, el salón funcionaría como el campo de
Higgs y cada uno de los niños como el bosón, la partícula que tiene asociada.
Es como si el campo de Higgs fuera una especie de viscosidad que impregna el
espacio-tiempo y que «frena» con diferente intensidad a las partículas
elementales, otorgándoles un efecto equivalente a lo que nosotros medimos como
masa. Si nosotros observáramos el fenómeno desde afuera, diríamos que el
heladero (protón) es más masivo que el canillita (electrón) simplemente porque
interacciona de manera más intensa con los niños (bosones de Higgs) en el salón
(campo de Higgs).
De allí la importancia fundamental para la física actual del bosón de Higgs: si
se lo encontrara, podría «cerrar» el Modelo Estándar (que lista la totalidad de
las partículas elementales que existen, exceptuando a las relacionadas con la
gravitación) y, si no, obligaría a replantear varios de sus postulados.
Esta importancia capital es la razón por la cual se estudia con tanto énfasis
el elusivo bosón en el Gran Colisionador de Hadrones del CERN (Centre
National pour la Recherche Scientifique), el mayor experimento científico
de la historia de la humanidad, no sólo por el tamaño y la inversión requerida
sino por las ambiciones: cerrar de manera «definitiva» (y lo pongo entre
comillas porque, como ya sabemos, nada en la ciencia es definitivo) el modelo
estándar de partículas, que explica en detalle cómo está constituido el
universo. Lo que se realiza allí es «sencillo»: se hacen colisionar haces de
protones a una velocidad cercana a la de la luz produciendo a escalas
subatómicas energías altísimas, imposibles de obtener de otra manera.
Para lograr que partículas diminutas como son los protones colisionen a esas
velocidades fue necesario diseñar un túnel de 27 kilómetros de circunferencia,
en cuya construcción trabajaron más de 2.000 físicos de 34 países y que costó,
para ponerlo en funcionamiento, la friolera de 40 mil millones de euros (además
de los 765 millones que necesita para funcionar cada año).
Pero la inversión, aparentemente, vale la pena: además de haber proporcionado
(y seguir proporcionando) información relevante sobre el hipotético y
escurridizo bosón de Higgs, se espera que el supercolisionador ayude a
entender, al recrear las condiciones que tenía el universo menos de una
milmillonésima de segundo después del Big Bang, qué es esa «cosa» que llamamos
«masa», que esclarezca al menos en parte qué es la materia oscura y que
proporcione alguna evidencia empírica a la por ahora puramente teórica teoría
de cuerdas.
§. El elusivo bosón
La verdad es que el bosón se hizo esperar, y no era para menos: según los
cálculos, la masa del Higgs tenía que ser por lo menos unas 120 veces la del
protón y, por lo tanto, hacía falta muchísima energía para crearlo y, después,
poder observarlo.
Porque de acuerdo a lo que planteaba la teoría, el bosón de Higgs se tenía que
desintegrar en otras partículas antes de recorrer siquiera una distancia
equivalente al diámetro de un protón. Para probar que existía (o que no) se
buscaban, precisamente, los productos de esa desintegración. El tema es que
dado el carácter cuántico de estos fenómenos, la mayoría de los productos eran
generados por otros mecanismos más convencionales, y es por eso que para
minimizar los márgenes de error resultaba necesario recolectar y analizar una
enorme cantidad de datos que dieran certera cuenta de la dichosa y escurridiza
partícula: pescar el bosón era como escuchar un susurro en medio de un
multitudinario festival de rock desde diez kilómetros de distancia.
Distinguirlo, separándolo del ruido de fondo, no es por cierto fácil, y sería
aconsejable que el avisado lector no trate de hacerlo en su casa como
pasatiempo del domingo.
Y así y todo, los datos acumulados desde que comenzó el experimento permitieron
ir poniendo poco a poco límites más estrictos a la posible masa del posible
bosón de Higgs. Según el equipo de 3.000 físicos conocido como Colaboración
Atlas, debía estar en 125 billones de electronvoltios (un electronvolt es
la unidad de energía que representa la energía cinética que adquiere un
electrón cuando es acelerado por una diferencia de potencial de 1 voltio), es
decir, 125 veces más que la de un protón y 500 mil veces la de un electrón. Y
efectivamente el 4 de julio de 2012 se hizo un anuncio: en el CMS y
el Atlas (dos de los detectores de partículas presentes en el
Supercolisionador) había aparecido una masa «consistente con la masa del
bosón».
La cuestión no está cerrada y aún se sigue investigando si esa partícula es
efectivamente el bosón de Higgs o alguna otra partícula no predicha por la
teoría. Sea como fuere, el solo hecho de que haya aparecido una «masa
consistente» con la predicción resulta impresionante.
Como Neptuno gracias a los cálculos de Le Verrier, como los elementos que
vinieron a completar de a poco la tabla periódica de Mendeleev, el bosón parece
irrumpir con toda su vacilante empiria en el mundo de las partículas
elementales para darle la razón a una predicción teórica formulada por Peter
Higgs hace medio siglo y demostrar, una vez más, el alcance de la mayor
herramienta que tiene el ser humano, la que desde Tales de Mileto hasta el
Supercolisionador de hadrones hizo posible el desarrollo de esta historia.
Finale
Hace cuatrocientos mil años se encendieron las hogueras del hombre de
Pekín, aunque es muy probable que el dominio del fuego haya sido muy anterior y
se remonte hasta un millón de años atrás. Es impresionante pensar en los
cambios que el fuego pudo traer a los pocos grupos o manadas de homínidos que
vagabundearían por los continentes. El fuego garantizaba el calor, la
posibilidad de cocinar la comida, la defensa, la luz y la cerámica. Nadie puede
hoy reconstruir mental y apropiadamente aquellos mundos despoblados y salvajes,
y es muy difícil incluso imaginarse una noche desde nuestras ciudades
iluminadas al punto que oscurecen las estrellas, una noche en la que el fogón
se convirtió en el punto de reunión y de referencia. No es extraño que el fuego
haya penetrado en las mitologías. Prometeo arrebató el fuego a los dioses y los
dioses lo castigaron horriblemente. Porque con el fuego los hombres no tenían
ya nada que temer. La adoración del fuego persiste aún hoy, en el fuego
olímpico, en las llamas votivas o perennes que arden en los altares y los
monumentos.
Y fue ese fuego, multiplicado en antorchas, el que alumbró el camino del hombre
a través de la larga noche prehistórica.
Hace diez mil años se inventó la agricultura. Y con la agricultura nació el
poblado, luego la ciudad, donde florecieron el razonamiento y el pensamiento
abstracto. Y el cerebro trató de entender el funcionamiento del mundo
prescindiendo de los dioses, dar cuenta de la empiria, de lo que se veía, con
teorías naturales. También hubo quienes negaron a la empiria toda validez, y
propusieron el razonamiento sólo como camino, y quienes, como los pitagóricos,
descubrieron las matemáticas abstractas y pensaron en un universo fantasioso y
dinámico.
Y a medida que las teorías crecían y se complejizaban, los griegos llegaron a
explicar el funcionamiento de los cielos y a predecir los eclipses, quitándoles
esa potestad a los dioses. Y la cerámica y la metalurgia dieron los primeros
pasos trémulos de la química, y establecieron un primer «modelo estándar» de
elementos (agua, aire, tierra, fuego), que los atomistas condensaron en
pequeñas partículas indivisibles. Mientras, los astrónomos pudieron construir
una cosmología completa, que sin embargo describía un universo pequeño, donde
el Sol presidía el centro y que se extendía hasta la esfera de las estrellas
fijas, más o menos donde está la órbita de Urano. Y ésta es la historia del
hombre y de la ciencia, y de la necesidad de comprender y explicar.
Pero era poco, y se contaron las estrellas, y se estrujaron los imanes, y se
consiguió bajar el rayo de su trono áureo, como potestad de Zeus, y someter la
electricidad a los cables. Y se indagó el pasado y se supo que la Tierra era
antigua, muy antigua, más antigua que los más antiguos dioses que se pudieran imaginar,
y se empezaron a rastrear sus orígenes y la forma en que se formaron los mares
y montañas y a sospechar cómo la vida nació y evolucionó. Y ésta es la historia
del hombre y de la ciencia y de la necesidad de comprender y explicar.
Y luego resultó que los mecanismos del cielo resultaban demasiado complicados,
y un científico y filósofo genial movió a la Tierra de su lugar central,
mientras sus sucesores explicaban los misterios del movimiento, la inercia y la
caída, y otro enunciaba una ley de leyes que describía todos los movimientos
del universo. Y ésta es la historia del hombre y de la ciencia y de la
necesidad de comprender y explicar.
Se expandieron las fronteras del universo, y se observaron las últimas
galaxias, y se indagó en la profundidad de los átomos donde ahora mismo se
continúa investigando la partícula divina. Y ésta es la historia del hombre y
de la ciencia y de la necesidad de comprender y explicar.
Y es el resultado del momento en que se enciende el fuego del razonamiento,
mediante el golpe inteligente de dos piedras de sílex.
Bibliografía
Hacer una lista exhaustiva de todos los textos que fueron consultados y
utilizados para escribir este libro sería una tarea interminable y, en buena
medida, inútil. Preferimos, en lugar de eso, citar cincuenta obras que
consideramos fundamentales de y sobre la historia de la ciencia, para que el
lector curioso, que pretenda indagar un poco más sobre algún tema en
particular, pueda hacerlo con confianza.
·
Antiseri, D. y Reale, G., Historia del
pensamiento filosófico y científico (3 tomos), Barcelona, Herder,
1991.
·
Ángela, P. y A., La extraordinaria historia
de la vida, Madrid, Grijalbo, 1999.
· Boido, G., Noticias del planeta Tierra, Buenos Aires, A/Z, 1996.
·
Bowler, P., The environmental sciences,
New York-London, Norton & Co., 1993.
·
Brock, W., The fontana history of chemistry,
London, Harper Collins, 1992.
·
Butterfield, H., Los orígenes de la ciencia
moderna, Madrid, Taurus, 1971.
·
Cohen, B., El nacimiento de una nueva
física, Buenos Aires, Eudeba, 1971.
·
Dawben, J. W., Georg Cantor, Princeton,
Princeton University Press, 1990.
·
Cassirer, E., Individuo y cosmos en la filosofía
del Renacimiento, Buenos Aires, Emecé, 1951.
·
Chalmers, A., Qué es esa cosa llamada
ciencia, Madrid, Siglo XXI, 1987.
·
Cohen, H. F., The Scientific Revolution: a
historiographical inquiry, Chicago, University of Chicago Press, 1994.
·
Copérnico, N., Sobre las Revoluciones de
los orbes celestes, Madrid, Editora Nacional, 1982.
·
Crombie, A., Historia de la ciencia: De San
Agustín a Galileo, Madrid, Alianza Universidad, 1987.
·
Darwin, Ch., Diario del viaje de un
naturalista alrededor del mundo, Madrid, Espasa Calpe, 2008. El
origen de las especies, Barcelona, Planeta, 1992
·
Einstein, A. e Infeld, P., La física,
aventura del pensamiento, Buenos Aires, Losada, 1939.
·
Galilei, G., Consideraciones y
demostraciones matemáticas sobre dos nuevas ciencias, Madrid, Editora
Nacional, 1981. Diálogo sobre los dos máximos sistemas del mundo
ptolemaico y copernicano, Madrid, Alianza, 1995.
·
Geymonat, L., Historia de la filosofía y de
la ciencia, Barcelona, Crítica, 1998.
·
Gilson, E., El espíritu de la filosofía
medieval, Madrid, Rialp, 2009.
·
Gribbin, J., En busca de la doble hélice.
La evolución de la biología molecular, Barcelona, Salvat, 1989.
·
Grube, G. M. A., El pensamiento de Platón,
Madrid, Gredos, 1973.
·
Guthrie, W. K. C., Historia de la filosofía
griega(6 tomos), Madrid, Gredos, 1993.
·
Hall, R., The Revolution in Science,
1500-1750, New York, Longman, 1954.
·
Hawking, S., A hombros de gigantes. Las
grandes obras de la física y la astronomía, Barcelona, Crítica, 2003. Historia
del tiempo; del Big Bang a los agujeros negros, Barcelona, Crítica, 1990.
·
Holton, G., Ensayos sobre el pensamiento
científico en la época de Einstein, Madrid, Alianza, 1982.
·
Jay Gould, S., La sonrisa del flamenco,
Barcelona, Crítica, 2004.
·
Kirk, G., Raven, J., Schofield, M., Los
filósofos presocráticos, Madrid, Gredos, 1987.
·
Koyré, A., Del mundo cerrado al universo
infinito, Madrid, Siglo XXI, 1997. Estudios de historia del
pensamiento científico, México DF, Siglo XXI, 2000. Études
newtoniennes, París, Gallimard, 1968.
·
Kuhn, Th., La estructura de las
revoluciones científicas, México, FCE, 2006. La teoría del cuerpo
negro y la discontinuidad cuántica, Madrid, Alianza, 1987.
·
Lindberg, D., Los inicios de la ciencia
occidental, Barcelona, Paidós, 2002.
·
Lloyd, G. E. R., De Tales a Aristóteles,
Buenos Aires, Eudeba, 1973.
·
Moledo, L. y Magnani, E., Diez teorías que
conmovieron al mundo (2 tomos), Buenos Aires, Capital Intelectual,
2006.
·
Moledo, L., De las tortugas a las estrellas,
Buenos Aires, A/Z, 1994.
·
Newton, I., Principios matemáticos de la
filosofía natural, Madrid, Alianza, 2011.
·
Pais, A., El señor es sutil. La ciencia y
la vida de Albert Einstein, Barcelona, Ariel, 1984.
·
Rudgley, R., Los pasos lejanos, una nueva
interpretación de la prehistoria, Barcelona, Grijalbo, 2000.
·
Sagan, C., Cosmos, Barcelona, Planeta,
1982.
·
Sánchez Ron, J. M., Historia de la física
cuántica. El período fundacional, Barcelona, Crítica, 2001.
·
Serres, M., Historia de las ciencias,
Madrid, Cátedra, 1991.
·
Smith, R., El universo en expansión,
Madrid, Alianza, 1993.
·
Stachel, J., Einstein 1905: un año
milagroso. Cinco artículos que cambiaron la física, Barcelona, Crítica,
2001.
·
Stewart, I., Historia de las matemáticas,
Barcelona, Crítica, 2007.
·
Strathern, P., El sueño de Mendeléiev: de
la alquimia a la química, Madrid, Siglo XXI, 2000.
·
Sykes, B., Las siete hijas de Eva,
Madrid, Debate, 2001.
·
Taton, R. (comp.), Historia general de las
ciencias (5 tomos), Barcelona, Destino, 1971-1974.
Agradecimientos
A Hugo Soriani.
A Esteban Magnani, Mariano Ribas, Máximo Rudelli, Martín Cagliani, Raúl
Alzogaray: por compartir textos e ideas con nosotros.
A Paula Pérez Alonso.
Y, como siempre, a Roxana Barone.
F I N
CONTENIDO
Muy breve introducción
Parte I: Un largo amanecer
1. La ciencia antes de la ciencia
2. El eclipse
3. Ser o no ser
4. Platón y aristóteles
5. La escuela de alejandría
6. La medicina antigua de hipócrates a galeno
7. El asalto al cielo
Parte II: Luces y sombras de la edad media y el renacimiento
8. Plantas, animales y lugares que nunca existieron
9. En la taberna
10. Magos, brujas, humanistas e ingenieros: de la edad media al
renacimiento
11. Un sinuoso camino hacia la revolución científica
12. El problema del movimiento
Parte III: La revolución científica
13. El hombre que movió al mundo
14. La derrota del círculo
15. Galileo
16. El conflicto con la iglesia
17. Newton, hacedor de universos
18. En busca de la certidumbre: el compromiso de 1758
Parte IV: La ciencia ilustrada: el triunfo de las disciplinas
particulares
19. Los éxitos de la ciencia experimental
20. La circulación de la sangre y las nuevas polémicas biológicas
21. Todos los fuegos el fuego: la revolución química
22. El tiempo profundo
23. La luz, el calor, la electricidad
24. La forma del cielo y la filosofía natural
Parte V: En busca de la unidad
25. La teoría de la evolución
26. La república celular y la invasión microbiana
27. El triunfo de los átomos
Parte VI: De los rayos x a la doble hélice
28. Los rayos x y la radiactividad
29. El anhelo de la conservación y la ley de leyes
30. El mapa y el territorio: las geometrías no euclidianas, el infinito
y el éter
31. Einstein y la teoría de la relatividad
32. La teoría de la deriva continental y la estabilización de la
geología
33. La genética
34. La medicina científica entre la anestesia y los trasplantes
Parte VII: Persiguiendo el origen: el camino a la partícula divina
35. La mecánica cuántica
36. La fisión nuclear y la bomba atómica
37. El núcleo atómico y el modelo estándar
38. En busca del origen
39. La estructura del universo y la teoría del Big Bang
40. La «Máquina de Dios»
Finale
Agradecimientos
© 2001 Patricio Barros y Antonio Bravo

No hay comentarios:
Publicar un comentario