© Libro N° 8165.
Mentes Maravillosas Que Cambiaron La Humanidad. Blanco,
Carlos. Emancipación. Enero 9 de 2021.
Título
original: © Mentes Maravillosas Que
Cambiaron La Humanidad. Carlos Blanco
Versión Original: © Mentes Maravillosas Que Cambiaron La
Humanidad. Carlos Blanco
Circulación conocimiento libre, Diseño y edición
digital de Versión original de textos:
http://www.librosmaravillosos.com/mentesmaravillosas_C_Blanco/index.html
Licencia Creative Commons:
Emancipación
Obrera utiliza una licencia Creative
Commons, puedes copiar, difundir o remezclar nuestro contenido, con la única
condición de citar la fuente.
La
Biblioteca Emancipación Obrera es un medio de difusión cultural sin fronteras,
no obstante los derechos sobre los contenidos publicados pertenecen a sus
respectivos autores y se basa en la circulación del conocimiento libre. Los
Diseños y edición digital en su mayoría corresponden a Versiones originales de
textos. El uso de los mismos son estrictamente educativos y está prohibida
su comercialización.
Autoría-atribución: Respetar la autoría del texto y el nombre de los autores
No comercial: No se puede utilizar este trabajo con fines
comerciales
No derivados: No se puede alterar, modificar o reconstruir este
texto.
Portada E.O. de Imagen original:
http://www.librosmaravillosos.com/mentesmaravillosas_C_Blanco/imagenes/portada.jpg
© Edición, reedición y Colección Biblioteca Emancipación: Guillermo Molina
Miranda
LEAMOS SIN RESERVAS,
ANALICEMOS SIN PEREZA Y SOMETAMOS A CRÍTICA TODA LA CULTURA
MENTES
MARAVILLOSAS QUE CAMBIARON LA HUMANIDAD
Carlos Blanco
Mentes Maravillosas Que
Cambiaron La Humanidad
Carlos Blanco
CONTENIDO
Introducción
1. La escritura: ¿existe una invención más genial?
2. Averiguar en qué día vivimos no fue tarea
sencilla
3. ¿Cuánto es diez entre cero?
4. ¿Es mejor cometer la injusticia o padecerla? La
respuesta de Sócrates.
5. Euclides y la axiomática
6. Arquímedes: “no molestes a mis círculos”
7. Ver las cosas con perspectiva: el Renacimiento
8. Un pionero de la globalización: Gutenberg
9. Copérnico y el heliocentrismo
10. Galileo y el telescopio.
11. Lo pequeño no es necesariamente hermoso pero es
importante: el microscopio.
12. Watt y la máquina de vapor.
13. Adam Smith: el aduanero que defendía el libre
mercado
14. Mendel (1822-1884) y la genética.
15. Thomas Edison enciende una nueva luz en el
mundo
16. Cajal y la “doctrina de la neurona”.
17. Planck y los ‘quanta’.
18. Marie Curie y la radioactividad
19. Einstein. Todo es relativo... ¿o no?
20. Internet y la World Wide Web.
21. Todas las mentes pueden ser maravillosas.
Algunas lecturas recomendadas sobre los temas
tratados
Introducción
¿Cambian la historia las mentes maravillosas?
El progreso en todos los campos del conocimiento y
de la vida es el resultado del trabajo conjunto de innumerables hombres y
mujeres a lo largo de los años y en una determinada sociedad, que ha sido capaz
de coordinar sus esfuerzos para que redunden en el bien de todos. Pero en
ocasiones han surgido mentes verdaderamente maravillosas, intelectos y
personalidades privilegiadas que han impulsado ellos solos y de manera
definitiva una teoría científica, un invento o una gran idea filosófica.
Se establece, por tanto, un binomio inevitable entre la acción de
individualidades dotadas de un talento excepcional y la existencia de unas
condiciones sociales y culturales sin las que, casi con toda seguridad, esas
singularidades nunca habrían podido aportar lo que realmente hicieron. ¿El
genio o su entorno? ¿La persona individual y singular o el contexto económico,
político, cultural e incluso religioso en que nace y desarrolla su labor? Se
trata de la famosa polémica entre lo que lo ingleses llaman nature (la
naturaleza, la carga genética, el individuo considerado aisladamente) y nurture (la
educación, el entorno, el ambiente familiar y social), entre la genialidad
vista como “ensimismamiento” y pura excepcionalidad o el genio contemplado como
el fruto perfectamente esperable y racionalmente comprensible en una época
histórica y en una atmósfera intelectual, social y económica concreta. Nos
enfrentamos a una dialéctica o contradicción en la que se presentan dos
términos opuestos. Por un lado, una tesis: las mentes maravillosas
son genios en sentido estricto, prácticamente independientes del espacio (el
lugar en el que nacen, la educación, la familia...) y del tiempo (el momento
histórico que les toca vivir), al estilo del protagonista de la película El
indomable Will Hunting. Hace más de cien años nació en la India un
milagro. Se llamaba Srinivasa Ramanujan, y procedía de una
pequeña aldea del estado de Tamil Nadu, al sur de ese gigantesco país. Pasó por
colegios primarios y secundarios de la región, pero nunca obtuvo un título
universitario. Se enseñó a sí mismo matemáticas, aprovechando todos los libros
de trigonometría y de análisis que caían en sus manos. Pronto los superó y
descubrió él solo teoremas de un nivel avanzadísimo. Tanto es así, que cuando
el profesor Godfrey H. Hardy, de Cambridge, tuvo noticia de los trabajos de
Ramanujan (otros matemáticos ni siquiera se habían dignado a leerlos
seriamente), no podía creer muchas de sus proposiciones por lo novedosas y
llamativas que eran. Hardy invitó a Ramanujan a viajar a Inglaterra para
investigar junto a él. Pasaron unos años fabulosos en los que afloraron un
sinfín de ideas y de teoremas, probablemente sin comparación posible en la
historia reciente de las matemáticas. Todo científico o pensador habría soñado
con profundizar en un campo del conocimiento con un genio de la categoría de
Ramanujan. Pero Ramanujan enfermó en Cambridge. Su salud era muy frágil, y
vivía obsesionado por las matemáticas. Se vio obligado a regresar a su India
natal, y falleció en 1920, con sólo 32 años. Ramanujan poseía una capacidad
insólita para concebir fórmulas y conjeturas matemáticas que luego han tardado
en probarse por su indudable complejidad. Un genio, un intelecto prodigioso y
prometeico que había surgido repentinamente en una oscura aldea de la India y
que embrujaba con su talento a los mejores matemáticos de la época.
Pero también hay una antítesis: el genio nunca habría sido genio y las mentes
maravillosas nunca habrían logrado cambiar la historia sin haber recibido los
influjos sociales y culturales que marcaron sus biografías, de modo que
las estructuras e instituciones (económicas, políticas,
científicas) son clave a la hora de analizar el alumbramiento de una gran
personalidad. Y si se quiere encontrar una síntesis es
necesario intentar mantener ambos términos (la tesis y la antítesis)
simultáneamente, renunciando en lo mínimo a las exigencias que cada uno
plantea. ¿Cambian la historia las mentes maravillosas? Por un lado sí, porque
ha habido genios sin parangón que por sí solos han abierto nuevos horizontes en
la ciencia, el arte o el pensamiento. Pero por otro lado no, porque esos genios
responden a una época y a una sociedad o a una tradición en la que unos u otros
habrían acabado efectuando las mismas o similares contribuciones al progreso
intelectual y ético. Conclusión: las mentes maravillosas cambian, sí, la
historia, pero la historia también cambia a las mentes maravillosas porque esas
mentes no habrían sido maravillosas si no hubiesen dado con una coyuntura
histórica, política y social como la que vivieron. Sin la crisis que atravesaba
la física clásica a finales del siglo XIX no habría surgido ningún Einstein,
pero probablemente sin el Einstein de carne y hueso (y no cualquier otro físico
en la misma tradición y en la misma situación) la historia de la física no
habría tomado el rumbo tan precipitado y revolucionario que a la larga cogió.
Ni el individuo se explica sin la historia, ni la historia se explica sin los
individuos que la protagonizaron. Estamos “condenados” a prestar igual atención
a ambos términos del binomio genio/sociedad, como en tantos otros aspectos de
nuestra existencia, y lo importante es que en cada caso concreto sepamos
identificar con precisión cómo se relacionaron ambos polos que configuraron una
común realidad. Esa tensión entre los dos polos es enormemente fecunda y
productiva, es un motor que invita a pensar y a superar la parcialidad en la
que siempre podemos caer si nos centramos unilateralmente en uno de los
miembros de la ecuación y no nos fijamos en el otro como lo merece. Y esa
tensión inspira a mirar continuamente más allá, a proponerse superar toda
limitación y a situarse constantemente en una perspectiva más amplia que
relativice esos términos aparentemente irreconciliables y descubra un horizonte,
un espacio de reflexión mayor donde quepan cada vez más opciones y donde cada
vez se disponga de un acercamiento más riguroso y certero a la historia
intelectual de la humanidad.
Por poner un ejemplo, tenemos el caso del Renacimiento. El Renacimiento supuso
una innegable novedad con respecto a la cultura medieval, pero cuando se
estudia y analiza más a fondo, uno se da cuenta de que sin esa cultura medieval
es inexplicable el Renacimiento. El Renacimiento significó así una
discontinuidad o ruptura con lo anterior, pero también se desenvolvió en
continuidad con la Edad Media, de manera que en la Edad Media estaba ya el
“embrión” o el germen del futuro Renacimiento. Lógicamente, al decir que existe
una gran continuidad entre la Edad Media y el Renacimiento de manera que no se
pueden entender el uno sin la otra, no se quiere negar la originalidad que
supuso la cultura renacentista primero en Italia y después en toda Europa. Si
no hubiese existido una cierta “discontinuidad”, nunca se habrían dado los cambios
que luego se produjeron y en realidad llegaríamos a afirmar que no hay tanta
diferencia entre la Edad Media y el tiempo actual, lo que no parece muy
sensato. La humanidad no habría progresado. Sencillamente, lo que damos a
entender es que es imposible aislar arbitrariamente a personas y momentos
obviando su posición en la historia, su lugar en esa cadena de acciones y de
influencias. Claro que han existido y seguirán existiendo mentes maravillosas
que verdaderamente cambian la historia, y que esos hombres y mujeres son
irrepetibles, singulares y únicos, con una forma de afrontar los problemas y de
mirar a la realidad propia, aunque en muchos puntos coincidan con otros
autores. Pero nunca habrían sido auténticos revolucionarios si no hubiesen
vivido en un tiempo y en un espacio, educados en una tradición y sometidos a
una serie de influjos que los marcaron y definieron. Sólo desde ahí es posible
comprender su genialidad y su originalidad. Además, desde un punto de vista
histórico es muy fácil apreciar la continuidad que existe entre unas épocas y
otras. La historia se muestra como una línea recta, más o menos compleja,
porque el historiador que escribe en el siglo XXI ya tiene una perspectiva más
global, ya sabe lo que ha ocurrido y puede mirar desde arriba, a “estilo
piloto”, a las diferentes épocas. Pero cuando se está en una época, las cosas
cambian. Ya no es tan sencillo descubrir ese sentido (si es que existe), esa
perspectiva general, y a veces es mejor conformarse con aproximaciones a los
hechos menos pretenciosas, como han puesto de relieve los filósofos de la post-modernidad. Personas
o acontecimientos que hoy nos resultan asombrosos y absolutamente innovadores
quizás, a la larga, nos impresionen menos. Que en una encuesta reciente para
el Discovery Channel los estadounidenses votasen al difunto ex
presidente Ronald Reagan como el americano más grande de todos los tiempos, por
delante de Abraham Lincoln o de Benjamin Franklin, sólo demuestra el riesgo y
el peligro que corremos si juzgamos la historia desde la inmediatez. Lo que
para nosotros es popular, relevante o incluso trascendental puede resultar
mucho menos importante si se ve desde una óptica histórica más amplia y menos
cercana a los hechos. Pero en el aquí y en el ahora, ciertas personalidades,
hechos y descubrimientos presentan una originalidad innegable. No tenemos más
remedio que convivir con esa ambivalencia, sumamente enriquecedora y plural, de
admitir la continuidad y la ruptura que conviven en la historia, aunque en
ocasiones pueda ser más interesante privilegiar uno u otro aspecto. Y lo que
queda por encima y por debajo de esa ambivalencia entre el genio y la sociedad
es que el ser humano es capaz de superarse constantemente a sí mismo y de
descubrir nuevos mundos en todos los campos del conocimiento y de la acción.
Porque además, ¿existe el progreso auténtico en el conocimiento? El progreso;
pocos conceptos ejercen, a la vez, tanta fascinación y tanto rechazo, tanta
admiración y tanta suspicacia, tantas ilusiones y tantas frustraciones. ¿Es
todavía posible creer en el progreso? Creer en el progreso es, en efecto, un
acto de fe. Por extraño que parezca, no hay ninguna evidencia de que el mundo
físico o la humanidad como tales se superen de forma continua e incesante.
Exige tener fe, creer en que es posible progresar, también hoy. Por otra parte,
y aunque no nos demos cuenta, la sociedad actual nos exige creer en muchas
cosas que no están demostradas. Creemos en la capacidad racional humana para
desentrañar los misterios del universo y para ofrecer una explicación lógica
del cosmos y de la psicología humana. Creemos que realmente comprendemos cómo
funciona el universo físico empleando herramientas matemáticas. Creemos que el
ser humano puede controlar la naturaleza (también la suya propia) con el poder
de su inteligencia. Esto es un acto de fe. Podríamos estar soñando, pensando
que realmente comprendemos algo cuando en realidad no comprendemos nada.
Podrían ser la mera casualidad, el puro azar, lo que hubiese propiciado la
síntesis de matemáticas y de observación experimental para construir ese
ampuloso y problemático edificio llamado ciencia. Al igual que hay gente que
dice que el universo ha surgido por azar, ¿por qué no hay tanta gente que diga
que la matematización de la ciencia puede haber sido una simple casualidad,
pero que no podemos estar seguros de que vayamos a seguir utilizando este sutil
formalismo para describir la naturaleza? De hecho, parte de la filosofía
contemporánea de la ciencia ha abandonado los rígidos esquemas del positivismo
y del cientificismo para recaer en un “anarquismo epistemológico” (en expresión
de Paul Feyerabend) que renuncia a conceder a las ciencias experimentales el
beneficio de la certeza.
En la vida humana, aun sin darnos cuenta, tenemos que hacer muchos actos de fe,
incluso sobre cosas que creíamos objeto de certeza racional y no de fe. Por
tanto, la pregunta no es ya si existe el progreso de hecho, de facto (muchos
lo niegan, otros muchos dicen que la humanidad ha ido a peor in
crescendo, y los herederos de Rousseau piensan que éramos mejores
cuando vivíamos en la inocencia pre- civilizatoria, lejos de la corrupción y de
la soberbia que las ciencias, las artes y la técnica nos inoculan), sino si
puede existir de derecho, de iure: ¿es posible el progreso?
Como en toda cuestión de fe, lo que la inteligencia humana puede hacer es, como
mucho, mostrar que una determinada creencia no es absurda o negativa para el
bienestar humano, pero en ningún momento podrá demostrarla, ofrecer razones
apodícticas sobre su veracidad y por tanto sobre el imperativo de creer en ella
si realmente queremos ser coherentes con los instrumentos intelectuales de que
disponemos, que son (y esto es, al fin y al cabo, una vuelta al punto de
partida de Descartes y su pienso, luego existo) una de las
pocas cosas de las que podemos estar seguros: de que hemos pensado, pensamos y
podemos continuar pensando en un futuro.
El “progreso” da a entender que cada etapa histórica es capaz de superar,
objetivamente, a las anteriores. Somos mejores que antes; conocemos más que
antes; podemos hacer más cosas que antes. El progreso es el “cambio del cambio”
dentro de la historia, como la aceleración es el “cambio del cambio” en el
movimiento físico. Sin embargo, las frustraciones históricas han desacreditado
la visión del progreso propia de la Ilustración. Tras la Primera Guerra
Mundial, autores como Oswald Spengler (a su obra dedicó en gran medida la tesis
que presentó en Harvard el controvertido Henry Kissinger) han hablado de la
“decadencia de occidente”, frente al sueño iluminista de la superación
incesante. Y la teoría del eterno retorno (der ewige Wiederkehr) de
Friedrich Nietzsche se postula como una consecuencia del nihilismo (no hay nada
con sentido en la vida o en la historia) y de la inmanencia de la historia, que
vuelve continuamente sobre sí misma.
La tónica general, en línea con la filosofía postmoderna y con el relativismo
cultural, ha llevado a rechazar la idea de progreso por considerarla un
producto occidental con pretensiones de exclusividad que cercenan el
pluralismo. Porque en efecto, la pregunta no es sólo si es posible el progreso,
sino de qué tipo de progreso estamos hablando. ¿Nos referimos a la idea
ilustrada de progreso, que se resume a grandes rasgos en el progreso científico
y tecnológico? ¿Nos referimos a la idea de progreso histórico presente en
muchas religiones? ¿Nos referimos al progreso ético, a la mejora moral de la
humanidad, que parte ya del a priori de que existe una ética
más perfecta hacia la que deben orientarse todas las culturas? El progreso
científico es un hecho... o no. ¿Hemos progresado, realmente, de modo que a día
de hoy podamos responder a las grandes preguntas -sobre el origen del universo,
de la conciencia, de lo complejo, con plena certeza, o estamos inmersos aún en
más dudas precisamente porque cuanto más conocemos y avanzamos más
interrogantes surgen? En este sentido, no se puede hablar a secas de progreso,
porque el progreso científico implica un aumento cada vez mayor de los enigmas
e interrogantes sin respuesta, por lo que al mismo tiempo que “sabemos más”
también sabemos que “ignoramos más”.
Pero quizás entendamos por progreso la convicción de que toda barrera
histórica, cultural, científica o social puede ser superada. No cabe oponer,
por tanto, el pluralismo cultural al progreso, porque lo que “progreso”
significa es que cualquier cultura puede ser renovada, ampliada, mejorada,
también la cultura que promueva una cierta visión del progreso y,
concretamente, la occidental. Es la convicción de que cualquier determinación
puede romperse, de que cualquier filosofía, cultura o religión puede “abrirse”,
puede ir más allá de su horizonte actual y entrar en un horizonte más amplio,
más integrador. Es una afirmación de la libertad humana por encima de toda
frontera, sea del tipo que sea. Es creer que siempre puedo “abrirme más”, ir
más allá de la situación actual o de la contingencia presente, para entrar en
un espacio más universal, o al menos renovado. Es, en conclusión, una forma
“a-temática”, sin “tema”: el progreso no impone unos contenidos, unos objetivos
concretos, unos logros, sino que consiste en afirmar que toda determinación
podría eventualmente romperse, que todo contexto podría ampliarse, que toda
cultura o religión podría renovarse, purificarse y mejorarse. Se trata de
un progreso formal, de la afirmación de una posibilidad (la de
apertura, renovación, mejora y humanización) más que de la defensa de unos
contenidos concretos (que es lo que normalmente se entiende por progreso) y que
representa, a mi juicio, un postulado ético necesario en nuestro tiempo.
sólo si aprendemos a ver las culturas, las religiones y las sociedades no como
entidades cerradas sobre sí mismas, sino como siempre susceptibles de apertura,
mejora y renovación, superaremos la incomunicación que todavía existe entre
tantos hombres y mujeres de la Tierra, que bajo la excusa de pertenecer a otras
tradiciones, sociedades o culturas totalmente distintas, creen imposible el
diálogo. Y el diálogo es posible precisamente porque esas culturas o
tradiciones nunca pueden tomarse como absolutas, como clausuradas sobre su
propia historia y sus propios principios, sino que siempre podremos abrirlas
más y llevarlas a horizontes nuevos y más integradores. El pensamiento cambia
de una persona a otra y de una cultura a otra, pero lo que nos une es la
capacidad de relacionarnos intelectualmente, de intercambiar ideas y opiniones,
de apreciar las creaciones artísticas de cada civilización: la posibilidad
de comunicarnos y de ser partícipes de la interioridad de los
otros a la vez que revelamos la nuestra propia es, creo yo, lo más definitorio
del ser humano. Todo lo que potencie esa capacidad de comunicación, de
intercambio y de apertura más allá de nuestro yo pero
respetando la autonomía de ese yo será un ejemplo de progreso.
También tenemos que aprender a superar las ataduras que impone una
cultura tecnocrática, gobernada exclusivamente por la técnica
y por el predominio de lo “útil” a simple vista. El predominio de la técnica en
nuestra cultura es incuestionable. Desde hace décadas, su fuerza se aprecia en
todos los niveles, y muy especialmente en el de la educación. Imbuidos por sus
logros, hemos adquirido una mentalidad “tecnocrática”, donde lo que parece
importar es, fundamentalmente, la pericia técnica, la capacidad de “hacer algo”
más que de “pensar” o “reflexionar” sobre algo.
El saber y las disciplinas académicas se juzgan, con frecuencia, en base a sus
aplicaciones prácticas. Si una ciencia contribuye a mejorar la vida de las
personas, goza de gran aceptación social. En cambio, si una ciencia o una rama
del conocimiento no presenta aplicaciones concretas, su valor es puesto en tela
de juicio. La teoría se mide en función de la práctica, y si la teoría no
conduce a un resultado práctico evidente, tendemos a pensar que su importancia
es escasa. La pregunta posee, por tanto, una enorme trascendencia: ¿Qué cultura
queremos forjar? ¿Qué sociedad del conocimiento queremos construir? ¿Hacia qué
metas queremos encaminar la educación y el progreso técnico, científico y
social?
La sociedad no la configuran únicamente los técnicos. La técnica, el “saber
hacer”, es vital para el desarrollo de un país. Sin técnicos que gestionen las
administraciones o las empresas es imposible que una comunidad funcione. Todos
estamos obligados, en este sentido, a ser “técnicos”, a saber hacer, porque la
vida se realiza en un aquí y en un ahora que requiere de unas acciones
concretas.
Pero hay algo previo a la técnica. Las ciencias no avanzan sólo en el plano
experimental. En ocasiones, la teoría ha tenido que anteceder a la práctica,
aunque haya sido la práctica la responsable de validar o refutar una teoría. Y
del mismo modo, la sociedad no progresa sólo gracias a las ejecuciones
técnicas, a los proyectos de ingenieros, economistas, informáticos y juristas
que dominen su campo, sino que en los pilares de esa tecno-estructura se
encuentra la esfera de las ideas y del pensamiento, que más que cualquier otra
cosa, han definido las grandes líneas en torno a las que gravita nuestra
cultura. No han sido sólo los técnicos quienes han inspirado una visión de la
sociedad fundada en unos valores que hoy compartimos, sino que existe una larga
tradición de pensamiento y de reflexión de intelectuales y filósofos que ha
influido significativamente en la sociedad actual. El progreso social, cultural
y científico no se debe en lo esencial a la “tecnocracia”, al predominio de la
mentalidad técnica, sino a la ideocracia, al predominio de las
ideas, de la reflexión y de los planteamientos teóricos que han intentado ir
más allá de la coyuntura concreta y de las circunstancias específicas, para
abrirse a un plano más amplio donde se pudiesen concebir órdenes sociales y
científicos nuevos.
No hay, a mi juicio, distinción legítima y excluyente entre “estudios útiles” y
“estudios inútiles”. Muchas veces caemos en la tentación de pensar que sólo
estudiando o cultivando materias “productivas” a corto plazo se hace algo
realmente beneficioso para la sociedad. En el fondo, bastaría con la economía,
la informática, el derecho, los idiomas o las ingenierías para ayudar a la
sociedad o, al menos, para abrirse paso en el arduo campo de la competitividad
profesional. Quienes así opinan olvidan, probablemente sin quererlo, que si
sólo estudiamos “cosas útiles” no somos auténticamente libres, y quedamos determinados
por la coyuntura del momento, coyuntura que por otra parte puede cambiar.
¿Quién no nos dice que el día de mañana muchas de las materias que hoy
consideramos importantes dejarán de serlo, aunque hoy nos resulte casi
impensable? Una cultura que no supiese sobreponerse al momento, a lo concreto,
carecería de amplitud de miras y nos uniformizaría, creando “seres
prototípicos” o clónicos, casi de diseño, programados para dar respuestas a
ciertas necesidades. Serían meros técnicos, pura sintáctica sin semántica,
destreza sin ciencia. Si queremos huir de lo uniforme, de la “producción en
masa” alienante en el ámbito intelectual y humano en general, debemos abrirnos
al mundo del conocimiento en toda su amplitud, porque de todo podemos aprender
y en todo podemos descubrir nuevos horizontes que fomenten el diálogo, la
integración y el progreso. El mundo actual no se ha construido sólo gracias a
los técnicos, sino también con grandes ideas de filósofos y de humanistas que
supieron ver más allá de lo que la sociedad del momento quería mostrarles. La
Ilustración, por poner un ejemplo, es el fruto de de la reflexión de filósofos
y científicos que como Voltaire, Montesquieu, Rousseau, D’Alembert o Kant
concibieron un orden social nuevo en gran medida impulsados por un legado
filosófico e ideológico previo, y no sólo por las revoluciones en el ámbito de
la técnica que por entonces se estaban experimentando en Europa.
Una de las expresiones más bellas de la libertad y de la indeterminación que
caracterizan al ser humano es precisamente contemplar universidades en todo el
planeta en las que se cultivan disciplinas tan dispares como la historia
antigua, la física cuántica, la teoría política, las lenguas orientales o la
filosofía de la religión. Porque conocer es humanizar, y todo lo que conocemos,
por “inútil” que parezca, es un logro de la humanidad.
Capítulo 1
La escritura: ¿existe una invención más genial?
Si preguntásemos a muchos de nuestros
contemporáneos por el que ha sido el mayor descubrimiento de la historia de la
humanidad, muchos mencionarían el ordenador, la imprenta o la máquina de vapor.
Y no les faltaría razón: todos estos inventos, ya sean pura tecnología o
teorías científicas y filosóficas, han contribuido de manera admirable a la
mejora de la vida humana y nos han introducido en nuevos mundos. Pero hay algo
previo a todos estos descubrimientos, algo sin lo que probablemente no se
habría conseguido nada más en los siglos sucesivos; algo que, por su
importancia, inaugura la historia: la escritura.
Es imposible, al menos si nos atenemos a las evidencias arqueológicas,
determinar con exactitud cuándo y dónde comenzó la escritura, y menos aún quién
(o quiénes) fue el responsable de una genialidad tan asombrosa. La escritura
está en el origen de la civilización, y dio pie a una revolución aún más
decisiva que la que supuso la aparición de la agricultura y de la ganadería.
Así, en las cuatro primeras grandes civilizaciones tenemos ya testimonios del
surgimiento de una nueva y trascendental herramienta.
Se suele considerar que es Sumeria, y no Egipto, la patria de la escritura.
Pero el debate no está cerrado, porque, ante todo, es necesario clarificar qué
se entiende por escritura y si meros pictogramas en un sistema mínimamente
desarrollado son ya merecedores de esta denominación. En 1998, expertos del
Instituto arqueológico alemán con sede en El Cairo y dirigidos por Günther
Dreyer, anunciaron haber descubierto las primeras muestras de inscripciones
jeroglíficas en el país del Nilo. En palabras del propio Dreyer, sus hallazgos
no significaban situar a los egipcios por delante de los sumerios en una
supuesta carrera por el “record Guinness” de la invención de la escritura, sino
que más bien obligaban a replantearse la pregunta más allá de lo
tradicionalmente afirmado, ya que sus descubrimientos los colocarían, por lo
menos, en la misma época, hacia el 3400-3200 antes de Cristo. Sus excavaciones
en las inmediaciones de Abydos, en el Alto Egipto, habrían sacado a la luz
tarros y etiquetas con inscripciones más legibles que los encontrados en
Mesopotamia, al representar figuras de animales, plantas y montañas de las que
se podrían haber derivado nombres de futuros monarcas (como es el caso del rey
Escorpión).
Ignace Gelb, de la Universidad de Chicago, en un ensayo ya clásico (A
Study of Writing, publicado en 1952), hablaba de “precedentes de la
escritura” para referirse a aquellas representaciones pictóricas que, sin
llegar a constituir formalmente un sistema de signos con capacidad de expresar
sonidos e ideas (es decir, la expresión de lo lingüístico), sí dio lugar a los
elementos fundamentales con los que iba a contar cualquier escritura futura
propiamente dicha. Entre estos “precedentes” incluyó pinturas rupestres y
petroglifos, deudores de una sistemática descriptiva-representativa que se
inspiraba, como más tarde las escrituras logográficas (que
combinan signos puramente fonéticos con signos ideográficos, que en lugar de
sonidos expresan ideas), en las formas naturales. No debemos olvidar que la
independencia que en las actuales escrituras alfabéticas se ha logrado con
respecto a las formas naturales es sólo fruto de un dilatado proceso que no se
inició hasta, aproximadamente, el año 1900 antes de Cristo. Según una noticia
aparecida en prensa, los primeros ejemplos de escritura alfabética podrían
haberse producido, como otros muchos adelantos a la larga decisivos para el
desarrollo de la civilización, en Egipto. Se trata de textos del 1900 antes de
nuestra era, más tempranos que las muestras proto-cananeas hasta entonces
tenidas como las más antiguas, hallados por John Coleman de Yale y por su
esposa en Wadi el Hol, entre Tebas y Abydos. Los autores habrían sido gentes de
lengua semita que vivían en Egipto, por lo que continuaría siendo cierta la
afirmación de que fueron los fenicios (pueblo semita) quienes inventaron el
alfabeto, pero estas muestras serían anteriores a las fechas que se suelen
ofrecer como iniciales en el surgimiento de las escrituras alfabéticas. Sin
duda, la simplicidad del alfabeto frente a la extrema complejidad que se
alcanza en sistemas logográficos como el egipcio o el chino fue, a la larga,
una razón fundamental para el triunfo casi definitivo de este modelo de
escritura.
Gelb, y en esto coincidirían muchos autores, cometió errores en su búsqueda de
las formas primarias de escritura. Negó a los jeroglíficos mayas el estatuto de
escritura, ciertamente influenciado por el gran estudioso de las culturas
mesoamericanas Sir John Eric Thompson, pero que hoy en día, tras las
exhaustivas investigaciones del ruso Yuri Knorosov y de otros eruditos como
Tatiana Proskouriakoff y sus avances decisivos en el desciframiento, son casi
unánimemente tenidos como escrituras verdaderas. Y eso por no entrar en la
polémica, todavía vigente, sobre las inscripciones de la isla de Pascua, que
para Gelb habrían sido meros trazos con finalidades mágicas sin un contenido
logográfico.
El mismo Gelb situó representaciones pictóricas como los “cantos de Ojibwa” u
otras creaciones de nativos americanos bajo la denominación de “sistemas de
identificación mnemónica”. Así, pictogramas de carácter heráldico habrían
estado entre las formas primitivas que habrían evolucionado a la escritura en
sentido estricto. Gelb pone el ejemplo de la pantera: si un hombre primitivo
dibujaba en su escudo una pantera, al principio podría evocar la fuerza que la
pantera transmitía al dueño del escudo, pero progresivamente la referencia se
habría ido desplazando desde el signo en sí (la pantera) al propietario del
escudo, llegando a denotar posesión, propiedad. Aunque no sea una pieza de
escritura en sentido estricto, está ya en el camino que irá permitiendo una
sistemática independencia del significado del signo con
respecto a la forma gráfica del signo, clave en cualquier tipo de escritura.
Vemos de esta manera que la escritura representa una de las creaciones más
poderosas de la inteligencia humana. Supuso un paso definitivo en la senda de
racionalización y de humanización del cosmos, al representar ya una
emancipación de lo mágico y de lo religioso, si bien en sus comienzos y también
en su desarrollo la escritura no estuviese exenta de intencionalidades
mágico-religiosas. Pero lo que está claro es que en los sistemas de escritura,
también en los más rudimentarios, se consigue una relación dual entre el signo
escrito y el significado de ese signo. Un ejemplo
nítido es el de la escritura jeroglífica egipcia: el águila se emplea para
expresar el sonido consonántico equivalente al alef semítico
(del árabe y del hebreo), aunque gráficamente sea un águila. Sin embargo, la
coexistencia en sistemas como el egipcio de signos fonéticos y signos
ideográficos demuestra que sólo con el transcurso del tiempo se llegará a una
escritura mucho más económica, donde la independencia entre el signo y el
significado sea ya completa, y la casi totalidad de los signos aludan
exclusivamente a un valor fonético y las ideas sólo se transmitan
fonéticamente. En escrituras como la egipcia los signos determinativos (referentes
a ideas y no a sonidos) desempeñaban un papel muy importante, como el dibujo de
un hombre para indicar que la palabra escrita fonéticamente alude a “hombre”, o
un gato para señalar que la expresión fonética miw representa
un felino. Estos signos, también presentes en el hitita o en las escrituras
mesopotámicas, ayudan bastante a separar una palabra de la otra, y se podrían
asemejar al “espacio” en blanco que nosotros dejamos entre una palabra y la
siguiente para distinguirlas fácilmente (algo que, por cierto, no solían hacer
los clásicos griegos y latinos). Además, todavía en nuestra escritura sigue
habiendo excepciones, porque el signo de interrogación no contiene ningún
elemento fonético, y es significativo. Pero la tendencia en la evolución de la
escritura ha sido que todo acabe expresándose fonéticamente, con letras que
representan sonidos y no ideas.
Entre lo que Gelb llamó sistemas logo-silábicos por combinar
elementos silábico-fonéticos y elementos ideográficos figuran la escritura
sumeria, el proto-elamita, el proto-índico (en el valle del Indo, en el actual
Pakistán), el chino (que comenzó a desarrollarse hacia el 1300 a.C. y que se
utiliza en la actualidad, lo que supone, y nadie lo niega, un enorme quebradero
de cabeza para los chinos, al haber un número ingente de signos), el egipcio,
el cretense (que comprende a su vez varias formas de escritura, como el Lineal
A o el Lineal B, descifrado gracias a los trabajos del arquitecto inglés M.
Ventris, que empleó una novedosa técnica matemática) y el hitita.
El nacimiento de la escritura estuvo relacionado con el proceso de sedentarización y,
más aún, con el proceso de civilización. Tanto Sumeria como
Egipto conocieron una floreciente cultura que, asentada en torno a un
importante cauce fluvial (el Nilo y los ríos Tigris y Eúfrates; en el caso de
Harappa, el río Indo, y el Yang-Tse en China; hay excepciones, sin embargo, a
esta asociación entre civilización y río: la cultura maya no se asentó junto a
ningún cauce fluvial, y sin embargo, se trata de una de las primeras grandes
civilizaciones americanas, aunque sea bastante posterior a las primeras grandes
civilizaciones del Oriente Medio), alcanzó unas cotas de desarrollo hasta
entonces desconocidas. En el caso de Egipto, un líder sureño llamado “Narmer”
venció al caudillo del norte a finales del cuarto milenio antes de Cristo,
“unificando” los dos reinos bajo su mandato y dando lugar, por tanto, a lo que
se conoce como el Egipto dinástico. Si analizamos la paleta de Narmer, una
de las muestras más tempranas de arte al servicio de la exaltación del poder
del rey, percibimos un asombroso simbolismo que, sorprendentemente, se conjuga
con una sobria pero acaso más significativa representación fonográfica: se
expresan más ideas que sonidos. En efecto, en el anverso de la paleta aparecen,
en su parte superior, dos signos que han sido generalmente identificados con
los bilíteros (signos de dos consonantes) para Nr (pez)
y mr (cincel) dentro de un serej (el
rectángulo con los jeroglíficos del nombre del monarca; es por ello que el
líder representado en la paleta es conocido como “Narmer”, rey de
Hierakómpolis, y asociado al “Menes” de que habla el historiador Manetón).
Ambos constituirían uno de los primeros ejemplos de escritura propiamente
dicha. Seguidamente podemos ver a un dirigente (y detrás de él a su
porta-sandalias, la persona encargada de llevar el calzado del monarca) con una
corona blanca alta (la corona del Alto Egipto), haciendo ademán de castigar
severa o incluso mortalmente a un líder postrado y vencido que por los
jeroglíficos que lo acompañan podría haberse llamado “Washi”. El mismo Narmer
aplasta a dos individuos (gentes del Delta del Nilo, del norte, físicamente
semejantes al caudillo humillado por Narmer), y Horus, el dios- halcón
encarnado en la persona del rey, domina al caudillo del Delta (la cabeza del
hipotético Washi con seis flores de papiro, típicas de la región del Delta del
Nilo).
Anverso y reverso de la Paleta de Narmer (de www.egiptologia.net)
En el reverso de la paleta, observamos al “monarca”
con la corona del Bajo Egipto (que hace de él neb tawy, Señor de
las Dos Tierras) seguido de su porta- sandalias y precedido por una especie de
parada militar en la que se muestran diferentes estandartes. Habría también un
gran número de cautivos, resultado de su victoria sobre el líder septentrional.
En la parte inferior vemos dos fieras cuyos cuellos se enroscan, en una más que
probable referencia al proceso de unificación de los dos reinos, el del Alto Egipto
gobernado por Narmer y el recientemente conquistado Bajo Egipto. Y, en la base
de la paleta, un toro (el que en los textos egipcios clásicos será
llamado ka nehet, toro poderoso) simbolizando al monarca,
ataca una ciudad y pisotea a su gobernador.
Haya sido o no Egipto la primera civilización en usar la escritura, le debemos
a esta fascinante cultura no sólo aportaciones de orden científico y
tecnológico, gracias a las cuales erigieron monumentos del tamaño y de la
perfección que poseen muchos de los que todavía hoy se conservan, sino un
riquísimo legado de ideas, conceptos y sendas de progreso que están en el
origen de aspectos fundamentales de la historia de la humanidad. Los griegos se
enorgullecían de haber aprendido mucho de los egipcios, y Egipto siempre fue un
ejemplo de sabiduría en la antigüedad. No sólo la escritura, sino otras
contribuciones de índole filosófica nacieron a orillas del Nilo. Entre ellas,
la dimensión interior de la persona. La interioridad humana,
que alcanzaría entre los griegos su máxima expresión con Sócrates y con los
filósofos posteriores, estaba ya expresada, mutatis mutandis, en
nociones genuinamente egipcias como ba y ka, que
hacían referencia a un mundo interior, a una fuerza vital, a una esfera no
visible pero perteneciente a lo más íntimo de la persona, que era a la vez lo
que más le unía a lo divino y ultra-terreno. Por otra parte, muchas de estas
ideas provienen, a su vez, de antiguos pueblos de África, lo que nos obliga a
los occidentales a replantearnos el papel que han tenido otros continentes y
otros pueblos en la gestación de nuestra cultura. Sólo así reconoceremos que el
progreso ha sido una maravillosa confluencia de gentes, pueblos y culturas, que
tantas veces han puesto los cimientos para que las generaciones venideras
construyesen los edificios del conocimiento y de la ciencia. Parafraseando a
Isaac Newton, estas culturas han sido los “hombros de gigantes” sobre los que
Grecia y occidente se han podido apoyar.
La escritura supuso un firme paso hacia delante en el proceso, ya irreversible,
de humanización del cosmos. El ser humano fue capaz de usar
los elementos que le ofrecía la naturaleza para expresar algo que excedía dicha
naturaleza: las ideas, los conceptos, los números... Sin duda, el proceso fue
largo y estuvo motivado por un contexto socioeconómico: la progresiva
sedentarización que obligó a organizar la comunidad, de modo que las tareas
asignadas a cada uno formasen parte de un todo mayor (el social) que requería
de herramientas propias para gestionar esa variedad de ocupaciones en el
contexto de una misma comunidad. Sin los precedentes de ciudades como Jericó en
Palestina, Katal-Huyuk en Turquía o Monhejo-Daro en Pakistán, no habría sido
posible que surgieran civilizaciones más amplias que en realidad agrupan a
diversas ciudades bajo un gobierno común.
La necesidad de llevar un registro perdurable de las cabezas de ganado, de la
producción agrícola, de los intercambios comerciales o de los eventos
militares, fue decisiva en el nacimiento de la escritura. El ser humano dejaba
de estar a merced del paso del tiempo para imponerse al tiempo mismo, para
permanecer, mediante la plasmación objetiva de sus pensamientos, en la memoria
de sus contemporáneos y de sus sucesores. El mundo de la mente, hasta entonces
sólo expresable mediante la comunicación oral, pasaba a formar parte de la
realidad física, espacio-temporal, del hic et nunc (el “aquí y
ahora”), del presente y del futuro. La escritura está en la base de todos los
grandes descubrimientos posteriores, y es una de las cimas de la civilización y
de la humanización del cosmos. El ser humano conseguía
materializar la comunicación haciendo uso de los elementos que la naturaleza le
ofrecía, fijándose en las formas de las aves, de los mamíferos o de las
montañas. Eso sí, con una salvedad. En la escritura hay un signo gráfico que
posee un significado, pero para relacionar signo y significado se necesita
un intérprete: la sintáctica (manejo de los signos), sin
semántica (interpretar el significado de esos signos), no sirve de nada. Hasta
el momento, dicho intérprete ha tenido que pertenecer a la especie humana para
ser capaz de “descifrar” el significado de esos símbolos, las ideas que
representan, al poseer un intelecto, una mente que le capacita para abstraer y
conceptualizar, si bien las investigaciones en el campo de la inteligencia
artificial parecen sugerir que en algún momento, quizás no muy lejano,
estaremos en condiciones de crear sistemas no-humanos con posibilidades de
“interpretar” no de modo mecánico, sino de ser ellos agentes activos en el
proceso creativo y comunicativo. Dicha revolución (la de la inteligencia
artificial) sería de consecuencias impredecibles y se situaría a la altura de
la que en su momento supuso la propia escritura.
El progreso humano ha consistido, ya desde sus más tempranas etapas, en una
creciente humanización y universalización: los
seres humanos, además de desarrollar instrumentos que les ayudasen a resolver
sus necesidades objetivas y concretas (como pudieran ser el recuento de ganado,
la conservación de la memoria, la creación de métodos efectivos de comunicación
que no se circunscribiesen a unas circunstancias variables...), han sabido
sobreponerse a la mera necesidad del momento para crear algo que le permitiese
dominar la naturaleza y el tiempo, a la par que le abrían nuevos horizontes y
espacios que les situaban a las puertas de más avances. La humanidad se ha
hecho así progresiva, por cuanto cada descubrimiento, cada
paso en esta trayectoria de universalizar y de ampliar, le permitía llegar a
nuevos hallazgos y abrirse a nuevas realidades. La escritura integraba dos
mundos: la naturaleza y la mente, el mundo exterior al ser humano y el universo
interior en el que tenían cabida las ideas y los pensamientos. Gran parte del
progreso de la humanidad habría sido imposible, de hecho, sin esta continua
“relativización” o cuestionamiento de los opuestos, de elementos que podrían
parecer, a simple vista irreconciliables e imposibles de integrar; sin esta
unión progresiva que ha ido generando espacios cada vez más amplios donde la
creatividad, la indeterminación y la desmesura que conviven en todo ser humano
(y, en realidad, en toda la evolución, aunque alcancen un estadio elevadísimo
con la aparición de la especie humana) han encontrado cauces para expresarse.
Capítulo 2
Averiguar en qué día vivimos no fue tarea sencilla...
Las primeras civilizaciones observaron un mundo en
el que muchos fenómenos variaban de manera cíclica. El Sol salía y se ponía
todos los días, el río Nilo crecía anualmente y se desbordaba formando un
auténtico vergel a sus orillas, las posiciones de los astros también podían
seguirse periódicamente... El ser humano no se limitaba a mirar pasivamente lo
que ocurría a su alrededor, como un mero receptor de sucesos naturales que
quizás al principio le sorprendieran pero que luego terminasen convirtiéndose
en rutina. Ya desde los albores de la historia, el ser humano quiso controlar y
entender esos acontecimientos de forma que le sirviesen para mejorar su vida y
para satisfacer sus necesidades y deseos. Así, nuestros antepasados hicieron de
esos eventos cíclicos medidas del tiempo. Esas variaciones
naturales quedaban desde entonces referidas al ser humano, a su modo subjetivo
de concebir el universo físico, y lo que era simple repetición empezó a
ser temporalidad, un “apropiarse” de los fenómenos
reiterativos que tienen lugar en la naturaleza para transformarlos en algo (el
paso del tiempo, el transcurso de la existencia) de lo que el ser humano tenía
conciencia. Contemplaban esos cambios en ellos mismos, porque todos pasaban por
distintas etapas sin dejar de ser lo que habían sido antes. Nacían, crecían,
envejecían... y morían. Querían comprender: ¿por qué ocurre esto? ¿Por qué se
cambia sin dejar de ser el mismo que era antes? Y todo lo remitieron a ese
parámetro tan fascinante que ha intrigado a científicos, filósofos,
historiadores y teólogos durante siglos: el tiempo. Todos hemos
acabado siendo esclavos de nuestra percepción del tiempo, porque vemos que cada
cosa tiene su momento y nos hacemos presos de la fatalidad y del destino. Lo
recoge en la Biblia el libro del Eclesiastés con gran belleza
literaria y profundo lirismo: “Todo tiene su momento, y cada cosa su tiempo
bajo el cielo: su tiempo de nacer y su tiempo de morir; su tiempo el plantar y
su tiempo el arrancar lo plantado. Su tiempo el matar y su tiempo el sanar; su
tiempo el destruir y su tiempo el edificar. Su tiempo el llorar y su tiempo el
reír [...] Su tiempo el amar y su tiempo el odiar; su tiempo la guerra y su
tiempo la paz”.
¿Cómo definir el tiempo? Hay realidades que nos resultan tan básicas, evidentes
e inmediatas que precisamente por eso son casi imposibles de definir, que no es
otra cosa que acotar, que encontrar un límite en el que introducir un concepto.
Pero hay cosas que parecen escapar a todo límite y huir de toda categoría.
Aristóteles definió el tiempo como la medida del movimiento, del cambio
mediante el cual algo pasa de ser de una manera pero pudiendo ser de otra a esa
otra forma en la que todavía no estaba pero que podía alcanzar. Aristóteles lo
llamó “paso de la potencia al acto”. Con el tiempo medimos ese
tránsito de un estado potencial a uno actual o real al que se estaba en
disposición de llegar. Con esta distinción Aristóteles fue capaz, entre otras
cosas, de dar respuesta a una serie de paradojas que había propuesto el
filósofo Zenón de Elea.
Zenón, que vivió en el siglo V antes de Cristo, sostenía que el movimiento era
una pura ilusión irracional porque no era lógicamente posible que una cosa se
moviese desde un punto A a un punto B. Antes de llegar a B, el objeto en
cuestión debería haber alcanzado la mitad del trayecto. Para recorrer todo el
camino primero debería recorrer medio camino, y para recorrer medio camino
primero deberá recorrer medio camino de ese medio camino, y así sucesivamente.
¿Conclusión? ¡El objeto nunca llegará a la meta! Deberá atravesar infinitos
puntos y nunca podrá recorrer un determinado trayecto, porque ese trayecto será
infinitamente divisible. En una segunda paradoja, Zenón argumenta que si
Aquiles (legendario héroe de Troya famoso por su portentosa fuerza) quisiese
competir en una carrera contra una tortuga, dejando a la tortuga salir desde
una posición más avanzada, Aquiles nunca ganaría a la tortuga, porque para
alcanzar el punto desde el que partió la tortuga debería antes recorrer infinitos
puntos intermedios. Por muy rápido que fuese Aquiles persiguiendo a una
criatura tan lenta, no lograría superarla. Otra paradoja de Zenón es la de la
flecha: si un arquero lanza una flecha hacia una diana, en realidad la flecha
no se estará moviendo, porque en cada instante tendrá una posición fija, y como
hay infinitos instantes, habrá infinitas posiciones fijas. La flecha estará en
reposo todo el trayecto.
Claro que Zenón sabía que observamos cosas en movimiento que llegan de un punto
a otro. Pero la inteligencia no puede conformarse sin más con observar
fenómenos, sino que busca en todo momento una justificación racional de esos
fenómenos, una “asimilación” a su modo de entender la realidad. Por tanto,
Zenón se vale de sus paradojas para decir que percibimos el movimiento pero no
somos capaces de explicarlo. Para Aristóteles, la falacia de Zenón está en que
confunde el infinito actual con el infinito potencial. El espacio y el tiempo
son potencialmente divisibles en infinitas partes, porque siempre se puede
descomponer un número en una suma de números menores sin que éstos sean cero.
Pero eso no significa que el espacio y el tiempo sean realmente, “actualmente”
divisibles en infinitas partes: no se trata de un infinito actual y efectivo,
sino de un infinito potencial.
Pero seguimos sin saber qué es el tiempo. Sin incorporar a su armazón teórico
nociones como la de infinito o infinitésimo (infinitamente pequeño), las
matemáticas y en consecuencia las ciencias no habrían progresado como lo han
hecho hasta ahora, como tampoco lo hubieran hecho de no haber integrado en su
discurso los números irracionales, los números negativos o el cero. El cálculo
infinitesimal (derivadas e integrales), una de las ideas más poderosas y
geniales que ha tenido la mente humana, asume lo infinito y lo infinitésimo y
opera con lo infinito y con lo infinitésimo, y sólo así es capaz de analizar
las variaciones y la física el movimiento. Lo que nos puede resultar irracional
o incomprensible demuestra tener una inmensa fuerza conceptual. Y el tiempo, en
el fondo, es un parámetro necesario para describir y entender la naturaleza y
la historia, a pesar de que comprender su esencia y su fundamento último nos
sobrepase. Como escribe San Agustín en sus Confesiones: “¿Qué
es, pues, el tiempo? Si nadie me lo pregunta, lo sé; pero si quiero
explicárselo al que me lo pregunta, no lo sé. Lo que sí digo sin vacilación es
que sé que si nada pasase no habría tiempo pasado, y si nada sucediese no
habría tiempo futuro, y si nada existiese no habría tiempo presente. Pero
aquellos dos tiempos, pretérito y futuro, ¿cómo pueden ser, si el pretérito ya
no es él y el futuro todavía no es? Y en cuanto al presente, si fuese siempre
presente y no pasase a ser pretérito, ya no sería tiempo, sino eternidad. Si pues,
el presente, para ser tiempo es necesario que pase a ser pretérito, ¿cómo
decimos que existe éste, cuya causa o razón de ser está en dejar de ser, de tal
modo que no podemos decir con verdad que existe el tiempo en cuanto tiende a no
ser?” Queda ahí el interrogante de San Agustín. Sea el tiempo algo real o algo
imaginario y dependiente de nuestra mente, lo cierto es que a lo largo de los
siglos la humanidad ha sentido la necesidad de medir el tiempo. Porque podemos
preguntarnos qué es el tiempo, y para responderlo tendríamos que utilizar otros
conceptos aún más elementales. Y a su vez, también tendríamos derecho a
preguntar qué son y en qué consisten esos conceptos más elementales que el
tiempo, y sería legítimo seguir preguntando indefinidamente. Así que parece que
con conceptos tan fundamentales como espacio o tiempo hemos tocado fondo, como
si hubiésemos llegado a unos “mínimos” intelectuales que nos hacen falta para
entender el mundo que nos rodea aunque seamos conscientes de las limitaciones
que conllevan. Porque siempre que pretendemos fijar unos “átomos” o puntos de
partida absolutos, nos damos cuenta de que en realidad podríamos dividir esos
“átomos” teóricamente indivisibles. Y lo que siempre permanece, lo más
universal en todo este proceso de comprensión y delimitación, es justamente esa
constante posibilidad de preguntar por el fundamento: siempre podemos
retrotraernos a una realidad más básica, a un principio previo y a un concepto
anterior. Quizás sea esto la única certeza que poseemos. La historia es la
narración de la pregunta por lo que somos y por lo que no somos. Preguntamos
qué es el tiempo, qué es el espacio o qué es la vida; qué podemos saber, qué
podemos hacer o qué podemos esperar. Pero no siempre advertimos que el
auténtico misterio es esa infinita capacidad de preguntar, y que la pregunta
que engloba todas las preguntas es ¿por qué el preguntar?, o ¿por qué el querer
saber? o, más aún, ¿por qué el porqué? Lo más intrigante ya no es la naturaleza
del tiempo y del espacio, sino que el ser humano no deje de formular preguntas.
Los calendarios representan un intento de medición del tiempo. Pero para medir
el tiempo antes hay que escoger una referencia concreta en base a la cual se
puedan contar períodos iguales. Y la mayoría de las culturas antiguas encontró
ese marco de referencia mirando a lo alto, a las estrellas. Resulta formidable
pensar que civilizaciones muy antiguas, con unos conocimientos científicos y
matemáticos enormemente limitados y con una tecnología aún rudimentaria, fuesen
capaces de observar el cielo con una precisión excepcional. Cuando se estudia
la historia de los sistemas de medición del tiempo y la historia de la
astronomía, uno no puede más que asombrarse ante la prolijidad y la complejidad
de muchos de los cálculos que tenían que realizarse para, por ejemplo, saber la
posición de una estrella o predecir un eclipse. Pero los antiguos lo hacían. A
pesar de no tener ni calculadoras ni ordenadores ni telescopios, los antiguos
legaron calendarios de un rigor en ocasiones inquietante. Y sin irnos tan
lejos, la exactitud del calendario gregoriano concebido por los astrónomos del
siglo XVI y que requería de difíciles y laboriosos cálculos en una época en la
que todavía no se había consolidado la física matemática y Newton no había
nacido aún, también es digna de nuestra mayor admiración. Pocos problemas, por
inabarcables que parezcan, se han resistido al genio humano y al poder de su
inteligencia, siempre dispuesta a esforzarse para encontrar la solución.
Uno de los calendarios más antiguos de la historia es el calendario
egipcio. Hay constancia documental de que este calendario se empezó a
utilizar en la primera dinastía (es decir, al poco de la unificación del Alto y
Bajo Egipto), en torno al 2800 antes de Cristo, aunque las cronologías de las
dinastías egipcias y especialmente en los períodos más tempranos son
discutidas. Tenía como eje principal el ascenso heliacal de la estrella Sirio
(Sopdet en egipcio clásico, que en realidad no es una única estrella,
sino un sistema binario compuesto por Sirio A y Sirio B), algo perfectamente
lógico si tenemos en cuenta que este astro de la constelación del Canis
maior es uno de los más brillantes del firmamento. Su ascenso heliacal
no era ni más ni menos que el momento en que se hacía visible por primera vez
después de haber permanecido oculta debajo de la línea del horizonte o
deslumbrada por la luz solar. El año comenzaba con el ascenso heliacal de
Sirio, que coincidía con un acontecimiento natural que marcaba como
probablemente ningún otro las vidas de los egipcios: la inundación del río
Nilo. El griego Heródoto, el padre de la ciencia histórica, había definido a
Egipto como “un don del Nilo”, y pocas afirmaciones han descrito con tanto
acierto el núcleo mismo de la civilización egipcia: el río Nilo. Sin el Nilo,
Egipto sería un desierto; con el Nilo, Egipto es uno de los vergeles más
extraordinarios del planeta. A sus orillas creció una cultura que preservó una
identidad propia durante más de tres milenios, y que nunca dejará de fascinarnos
por la grandiosidad, la monumentalidad y a la vez la cercanía y humanidad de
sus creaciones. Y el calendario egipcio reflejaba la esencia misma de su
cultura: la relación con los astros y con el Nilo. En el Sol y en el Nilo
encontraba Egipto su fuente de vida.
Los antiguos egipcios diseñaron un calendario civil con un año de 365 días
divido en 12 meses de 30 días cada mes. Los cinco días restantes hasta 365
fueron llamados “epagómenos” por los griegos, y se situaban al final de cada
año. Había tres estaciones: la inundación (ajet), el invierno
o época de siembra (peret) y el verano o época de recogida (shemu). El
año egipcio tenía como epicentro el Nilo y su crecida, porque del río dependía
la subsistencia y el desarrollo de esta cultura. Un calendario muy posterior al
egipcio pero que resulta enormemente interesante por su altísima precisión
matemática y astronómica es el calendario maya, que debió de
surgir hacia el siglo VI antes de Cristo y que en realidad agrupaba a varios
calendarios distintos. El calendario de 260 días, el tzolkin, todavía
en uso en regiones de Guatemala y México, servía para fines religiosos y
festivos. Esos 260 días se dividían en lo que se denominan 20 “trecenas” de 13
días cada una. Por su parte, el calendario haab se aproximaba
bastante al calendario egipcio de 365 días, con 18 meses de 20 días y cinco
días finales (los wayeb). Ambos, el tzolkin y
el haab formaban un ciclo de 52 haabs, unos
52 años, teniendo en cuenta que el año solar no es de exactamente 365 días,
sino de 365 días y casi un cuarto de día si tomamos como referencia el año
tropical (el tiempo que tarda el Sol en volver a la misma posición en
su trayectoria elíptica según se ve desde la Tierra). Para calcular períodos
superiores a esos 52 haabs los mayas concibieron lo que se
conoce como la Cuenta larga.
El calendario más difundido en la actualidad se remonta, a medio plazo, al
calendario juliano, y a corto plazo a la reforma gregoriana del calendario
juliano emprendida en el siglo XVI. El calendario juliano debe
su nombre a Julio César, que lo instituyó cuando el célebre conquistador era
dictador vitalicio de Roma el año 46 antes de Cristo. Y si su campaña en las
Galias se resumía en el célebre veni, vidi, vici, “llegué, vi,
vencí”, en el caso del calendario César llegó al poder, vio un desfase sin
precedentes que acumulaba errores garrafales y de bulto en la medición del
tiempo, e impuso un nuevo calendario que más tarde adoptaría el futuro imperio
romano y que resultaría victorioso durante varios siglos. César consultó a los
mejores astrónomos de la época y la mayoría coincidió en que el calendario
tenía que tomar como referencia el año tropical, con 365 días y 12 meses. Como
el año tropical no es de exactamente de 365 días, sino de 365 días y casi un
cuarto de día, los astrónomos determinaron que había que añadir un día extra al
mes de febrero cada cuatro años.
Pero, ¿por qué el calendario anterior al juliano necesitaba una corrección tan
exhaustiva? El calendario pre-juliano que estaba en vigor en Roma consistía en
un año de 355 días y 12 meses. Lógicamente, para adecuar ese año al año
tropical de 365 días había que intercalar una serie de días formando lo que se
llamó el mensis intercalaris, un mes que constaba de 22 días
que se situaban inmediatamente después del 23 o del 24 de febrero, cuya
duración quedaba así recortada para añadir sus últimos cinco o cuatro días al
nuevo mes y que éste tuviese 27 días. Obviamente, los años en los que se insertaba
ese mes extra se prolongaban más de lo habitual hasta los 377 o los 378 días,
pero alternándolo con años normales de 355 días los astrónomos de la antigua
Roma creían poder adaptar su calendario al año tropical.
Basta con describir en términos generales el funcionamiento del calendario
prejuliano para caer enseguida en la cuenta de que el sistema era muy poco
práctico. Además, ¿quién controlaba que se intercalasen oportuna y
sistemáticamente esos años con días extra? Era tarea de los pontífices (“constructores
de puentes”) romanos, procedentes de las familias patricias y que juntos
configuraban el “colegio de pontífices” presidido por el pontifex
maximus, la máxima autoridad religiosa de la antigua Roma (título que
siglos más tarde pasaría al obispo de Roma, el papa). Pero los hechos
demuestran que los pontífices no siempre siguieron los intervalos recomendados
para intercalar el mes extra. Fue especialmente en períodos de guerra o de
convulsión social cuando se produjeron retrasos en la intercalación del mes
extra según los períodos teóricos prescritos, que aunque luego se intentasen
corregir, terminaron acumulando una serie de errores que causaban una tremenda
confusión. Tal era el caos en el calendario en tiempos de Julio César que el
general decidió hacer una drástica “limpieza” de todas las incongruencias que
se habían ido heredando como pesadas losas. Y para atajar el problema no valía
aplicar una solución similar a la de los meses intercalados, sino que había que
proponer una metodología más exacta, porque si no, los fallos se volverían a
repetir tarde o temprano.
Los astrónomos decidieron que para corregir los desfases anteriores, hacer
tabla rasa y empezar de cero el año previo a la implantación del nuevo
calendario juliano tenía que tener 445 días. ¡Un año de 445 días! Sí, un año
demasiado largo, pero un solución de urgencia para dar respuesta a la crisis
generada por las irregularidades del anterior calendario hasta que se lograse
normalizar la situación. Así que el año 45 antes de Cristo (año 709 ab
urbe condita., de la fundación de Roma) hacía su aparición el nuevo
calendario. El calendario decretado por Julio César, a la sazón el pontífice
máximo de Roma, tenía años de 365 días divididos en 12 meses, cada uno de los
meses con una distribución irregular de días (pues no hay modo de dividir 365
entre 12 de manera que dé múltiplos enteros), como en la actualidad: julio y
agosto 31, septiembre o noviembre 30, etc. Ya no era necesario intercalar un
mes extra que había sido causante de tantos quebraderos de cabeza para los
romanos. Pero había detalle nada trivial: el año tropical no dura 365 días,
sino casi un cuarto de día más. Para solventarlo, se tenía que añadir un día
bisiesto cada cuatro años. Los pontífices volvieron a equivocarse en la
aplicación del calendario (esto suele ocurrir cuando labores de tanta responsabilidad
como la regulación del calendario no se confían a gente con la suficiente
preparación), y en vez de añadir ese día extra cada cuatro años lo hicieron
cada tres seguramente por considerar que en esos cuatro años tenía que
incluirse el primero. En los relatos históricos, y en especial si se trata de
períodos cortos, muchas veces es aconsejable contar los años con los dedos en
lugar de hacer operaciones mentales. Si se dice que un monarca reinó entre 1721
y 1722 y se pregunta cuánto duró su gobierno, la respuesta matemática inmediata
será: -“un año”, 1722-1721 = 1. Pero esta resta tan elemental puede llevar a
equívoco: si el rey en cuestión empezó a gobernar en enero de 1721 y su mandato
cesó en diciembre de 1722, es más riguroso decir que reinó dos años, porque así
nos aproximamos al número entero de años más cercano. El problema está en cómo
contamos los intervalos, si incluimos o no los años inicial y final. Los
pontífices romanos quizás entendieron que intercalar un día extra cada cuatro
años para corregir el desfase con el año tropical significaba contar cuatro
años incluyendo el año en que estuviesen en ese momento, y en el cuarto año
situar el día extra. Pero en realidad lo que hacían era intercalar el día extra
después de un intervalo de tres años, porque estaban contando en el mismo ciclo
de cuatro años el primero y el cuarto año. Los pontífices eran, retomando el
símil del reinado de un monarca, más “históricos” que “matemáticos”: contaban
incluyendo el año en que ya estaban. Si esos pontífices hubiesen vivido el año
2000 de nuestra era, que fue bisiesto, habrían introducido el siguiente
bisiesto en 2003: 2000,2001,2002,2003, cuatro años, en lugar de hacerlo en 2004
que es lo correcto. El emperador Augusto corrigió este “desliz” que podría haber
provocado nuevas catástrofes en el ya de por sí frágil calendario romano.
Pero el auténtico problema del calendario juliano era de naturaleza más sutil.
Hemos dicho en todo momento que el año tropical no era de 365 días, sino de 365
días y casi un cuarto. Ese “casi un cuarto” implica que la adición de años
bisiestos cada cuatro años va a ser inexacta, porque el año tropical real no es
de 365’25 días, sino de 365’24219 días. Parecerá una diferencia insignificante
y mínima, de 0’00781 días, pero si se acumula durante siglos puede traer graves
consecuencias: 0’00781 días de desajuste por año a lo largo de, pongamos, 1500
años, da un total de 11’715 días de exceso respecto del año tropical medio. La
cantidad ya no resulta tan irrisoria: es más de una semana y media de desfase.
Y esto es precisamente lo que ocurrió: los años julianos duraban más de lo que
debían si se toma como referencia el año solar. Las repercusiones de este
desfase no eran sólo de tipo civil, sino que afectaban también a las fechas de
celebración de importantes festividades religiosas como la Pascua cristiana,
cuya fijación había supuesto un sinfín de discusiones entre las distintas
iglesias orientales y occidentales.
En el siglo XVI se llegó a la conclusión de que era necesario acometer una
reforma que, relevando a la de Julio César, implantase un nuevo calendario
donde se corrigiese ese ligero exceso de duración de los años y sirviese
también para calcular bien la fecha de la Pascua. El proyecto era todo menos
sencillo. Trento (1547-1563), que comenzó después de que el emperador Carlos V
convenciese al papa Pablo III de la necesidad de convocar un concilio ecuménico
para hacer frente a la escisión protestante que había costado ya casi media
Europa y que representaba un gigantesco desafío para el futuro del catolicismo,
decidió en uno de sus cánones que había que nombrar una comisión de
especialistas dedicada a la reforma en profundidad del calendario juliano para
acabar finalmente con los errores acumulados a través de casi dieciséis siglos.
Dos de los mejores astrónomos de la época se dedicaron en cuerpo y alma a la
reforma del calendario auspiciada por el sínodo tridentino: el italiano Aloysus
Lilius (1510-1576) y el matemático y jesuita alemán por entonces
profesor en Roma Christopher Clavius (1538-1612). Lilius
escribió un plan de reforma del calendario, pero su temprana muerte impidió que
pudiese presentárselo él mismo a la comisión designada a tales efectos, así que
fue su hermano quien mostró el estudio de Lilius al papa Gregorio XIII (el boloñés
Ugo Buoncompagni, papa entre 1572 y 1585), que se había propuesto llevar a buen
término la implantación del nuevo calendario durante su pontificado. Y cosas de
la vida, si el calendario juliano había sido promulgado por el “pontífice
máximo” de Roma (Julio César), el calendario gregoriano también iba a ser
instituido por un papa, y los papas habían adoptado ese título de pontífice
máximo de manera continua al menos desde San Gregorio Magno (590-604). Si los
papas medievales habían promovido la fundación de universidades en Europa o los
papas del Renacimiento habían sido mecenas de los grandes artistas de su
tiempo, el empeño de un papa de la contrarreforma como Gregorio XIII iba a
legar a la posteridad algo no menos valioso: un nuevo calendario.
Lilius y Clavius aproximaron el valor medio del año tropical a 365’2425 días,
menor de los 365’25 días del año juliano pero todavía ligeramente más largo que
el año tropical real de 365’24219: la diferencia entre el nuevo valor del año y
el año tropical es de 0’000314 días, sin duda menos relevante que los 0’00781
días que había con el año juliano. En 1500 años produciría un desajuste de
0’471 días, y si llevamos con el calendario gregoriano desde 1582, es decir,
425 años en 2007, el desfase acumulado rondará sólo los 0’133 días, por lo que
de momento podemos respirar tranquilos sin preocuparnos por la medida del
tiempo.
Pero una vez elegido el valor medio del año tropical había que diseñar un
método apropiado que permitiese “repartir” esos 0’2425 días que cada año debía
tener si quería adecuarse al año tropical medio. Hacer los cálculos con
decimales y sobre el papel es relativamente fácil, pero ¿cómo distribuir esos
0’2425 días manteniendo años de un número entero de días? Es absurdo tener años
de 365’2425 días: un día es un día, y tomar una fracción de día es
matemáticamente admisible, pero no tiene mucho sentido real. Lilius ideó una
estrategia bastante inteligente: se añadiría un día extra a 97 años cada 400
años, en lugar de un día extra cada cuatro años. ¿Por qué esta cifra tan
aparentemente rara? En el calendario juliano se introducía un día extra cada
cuatro años para que cada año tuviese de media 365’25 días: (365×4 + 1)/4 =
365'25. Como aquí había que conseguir años que tuviesen de media 365’2425 días,
para obtener este valor hay que disponer de 303 años de 365 días y de 97 años
de 366 días (los bisiestos), de modo que cada 400 años se logre un año medio de
365’2425 días: (97×365 + 303×366)/400 = 365’2425. 97 años bisiestos cada 400
años es la mejor combinación matemática posible para que los años tengan de
media 365’2425 días. El problema podría enunciarse del siguiente modo: ¿qué
combinación de años de 365 días y años de 366 días hace que en el menor
intervalo de años posibles se consiga un año medio de 365’2425 días, si el
número de años de 365 días y de 366 días tiene que ser entero? No vale,
lógicamente, 0’97 años de 366 días y 3’03 de 365 días o cantidades inferiores,
porque 0’97 y 3’03 o valores menores no son números enteros. Así que la
solución propuesta por Lilius y justificada con el máximo rigor por el jesuita
Clavius fue a todas luces correcta, y se resume en la famosa fórmula: “los años
divisibles por 100 serán años bisiestos -de 366 días- sólo si también son
divisibles entre 400”, como por ejemplo el 2000 o el 2400.
Gregorio XIII firmó el decreto Inter gravissimas el 24 de
febrero de 1582, y se fijó como fecha de adopción del nuevo calendario el 15 de
octubre de 1582, el “día” siguiente al 4 de octubre en el calendario juliano.
Así se corregían los aproximadamente once días de desfase que acumulaba el
calendario de Julio César. Como cada día (también en el siglo XVI) fallecen
muchas personas en todo el mundo, a alguien le tenía que tocar vivir once días
de más a pesar de estar muerto, y la “afortunada” fue Santa Teresa de Jesús. La
mística más universal de las letras españolas había pasado a mejor vida la
noche del martes 4 de octubre de 1582 en el calendario juliano, pero el día
siguiente no fue 5 de octubre (¡los días del 5 al 14 de octubre se habían
suprimido!), sino viernes 15 de octubre.
No todos los países aceptaron el calendario gregoriano. La política era la
política en una Europa en guerra y las naciones protestantes o enemistadas con
los estados católicos se negaron a adoptar una reforma por considerar que eso
era someterse a la soberanía papal, a pesar de que era una reforma
objetivamente necesaria. La política puede conducir a la cerrazón mental
incluso ante las evidencias sólidas de carácter científico. Con tal de no
reconocerle al otro un mérito si con ese otro media un abismo en lo religioso,
ideológico o personal, muchas veces nos negamos incluso a lo positivo que ese
otro haya podido crear.
La reforma fue de implantación inmediata en las naciones católicas de España,
Portugal, Italia y Polonia y sus respectivos imperios. Francia la adoptó al
cabo de dos meses escasos, pero países como Gran Bretaña y sus colonias de
ultramar no se sumaron al calendario gregoriano hasta bien entrado el siglo
XVIII y no sin oposición, y Rusia no lo hizo hasta 1918, cuando la ortodoxia
(que había rechazado el calendario gregoriano) había dejado de ser la religión
oficial a raíz de la revolución de 1917. En Grecia, país de mayoría ortodoxa,
hubo que esperar a 1923, aunque las iglesias ortodoxas han seguido usando una
versión corregida del calendario juliano (de ahí que las fechas de celebración
de determinadas festividades religiosas comunes a todas las iglesias cristianas
difieran). China adoptó el calendario gregoriano ya en 1912, cuando se expulsó
del poder al último emperador de la dinastía Qing, reemplazando
a calendarios tradicionales vigentes durante milenios.
Aunque el calendario gregoriano es el más extendido y goza de una gran
implantación en amplias regiones del globo, no podemos olvidar que existen
otros calendarios distintos también muy difundidos. El calendario gregoriano,
que surgió en el seno de la Europa católica del siglo XVI, tiene como eje
cronológico el nacimiento de Cristo. Las fechas anteriores al nacimiento de
Cristo son años “antes de Cristo” y las posteriores “después de Cristo”, “de la
era cristiana”, “de nuestra era”, “anno domini” (“en el año del
Señor”) o simplemente el año sin calificativos. Sin embargo, en el calendario
islámico la referencia no es el nacimiento de Jesús de Nazaret (por
otra parte un profeta admirado por el Islam), sino la Hégira o
huida de Mahoma y sus seguidores de la Meca a la ciudad de Medina, en el centro
de la península arábiga, motivada por las persecuciones religiosas. En el
calendario gregoriano la fecha sería el 16 de julio del 622 después de Cristo;
en el calendario islámico es el año primero después de la Hégira (en
latín, anno Hegirae: “en el año de la Hégira”). Las
festividades islámicas se determinan mediante este calendario, que consta de 12
meses lunares y 354 días por año (el calendario lunar tiene un año más corto
que el solar).
Averiguar en qué día vivimos no ha sido, ciertamente, tarea fácil. Pero
repasando la historia de los grandes calendarios se puede apreciar ese enorme
esfuerzo intelectual que la humanidad ha hecho para medir una de sus más
geniales y enigmáticas ideas: el concepto de tiempo. En los calendarios se da
una confluencia verdaderamente fascinante de matemáticas, astronomía,
religiones y culturas como en pocas otras creaciones, y al estudiarlos se
presencia el espectáculo del saber en su estado más puro, un saber que va más
allá de las distinciones entre lo científico y lo humanístico, un saber que
integra y no separa a la vez que reconoce el lugar propio de cada disciplina.
Capítulo 3
¿Cuánto es diez entre cero?
Hablemos de... ¡las matemáticas! En no pocas veces
caemos en la tentación de desligar dos mundos, el de las humanidades y el de
las ciencias, en lo que el escritor y físico británico Charles Percy Snow llamó
“las dos culturas”. El instrumento por antonomasia de las humanidades sería la
palabra, mientras que el de las ciencias sería el lenguaje de las matemáticas,
porque, en feliz frase de Galileo, el libro de la naturaleza está escrito en
caracteres matemáticos.
Pero si lo pensamos mejor, podemos darnos cuenta de que dicha división es
bastante ficticia, y en absoluto responde a la historia intelectual de la
humanidad. La división del saber nos ha permitido investigar regiones remotas
del conocimiento, y la especialización nos ha proporcionado una pericia técnica
y una profundidad verdaderamente sorprendentes. Pero la mente humana no es sólo
analítica. También es sintética. La mente humana no sólo descompone, divide,
“excava” en un océano sin fondo (el estudio de la realidad) para llegar a los
cimientos: también construye, edifica, se comporta al modo de un arquitecto o
de un estadista que quiere organizar los conocimientos parciales en una visión
más amplia del mundo y de la historia. No habría existido el progreso sin las
minuciosas investigaciones de físicos, biólogos, matemáticos, historiadores o
juristas; pero tampoco sin la amplitud de miras de filósofos como Montesquieu o
Rousseau, padres de la sociedad contemporánea, o de Einstein, quien supo ver
más allá de los detalles, o de las cimas de la literatura universal, de quienes
hemos heredado los grandes cánones artísticos... Toda dialéctica u oposición
puede ser productiva, pero siempre y cuando se respete la autonomía y el lugar
propio de cada una de las partes. Más que de antítesis o de contraposición entre
humanidades y ciencias, hay que abordar su relación desde la óptica de la
complementariedad, de cómo ambos campos pueden contribuir a que sepamos mirar
siempre más allá del hoy y del ahora.
Por otra parte, llama poderosamente la atención observar cómo los grandes
avances en el campo de las matemáticas y de la ciencia han supuesto, de hecho,
un asombroso cambio de mentalidad, y que más allá de su significado científico
concreto, han conducido a revoluciones filosóficas de las que seguimos siendo
deudores en la actualidad, por lo que no sería exagerado calificarlos también
de “avances filosóficos” o de progresos en el área de las humanidades.
Las matemáticas no habrían podido progresar como lo han hecho sin un sistema de
notación tan excelente. Se cuenta que el gran genio alemán Gottfried Wilhelm
Leibniz, a mi juicio uno de los intelectos más brillantes que ha tenido la
humanidad, dedicaba horas, e incluso días, a probar y ocasionalmente desechar
símbolos en sus trabajos en matemáticas, lógica y física. Al descubrir
(independientemente de Newton, aunque algo más tarde que el inglés) el cálculo
infinitesimal, Leibniz a mi juicio uno de los intelectos más brillantes que ha
tenido la humanidad, dedicaba horas, e incluso días, a probar y ocasionalmente
desechar símbolos en sus trabajos en matemáticas, lógica y física. Al descubrir
(independientemente de Newton, aunque algo más tarde que el inglés) el cálculo
infinitesimal, Leibniz no sólo desarrolló un potente instrumento para el
cálculo de variaciones y la medición de áreas que está en las bases de la
ciencia moderna, sino que inventó un sistema de notación que aún hoy nos
asombra. A él debemos signos como dx para denotar los
diferenciales, el símbolo del operador “integral”, y un sinfín de aportaciones
que casi parecían “fluir” de su cerebro con una facilidad increíble, sólo
comparable a la que tuvieron otros genios como el propio Newton o Einstein a la
hora de ocurrírseles ideas, métodos, experimentos, teorías... Parece, a la
postre, que ciertas mentes han dispuesto de una “ventana” al saber y al futuro
que les permitía ver cosas que el resto de los mortales sólo habrían podido
percibir con la ayuda del más efectivo de los telescopios: el del paso del
tiempo.
Pero nada de lo que hicieron Leibniz, Newton o Gauss, por sólo citar a algunos
de los gigantes de ese fascinante edificio que es la ciencia, podrían haberlo
logrado sin una herramienta que es mucho más de lo que aparenta ser: el cero. Y
es que, en realidad, el cero aparenta ser eso: cero, nada, nulidad, ausencia.
Pero, si lo analizamos bien, el cero es probablemente la cifra más presente en
el universo, en nuestras vidas, en la ciencia. Se estima que nuestro cosmos
tiene unos quince mil millones de años, que no es otra cosa que un 15 seguido
de nueve ceros. ¡Ceros por todas partes! Muchas veces (y desgraciadamente), el
valor de una persona en la sociedad actual se mide por el número de ceros que
hay en su cuenta bancaria (eso sí: ceros a la derecha). Nadie se imagina hoy
utilizar otro sistema de numeración que no sea el decimal, porque de otra
manera las operaciones serían terriblemente complicadas, y sólo con el tiempo
que perderíamos en resolver dichos cálculos se estaría creando un lastre para
el progreso científico efectivo. Pero no todas las culturas han conocido el
cero: los romanos no tenían esta cifra. Los griegos sólo a partir del llamado
“período alejandrino” (por ejemplo, el astrónomo Claudio Tolomeo en el siglo II
después de Cristo), durante los tres primeros siglos antes de Cristo, pero
únicamente para indicar la ausencia de un número, y no como un número a todos
los efectos. Y es que con algo que teóricamente hace referencia a la ausencia
hemos denotado la presencia, la posición, el orden.
Fueron los matemáticos de la India los auténticos artífices de la revolución
del cero, que luego se extendería a occidente a través de los árabes
(la palabra “cero” deriva del árabe sifr, que a su vez viene
de la raíz safira, “estar vacío”, término con el que los
árabes traducían el sunya -vacío- sánscrito), en una magnífica
muestra de simbiosis cultural y de cómo todos los pueblos y civilizaciones son
capaces de contribuir al progreso de la humanidad, ya sea creando, asimilando o
difundiendo. Sin el redescubrimiento de las grandes obras del pensamiento
filosófico y científico de Grecia a través de los árabes, que hicieron de
puente entre mundos tan dispares como Europa, la India y la cultura helénica, y
sin olvidar las aportaciones decisivas de eruditos medievales como Nicolás de
Oresme o Guillermo de Ockham (“abuelo”, si se me permite la expresión, de la
metodología científica moderna, al ser un ilustre precedente del racionalismo
científico), no se habría alumbrado el Renacimiento, que situó a la cultura
occidental en la estela definitiva de la modernidad. Europa ostenta el mérito
de haber dado a luz la ciencia moderna y gran parte de los logros más notables
de la humanidad, pero no tiene razones para ensoberbecerse, y menos aún para
esconder las contribuciones también decisivas de otros pueblos y de otras
culturas en una empresa que es y ha sido, ante todo, humana. Además, no viene
mal recordar que en muchos avances se nos adelantaron otras regiones del
planeta. El número cero ya era conocido por los mayas al menos desde el siglo I
antes de Cristo (en una estela de Chiapas que data del 36 antes de Cristo), y
probablemente culturas anteriores como la olmeca ya disponían de una cifra
decimal en su sistema numérico. Los mayas fueron unos matemáticos
verdaderamente formidables, y realizaron progresos en la astronomía y la
medición del tiempo de tal calibre que aún hoy asombran a los especialistas por
la extrema precisión de sus cálculos. Los mayas representaban el cero mediante
una especie de concha. Su sistema era vigesimal, en base
veinte (el de los babilonios sexagesimal, de sesenta en sesenta, y hay sistemas
duodecimales -en base doce-, duotrigesimales -en base treinta y dos...que cada
uno escoja) y, además del cero, tenían signos para las unidades (un punto) y
para el cinco (una barra horizontal gruesa). Así, para escribir el 17, los
mayas empleaban tres barras horizontales gruesas (3x5 = 15) y dos puntos (15 +
2 = 17). Si querían contar por encima de veinte, utilizaban potencias de veinte
(al igual que nosotros tenemos potencias de diez y en nuestras notaciones científicas
siempre intentamos expresarlo todo como potencia de diez): para representar el
número 27, dibujarían las cifras correspondientes al siete y encima un punto
que simbolizaría el veinte: 1×20 + 7 = 27. Puede parecer complicado, pero en
realidad se asemeja bastante al sistema decimal que nos legaron hindúes y
árabes. Es cuestión de acostumbrarse. Nosotros, habituados al alfabeto, sin
duda una de las mejores invenciones de todos los tiempos, nos quedamos atónitos
ante la complejidad de otros sistemas de escritura como el egipcio antiguo o el
chino. Pero esas culturas estuvieron e incluso están funcionando con esos
sistemas de escritura. Los niños aprenden la escritura china en la escuela como
los niños egipcios que tenían la suerte de ir al “colegio” (que por lo general
se situaba en los templos) aprendían a usar el sistema jeroglífico o el
hierático (versión simplificada). Si una persona de la antigüedad viniese a
nuestro mundo seguramente le resultaría imposible comprender cómo puede haber
gente que sepa construir un ordenador. Pues sí: hay mucha gente capaz de
construir un ordenador, proeza quizás mayor que aprender desde muy joven el
chino o el egipcio.
La India ha conocido etapas de gran florecimiento en la actividad matemática y
científica. Actualmente sigue siendo una de las principales potencias
matemáticas y científicas del globo. Como escribe el historiador del
pensamiento matemático Morris Kline, “los sucesores de los griegos en la
historia de la matemática fueron los hindúes de la India”, y alcanzaron su edad
de oro entre los años 200 y 1200 después de Cristo. Nombres de la talla de
Brahmagupta y Mahavira, motivados por sus intereses en los campos de la
astronomía y la astrología, además de aportaciones más avanzadas en la
resolución de ecuaciones y en la geometría, dieron un impulso fundamental al
desarrollo de las matemáticas al emplear la notación posicional y al uso del
cero. Bhaskara llegó a darse cuenta de que un número dividido por cero da
infinito (hoy hablaríamos más bien de indeterminación: diez entre cero da, por
tanto, una indeterminación: 10/0 = ∞, y de que un número multiplicado por cero
(esto es, sumado cero veces) da cero. Además, utilizaron, aunque de manera
limitada, los números negativos (ausentes en la matemática griega) y se atrevieron
con los números irracionales, que habían planteado muy serios problemas a las
estilistas y perfeccionistas mentes helenas, acostumbradas a las maravillas de
la proporción en todas las esferas de la civilización. Por su parte,
Brahmagupta escribió en torno al año 628 un tratado titulado Brahmasputha
Siddhanta, que en sánscrito quiere decir “la apertura del universo” (y
no le faltaba razón a Brahmagupta: ¿qué, si no las matemáticas, nos abre la
puerta al conocimiento del universo material?). El libro estaba escrito ni más
ni menos que en verso, como un poema, pero un poema con más contenido del
habitual. También los Vedas son una colección de versos y
prosa para la recitación de una riqueza filosófica y de una densidad humana
extraordinaria. Entre otros resultados matemáticos relevantes, Brahmagupta
ofrecía una serie de reglas sobre el uso del cero, si bien el
problema del manejo del cero le hace decir a Brahmagupta que un número positivo
o uno negativo dividido por cero da cero o una fracción con cero como numerador
y esa cantidad finita como denominador. Hoy diríamos, sin embargo, que el
resultado de dividir algo por cero no tiene un valor asignable: es una
indeterminación, o un valor infinito positivo o negativo (± ∞), pero en
realidad una indeterminación. En cualquier caso, el mérito de Brahmagupta es
innegable, y de hecho influiría en la matemática posterior.
Los matemáticos árabes, que estaban al corriente de los avances producidos en
la India y que habían traducido también a los grandes matemáticos griegos y
alejandrinos, trajeron a Europa un tesoro más preciado que el oro o la plata:
el conocimiento. Bien es cierto que los árabes no fueron meros
transmisores. Muhammad Al-Jawarazmi, que vivió aproximadamente
entre el 780 y el 850 de nuestra era y trabajó en Baghdad, está considerado el
padre del álgebra , al escribir un tratado con ese nombre (en
árabe, al- jabr wa’l-muqabala , que podría traducirse como “la
restauración y la simplificación”, es decir, cómo se deben pasar los términos
de un miembro a otro de una ecuación, cómo deben simplificarse esos mismos
términos... en definitiva, cómo operar algebraicamente) en el que daba una
exposición sistemática de las ecuaciones lineales y cuadráticas, e introducía
el sistema de notación posicional que luego se adoptaría en el occidente
cristiano. Aquí jugó un papel importantísimo la Escuela de traductores
de Toledo y, más aún, ese fascinante crisol de tres culturas (judía,
cristiana y musulmana) que fue la España medieval. Al-Jawarazmi conocía la obra
del alejandrino Diofanto y el indio Brahmagupta, a quienes debe mucho, pero
también hizo aportaciones originales.
Un personaje clave en la introducción del sistema decimal y de la genial idea
del cero en Europa fue Fibonacci (1170-1250), también conocido
como “Leonardo de Pisa”, probablemente el mejor matemático de la Edad Media.
Fibonacci había acompañado a su padre, que era comerciante, al norte de África,
y seguramente fue allí donde supo de viva voz de las ventajas del uso del cero.
Como escribió en su influyente Liber abaci, “los nueve
caracteres indios son: 9, 8, 7, 6, 5, 4, 3, 2, 1. Con estos nueve caracteres y
con el signo 0 se puede escribir cualquier número”. También se le debe a
Fibonacci el estudio de unas famosas series, las series de Fibonacci (que ya habían
descubierto los matemáticos de la India) en las que, empezando con dos números
iniciales, el resto de los componentes de la serie se calcula sumando los dos
términos inmediatamente anteriores. Estas series tienen unas implicaciones
aritméticas que han cautivado a matemáticos, numerólogos y herederos
intelectuales de Pitágoras durante siglos.
Sin haber asimilado la nada a nuestra vida y a nuestro
conocimiento, no habríamos progresado tanto. Sin haber puesto la “nada” a la
altura del todo, no habríamos sido capaces de ponernos en disposición de
abrirnos a todo, a todos los aspectos de la naturaleza y de la
cultura.
Porque sin el cero no habría sido posible, al menos tal y como se ha hecho en
occidente, la matematización de la ciencia. El proceso de
matematización de la ciencia se debe, principalmente, al genio de Galileo
Galilei, quien, al contrario de Aristóteles, apostó decididamente por las
posibilidades del lenguaje de los números. Sólo la matemática permitía
relacionar la singularidad de la experiencia con la universalidad a que aspira
toda ciencia que sea digna de merecer dicho nombre. Nuevamente, el progreso se
manifiesta como integración, como unión de mundos aparentemente contrapuestos
pero que, conjuntamente, hacen avanzar a nuestras mentes. En frase del monje
medieval Roger Bacon, un pionero del pensamiento científico, “la matemática es
la puerta y la llave de las ciencias”.
De la alianza entre matemática y experiencia física surgió uno de los conceptos
más bellos y fructíferos de la historia del pensamiento humano: el de función. Fue
estudiando el movimiento cómo los científicos y matemáticos del siglo XVII
advirtieron la necesidad de plasmar matemáticamente la relación entre
variables, entre cantidades que podían tomar “valores” o determinaciones
distintas (como Leibniz afirmará ya a comienzos del siglo XVIII, la función
simboliza cantidades que dependen de una variable). La geometría analítica, que
a su vez integra geometría y álgebra (dos mundos que en siglos anteriores se
habían visto como dos ciencias distintas, como dos ramas de las matemáticas
hasta cierto punto inconexas), y cuya creación debe mucho a René Descartes, es
otro ejemplo de la fecundidad de esa simbiosis entre disciplinas para
proporcionar una visión más certera y profunda del universo.
Al matematizar la actividad científica, la humanidad ha logrado multiplicar
exponencialmente sus descubrimientos y avances. Ha abierto una especie de “caja
de Pandora” que le ha permitido desentrañar la estructura de la materia o idear
teorías sobre el origen del universo. Y todo gracias al genio de quienes
supieron pensar en los fundamentos y no se perdieron en los detalles. Genios
que no se acobardaron ante la prolijidad y complejidad de la superficie,
previendo quizás proféticamente que el fondo era más simple, más sencillo y más
bello. Y el fondo de la realidad y de la ciencia es matemático, porque la
matemática nos da la oportunidad de expresar relaciones, proporciones...:
¡funciones!
Capítulo 4
¿Es mejor cometer la injusticia o padecerla? La respuesta de Sócrates.
El hombre más sabio de la Grecia antigua no era un
gobernante como Pericles, ni un matemático como Pitágoras, ni un científico
como Aristóteles. El hombre más sabio de la Grecia antigua no era hijo de un
rey, ni había viajado a lo largo y ancho del mundo conocido enriqueciendo su
espíritu con las más exóticas experiencias, como Ulises. Tampoco dejó a la
posteridad una Ilíada o una Odisea, en el
culmen de la literatura universal. Es más: no consta que escribiese nada.
Fueron sus discípulos quienes nos hablaron de él. Y, aunque ni escribió, ni
casi viajó, ni hizo descubrimientos importantes en las ciencias y en las
matemáticas, sus contemporáneos y las generaciones venideras lo consideraron la
cima de la sabiduría clásica. Su nombre era Sócrates.
Prácticamente todas las fuentes que tenemos sobre Sócrates nos vienen a través
de su no menos genial alumno Platón, en quien dejó una huella tan honda que
difícilmente habrá existido en la historia otro maestro que influyese tanto
sobre su discípulo. Quizás sí los grandes líderes religiosos de oriente y
occidente, a los que, curiosamente, Sócrates se asemeja bastante. Sócrates no
quiso fundar ninguna religión, pero como padre de la filosofía y de la ética
occidentales en cierto sentido sí fundó un movimiento cultural que iba a
resultar a la larga más importante que muchas religiones. Además, como de
tantos otros maestros espirituales, no se ha conservado ningún escrito suyo. Le
bastaba con hablar y fascinar a su audiencia para extender sus ideas y
transmitir su sabiduría. Hoy nos parece que sin palabra escrita y permanente
nada se puede hacer, la sociedad no funciona, las ideas se convierten en
fugaces y transitorias... Pero cuando recordamos a figuras como Sócrates, Jesús
de Nazaret o Buda, que si nos atenemos a la evidencia histórica no escribieron
nada, nos daremos cuenta de que, a pesar de esto, han definido el curso de la
historia occidental y oriental de manera más significativa que la mayoría de
los escritores y políticos. Sócrates no necesitaba escribir. Su vida era su
palabra más valiosa. Lo que pensaba lo puso en práctica, y acabó conduciéndole
hasta la muerte.
Los filósofos anteriores a Sócrates, los pre-socráticos, habían
reflexionado sobre la naturaleza del cosmos. Tales de Mileto sostenía que el
agua era el principio (arjé en griego) de todas las cosas, de
modo que la multiplicidad de seres que existen en la realidad se deriva en el
fondo de un único fundamento. Anaxímenes creía que ese principio era el aire.
Así, los sabios presocráticos no se habían limitado, sin más, a contemplar el
mundo que les rodeaba: se maravillaban de su orden pero también querían
cuestionarlo, criticarlo y entenderlo para conocer su auténtica esencia. No se
quedaban en lo aparente e inmediato, sino que querían ir más allá, buscar un principio
básico que lo explicase todo. Anaxágoras de Clazómenes había dicho que el
núcleo de la realidad no residía en los fenómenos que vemos o experimentamos,
sino en un nous (nouς en griego) o mente que todo lo rige y
gobierna, en un orden más allá de la fragmentación que podamos a veces
percibir.
Sócrates tenía noticia de lo que habían dicho y escrito los grandes filósofos
que le precedieron, y seguramente fue el alumno más brillante de la escuela de
Anaxágoras. Pero a Sócrates no le interesaba saber cómo era el mundo sino,
parafraseando a Karl Marx, cambiarlo. No le interesaba cuál era el principio
unificador e integrador que daba razón de la variedad de formas y de fenómenos
del mundo real, sino el ser humano. Del famoso binomio de Kant, “el cielo estrellado
sobre mí, la ley moral en mí”, Sócrates prefirió quedarse con la ley moral.
Sócrates era antropocéntrico porque sentía que sin centrar
toda reflexión en el ser humano, en sus posibilidades y en sus limitaciones,
toda filosofía era vana. “¿Qué significa esto o qué es esto?” no era para
Sócrates la pregunta oportuna. Lo que había que preguntarse es qué significa o
qué es esto para mí, cuál es su sentido vital, cómo puedo mejorar la persona
que soy para acercarla al ideal ético. También Lutero dirá, en el siglo XVI,
que lo importante no es quién es Cristo en sí, cuál es su naturaleza, sino
quién es Cristo para mí, qué me dice, qué me sugiere, qué me
obliga a hacer. El giro hacia el para mí no es una simple
cadencia o desliz subjetivista. El ser humano siempre ha tenido necesidad,
desde sus orígenes más remotos, de entender, de conocer, de asimilar. Y
asimilar es “hacer pasar” lo que es distinto de mí a través de mí, a través de
mi mente y de mi capacidad de comprensión. Conocer es humanizar, abrir nuevos
cauces y nuevos espacios donde cada vez quepan más posturas y más situaciones.
Conocer es relacionar, buscar lo común en lo diverso. O, en palabras de
Friedrich Nietzsche en Así habló Zaratustra, “¡que todo lo
profundo deba ascender hasta mi altura!”, porque, como escribe el mismo
Nietzsche: “yo estoy hastiado de mi sabiduría, como lo están las abejas que han
acumulado exceso de miel. Yo necesito manos que se tiendan hacia mí”. Tengo que
traducir el conocimiento a mi propio lenguaje, que es ante todo un lenguaje
vital y ético.
La historia de la humanidad nos muestra que, más que cualquier otra cosa, hemos
sido capaces de conocer y aprender. Y es que lo que hace poco era impensable es
hoy pensable, y lo que hoy es impensable será mañana pensable. Es la grandeza y
la pequeñez de lo humano: el poder siempre excederse, trascenderse,
“des-mesurarse”, pero al mismo tiempo estar de alguna forma condenado a vagar
sin un rumbo aparente, a caminar sin un destino firme, a buscar sin conocer
siquiera si existe una respuesta a sus preguntas. Y casi al unísono, nos damos
cuenta de que el conocimiento no nos sacia por completo, de que sólo conociendo
no alcanzamos la felicidad.
Sócrates era un hombre pobre que caminaba descalzo por las calles. No le
importaba relacionarse con la gente corriente o con los altos dignatarios,
porque era consciente de que su verdadera riqueza la llevaba dentro. Su madre
era una humilde partera, una mujer que asistía en los partos. Sócrates estaba
tan orgulloso de su madre y de su oficio que decía que su labor como filósofo
era ayudar a dar a luz, a sacar lo mejor de cada uno. Pensaba hablando,
conversando, dialogando. Hoy hemos perdido la cultura del diálogo. Cada uno
tiene ya sus posiciones tomadas de antemano y el foro público se ha convertido
en un campo de batalla donde vence el que más grite pero no el que mejor
convenza. Ya no confiamos en el poder de la razón, del logos de
Sócrates, pero en ocasiones notamos que sin racionalidad es complicado, por no
decir imposible, que progrese la sociedad.
¿Qué es lo justo y lo verdadero? y ¿qué es lo común a todos y no lo propio de
uno solo?, serán algunas de las grandes preguntas que se formule Sócrates y que
plantee a quienes les rodean para tatar de responderlas juntos. Sócrates va de
por libre. No está vendido a ninguna clase de poder, ya sea económico o
político, porque no le hace falta. Confía en su poder más preciado, que es la
palabra que expresa el logos, la razón, lo común: la palabra que
une.
Sócrates fue implacable con los sofistas que, como Hipias o
Gorgias, creían saberlo todo y aturdían a sus oyentes con interminables
discursos para producir la ilusión de que conocían, cuando en realidad lo
ignoraban casi todo. Pretendían situarse en la vanguardia de todo, pero en
realidad no sabían nada ni dominaban nada. Su diletantismo exasperaba a
Sócrates, su hablar por hablar sin decir nada en claro, sin apuntar a nada. Por
eso, para Sócrates era esencial reconocer que sólo sé que no sé nada,
porque sólo desde esa “limpieza de espíritu”, desde esa humildad inicial, será
posible avanzar. Quien cree que ya lo sabe todo, no necesita buscar, esforzarse
por conocer, aprender o estudiar. Todo está ya hecho, y la vida adopta la
monotonía que tendría de no ser por nuestra inteligencia y nuestra insaciable
curiosidad. Sin admitir que hay cosas que no se saben, las ciencias no avanzan.
La conciencia de la falta de respuestas y de lo imprescindible de plantearse
las preguntas oportunas está en la base del progreso en el conocimiento. Uno
puede saber mucha física, mucha biología o mucha historia, pero si
verdaderamente sabe mucho de esos campos también sabrá que hay muchísimas más
cosas que ignora, y que cada nuevo descubrimiento lleva a una nueva incógnita,
y que su saber también es, hasta cierto punto, provisional.
Pero Sócrates no puede aprender por los demás. El desarrollo intelectual, el
atreverse a recorrer la senda del conocimiento, es una tarea eminentemente
individual y personal. De nada me sirve decir que tengo un amigo que sabe
muchísimas matemáticas o que domina idiomas. A mí no me afecta, porque no me
puede “inyectar” sus conocimientos como si se tratase de una transfusión de
sangre. Le podré pedir consejo o ayuda, pero al final, el que tiene que
aprender es uno mismo, y por mucho que dilate ese desafío, en algún momento
tendré que afrontarlo si quiero ser libre, autónomo y con criterio propio, si
no quiero ser un simple espectador que se sorprende ante infinidad de cosas
(físicas, sociales...) que ocurren a su alrededor pero que no se preocupa por
entender la causa que las provoca. Lo que sé me llena, me define, es parte de
mi personalidad. No se puede desligar el conocimiento de lo que uno es, porque
el auténtico conocimiento ha sido asimilado, y como tal, es ya ganancia y
propiedad de uno mismo. De poco sirve haber estudiado las disciplinas o las
lenguas más complicadas si eso luego no me ayuda a conformarme una visión del
mundo y de la sociedad, a interesarme por otras cosas, a abrirme...
Por tanto, lo primero que tengo que hacer si quiero empezar a aprender es
admitir mi limitación: puedo estar equivocado, hay cosas que no sé. No es un
acto de auto-flagelación intelectual, de degradarme por degradarme. Tengo que
saber reírme de mí mismo, poner entre paréntesis lo que creía que sabía, tener
conciencia de mi ignorancia. Así comienza el célebre método socrático, que
está en las raíces de la filosofía occidental. Es un método que consiste en
formular preguntas para que me pueda dar cuenta de ciertas cosas, para poder ir
avanzando en el saber. Tampoco las ciencias empíricas miran pasivamente a la
naturaleza en espera de alguna feliz idea, sino que le preguntan a la naturaleza
realizando experimentos. Y la ironía socrática, ese saber
reírse de uno mismo, es muy importante, porque sin un cierto sentido del humor,
el horizonte de todo lo que ignoramos nos puede producir una sensación de
angustia, de agobio y de desesperación. Sin ironía no hay aprendizaje, porque
la ironía es una piedra que hace tropezar, y al levantarse, uno se da cuenta de
algo, y ese algo le lleva a conocer. Soren Kierkegaard (1813-1855), filósofo y
teólogo danés que en su tesis doctoral analizó detalladamente el concepto de
ironía en Sócrates, tenía una clara predilección por el uso de la paradoja en
sus escritos, porque sabía que sin una cierta opacidad, sin contraponer lo
oscuro a lo nítido, era imposible conocer. Y la ironía es una cierta paradoja.
Describió la fe cristiana como contradicción, seguramente rememorando esa frase
de San Pablo a los corintios: “mientras los judíos piden signos y los griegos
buscan sabiduría, nosotros predicamos a un Cristo crucificado: escándalo para
los judíos, locura para los gentiles”. Y para Kierkegaard, la paradoja de la fe
exigía dar un salto, atreverse a creer, “reírse” irónicamente de las
seguridades humanas.
Así que nos reímos de nosotros mismos, reconocemos nuestra ignorancia y, ¿ya
está? ¿No hay nada más? ¿Nos quedamos sólo en esta parte semi-cómica? ¿Nos
reímos un poco todos juntos y ya hemos alcanzado la sabiduría? ¡En absoluto! Si
hay algo que Sócrates no está haciendo es tomarnos el pelo. Ahora tenemos que
imitar a la madre de Sócrates, que era una sencilla mayeuta, es
decir, partera. La partera asiste a la mujer que va a dar a luz, como el
maestro asiste a quien va a dar a luz sus ideas propias. El método socrático
pasa así de la ironía a la mayéutica, el arte de “gestar” las ideas
desde uno mismo. Es como si Sócrates nos dijera: ¡Despierta! ¡Sé tú mismo!, o,
como estaba escrito en el frontispicio del templo de Apolo en Delfos, ¡conócete
a ti mismo! (γνῶθι σεαυτόν en griego), sal de tu sueño de verano que
te hace creer que tienes poco que conocer o que conocer es una empresa
imposible para “atreverte a saber”, que dirán siglos más tarde los ilustrados.
Sólo así, siguiendo un método suficiente y riguroso, puedo aprender a
distinguir, dirá Sócrates, lo verdadero de lo falso, la realidad de la
apariencia, lo justo de lo injusto. Porque sin ello no podemos llegar a ser lo
que somos. ¿Y qué somos o, más bien, qué debemos ser? Sócrates dirá que seres
guiados por la razón, seres capaces de conocer lo justo y lo bueno. Para ser
felices, para lograr una cierta plenitud, es necesaria la ética, la reflexión
que nos muestra qué nos falta y qué nos sobra. Porque para los griegos era tan
necesario reflexionar como no excederse: en el mismo templo de Apolo en Delfos
también estaba escrito “nada en exceso” (μηδὲν ἄγαν).
Reflexión y mesura, dos de los grandes ideales de la cultura griega. Poner cada
cosa en su justo límite, porque la perfección no reside en lo infinito, en lo
que desborda o rebasa toda frontera, sino en la adecuación al límite, a la frontera
que impone el orden real y lógico y que precede a toda veleidad humana. La
civilización moderna, sin embargo, ha preferido asumir ese infinito: lo
perfecto no está en lo limitado, sino en lo ilimitado; lo pleno no es la
esfera, armónica y proporcionada, sino lo infinito que no se sujete a ningún
límite. Nada es imposible porque nada está sujeto a ese límite lógico y
racional, como creían los griegos. La sociedad no consiste primordialmente,
como para Sócrates o Platón, en poner a cada uno en su sitio, en buscar el
lugar que le corresponde a cada uno, como si ese lugar se adecuase a la
verdadera esencia de las cosas y de las personas. La sociedad no es tópica (“topos”
en griego significa lugar), sino utópica, sin lugar fijo, sin
posición determinada, y lo que hoy parece imposible mañana es posible, lo que
hoy vemos claro mañana se nos antojará oscuro. La perfección está más en el
movimiento y en el cambio, que en la constancia y permanencia del límite griego.
Sócrates pensaba que para orientar rectamente la vida había que conocer antes
al ser humano, quién es y qué debe hacer. ¿Qué nos une y qué nos separa? ¿Qué
es lo común a todos, lo que todos, como personas humanas, compartimos y por
tanto lo que debe estar siempre presente si queremos ser auténticos hombres y
mujeres? No es algo externo, porque lo externo es variable, difiere de una
persona a otra, de una cultura a otra. Es algo interno, algo que no se
percibimos materialmente como en el cosmos que nos rodea. Es lo más cercano
pero a la vez lo que requiere de un mayor esfuerzo de reflexión e
introspección. La importancia de la interioridad humana no es,
desde luego, una aportación original de la cultura griega. La civilización
egipcia tenía un concepto elevadísimo del ser humano, y en otras regiones del
mundo, como oriente, el legado sapiencial de Buda o de Confucio tiene sobre
todo una clave ética, refiriéndose a la interioridad de la persona. Pero lo
cierto es que en la filosofía occidental Sócrates ha sido un auténtico pionero
o impulsor de esta idea.
Y de ese fondo interior de la persona sobresale por encima de todo su razón. Quien
no use su razón, quien no logre actuar según su razón, jamás podrá ser feliz,
dice Sócrates, porque la felicidad no puede conseguirse a través de fines
parciales o de placeres pasionales que vienen y van. La ética que propone
Sócrates no pretende en ningún momento anular la pasión, el pathos que
en gran medida guía nuestras conductas, sino orientarla rectamente,
subordinarla a un principio superior que para el ateniense es la razón. Hoy en
día, después de Freud y de tantos otros autores, somos conscientes de que
orientar las pasiones según la razón es una tarea mucho más complicada de lo
había creído Sócrates. El alcance de la razón práctica, el que
nuestra inteligencia sea capaz de conducir las acciones al igual que descubre e
investiga en el plano puramente teórico, ha sido muy cuestionado en los últimos
siglos. En cualquier caso, el ideal de Sócrates queda ahí: mejorar nuestra
existencia y humanizarla, teniendo como luz la razón.
La razón nos muestra el verdadero bien, porque es capaz de elevarse por encima
de lo singular, concreto y contingente para llegar a lo absoluto y permanente.
El mal es justamente lo antitético a la razón. Para Sócrates, el mal pervive
sobre todo en la ignorancia, en la falta de conocimiento. El malo es ignorante
y, como escribirá Hanna Arendt en el siglo XX, banal. Claro está que Sócrates
no se refiere al bien como un concepto teórico. Alguien puede comprender
perfectamente que es bueno respetar a los demás y no hacerlo. Es un bien
práctico, un bien de la acción. Y el mal daña a quien lo comete: sufre más
quien realiza la injusticia que quien la padece, dirá Sócrates, al igual que en
el Evangelio Jesús enseña que no es lo que entra o sale de la boca lo que
corrompe al ser humano, sino lo que sale de su corazón y de su palabra: “no es
lo que entra en la boca lo que contamina al hombre, sino lo que sale de la
boca” (Mateo 15,11). Son nuestras propias acciones las que nos
dignifican o degradan. ¿Por qué? No es fácil de justificar, pero sin embargo
parece que hay un sentido moral en el ser humano que le lleva a indignarse ante
lo injusto, y más aún ante quienes parecen triunfar y llevar una vida exitosa
pese a sus crímenes y delitos. Algo similar debió de pensar Job. Cada uno tiene
que buscar la respuesta. Sócrates nos dice que es peor cometer la injusticia
que padecerla, y Kant sugerirá, siglos más tarde, que quien obra injustamente
es incapaz de proponer una conducta universal que pueda guiar a toda persona
(el imperativo categórico: “actúa sólo de tal forma que tu
máxima pueda convertirse en ley universal”). Porque en el fondo, la injusticia
y el mal nos llevan a la parcialidad, al ensimismamiento y al egoísmo. Nos
cierran a los demás. El mal reduce, limita y aísla. Y parece que el bien y la
justicia discurren por la senda opuesta: nos abren, nos permiten comunicarnos,
nos dan la posibilidad de salir de nosotros mismos. El bien amplía, el mal
reduce. Pero la respuesta no es sencilla. Habrá quien piense que en la vida
nunca se da la justicia, y que lo único que puede primar ante una existencia
tan breve y a veces tan repleta de adversidades es perseguir el propio interés
y, si acaso, limitarse a cumplir lo que estipulen las leyes, sin proponerse
metas u horizontes éticos más ambiciosos. Desde esta óptica, sufre más quien
padece la injusticia que quien la comete. Sin embargo, en cuanto formulamos
esta visión del mundo surge una especie de reserva o de rechazo instantáneo. No
nos gusta, en el fondo, que la vida se guíe por objetivos tan pobres, y de
hecho muchas filosofías y religiones han querido ofrecer un sentido más
universal y menos pragmático.
Sócrates piensa que quien actúa mal y practica la injusticia se rebaja en su
condición humana, incapaz de usar su razón para buscar el verdadero bien, para
humanizarse. Renuncia a ser persona. Por ello, sufre más quien es injusto que
quien padece acciones injustas, porque no hay mayor daño que el que uno puede
infringirse a sí mismo. Nadie tiene mayor poder sobre nosotros que nosotros
mismos, y actuar injustamente es caer esclavos de la sinrazón.
Insiste Sócrates en la importancia de seguir la razón para cumplir el deber que
esa razón, capaz de conocer lo verdadero, bueno y justo, impone. Pero, ¿cuál es
ese deber? ¿Cómo puedo aprender a cumplirlo? Podemos llegar a entender que
respetar a los demás y tratarles como a nosotros nos gustaría que nos tratasen
(la regla de oro de tantas filosofías y religiones) es un
principio fundamental y plenamente racional. No hay mayor racionalidad que el
equilibrio y la justicia que emanan de ese principio. ¿En base a qué puedo yo
exigir a los demás que actúen sobre mí de una manera si yo no lo hago? Negarlo
nos haría caer en la arbitrariedad. Pero cuando quiero concretar mi acción en
el aquí y ahora, cuando necesito una orientación más específica, ¿de qué
instrumentos dispongo, por así decirlo, para guiar mi conducta? Sócrates dirá
que ese instrumento es la virtud, la areté griega.
La virtud es quizás la noción central de la ética clásica, y ha influido mucho
en la teología cristiana. Para Sócrates y para la filosofía griega en general,
la virtud es un hábito que nos inclina a actuar constantemente conforme al
bien. El virtuoso se ha “connaturalizado” con el bien, porque a fuerza de
practicarlo ha adquirido una cierta tendencia al bien. Cómo debo actuar aquí y
ahora no me lo puede enseñar nadie. Tengo que verlo yo mismo, juzgarlo
racionalmente, y si soy virtuoso, si tengo unos hábitos y me he esforzado
durante tiempo por practicar el bien, me será mucho más fácil lograr unos
ideales éticos elevados.
Los griegos reconocían cuatro virtudes cardinales que debían gobernar la acción
humana: prudencia, justicia, fortaleza y templanza. La
prudencia o frónesis nos ayudaría a juzgar sobre una
determinada acción, la justicia o dikaiosine nos mostraría lo
recto, la fortaleza o andreia nos permitiría no desfallecer en
la búsqueda del bien arduo y la templanza, sofrosine o dominio
de sí moderaría nuestra natural inclinación hacia el bien placentero. La ética
de la virtud definió el ideal moral griego. Del mismo modo que adquirimos
conocimientos teóricos podemos adquirir hábitos virtuosos. Para los griegos, y
en especial para Sócrates, existía o al menos debía existir una perfecta
armonía entre el saber teórico y el saber práctico manifestado en la virtud. La
voluntad es así guiada por la inteligencia. Siglos más tarde Nietzsche dirá que
es la inteligencia la que debe someterse a la voluntad.
Sócrates conmovió a Atenas y a su tiempo hasta tal punto que a algunos no les
quedó más remedio que terminar con su vida. ¿Acaso se le podía acusar de algo a
Sócrates? ¿Acaso había hecho algo mal el hombre más sabio de Atenas, cuya vida
no tenía más fin que el de educar, el de ayudar a sus contemporáneos a buscar
ellos mismos la verdad? Pero a ojos de sus enemigos, Sócrates corrompía a la
juventud y era un impío.
Y fue condenado. La muerte de Sócrates es uno de los episodios más fascinantes
y a la vez trágicos de la historia occidental. Quien había proclamado con mayor
fuerza que nadie el imperativo ético de obrar la justicia para perfeccionarnos
como seres humanos, muere presa de la injusticia y de la sinrazón. Pero, en el
fondo, en el escenario de la historia conviven la razón y la sinrazón, el
triunfo y la tragedia. Pocos lo han ejemplificado como Sócrates.
Una filosofía como la de Sócrates que sostenía la existencia de una verdad y
una justicia incondicionadas y permanentes tenía que creer, por fuerza, en el
más allá. La vida, para Sócrates y Platón, no se agota en la existencia
terrena, porque en el alma humana hay una “chispa” de inmortalidad de la que
participa su mente, capaz de elevarse por encima de lo material y de llegar a
lo universal. Sólo los dioses y su mundo eterno garantizan la justicia perfecta
que nunca se alcanza en la Tierra. Y ese mundo trasciende toda limitación,
supera toda contingencia, anula toda barrera, dando sentido a la vida. Es el
reino de lo incondicionado. No es de extrañar que Platón, el discípulo por
excelencia de Sócrates, concibiese un mundo donde ideas como la justicia o la
verdad se realizasen plenamente. Su maestro había creído firmemente en él y no
se había acobardado ante la muerte.
Sócrates no reconoce culpa alguna ante el tribunal. No era impío, porque creía
en los dioses, en el daemon o ser divino, y en su mundo ponía
el sentido de la vida. Acepta una condena injusta por respeto a la dignidad de
toda ley, y rehúsa escaparse de la celda en la que había sido encerrado. No
huye: afronta su destino porque se sabe dueño del mismo. Seguramente, pocas
experiencias en la historia han tenido tanta intensidad y tanta hondura como
compartir con Sócrates sus últimos momentos. Debió de ser verdaderamente
prometeico y majestuoso contemplar esa ebullición de fortaleza y grandeza
humana en instantes tan terribles. El veneno inoculado en la sangre de Sócrates
no era una simple sustancia letal: era la misma anti-filosofía, la parálisis
del pensamiento y de la libertad creativa, la esclerosis de lo más propio del
ser humano. Ese veneno pudo con la vida de Sócrates, pero no con su legado ni
con la voluntad de tantos grandes hombres y mujeres que continuaron después de
él imaginando, concibiendo y descubriendo.
La entereza de Sócrates se la daba su sabiduría, su convicción profunda de que
la inteligencia podía mostrar esa chispa de inmortalidad que llevamos en el
alma, y nada podía inmutarle. Si Epicuro desafiará a la muerte diciendo que no
nos concierne porque cuando llega ya no estamos, Sócrates le planta cara
haciendo lo que mejor había hecho a lo largo de su vida: razonar. Como no podía
de ser de otra forma, Platón nos legó un relato insuperable de las horas
finales del hombre más sabio de Atenas en su diálogo Fedón, al
que pocas palabras se pueden añadir:
“El alma es, pues, un ser invisible que se dirige a un lugar noble, puro,
llamado Hades, junto a un dios bueno y sabio, al que muy pronto me dirigiré yo.
[...] Si el alma, pues, se mantiene de este modo, se dirige hacia un lugar
semejante a ella, un lugar divino, inmortal y lleno de sabiduría, donde vive
feliz y libre de todo error, lejos de ignorancias y temores, de amores
tiránicos y otros males comunes a la humanidad. Allí pasa con los dioses el
resto de su existencia”.
Capítulo 5
Euclides y la axiomática
Una de las obras más influyentes en la historia de
las matemáticas ha sido los Elementos de Euclides, a cuyo
compás se han educado generaciones de estudiantes durante siglos. Los grandes
matemáticos del siglo XVII, como Newton y Leibniz, que hicieron aportaciones no
menos significativas que las de Euclides, habían aprendido geometría con
los Elementos, libro de texto en escuelas y universidades. Todavía
hoy en los colegios se enseña la geometría de Euclides. Se cuenta que Blaise
Pascal (1623-1662) había sido capaz, con tan sólo once años, de demostrar por
sí mismo que la suma de los ángulos de un triángulo es igual a dos ángulos
rectos (180 grados), y que maravillado por el talento de su hijo, su padre
Étienne le permitió estudiar el libro de Euclides, cosa que antes le había
prohibido hacer para que no se despistase en el aprendizaje del latín y del
griego. Y, en pocos meses, Pascal llegó a dominar toda la geometría euclídea.
¿Cómo era posible? Pascal poseía una inteligencia extraordinaria, ciertamente, pero
el libro de Euclides mostraba tal rigor lógico y tal armonía entre sus
afirmaciones, perfectamente ligadas, que unas proposiciones llevaban a otras,
unos teoremas a otros, unas demostraciones a otras. Todo estaba conectado, todo
aparecía como una especie de senda levantada por Euclides para facilitar a la
mente humana adentrarse en el fascinante mundo de las formas geométricas.
El rigor de sus demostraciones ha inspirado a los mejores matemáticos, a los
que no ha quedado más remedio que intentar imitar y emular al genio alejandrino
del siglo III antes de Cristo. Euclides sistematizó la geometría. Muchos de los
teoremas que expone en su libro se conocían ya y habían sido probados por otros
antes que él, pero nadie hasta Euclides había sido capaz de organizar todo el
conocimiento de geometría y matemáticas alcanzado por la cultura griega con la
misma coherencia y elegancia. Y es que la obra de Euclides tiene como principio
unificador, como “núcleo”, el poder del razonamiento lógico, la fuerza de la
evidencia. Si se aceptan los axiomas de Euclides, hay que seguirle en todo lo
demás, o si no se correrá el peligro de desafiar a las leyes lógicas y de
conculcar el principio de no-contradicción, igual que si se aceptan los axiomas
del filósofo Spinoza en su Ethica more geométrico demonstrata (¡Spinoza
quiso convertirse en el Euclides de la filosofía!) no cabe otra opción que
estar de acuerdo con sus conclusiones, porque se establece una relación,
una consecuencia lógica que vincula necesariamente las
premisas con la conclusión. Y Kant, en su Crítica de la razón pura, estaba
tan asombrado ante la perfección lógica de la geometría de Euclides (a la que
admiraba casi tanto como a la física de Newton) que incluyó el espacio
euclidiano entre las formas a priori de nuestra sensibilidad,
es decir, como nociones “preconcebidas” que nos vienen dadas en nuestro
entendimiento, sin que las tomemos de ninguna experiencia externa: “el espacio
no es un concepto empírico extraído de experiencias externas [...]. El espacio
es una necesaria representación a priori que sirve de base a
todas las intuiciones externas”, escribe. En otras palabras: sin espacio, no
podríamos representarnos los fenómenos que ocurren a nuestro alrededor. El
espacio es así una condición de posibilidad de nuestra
experiencia de la realidad externa a nosotros. Y, por supuesto, la idea de
espacio que tiene Kant es la del espacio tridimensional regido por los axiomas
de Euclides. Hasta la teoría de la relatividad general de Albert Einstein, a
comienzos del siglo XX, prácticamente nadie se había planteado una descripción
del universo que no se basase en la geometría de Euclides. La física de Newton,
uno de los mayores esfuerzos que jamás se han hecho para entender la
naturaleza, usa la geometría de Euclides. Porque en efecto, cuando se analizan
sus axiomas y sus conclusiones, parecen tan lógicas, tan claras, tan nítidas,
que nadie consideraría sensato imaginarse el universo de otra manera.
No es exagerado sostener que la idea de axioma (“proposición
tan clara y evidente que se admite sin necesidad de demostración”, como la
define la Real Academia) está entre las más geniales y profundas que ha
producido el genio humano. La búsqueda del conocimiento es inseparable, de uno
u otro modo, de la búsqueda del orden, de la racionalidad, porque sólo así es
posible comprender. Y los axiomas responden a esa convicción de que es posible
encontrar unas verdades “mínimas” que están en el origen de todo lo demás.
Buscar axiomas es buscar un fundamento que, regido por la
lógica, permite relacionarlo todo con todo, como si existiese un fondo
permanente sobre el que se eleva todo el edificio del conocimiento y de la
racionalidad. El concepto en cuestión es tan tentador que no sólo Spinoza, sino
la mayoría de los grandes filósofos y lógicos se han preguntando también por
cuáles serían esas ideas matrices, esos fundamentos por debajo
de los cuales no hay nada más, ese mínimo de los mínimos para entender la
realidad y el pensamiento. Casi todas las disciplinas, ya sean de ciencias o de
letras, se enseñan partiendo de unos principios y llegando a unos resultados
que se pueden explicar desde esos principios. Aunque se incorporen datos
experimentales, esos datos se integran en un cuerpo más amplio y se enmarcan en
el cuadro descrito por esos principios. El ideal de exposición ordenada,
coherente y didáctica es justamente el de formular unos principios fuertes que
guíen el resto del discurso.
Pero la historia de las matemáticas ha demostrado que Euclides había encontrado
sólo una de las geometrías posibles. Partiendo de sus axiomas,
es verdad que la fuerza de la lógica lleva a aceptar los teoremas de Euclides
como proposiciones verdaderas. Sin embargo, ¿quién dice que hay que partir de
los mismos axiomas que Euclides? Esto empezaron a preguntárselo los matemáticos
en el siglo XVIII.
¿Cuáles son los axiomas de Euclides? Fue Proclo, un filósofo neoplatónico del
siglo V que decía que donde hay un número hay belleza, quien llamó “axiomas” a
lo que en los Elementos de Euclides eran cinco postulados. A
juicio de Aristóteles (que había vivido en el siglo IV antes de Cristo), la
veracidad de los postulados no había que probarla porque se contrastaría al
examinar los resultados que se derivaban de ellos. Esto debió de pensar
Euclides. En el libro I de los Elementos ofrece las nociones
preliminares de la geometría, definiendo, por ejemplo, un punto como “lo que no
tiene partes” o una línea como “una longitud sin anchura”. Y a continuación
introduce los axiomas propiamente dichos. Son los siguientes:
1. Se puede trazar una línea recta desde cualquier
punto a cualquier otro.
2. Se puede prolongar continuamente en línea recta una
recta dada.
3. Se puede trazar un círculo con cualquier centro y
distancia
4. Todos los ángulos rectos son iguales entre sí.
5. Si tenemos una recta y un punto que no está en la
recta, sólo se puede trazar una recta que pase por el punto y nunca interceda
con la recta dada.
¿Nada más? ¡En efecto! No hace falta ningún otro
axioma. Desde estos cinco,
Euclides construye toda su geometría. Con ellos se puede demostrar que la suma
de los ángulos de un triángulo es igual a dos ángulos rectos, que los ángulos
de la base de un triángulo isósceles son iguales, o un sinfín de teoremas
geométricos que millones de escolares han estado estudiando durante siglos en
los colegios. No hace falta nada más, sólo ingenio y destreza matemática para
sacar las conclusiones oportunas desde esos axiomas. Es la genialidad de
Euclides, es la genialidad del rigor lógico, es la maravilla de las formas
geométricas y matemáticas.
Y son axiomas en sentido estricto, porque ¿hay algo más evidente a simple vista
que sostener que se puede prolongar continuamente en línea recta una recta
dada? Es casi el “colmo” de la lógica y de la sensatez. Es tan obvio que
justamente por eso Euclides lo toma como un axioma. No se puede demostrar,
porque demostrar implica llegar a una conclusión partiendo de una premisa
anterior, pero ¿qué premisa más básica puede haber que afirmar que se una recta
siempre puede prolongarse? Además, no se puede confundir axioma con definición:
en un axioma se afirma o se niega algo, pero se emite un juicio; una definición
simplemente describe un concepto, pero no nos dice cómo se tiene que trabajar
con ese concepto o qué consecuencias se van a extraer de ese concepto.
Sin embargo, si analizamos más despacio los cinco axiomas, nos damos cuenta de
que los cuatro primeros son bastante evidentes y no parecen presentar ningún
problema en especial, pero al llegar al quinto (conocido como el axioma
de las paralelas) las cosas cambian. Resulta algo más farragoso,
complicado, difícil de expresar y de entender. Es más complejo que los
anteriores, como si estuviese más rebuscado. ¿No se podría, de hecho, deducir
de los anteriores cuatro axiomas, de manera que no fuese un axioma auténtico
sino una proposición derivada?
Eso es lo que debió pensar un jesuita del siglo XVIII, Girolamo Saccheri
(1667-1733). Saccheri quería demostrar que era posible deducir el quinto
postulado de los cuatro anteriores, y en su libro Euclides ab omni
naevo vindicatus (un curioso título que podría traducirse “Euclides,
libre de toda mancha”), admitió por un momento que el axioma no fuese cierto y
que se tuviese que elaborar toda la geometría desde los cuatro primeros
axiomas. ¿Qué pasaría? ¡Qué surgiría una geometría distinta a la de Euclides, y
por tanto distinta de la que nuestros sentidos parecen sugerir! Pero Saccheri
no podía aceptarlo. Contravenía tanto la experiencia que lo rechazó. Saccheri,
en realidad, había mostrado que Euclides estaba “libre de toda mancha”, porque
Euclides no se había equivocado: el quinto postulado es un axioma con pleno
derecho, ya que o se supone como verdadero, o salen otras geometrías que
desafían al sentido común. No era una proposición que se podía deducir sin más
de los otros cuatro axiomas, sino un axioma con categoría propia. Se había
abierto una caja de Pandora cargada de diferentes geometrías posibles. Desde el
momento en que se rechazase el axioma de las paralelas o al menos se ponga en
tela de juicio, prácticamente todo era posible. Así, a comienzos del siglo XIX
el ruso Nikolai Lobachevski (1792-1856) y el húngaro János Bolyai (1802-1860)
desarrollaron la geometría hiperbólica. Bolyai, cuyo trabajo
no se difundió hasta décadas después del de Lobachevski, llegó a obsesionarse
tanto por el quinto postulado de Euclides que su padre le pidió que dejase el
tema en aras de su salud y felicidad. Hoy, los historiadores reconocen el
mérito de Bolyai como uno de los creadores de las geometrías no- euclídeas. Por
si fuera poco, la mayor mente matemática de aquel tiempo, el alemán Cari
Friedrich Gauss (1777-1855), cuyas contribuciones a la matemática y a
la física son tantas que difícilmente podríamos resumirlas en unas breves
líneas, había llegado a conclusiones similares a las de Bolyai y Lobachevski de
manera independiente, aunque no las había publicado. Con el trabajo de un
discípulo de Gauss, Bernhard Riemann (1826-1866), otro de los
grandes genios de la matemática del XIX, se realizaron algunas aportaciones
definitivas al estudio de las geometrías no-euclídeas, sin las cuales Einstein
no habría podido formular su teoría de la relatividad general.
El axioma de Euclides resulta evidente en un espacio plano: por
mucho que prolonguemos las dos líneas rectas, si son paralelas nunca se
tocarán. El plano se puede extender al infinito y por tanto, en una geometría
de espacios planos como es la de Euclides las paralelas nunca se cortarán.
Pero, ¿ocurriría lo mismo en un espacio curvo? En absoluto. En un
espacio curvo las paralelas sí se llegan a cortar, por ejemplo en la superficie
de una esfera. La geometría de Euclides es sólo un caso límite para
un espacio con curvatura cero, que es justamente un plano, al igual que la
física de Newton es un caso particular (aunque válido para la escala en la que
solemos movernos) de teorías más generales (la relatividad de Einstein o la
mecánica cuántica). El genio humano no se rinde ante las evidencias. Va siempre
más allá, englobando, ampliando y profundizando.
Y si no se cumple el quinto postulado de Euclides en un espacio curvo, tampoco
se cumplirán muchas de las conclusiones que había deducido el alejandrino, como
que la suma de los ángulos de cualquier triángulo siempre sea igual a dos
ángulos rectos (180 grados).
Simplificando mucho, hay dos grandes geometrías no-euclídeas. La geometría
hiperbólica niega, por supuesto, el axioma de las paralelas, y a
diferencia de la geometría de Euclides, aquí no hay una única línea que pase
por un punto y que nunca se corte con otra línea dada. Hay al menos dos líneas
que podrán pasar por encima de ese punto sin llegar nunca a cortarse con la
línea recta inicial externa al punto. En la geometría elíptica (a
la que Riemann hizo enormes aportaciones) pasa lo contrario. No existe ninguna
línea que, pasando por ese punto, pueda prolongarse indefinidamente sin nunca
tocar a la recta inicial, por lo que, en sentido estricto, no existen las
líneas paralelas: siempre acabarán convergiendo, como en la superficie de una
esfera (y la Tierra es, al fin y al cabo, una esfera achatada por los polos).
La suma de los ángulos de un triángulo es, en la geometría elíptica, siempre
mayor que 180 grados.
Euclides había creado una construcción admirable por su rigor lógico capaz de
formular toda la geometría, aunque siglos más tarde los matemáticos
descubrieran que la de Euclides no era, ni de lejos, la única geometría
posible. En cualquier caso, hay una pregunta que seguía sin respuesta: ¿es
posible reducir la matemática a lógica? ¿Es la matemática, en el fondo, una
mera derivación de la lógica? Los axiomas de Euclides parecían ir en esa línea:
la matemática no sería más que la correcta deducción de proposiciones y
teoremas a partir de un conjunto mínimo de postulados iniciales.
A comienzos del siglo XX, un matemático alemán, David Hilbert (célebre, entre
otras cosas, por haber retado en 1900 a los matemáticos de la época con una
lista de problemas no resueltos, los “problemas del milenio”), abanderó la
teoría luego conocida como formalismo y que sostenía que la
matemática podía reducirse a un conjunto finito de axiomas. Para ello hizo uso
de la teoría de conjuntos, una poderosa herramienta lógico-matemático
que trata con agrupaciones de objetos. Claro que se trataba de una teoría de
conjuntos bastante desarrollada: la teoría axiomática de conjuntos, que contaba
con una serie de axiomas que especificaban determinadas propiedades de los
conjuntos. Las versiones más rudimentarias de la teoría de conjuntos habían
llevado a contradicciones insolubles como la famosa paradoja del
barbero, propuesta por uno de los grandes lógicos del siglo XX y
premio Nobel de literatura, el británico Bertrand Russell (1872-1970). La
paradoja dice así: en una ciudad sólo hay un barbero, y todo hombre en la
ciudad tiene la costumbre de afeitarse. Unos se afeitan ellos mismos, mientras
que otros acuden al barbero. El barbero sólo afeitará a todos aquellos hombres
que no se afeiten a sí mismos. Pero si el barbero tiene el coraje de
preguntarse si debe afeitarse a sí mismo o no, se encontrará en un callejón sin
salida. Porque si el barbero no se afeita a sí mismo, como el barbero afeita a
todo el que no se afeita a sí mismo, debería ir al barbero y por tanto
afeitarse a sí mismo. Y por otra parte, si se afeita a sí mismo, entonces no
tiene por qué ir al barbero, porque el barbero sólo afeita a los que no se
afeitan a sí mismos. ¡Oh dilema! ¿Qué hará el pobre barbero? Algún crítico
sutil ha sugerido que el barbero sea una mujer, pero claro está que si decimos
que el barbero sólo puede ser un varón el problema lógico persiste.
Una vez reformulada la teoría de conjuntos para eludir esa y otras muchas
paradojas, muchos pensaron, como Hilbert, que podían encontrarse unos axiomas
que contuvieran la “semilla” de toda la matemática y así fundamentar esta
disciplina en la lógica. Hasta que apareció en la escena de la lógica y de la
matemática del siglo XX un hombre llamado Kurt Gödel.
Gödel nació el 28 de abril de 1906 en la ciudad de Brno, en Moravia (actual
República Checa), la misma donde el monje Gregor Mendel había llevado a cabo
sus famosos experimentos con guisantes a mediados del siglo XIX. De pequeño se
le conocía como Herr Warum, “señor por qué”, al estar
constantemente preguntando el porqué de todas las cosas. Gödel fue siempre un
estudiante brillantísimo, y a los 18 años fue a estudiar física y matemáticas
en la Universidad de Viena, donde trabó amistad con algunos de los
representantes principales del Círculo de Viena, participando en muchas de sus
reuniones. Se doctoró en 1929 con una tesis sobre lógica matemática.
Hilbert y su escuela creían que, dado un conjunto de axiomas en un determinado
sistema formal, era posible derivar, partiendo de esos axiomas, todas las
proposiciones verdaderas que se podían encontrar en ese sistema. ¿Era posible
identificar ese conjunto mínimo de axiomas? Un jovencísimo Gödel demostró que
no era posible al publicar, en 1931, uno de los resultados más importantes de
la historia de la lógica: el teorema de incompletitud de Gödel.
Gödel se imaginó una proposición según la cual ella (la proposición) no pudiese
probarse en ningún sistema formal. Aparentemente sencillo: una proposición que
en su contenido afirmase que no podía ser demostrada. Si se pudiera probar,
sería falsa, porque la proposición sostenía que no podía ser probada de ninguna
manera. Pero una proposición demostrable es siempre verdadera: si es verdadera,
siempre habrá un modo, da igual lo complicado que sea, de probarla. Pero en
este caso ocurre lo contrario: tenemos una proposición verdadera que establece
que no se puede demostrar. Y esa proposición es perfectamente legítima dentro
del sistema formal, y dice que es verdadero que ella no se puede probar dentro
de un sistema formal. Luego siempre va a ser posible dar con al menos una
proposición verdadera pero no demostrable (ni refutable). Como sucede con
tantas grandes ideas y descubrimientos, el núcleo es más sencillo de lo que
podría parecer (sobre todo cuando entran en juego nociones lógicas como las de
“incompletitud” o “sistema formal” que, de primeras, es comprensible que
“asusten” al no iniciado), aunque para llegar a semejante sencillez el genio
(en este caso Gödel) haya tenido que sortear muchísimos obstáculos y barreras.
Pero al final del túnel encontró una luz, y esa luz ha cambiado nuestra visión
de la lógica y de la matemática.
Así, el teorema de incompletitud de Gödel nos dice que si un sistema es
consistente (es decir, no incluye contradicciones), no puede ser completo (al
menos habrá una proposición dentro del sistema verdadera pero indemostrable), y
que la consistencia de los axiomas no puede demostrarse dentro del propio
sistema. No existe, en consecuencia, un conjunto de axiomas válido para
formalizar toda la matemática. El teorema de Gödel acabó, por así decirlo, con
el sueño, albergado de una u otra manera desde Euclides, de reducir la
matemática a lógica. Pero más aún, el teorema de Gödel pone serias limitaciones
a los intentos de buscar teorías del todo y modelos
omnicomprensivos de la realidad. En su conferencia “Gödel and the End of
Physics”, el famoso físico británico Stephen Hawking (1942-...) sostiene:
“algunas personas se mostrarán decepcionadas si no existe una teoría última que
pueda formularse como un conjunto finito de principios. Yo pertenecía a ese
grupo, pero he cambiado de opinión. Ahora me alegro de que nuestra búsqueda de
entendimiento nunca llegue a un término, y de que siempre tengamos el desafío
de un nuevo descubrimiento. Sin ello, nos paralizaríamos”.
En definitiva, más humano que el responder es el preguntar, porque toda
respuesta abre a una nueva pregunta. Y si hay algo que se acerque al infinito
en el universo o en la historia, es la capacidad humana de preguntar.
Capítulo 6
Arquímedes: “no molestes a mis círculos”
Con razón escribe Morris Kline en su Historia
del pensamiento matemático que “no hay ninguna persona cuyos trabajos
sinteticen el carácter de la edad alejandrina tan bien como Arquímedes (287-212
antes de Cristo), el mayor matemático de la antigüedad”. Y no es para menos:
puede decirse que, junto con Newton y Gauss, Arquímedes es el matemático más
genial de la historia. Sus aportaciones incluyeron hitos tan importantes para
el desarrollo de las ciencias matemáticas y naturales como el cálculo del
número n, la primera suma de una serie infinita, el descubrimiento del
principio que lleva su nombre en la hidrostática, la medición del centro de
gravedad de distintas figuras, el teorema de la palanca, el método de las
aproximaciones sucesivas para la medición de las áreas y volúmenes de figuras
curvas complejas, etc. Si la matemática griega no fue superada, prácticamente,
hasta la invención del cálculo infinitesimal (diferencial e integral) en la
segunda mitad del siglo XVII, se debe en gran medida a Arquímedes.
Arquímedes culmina uno de los ideales que habían definido la cultura griega: la
búsqueda del elemento racional en el cosmos. Los griegos encontraron en el
lenguaje matemático una especie de proyección o prolongación del mundo de lo
eterno, infinito e inmutable de las formas, tan alejado de la fugacidad y del
cambio. La esfera, imagen de lo completo, acabado y cerrado, que no puede
mejorarse, era para el griego antiguo el símbolo de la perfección, que no se
encontraba en lo infinito (como más tarde asociará la cultura moderna: lo
perfecto es lo infinito e ilimitado), sino precisamente en lo que poseía mayor
proporción, regularidad y “conexión” entre sus partes y dimensiones. Los
griegos dejaron unos ideales de racionalidad y de espíritu de búsqueda
intelectual tan elevados que hasta bien entrado el Renacimiento, con el
nacimiento de la Europa moderna y del método científico, siempre se tuvo un
cierto “complejo de inferioridad” con respecto a Grecia. Si en la Baja Edad
Media Aristóteles era venerado casi como un semi-dios, idolatrado como las
deidades paganas por su legendaria sabiduría y gozaba en muchas ocasiones de
mayor prestigio que los Padres de la Iglesia (se le reservaba el título de
“Filósofo”: Philosophes dixit, “el Filósofo dijo”, era poco
menos que palabra de Dios), era porque la mente europea no se sentía capaz de
ir más allá de lo que habían conseguido los griegos. Todavía en el siglo XVII,
Gottfried W. Leibniz, creador con Newton del cálculo infinitesimal (logro que
por sus repercusiones hizo definitivamente a la ciencia y a la matemática
occidental “mirar” más allá de los griegos), reconoce que “quien comprenda a
Arquímedes y Apolonio admirará menos los logros de los hombres más ilustres de
tiempos posteriores”.
Nuestro tiempo, post-ilustrado y post-moderno, siente poca veneración y respeto
por el pasado y por la tradición. La historia, que muchas veces parece seguir
la “ley del péndulo”, pasando de un extremo a otro en un breve intervalo y
moviéndose según el principio de acción y reacción, ya no goza, desde luego,
del prestigio que sí tenía para los hombres y mujeres de épocas pasadas. Ahora
miramos siempre hacia delante. No nos vemos “cohibidos” o determinados por lo
que haya ocurrido antes que nosotros o por lo que se haya pensado o ideado
antes que nosotros, sino que nos sentimos plenamente protagonistas del curso de
los tiempos. Pero no siempre fue así. En las culturas antiguas y en el mundo
occidental hasta el nacimiento de la modernidad, el ideal de plenitud estaba en
el pasado. La historia mostraba una especie de “decadencia” continua: desde el
esplendor de Grecia y Roma, el mundo occidental vagó durante siglos acosado por
las invasiones de los pueblos germánicos, las penurias medievales... En las
civilizaciones antiguas ocurría algo similar: el tiempo había venido “a menos”
desde las glorias de antaño. Manetón, el gran historiador egipcio del siglo III
antes de Cristo, en su Aegyptiaca, cuenta como al principio el
mundo estaba gobernado por semi-dioses. Y en la Biblia, la historia sagrada se
concibe como un empeoramiento de la vida humana después del pecado de Adán,
expulsado de un idílico jardín del Edén en la noche de los tiempos.
Sin embargo, cuando nace la modernidad, en el siglo XVI, y sobre todo con la
Ilustración en el siglo XVIII, el mundo occidental toma conciencia de su
posición en la historia y de que no tiene por qué mirar con nostalgia al pasado
como si todo tiempo anterior al suyo hubiese sido mejor. No había por qué
sentirse inferiores a los griegos, pues ahora hombres como Galileo o Newton
habían llevado el conocimiento a fronteras mucho más lejanas que las que habían
abierto los clásicos. Surge así una de las ideas más brillantes, a mi juicio,
de la cultura moderna: la de progreso.
En cualquier caso, ser conscientes de que hemos llevado la ciencia y el
conocimiento a niveles más altos que en épocas pasadas no significa que no
debamos admirar a quienes han permitido que alcanzásemos esa altura científica,
tecnológica y cultural. Y Arquímedes merece la mayor admiración.
Poco se sabe de la vida de Arquímedes. Sí nos consta que nació en Siracusa, una
ciudad portuaria de la actual Sicilia. Por tanto, Arquímedes no era “griego” en
el sentido de proceder geográficamente de Grecia, sino que pertenecía a la
cultura griega y había nacido en uno de sus centros de expansión, en la colonia
de la Magna Graecia en la que aún hoy se puede contemplar
restos (casi mejor conservados que los de la propia Grecia) del influjo griego
que existió durante tantos años en esta isla mediterránea. Las fuentes biográficas
de que disponemos proceden, en su mayoría, de historiadores clásicos como
Polibio, Plutarco y Tito Livio, y de autores medievales como Juan Tzetzes,
poeta y gramático de origen georgiano que vivió en Bizancio en el siglo XII y
que nos dejó algunos escritos sobre la vida de Arquímedes.
Por obras del propio Arquímedes sabemos que su padre se llamaba Fidias, como el
famoso escultor, pero nos faltan otros datos fundamentales de la vida de este
matemático, por ejemplo si llegó a casarse y tuvo hijos.
¿Dónde se educó? La tradición dice que Arquímedes viajó a Alejandría, meca del
saber en la antigüedad, confluencia de la sabiduría de oriente, occidente y del
legado de la civilización egipcia, que congregaba en torno a su grandiosa
biblioteca levantada por la dinastía de los reyes ptolomeos (descendientes de
uno de los generales de Alejandro Magno y a la que perteneció Cleopatra) a los
mayores astrónomos, matemáticos y geógrafos del momento. Allí podría haber
conocido al genial Eratóstenes, el primero que dio una medición aproximada de
la circunferencia de la Tierra y que era autor de un mapa del mundo.
También sabemos que Arquímedes murió en torno al año 212 antes de Cristo
durante la Segunda Guerra Púnica, conflicto que enfrentaba a la potencia
emergente de Roma, el futuro gran imperio del Mediterráneo, con la ciudad
norteafricana de Cartago (fundada por emigrantes de origen chipriota y
fenicio). Esa guerra se haría muy famosa en la historia antigua por la
participación del general cartaginés Aníbal, el mismo que cruzó los Pirineos y
los Alpes con un ejército de elefantes y aterrorizó a los romanos al invadir la
península itálica. Asistimos, por tanto, a un contexto de decadencia para la
cultura griega, que en pocos años acabaría siendo absorbida por Roma. Los
romanos siempre tuvieron en gran estima a los griegos y en éstos encontraron su
mayor inspiración artística, pero desgraciadamente no fueron capaces de asumir
su legado científico y matemático e hicieron escasas aportaciones en estos
campos, aunque destacasen en otros como el de la ingeniería civil o el derecho.
Plutarco, en su libro Vidas paralelas, cuenta que el general
romano Marco Claudio Marcelo, que había sitiado la ciudad de Siracusa a lo
largo de dos años y se había enfrentado con la resistencia de los locales (cuyo
“capitán” científico habría sido el propio Arquímedes, al diseñar espejos
reflectantes de la luz solar que quemaron las velas de las naves romanas),
cuando finalmente logró tomarla, dio orden a sus soldados de que bajo ningún
concepto hiciesen daño al gran matemático Arquímedes. Pero un soldado que
deambulaba por las calles de Siracusa se encontró con Arquímedes y lo vio
dibujando unos extraños diagramas en el suelo. Le pidió a Arquímedes que fuese
con él a visitar al general Marcelo, pero Arquímedes rechazó la “invitación”,
diciéndole al soldado que “no molestase a sus círculos” (noli turbare
círculos meos, en latín, μου τούς κύκλους τάραττε, en griego), aunque
no hay evidencia sólida de que Arquímedes hablase así (como tampoco la hay de
que Galileo, en el juicio ante la Inquisición, pronunciase el Eppur si
muove, “y sin embargo, se mueve”, o de que Newton llegase a la ley de
la gravitación universal al observar una manzana que caía de un árbol -historia
que, al parecer, se inventó Voltaire). ¿Qué escribía Arquímedes en la arena? Es
tan difícil de contestar como si se preguntase qué escribía Jesús de Nazaret en
el suelo en la escena de la mujer adúltera a la que querían lapidar.
Probablemente estuviera absorto intentando resolver un problema geométrico. En
cualquier caso, el oficial, irritado, clavó a Arquímedes su espada y lo mató,
quizás porque pensaba que Arquímedes podía atacarlo con los instrumentos
matemáticos (compases y demás) que tenía a su lado.
La historia, como es de suponer, ha sido idealizada hasta la extenuación.
Arquímedes habría dado su vida por la ciencia como Sócrates lo hizo por la
filosofía, máxime cuando nuestro matemático, por esta y por otras “leyendas”,
ha sido convertido en icono del genio científico y en mito del intelecto
inquieto, innovador y descubridor.
El ser humano siempre ha necesitado iconos, mitos, leyendas y figuras que
expresen algunos de sus valores e ideales, aunque luego, cuando investiga con
rigor científico y se acerca a esos personajes (sobre todo si se trata de
iconos políticos, mediáticos o musicales) con espíritu crítico se lleve con
frecuencia sonoros desencantos.
En la tumba de Arquímedes, supuestamente, se puso una inscripción con el
diagrama de una esfera circunscrita en un cilindro de la misma altura y del
mismo diámetro, pues Arquímedes se sentía especialmente orgulloso de haber
demostrado que el volumen y el área superficial de la esfera eran un tercio
menores que los del cilindro (volumen de la esfera = 2/3.volumen del cilindro).
Esta conclusión es sólo una prueba del genio matemático de Arquímedes, porque
sus descubrimientos e inventos fueron muchísimos. Comencemos por sus
aportaciones a la mecánica y a la hidrostática.
Casi todo el mundo ha escuchado alguna vez el relato de cómo Arquímedes llegó
al principio de la hidrostática que lleva su nombre. Vitruvio, historiador
romano del siglo I antes de Cristo, explica que el rey Hierón II de Siracusa
había mandado fabricar una corona de oro con forma de laurel a sus orfebres.
Pero como parecía no haber otra manera de comprobar que la corona fuese de oro
más que fundiéndola y midiendo la densidad del líquido resultante, pidió a
Arquímedes que diseñase un procedimiento para que, sin destruir la corona,
fuese capaz de determinar que la sustancia que la componía era oro puro sin
adiciones de plata. El problema no era, en absoluto, fácil. ¿Cómo se puede
concluir que algo es de oro si no se funde el oro sólido y se toman las medidas
oportunas con el oro disuelto y líquido?
La solución vino, continúa Vitruvio en lo que seguramente sea uno de los
episodios más famosos de la historia de la ciencia (y, sin duda, uno de
los momentos estelares de la ciencia, como se titula el libro
homónimo de Isaac Asimov, y más aún, un momento estelar de la
humanidad, como el del austríaco Stefan Zweig), que ha ido pasando de
generación en generación como ejemplo del triunfo del genio sobre todos los
corsés: normas, convencionalismos... El genio viene y va, y está por encima de
las conductas y de los tiempos, nos sugiere el relato. Arquímedes, dándose un
baño, se habría dado cuenta de que el nivel del agua subía conforme él se iba
sumergiendo en el agua. Enseguida, la musa del genio
científico, como si se tratase de una bombilla de Edison, se le encendió a
Arquímedes y pensó que podía usar ese mismo efecto físico para saber si la
corona estaba hecha de oro puro o un orfebre poco honesto la había mezclado con
un metal menos valioso como la plata. Mediante ese efecto podía calcular el
volumen de la corona, y a partir de volumen, pesándola, su densidad, ya que la
densidad resulta de dividir la masa por el volumen (densidad =
masa/volumen). Si el orfebre hubiese añadido metales más baratos y
menos densos que el oro, la densidad sería menor que la correspondiente a una
corona del mismo peso y volumen de oro puro. Arquímedes no pudo contenerse:
estaba totalmente fuera de sí, exaltado, excitado, en éxtasis, únicamente
comprensible para los pocos privilegiados que han podido experimentar la
alegría infinita de descubrir algo significativo para el conocimiento, y salió
desnudo por las calles de Siracusa gritando “¡Eureka!” ("¡έυρηκα!"
en griego), “lo he encontrado”. J.F. Champollion (1790-1832), cuando supo que
había sido capaz de leer por primera vez en siglos la escritura jeroglífica de los
antiguos egipcios, se presentó en el despachó de su hermano mayor y cayó
desmayado ante un gozo que le sobrepasaba. Todos son herederos de Arquímedes.
La historia de la ciencia nos ha deparado otros momentos de gran intensidad
emocional, personal e intelectual, momentos que parecen recoger una “chispa” de
eternidad, de perpetuidad, de algo inagotable e irrepetible, y que hacen a los
seres humanos situarse por encima del espacio y del tiempo, del lugar y del
instante. ¿Qué se debe sentir al descubrir un nuevo elemento químico, o un
nuevo medicamento, o el papel de un gen importante hasta entonces desconocido,
o un nuevo sistema de galaxias, o un nuevo principio físico, o descifrar una
escritura antigua? No lo sé, pero supongo que es algo excepcional y, a la
postre, indescriptible.
Arquímedes había descubierto un principio fundamental de la hidrostática que
hoy estudian todos los estudiantes de física en el colegio, seguramente
acostumbrados a resolver problemas que lo tienen como base. Arquímedes lo
expuso detenidamente en una de sus numerosas obras, Sobre los cuerpos
flotantes: “un cuerpo sumergido en un fluido experimenta un empuje hacia
arriba equivalente al peso del fluido desalojado”, a causa de la diferencia de
presión del fluido que se produce entre la parte superior y la inferior del
objeto en cuestión. Esta fuerza de empuje se opone a la fuerza
de la gravedad, pues actúa en el sentido contrario, y se puede
expresar matemáticamente mediante la siguiente fórmula: Empuje = E = -ρgV, siendo ρ la
densidad del cuerpo sumergido (que, en el sistema internacional, lleva unidades
de kilogramo por metro cúbico), g la aceleración debida a la
fuerza de la gravedad, que en la Tierra es de 9’81 newtons (unidad de fuerza en
el sistema internacional) por kilogramo (ya que la aceleración es igual a la
fuerza entre la masa, de acuerdo con la segunda ley de Newton), y V el
volumen del cuerpo sumergido (para ser coherentes con las unidades empleadas,
debería ir en metros cúbicos). El signo negativo es necesario porque, como se
ha dicho, la fuerza de empuje se opone a la de gravedad, actuando en sentido
contrario. Este empuje hidrostático es el responsable de que los cuerpos puedan
flotar en el agua.
Otra de las contribuciones más destacadas de Arquímedes a la física y a la
mecánica es su invención del llamado tornillo de Arquímedes, que
se giraba manualmente y que resultaba especialmente útil para llevar agua de un
lugar a otro y para el drenaje de los barcos, todavía empleado en algunos
países. Parece, sin embargo, que dispositivos similares se usaban ya en Asiria
en tiempos del rey Senaquerib (hacia el siglo VII antes de Cristo).
Arquímedes alcanzó gran notoriedad en la antigüedad por descubrir la ley
de la palanca, el principio físico que rige su funcionamiento. Esta
ley afirma que “las magnitudes se encuentran en equilibrio a distancias
inversamente proporcionales a sus pesos”, algo que se puede derivar de las
leyes de Newton y que matemáticamente puede expresarse diciendo que el producto
de multiplicar la fuerza que ejerce un objeto por la distancia a la que se
encuentra ese objeto del fulcro o pivote de la palanca, es igual a la fuerza
que ejerce el otro objeto por la distancia al fulcro a que se sitúa el otro
objeto. Se da, por tanto, un balance de fuerzas y, como consecuencia, un
equilibrio estático. Lógicamente, la distancia de ese objeto al fulcro es
inversamente proporcional a su peso (la fuerza que ese objeto ejerce sobre la
palanca, directamente proporcional a su masa), de modo que a mayor peso del objeto,
éste se situará a menor distancia para mantener el equilibrio estático, y si
queremos que el cuerpo se sitúe a mayor distancia, necesariamente deberá tener
un peso menor (o de lo contrario se romperá la palanca).
Según relata Papías de Alejandría, un matemático alejandrino del siglo IV de
nuestra era, Arquímedes habría dicho: “Dadme un punto de apoyo y levantaré la
Tierra” (en griego, “δος μοι που στω και κινω την γην”) Y es que cuando la
ciencia llega a un principio, si este principio es verdaderamente universal,
tiene que poder aplicarse a cualquier objeto, sea del tamaño que sea, porque
también se regirá por las mismas leyes físicas. Aunque hasta Galileo y Newton
(con sus Principia Mathematica de 1687) no se dispuso de un
modelo físico y matemático que valiese igual para los objetos terrestres y los
astros del espacio sideral (que, en la mentalidad griega, funcionaba con leyes
distintas de las de la Tierra, constituyendo un verdadero “mundo aparte”), la
frase de Arquímedes, sea o no legendaria, representa un precedente interesante
de esa convicción que guía la labor científica: deben existir principios
universales que expliquen la estructura y el movimiento de la materia por
encima de tal o cual situación concreta. Sin esa pretensión de universalidad, que
ha inspirado a tantos grandes hombres y mujeres a lo largo de los siglos, la
labor científica carecería de sentido.
Arquímedes, además de físico e inventor, fue un gran ingeniero, según lo
demuestran gestas suyas tan relevantes como el diseño de un sistema basado en
el principio de la palanca que permitía mover objetos muy pesados casi sin
esfuerzo, o la construcción de un gigantesco barco, el Syracusia, para
el rey Hierón II y capaz de albergar a 600 personas.
Pero una de sus proezas más famosas, casi legendaria (de hecho, René Descartes,
en el siglo XVII, la consideraba falsa), sería la de haber diseñado un sistema
de espejos que, reflejando la luz solar que les llegaba, habrían quemado los
barcos romanos que sitiaban la ciudad de Siracusa. Hace poco, en 2005, unos
estudiantes del prestigioso MIT (Massachusetts Institute of Technology) intentaron
reproducir lo que supuestamente habría hecho Arquímedes más de dos mil años
antes. Para ello, utilizaron 127 espejos de unos 30 centímetros que apuntaban a
un barco de madera situado a unos 30 metros. Tal y como cabía prever, el barco
se quemó, pero sólo cuando hubo cielo despejado y el barco se quedó quieto en
una determinada posición. En cualquier caso, el experimento es enormemente
complicado, por las estrictas condiciones en que debe desarrollarse y porque no
es fácil saber exactamente si los espejos de Arquímedes tenían algún otro
dispositivo particular que los hiciese letales, así como el tipo de madera con
que estaban construidos los barcos romanos, por lo que, fuese o no verdad,
habría sido en todo caso muy complejo y excepcional.
Pero donde Arquímedes descolló es en el campo de las matemáticas, y es por
ello, más que por sus pericias en ingeniería y mecánica, que su nombre se ha
escrito con letras de oro en los libros de historia. Los griegos, a diferencia
de los romanos, valoraban más el pensamiento especulativo y abstracto que las
aplicaciones prácticas. Nuestra cultura, más cercana a Roma que a Grecia en
mentalidad, tiende a juzgarlo todo en base a su utilidad práctica, olvidando
que lo que nos hace específicamente humanos no es sólo encontrar soluciones
técnicas a los problemas materiales que se nos presentan, sino, más aún, ser
capaces de sobreponernos a las necesidades del momento y pensar con amplitud de
miras, lo que se manifiesta en el cultivo de las disciplinas humanísticas, las
artes y la teoría científica, aunque no tengan repercusiones prácticas
inmediatas.
Algo en lo que Arquímedes hizo descubrimientos verdaderamente importantes es en
el cálculo de áreas y de volúmenes. Hoy, sabiendo integrar y derivar, resulta
más o menos complicado pero en cualquier caso posible medir el volumen o el
área de una figura curva. Pero en la época de Arquímedes no se había
desarrollado el cálculo infinitesimal, entre otras razones porque la noción
matemática de límite, que está en la base del cálculo
(descubierto por Newton, Leibniz y, parece ser, el matemático japonés Seki Kowa
-afortunadamente, la historia de las ideas científicas mira cada vez más a
regiones no-occidentales- en el siglo XVII), aún tardaría en llegar. Pero sin
saber formalmente derivar o integrar, Arquímedes dio las fórmulas de áreas y
volúmenes de figuras como la circunferencia o la esfera. ¿Cómo lo consiguió?
Empleando el denominado método de las exhauciones, que
consiste en inscribir la figura curva en una serie de polígonos más grandes,
dibujando también un polígono más pequeño dentro de la figura curva. Cuantos
más lados tenga el polígono, más se aproximará a la curva. Teóricamente, un
polígono con un número infinito de lados se “acoplaría” perfectamente a la
curva. Mediante esta técnica, Arquímedes pudo calcular un valor bastante
aproximado del número n. “Aproximado” es ya un gran logro, entre otras cosas
porque el número pi, por ser un número trascendental (y, por
tanto, nunca podrá expresarse como el cociente entre dos números enteros) tiene
infinitos decimales, aunque generalmente se exprese como 3,14159. El número en
cuestión representa la relación entre la circunferencia del círculo y su diámetro.
Los ordenadores más potentes han permitido calcular miles de millones de
decimales, pero nunca se conocerá toda la secuencia porque es infinita.
Arquímedes concluyó que el valor de pi tenía que estar
comprendido entre 3 + 1/7 y 3 + 10/71, algo asombroso para su tiempo y para una
cultura, como la griega, que no conocía la notación posicional actual y que
usaba las letras del alfabeto como números (algo que también ocurre en la
cultura judía: las letras hebreas pueden tomar un valor numérico). Y como colofón
de su estudio pionero sobre pi propuso la fórmula del área de
la circunferencia: pi por el radio al cuadrado (A =
πr2) y del volumen de la esfera V = 4/3 πr.
Con el cálculo infinitesimal se puede demostrar que derivando la función que
expresa el volumen de la esfera, obtenemos la fórmula para el área de la
superficie de la esfera, que es, justamente, A = 4πr2.
Esta fórmula también la descubrió por su cuenta Arquímedes. Con sus métodos a
base de aproximaciones ofreció también un valor bastante aceptable de otro
número irracional: la raíz cuadrada de 3 (√3).
Arquímedes se hizo también famoso por pretender calcular el número de granos de
arena que podía contener el universo. No podía ser infinito (¡el cosmos griego
era limitado y finito!), sino que tenía que estar hecho a base de miríadas de
granos de arena. El problema guarda una cierta semejanza con un relato,
bastante difundido, que dice que un rey muy importante le había ofrecido a un
anciano sabio todo lo que quisiese. Pero, como le pasó a Herodes con Salomé,
hay promesas y ofrecimientos que pueden salir muy caros, incluso inasumibles
para un monarca poderoso. El anciano le pidió al rey que en un tablero de
ajedrez de 8×8 casillas fuese poniendo en cada casilla el doble de granos de
trigo que en la casilla anterior. Lógicamente ningún rey, por repletos que
estuviesen sus graneros, podría cumplir el pedido del anciano, porque si en la
primera casilla ponemos un grano de trigo y en la segunda dos, y en la tercera
cuatro, y en la quinta ocho (el doble), tendremos que poner, finalmente ¡263 granos
de trigo!
Arquímedes fue también capaz de calcular el resultado de una progresión
geométrica. Una progresión geométrica consiste en una secuencia de números
en la que cada término después del primero se obtiene multiplicando el anterior
por una cantidad constante distinta de cero. El término se ha hecho célebre
fuera de las matemáticas gracias al demógrafo, teólogo y economista inglés
Thomas Malthus. Malthus, en An Essay on the Principies of Populations de
1798, defendía que la población aumentaba siguiendo una progresión geométrica,
mientras que los alimentos lo hacían siguiendo una progresión aritmética (de la
forma 1, 2, 3, 4...). Como la población crecería a un ritmo más rápido que los
alimentos, la situación resultaría a la larga insostenible, desembocando en una
catástrofe que para Malthus tendría lugar a mediados del siglo XIX. Esta crisis
no ocurrió, al menos tal y como proponían las predicciones de Malthus, entre
otras cosas porque el inglés olvidó que la mente humana es suficientemente
creativa como para descubrir nuevos modos de suministrar alimentos. La
progresión geométrica que resolvió Arquímedes empezaba con la unidad, y a
partir de ella cada número se iba multiplicando por un cuarto (1/4), con infinitos
términos en la secuencia: 1 + 1 × 1/4 + 1/4 × 1/4... El resultado no es
infinito, como cabría pensar al sumarse infinitos términos, sino 4/3. La prueba
era de carácter geométrico, basándose en áreas de triángulos. Siglos más tarde,
otro de los grandes matemáticos de la historia, el suizo Leonard Euler
(1707-1783) destacó, entre otras muchas cosas, por sus aportaciones a la suma
de series infinitas, al igual que el genio indio Ramanujan (1887-1920).
Arquímedes hizo también aportaciones relevantes al estudio sobre las figuras
cónicas (campo en el que también destacó el alejandrino, contemporáneo de
Arquímedes, Apolonio de Perga), pero sobre todo llevó la matemática griega a su
máxima expresión, fijando un listón tan alto en el rigor y en la elegancia
exigibles a una demostración matemática que tardó siglos en ser superado. La
medalla Fields, el “Nobel de las matemáticas” que concede en la actualidad
la Unión matemática internacional a investigadores relevantes
de menos de 40 años de edad, lleva grabada una efigie de Arquímedes, símbolo
del poder casi infinito que tiene la inteligencia humana para descubrir,
inventar y concebir.
Capítulo 7
Ver las cosas con perspectiva: el renacimiento
Pocas etapas de la historia de Europa han conocido
un esplendor cultural y artístico como el que tuvo lugar durante el
Renacimiento. Un mundo nuevo comenzaba para Occidente, que a la larga
conllevaría cambios destacados en la sociedad y en la visión del ser humano y
de la historia, dando inicio a la edad moderna. El Renacimiento es el triunfo
de la creatividad, el florecimiento de una búsqueda incesante de belleza que
llevó a sus protagonistas a mirar a Grecia y a Roma como fuentes de
inspiración, a los clásicos, para imitar una perfección que consideraban
insuperable. La grandiosidad de las principales obras de los artistas
renacentistas es sólo la cara externa de una transformación mucho más profunda
en la comprensión de la naturaleza y de la vida: la belleza se buscaba en el
ser humano, centro de todo cuanto existe.
Los historiadores del siglo XIX habían acentuado la ruptura radical que
representaba el Renacimiento con respecto a la Edad Media. Una obra
paradigmática fue La cultura del Renacimiento en Italia, del
suizo Jacob Burkhardt, publicada en 1860. La crítica actual, sin embargo,
prefiere evitar esos excesos porque es consciente de que hay más continuidad de
lo que se creía entre la Edad Media y el Renacimiento. No se puede entender a
los grandes precursores del espíritu renacentista, como Petrarca y Boccaccio,
sin el contexto histórico y cultural de la Europa del siglo XIV, en la Baja
Edad Media. Es cierto que los genios del Renacimiento tenían como modelos a
Grecia y a Roma, pero también lo es que a lo largo de toda la Edad Media los
filósofos y teólogos siempre basaron, de una u otra forma, sus reflexiones en
las obras de Platón y de Aristóteles. El mayor teólogo de la escolástica
medieval, Santo Tomás de Aquino (1225-1274), intentó asimilar el pensamiento de
Aristóteles a la teología cristiana, al igual que otros antes que él habían
querido conciliar la filosofía de Platón con el cristianismo. El cultivo de las
artes no fue, en absoluto, mediocre en la Edad Media (sólo hace falta
contemplar las catedrales góticas de Francia, Inglaterra o España), y la
investigación más rigurosa (que impulsó el físico e historiador francés Pierre
Duhem a finales del XIX con su monumental Le systéme du monde: histoire
des doctrines cosmologiques de Platon á Copernic en 10 volúmenes) de
los escritos legados por los medievales ha demostrado que hubo auténticos
pioneros, por ejemplo en las disciplinas científicas (Nicolás de Oresme, Roger
Bacon, Jean Buridan...), que se adelantaron en muchos aspectos a físicos posteriores
como Galileo, y cuyos trabajos podrían haber influido enormemente en los
artífices de la revolución científica de finales del siglo XVI y principios del
XVII. Por no hablar del extraordinario desarrollo de las matemáticas y de las
ciencias experimentales con los árabes en la Edad Media durante su edad de oro
(entre los siglos VIII y XV, aproximadamente), precursores en campos tan
dispares como las matemáticas, la física, la química, la biología o las
ciencias sociales con nombres tan relevantes como Alhazen, Jabir ibn Hayyam,
Avicena o Al-Razi. Y eso sin contar a los intelectuales judíos medievales como
Maimónides, sin los que no se puede entender la evolución del pensamiento y la
transmisión de la cultura que está en la base misma del nacimiento de la edad
moderna.
Contra los prejuicios y las frases hechas, no hay nada mejor que la información
y el conocimiento riguroso. Precisamente, una de las grandes ventajas del
espíritu crítico es que los historiadores han aprendido a apreciar cada etapa
histórica en cuanto tal, eludiendo en lo posible comparaciones anacrónicas,
extemporáneas y fuera de lugar; visiones ya formadas y, más aún, deficiencias
metodológicas (que, en realidad, respondían a una falta de datos) que llevaban
a clasificar unos períodos como “buenos” y otros como “malos”. Semejantes
simplismos contrastan con el “redescubrimiento” actual de épocas que se antes
habían sido ignoradas o a las que no se les había prestado suficiente atención.
El Renacimiento es demasiado complejo y variado como para analizar todos los
elementos (sociales, políticos, intelectuales...) que estuvieron en juego.
Vamos a centrarnos únicamente en lo que supuso para el mundo del arte y de la
arquitectura, si bien hay que tener en cuenta que sin analizar adecuadamente
ciertos factores es imposible comprender por qué surgieron determinadas formas
artísticas. La ciencia, las artes y muchas otras expresiones culturales son
parte de la originalidad humana y de su capacidad creativa, pero no se pueden
desligar del contexto histórico, social y económico en que surgieron, de su
tejido de relaciones. Sin medios técnicos, no hay ni arte ni ciencia. Sin
desarrollo económico, ¿quién financia el arte, que tantas veces ha servido como
exaltación -o crítica- del poder? El fin del feudalismo, predominante en la
Edad Media, con el ascenso paulatino de la burguesía y de las nuevas clases
dedicadas al comercio, fue clave a la hora de propiciar ese auge de las artes
en el Renacimiento. Nuevamente, no se trata de restar originalidad a los
creadores, sino de situarlos en su contexto real y humano para evitar la
tentación de “sacralizarlos” o construir mitos en torno a ellos que luego
demuestran ser exageraciones.
Italia fue el centro de esa efervescencia creativa del Renacimiento. El arte
estaba en plena ebullición en Florencia, Roma, Venecia, Pisa... Italia era el
arte, y el arte acudía a Italia. Ya desde la poesía de Dante Alighieri
(1265-1321) inmortalizada en la Divina Comedia de este “sommo
poeta”, se percibía una nueva sensibilidad en la cultura. Precisamente en
esa obra, culmen de la literatura italiana, Dante sintetiza la visión medieval
del universo, en la que convergían lo científico-cosmológico y lo teológico: el
cielo arriba y el infierno abajo con la Tierra en el centro, descritos en forma
de epiciclos y circunferencias al modo de Aristóteles y de Claudio Tolomeo; la
vida humana, un peregrinaje que tiene como meta el encuentro cara a cara con
Dios en la visión beatífica de que gozarían los justos. Gracias a los trabajos
del arabista, académico y sacerdote español Miguel Asín Palacios (1871-1944),
plasmados en La escatología musulmana en la Divina Comedia (1919),
la crítica ha relativizado en cierta medida el sustrato cristiano y la
originalidad del libro de Dante, al ser consciente de que éste no se puede
comprender sin el influjo de movimientos que surgieron dentro del Islam y que
gozaron de un grado de espiritualidad y de misticismo elevadísimo, cuya
escatología (es decir, su idea del más allá) quedó reflejada en el patrón
lírico que siguió Dante. Pero en cualquier caso, toda una época (la Edad Media)
fluye por los versos de Dante, que pregonan ya su fin y el inicio de una nueva
era. El sutil Dante, en uno de los ejercicios más tempranos de sátira social,
coloca a profetas y papas en el infierno, al pagano Virgilio le obliga a
permanecer en el purgatorio y en el cielo sitúa a San Bernardo de Claraval, al
franciscano San Buenaventura de Bagnoregio y a su musa Beatriz, que le acompaña
por las esferas celestes. Y finalmente, Dante mira a Dios como Moisés fijó los
ojos en su rostro en el episodio de la zarza ardiente. En ese momento, toda la
búsqueda intelectual y vital de Dante alcanza su meta más ansiada: el
entendimiento pleno, la comprensión del misterio de los misterios que es lo
divino y su relación con lo humano. Todo se integra en todo, todo se reconcilia
con todo, todo se hace uno con todo para que, como dice San Pablo en su primera
carta a los Corintios, “Dios sea todo en todos” (panta en pasin, afirma
el original griego): es la aspiración máxima de todo ser que recogen las
grandes tradiciones religiosas y filosóficas de la humanidad. También en el
hinduismo se quiere la armonía y la unidad perfectas entre el atman de
cada individuo y el brahman o totalidad universal infinita e
inmutable, que es al mismo tiempo inmanente y trascendente; también la
revolución francesa deseaba que más allá de la libertad y de la igualdad
triunfase la fraternidad -o sororidad- entre todos los hombres
y mujeres; también en Hegel la idea que está en sí, sale de sí y vuelve a sí
para integrarlo todo en su tránsito por ese gigantesco proceso que experimenta
el absoluto para construirse a sí mismo como totalidad; también Teilhard de
Chardin concibió la evolución como una progresiva convergencia de materia y de
conciencia hacia un Punto Omega...
Con Francesco Petrarca (1304-1374) y su Canzoniere, otra de
las cimas de las letras italianas, o las obras de Giovanni Boccaccio
(1313-1375), el humanismo irrumpía como una corriente de aire
fresco en Europa. Los humanistas enfatizaban el aprendizaje de los clásicos, de
la retórica y de la moral como una afirmación de la grandeza de la mente humana
y de sus posibilidades casi infinitas. Se veían reflejados en los genios de
Grecia y Roma porque consideraban que en la edad clásica, la humanidad había
logrado una altura cultural sin parangón. Los humanistas confiaban en el ser
humano, con un optimismo que en retrospectiva es casi tan ingenuo como el de
los ilustrados del siglo XVIII. Quizás pensaran, y con razón, que era mejor ser
optimista que no serlo, y lo cierto es que al menos ese optimismo se tradujo en
cuadros, esculturas y edificios que no dejan de maravillarnos. La máxima
expresión de ese optimismo humanista que compartían los grandes creadores del
Renacimiento está en la Oración sobre la dignidad humana, de
Giovanni Pico della Mirandola (1463-1494), una especie de manifiesto o de
declaración de principios para que a nadie le quepa ninguna duda sobre las
convicciones de la época. En ella, Pico della Mirandola proclama:
“A la postre me parece haber entendido por qué el hombre es el ser vivo más
dichoso, el más digno, por ello, de admiración, y cuál es aquella condición
suya que le ha caído en suerte en el conjunto del universo, capaz de despertar
la envidia, no sólo de los brutos, sino de los astros, de las mismas
inteligencias supra mundanas. Increíble y admirable. Y ¿cómo no, si por esa
condición, con todo derecho, es apellidado y reconocido el hombre como el gran
milagro y animal admirable?”
Y es que, de haber vivido más años, quién sabe si Pico della Mirándola no
habría formulado la Declaración sobre los derechos del hombre y del
ciudadano de 1789...
Un auténtico pionero del Renacimiento en las artes es el florentino Giotto
di Bondone (1267-1337), llamado simplemente Giotto, porque
a los genios en Italia se les conoce por su nombre de pila (Dante, Galileo,
Rafael...). Giotto trabajó en Roma y quizás también en Asís con su maestro
Cimabue, aunque no está claro si los famosos frescos de la basílica de San
Francisco en Asís, verdaderamente excepcionales, son obra de Cimabue o del
propio Giotto.
La pintura de Giotto exhibe un realismo desgarrador para la época, como el que
se puede contemplar en la Crucifixión de Rimini. Pero en
ninguna obra destacó tanto su talento como en los frescos de la capilla Scrovegni de
Padua (también conocida como la “capilla de la arena”), con un fantástico ciclo
de 37 escenas con motivos bíblicos. Las pinturas rebosan de humanidad, de
realismo, de naturaleza... ¿Cómo lo consiguió Giotto? ¿Qué técnica o concepción
artística incorporó, con respecto a la pintura medieval, para producir esa
sensación de cercanía con las formas, los gestos y las actitudes propiamente
humanas? Se trata de la perspectiva, uno de los mayores avances del
momento, y que supuso un cambio fundamental en el modo de transmitir emociones,
vivencias y actitudes. Con la perspectiva, el artista era capaz de reflejar al
ser humano de carne y hueso no de manera prototípica o prefigurada. El rostro
hablaba por sí solo. El volumen de los personajes, cómo ocupaban el espacio en
altura, anchura y profundidad, iba a definir una nueva etapa en el arte, una
bocanada de aire fresco en la historia de la pintura.
El término “perspectiva” deriva del latín perspicere, que significa
“ver con claridad”. Con la perspectiva, es posible apreciar mejor las
distancias y las proporciones. El conjunto adquiere “más vida”, porque aparenta
desenvolverse en una tercera dimensión. Porque si no existiera la perspectiva,
¿qué alternativa tendríamos para representar las distancias? Habría que
superponer unas figuras sobre otras, pero como la escena sólo se desarrollaría
en el plano, sería enormemente difícil obtener un buen resultado. La
perspectiva implica “engañar” al espectador de manera que crea que lo que ve
está ocurriendo en tres dimensiones cuando, lógicamente, en un cuadro sólo se
puede pintar en dos dimensiones. La representación en tres dimensiones, que
parecía patrimonio exclusivo de la escultura o de otras artes, se convierte en
pilar de la pintura, y la técnica de la perspectiva en uno de sus más preciados
tesoros.
Si la “explosión” de la perspectiva se dio en el Renacimiento, sus orígenes se
remontan ya a la Grecia clásica. El genial matemático alejandrino Euclides
escribió en su Óptica uno de los primeros estudios sobre la
perspectiva de los que tenemos constancia. Pero fue otro matemático no menos
notable, el persa y natural del actual Irak Alhazen (935-1039),
quien en plena Edad Media analizó detenidamente la perspectiva y propuso leyes
geométricas, aunque como su interés era exclusivamente científico (la óptica)
no aplicó sus teorías a la pintura. Alhazen poseía un intelecto extraordinario,
haciendo aportaciones relevantes en prácticamente todos los campos del
conocimiento, desde la matemática hasta la psicología, pasando por la física o
la oftalmología. Se adelantó a Fermat en el principio de mínima acción y a
Newton y Leibniz en los fundamentos del cálculo infinitesimal, además de
proponer un método científico que no tiene nada que envidiar al que luego extendería
Galileo en el siglo XVII. Aunque tendamos a mirar sólo a occidente cuando
buscamos mentes maravillosas que hayan realizado contribuciones esenciales al
conocimiento, conforme sabemos más sobre otras civilizaciones nos damos cuenta
de lo limitado y reductivo de esa aproximación.
Giotto no era matemático, pero seguramente dedujo algunas reglas útiles que le
permitieran pintar con perspectiva, encontrando la proporción adecuada entre la
altura, la anchura y la profundidad de lo que dibujaba. Fue Filippo Brunelleschi (1377-1446)
quien realizó en el siglo XV un estudio sistemático sobre la perspectiva que
sirvió a los grandes pintores del Renacimiento, que como Donatello lo adoptaron
rápidamente. Brunelleschi es famoso por haber diseño la cúpula de 42 metros de la
catedral de Santa Maria dei Fiore en Florencia, una de las
joyas de la arquitectura del Quattrocento. Dese la antigua Roma,
nadie había sido capaz de construir cúpulas tan grandes que abarcasen tanto
espacio sin estar sustentadas por columnas intermedias. Nadie había podido
emular al Panteón de Roma, ese templo dedicado a todas las
divinidades de la Roma imperial que asombra al visitante por su carácter
descomunal, que culminaba la pericia técnica de los romanos. Brunelleschi sí.
Construyó una cúpula que rivalizaba en grandiosidad y belleza con la del
Panteón. El Renacimiento miraba con admiración a Grecia y a Roma, pero en breve
los europeos empezarían a ser conscientes de que no tenían por qué sentirse
inferiores a los clásicos, porque ellos mismos habían sido capaces de llevar el
arte y la tecnología a cotas iguales e incluso superiores. Pero además de
legarnos una cúpula como la del duomo florentino, Brunelleschi
fue un verdadero innovador en el uso de la perspectiva lineal en la pintura.
Con el libro Della pittura, de Leon Battista Alberti, las
ideas de Brunelleschi fueron ampliamente difundidas y enseñando cómo podían
calcularse las distancias aparentes de los objetos.
Una idea tan relativamente simple y que no requería de un nivel demasiado
elevado de geometría, iba a revolucionar la pintura. Y si la perspectiva acabó
triunfando es también porque los mayores genios de las artes del momento
supieron ponerla en práctica.
Y si hay alguien que deslumbró al mundo con su dominio de la perspectiva
es Leonardo da Vinci (1452-1519). Como él mismo escribió, “sin
la perspectiva no se puede hacer nada bien en la pintura”. Poco se puede decir
sobre Leonardo que no se conozca ya o que no haya sido objeto de multitud de
libros, artículos y estudios. Leonardo, el ideal de hombre renacentista y una
de las mentes más privilegiadas que han existido, poseía una curiosidad
desbordante e infinita, que sólo la observación atenta de la naturaleza parecía
saciar. La belleza de sus obras es en realidad la misma belleza de la
naturaleza, que él quiso imitar en sus formas, en sus colores y en su
inagotable variedad. Leonardo era, ante todo, un artista, un artista que
encontraba en la naturaleza su fuente de inspiración más sublime. Ingeniero,
físico, anatomista, inventor que se adelantó siglos al concebir artilugios como
el helicóptero o el tanque..., pero ante todo artista, que en sus cuadros
recogía la poesía que brota de la vivacidad del reino natural. Leonardo
representa, quizás mejor que nadie antes y después de él, las verdaderas
posibilidades que tiene la mente humana de superarse a sí misma y de ansiar la
perfección. Leonardo no fue a la universidad, ni recibió una educación
esmerada. Como hijo bastardo de un notario, su vida no fue en absoluto fácil.
Aprendió lo que pudo de Verrochio, pero enseguida había superado con creces a
su maestro y tuvo que buscar él solo el conocimiento. Vivió por delante de su
siglo, y no fue comprendido. Trató de encontrar consuelo ante la imposibilidad
de hallar respuestas para todas las preguntas que surgían de su inquieta mente
en la contemplación de la naturaleza. En sus obras plasmó su fascinación por la
belleza pero a la vez su desencanto ante la fragilidad de nuestra mente,
incapaz de descubrir tantas cosas como habría querido Leonardo. No nos
engañemos: Leonardo se adelantó a su tiempo en el siglo XV como también lo
habría hecho en el siglo XXI, porque intelectos tan poderosos con un afán
infinito de preguntar y de conocer nunca llegarían a encontrar la serenidad. Lo
suyo habría sido siempre un continuo desasosiego, pero un desasosiego que
trasluce una de las aspiraciones humanas más nobles: el ansia infinita de
saber. Sus diarios dan fe de ese interés universal que fue su triunfo y su
tragedia.
Leonardo, el genio universal, el milagro de la naturaleza, dejó a la posteridad
obras inmortales como La adoración de los magos, La última Cena (en
el convento de Santa Maria delle Grazie, en Milán) La Virgen de las
rocas o San Juan Bautista, peor en ninguna ha cobrado
tanta fuerza su magistral uso de la perspectiva como en la enigmática sonrisa
(cuestionada por algunos críticos de arte que sostienen que el sutil empleo
del sfumato por parte de Leonardo impide afirmar que la Mona
Lisa esté sonriendo) de la Gioconda, que Leonardo habría legado
como permanente encarnación del misterio, como queriendo que los tiempos
futuros compartiesen esa angustia y esa desesperación ante lo desconocido y ante
la falta de respuestas que le habían asolado a él toda la vida. La Gioconda es,
desde luego, la personificación del enigma por excelencia, y seguramente el
cuadro más célebre del mundo. Pero no es ni más ni menos misterioso que el
talento sobrehumano que poseyó Leonardo. En palabras del historiador
estadounidense Will Durant en su libro The Renaissance (1953):
“¿Cómo lo catalogaremos, pues quién de nosotros posee la variedad de
conocimientos y de habilidades necesarias para juzgar a un hombre tan polifacético?
La fascinación por su mente polimórfica nos inclina a exagerar sus logros
reales, pues fue más fértil en concebir que en producir. No fue el mayor
científico, o ingeniero, o pintor, o escultor o pensador de su tiempo; se
trataba sencillamente del hombre que era todo eso junto y que en cada campo
rivalizaba con los mejores [...] Con todas sus limitaciones y carencias, fue el
hombre más completo del Renacimiento y quizás de todos los tiempos. Al
contemplar su éxito nos maravillamos ante la distancia que el ser humano ha
recorrido desde sus orígenes, y renovamos nuestra fe en las posibilidades de la
humanidad”.
No menos genial que Leonardo fue Michelangelo Buonarroti, Miguel
Ángel (1475-1564), porque la Italia de los Médici si algo dio en
abundancia es mentes extraordinarias. Florencia, la ciudad renacentista por
antonomasia, había cogido el testigo de urbes como Bizancio en la Edad Media o
Alejandría en la antigüedad clásica que en su tiempo habían reunido a los más
ilustres cultivadores de las ciencias y de las artes. Si el talento llama al
talento, y el conocimiento llama al conocimiento, en ciudades como Alejandría,
Bizancio o Florencia hubo tal concentración de sabiduría y genialidad que es
inevitable que soñemos con utópicos mundos donde sólo imperara el deseo de
entender y de crear.
Miguel Ángel ha sido uno de los mejores escultores de la historia. Su David, que
se conserva en Florencia, esculpido en mármol de carrara y terminado en 1504,
es difícilmente superable. Aunque nunca se pueda decir “basta”, hay creaciones
humanas de semejante plenitud y perfección que parece imposible realizar algo
mejor. ¿Habremos acaso tocado el límite, la cima de la belleza? Y si la leyenda
es cierta, cuando Miguel Ángel terminó su Moisés en Roma, lo
miró fijamente y le ordenó: - “¡Habla!”
La gran idea de mentes maravillosas como Miguel Ángel o Leonardo es, más que
una innovación científica o tecnológica, la convicción de que el ser humano
podía competir con la naturaleza en encontrar la belleza y el deleite. Si la
naturaleza nos desafía a encontrar las leyes que rigen su funcionamiento y que
los científicos han buscado afanosamente durante siglos, también nos reta a
construir algo más hermoso, vivo y creativo. Eso es lo que debieron de pensar
los genios del Renacimiento, y en particular Miguel Ángel cuando pintó los
frescos de la Capilla Sixtina que se pueden contemplar en el
Vaticano. Si Dios ha acercado tanto su dedo omnipotente al ser humano como
pintó Miguel Ángel, es porque ha querido comunicarle un poder casi divino, y no
hay nada más divino que la oportunidad de crear, de hacer surgir, de dar vida.
Pero el Dios de Miguel Ángel no llega a tocar al hombre, porque el hombre sigue
siendo humano, que aspira a lo divino sin jamás alcanzarlo.
La grandeza de las pinturas de Leonardo o Miguel Ángel sólo es comparable a la
de los cuadros de Raffaello Sanzio, Rafael (1483-1520).
Natural de Urbino, Rafael conoció a Leonardo y Miguel en Florencia. La
influencia de Leonardo se nota especialmente en el uso que hace Rafael de la
técnica del chiaroscuro (alternancia de luces y sombras) y
del sfumato.
Pero fue en Roma y bajo el patrocinio de los papas renacentistas donde Miguel
Ángel alcanzó su fama. Julio II, perteneciente a la distinguida familia de
los Rovere (que junto a otros linajes como los Colonna,
Farnese, Borghese o Medici se disputaban el papado,
institución que casi consideraban como una posesión propia, al igual que podían
tener tal o cual palazzo en Roma o Florencia) y admirador del
genio de Rafael, le encargó multitud de trabajos, como por ejemplo decorar sus
habitaciones privadas en el Vaticano. Las cuatro Stanze di Raffaello en
los palacios vaticanos ocultan entre sus tesoros un cuadro tan formidable
como La Escuela de Atenas, que en sus 5 por 7’7 metros
presenta a los grandes sabios de la Grecia clásica. Platón está paseando junto
a su discípulo y crítico Aristóteles, Platón apunta al cielo, al mundo de las
ideas, mientras que Aristóteles dirige su dedo al suelo, a la naturaleza física
que también había querido estudiar como científico. Claudio Tolomeo y
Eratóstenes hacen sus cálculos astronómicos mientras el filósofo Diógenes, el
mismo que osó decirle a Alejandro Magno que se apartase porque le quitaba
sombra, muestra una actitud de desprecio hacia todo lo material. La
Escuela de Atenas sintetiza mejor que ninguna otra obra del
Renacimiento la admiración que esa época sentía por la cultura clásica, por la
Grecia que había dejado un legado tan sublime de ideas y descubrimientos.
Rafael sustituyó al fallecido Bramante como arquitecto principal de la nueva
basílica de San Pedro, pero murió muy temprano, en 1520. Si creemos al
historiador Giorgio Vasari, su muerte el día de Viernes Santo de 1520 se debió
a una noche de demasiada “actividad” con una mujer conocida como La
fornarina (“la panadera”), cuyo verdadero nombre habría sido Margarita
Luti, que le habría provocado unas extrañas fiebres que acabarían llevándoselo
a la tumba. Hay amores que matan, también para un genio como Rafael.
La muerte de Rafael señala el fin de una época. 1527, con la invasión de Roma
por parte de las tropas imperiales (compuestas en su mayoría por soldados
protestantes) del católico emperador Carlos V para enfrentarse a la coalición
formada por el papado (ocupado por el Medici Clemente VII), la república de
Venecia, el ducado de Milán, Florencia, Francia e Inglaterra (la “liga de
Cognac”, es decir, todos contra los Habsburgo) y el estrepitoso saqueo de la
Ciudad Eterna a que dio pie, suele tomarse como una fecha de referencia a la
hora de marcar el fin del Renacimiento. Roma, meca de las artes, destruida por
un ejército que estaba al mando de un monarca católico como Carlos V. Además,
la derrota de la liga de Cognac hizo que los Medici, los grandes mecenas de las
artes durante el Renacimiento, fuesen expulsados de Florencia (aunque su exilio
no duró mucho, porque a los dos años estaban de vuelta en la capital toscana).
Era el ocaso de una de las épocas más fecundas que ha vivido el arte.
Capítulo 8
Un pionero de la globalización: Gutenberg
Uno de los rasgos más interesantes del mundo
contemporáneo es que se ha convertido en una sociedad de la
información. Cada vez, y sobre todo gracias a Internet, más personas
tienen más y mejor acceso a las fuentes de la información. Antaño, los poderes
políticos y económicos monopolizaban la producción de información y de
conocimiento. La gente oía lo que ciertas instancias querían que oyese. Aunque
todavía hay mucho por hacer en esa tarea tan importante de democratización de
la información y del acceso al conocimiento (a recibirlo y a producirlo), no
podemos negar que se han dado pasos fundamentales a la hora de difundir la
cultura, la educación y la información, de modo que es cada vez más difícil que
alguien, por poderoso (por ejemplo, en el plano económico) que sea, consiga
resultar inmune a la crítica o logre ocultar sus hipotéticos errores.
Son muchas las ocasiones en las que la tecnología se ha puesto al servicio del
conocimiento y de su extensión. Pensemos, por ejemplo, en la fabricación de
papiros en el antiguo Egipto o en el uso del papel y de la tinta por parte de
los chinos. Durante la Edad Media, las grandes obras de la antigüedad clásica y
del primer milenio de la era cristiana (libros de científicos, matemáticos,
geógrafos, literatos, teólogos...) tenían que copiarse a mano, aunque ello
supusiese que en muchas ocasiones, por la inercia o incluso la malicia del
copista, esas obras llegasen deformadas o mutiladas. De hecho, suele decirse
que el mejor copista era precisamente el que no sabía leer, porque así se
limitaba a reproducir gráficamente lo que encontraba en el manuscrito, y se
corría un menor riesgo de que al que copista le fallase la intuición y
confundiese palabras y se las inventase. Contradicciones de la vida, se
prefería la ignorancia a la formación.
Se tardaba bastante tiempo en copiar una gran obra, siempre en función de su
longitud, y la producción científica y humanística se veía sumamente limitada y
constreñida. Además de que eran pocos los privilegiados que podían dedicarse al
saber, y de que no existía la libertad de investigación en el sentido moderno,
los libros que ya se conocían y los que se escribían tardaban muchísimo en
llegar a los centros de conocimiento e intelectualidad, y más aún al resto de
las personas, a las que prácticamente estaba vedado, por razones ideológicas y
técnicas, el acceso a esa educación.
Pero ocurrió algo formidable y maravilloso, algo que cambió para siempre la
historia universal y que permitió que la investigación, la difusión del saber y
la creatividad intelectual humana creciesen de manera asombrosa, casi
exponencial: la invención de la imprenta. No sólo se consiguió
con este genial invento difundir antes, más y mejor las obras de la antigüedad
y del presente, sino que se pusieron las bases de un nuevo modelo de sociedad.
Si hoy nos hemos acostumbrado a interpretarlo todo a la luz del fenómeno
innegable de la globalización, y nos damos cuenta de que
vivimos en una aldea global regida por el intercambio
(científico, tecnológico, económico, cultural, artístico, religioso...) donde
todo pasa a ser cercano, y donde cada vez menos cosas son capaces de sorprendernos,
conviene recordar que uno de los pioneros de este proceso fue precisamente
Johannes Gutenberg, el inventor de la imprenta.
Gutenberg nació en la ciudad alemana de Maguncia (Mainz), se
cree que el año 1400, en un tiempo marcado por la transición de la Edad Media
al mundo renacentista, humanista y después moderno. Para ser justos con el
mundo medieval, tenemos que reconocer que si por algo se caracterizaba esa
época era por la movilidad. Un estudiante nacido en España no tenía ningún
problema en desplazarse, si podía permitírselo, a las grandes universidades
europeas (París, Oxford, Bolonia...). En los círculos académicos, la lengua
oficial era el latín (como hoy, en los círculos científicos, económicos y de
muchos otros campos lo es el inglés, o en la diplomacia lo fue, hasta no hace
mucho, el francés). Aunque en Europa no existiese una unificación política
propiamente dicha, sí la había, en cierta manera, en el plano religioso y
cultural. Existía, por así decirlo, un “espacio cultural” europeo. La Reforma
protestante, en el siglo XVI, vino a sellar un proceso de ruptura en el seno de
la sociedad europea que se remontaba a antes, pero que cristalizó en la
división de Europa en dos a causa de las diferencias religiosas, convertidas
también en diferencias políticas. La cultura de los distintos países se iría
haciendo cada vez más distante, aunque fuese precisamente la imprenta y los
cambios tecnológicos y sociales que propició quienes acabasen, finalmente,
construyendo nuevos espacios de encuentro entre pensadores y científicos que
fueron neutralizando, lentamente, el aislamiento por razones políticas o
religiosas. La imprenta contribuyó, es cierto, a la consolidación de la Reforma
protestante al difundir ampliamente los escritos de autores como Lutero o
Calvino, y, por tanto, a la escisión cultural del mundo occidental. Pero
también ha sido clave históricamente al tejer nuevas redes de relación y de
intercambio a lo largo del globo.
Johannes Gutenberg procedía de una distinguida familia. Su padre
era un rico comerciante, casado desde 1386 con Elsa Wyrich, de ascendencia
burguesa. Tuvieron tres hijos: Friele, Else y Johann. Las revueltas sociales
del año 1411 contra las clases acomodadas podrían haber provocado la salida de
la familia Gutenberg de Maguncia, y seguramente se habrían trasladado a unas
posesiones que la madre de Johannes tenía en Eltville am Rhein. No disponemos
de muchos datos biográficos de Gutenberg, al menos en sus primeros años, pero
parece que estudió en la Universidad de Erfurt (la misma por cuyas aulas
pasaría, casi un siglo más tarde, Martín Lutero), en el centro de Alemania.
Nuevamente, las lagunas documentales abren un paréntesis de varios años de la
vida de Gutenberg sobre los que no sabemos nada seguro. Sí consta que en 1434
vivía en Estrasburgo (actual Francia), donde podría haber trabajado como
orfebre.
¿Cuándo inventó Gutenberg la imprenta? Como suele ocurrir, al hablar de
“invento” no queremos decir que, de repente, como por arte de magia, Gutenberg
ya tuviera en mente el diseño final. Hay un proceso por el que a partir de
artilugios más sencillos, el inventor va concibiendo modos más eficientes de
mejorarlo. El genio no consiste sólo en tener ideas grandiosas y repentinas
(aunque tampoco podemos negar que la intuición juega un gran
papel en los grandes creadores, pensadores y científicos), sino en tener
amplitud de miras y hacer que esas ideas “sueltas” acaben sirviendo a un
proyecto de mayor calado. De poco sirve que a alguien llegue a la conclusión de
que la velocidad de la luz debe ser independiente del movimiento del observador
si no es capaz de construir una teoría que unifique ésas y otras ideas u
observaciones en un todo más amplio y sistemático. Descubrir lo primero supone,
claro está, ser un buen científico; llegar a la teoría de la relatividad
significa ser un genio.
Por tanto, y aunque las leyendas y cuasi-mitologías que se escriben de los
personajes célebres a veces quieran presentarnos sus descubrimientos o inventos
como “rayos de luz” caídos del cielo (pensemos en la manzana de Newton), la
historiografía acaba encontrando no pocos pasos intermedios, y lo que al
principio era una única chispa, al final resulta ser una “exposición
prolongada” a los destellos lumínicos.
En 1448, Gutenberg regresa a su ciudad natal de Maguncia, y gracias a un
préstamo de su cuñado Arnold Gelthus habría levantado un negocio que al cabo
del tiempo se transformaría en su célebre imprenta.
¿Qué aportó, específicamente, Gutenberg con respecto a los prototipos de
imprentas que habían aparecido antes que él? Las placas metálicas (Gutenberg
era, ante todo, un orfebre, un especialista en el trabajo y manejo del metal)
con la forma de las diferentes letras del alfabeto y que, con tinta, conseguían
“imprimir” su figura en el papel. Un “tipo” metálico independiente para cada
placa, que podía usarse en más de una página, y que además aseguraba que las
letras fuesen de la misma forma. Aunque ya en la China del siglo XI y en la
Corea del siglo XIII se habían producido modelos similares, el mérito de Gutenberg
es indiscutible, por ser el primero en el mundo occidental en fabricarlas y,
más aún, por haber contribuido decisivamente a su extensión, sustituyendo las
más rudimentarias tallas de madera por placas metálicas móviles, mucho más
prácticas.
Como con el huevo de Colón, las cosas parecen fáciles a simple vista, pero la
destreza técnica que se requería para reproducir, letra por letra y mediante un
dispositivo mecánico todo un manuscrito, era enorme. No se trataba, desde
luego, de una tarea sencilla. Los patrones para las letras del alfabeto se
cortaban en pequeñas barras de acero (las patrices), formando
una serie de troqueles que, impresos sobre cobre, generaban matrices o
moldes con las formas de las letras, y que a su vez podían responder a
diferentes modelos (como las fuentes -times new roman, arial...- que
hay en los procesadores de texto de los ordenadores). Así era capaz de
reproducir caligrafías sumamente estilizadas o complejas, difíciles de por sí
para copiarlas a mano: es la base de la tipografía, de la combinación de esos
“tipo móviles” para reproducir textos. Gutenberg fue no sólo un técnico, sino
un artista de la impresión, llegando incluso a preparar dos
modelos de cada letra: la letra separada y aislada, y la letra unida a otra
letra. Así, colocando correctamente las distintas placas móviles de modo que
reprodujesen una página de un manuscrito, se podían sacar tantas copias como se
quisiesen: bastaba con volver a poner esas mismas placas, con tinta, sobre otra
hoja de papel, y se copiaba el mismo texto. Luego, cambiando el orden de las
letras para adaptarlo al de otro manuscrito o al de otra página del manuscrito,
se podía copiar otro texto. La industria de la impresión no había hecho más que
nacer.
El éxito del invento de Gutenberg fue tal que rápidamente surgieron talleres de
impresión por toda Europa: Mentel en Estrasburgo, Pfister en Bamberg, Sweynheim
en Subiaco y Roma ya en 1464, Johann von Speyer en Venecia en 1469...
Gracias a la financiación de Johann Fust, en 1452 Gutenberg estaba preparado
para comenzar la impresión de la Biblia de Gutenberg, que
finalmente vio la luz en 1455, escrita en latín a doble columna y con 42 líneas
por columna. Una auténtica joya. Sin embargo, el fallo a favor de Fust, que le
había reclamado a Gutenberg la devolución del dinero prestado, hizo que el
control de la edición impresa de la Biblia pasase al financiero y no a
Gutenberg, que estaba ahora arruinado. Triste destino para quien merecería
haber sido el hombre más rico de su tiempo sólo por el valor y la influencia de
su invento. Al parecer se recuperó y volvió a establecer algún que otro negoció
de impresión, y en enero de 1465 fue nombrado miembro de la corte del arzobispo
Adolfo de Nassau, recibiendo el título de Hofmann (cortesano)
y el estipendio asociado al cargo. Debió de morir a finales de 1467 o
principios de 1468, siendo enterrado en la iglesia de los franciscanos de
Maguncia, destruida más tarde, por lo que su tumba no ha sido encontrada.
¿Qué decir de la influencia de Gutenberg? Poco podemos añadir a lo que se ha
escrito al respecto. Es difícil minimizar el impacto del invento de Gutenberg
en la gestación del mundo moderno. Lutero escribió, sí, sus 95 tesis y las
colgó en la puerta de la iglesia de Wittenberg el 31 de octubre de 1517, pero
sin una imprenta que las hubiese reproducido y difundido fácilmente, es
probable que no hubieran dejado de ser una mera disputa escolástica sobre las
indulgencias sin repercusiones públicas. El rápido acceso que se tuvo a los
escritos de Lutero y de los demás reformadores, también por parte de la gente
sencilla, hizo posible que la “batalla de las ideas” entre católicos y
protestantes, lejos de ser sólo un conflicto militar, adoptase una proyección
mucho mayor: por primera vez, grandes capas de población eran capaces de leer
directamente y sin intermediarios sus escritos. En otras palabras: quien
supiese leer, podía saber qué decía Lutero exactamente. Antes, los “filtros”
impuestos por los sucesivos copistas, muchos de ellos interesados en que sólo
saliesen a la luz ciertos fragmentos de un texto y no otros, impedían conocer
los escritos de un autor de manera directa. De las controversias de los
primeros siglos de la era cristiana con gnósticos o filósofos paganos sólo nos
han llegado, por lo general, los escritos de sus oponentes ideológicos
(teólogos, Padres de la Iglesia...), y lo poco que hemos logrado conocer sobre
el pensamientos de esos otros autores iba “impregnado” del filtro de sus
adversarios. Por poner un ejemplo, Orígenes, uno de los grandes teólogos de la
Escuela de Alejandría en el siglo III de nuestra era, escribió una famosa obra
apologética defendiendo la religión cristiana de los ataques del filósofo
Celso: el Contra Celso, redactado hacia el año 248. Como los
escritos de Celso no se conservaron o fueron destruidos, las únicas referencias
al pensamiento de Celso nos vienen de Orígenes, que, desde luego, no podía ser
parcial y desapasionado a la hora de exponer las ideas de su contrincante. Lo
mismo ha sucedido con muchos autores que, considerados en su momento, como
heréticos o subversivos, vieron cómo sus escritos eran eliminados del mapa. La
moderna crítica literaria trata de reconstruirlos fielmente, pero es una
empresa muy complicada.
Con la imprenta, el “filtro” del copista y del comentador se fue superando poco
a poco. Lutero, un escritor muy prolífico que produjo un sinfín de obras, se
cuidó mucho de que éstas se difundieran en forma de folletos impresos que
llegaban rápidamente a príncipes, teólogos, intelectuales, cortesanos y gentes
del pueblo que pudiesen leerlos. Así, las dimensiones de su enfrentamiento con
el papa de Roma alcanzaron niveles hasta entonces desconocidos e imprevistos,
lo que favoreció los intereses del hasta entonces monje agustino. Las noticias
se difundían tan deprisa que la expansión de las ideas de Lutero resultaba
irreversible e imparable.
La imprenta ponía de esta manera al lector directamente frente al texto,
difundiendo copias del mismo con suma rapidez. Esa inmediatez, que
prescinde de intermediarios, es una de las características que han configurado
el mundo moderno. El pensamiento moderno ha querido deshacerse de mediaciones
(ya fuesen históricas o religiosas) para ponerse “solo ante el peligro”, solo
ante la verdad. René Descartes (1596-1650) quizás, junto con Lutero y Galileo,
el hombre que ha participado de manera más significativa en el nacimiento de la
cultura moderna, no se fía de las tradiciones filosóficas que le habían
enseñado en la escuela. Decide repensarlo todo él solo. Duda de todo, porque no
quiere aceptar nada de lo que no esté totalmente convencido. De nada le sirven
las mediaciones y los mediadores: la verdad está ahí, y el ser humano, con su
inteligencia y su razón, debe ser capaz de descubrirla. Aunque la experiencia
demuestre que no siempre podemos prescindir de toda mediación y que nunca
logramos ser completamente inmunes al contexto en que vivimos, siempre es un
reto para cada persona intentar adquirir una cierta independencia y espíritu
crítico en su trayectoria intelectual y social. Y para ello, es fundamental
acudir a las fuentes (el lema de los humanistas del siglo XVI: ir ad
fontes) directamente, leer a los autores y formarse un juicio maduro,
profundo y coherente. Sin Gutenberg y su imprenta, este deseo habría sido mucho
más complicado, por no decir imposible.
Capítulo 9
Copérnico y el heliocentrismo
Una de las expresiones más acabadas de la ciencia
griega era la obra del astrónomo Claudio Tolomeo (90-168 d.C.): un universo con
la Tierra en el centro y todos los astros describiendo circunferencias
(símbolo, para la mentalidad helénica, de perfección y realización) en torno a
ella. En total, Tolomeo necesitó 39 epiciclos o pequeños círculos para
describir con precisión las órbitas de los astros alrededor de la Tierra. Su
teoría, conocida más tarde como geocentrismo por el papel que
ocupaba la Tierra como centro del cosmos, se había transmitido con gran
veneración a lo largo de los siglos. Los astrónomos árabes estudiaron
cuidadosamente el Almagesto, el principal escrito de Tolomeo,
pero como mucho añadieron algún que otro súper-epiciclo a los que ya había
determinado Tolomeo.
Puede decirse, por tanto, que desde la edad de oro de la astronomía griega al
término de la Edad Media, existía en occidente un modelo cosmológico claro y
definido: el geocentrismo tolemaico. Entre medias, se habían realizado algunas correcciones
según los datos que se conseguían observando directamente los astros (no
olvidemos que el telescopio no surgirá hasta el siglo XVII), medidas que
todavía hoy nos sorprenden por su exactitud. Las culturas antiguas, ya antes de
los griegos, habían logrado un desarrollo en las técnicas de medición de las
órbitas de los astros verdaderamente asombroso. Egipto, las culturas de
Mesopotamia o los mayas en América Central habían producido calendarios
enormemente elaborados, con un rigor a todas luces encomiable, dado los medios
de que disponían (por ejemplo, una cultura como la maya que desconocía, al
menos según nos consta, la rueda y el uso del metal). El interés que la
humanidad ha demostrado a lo largo de los siglos por el firmamento, por lo que
más lejano le resultaba pero a la vez más misterioso, fascinante y divino, es
una metáfora, pero bastante certera, de esa contradicción que siempre se da
entre lo que somos y lo que aspiramos a ser. El ser humano pertenece a la
Tierra, su mundo es sumamente limitado, por gigantesco que a simple vista nos
parezca el planeta. Pero no hay nada tan específico y propio de nosotros como
el inconformismo y la insatisfacción: nunca hemos querido resignarnos a ser
sólo seres que habitan la Tierra, sino que hemos mirado a lo alto, a lo que nos
sobrecogía, en busca de preguntas y de respuestas, en busca de conocimiento y
de inspiración. Siempre hemos querido superarnos a nosotros mismos. Y la
ciencia es, quizás, una de las empresas que hemos acometido que mejor reflejan
este deseo.
Y vino Copérnico. Si el poeta inglés Alexander Pope, en el siglo XVIII,
escribía, en referencia a Newton: “La naturaleza y sus leyes yacían ocultas en
la noche. Dios dijo: -¡Sea Newton!, y todo se hizo luz” (“Nature and its
laws lay hid in night. God said: -Let Newton be, and all was light”), algo
similar podríamos decir de Copérnico. Antes de Copérnico, la mentalidad común
estaba como hechizada por el modelo tolemaico. Y no era para menos. Tolomeo
había conseguido dar forma a lo que para muchos eran meras evidencias. La
Tierra no se mueve: nos parece que se mantiene inmóvil, y al igual que la Luna
gira alrededor de la Tierra, hecho comprobado, ¿por qué no iban a hacerlo
también los demás planetas y astros, incluyendo el Sol? Por otra parte, ¿por
qué no iba a ser la Tierra el centro de la Creación? Dios había hecho del ser
humano, del varón y de la mujer, el culmen de su obra, y era lógico suponer que
el lugar que les había dado para que lo cultivasen y trabajasen fuese también
el culmen de esa obra, su mismísimo centro.
Es fácil, pasado tanto tiempo y con la avanzada tecnología que tenemos hoy en
día, darse cuenta de cosas que para nosotros son ya obvias. Pero lo increíble
en el ocaso del mundo medieval es que surgiese alguien capaz de contradecir lo
que parecía tan evidente y en consonancia con el sentido común (facultad ésta
que, desgraciadamente, muchas veces tiende a defraudarnos).
Los historiadores de la ciencia nos tienen acostumbrados a probar que, en
realidad, nadie inventó nada ni fue el primero en proponer nada. Siempre se
encuentran precedentes, por remotos que sean, a los grandes genios y a las
grandes teorías: precedentes de Darwin, de Einstein, de Kant... Hay precursores
de Copérnico: pensemos en Heráclides Póntico, en el siglo III antes de Cristo,
o en el comentario en sánscrito a los Vedas escrito en el
siglo I llamado Vishnu Purana, o en el astrónomo indio
Aryabhata, que anticipó conceptos copernicanos casi mil años antes del genio
polaco... Pero, por relevantes que fuesen esos precedentes, sin ciertas figuras
esos cambios en la mentalidad de una época y en el desarrollo de las ciencias y
del conocimiento en general no hubieran sido posibles, igual que, por muchos
precedentes que se quieran buscar a Lutero (ya sea en el teólogo de Oxford del
siglo XIV Juan Wycleff, o en el reformador checo Juan Hus), sin Lutero no
habría existido la reforma protestante, o al menos no habría tomado la
dirección que a la larga mostró. Las cosas no surgen de la nada, y uno de los
grandes logros de las ciencias sociales es precisamente desentrañar las
estructuras y los contextos que permiten que una idea, un descubrimiento o una
propuesta política triunfen. Pero el riesgo que podemos cometer al centrarnos
excesivamente en los elementos “externos”, objetivos e impersonales de los
grandes acontecimientos es el de olvidar la singularidad de sus protagonistas.
De hecho, un historiador y filósofo de la ciencia del siglo XX de la altura del
norteamericano Thomas Kuhn (1922-1996), en su libro La estructura de
las revoluciones científicas (publicado en 1962), que presenta un
enfoque sociológico de la historia de la ciencia (en contraposición a la
aproximación más racionalista del pensador austríaco afincado en Londres Karl
Popper), pone a Copérnico y su contribución al progreso de la astronomía como
ejemplo prototípico de lo que es una revolución científica. Frente al período
de ciencia normal que había seguido a la obra de Tolomeo, en
mayor o menor medida aceptada por todos, Copérnico supuso una verdadera ruptura
con la tradición científica que le precedía, una ruptura que llevó a otro tipo
de ciencia y que, en este sentido, sí puede considerarse una revolución. Y un
filósofo de la talla de Immanuel Kant (1724-1804) compara, al comienzo de
su Crítica de la Razón Pura, su nuevo paradigma de pensamiento con
la revolución copernicana. Copérnico, en definitiva, es sinónimo de cambio.
Pero, ¿quién fue este hombre, Copérnico, que revolucionó la visión clásica y
medieval del universo y que siempre es recordado como ejemplo máximo del
visionario y del innovador en el campo del conocimiento?
Se han escrito muchas biografías de un personaje tan influyente en la historia
intelectual y social como Copérnico, pero siempre que se vuelve a repasar su
vida es interesante detenerse en la formación humanística, universal y
verdaderamente renacentista que recibió.
Nicolás Copérnico había nacido en la ciudad polaca de Torún en 1473, en un
momento fascinante en la historia de Europa. Italia, cuna y meca del
Renacimiento, con ciudades como Roma, Florencia o Bolonia, constituía uno de
los núcleos intelectuales más relevantes del continente. Tras la caída de
Constantinopla (la segunda Roma que Constantino en el siglo IV había convertido
en capital de su imperio) a manos de los turcos otomanos en 1453, muchos
grandes eruditos del antiguo imperio bizantino habían emigrado a las ciudades
europeas, especialmente a las italianas, que por tanto vivían una ebullición de
ideas y de intercambio de conocimientos. Y, si tenemos en cuenta que no mucho
después de nacer Copérnico, en 1492, se descubrió lo que a la postre resultó un
nuevo mundo, podemos situarnos en el contexto de innovación, hallazgo y
efervescencia intelectual que experimentaba Europa por aquel entonces.
Su padre era un negociante acomodado, pero falleció cuando Copérnico sólo tenía
10 años. Su madre se apellidaba Watzenrode, y el hermano de ésta, Lucas
Watzenrode, se encargaría de la educación de Copérnico. Su tío llegaría a ser
obispo de Warmia (una diócesis polaca cuyos orígenes se remontaban a tiempos de
la Orden Teutónica y que actualmente es sede arzobispal), y la posición
eclesiástica de su tío ayudó a Copérnico en sus estudios y en su carrera.
En 1491, Copérnico comenzó a estudiar en la prestigiosa Universidad
Jagelloniana de Cracovia, todavía hoy una de las de mayor renombre de Polonia,
y fue probablemente allí donde un profesor, Albert Brudzewski, avivó en él la
pasión por la astronomía. Cuatro años pasaría en Polonia hasta que viajó a
Italia, por entonces meca del peregrinaje de quienes buscaban conocimiento y
formación, casi como hoy la gloria de poder participar en el avance de la
ciencia se persigue en América. Copérnico estudió leyes y medicina en las
universidades de Bolonia (que había sido uno de los principales centros de
estudio de las disciplinas jurídicas en la Edad Media) y Padua. Su tío, el
obispo de Warmia, habría querido que su sobrino alcanzase también la dignidad
episcopal, y para ello estuvo dispuesto a financiarle la mejor educación y,
cómo no, el estudio del derecho canónico (las leyes de la Iglesia,
sistematizadas durante la Edad Media por autores como Graciano o Raimundo de
Peñafort) en la universidad de Ferrara. Pero como tantas veces, los planes se
truncaron. Las vocaciones “forzadas” raramente triunfan, y en el caso de
Copérnico, fue el encuentro con el astrónomo Domenico María Novara da Ferrara
lo que influyó decisivamente en su posterior decantación por las ciencias,
quizás tanto como el matemático y profesor de Cambridge Isaac Barrow lo haría
en su discípulo Isaac Newton.
Cuando en 1497 su tío fue nombrado obispo de Warmia, Nicolás recibió una
canonjía en Frauenburg (Frombork), una preciosa ciudad cercana
al Vístula en la que viviría muchos años y en la que escribiría su principal
obra. Este cargo suponía una valiosa retribución económica. El hecho es que
Copérnico nunca fue ordenado sacerdote, y tanto es así que cuando en 1531 su
obispo amenazó con retirarle el beneficio que le correspondía por su condición
de canónigo si no aceptaba hacerse sacerdote, Copérnico siguió rechazando la
ordenación. Ha habido, indudablemente, grandes astrónomos que sí fueron
sacerdotes (por ejemplo, en el siglo XX, uno de los precursores de la teoría
del Big Bang, el belga Georges Lemaître), si bien Copérnico no
pertenece a esa lista.
Aunque había recibido el nombramiento de canónigo, Copérnico rehusó volver a
Polonia hasta que pasase el gran jubileo de 1500, y aprovechó su estancia en
Roma para impartir clases de astronomía y realizar observaciones astronómicas,
como la de un eclipse lunar del 6 de noviembre de 1500 que se vio desde la
Ciudad Eterna. En conjunto, Copérnico se llevaba de su estancia italiana una
formación pluridisciplinar, una cultura enciclopédica que incluía astronomía,
matemáticas, medicina, griego y derecho y que indudablemente contrasta con la
férrea especialización actual (si bien ésta, a la larga, se ha demostrado más
fructífera para el progreso científico y tecnológico).
En 1501 Copérnico viajó a Frauenburg, pero enseguida volvió a Italia para
completar su doctorado en derecho canónico en la universidad de Ferrara, título
que obtuvo en 1503. Además, la lectura de autores clásicos como Cicerón y
Platón, que recogían opiniones de autores antiguos discrepantes en cierto modo
con una visión geocéntrica del universo, pudo haber resultado determinante en
su obra. En cualquier caso, Copérnico regresó a Polonia tras haber terminado
sus estudios académicos en Italia. Copérnico nunca se dedicó profesionalmente a
la astronomía. La figura del científico-profesor que vive de sus investigaciones
y de sus clases (como en el caso de Newton en su cátedra lucasiana de
Cambridge) aún no existía. La mayoría de los eruditos estaban relacionados con
oficios eclesiásticos, y sus observaciones científicas ocupaban, en todo caso,
parte de su tiempo libre. Aún en el siglo XVII, el gran científico y matemático
alemán Leibniz vivía de su labor como diplomático e historiador de la
aristocrática casa de los Brunswick, sin ocupar puesto académico alguno. Y más
cercano a nuestro tiempo, ni Darwin ni Freud ocupaban cátedras universitarias
cuando elaboraron sus teorías. De hecho Copérnico, profesionalmente, se dedicó
al cobro de impuestos e incluso escribió sobre el valor del dinero (tema típico
de la posterior teoría económica), además de tener una posición en la
iglesia-colegiata de la Santa Cruz de Breslau, en Silesia. Para muchos autores
fue precursor del economista inglés Thomas Gresham en su distinción entre el
dinero “malo” y el “bueno”. También Copérnico, al que desde luego no le sobran
ni le sobrarán competidores en el jugoso pastel de ser el iniciador del modelo
heliocéntrico, tenía derecho a adelantarse a alguien en su campo respectivo.
Y llegamos a la obra más famosa de Copérnico. Si hubiese que redactar una lista
con los títulos que más impacto han ejercido en el desarrollo de las ciencias
naturales, junto a libros como los Diálogos de Galileo,
los Principia Mathematica de Newton o El Origen de las
especies de Darwin habría que incluir el De Revolutionibus
Orbium Coelestium de Copérnico, que le llevaría décadas hasta verla
publicada.
En 1514, Copérnico distribuye entre sus amigos lo que acabaría siendo el germen
del De Revolutionibus: el Commentariolus (algo
así como “Pequeño comentario”), que prefirió no firmar, y que ya contenía los
fundamentos del nuevo modelo heliocéntrico. En esta pequeña obra, que no se
llegó a editar hasta 1878, Copérnico daba siete axiomas que han despertado la
curiosidad de los estudiosos por su originalidad. Son los siguientes:
1. No hay un único centro en el universo (una especie
de afirmación programática que se anticipa, aunque con matices, al principio de
relatividad en física).
2. El centro de la Tierra no es el centro del
universo.
3. El centro del universo está cerca del centro del
Sol (por supuesto, el minúsculo universo conocido en tiempos de Copérnico).
4. La distancia de la Tierra al Sol es mínima
comparada con la distancia a las estrellas (una cantidad tan baja en proporción
que hoy denominaríamos, según la jerga científica, “despreciable”)
5. La rotación de la Tierra da cuenta de la rotación
diaria aparente de las estrellas.
6. l ciclo anual aparente de los movimientos del Sol
está causado por el giro de la Tierra en torno a él.
7. El movimiento de retrogradación aparente de los
planetas lo causa el movimiento de la Tierra, desde la que se sitúa el
observador.
Puede demostrarse, como han notado distintos
historiadores, que los axiomas 2, 4, 5 y 7 en realidad se pueden deducir de los
axiomas 3 y 6. Entonces, ¿son o no axiomas? La Real Academia entiende por
axioma “proposición tan clara y evidente que se admite sin necesidad de
demostración”. Lógicamente, si un axioma se puede deducir de otro, entonces no
estamos ante un axioma, porque bastaría con formular el primero y luego, por
deducción, llegaríamos al segundo. La cuestión es que Copérnico no pretendía
ofrecer unos “axiomas astronómicos” o principios básicos de la física de los
cuerpos celestes que se tuviesen que aceptar como evidentes y necesarios para
explicar los fenómenos observados experimentalmente. Más bien quiso dar una
serie de “postulados”, a modo de tesis que él propone al lector para que luego
las compruebe, que resumen su estudio teórico y empírico. La idea de axioma que
nos ha legado Euclides y que le sirvió para sistematizar de forma magistral y
elegante la geometría clásica, es claramente distinta.
Copérnico, quizás sin percatarse de ello, estaba sentando las bases de lo que
llegará a ser el método científico: el científico, para tratar
de explicar los fenómenos físicos, parte de datos experimentales y desde ellos
elabora hipótesis plausibles y razonables que luego pueden ser comprobadas o
refutadas. Pero también puede trabajar con hipótesis previas, a modo de
intuiciones que él tiene y que luego aplica a los datos experimentales y a las
observaciones de que disponga. El científico puede inducir o deducir, sacar
conclusiones o proponer conclusiones que más tarde se verifiquen. Lo importante
es que esas hipótesis correspondan a los datos que realmente se han observado.
El axioma séptimo, por su parte, es una aportación -por lo que sabemos hasta
ahora- original de Copérnico. Como hemos dicho antes, el modelo heliocéntrico,
al menos en sus rudimentos, había sido ya anticipado por astrónomos de la
antigüedad, tanto en ambiente cultural griego como en otros contextos
geográficos (por ejemplo, en la India), aunque esto no resta mérito a la labor
de Copérnico. Pero ningún astrónomo hasta nuestro genio polaco había sido capaz
de explicar ese movimiento de retrogradación aparente de los planetas, que
consiste en que los planetas cambiasen ocasionalmente el sentido de su
desplazamiento. Tanto es así que el término “planeta” en griego significa
“errante, vagabundo”, justamente porque su movimiento les resultaba a los
astrónomos de la antigüedad enormemente irregular.
El Commentariolus fue escrito, con toda probabilidad, en 1514,
pero no dejaba de ser una mera introducción, porque dejaba las demostraciones
matemáticas para una obra posterior más extensa. Y el desafío al que se
enfrentaba Copérnico para proponer un modelo alternativo al sistema geocéntrico
de Tolomeo era, primordialmente, un reto de carácter matemático. Gracias a
Dios, esa obra acabó apareciendo, porque no faltan casos en que autores
célebres han “dejado caer” afirmaciones que luego no han probado, aunque a la
larga se hayan demostrado correctas. Un ejemplo famoso es el teorema de Fermat,
que este ilustre matemático francés del siglo XVII escribió en los márgenes de
la Arithmetica de Diofanto. Simplificando mucho, podría
decirse que la proposición de Fermat sostiene que el teorema de Pitágoras no
puede generalizarse a una potencia superior a 2: no es posible encontrar
soluciones distintas de cero para la ecuación ', si n es mayor
de 2. Fermat anotó que tenía una prueba maravillosa, pero que, lamentablemente,
no tenía espacio para escribirla (“cuius rei demonstrationem mirabilem sane
detexi. Hanc marginis exiguitas non caperet”, escribió en latín).
Hemos tenido que esperar más de trescientos años hasta que el matemático inglés
Andrew Wiles, en 1994, publicara una extensísima y complejísima prueba para
comprobar que Fermat tenía razón. Afortunadamente, Copérnico no fue tan “cruel”
con los investigadores y ofreció (aunque con retraso, pues su libro se publicó
el mismo año de su muerte) una demostración matemática de su hipótesis
heliocéntrica.
La fama de Copérnico, ya antes de publicar el De Revolutionibus Orbium
Coelestium, era notable. El V Concilio de Letrán le consultó sobre la
reforma del calendario, aunque Copérnico se limitó a responder por carta y
eludió viajar a Roma. En cualquier caso, la reforma del calendario juliano, que
como hemos visto había suscitado innumerables quebraderos de cabeza a los
astrónomos por sus errores e imprecisiones, se acometió unas décadas más tarde,
en tiempos del papa Gregorio XIII.
Copérnico no era un canónigo ocioso como los muchos que había en su época, que
únicamente cobraban los beneficios que les reportaba el cargo. Todo su tiempo
libre lo dedicaba a la investigación astronómica, tarea que fue capaz de
compatibilizar con una faceta diplomática, participando en conversaciones de
paz en Braunsberg al estallar la guerra entre Polonia y la Orden Teutónica en
1519. No tuvo éxito, pero no importa: otro genio de la ciencia y del
pensamiento como Leibniz tampoco. El alemán había viajado a París para intentar
conseguir de Luis XIV una moratoria del edicto de Nantes de Enrique IV (que el
rey sol había revocado, privando de derechos y libertades a los calvinistas
-hugonotes- franceses) pero fracasó completamente en su empresa. Quizás gracias
a ello pudo centrarse en la investigación, pues conoció a algunas de las
cabezas más brillantes que había en París, como el holandés Huygens, y luego
puso los cimientos del cálculo infinitesimal, una de las creaciones más
geniales de la historia de las matemáticas. No hay mal que por bien no venga.
Lo cierto es que Copérnico, astrónomo, diplomático, canónigo... era un
verdadero hombre del Renacimiento. Pero su trabajo científico lo realizó
aislado, sin tener contactos fluidos con sus colegas. Copérnico no vivía en
Italia, centro cultural de Europa, y no existían academias como en la
actualidad (que en su mayoría se remontan al siglo XVIII y son propias de la
Ilustración).
Finalmente, su gran libro, el De Revolutionibus, se publicó poco
antes de su muerte, en 1543, como una especie de Requiem mozartiano
en memoria del gran sabio polaco. La persona clave aquí fue un joven profesor
de matemáticas y astronomía en Wittenberg (la ciudad en que Lutero había
proclamado sus 95 tesis años antes, y por tanto, la cuna de la reforma
protestante) llamado Georg Joachim Rheticus. Al igual que sin el empeño puesto
por Edmund Halley, astrónomo real de Inglaterra, Isaac Newton no se hubiera
atrevido a publicar los Principia., sin Rheticus, el libro de
Copérnico no habría salido a la luz.
Rheticus había visitado a Copérnico en Frauenburg en 1539. Era de confesión
protestante, y por entonces, en una Europa dividida por guerras de religión que
se prolongarían hasta bien entrado el siglo XVII, era muy peligroso para un
protestante viajar a territorio católico y para un católico hacerlo a
territorio protestante. Afortunadamente, el progreso de la ciencia no ha
dependido, por lo general, de las vicisitudes religiosas y políticas, si bien
en ocasiones estas últimas hayan dificultado su desarrollo, y los miembros más
destacados de la comunidad científica han sabido muchas veces situarse al
margen o por encima de ese tipo de conflictos. Aunque tampoco debemos olvidar
que los “nacionalismos científicos” han sido negativos muchas veces para el
avance del conocimiento: en Inglaterra, como no se quería reconocer ningún
mérito a Leibniz en el descubrimiento del cálculo infinitesimal, los
matemáticos británicos optaron por seguir en todo a Newton, privilegiando los
métodos geométricos de Newton sobre los analíticos de Leibniz. Resultado:
mientras las matemáticas en el continente avanzaron con una rapidez asombrosa,
con autores de la talla de los Bernoulli o Euler que fueron tras la estela de
Leibniz, Inglaterra permaneció casi aislada hasta el siglo XIX, cuando volvió a
recuperar la iniciativa en este campo. Los grandes genios del pensamiento
científico y humanístico están más allá de los chauvinismos de cada país,
aunque, nadie lo niega, las naciones tienen derecho a mostrarse orgullosas por
sus vástagos más ilustres.
Rheticus consiguió financiación del alcalde de Danzig para publicar una Narratio
Prima, dedicada a Johann Schoner, en la que exponía las conclusiones
de la obra del “ilustre caballero y matemático, el Reverendo Doctor Nicolás
Copérnico de Torún”. Para el 29 de agosto el De Revolutionibus estaba
listo para la imprenta de Johann Petreius, en Nürenberg. Petreius, que se había
ausentado de su imprenta, le encargó al teólogo luterano Andreas Osiander que
revisase él mismo las tareas de publicación. Osiander escribió una carta al lector
a modo de prefacio en la que decía que los resultados presentados por
Copérnico, más que la verdad, sólo proporcionaban un camino más sencillo y
práctico para calcular las posiciones de los cuerpos celestes. Fue el gran
astrónomo Johannes Kepler quien reveló, casi 50 años después, la identidad de
Osiander como autor de ese prólogo.
El prólogo en cuestión tiene una gran importancia. Osiander estaba recogiendo
algo que, por entonces, emergía en Europa y que acabaría consolidándose en el
siglo XVII: el espíritu científico. La ciencia no pretende,
como habían querido Aristóteles y los escolásticos, llegar a la verdadera
esencia de las cosas, a lo que Kant llamará el noúmeno. Sus
intenciones son mucho más reducidas y limitadas: lo único que hace es proponer
hipótesis o caminos plausibles y razonables que den cuenta de los fenómenos
físicos. Y es que nos encontramos ante un principio que ya había formulado el
monje franciscano inglés Guillermo de Ockham en el siglo XIV: “no hay que
multiplicar los entes más allá de lo necesario” (entia non sunt
multiplicanda praeter necessitatem, dice la proclama en latín),
principio éste que se encuadra en los cimientos de la ciencia moderna. En
resumidas cuentas: siempre hay que buscar la explicación más sencilla,
suficiente y razonable que responda a los hechos observados. La hipótesis heliocéntrica
de Copérnico que situaba el Sol, inmóvil, cerca del centro del universo, era
mucho más sencilla y elegante que la de Tolomeo, requería de un menor número de
epiciclos, y explicaba mejor los fenómenos astronómicos. El prólogo de Osiander
le evitó a Copérnico bastantes problemas, al menos si pensamos en lo que más
tarde le ocurriría a Galileo, porque al sostener que lo afirmado por Copérnico
no dejaba de ser una hipótesis no entraba en colisión directa con el modelo que
entonces predominaba, el geocéntrico.
La obra de Copérnico es una curiosa mezcla de innovación y conservadurismo.
Innovación, porque sitúa el Sol cerca del centro del universo,
frente a Claudio Tolomeo.
Conservadurismo, porque al igual que el genial astrónomo alejandrino, Copérnico
seguía manteniendo la necesidad de que las órbitas fuesen circunferencias
perfectas. El prejuicio de raigambre platónica de que el científico tenía que
“salvar los fenómenos” (sozein ta fainomena, en la expresión
griega) para adecuarlos a la perfección ideal y geométrica, todavía era
demasiado fuerte. Habría que esperar algunas décadas, hasta Kepler y sus tres
leyes, para que se aceptasen las órbitas elípticas.
La obra de Copérnico, inspiración directa del trabajo científico de Kepler y
Galileo, “gigantes” en cuyos hombros se apoyó Newton para ver más allá de sus
contemporáneos, es de las que más influjo han tenido en el pensamiento moderno.
Incluso un astrónomo como Tycho Brahe que, en la segunda mitad del siglo XVI,
rechazaba el modelo heliocéntrico, la admiraba. Hasta que Newton formuló la
teoría de la gravitación universal, bien entrado el siglo XVII, no hubo
evidencias sólidas que avalasen la hipótesis copernicana. Es muy fácil, a
posteriori, juzgar una determinada época con lo que ya sabemos hoy,
tras siglos de investigaciones, observaciones e incluso viajes al espacio. Lo
que es fascinante es que cuando algo no era evidente y no saltaba a la vista,
hubiese personas que, como Copérnico, supiesen ir más allá de lo inmediato,
máxime cuando la libertad de expresión no era aún una conquista generalizada.
Sobreponerse a lo inmediato es quizás lo más valioso que posee el ser humano.
Copérnico murió de una hemorragia cerebral al poco de recibir un ejemplar de
su De Revolutionibus Orbium Coelestium. Vio más allá: fue,
realmente, una mente maravillosa.
Capítulo 10
Galileo y el telescopio.
Si hay un nombre en la Europa moderna que sea
sinónimo de espíritu científico y de búsqueda por encima de toda adversidad,
ése es el de Galileo Galilei. Galileo es a la ciencia moderna lo que Heródoto a
la historia: el padre, el auténtico creador, el que le dio un método y unos
ideales tan exigentes como productivos. Él mismo supo ver todas las
implicaciones de su novedosa forma de afrontar el conocimiento de la
naturaleza, que consumaba una ruptura iniciada ya por autores medievales y
acentuada con la obra de astrónomos como Copérnico o Kepler, cuando escribía:
“de manera que podemos decir que la puerta está ahora abierta, por primera vez,
a un método nuevo, acompañado por numerosos y maravillosos resultados que, en
años venideros, atraerá la atención de otras mentes”.
Es difícil apreciar hoy con suficiente justicia el mérito y los logros de
Galileo. Nosotros, gente del siglo XXI, hemos nacido con la revolución
científica y hemos visto cómo la tecnología y la investigación del mundo físico
alcanzaban unas cotas de desarrollo absolutamente formidables. Galileo nos
parece más que un científico un precursor, un soñador, que puso unos cimientos
por entonces bastante rudimentarios. Cualquier estudiante de secundaria tiene
que estudiar las ecuaciones del movimiento (rectilíneo uniforme, rectilíneo
uniformemente acelerado...), base de la “cinemática” y que encontró el propio
Galileo, pero enseguida estudiará las tres leyes de Newton y su ley de la
gravitación universal y ya habrá superado con creces los conocimientos
científicos del italiano. Que la Tierra gira alrededor del Sol es tan evidente
para nosotros que casi nos extraña que se tardase tanto en aceptar. Que la
teoría (que usa como lenguaje las matemáticas) debe estar en función de los
experimentos, que siempre tienen la última palabra, es también algo que nos
resulta casi obvio. Sin embargo, antes de Galileo las cosas no estaban tan
claras. La experiencia dependía más bien de la teoría: las órbitas de los
planetas tenían que ser circulares porque la circunferencia era símbolo de la
perfección, y los herederos intelectuales de Platón no podían concebir una
figura imperfecta para describir los movimientos de los cuerpos astrales, que
eran cuasi- divinos. Tampoco existía un conjunto de conceptos, como los que se utilizaron
después (aceleración, tiempo, velocidad...), adecuado para describir la
realidad física. La visión del mundo era más filosófica y especulativa que
científica. Por ello, la figura de Galileo, inventor, teorizador, descubridor,
genial científico experimental, luchador infatigable, filósofo y hasta teólogo,
ha sido de un valor incalculable para el progreso de la cultura occidental. Hay
lagunas, no podemos negarlo. Por ejemplo, la visión mecanicista de la
naturaleza, que se manifestaba como algo inerte, inanimado y muerto, motivando
que el ser humano se creyese dueño y señor del mundo y conduciendo a la postre
al problema ecológico que ha socavado buena parte de los cimientos ideológicos
sobre los que se asentaba la civilización moderna. Pese a ello, sus
aportaciones fueron de tal trascendencia que no sería exagerado llamar a
Galileo el Cristóbal Colón del conocimiento. Suele decirse que después de Kant
(1724-1804), en filosofía resulta imposible volver atrás o al menos no tener en
cuenta muchas de sus conclusiones. Lo que admite menos discrepancias es que
después de Galileo, como confirma la experiencia histórica, todos los grandes
científicos han seguido de una u otra manera su estela. Repasar su vida es
disfrutar del espectáculo de la ciencia en estado puro.
Galileo Galilei había nacido el 15 de febrero de 1564 en la ciudad de Pisa, que
por entonces pertenecía al gran ducado de Toscana (cuya capital era la
sempiterna y hermosísima Florencia), en ese complejo panorama de reinos y
repúblicas que era la península de Italia antes de la unificación en el siglo
XIX. Galileo era el mayor de los seis hijos que había tenido el músico Vincenzo
Galileo, un verdadero revolucionario en su campo que había contribuido de modo
decisivo a la transición de la música renacentista a la barroca, que más tarde
dominaría la escena artística europea. Vemos cómo esa faceta innovadora que
luego mostraría y con creces Galileo se encontraba ya implícita en los genes.
Como muchos jóvenes de su tiempo inclinados hacia el mundo del conocimiento y
del estudio, Galileo había pensado en hacerse sacerdote, teniendo en cuenta,
además, que la Iglesia era la gran “potencia” intelectual del momento. La
mayoría de los matemáticos, astrónomos e historiadores, al menos en Italia,
estaban relacionados de una forma u otra con la Iglesia, y muchos de ellos eran
clérigos. La orden de los jesuitas, que fundada por San Ignacio de Loyola en
1534 y que jugó un papel clave en la contrarreforma (la reacción del
catolicismo frente a la Reforma protestante emprendida por Lutero, Calvino,
Zuinglio y Enrique VIII de Inglaterra), había conseguido un prestigio inmenso
en muy poco tiempo. Poseía los mejores colegios: Descartes, otro personaje
fundamental en la revolución científica y filosófica del siglo XVII, se había
educado en el colegio de los jesuitas de La Fléche, en Anjou;
hasta el más acérrimo crítico de los hijos de San Ignacio, Voltaire en el siglo
XVIII, también pasó por su colegio Louis le Grand de París.
Controlaba importantes instituciones académicas como el Collegium
Romanum en la Ciudad Eterna.. Aunque no había (ni por el momento ha
existido) un papa jesuita, esta orden gozaba del favor pontificio, y además se
había extendido a las regiones más lejanas del globo siguiendo la senda de
misioneros tan importantes como el navarro San Francisco Javier (1506-1552).
También habían sido capaces de “contener” el avance del protestantismo en
Alemania, principalmente gracias a la labor del holandés San Pedro Canisio.
Galileo tendría que sufrir agrios enfrentamientos con los astrónomos jesuitas
por su defensa del heliocentrismo de Copérnico.
Pero Galileo no entró en el seminario. Siempre se consideró católico, aunque,
como todo el mundo sabe, sus relaciones con la Iglesia no fueran lo que se dice
fáciles. Decidió estudiar medicina en la Universidad de Pisa, carrera que no
acabó. Galileo Luego estudió matemáticas, y finalmente obtuvo una cátedra de
esta disciplina en su ciudad natal. Sus relaciones con los demás profesores de
la universidad fueron siempre tirantes. La envidia y las innovadoras ideas de
Galileo no le granjearon buenas amistades entre el gremio docente de Pisa.
Galileo era un científico nato, “de raza”. Se cuenta que estando en misa en
el duomo (“catedral”) de Pisa (un edifico impresionante
situado junto a la famosa torre inclinada), y sin duda algo aburrido por la
ceremonia, fijó su atención en el movimiento que describían las gigantescas
lámparas del templo impulsadas por el aire. Se trataba de una especie de
“vaivén”: de un extremo a otro, pero siguiendo siempre una trayectoria
constante. A veces completaban arcos más anchos, otras, arcos más pequeños,
pero daba igual, porque el número de pulsaciones en un caso u otro era el
mismo. ¿Cómo había medido Galileo el número de pulsos de las lámparas? Cronometrando
mentalmente su propio pulso. ¿Y por qué no hacerlo a la inversa, es decir,
usando las pulsaciones del péndulo para medir el tiempo, ya que el péndulo
describía un movimiento constante? Una genial idea de Galileo.
¿Qué es un péndulo? Sencillamente, un objeto unido a un soporte de manera que
pueda oscilar libremente alrededor de un punto fijo. Si el péndulo se aleja de
su punto de equilibrio, una fuerza recuperadora lo hará volver al equilibrio,
oscilando hasta que regrese a su posición inicial. Es necesario percatarse de
que equilibrio no es sinónimo de “reposo”. Que un cuerpo esté
en equilibrio significa que su movimiento no varía, y que por tanto no acelera.
Ésta es una de las grandes diferencias teóricas entre la física que descubrió
Galileo y la de Aristóteles, quien creía que los cuerpos tendían, naturalmente,
a detenerse a no ser que una fuerza los pusiese en movimiento, cuando lo que
ocurre es que los objetos naturalmente (por inercia) mantienen su velocidad o
su estado de reposo hasta que una fuerza actúa sobre ellos. La intuición, por
la que se había guiado Aristóteles, nos dice que un cuerpo no sometido a
ninguna fuerza se queda quieto, en reposo. Esto no es exacto, y mirando en
retrospectiva nos damos cuenta del enorme esfuerzo que han tenido que realizar
los grandes científicos para vencer la intuición: un cuerpo no sometido a
fuerzas, como demostraría Galileo, permanece en reposo o en movimiento
rectilíneo uniforme a velocidad constante, es decir, moviéndose en línea recta
con una velocidad fija que no cambia (porque si cambiase, estaría acelerando
-la aceleración es lo que cambia la velocidad en el tiempo- y estaríamos en una
situación no inercial). Es lo que se conoce como primera ley de Newton o
ley de la inercia (la inercia no es una fuerza en sentido
técnico: es la tendencia de un cuerpo a preservar el movimiento que lleva). No
existe una velocidad absoluta, porque como Galileo advirtió, no hay diferencias
entre dos sistemas inerciales: las leyes físicas son las mismas en ellos. Es lo
que se conoce como el principio de relatividad de Galileo (que
no se debe confundir con la relatividad de Einstein, aunque guarden mucha
relación). En un sistema sometido a aceleración (es decir, bajo el influjo de
fuerzas) sí se pueden establecer diferencias con respecto a otro sistema. Pero
de un ascensor que descienda a velocidad constante no puedo saber a qué
velocidad está bajando si no lo miro desde fuera, desde otro sistema, porque un
ascensor bajando a velocidad constante es un sistema inercial que resulta
indistinguible de otro sistema inercial cualquiera.
Volviendo al péndulo, y simplificando el tratamiento físico y matemático a
ángulos pequeños, el movimiento que describe es un movimiento armónico
simple, repitiéndose en intervalos fijos de tiempo, y en este caso el
período (que es el tiempo que se tarda en completar un ciclo o vuelta) sólo
dependerá de la longitud del péndulo y de la aceleración causada por la fuerza
de la gravedad. El período no dependerá de la masa del péndulo. Pongamos uno
pesado u otro más ligero, si la longitud es la misma, el período (los segundos
que tarda en completar una oscilación) va a ser igual. Se establecerá un
equilibrio entre el movimiento causado por la fuerza de gravedad (que es igual
al producto de la masa por la aceleración que causa la gravedad, constante en
la superficie terrestre) y el movimiento de rotación del péndulo (que es
proporcional al cuadrado de su velocidad), de modo que: mg = m×v2/l,
siendo l la longitud del péndulo medida desde el soporte o
pivote hasta el centro de gravedad de la “bola” del péndulo. Como el término
para la masa, m, aparece a ambos lados de la ecuación, puede
eliminarse y se seguirá manteniendo la igualdad. Y además, como existe una
fórmula que relaciona el período, que se suele simbolizar como T, con
la velocidad v y la longitud del péndulo (T = 2πl/v)
podemos re-escribir la ecuación anterior para que todo salga en función del
período y así saber cómo varía esta cantidad: T = 2π√(l/g).
Como hemos dicho, este resultado sólo vale para ángulos pequeños y contiene
varias simplificaciones, pero al menos permite hacerse una idea de la física
implicada en el movimiento del péndulo. Galileo, con una genial combinación de
observación e intuición científica, había “visto” este resultado aun sin
ponerse a hacer cálculos sobre el papel. Los grandes genios “ven” enseguida la
forma que tiene que adoptar la solución, porque son capaces de fijarse en lo
esencial y prescindir de detalles superfluos. Galileo podría haberse pasado
horas intentado analizar si el material o la forma con que estaba hecho el
péndulo influía en su movimiento, pero en lugar de eso decidió fijarse sólo en
ciertos aspectos o parámetros como el período, intuyendo que
éstos eran los verdaderamente significativos.
Aquí radica una diferencia esencial con otra mente maravillosa como Leonardo
da Vinci, pintor, escultor, ingeniero, precursor de infinidad de inventos,
matemático, óptico, físico, anatomista... El ideal de uomo universale del
Renacimiento se condensa de manera insuperable en él. Pero fue demasiado
ambicioso. Quiso comprenderlo todo: el movimiento de las aves, las formas que
existen en la naturaleza... Su “método” ha sido llamado holístico (del
griego ὅλος, holos, “todo”) justamente porque pretendía
estudiar cómo influye todo en todo. Y ahí encontró su “perdición”, lo que le
impidió hacer tantas aportaciones a la ciencia moderna como Galileo: no fue
capaz de reducir o limitar su interés a aspectos concretos que, ellos solos, podían
dar tanta o más información que si se pretendía observar la naturaleza como un
todo, con una mirada omni-abarcante. Galileo centró su observación en elementos
concretos de búsqueda. Al igual que hoy, cuando tecleamos una palabra en un
buscador de Internet, podemos “limitar” la búsqueda para que nos dé sólo los
resultados que verdaderamente nos interesan, Galileo, casi cuatro siglos antes
que nosotros, tuvo la valentía de “limitar” su búsqueda, presintiendo que sólo
así podría avanzar el conocimiento del mundo físico. La ciencia, aunque no lo
parezca, también se ha hecho a base de grandes dosis de humildad.
Y esos “parámetros” o conceptos esenciales que había que buscar tenían que
expresarse con el lenguaje de las matemáticas. La ciencia moderna representa el
éxito de la aplicación de las matemáticas a la descripción de mundo físico. Un
lenguaje abstracto y universal describe la experiencia real y concreta. En esta
paradoja, que tanto habría gustado a Pitágoras y a Platón, reside la riqueza,
casi infinita, de esa curiosa simbiosis entre ideas y hechos. Galileo escribió:
“El libro [de la naturaleza] está escrito en lenguaje matemático, y los
símbolos son triángulos, circunferencias y otras figuras geométricas, sin cuya
ayuda es imposible comprender ninguna una palabra de él, sin lo cual se
deambula en vano a través de un oscuro laberinto”. Esos triángulos son,
diríamos hoy, las funciones matemáticas. Galileo sabía que las
observaciones siempre llevarían asociada una imprecisión, y que por tanto nunca
coincidirían plenamente con las conclusiones que se obtuviesen por puro
análisis matemático, pero intuyó que las matemáticas eran una especie de asíntota (esa
recta a la que determinadas curvas se acercan cada vez más pero sin llegar
nunca a tocarla) o límite al que se aproximaba la experiencia. En palabras de
John H. Randall, “la ciencia nació de la fe en la interpretación matemática de
la naturaleza”.
Pero a Galileo todavía le quedaba mucha vida y mucho por investigar. Descubrió
también que Aristóteles se había equivocado en algo que resulta obvio en
primera instancia: que un cuerpo, cuanto más pesado es, más rápido cae. Parece
evidente que si ponemos una bola de plomo y una de papel y las dejamos caer
desde la misma altura, la primera en llegar al suelo será la bola de plomo, por
ser más pesada. ¿O no está tan claro? Pues no, no lo está. Lo estuvo hasta que
a Galileo (sospechando que esa afirmación era falsa: el buen investigador no
debe tener miedo a cuestionar lo que se tiene por comúnmente aceptado, siempre
y cuando tenga motivos suficientes para ello) se le ocurrió comprobarlo,
diseñando para ello un experimento. Una comprobación tosca y que llevaría al
engaño habría consistido en limitarse a soltar dos objetos de distinto peso y
de materiales tan divergentes como el metal y el papel desde una determinada
altura, sin tener en cuenta la resistencia del aire, que afecta más a la bola
de papel que a la de plomo. Eso sería un mal experimento, y la ciencia moderna
se ha construido a base de buenos experimentos, de experimentos en los que se
han podido controlar y cambiar las condiciones de trabajo para ver cómo
influyen unos parámetros en otros. Experimentar no es sólo mirar, ver qué pasa.
El científico, al experimentar, actúa sobre la realidad,
imponiendo una serie de condiciones. No se limita a ver sin más, sino que
prepara el escenario para ver lo que a él le interesa. Experimentar significa,
en cierto sentido, dominar de forma inteligente la realidad
para que nos responda a las preguntas que queremos conocer.
La leyenda, no tan difícil de verificar como la de la manzana de Newton, dice
que Galileo se subió a la torre de Pisa y que desde allí dejó caer (dejó
caer, es decir, no empujó, porque si le hubiera comunicado a cada
objeto una velocidad inicial distinta el resultado habría cambiado) bolas de
diferente peso pero de composición similar, para así neutralizar el efecto de
la resistencia del aire. Galileo habría cronometrado con sumo cuidado los
tiempos de caída, concluyendo que eran los mismos. Daba igual la masa de la
bola, y si los objetos más ligeros parecían tardar más en caer era por la
resistencia del aire o por otras fuerzas y no porque el tiempo de caída
dependiese directamente de la masa del objeto. Ya antes que Galileo, estudiosos
como el alejandrino Juan Filoponus en el siglo VI o Giambattista Benedetti en
el siglo XVI habían llegado a resultados parecidos. Pero lo que distingue a
Galileo no es que se subiese a la torre de Pisa e hiciese algo tan elemental
como dejar caer dos bolas de distinto peso, cosa que cualquiera con un mínimo
de iniciativa podría haber hecho. El mérito de Galileo es que realizó
experimentos con planos inclinados que le hicieron descubrir
los principios del movimiento de los cuerpos.
En ellos, Galileo ponía bolas que rodaban por la superficie del plano. Puede
parecer que entre dejar caer una bola por un plano inclinado y hacerlo desde
una altura en vertical hay mucha diferencia. Galileo, como gran científico
experimental, se dio cuenta de que esa diferencia no era significativa: lo único
que cambiaba era el ángulo de inclinación, pero el contexto físico era el
mismo. Al fin y al cabo, se trataba de un objeto sometido a la fuerza de la
gravedad. Todas las bolas adquirían la misma aceleración, sin
importar su masa. Su velocidad cambiaba al mismo ritmo. El tiempo que tardan
los cuerpos en caer no depende, por tanto, de su masa, porque la aceleración
que produce la gravedad (y que hoy simbolizamos con la letra g) es
la misma para todos y, como propondrá Newton, sólo depende la masa de la Tierra
y del cuadrado de la distancia a que nos encontremos de su superficie (existe
una ligera variación con la latitud debido a la rotación de la Tierra y a que
nuestro planeta no es una esfera perfecta, pero la diferencia es mínima).
Y generalizando sus resultados, Galileo descubrió las leyes de la cinemática, que
hoy se estudian en los colegios de secundaria y en los institutos. Para ello
había tenido que escoger las variables adecuadas que le
permitieran hacer un tratamiento riguroso, que admitiesen mediciones. Galileo
se percató de que podía estudiar el movimiento de los cuerpos fijándose,
fundamentalmente, en dos parámetros: la posición de ese cuerpo (x) y el
tiempo (t). Lo que interesaba era conocer la posición de ese cuerpo en
cada tiempo, que hoy representaríamos mediante una función x(t) que
recoge cómo varía la posición con el tiempo. Nuevamente, todo esto se nos puede
antojar trivial y elemental, pero en la época de Galileo no lo era. El
“triunfo” y la “tragedia” de los grandes genios es que descubren cosas que
luego entran a formar parte del conocimiento común de todos, y enseguida
olvidamos lo que les costó realizar semejantes hallazgos. Si sus resultados
hubiesen sido oscuros, abstractos o sin tanta importancia, seguramente habrían
permanecido accesibles sólo para unos pocos y cuando el no-iniciado los
escuchase, se sorprendería por su originalidad. Pero lo que realmente supone un
avance trascendental en cualquier campo del conocimiento, acaba extendiéndose y
siendo compartido por muchos, y “pierde” lo que de enigmático pudiese tener en
un principio, a pesar de que si se estudia en profundidad es fácil advertir que
lo que nos parece tan elemental presenta más lecturas e interrogantes de lo que
pensamos. Sucede lo mismo con la división de poderes en los sistemas
democráticos. ¡Clarísimo! ¿Cómo no iban a separarse el que dicta una ley del
que la aplica y del que juzga en base a ella? Pero hasta el siglo XVIII no se
vio con tanta nitidez.
Hoy diríamos que para un cuerpo en movimiento rectilíneo uniforme con una
velocidad v, y considerando que parte de la posición cero y del tiempo cero, la
ecuación que describe cómo varía la posición x con el tiempo t es
x = v.t. En cambio, si el cuerpo no se mueve a velocidad
constante, sino que ésta cambia, habrá una aceleración a. Si
esa aceleración es uniforme (el cuerpo cambia su velocidad de manera
constante), como en el caso de los cuerpos en caída libre (para los que la
aceleración es la misma: g, producida por la fuerza de la
gravedad), la ecuación adoptará la forma: x = v0×t + at2/2,
también si consideramos que la posición inicial es cero y el tiempo inicial es
cero ¡La distancia total recorrida depende del tiempo al cuadrado! Galileo lo
expresaba en términos geométricos, aunque luego hayamos adoptado el
tratamiento analítico, sustituyendo los esquemas geométricos
por funciones, que es mucho más sencillo. Hay que notar que lo anterior lo
hemos expresado sólo en función de x, en una dimensión, pero que el
tratamiento más riguroso implicaría estudiar ese movimiento en x, y y z. ¿Alguna
complicación? En absoluto, porque el propio Galileo se dio cuenta de que el
movimiento podía descomponerse en tantos movimientos individuales como
dimensiones, y éstos podían tratarse independientemente. Así que los principios
eran los mismos, no importando a qué dimensiones nos ciñésemos. Si lanzamos un
proyectil desde un cañón que apunta en horizontal, el movimiento global puede
descomponerse en dos movimientos independientes: uno para x (movimiento
rectilíneo uniforme con una velocidad inicial concreta, la velocidad de
lanzamiento) y otro para y (movimiento rectilíneo
uniformemente acelerado por efecto de la gravedad). El proyectil avanzará en
movimiento horizontal (la dimensión x) con una velocidad inicial, e
irá cayendo verticalmente por efecto de la gravedad en la dimensión y.
Ambos movimientos pueden estudiarse separadamente, porque no se “afectan”: da
igual con qué velocidad horizontal inicial haya salido disparado el proyectil,
porque en cuanto se suspenda en el aire caerá con una aceleración
constante g. El tiempo que tardará en caer verticalmente será el
mismo que si la velocidad horizontal inicial hubiese sido menor, porque dicha
velocidad sólo se referirá a x. Un cuerpo en caída libre y otro
lanzado desde la misma altura en horizontal con una velocidad inicial tardan lo
mismo en caer al suelo, porque en la dimensión y están
sometidos a las mismas condiciones (otra cosa sería que a uno de ambos se le
“empujase” hacia abajo, con una velocidad inicial vertical). Lo único es que
según la velocidad horizontal de partida avanzará más o menos en la dirección
horizontal: podrá recorrer más espacio en la dirección x antes
de tocar el suelo conforme mayor sea su velocidad horizontal de partida, pero
acabará cayendo, y el tiempo de caída será el mismo, sin importar la velocidad
inicial en x. El movimiento global describirá una parábola,
pero no hay ningún inconveniente en analizar cada dirección (en x o
en y) por sí sola.
Tras residir en Pisa, Galileo se trasladó a Padua, en el Véneto (a unos 40
kilómetros de Venecia), y allí impartió clases de astronomía y geometría,
interesándose también, como tantos otros grandes científicos de la época (por
ejemplo, Johannes Kepler) por la astrología. La astrología, que hoy nos parece
algo acientífico e irracional, potenció, por extraño que parezca, el desarrollo
de la astronomía. Tengamos en cuenta que gran parte de las observaciones
astronómicas, al menos en un principio, se efectuaban por motivos religiosos o
esotéricos, y para medir bien el tiempo y crear calendarios rigurosos había que
observar cuidadosamente el movimiento de los astros. Por eso, no es en absoluto
estrambótico que grandes mentes de la época e incluso de siglos posteriores
dedicasen enormes esfuerzos a familiarizarse con lo que se sabía de astrología
en ese momento. Esto no supone ningún inconveniente o “mancha negra” para la
historia de la astronomía, como tampoco lo es para la de la química el que
muchos de sus primeros cultivadores hubiesen leído el trabajo de los
alquimistas medievales.
Si bien hay acuerdo casi unánime en que Galileo no inventó el primer telescopio (se
le habían adelantado los holandeses), lo cierto es que hizo mejoras
sustanciales en este artilugio y que, desde luego, fue quien le dio el mejor
uso posible, convirtiéndolo en una herramienta astronómica que le permitió ver
lo que seguramente nadie había logrado observar hasta entonces.
Y es que Galileo, además de un genial científico, fue también un notable
inventor, especialmente en el campo de la ingeniería militar. Para el
desarrollo de sus investigaciones en física construyó en 1593 un termómetro
bastante novedoso (para el de mercurio habrá que esperar a 1714, con Daniel Fahrenheit,
y para el termómetro clínico a Thomas Allbutt en 1866) que funcionaba con una
válvula de aire que, contrayéndose y expandiéndose, empujaba el agua por un
tubo. Los líquidos de menor densidad que el agua flotaban a distintas alturas
según la temperatura, por lo que utilizando alcohol flotando en una columna de
agua, Galileo podía medir sus diferencias de temperatura. Además, Galileo
mostró gran destreza en el uso de los microscopios ya antes que Anton van
Leeuwenhoek.
Pero si destacó por algo es por construir el telescopio refractor. Se
ha discutido mucho sobre la prioridad del invento, y parece que, como en el
caso del microscopio, el mérito corresponde a fabricantes de lentes de Holanda
(como Hans Lippershey, Zacharias Janssens y Jacob Metius) que en 1608
produjeron el primer modelo. Lo cierto es que Galileo, que en 1609 se
encontraba en Venecia, había oído del invento del holandés y enseguida se puso
manos a la obra para construir su propio telescopio refractor en 1609. Pensemos
que prácticamente no hay científico de la época que se precie que no fabrique
su propio artilugio para la observación astronómica. Johannes Kepler e Isaac
Newton hicieron lo propio. Así que Galileo creó su propio telescopio refractor
independientemente de los holandeses (eso sí, después de haber oído que el
instrumento que habían diseñado sus competidores empleaba el fenómeno óptico de
la refracción) y se lo enseñó al dogo de la ciudad, que era el
magistrado jefe elegido por la aristocracia de la República Serenissima de
Venecia, cuya sede de gobierno se situaba en el espectacular Palazzo
Ducale que se emplaza junto a la catedral de San Marcos, al final del
Gran Canal que surca esta majestuosa ciudad del mar Adriático.
¿Cómo funcionaba el telescopio refractor de Galileo, que le acabaría mostrando
un mundo completamente nuevo y fascinante? El diseño en cuestión consistía en
la combinación de dos lentes, una cóncava y otra convexa, capaces de concentrar
más luz que un ojo (un ojo es en realidad una lente de extraordinaria complejidad)
y que por refracción de la luz generaban una imagen hasta 30
veces más grande que la obtenida a simple vista. El fenómeno de la refracción
había sido estudiado ya por Claudio Tolomeo (el mismo que sistematizó el modelo
geocéntrico en el siglo II de nuestra era), aunque no fue hasta el siglo XVII
cuando se propuso un tratamiento matemático riguroso que condujese a la ley
física que regía este proceso. La refracción supone el cambio en la dirección
de una onda (y la luz es una onda, aunque también pueda
exhibir según qué situaciones un comportamiento corpuscular o de partícula;
también el sonido es una onda) causado por un cambio en su velocidad, como al
pasar un rayo de luz de un medio (el aire) a otro (el agua). Si ponemos una
cuchara en un vaso de agua, notaremos que la parte sumergida de la cuchara
produce la ilusión de estar torcida. En realidad, lo que se ha generado es un
fenómeno de refracción: la luz ha pasado del aire al agua, cambiando su
velocidad y su dirección, lo que provoca este efecto óptico, pero la cuchara no
se ha doblado.
En 1621 el matemático holandés Willefrod Snell descubrió, con anterioridad e
independencia a Descartes (que expuso una demostración similar en su
famoso Discurso del Método de 1637), una ley matemática para
la refracción, que afirma que el cociente entre los senos de los ángulos con
que la onda incide en el medio y se refracta es igual al cociente entre las
velocidades de ambos medios (la velocidad del medio inicial y la velocidad del
medio al que pasa la onda), o lo que es lo mismo, igual al cociente entre el
índice de refracción del medio en el que se incide y el índice de refracción
del medio en el que inicialmente se encontraba la onda. La ecuación es:
que ajustando los términos puede escribirse
La ley en cuestión se basa en el principio
de mínimo tiempo de Fermat, que afirma que el camino entre dos puntos
recorrido por un rayo de luz es el que requiere de menor tiempo. La
moderna electrodinámica cuántica (una de las grandes
aplicaciones de la mecánica cuántica) ha sido capaz de deducir esa ley a partir
de principios más fundamentales de la naturaleza, porque el progreso científico
si por algo se caracteriza, es por la posibilidad de integrar los resultados
válidos en modelos teóricos más amplios y así comprender mejor la relación
entre los distintos fenómenos físicos.
Galileo tenía ya su telescopio. Sólo faltaba poner el ojo en él y ver qué
sucedía. Era la noche del 7 de enero de 1610, y lo que ocurría era algo
increíble. Si el arqueólogo Howard Carter, cuando miró por primera vez a través
de la un agujero que se había abierto en la puerta sellada de la tumba del
faraón egipcio Tutankamón un día de noviembre de 1922, respondió a la pregunta
de su mecenas Lord Carnavon diciendo que veía “cosas maravillosas” (wonderful
things), también Galileo había contemplado cosas maravillosas al abrir
la puerta del firmamento. Enfocando a Júpiter, Galileo observó tres objetos que
giraban en torno a este planeta. Días más tarde identificó un cuarto objeto.
Hoy se llaman Io, Europa, Calisto y Ganímedes. Giraban porque aparecían y
desaparecían alternadamente, lo que sólo podía explicarse si orbitaban
alrededor de Júpiter. Pero, ¿acaso había algo extraño en que las lunas de
Júpiter girasen alrededor de Júpiter? ¡Sí! Y es que en el modelo geocéntrico de
Aristóteles y de Claudio Tolomeo, todo tenía que girar alrededor de la Tierra.
Pero Galileo había visto objetos celestes que no daban vueltas en torno a la
Tierra. Galileo no hizo como Arquímedes: no salió desnudo por las calles
gritando Eureka, aunque si Arquímedes había tenido motivos
para hacerlo, desde luego no le faltaban a Galileo. Pacientemente, y noche tras
noche, volvió a enfocar su telescopio a Júpiter para comprobar que lo que había
visto aquel 7 de enero no era una ilusión o, parafraseando a Kant, “los sueños
de un visionario”. Y no sólo eso. Ya antes de descubrir las lunas de Júpiter
había observado las manchas del Sol (que desde antiguo y por observaciones muy
deficientes en comparación con las del telescopio de Galileo, se habían
interpretado como efecto del tránsito de Mercurio), los cráteres de la Luna,
los anillos de Saturno (que en un principio confundió con planetas autónomos),
las fases de Venus (Copérnico había predicho que todas las fases de Venus podían
verse a causa de la órbita de este planeta alrededor del Sol, por lo que la
gesta de Galileo reforzaba el modelo heliocéntrico), había puesto las bases de
un método para calcular los períodos orbitales de los satélites de Júpiter que
décadas más tarde perfeccionaría Cassini (que da nombre, junto
con Huygens, a una famosa misión de la NASA a Saturno)... Prodigioso. Galileo
publicó un tratado, el Sidereus Nuntius, con sus
descubrimientos. El título podría traducirse como “mensajero sideral”: Galileo
fue un gran hombre de letras, prolífico y exquisito escritor, y los
encabezamientos de sus obras llevan esa carga de arte, impacto y fascinación
que ha faltado a muchas de los grandes trabajos científicos posteriores, más
sobrios, fríos y asépticos.
Una serie de proezas astronómicas que trastocaban los fundamentos de la
cosmología antigua. ¿Por qué? Porque en la mentalidad clásica el espacio sideral, el
cielo, era perfecto, y si Galileo había encontrado cráteres en la Luna
(basándose en los patrones de luces y sombras en la superficie lunar) es que el
cielo no era perfecto, como sostuvo Aristóteles. Galileo, por sí solo, había
asestado varios golpes mortales a la concepción del universo físico que
imperaba por entonces, y que se debía principalmente a Aristóteles: su teoría
del movimiento de los cuerpos era errónea, su modelo geocéntrico también, su
idea de la perfección de los cielos como espacios separados de la Tierra que se
regían por leyes distintas también se tambaleaba... Demasiadas refutaciones
para un solo hombre que, como cabría esperar, levantaron el recelo de buena
parte del establishment (que siempre ha existido, existe y
existirá) científico e intelectual de su tiempo. Por no hablar de la envidia
que Galileo despertaba entre los astrónomos oficiales, por ejemplo el jesuita
Christoph Scheiner, que decía haber descubierto las manchas solares antes que
el pisano (cuando lo cierto es que ninguno de los dos fue el primero, y además:
¿habría tenido Scheiner la valentía de sacar las conclusiones pertinentes sobre
las teorías de Aristóteles como sí hizo Galileo?).
Galileo viajó a Roma para exponer sus sorprendentes resultados a los jesuitas
del Collegium Romanum, la flor y nata del mundo académico
europeo. Quien no le creyera podía mirar por sí solo al telescopio. Fue elegido
miembro de la Accademia dei Lincei, la “academia de los
linces”, fundada en 1603 por Francesco Cesi y cuyo nombre ya nos da la idea de
que lo más granado de la ciencia italiana pertenecía a ella. La actual Academia
pontificia de las ciencias (en la que están, entre otros, el físico británico
Stephen Hawking y varios premios Nobel de las distintas especialidades
científicas) es heredera, aunque por vía indirecta, de la academia de los
linces.
Y tras ese viaje a Roma, los problemas no hicieron más que comenzar para
Galileo. Llegamos así a uno de los episodios más populares y controvertidos de
la vida de Galileo Galilei: el caso Galileo. El caso Galileo
no hay que abordarlo porque sí, como si fuese una especie de paréntesis curioso
y relajante entre tanta ley física y experimento científico, como un apéndice
en la vida del sabio italiano para así hacerla más amena y divertida. No. El
caso Galileo está en las raíces mismas del nacimiento de la ciencia moderna,
que no se puede comprender sin los conflictos con otros órdenes de conocimiento
(filosófico, teológico...) que durante siglos habían ocupado en gran parte el
espacio en el que acabaría enmarcándose la ciencia. Hoy hemos sido capaces de
entender que hay que distinguir, precisamente, esos órdenes de conocimiento y
“poner cada cosa en su sitio”: ni la ciencia ofrece respuestas para lo que vaya
más allá de su método, ni las religiones o las teorías filosóficas pueden
invadir legítimamente el terreno propio de la investigación científica. Lo
importante es aprender a tender puentes que permitan a quienes cultivan estas
disciplinas dialogar e intercambiar sus resultados, conclusiones y reflexiones
para elaborar juntos una visión más amplia del mundo, la historia y el ser
humano. Pero en tiempos de Galileo no todos estaban de acuerdo en este punto.
Galileo era un revolucionario y es lógico que despertase sospecha, escepticismo
y miedo entre sus adversarios.
A la hora de estudiar el caso Galileo hay que evitar, por tanto, dos extremos
igualmente radicales: ni idolatrar e idealizar la figura de Galileo frente al
oscurantismo de sus censores (como hace la célebre obra teatral de Bertolt
Brecht Galileo), porque supondría, lisa y llanamente, una
simplificación de algo de por sí complejo, olvidando matices importantes; ni
pretender justificar al modo de los apologetas la actitud de la Inquisición
como algo esperable en el contexto de la contrarreforma y ante la falta de
pruebas concluyentes por parte de Galileo para defender el heliocentrismo. Se
necesita un análisis un poco más ponderado.
Los hechos, y resumiendo mucho, son los siguientes. Poco después de hacer
públicos los resultados de sus observaciones astronómicas, y habiéndose
inclinado claramente por el sistema heliocéntrico de Copérnico, Galileo
despertó las suspicacias en Florencia, porque en una carta a su gran amiga la
duquesa de Toscana había arremetido contra quienes “publican muchos escritos
con vanos argumentos... y cometen el grave error de adornarlos con pasajes de
la Biblia que no saben entender... Antes de decir que una proposición bíblica
está condenada (por la Escritura) debe probarse rigurosamente”. ¡Alguien que no
era teólogo se atrevía a dar lecciones de teología y de exégesis bíblica!
Demasiado. ¿No estaba escrito en la Biblia que Josué había mandado al Sol
detenerse? Si el Sol se detenía es porque era él, y no la Tierra, quien giraba.
Como hemos repetido en tantas ocasiones, es muy fácil, a
posteriori, acusar de ignorantes a los enemigos de Galileo, pero hay
que entender que Galileo fue un revolucionario también en el modo de leer la
Biblia no de manera literal, como si se tratase de un libro de historia y de
ciencias naturales, sino interpretando el sentido de las palabras del texto.
Estamos muy lejos de aquel arzobispo anglicano de Armagh y primado de Irlanda,
James Ussher, que en el siglo XVII concluyó tras concienzudas investigaciones y
sofisticados cálculos sobre las edades de los patriarcas bíblicos que la Tierra
había sido creada en la noche previa al 23 de octubre del 4004 antes de Cristo.
Muchos antes que Ussher habían intentado proponer una fecha tan precisa sin
éxito, pero ninguno había sido tan “riguroso” como Ussher. Al fin y al cabo, el
dato de Ussher al menos acierta en las unidades de millar (el 4); eso sí, hay
que multiplicarlo por más de un millón (aproximadamente 1’148 millones), porque
la edad que la geología suele atribuir al planeta Tierra es de unos 4.600
millones de años.
La Biblia, dirá Galileo, enseña cómo ir al cielo, pero no cómo es el cielo. El
enfoque histórico-crítico en la interpretación de la Biblia no llegó a
consolidarse hasta bien entrada la Ilustración, en el siglo XVIII (con un
curioso precedente en la figura del obispo Teodoro de Mopsuestia, de los siglos
IV y V). Todavía hoy existen grupos religiosos fundamentalistas (por ejemplo en
el llamado “cinturón bíblico” de Estados Unidos) que mantienen una lectura
literal de la Biblia y en base al libro del Génesis rechazan
la teoría de la evolución de las especies, cuya enseñanza han llegado a
prohibir en ciertas escuelas, ya que cuentan con el beneplácito de numerosos
seguidores. Y si esto ocurre en el siglo XXI, qué no ocurriría en el XVII.
Por si cabía echar más leña al fuego, en 1614, Galileo fue denunciado como
cercano a la herejía por el padre dominico Tommaso Caccini al
defender que la Tierra no permanecía inmóvil. Semejantes acusaciones y desde un
púlpito romano no podían pasar desapercibidas para Galileo, que era todo menos
una persona que se dejase acobardar fácilmente y renunciase a sus opiniones
para congraciarse con sus adversarios, por lo que volvió a Roma y expuso sus
alegaciones. No le sirvió de mucho, porque en 1616 el cardenal Roberto
Bellarmino (1542-1621), un jesuita (hoy santo y uno de los treinta y tres
doctores de la Iglesia) al que se le suele considerar uno de los máximos
representantes de la teología contrarreformista y que por entonces era uno de
los hombres más influyentes de Roma, ordenó a Galileo, urgido por el papa Pablo
V (Camillo Borghese, el que terminó de construir la Basílica de San Pedro), que
se abstuviera de apoyar o enseñar el modelo de Copérnico si no era como una
simple hipótesis. A Galileo se le pedían pruebas de esa teoría, y las que él
daba no convencían a la comunidad científica. Además, se prohibía el De
Revolutionibus Orbium Coelestium del ya fallecido Nicolás Copérnico.
Roma no quería dar signos de división o de fractura ideológica interna para
hacer frente común contra el protestantismo. Galileo optó por acatar lo mandado
y guardar silencio. No tenía más remedio.
Pero nuevamente, su inquieta mente y sus convicciones científicas resultaron
una perdición (a corto plazo) para Galileo. Había prometido al mismísimo
Bellarmino no defender la teoría de Copérnico, pero con la elección en 1623 de
un nuevo papa (Urbano VIII, el cardenal Barberini) que había sido amigo de
Galileo, el pisano se creyó con fuerza para retomar sus posiciones
astronómicas. Y como era de esperar, su antiguo amigo lo recibe en Roma con
toda clase de honores. Galileo era enormemente famoso como matemático y como
físico, pese a las polémicas que le rodeaban. Eso sí, el papa le reiteró a
Galileo lo que le había comunicado Bellarmino años antes: que no prestase apoyo
públicamente al heliocentrismo.
Si en 1622 había conseguido sacar a la luz su libro II Saggiatore, ¿por
qué iba a tener algún problema ahora con su nueva obra, Diálogos sobre
los dos sistemas máximos del mundo? Galileo, confiado, pidió el imprimatur, la
licencia que los censores eclesiásticos tenían que dar a todo libro, y de hecho
se lo concedieron. ¡Excelente!, podríamos pensar. Pero nada más lejos de la
realidad.
Galileo se las había ingeniado para incluir en su libro las teorías
heliocéntricas de Copérnico. Y lo había hecho de una manera aparentemente sutil
y subrepticia, pero que no pasó oculta a los jueces de la Inquisición. El libro
consistía en una serie de diálogos (al estilo platónico) entre tres personajes:
Salviati, un sabio que encarnaba al mismo Galileo; Sagredo, un personaje sin
formación pero con mucho sentido común; y Simplicio, un mero repetidor de las
ideas de Aristóteles pero incapaz de hacerse un juicio propio. Y claro está,
Galileo puso por boca de Salviati argumentos muy pulidos a favor del
heliocentrismo, mientras que a Simplicio siempre le hacía quedar mal. Hasta lo
que el iletrado Sagredo veía con claridad, a Simplicio le costaba verdaderos
suplicios entenderlo. Finalmente, Simplicio acepta el modelo de Copérnico, pero
con la condición de que se mantenga como una simple hipótesis. Es lo mismo que
el papa Urbano VIII le había pedido a Galileo: que no defendiera el
heliocentrismo como una teoría verdadera, sino como una mera hipótesis más
cercana a la falsedad que a la verdad. Para colmo, el papa había solicitado a
Galileo que incluyese su propia visión del asunto (la del pontífice) en la
obra. Y por si fuera poco, Galileo presentaba como prueba definitiva del
heliocentrismo el fenómeno de las mareas, que atribuía a causas que
después se han demostrado erróneas (las mareas, como propuso Kepler y demostró
definitivamente Newton, se deben a la atracción gravitatoria ejercida por la
Luna y no al movimiento de rotación terrestre, como pensaba Galileo).
El libro apareció en 1632 porque, para alegría de Galileo, el censor, el padre
Riccardi, no se lo había leído entero. Los filtros de la censura siempre tienen
un fallo: el censor. Si el censor es perezoso y no lee, sale cualquier cosa. Si
el censor se toma en serio y diligentemente su trabajo, la cosa es más difícil.
Seguramente, en el caso del censor se da una de las escasas situaciones en las
que es preferible alguien poco responsable y al que le guste poco su oficio.
Cuánto favor acaba haciendo al mundo.
Pero ni el papa ni la curia romana eran tan poco perspicaces como Galileo había
imaginado. Se dieron cuenta enseguida de que Galileo los había retratado en el
personaje de Simplicio, ridiculizando al máximo sus posturas, lo que resultaba
intolerable, sobre todo cuando ya en 1616 se le había prohibido a Galileo hacer
de abogado de Copérnico. Se sentían insultados e injuriados por Galileo. La
edición de la obra de Galileo fue secuestrada, y al científico se le llamó a
Roma para someterse a un proceso, que se inició el 12 de abril
de 1633.
Contra muchos tópicos que se han difundido en la conciencia popular sobre este
proceso (oscuras y húmedas celdas de aislamiento en un calabozo para el anciano
físico, trato vejatorio o muerte en la hoguera), consta por el estudio de los
documentos del proceso (sus actas) que Galileo se hospedó en una casa y que
tuvo a su servicio al mayordomo del embajador de Toscana. El proceso
transcurrió relativamente rápido. A Galileo se le acusaba de haber desobedecido
la orden que se le había dado en 1616, y en junio de 1633 ya estaba listo para
sentencia (se trataba de un juicio muy peculiar, donde el fiscal y el juez eran
en realidad la misma instancia, y donde Galileo no tuvo las garantías de
defensa que existen en los juicios modernos) . Se le declaraba culpable de un
delito de desobediencia y se le ordenaba abjurar de sus
posiciones científicas. La proposición de que el Sol permanecía inmóvil se
condenó como “absurda, filosóficamente falsa y formalmente herética por ser
contraria a la Sagrada Escritura”. El papa no hablaba ex cathedra y
por ello no se puede considerar que la posición de los inquisidores fuese
aceptada oficialmente por la Iglesia católica. Una cosa es la jurisprudencia de
los tribunales inquisitoriales y otra la doctrina de la Iglesia. La leyenda
(probablemente falsa) dice que por lo bajo Galileo pronunció el célebre Eppur
si muove, “y sin embargo se mueve”, como haciéndoles ver a sus jueces
que ellos podrían tener el poder, pero no la razón.
¿Y después? La condena a prisión fue conmutada por un arresto domiciliario en
la villa del Gioeiello, en Arcetri, cerca de Florencia, y allí
viviría hasta su fallecimiento el 8 de enero de 1642, a los 78 años. En esa
villa tendría aún fuerzas para escribir otra de sus grandes obras, Discursos
y demostraciones matemáticas en torno a dos nuevas ciencias, donde
ponía en orden los resultados en el campo de la mecánica y de la cinemática que
ya había obtenido años atrás, y que es probablemente la de mayor valor
científico de Galileo.
Como hereje condenado, Galileo no fue enterrado en lugar sagrado hasta 1737,
año en que su cuerpo se trasladó a la iglesia de la Santa Croce de
Florencia (donde todavía se encuentra). Hubo que esperar hasta 1758 para que la
prohibición de leer libros que defendiesen la teoría heliocéntrica se
suspendiese, y en 1992, así como en sucesivos actos y discursos, el papa Juan
Pablo II pidió perdón por el trato que se le había dado a Galileo; un ejemplo,
proseguía, de armonía entre fe y ciencia.
El caso Galileo ha hecho derramar auténticos ríos de tinta. Creo que se puede
añadir poco, sobre todo cuando existen posiciones tomadas de antemano. Pero es
interesante darse cuenta de que el verdadero conflicto se producía, por encima
de todos los factores históricos, intelectuales y políticos que se quieran
identificar, más que entre la ciencia y la religión (como si se tratase de dos
cosas totalmente incompatibles), entre la libertad de pensamiento y el
fanatismo, fanatismo que puede adoptar diversas formas (religiosas,
ideológicas...). No tiene por qué haber conflicto entre la fe y la ciencia, que
son, en frase afortunada del biólogo evolucionista Stephen Jay Gould, “dos
magisterios que no se superponen” (non overlapping magisteria). El
conflicto surge cuando ni la teología ni la ciencia saben ser lo
suficientemente realistas como para reconocer los límites de sus conclusiones.
Y aquí vale lo que proclamó con tanto vigor el teólogo Karl Barth: “Dios es
Dios y el mundo es el mundo”. Los buenos científicos, como Galileo, saben poner
cada cosa a su nivel, y los buenos teólogos reconocen (como lo hace, por
ejemplo, la constitución Gaudium et Spes del concilio Vaticano
II, de 1965) la autonomía de las ciencias experimentales para ofrecer una
visión del mundo material.
Capítulo 11
Lo pequeño no es necesariamente hermoso pero es importante: el microscopio.
Admiramos lo grandioso, lo que nos desborda y
sobrepasa. Cuando contemplamos el legado de las grandes civilizaciones
antiguas, por ejemplo de la egipcia, enseguida quedamos fascinados por el
tamaño y la monumentalidad de sus construcciones. ¿Quién no se sorprende ante
la proeza insuperable que representan las pirámides, y no sólo las de Giza?
¿Quién no se siente como un auténtico “enano” - ¡palabra empleada por el
mismísimo Champollion!- al pasear por el patio de columnas del templo de Karnak
en Tebas? Admiramos esas proporciones absolutamente majestuosas y, más aún, que
personas de carne y hueso como nosotros las levantasen hace milenios.
Pero el conocimiento de las civilizaciones antiguas probablemente no habría
pasado de lo meramente superficial si legiones de arqueólogos, filólogos,
historiadores y científicos no se hubieran fijado en “detalles” aparentemente
insignificantes pero a la larga, más importantes. Las pirámides o el templo de
Karnak nos dan una idea, claro está, del grado de desarrollo que alcanzó una
civilización. Pero si queremos saber cómo era esa civilización, cómo vivía,
cómo concebía el tiempo y la muerte, cuáles eran sus principales
preocupaciones, cómo transcurrió su historia política y social, en qué creía
exactamente y un sinfín de preguntas más que es inevitable plantearse, tenemos
que mirar a las cosas pequeñas. Cosas pequeñas como los ajuares funerarios de
reyes, nobles y campesinos; cosas pequeñas como registros agrícolas y
ganaderos; cosas pequeñas como las cartas que se mandaban desde Tell el Amarna,
la capital con Akenatón, a las grandes ciudades de Oriente Próximo en aquella
época y que nos informa sobre la situación política internacional del momento;
cosas pequeñas como leer el Diálogo de un hombre con su ba y
sacar conclusiones sobre la visión egipcia de la vida humana e innumerables
“minucias” (en comparación con los grandes monumentos) que, sin embargo, nos
informan más y mejor sobre la verdadera “alma” de toda una cultura.
Lo anterior se puede extrapolar al mundo de las ciencias naturales. Podemos
mirar al firmamento con admiración y con cierto sobrecogimiento ante su
inmensidad y su lejanía. Podemos preguntarnos por qué brillan las estrellas,
pero por mucho que miremos al firmamento no lograremos encontrar una respuesta,
porque para descubrir cómo brillan las estrellas (una cuestión que seguramente
había inquietado a muchos desde que el ser humano tuvo suficiente madurez
racional para formularla) hay que descubrir primero cómo funciona lo muy
pequeño: de qué está compuesta la materia y cómo interacciones las partículas
elementales entre sí.
Nos fascinan las teorías que tratan de explicar el origen del universo, como
el Big Bang, y que nos hablan de miles de millones de
años-luz. Pero esas teorías no servirían de nada si no se basasen en un
conocimiento sólido (que da la mecánica cuántica) del mundo atómico, indicando
así cómo fueron surgiendo las distintas partículas y los diferentes elementos,
siguiendo la evolución del cosmos. Uno de los grandes retos de la física actual
es, justamente, integrar dos teorías aparentemente contrapuestas y que operan
en dos ámbitos muy delimitados: la mecánica cuántica (que describe el mundo a
escala atómica y subatómica) y la relatividad general, que trata sobre el macrocosmos. Pero
uno de los grandes aciertos de la ciencia es haberse dado cuenta de que muchas
no siempre era posible responder a las grandes preguntas que se refieren a
cosas que nos superan en tamaño si antes no conocíamos lo que estaba ocurriendo
en el microcosmos, en el reino de lo muy pequeño. Pensemos que
el tamaño de un núcleo atómico es de unos 10-15 metros (es
decir, un femto-metro, o una coma seguida de catorce ceros y un uno), y la
distancia entre el núcleo y la corteza atómico es de cinco órdenes de magnitud
(el átomo tendría un tamaño aproximado de 10-10, cantidad que se
conoce como un Armstrong), que es tanto como decir que si una
persona que viviese en Londres representase el núcleo atómico, la corteza se
situaría a cien kilómetros de distancia, en Oxford. ¿No es llamativo? Las
proporciones son siempre relativas, y la idea que nos forjamos de lo grande, de
lo pequeño, de lo lejano y de lo cercano es enormemente limitada. Si nos parece
grande la Tierra, ¿qué le pareceríamos nosotros a un microorganismo? ¿Y no se
sentiría sobrecogida nuestra galaxia al saber que es una más entre miles de
millones de galaxias que, se estiman, existen en el universo? ¿Y no se sentiría
sobrecogida una neurona al comprobar que hay millones como ella en el sistema
nervioso? La admiración y la sorpresa siempre tienen que ir de la mano de su
reverso (la crítica y el cuestionamiento), y lo ideal es que ambas sepan
convivir en paz, sin traumas, porque descubrir que somos una minúscula porción
del cosmos no significa que no podamos asombrarnos de lo que hemos hecho y de
lo que podemos hacer.
Y un avance fundamental en la observación del mundo de lo muy pequeño, aunque
inicialmente sólo fuese de utilidad para las ciencias biológicas, fue la
invención del microscopio.
¿Cuándo se inventó lo que hoy conocemos como microscopio? Tenemos que
remontarnos al siglo XVII y a los Países Bajos, por entonces uno de los
“epicentros” de la fabricación de lentes en Europa. Un filósofo tan
extraordinario como Baruch de Spinoza (1632-1677), expulsado y excomulgado de
joven de la sinagoga de Amsterdam por sus ideas y uno de los grandes del
pensamiento moderno, pasó su vida retirado en una casita de campo de Holanda
haciendo lentes, a la vez que escribía su célebre Ethica more
geométrico demonstrata. Sin duda la paz de esas latitudes debió de
inspirarle algunas de sus tesis más importantes.
El mismo año que nacía Spinoza veía la luz en la ciudad holandesa de Delft uno
de los grandes inventores de la Edad Moderna: Thonius Philips van
Leeuwenhoek, padre de la microbiología y cuyas mejoras a los modelos
ya existentes de microscopios fueron tan importantes que casi podría
concedérsele el mérito de haber desarrollado el microscopio óptico moderno.
El siglo XVII es el siglo de la Europa del Barroco, que vivía una ebullición de
propuestas científicas y una efervescencia intelectual mayor aún si cabe que la
Europa renacentista. Fue un tiempo prolijo en ideas científicas y en
invenciones técnicas (hasta tal punto que puede decirse que en él surgió la
ciencia moderna, y no es exagerado llamarlo el “siglo de los genios”),
destacando, entre ellas, la creación del primer microscopio en sentido estricto
(el microscopio óptico, a base de unir distintas lentes que aumentan el tamaño
de la imagen). La prioridad en esta invención es un hecho aún controvertido y
oscuro, pero sí podemos afirmar que hay al menos tres nombres que jugaron un
papel importante en este hito de la tecnología: Hans Lippershey, Hans Janssen y
su hijo Zacharias Janssen, todos ellos de los Países Bajos. El primero,
Lippershey (1570-1619), que se dedicaba a la producción de lentes, había nacido
en Wesel (Alemania), pero se había establecido en la ciudad holandesa de
Middelburg. Muchos historiadores hablan de él como el verdadero inventor del
telescopio, ya que se habría adelantado al mismísimo Galileo Galilei,
patentando su artilugio en 1608. Su destreza con el manejo de las lentes la
habría aplicado también al diseño del microscopio óptico aunque, nuevamente,
todavía hay muchas lagunas historiográficas que resolver.
Pero quien supo reconocer las inmensas posibilidades científicas que ofrecía el
microscopio fue Anton van Leeuwenhoek. Como escribe el popular divulgador de
ciencia Isaac Asimov, “Anton van Leeuwenhoek fue un pañero que con sólo algunos
años de escuela descubrió un nuevo mundo más asombroso que el de Colón”. Y es
que, en efecto, Leeuwenhoek no era un fabricante profesional de lentes: se
trataba sólo de un hobby, pero de una afición que le haría
famoso en todo el mundo.
Nuestro hombre nació el 24 de octubre de 1632 en Delft, a medio camino entre
Rotterdam y La Haya. Su padre era cestero, pero Anton entró como aprendiz de un
fabricante de paños de origen escocés en Amsterdam. Su formación académica,
como podemos suponer, fue más bien escasa (como también lo fue en el caso de
grandes científicos como Michael Faraday y Thomas Edison) y, desde luego, no
pasó por la universidad. Quizás no le hubiera servido de mucho (Leibniz,
también de la misma época, las llamaba “instituciones monacales” sumidas en el
más absoluto ostracismo y alejadas de la innovación en ciencias y filosofía).
Lo cierto es que como pañero encontró el tiempo libre necesario para cultivar
su gran pasión: el pulido de las lentes.
En 1648 Leeuwenhoek estaba instalado en Amsterdam, y allí tuvo acceso a los
prototipos de microscopio que habían construido los mejores fabricantes de
lentes de la ciudad. Esos aparatos eran capaces de aumentar hasta tres veces el
tamaño de los objetos. Leeuwenhoek, ni corto ni perezoso, compró uno y se puso
a experimentar con él. ¿Cómo se podía conseguir que ese mismo artilugio
multiplicase no por tres, sino por mucho más, el tamaño de los objetos? Y de
vuelta a su Delft natal, habiendo ganado suficiente dinero con su negocio de
producción de paños como para dedicarse más a fondo a lo que realmente le
gustaba, mejoró el sistema.
Para ello colocó el centro de una barra de cristal limado en una llama,
logrando así obtener dos “tiras” largas de cristal al ser capaz de retirar la
parte más caliente del vidrio en cuestión, que resultaba más fácil de
manipular. Ahora, si se calentaba el extremo de una de esas tiras, la punta de
esa tira se convertía en una esfera de cristal diminuta y muy pulida, ideal
para funcionar como lente en un microscopio. La técnica requiere de una
precisión extrema, porque es muy difícil obtener puntas redondeadas aptas para
servir como lentes, y el proceso de calentar el vidrio no es sencillo y ha de
hacerse con sumo cuidado (máxime en aquellos tiempos, sin mecheros Bunsen, hoy
de uso habitual en los laboratorios). La pericia de Leeuwenhoek es, por tanto,
excepcional. Además, cuanto más pequeña era la esfera más aumentaba el tamaño
de los objetos que se observaban con ella, al proyectar mejor la imagen. Sólo
los buenos fabricantes de lentes que pudieran hacer esferas de cristal muy
pequeñas iban a ser capaces de construir microscopios ópticos.
¿Eso era todo? ¿No se necesitaba nada más para fabricar un microscopio? No
hacía falta mucho más, y el propio Leeuwenhoek se sintió algo “avergonzado” o
al menos abrumado por la simplicidad de la técnica (simplicidad para los demás
productores de lentes que había en Holanda) y, temiendo que esto motivase que
la comunidad científica no reconociese suficientemente su trabajo, prefirió
fingir y hacer creer que sus lentes eran fruto de una laboriosa y minuciosa
tarea de pulido de lentes. En ocasiones, si los grandes inventores quieren
triunfar, tienen que buscarse ellos mismos sutiles estrategias o artimañas para
que los demás lleguen a apreciar el valor de sus creaciones.
Pero lo cierto es que pocos se creían lo que Leeuwenhoek simulaba, entre otras
cosas porque no era lógico que si tenía que emplear tanto tiempo en pulir
lentes construyese tantos microscopios como salían de su taller. Las cifras
hablan de unas 500 lentes y aproximadamente 400 microscopios (la mayoría con
soportes metálicos de plata o cobre) que aumentaban la imagen no 3, sino hasta
275 veces, muchos de ellos construidos para observar una única especie
biológica en exclusiva. No había que estar muy despierto para caer en lo
inverosímil de sus pretensiones.
Si Leeuwenhoek ha entrado por la puerta grande en la historia de la ciencia y,
como dice Asimov, ha abierto un mundo más fascinante que el de los grandes
exploradores, no es tanto por su indudable destreza en la fabricación de
microscopios como por las aplicaciones que dio a estos instrumentos.
Por primera vez, el ser humano tenía ante sus ojos un universo repleto de
nuevas criaturas y de seres inertes hasta entonces desconocidas:
microorganismos (que Leeuwenhoek denominó animálculos) tales
como bacterias y espermatozoides, fibras musculares, el paso de la sangre por
los capilares que conectan las arterias con las venas... Leeuwenhoek fue, casi
con toda seguridad, la primera persona que observó ese flujo de sangre a través
de los capilares. Descubrió en 1674 la infusoria, grupo al que
pertenecen, entre otros, los ciliados, los protozoos y las algas unicelulares,
que en las actuales clasificaciones taxonómicas se engloban en el reino protista (término
que propuso en 1866 el gran biólogo alemán Ernst Haeckel), siendo todos sus
miembros organismos eucarióticos, es decir, cuyas células
tienen un núcleo en el que reside la mayor parte de su material genético. Uno
de sus hallazgos más relevantes fue el de las bacterias, organismos
de una célula, que provocaría no poca controversia científica, como veremos a
continuación.
Sus descubrimientos tuvieron pronta resonancia en el panorama científico
europeo. La Royal Society de Londres, que había fundado no
hacía mucho el rey Carlos II de Inglaterra y que hoy en día actúa a modo de
academia de las ciencias del Reino Unido, había recibido ya cartas del propio
Leeuwenhoek en las que éste explicaba cómo había construido sus microscopios y
qué había observado exactamente con su sistema de lentes. El médico holandés
Regnier de Graaf (que da nombre al folículo de Graaf en los ovarios) le había
puesto en contacto con esta sociedad científica, a la que él pertenecía. La
publicación de esta academia, las célebres Philosophical
Transactions, acogieron varios artículos de Leeuwenhoek que
sorprendieron a los científicos de la época por su originalidad.
La aceptación de Leeuwenhoek por parte de la Royal Society no
estuvo, sin embargo, exenta de complicaciones, esperables si tenemos en cuenta
que Leeuwenhoek se limitaba en un principio a enviar dibujos de lo que él decía
haber visto y, por ello, aun contando con el aval de un científico de la altura
de Graaf, era inevitable que levantase un cierto escepticismo o suspicacia
entre los demás investigadores.
Además, Leeuwenhoek no era el único que había investigado formas vivas con el
microscopio. Otros habían hecho ya observaciones muy importantes, especialmente
Robert Hooke. Hooke (1635-1703) es un hombre en quien vale la pena detenerse.
Cualquier estudiante de secundaria habrá oído hablar de la “ley de Hooke” para
la elasticidad. Hooke fue un gran científico, pero tuvo la mala suerte de vivir
en un momento y en un país (Inglaterra) que si algo tenía era precisamente
titanes de la ciencia. Su agrio enfrentamiento con Isaac Newton, al que acusaba
de haberle robado la idea de que la fuerza de atracción gravitatoria entre dos
cuerpos disminuía con el cuadrado de la distancia (la famosa ley de la gravedad
de Newton: la fuerza de atracción entre dos cuerpos es directamente
proporcional al producto de sus masas e inversamente proporcional al cuadrado
de la distancia entre ellos), hizo que este último, que si por algo se
caracterizaba era por una capacidad de enfado e irascibilidad ante las críticas
casi sobrehumana, desplegase todo su rencor contra él. Hooke tenía un intelecto
inusualmente versátil: era arquitecto, físico, biólogo... Lo que los ingleses
llaman un polymath, aunque también aquí pudo estar la causa de
que no triunfase tanto como Newton. Había recibido una esmerada educación
primero en Westminster School, uno de los colegios con más
solera de Inglaterra, situado junto a la Abadía de Westminster en Londres (en
el que han estudiado, entre otros, el filósofo John Locke, el Nobel Edgar
Adrian o los actores Sir John Gielgud y Sir Peter Ustinov), y luego en Christ’s
Church, en Oxford (el mismo lugar en el que después viviría Lewis
Carroll, el autor de Alicia en el país de las maravillas). Parece
ser que colaboró con el químico Robert Boyle en la formulación de su ley sobre
los gases (que relaciona la presión y el volumen a temperatura constante).
Pero si hay algo por lo que merece una alta consideración en la historia de la
ciencia es por su libro Micrographia que, aparecido en 1665,
contenía la primera descripción de lo que hoy conocemos como una célula. De
hecho, el término “célula” es suyo, inspirándose para ello en las células en
que residían los monjes en los monasterios. Sus conclusiones las había extraído
de observaciones con microscopios bastante elementales, sin duda peores
técnicamente que los de Leeuwenhoek.
¿Conocía Leeuwenhoek la obra de Hooke? Muchos historiadores se inclinarían a
decir que Leeuwenhoek había leído la Micrographia de Hooke.
Pero en cualquier caso, sus problemas con la Royal Society no
se limitaron a una disputa con algún que otro científico sobre la prioridad de
sus hallazgos. Cuando Leeuwenhoek escribió a la Sociedad dando pautas sobre
cómo reproducir los experimentos que él había realizado en Holanda y
científicos como Hooke construyeron sistemas de lentes como los de Leeuwenhoek,
se disiparon bastantes dudas sobre las habilidades del holandés.
El problema era de mayor calado científico. Leeuwenhoek sostenía haber
observados seres de una sola célula (las bacterias), algo que se era imposible
para la comunidad científica. Tanto es así que la Royal Society designó
a un equipo de juristas y doctores para viajar a los Países Bajos y conocer de
primera mano la veracidad de las informaciones que Leeuwenhoek mandaba por
carta, a modo de notarios, y así saber si el engaño recaía en el propio
Leeuwenhoek o más bien en las teorías científicas aceptadas que excluían la
existencia de organismos unicelulares. Hubo que esperar hasta 1680 para que la
Sociedad no tuviese dudas de la corrección de las observaciones de Leeuwenhoek.
La elección de Leeuwenhoek como fellow (miembro) de la Royal
Society ese año vino a consagrar el nacimiento de una nueva disciplina
científica: la microbiología.
Leeuwenhoek se hizo muy famoso. Las personalidades que visitaban Holanda
querían conocer al descubridor de ese mundo minúsculo y extraño que sin embargo
maravillaba a los científicos. Desde el zar Pedro I de Rusia hasta la reina de
Inglaterra, todo el mundo quería verlo. A Leeuwenhoek le llegaban muestras de
los lugares más recónditos (a los que había llevado el ardor comercial de los
holandeses, fundando la Compañía Holandesa de las Indias Orientales) para que
las analizase con su microscopio. Murió en su ciudad natal de Delft el 30 de
agosto de 1723, tras una fecunda y dilatada vida.
Las contribuciones de Anton van Leeuwenhoek van mucho más allá de crear la
ciencia de la microbiología. Gracias a sus descubrimientos, teorías que hasta
entonces se tenían como verdaderas empezaron a ser cuestionadas. Ya desde los
griegos se creía que de la mera materia orgánica podía surgir vida. Es lo que
se conoce como generación espontánea. Hoy nos puede resultar
absurdo, pero la cosa tenía su sentido. Alguien deja la basura en la calle y al
poco aparecen insectos. ¿Cómo han llegado hasta allí? Por generación espontánea
de la propia materia orgánica de la basura que, descomponiéndose, ha dado lugar
a la aparición de seres vivos como toda clase de insectos (moscas, cucarachas,
escarabajos...). Repito que hoy nos parecerá absurdo porque pertenecemos a una
época en la que el microscopio, la microbiología y la ciencia en general han
entrado a formar parte de nuestro día a día. Sabemos que es imposible que de un
montón de materia orgánica surja, como de la nada, vida. O al menos creemos
saberlo, porque cuando nos preguntamos por el origen de la vida, el tema no
está tan claro. Pero vayamos un poco más despacio.
La abiogénesis o generación espontánea (es decir, que la vida
puede surgir de la no-vida -a-biós en griego) había sido
defendida por biólogos de gran altura como Aristóteles (384-322 antes de
Cristo), y por su prestigio (como ocurrió en otros muchos campos: física,
filosofía...) nadie se atrevió a cuestionarla hasta el siglo XVII. Thomas
Browne, que se guiaba por los ideales de ciencia dados por su compatriota
Francis Bacon (observar y experimentar y no conducirse sólo por la intuición y
la tradición), dudaba de la tesis aristotélica. En 1668, el italiano Francesco Redi
demostró que si se lograba impedir que las moscas pusiesen sus huevos en la
carne, no salían gusanos. La aparición de los gusanos podía deberse, en
consecuencia, no a la descomposición de la carne sino a los huevos que dejaban
las moscas.
Pero fue la exploración del mundo microbiológico propiciada por el trabajo de
Anton van Leeuwenhoek lo que acabó asestando un golpe mortal a la teoría de la
generación espontánea. En 1768 el italiano Lazzaro Spallanzani sentó las bases
de la refutación definitiva de esta teoría al comprobar que los microbios
surgen del aire, y que calentando intensamente el receptáculo era posible
eliminarlos, impidiendo así que apareciesen formas de vida. Pero los defensores
de la generación espontánea aún podían argumentar que al aplicar un
calentamiento intenso los alimentos quedaban sin aire y no podían “producir”
vida. Se necesitaba algo más riguroso y convincente.
Y llegamos así a uno de los grandes de la ciencia: el francés Louis
Pasteur (1822-1895). Pasteur es recordado por muchas aportaciones al
desarrollo de la biología, la química y la medicina: la teoría de los gérmenes,
el proceso de pasteurización, la primera vacuna contra la rabia, el estudio de
los cristales con luz polarizada... Pero en su tiempo tuvo gran repercusión en
toda la comunidad científica un experimento que efectuó en 1862. En él, Pasteur
preparó un matraz (recipiente de cristal que se usa en los laboratorios para
mezclar disoluciones) que contenía un caldo de alimento en el interior.
Aplicando calor, curvó el cuello del matraz. Cuando, hirviéndolo, había
conseguido expulsar todo el aire que podía tener el matraz, lo dejó en reposo
varios días para observar qué pasaba en su interior. Al haber curvado el cuello
del matraz, Pasteur se había asegurado de que podía entrar aire, pero atrapando
los posibles microorganismos y partículas de polvo que transportase. La
diferencia con el experimento de Spallanzani radicaba en que Pasteur había
aplicado una etapa de ebullición o calentamiento para esterilizar el alimento.
De esta manera, el alimento permanecía sin descomponerse. Pero si se inclinaba
el matraz, dejando así pasar a los microorganismos del aire (Pasteur se había
cuidado de probar que los microorganismos transportados por el aire eran
similares a los de los alimentos) que habían quedado retenidos en el cuello del
recipiente, el alimento se pudría, a pesar de que Pasteur lo había esterilizado
con calor y había comprobado antes cómo no se descomponía. Los responsables de
la descomposición del alimento no podían ser otros que los microorganismos que
llevaba el aire, y no había ninguna generación espontánea, sino que era el
propio aire el responsable de trasladar esos microorganismos al alimento.
Así, Pasteur logró convencer a la comunidad científica de que eran los gérmenes
de ciertos organismos y no la descomposición de la materia inerte lo que
generaba nuevas formas de vida.
Pero el problema no quedaba zanjado ahí. El experimento de Pasteur parecía
apoyar la idea de que la vida sólo surge a partir de la vida (principio que
suele sintetizarse en la frase latina omne vivum ex vivo) pero,
¿cómo extrapolar estas consideraciones al inicio de la vida? ¿De dónde podían
haber surgido las primeras formas de vida si no era de la materia inerte?
Llegamos a uno de los grandes interrogantes de la ciencia. Si el paleontólogo y
teólogo jesuita francés Pierre Teilhard de Chardin (1881-1955), famoso por su
hipótesis del Punto Omega o unidad final hacia el que evolucionarían la materia
y la conciencia, había descrito la historia del universo como un proceso en el
que sucesivamente habían ido surgiendo la hilosfera (o espacio
de la materia, hilé en griego), la biosfera (espacio
de la vida, biós en griego) y la noosfera (espacio
de la mente, en griego noús), no es difícil advertir que el
tránsito de cada uno de esos “espacios” al otro es un enigma para la ciencia.
¿Cómo surgió la vida? ¿Cómo surgió la conciencia? Y, más aún, ¿llegaremos algún
día a tener una respuesta para estas preguntas o estamos condenados a
ignorarlo?
No han faltado hipótesis que traten de explicar el origen de la vida. Una de
ellas la propuso el bioquímico soviético Alexander Oparin en
1936 y es conocida como la hipótesis de la sopa primitiva. Oparin postuló que
la atmósfera primordial, carente de oxígeno, habría podido generar moléculas
orgánicas por acción de la luz solar, y la combinación de estas moléculas
en coacervados (del latín coacervare, que
significa “ensamblar”) más complejos que se habrían ido fusionando entre sí y
luego dividiéndose podría concebirse como una versión inicial de la
reproducción biológica. Para Oparin, en definitiva, la vida podía reducirse a
la mera combinación de elementos orgánicos más simples que al unirse generarían
formas más complejas.
Si el experimento de Pasteur de 1862 había servido para aclarar bastantes dudas
sobre la teoría de la generación espontánea, el experimento de Stanley Miller
en 1953 sobre la “sopa primitiva” continúa siendo hasta hoy de referencia
obligada para la cuestión sobre el origen de la vida. Miller, un joven estudiante
americano bajo la dirección del también estadounidense y premio Nobel de
química Harold Urey, preparó en un matraz una atmósfera a base de metano,
amoníaco, vapor de agua e hidrógeno, y al cabo de dos semanas comprobó, para su
sorpresa, que habían aparecido aminoácidos (moléculas que constituyen las
proteínas), “ladrillos” de la vida. Claro está que Miller no había producido
formas vivas, pero sí había sido capaz de crear estructuras complejas a partir
de compuestos relativamente simples como el metano o el amoníaco que habrían
existido en la atmósfera de la Tierra primitiva, hace miles de millones de
años. Experimentos posteriores como los del químico catalán Joan Oró
(1923-2004), que consiguió generar adenina (una de las bases que componen los
ácidos nucleicos como el ADN y el ARN) a partir de cianuro de hidrógeno (H-CN),
han venido a confirmar que, efectivamente, es posible generar moléculas
complejas a partir de compuestos más simples en las condiciones adecuadas. Pero
todavía no disponemos de una teoría que goce de la suficiente aceptación sobre
el origen de la vida y sobre el mecanismo exacto que ha seguido esa
transformación progresiva de las estructuras simples en estructuras más
complejas. La ciencia se nutre de interrogantes, que siempre han existido,
existen y existirán. Lo importante es que pongamos los medios para irlos
respondiendo.
Capítulo 12
Watt y la máquina de vapor.
Solemos prestar gran atención a las revoluciones
políticas (por ejemplo, la americana en 1776 o la francesa de 1789) a la hora
de explicar el nacimiento del mundo contemporáneo, pero a menudo olvidamos que
éstos y otros acontecimientos no habrían sido posibles sin la revolución
industrial y sin una serie de cambios técnicos, científicos y sociales que
están en la base de las principal transformaciones políticas que han tenido
lugar en la historia reciente.
La pregunta es la siguiente: ¿qué viene antes, la revolución técnica o la
política? Cronológicamente puede demostrarse que la revolución industrial
ocurrió antes que la revolución francesa, que supuso una modificación decisiva
en el orden política y social del mundo occidental. En este sentido, cabe pensar
que para que una revolución o un cambio político triunfe y prospere, es
necesario que exista una infraestructura técnica y sobre todo
económica que lo permita. O en otras palabras, sin desarrollo económico previo
no cabe progreso político. Los filósofos de tendencia marxista, muy influyentes
en el pasado siglo, han tendido a concebir el cambio social de esta manera: el
nivel económico -el status y la clase social, por ejemplo-
resultan determinantes en la creación de ciertas estructuras o
modelos de organización en el campo político, cultural y religioso. Uno piensa
de una forma u otra según su procedencia social y económica. Quienes
pertenezcan a una clase alta preferirán votar a partidos políticos que bajen
los impuestos, fomenten la subsidiariedad y primen un mercado más libre que
genere desarrollo empresarial, y quienes vengan de un nivel económico inferior
seguramente votarán a quienes propugnen un mayor reparto de la riqueza, una
mayor protección del trabajador y un mayor progreso social donde prime la
solidaridad sobre la subsidiariedad. Es algo lógico que se remonta a tiempos
inmemoriales: la defensa de los propios intereses, aunque la paz social muchas
veces exija saber mirar más allá del propio interés.
Otra tendencia del pensamiento filosófico y sociológico contemporáneo ve la
realidad a la inversa: antes que el desarrollo económico y tecnológico está el
progreso político. Sin un adecuado modelo de sociedad, con instituciones
políticas suficientemente capaces para fomentar el desarrollo, no es posible el
progreso económico. En una obra que se hizo muy famosa, La ética
protestante y el espíritu del capitalismo (1904), el alemán Max Weber
(1864-1920) sostenía que las culturas y las religiones habían sido esenciales
en el surgimiento del capitalismo moderno. El afán de lucro, de acumular por
acumular que está en las raíces del sistema capitalista, procedía, en sus
fundamentos, de la ética del protestantismo calvinista, que había encontrado
suelo fértil en Holanda y en general en el mundo anglosajón. Las riquezas,
consideradas como un signo de bendición divina y de predestinación a
la salvación para los calvinistas, eran ahora valoradas por encima de otros
muchos aspectos que antaño habían disfrutado de mayor consideración. Aunque
Weber ha sido criticado por muchos autores posteriores, ningún sociólogo e
historiador de las ideas puede ignorar su obra y la minuciosidad con que expuso
argumentos a favor de su tesis, a saber, que el capitalismo moderno echaba sus
raíces en el calvinismo del siglo XVI. Más recientemente, el filósofo y premio
Nobel de economía indio Amartya Sen (1933-...) ha declarado
reiteradamente que para erradicar la pobreza primero hay que promover el
desarrollo democrático de un país y no al revés.
¿Quién tiene razón? Es una pregunta enormemente compleja como para que se pueda
responder a la ligera. Y como sugería Heidegger (para muchos, junto con
Wittgenstein, el mayor filósofo del siglo XX), la pregunta puede llegar a tener
más poder y más fuerza que la repuesta. Preguntarse “¿por qué el ser y no la
nada?” es más importante, creo yo, que encontrar una respuesta, porque
seguramente no existe y, aunque existiera, de encontrarse seguramente cerraría
otras posibles alternativas. La pregunta, sin embargo, deja abiertas opciones y
posibilidades.
Por tanto, habrá que analizar cada caso en concreto antes de “dictar” normas de
carácter universal, pero no podemos negar que ambos factores (la organización
económica -el mundo material- y las ideas -políticas, religiosas, culturales-)
se han influido mutuamente. Un desarrollo económico y tecnológico tan
espectacular como el que se dio durante la revolución industrial no habría
servido de nada sin un cambio radical en el orden político (que se produjo con
la revolución francesa) capaz de proporcionar un marco social y organizativo
adecuado para los nuevos tiempos y las necesidades impuestas por ese
crecimiento material. Pero a la inversa, sin ese cambio político seguramente el
desarrollo material propiciado por la revolución industrial se habría visto
frustrado, al “ahogarse” en modelos organizativos y políticos ya agotados y
obsoletos.
¿Qué fue la revolución industrial? Una de las transformaciones más notables que
ha vivido el mundo occidental en los últimos siglos. Se pueden distinguir dos
revoluciones industriales (al igual que, para muchos autores, se
pueden identificar dos ilustraciones con casi un siglo entre
medias: la de Montesquieu, Voltaire y Rousseau, y la de Marx, Nietzsche y
Freud): la primera revolución industrial tuvo lugar en la segunda mitad del
siglo XVIII, principalmente en Inglaterra (un país que, en la historia moderna,
ha estado siempre a la cabeza del progreso científico, tecnológico y
económico), y tuvo entre sus ejes fundamentales la invención de la máquina de
vapor. La segunda revolución industrial se produjo algo más tarde, a mediados
del siglo XIX, y se caracteriza por la extensión de tecnologías tan importantes
como el ferrocarril, la máquina de combustión interna o sobre todo la energía
eléctrica, que iba a regir las décadas venideras.
Queremos referirnos a una figura clave en la primera revolución industrial: se
trata del inventor escocés James Watt (1736-1819), un hombre que vivió
justamente la transición del siglo XVIII al siglo XIX y, grosso modo, de
una era (la era pre-industrial y pre-revolucionaria) a otra (la edad
contemporánea). Desde Watt y la revolución industrial, la fe en el poder de la
técnica y de la máquina como fuentes de progreso ilimitado y de bienestar sólo
ha empezado a ser cuestionada en el siglo XX. La Europa de Watt estaba
conmocionada por sucesos como el fatídico terremoto de Lisboa del 1 de
noviembre de 1755, y ni Dios ni la naturaleza iban a gozar ya de la confianza
que habían recibido en épocas anteriores. Ese seísmo inspirará a Voltaire a
escribir su Cándido, ironizando sobre la tesis de Leibniz de
que nuestro mundo es el mejor de los mundos posibles porque Dios sólo podía
crear el universo más perfecto. ¿Cómo confiar en un Dios providente que todo lo
había dispuesto para el bien de la humanidad si la antes gloriosa ciudad de
Lisboa yacía en ruinas? ¿No era la naturaleza algo salvaje y peligroso que el
ser humano debía aprender a controlar si no quería caer él preso de su dominio?
¿Y quiénes sino la ciencia y la tecnología podían ocupar el vacío de optimismo
y de mirada hacia el futuro que habían dejado las religiones? ¿Qué sino los
horizontes que abrían podían llenar de consuelo y de esperanza al ser humano?
La visión ilustrada de la historia ha definido el mundo contemporáneo.
James Watt nació el 19 de enero de 1736 en la localidad escocesa de Greenock.
Escocia es una tierra prolija en inventores, pensadores y científicos: Adam
Smith, David Hume (padres de la llamada “ilustración escocesa”) o más
recientemente Alexander Fleming, eran todos de esta región británica.
Procedía de una familia acomodada de confesión presbiteriana (una forma del
calvinismo que alcanzó gran protagonismo en Escocia): su padre era propietario
de barcos y su madre, Agnus Muirhead, descendía de una ilustre estirpe
escocesa.
Watt no recibió una educación académica “oficial”, sino que la mayor parte de
su formación corrió a cargo de su propia madre (el fenómeno del home-school, que
ahora parece volver a extenderse en algunos países). Parece que se le daban
especialmente bien las matemáticas, pero se le resistían el latín y el griego,
aunque esto no debe dar pie a oponer por completo los estudios científicos a
los humanísticos: Carl Friedrich Gauss (1777-1855), llamado el “príncipe de los
matemáticos” (princeps mathematicorum) y uno de los más
geniales matemáticos de la historia, destacó por sus conocimientos de lenguas
clásicas, hasta el punto de que Gauss siempre prefirió escribir sus libros y
artículos en latín y, en un principio, estuvo tentado de dedicarse a la
filología antigua en vez de a las matemáticas.
Watt estaba muy dotado para las actividades manuales, y cuando su madre
falleció, teniendo él 17 años, y la salud de su padre empezó a resentirse,
decidió trasladarse a Londres para dedicarse al estudio de la manufactura de
instrumentos y artilugios. Al año siguiente regresó a Glasgow, en su Escocia
natal, donde se topó con la rígida oposición del gremio de artesanos de la
ciudad (el Guild of Hammermen) por no haber servido como
aprendiz antes de intentar montar su propio negocio de diseño de instrumentos
técnicos. Los gremios, que habían jugado un papel muy relevante en la sociedad
medieval, a la larga se convirtieron en un serio lastre para el desarrollo
industrial y económico, al hacerse entidades cuasi-herméticas, sumamente
“bunkerizadas”, blindadas de cara al exterior y recelosas de las innovaciones,
por lo que los cambios sociales exigieron la aparición de nuevas corporaciones
mejor adaptadas a los nuevos tiempos.
Afortunadamente, su choque con ese gremio de Glasgow no significó el fin de una
prometedora carrera para Watt. Tres profesores de la Universidad de Glasgow le
ofrecieron instalar un taller en el interior de la misma universidad,
especialmente gracias al apoyo y aliento del químico Joseph Black (1728-1799),
quien hizo contribuciones tan importantes a la ciencia como el descubrimiento
del dióxido de carbono o el desarrollo teórico de conceptos esenciales de la
termoquímica, incluyendo el de calor latente o calor específico, después de uso
común en la física y en la química. Black llegaría a ser el principal mentor de
Watt.
Y llegamos al invento de la máquina de vapor, una de las creaciones más
geniales de la técnica occidental. Watt, en su pequeño taller de la universidad
de Edimburgo, se había dedicado a investigar las propiedades del vapor,
probablemente aconsejado por uno de sus profesores: John Robinson. Robinson era
oficialmente “profesor de filosofía”, porque hasta el siglo XIX disciplinas
científicas tan diversas como la física o la química se englobaban en lo que
entonces se conocía como “filosofía”. Cuando Newton pone como título a su gran
obra Principios matemáticos de la filosofía natural, por
“filosofía natural” no se está refiriendo a lo que la filosofía posterior
(especialmente los idealistas alemanes como Schelling) llamaría “filosofía de
la naturaleza”, sino a las ciencias naturales.
Antes que Watt, el inventor Thomas Newcomen había construido en 1712 una
“máquina atmosférica” (conocida después como la máquina de Newcomen) que
utilizaba, si bien de manera rudimentaria, la potencia del vapor para generar
movimiento. Ya Herón de Alejandría, en el siglo I después de Cristo, había
descrito en su obra Spiritualia seu Pneumatica lo que
denominó aeolípila, un claro precedente de los dispositivos
movidos por vapor. Las máquinas de Newcomen resultaron particularmente
productivas a la hora de extraer agua de las minas (una especie de shaduf,
dispositivo mecánico muy difundido entre los campesinos egipcios a orillas del
río Nilo para retirar agua sin excesivo esfuerzo, pero el de Newcomen estaba
accionado por la fuerza del vapor). Los historiadores reconocen el mérito de
Newcomen como el primer inventor que supo aprovechar la capacidad del vapor
para efectuar trabajos mecánicos, si bien su extensión no se lograse
propiamente hasta James Watt.
Watt buscó una máquina de Newcomen y pidió a la universidad de Glasgow que le
trajese el modelo que tenía pero que había sido llevado a Londres para
arreglos. En 1763 Watt disponía ya de una máquina de Newcomen y, tras los
oportunos ajustes, comenzó a experimentar con ella. Puntualicemos que Watt no
era un simple técnico: era, ante todo, un científico, y antes de proponerse
mejorar la máquina de Newcomen para construir lo que sería la máquina de vapor
estudió cuidadosamente la naturaleza del vapor y llegó, por su cuenta, a
conclusiones muy similares sobre el calor latente a las que había propuesto su
mentor Joseph Black años antes. Rara vez triunfa un inventor que carezca de
pericia o talento teórico. La teoría y la práctica se deben tanto la una a la
otra y se necesitan tanto que es muy difícil aportar algo en la práctica si no
se conocen los fundamentos de un determinado proceso físico, y realizar un
desarrollo significativo en el campo teórico si no se está al tanto de los
descubrimientos experimentales.
Einstein, sin conocer el experimento de Michelson-Morley sobre la independencia
de la velocidad de la luz respecto al movimiento del observador, probablemente
no habría pensado en la teoría especial de la relatividad. Y en el campo de las
ciencias humanas, un filósofo o un sociólogo que no conozca a fondo la
situación cultural de su tiempo podrá teorizar mucho, pero en el vacío. Y al
revés: alguien que sólo se dedique a hacer estadísticas sobre lo que se piensa
en su época y en su país y no se proponga sacar alguna conclusión o alguna
propuesta teórica no hará avanzar el conocimiento, porque recoge datos, pero no
es capaz de sistematizarlos y unificarlos.
Watt, imbuido en sus experimentos con el prototipo de máquina de vapor que
había construido Newcomen, demostró que aproximadamente un 80% del calor del
vapor se empleaba en el calentamiento del cilindro (el espacio en que opera el
pistón de la máquina). El consumo de este calor estaba relacionado con la
corriente de de agua fría que se inyectaba en la máquina y que condensaba el
vapor. Y aquí viene el “genio” de Watt, el “punto de inflexión” en su trabajo
con la máquina de vapor que le ha valido un lugar tan relevante en la historia
de la ciencia y de la tecnología. Watt se dio cuenta de que era mejor hacer que
el vapor se condensase en una cámara separada del pistón,
manteniendo la misma temperatura en el cilindro en el que se encontraba el
pistón y en el vapor inyectado al sistema. Este descubrimiento, fundamental en
la posterior producción en masa de máquinas de vapor, lo hizo en 1765.
¿Cómo funciona una máquina de vapor? En resumen, puede decirse que lo que hace
una máquina de vapor como las que inventó Watt (de combustión externa, luego
sustituidas por las máquinas de combustión interna y por los motores
eléctricos) es aprovechar la energía en forma de calor que tiene el vapor para
transformarla en energía mecánica, es decir, en movimiento (la energía mecánica
es la suma de la energía potencial y de la energía cinética que un cuerpo tiene
en virtud de su velocidad).
El dispositivo consta de una especie de caldera encargada de calentar el agua
(fase líquida) para que se transforme en vapor (fase gaseosa). El vapor, que
tiende a expandirse o contraerse según la presión a que se vea sometido en el
interior de la máquina, ejerce una fuerza sobre el pistón. El pistón se mueve a
causa de la fuerza y ese movimiento puede utilizarse en la ejecución de
trabajos mecánicos, como por ejemplo girar las ruedas de un vehículo. Por
tanto, lo único que se necesita para construir una máquina de vapor elemental
es un calentador capaz de generar un vapor. Los dispositivos que siguieron a la
máquina de Watt emplearon madera, carbón o aceite para generar ese vapor (sin
ir más lejos, los ferrocarriles, surgidos también en Gran Bretaña a principios
del siglo XIX).
Watt tenía ya una máquina de vapor, pero la importancia de su invento no habría
sido tan notoria si él mismo no hubiese conseguido producirla a gran escala.
“Gran escala” es un concepto propio de la revolución industrial, algo que está
en su esencia más profunda, porque la clave de esta nueva forma de producir es
que, a diferencia del artesano, en la industria la colaboración entre el
trabajo humano y el trabajo mecánico de las máquinas es capaz de aumentar
enormemente el número de unidades de un determinado bien. Pero, para ello, se
requiere de un gran capital, no basta sólo con disponer de
materias primas (factor tierra) y de trabajo humano
(factor trabajo) que ponga en funcionamiento las máquinas,
sobre las que recaerá gran parte del peso de la producción en masa. Es
necesario que particulares o instituciones públicas pongan sus bienes (dinero,
medios técnicos) acumulados con anterioridad para adquirir más máquinas, más
materias primas y contratar a más trabajadores. La industria moderna ha sido
clave a la hora de apuntalar el capitalismo como sistema económico predominante
en el mundo contemporáneo, no basta con materiales y trabajo para crear un
producto, sino que es necesario disponer de capital suficiente
para “poner en marcha” ese proceso de producción. El capital llegaría a ser el
factor económico dominante, poniéndose muchas veces por encima del trabajo y
suscitando en el siglo XIX la llamada cuestión social, la del
estado de muchos trabajadores de la industria que vivían en condiciones
infra-humanas porque sólo se les consideraba útiles en cuanto capaces de
producir bienes que le reportasen beneficios económicos al dueño de la fábrica.
Justamente, el progreso social ha consistido en hacer prevalecer el trabajo
sobre el capital, la dignidad de la persona que trabaja sobre el posible
beneficio económico que pueda generar o, en palabras de Juan Pablo II en su
encíclica Laborem Exercens (1981), “este principio [el de la
primacía del trabajo sobre el capital] se refiere directamente al proceso mismo
de producción respecto al cual el trabajo es siempre una causa eficiente
primaria, mientras que el capital, siendo el conjunto de medios de producción,
es sólo un instrumento”. Antes que los medios técnicos y económicos disponibles
para acometer una determinada empresa está la persona, capaz de crearlos y de
manejarlos. La persona se sitúa siempre en un orden ético y moral superior al
de las actividades y bienes que pueda producir, al poseer una dignidad
fundamental inalienable, que no se puede reducir o sustraer, porque
antes que productores somos seres personales.
Joseph Black, su mentor, y el industrial John Roebuck (que había fundado la
empresa Carron Iron Works, muy influyente en el desarrollo de la
revolución industrial en Gran Bretaña), pusieron el capital necesario para
iniciar la producción en masa de la máquina de vapor de Watt. La tarea no fue
fácil. El hecho mismo de conseguir una patente de su invento le costó a Watt
tanto tiempo, dinero y esfuerzo que tuvo que buscar trabajo como topógrafo y
agrimensor, invirtiendo también la mayor parte de su patrimonio personal en
perfeccionar y difundir su invento. Y el propio Roebuck cayó en bancarrota,
permitiendo a Matthew Boulton adquirir los derechos de patente que había
conseguido Roebuck y formar un consorcio con Watt (que llegaría a conocerse
como Boulton & Watt) que supuso un gran alivio económico para
las maltrechas finanzas de Watt.
La colaboración con Boulton le dio a Watt nuevos recursos financieros que le
permitieron contratar a algunos de los mejores expertos en el manejo del hierro
del país, construyendo sólidos cilindros metálicos de gran tamaño que
respondiesen mejor al mecanismo de funcionamiento de la máquina de vapor. John
Wilkinson sobre todo, diseñó cilindros de esas características y para 1776 (el
año de la Declaración de Independencia de los Estados Unidos
de América) las primera máquinas de vapor a escala industrial estaban ya
operativas. Su principal uso era, como en el caso de la máquina de Newcomen, el
de sacar agua de las minas. Mejoras posteriores en el diseño permitieron
emplear la máquina de vapor de Watt en tareas de tracción mecánica para el
movimiento de las ruedas de vehículos y otros dispositivos. En diseños más
avanzados se introdujo un indicador de vapor que daba cuenta
de la presión (generalmente baja, por el peligro de explosión) a la que se veía
sometido el vapor en el interior del cilindro en función de su volumen. Al
final de su carrera como inventor y científico, James Watt había creado una
máquina que era cinco veces más eficiente que el prototipo diseñado por
Newcomen décadas antes.
La empresa formada conjuntamente por Boulton y Watt tenía, en la práctica, el
monopolio de la manufactura de máquinas de vapor. La combinación del talento
técnico de Watt y de lo bien que se le daban a Boulton los negocios hizo a
ambos hombres inmensamente ricos. Los hijos de Boulton y Watt (Matthew y James
respectivamente) heredaron la sociedad establecida por ellos en 1800,
asociándose posteriormente con William Murdoch.
La carrera de inventor de Watt no concluyó, ni de lejos, al “jubilarse” de la
máquina de vapor. Era demasiado inquieto como para dejar algún invento o
dispositivo técnico sin mejoras sustanciales, y logró crear un dispositivo para
copiar cargas o mejorar el funcionamiento de las lámparas de aceite.
James Watt murió en su casa de Handsworth, en Staffordshire, el 19 de agosto de
1819. La unidad en que se expresa la potencia (que es la
cantidad de energía por unidad de tiempo) en el sistema internacional es
el wattio, nombrado así en honor de este gran inventor
escocés, y en vida fue nombrado miembro de algunas de las instituciones
científicas más prestigiosas del mundo: la Royal Society de
Londres, la Royal Society de Edimburgo y la Academia francesa
de las ciencias de París. Una gran estatua en su honor se levantó en la Abadía
de Westminster de Londres (la misma en la que están enterrados grandes
genios de la ciencia como Newton o Darwin). Aunque ha habido controversias
sobre su papel en la invención de la máquina de vapor, casi nadie duda que él
fue el artífice del condensador separado (condensándose el vapor en una cámara
separada del pistón), pero se le ha criticado por su oposición a emplear altas
presiones (comprensible en parte por el peligro real de explosión), rechazo que
habría retrasado ulteriores aplicaciones.
James Watt se sitúa en la génesis, en el origen mismo de la revolución
industrial, y ha sido una figura clave en la transición al mundo moderno, en el
que han primado sobre todo la técnica y la ciencia como motores de desarrollo.
Más tarde, la humanidad acabaría dándose cuenta de que la técnica y el
conocimiento científico por sí solos, sin un progreso ético que se manifestase
en un mayor respeto a la dignidad humana y a la integridad del mundo natural
(con la emergencia de la conciencia ecológica en la segunda
mitad del siglo XX) podría llevar, a la larga, al sub-desarrollo y a la
involución. De hecho, uno de los conceptos más interesantes y a la vez bellos,
a mi juicio, acuñados en los últimos años, es precisamente el de desarrollo
sostenible, propuesto en 1983 por la Comisión Brundtland sobre medio
ambiente y desarrollo en el seno de las Naciones Unidas, que estuvo presidida
por una mujer, la noruega Gro Harlem Brundtland (prueba de que, superado el
patriarcalismo de siglos anteriores, las mujeres están llamadas desempeñar un
rol de liderazgo en la gestación de ideas y de descubrimientos en nuestra era):
progresar de tal modo que nuestro desarrollo tecnológico, económico y social no
comprometa las necesidades de las generaciones futuras y del propio medio
ambiente que, como se ha demostrado, lejos de ser una fuente ilimitada de
recursos es una esfera de vida y de diversidad que reclama una protección
adecuada que la técnica, por sí sola y sin el concurso de la capacidad racional
y ética del ser humano, no puede ofrecer.
Capítulo 13
Adam Smith: el aduanero que defendía el libre mercado
Cuando se habla de la Ilustración como uno de los
movimientos culturales que más han influido en el mundo contemporáneo, solemos
pensar sólo en la ilustración francesa, asociada a nombres como Montesquieu
(autor de El espíritu de las leyes, que defendía la separación
de poderes frente a la concentración absolutista del Antiguo Régimen), Voltaire
(enormemente prolífico, que escribió obras inmortales como Tratado
sobre la tolerancia cuyos contenidos bien valdría repasar a día de
hoy) o Rousseau (uno de los padres de la pedagogía moderna). Si acaso, también
se recordará que personajes como Benjamin Franklin (uno de los fundadores de
los Estados Unidos de América y el inventor del pararrayos) o en el terreno de
la filosofía y de la ética, Immanuel Kant, tuvieron una relevancia no menor que
la de los grandes ilustrados franceses.
Pero además de la L’Illustration francesa y de la Aufklarung alemana,
el siglo XVIII conoció también el surgimiento de una ilustración
escocesa que resulta igualmente esencial para comprender la historia
reciente. Nombres tan célebres como los de David Hume (profundo admirador de
los grandes científicos, que aspiraba a convertirse en el “Newton” de la
moral), Thomas Reid (el fundador de la “escuela escocesa del sentido común”) o
Adam Smith pertenecen a ella, junto a figuras literarias de primera magnitud
como James Boswell, cuya Vida de Johnson (el doctor Samuel
Johnson, lexicógrafo y uno de los mayores eruditos de la lengua inglesa)
publicada en 1791 está considerada una de las cimas del género biográfico. No
es posible entender el nacimiento de la economía política y de la ideología del
libre mercado sin conocer la vida de Adam Smith, un escocés tan importante en
las ciencias sociales como su compatriota James Watt lo fue en la tecnología.
Con frecuencia, para comprender el pensamiento de un autor concreto es
necesario estudiar antes cuál era la teoría o la visión en un determinado campo
que predominaba en su época. No basta con explicar sólo lo que él afirmó, en
positivo, sino que también hay que analizar su obra “en negativo”, viendo a qué
se opuso. Y en la época de Adam Smith la teoría predominante en el campo de la
economía era el mercantilismo, que sostenía que el estado o la
instancia encargada del gobierno debía intervenir de manera proteccionista en
la economía fomentando las exportaciones (las mercancías que se venden de un
país a otro) y evitando en la medida de lo posible las importaciones (lo que se
compra desde un país a otro), controlando las tarifas y por
tanto rechazando el sistema de libertad de precios. Smith atacaría duramente
esta tendencia económica, que había alcanzado gran auge durante los siglos XVI
y XVII con las expansiones coloniales de los principales imperios europeos, y
que a su juicio ralentizaba el progreso industrial. Resumiendo mucho, podría
decirse que Adam Smith elaboró un modelo económico que satisfacía los
requisitos de una revolución industrial en boga, y que exigía cambios profundos
en los conceptos económicos y sociales que habían estado vigentes hasta el
momento. No es posible, en consecuencia, hacerse cargo de la obra de Adam Smith
sin tener en cuenta el fenómeno de la revolución industrial. Si en el método
científico, por lo general, los hechos hacen que se
busquen teorías para explicarlos, en este caso el hecho
social era la revolución industrial y Smith propuso una teoría
socio-económica adecuada para justificarla y potenciarla. Y para ello,
Smith creía necesaria una mayor “flexibilización” de la economía que subrayase
más la iniciativa individual (el “espíritu emprendedor”) que la intervención de
los estados, los gremios u otras instituciones. La explosión tecnológica y
económica que representaba la revolución industrial demandaba a su juicio una
ruptura de las ataduras que tradicionalmente se habían impuesto, desde diversos
lugares, a las actividades de intercambio entre naciones y personas.
Adam Smith nació en 1723 en Kirkcaldy, Escocia. Su padre, que también se
llamaba Adam Smith, había muerto antes de que naciera él (era hijo póstumo),
por lo que su educación más temprana se la dio su madre, Margaret Douglas. A
los 15 años logró ingresar en la Universidad de Glasgow, donde tuvo oportunidad
de conocer de primera mano las tendencias ilustradas que por entonces florecían
en el mundo académico escocés, principalmente de la mano de Francis Hutcheson,
su profesor de filosofía moral. Desde 1677, el prestigioso Balliol
College de Oxford concedía una beca anual para graduados brillantes,
la Snell Exhibition, en honor del mecenas Sir John Snell.
Smith, que había destacado como estudiante en Glasgow, la ganó y en 1740 pudo
viajar a Oxford.
Balliol College, emplazado en la Broad Street del hermosísimo
campus oxoniense, era y sigue siendo uno de los colleges más
prestigiosos de Oxford, cuyos edificios poseen una exquisita y cuidada
arquitectura perfectamente enmarcada en esa curiosa mezcla de clasicismo y
modernidad que pervive en esta ciudad inglesa. Por él han pasado varios
primeros ministros del Reino Unido, arzobispos de Canterbury y premios Nobel de
prácticamente todas las especialidades, incluyendo al político y economista
sueco Gunnar Myrdal (Nobel en 1974), uno de los teóricos más destacados de la
socialdemocracia y del estado de bienestar escandinavo y oponente ideológico de
otros importantes economistas del siglo XX como Friedrich von Hayek (con quien,
cosas de la vida, compartió el premio Nobel) y Milton Friedmann; no sin olvidar
al doblemente premio Nobel Linus Pauling (que ganó el Nobel de química en 1954
y el de la paz en 1962). Todos los años por el mes de marzo se celebraba en
Balliol una distinguida cena, la Snell Dinner, en honor de
quienes como Adam Smith habían obtenido una de las famosas becas de Snell (una
costumbre también muy típica de las universidades americanas). Podemos
imaginarnos al escocés Smith, que no venía de familia noble ni particularmente
adinerada, disfrutando de todo el esplendor que Oxford desplegaba para sus
alumnos más prometedores.
Lo cierto, sin embargo, es que Smith no aprendió mucho en Oxford. Tampoco es
que el mundo académico de Oxford o Cambridge en el siglo XVIII destacase
especialmente. La enseñanza de la época dejaba mucho que desear. Era pobre,
anticuada y poco tolerante, caracterizándose por un cierto elitismo y entre sus
alumnos predominaban futuros clérigos de la Iglesia de Inglaterra (a los
cuáqueros y a los católicos les estuvo prohibido estudiar en Oxford y en
Cambridge hasta bien entrado el siglo XIX). Toda “factoría” de funcionarios
tiende a anquilosarse en el plano intelectual. Había figuras de mayor relieve
intelectual en Escocia, París o Alemania, e Inglaterra hasta el siglo XIX no
recuperará, por ejemplo, la iniciativa en el campo de las matemáticas y de las
ciencias experimentales (aunque siempre existieran honrosas excepciones). Si
Smith quería estar en el auténtico “epicentro” de la creatividad intelectual
del momento en Gran Bretaña hacía mejor regresando a Escocia que quedándose en
Oxford. La Ilustración, más que en las aulas de Oxford o Cambridge, se estaba
gestando en clubs de Edimburgo y Glasgow como el Póker, al que
habitualmente acudían los librepensadores de aquel tiempo.
Y eso es justamente lo que hizo: dejar Oxford en 1746. De vuelta a su Escocia
natal, no transcurrió mucho tiempo hasta que Smith encontró trabajo dando
clases magistrales abiertas para el público en Edimburgo, que patrocinaba uno
de los líderes de la ilustración escocesa, Lord Henry Kames. En estas
conferencias, Smith comenzó a desarrollar un tema que acabaría siendo esencial
en su obra: el progreso de la riqueza, es decir, un estudio filosófico sobre
cómo los seres humanos pueden llegar a ser capaces de aumentar incesantemente
la riqueza y la prosperidad; estudio que, sistematizado después, ha hecho a
Adam Smith tan significativo en la historia moderna.
Un momento muy importante en su biografía es el encuentro que mantuvo con el
filósofo David Hume en 1750 y que fraguaría en una intensa amistad hasta la
muerte de Hume en 1776 (se cuenta que David Hume tuvo aún fuerzas para leer, en
su lecho de muerte, el libro fundamental de Smith sobre la riqueza de las
naciones). Hume era un filósofo empirista, que privilegiaba los razonamientos
basados en la experiencia sobre los puramente abstractos. Enemigo del
racionalismo, criticaba muchas de las teorías de los grandes filósofos del
continente europeo como puras construcciones mentales sin base en la
experiencia física. Para el escéptico Hume no era posible demostrar
racionalmente la existencia de Dios, porque una prueba semejante rebasaría la
experiencia y al pretender ir más allá de la experiencia guiándose por la sola
razón se corre el riesgo de penetrar en terreno pedregoso y oscuro, donde no
hay certezas firmes. Y lo mismo en la moral. Sólo una moral “empírica”, basada
en hechos y percepciones y no en razonamientos especulativos, podía ser válida
y universalmente aceptada. La influencia de Hume en su época fue
extraordinaria. Immanuel Kant dirá que es él quien le despertó de su “sueño
dogmático” (al que le habían llevado los filósofos racionalistas como Gottfried
W. Leibniz o Christian Wolff), y su empeño filosófico fundamental fue integrar
el racionalismo (que prevalecía en la Europa continental) y el empirismo
genuinamente anglosajón. Jeremy Bentham, el padre junto con John Stuart
Mill del utilitarismo (doctrina ética que,
simplificando mucho, mide el valor moral de una acción en función de su
utilidad), reconoce que fue la lectura de la obra de Hume la que le hizo
“sentir la fuerza” del pensamiento utilitarista, aunque ya antes el profesor de
Adam Smith en Glasgow, Francis Hutcheson, había proclamado el lema utilitarista
por antonomasia: “la mayor felicidad para el mayor número”, casi tan expresivo
como el “todo por el pueblo pero sin el pueblo” de los monarcas déspotas
ilustrados del siglo XVIII. No es difícil advertir que el enfoque que Hume daba
a las cuestiones de ética y de moral también ejercería un gran impacto en Adam
Smith.
En 1752 Smith sustituyó a su maestro Hutcheson en la cátedra de filosofía moral
de Glasgow, donde impartía clases de ética, derecho y economía política,
lecciones que luego formarían parte de su The theory of moral
sentiments, publicado en 1759. Si para David Hume y para los
utilitaristas el concepto básico de la filosofía moral era el de utilidad, para
Smith la clave residía en la simpatía entre el agente y el
espectador. El análisis de la relación entre agente y espectador y de cómo
uno empatiza con el otro, reconociendo el estado emocional de
su interlocutor, es clave en la economía. Quien produce algo debe saber
“percibir” las necesidades, aficiones o gustos del consumidor. Tiene que
aprender a “ganarse” al potencial comprador. Qué imagen dé uno de sí mismo
puede ser determinante en su éxito o en su fracaso. El futuro gran economista
Smith diseccionó minuciosamente esa “simpatía moral”.
En 1763 el político Charles Townshend, hijo del vizconde de Townshend y
poseedor de una fortuna considerable, le pidió a Adam Smith (con una suculenta
oferta, claro está) que hiciese de preceptor de su hijastro, el duque de
Buccleuch. Muchos grandes pensadores no han tenido más remedio (generalmente
por razones económicas) que emular a Aristóteles y convertirse en tutores de
sus particulares “Alejandros”. Sin ir más lejos, René Descartes dio clases de
metafísica y moral a la reina Cristina de Suecia, lo que acabaría costándole la
vida por el gélido clima de Estocolmo, excesivo para su delicada salud. En el
caso de Smith, el joven en cuestión era el tercer duque de Buccleuch y quinto
duque de Queensberry, y había sido educado en Eton, el más célebre de los
internados británicos. Como era práctica habitual entre los vástagos de la
aristocracia, emprendió un viaje por el continente Europeo acompañado, cómo no,
por su profesor. Para ello, Smith se vio obligado a renunciar a su cátedra en
Glasgow (que seguramente no le reportaba tantos beneficios como enseñar
materias elementales y un poco de urbanidad al duque) y así dedicarse a
recorrer Europa. Francia, que siempre ha sido objeto de un particular idilio de
amor-odio para los ingleses y sobre todo para los aristócratas del otro lado
del Canal de la Mancha, era el destino principal del tour. Pero
a la vez que su pupilo perfeccionaba su francés (pues no había inglés culto que
se preciase que no dominase la elegante lengua de Moliére y no incluyese algún
galicismo en su discurso), Smith aprovechaba el tiempo en cosas más útiles que
darle clases al duque, y trababa amistad con los líderes de la ilustración
francesa: el estadista Turgot, el matemático D’Alembert (editor, junto con
Diderot, de la Enciclopedia, la “Biblia” de los ilustrados) y,
más trascendental que los anteriores para los intereses científicos de Smith,
François Quesnay. Quesnay (1694-1774) era uno de los economistas más
importantes del momento y máximo exponente de la escuela fisiocrática, que
afirmaba que la riqueza de un país procedía de su producción agrícola y no
tanto, como había postulado el modelo mercantilista, de la riqueza del
gobernante o la cantidad de oro acumulada por esa nación. El énfasis en
la producción como motor principal de la riqueza sería una de
las ideas inspiradoras de las teorías económicas de Adam Smith.
Lógicamente, las ideas de los fisiócratas eran excesivamente reducidas, al
limitar la fuente de la riqueza nacional a la producción agrícola (“fisiócrata”
significa, de hecho, “gobierno de la naturaleza” en griego, en alusión a que
para esta escuela la riqueza la gobernaba la producción de bienes de origen
natural como los agrícolas) y su modelo resultaba bastante anacrónico en el
contexto de la revolución industrial.
Tras su fecunda tournée por Europa (probablemente más
ventajosa para él que para su pupilo el doble duque), Smith regresó a Escocia
por la puerta grande, ya que fue elegido miembro de la Royal Society de
Londres (la misma que había presidido Isaac Newton desde 1703 hasta su muerte
en 1727), la sociedad científica más prestigiosa del Reino Unido. Sólo le
quedaba publicar una gran obra que le inmortalizase. La obra se titularía An
Inquiry into the nature and causes of the wealth of nations, que se
suele citar simplemente como The wealth of nations. De manera
casi profética, el libro veía la luz en 1776, el año en que los padres
fundadores declaraban la independencia de los Estados Unidos de América y en el
que (hecho no menos determinante que el anterior) James Watt tenía plenamente
operativas sus primeras máquinas de vapor. Y paradojas de la vida, no mucho
después de publicar el libro, Smith fue nombrado comisario de aduanas de
Escocia, precisamente él, cuyo pensamiento económico, si por algo se había
definido, era por apoyar la eliminación de las barreras comerciales. El libro
tuvo una repercusión verdaderamente excepcional en los círculos académicos y
políticos del momento. Smith llegaría a ser rector de la Universidad de Glasgow
y moriría, tenido en la más alta estima por sus contemporáneos, el 17 de julio
de 1790 en Edimburgo.
¿Por qué era tan novedoso y a la postre decisivo el contenido de The
wealth of nations? Sencillamente porque, como hemos dicho, se trataba
del primer gran estudio teórico de la economía que tenía en cuenta una realidad
social marcada por la emergencia de la industria.
Uno de los conceptos fundamentales de la obra de Adam Smith era el de división
del trabajo. ¿Por qué la industria mejora tanto la producción de
bienes? Justamente porque en la industria se divide el trabajo. Mientras que el
artesano iniciaba, desarrollaba y completaba su obra él solo, en la industria
cada una de las etapas del proceso productivo la realizan personas distintas,
que poco a poco se van especializando en una parcela o sector
y logran adquirir una gran destreza. La colaboración de muchos “especialistas”
mejora el producto final en calidad y en tiempo. Se tarda menos y se consigue
un resultado más adecuado para las exigencias del mercado. El “divide y
vencerás” ha sido enormemente fructífero en la ciencia, la tecnología y la
economía. Como dijimos al hablar de Galileo, su gran mérito y su principal
diferencia con otros grandes genios como Leonardo da Vinci residía precisamente
en que fue capaz de “seleccionar” lo que era realmente importante en la
descripción del funcionamiento del mundo físico y distinguirlo de lo que era
accesorio, en lugar de intentar comprenderlo todo (incluyendo los detalles más
nimios). Tuvo que prescindir de ciertas cosas, atreverse a renunciar a estudiar
algunos aspectos para centrarse en los verdaderamente relevantes. La labor del
científico no iba a ser ya, como había creído Aristóteles, la de ofrecer una
explicación omnicomprensiva y total de la naturaleza, desde principios
filosóficos universales. El científico renunciaba a entender la esencia, el
auténtico significado de la naturaleza. Su interés se limitaba a lo que podía
medir, a lo cuantitativo, y en establecer relaciones matemáticas entre esas
magnitudes que podía conocer empíricamente. Esa concentración de energías
intelectuales ha sido muy eficaz para el progreso científico y tecnológico, y
conforme hemos sido más y más personas han tenido acceso a estudios superiores
y por tanto han surgido más hombres y mujeres de ciencia, ese gigantesco
esfuerzo que es la investigación ha ido recayendo sobre cada vez más hombros.
Sin la división del trabajo en la búsqueda de una visión científica del mundo,
poco habría avanzado la ciencia.
Lo mismo ocurre en la industria y en la economía. Si uno se especializa en
producir o comercializar un objeto y lo hace con tanta destreza que nadie le
supera, dominará el mercado. Si en una industria de alfileres se forma a los
trabajadores de manera que se especialicen en una u otra etapa de la
producción, aumentarán la cantidad y la calidad de los alfileres que salgan de
la fábrica. Y además, esta cadena de especializaciones acabará repercutiendo
positivamente en la economía de un país, porque irán surgiendo más y más
industrias, cada una dedicada a un sector en el que intentará sobresalir por
encima de sus competidoras. Así, de la división del trabajo se derivan tres
ventajas: el trabajador adquiere mayor destreza en su campo, se pierde menos
tiempo al no tener que ir pasando de una tarea a otra y, finalmente, se fomenta
un mayor desarrollo tecnológico, ya que se tienen que crear más y mejores
máquinas para cada etapa del proceso productivo.
En The wealth of nations, Smith articuló la teoría de la
división del trabajo con un alegato apasionado a favor del libre comercio.
Frente al mercantilismo, la bête noire de Smith, el escocés
sostiene que la fijación de tarifas proteccionistas, en lugar de defender los
intereses de una nación, representan una pesada losa para su desarrollo
económico. Pero Smith también se muestra disconforme con otro de los
presupuestos del mercantilismo: la suposición de que poseer grandes reservas de
lingotes de oro o de otros metales preciosos es imprescindible para el buen
funcionamiento de la economía de un país. En este punto, Smith influiría en
otro de los clásicos de la economía, el inglés de origen judío sefardita David
Ricardo (1772-1823).
Pero si hay una idea que ha hecho a Adam Smith inmensamente popular entre los
técnicos y los no expertos en economía es, sin duda, la de la mano
invisible. En este caso, la historia se repite. Y esa historia cuenta
que muchos conceptos y nombres que luego se han vinculado estrechamente a un
autor no siempre recibieron una atención pormenorizada por parte de ese mismo
autor, que probablemente nunca habría sospechado que esos detalles calarían más
en la opinión pública que otros a los que quizás sí concedió mayor importancia.
En el libro de Smith, el término “mano invisible” sólo aparece en una ocasión
aunque, evidentemente, la idea subyazca en toda la obra.
¿Cómo define Smith la acción de esa “mano invisible” de la economía? Hay un
texto suficientemente elocuente al respecto: “Todo individuo trabaja
necesariamente para producir la máxima renta anual a la sociedad que pueda. Es
cierto que normalmente ni pretende fomentar el interés público ni sabe en qué
medida lo está promoviendo [...]. Sólo se propone su propia ganancia, y en
esto, como en muchas otras situaciones, le guía una mano invisible
[invisible hand] para promover un fin que no formaba parte de sus
intenciones [...]. Buscando su propio interés, con frecuencia promueve el de la
sociedad de modo más efectivo que cuando de veras se propone promoverlo”.
¡Una fe ciega en esa mano invisible! Smith, el padre de la economía científica,
estaba basando su análisis en un acto de fe en algo que no podía ver. Si
Galileo había tenido que hacer un acto de fe similar en el poder de las
matemáticas (cuya eficacia sería luego demostrada por el espectacular avance de
las ciencias) para describir la realidad física, Adam Smith tenía que dejarse
llevar por la confianza en que los diferentes agentes (productores,
consumidores...) del mercado sabrían, por sí solos y de manera casi automática,
ponerse de acuerdo para que, a pesar de perseguir sus propios fines y de buscar
su interés individual, esa suma de intereses individuales fuese globalmente
positiva para la sociedad. No es de extrañar que esta declaración de
principios, que implicaba aceptar la existencia de una especie de fuerza
mágica en el mercado, levantase a la larga ciertas suspicacias sobre
si el mercado era tan apto como había creído Adam Smith para servir al bien de
la sociedad y no sólo a los intereses de cada particular. Si el aduanero Smith
defendía el libre mercado (primera paradoja), el ilustrado y científico Smith
tenía que postular ahora la existencia de un poder invisible e incontrolable
(segunda paradoja). En definitiva: que cada uno se esfuerce por ganar lo máximo
y por conseguir el mayor beneficio, porque sólo buscando sus propios fines (que
no es algo egoísta, sino una acción típicamente humana) mejorará la sociedad y
aumentará la prosperidad de todos.
La teoría de Smith, llevada al extremo, serviría para justificar la no
intervención del estado en cuestiones tan vitales como el salario mínimo, con
la excusa de que se estaría “cercenando” la libertad de los agentes económicos
al imponer una serie de condiciones que afectarían a la economía de las
empresas y de los particulares. Pero sacralizar el mercado como una especie de
reducto mágico que se guía por sus leyes propias y en las que los poderes
públicos (que expresan la soberanía popular) deben limitar su intervención no
parece la opción más sensata. Si hay algo que nos define como seres humanes más
que cualquier otra cosa es la razón, y justamente porque somos
racionales y tenemos una inteligencia teórica y práctica (que nos ayuda a
orientar nuestras acciones de la mejor forma) podemos intervenir en el mercado,
porque el mercado es obra de personas. Refugiarse en la “libertad” como
salvoconducto o cheque en blanco para acometer cualquier acción en el campo
económico es olvidar que la libertad, sin la responsabilidad social que
lleva pareja por ser una libertad vivida en sociedad, puede convertirse en un
arma de doble filo que reporta beneficios a unos mientras encadena a otros. La
defensa tan acérrima que a veces se hace de la libertad individual en el campo
económico puede resultar una táctica, una sutil maniobra para sostener una
defensa encubierta de los propios intereses sin tener en cuenta los del resto.
Confiar sin más en la libre iniciativa como motor único y exclusivo del
progreso de las sociedades, sin los ajustes que la razón y los acuerdos
democráticos pueden introducir para hacer que los elementos positivos de esa
iniciativa económica lleguen a todos, conduce al conformismo, a creer que las
cosas, como están, están bien y no necesitan mejora. Semejante resignación no
es compatible con el esfuerzo por superar barreras y romper tabúes que ha
caracterizado la historia de las sociedades. Con el conformismo no hay progreso.
Libertad de iniciativa, sí, pero guiada por la razón común y no por una mano
invisible semi-divina.
Es cierto que Adam Smith, más que proponer una política social concreta (a
saber, la no intervención de los estados en la libre iniciativa de los
individuos), simplemente constataba una realidad: que los individuos actúan
persiguiendo su propio interés y, sin embargo, las cosas funcionan. Pero
funcionan o no funcionan, porque a veces no han funcionado y han supuesto
graves trabas para el progreso de las sociedades. Por esa regla de tres, no
habría estado de bienestar ni derechos laborales tan desarrollados como
actualmente existen en muchos países. Dejar libertad absoluta, por ejemplo, en
la contratación, daría a algunos “manga ancha” para pagar salarios bajísimos o
eludir la contribución a la seguridad social. También es verdad que para Adam
Smith no todo interés individual era bueno. Lo único que decía es que el
interés personal no tenía por qué identificarse con el egoísmo, como si fuese
algo automáticamente malo. Y aquí no le faltaba razón: perseguir un interés
legítimo puede ser positivo para todos y no sólo para el que lo ansía. Y por
último, no podemos negar que el mercado (el espacio de encuentro entre los
productores y los consumidores) ha demostrado en no pocas situaciones una
capacidad asombrosa de corregir las irregularidades y los desperfectos. Pero a
veces no, y de hecho cuando hay casos de monopolio por parte de una empresa se
le suele exigir al estado que intervenga o al menos que apruebe una legislación
estricta en este asunto. Nadie niega que, por ejemplo, la competencia entre
productores de un determinado objeto (el aumento de la oferta) se traduce en
una bajada de los precios y que en este sentido el mercado se va auto-regulando
por sí solo. Pero tampoco debe olvidarse que una política que optase
unilateralmente por el laissez-faire (“dejar hacer”) sin
intervención de la sociedad, podría generar desigualdades y fricciones. El
progreso de un país residirá justamente en cómo sepa conjugar el respeto a la
iniciativa de los individuos con el compromiso por el bienestar de todos, que
se manifiesta en terrenos como la sanidad, la educación u otros servicios
sociales.
Sin la figura de Adam Smith es imposible entender el desarrollo de la economía
moderna, y su influjo fue determinante en la obra de los grandes economistas
del siglo XIX (David Ricardo, Robert Malthus, Karl Marx), estuviesen o no de
acuerdo con sus principales postulados. Por el impacto de su pensamiento en el
desarrollo del mundo contemporáneo, por su amplitud de miras y por su capacidad
para reflexionar sobre la realidad social superando las fronteras conceptuales
e ideológicas que existían en su tiempo, Adam Smith ha sido una auténtica mente
maravillosa que ha cambiado la historia.
Capítulo 14
Mendel (1822-1884) y la genética.
Si, en opinión de muchos, la disciplina científica
que ha protagonizado el siglo XX ha sido la física (con dos grandes
revoluciones, la de la mecánica cuántica y la de la teoría de la evolución,
entre sus logros más destacados), el siglo XXI es y con toda seguridad seguirá
siendo el siglo de la genética.
La genética, esa parte de la biología que nos resulta tan fascinante pero al
mismo tiempo tan compleja para los no iniciados, está en la base de grandes
adelantos médicos y representa una de las ramas más dinámicas y prometedoras de
las ciencias de la vida. Y a diferencia de otros campos, donde buscar un
artífice o creador es una tarea bastante difícil por tener un origen a menudo
difuso, en el caso de la genética el padre tiene nombre y apellido bien conocidos:
Gregor Mendel.
¿Quién no ha oído hablar del monje Mendel y de sus experimentos con guisantes?
Ese humilde monje del antiguo imperio austro-húngaro hizo contribuciones
fundamentales al progreso de la ciencia, gracias a una inusual mezcla de
intuición y de trabajo sobre el terreno que le llevaron a formular sus famosas
leyes y a sentar las bases de una revolución que todavía hoy sigue dominando
buena parte del panorama científico. La mayoría de las revistas científicas de
alto índice de impacto, como la británica Nature, tiene una
publicación dedicada específicamente a cuestiones genéticas (en este
caso, Nature Genetics), lo que da sólo una idea de la
importancia de esta área. Si estamos orgullosos por haber sido capaces de
conocer la estructura de la materia y del átomo, las leyes que gobiernan el
movimiento de los cuerpos o la evolución del universo y de las especies, no
menos debemos estarlo por haber conseguido profundizar, cada vez con mayor
hondura, en lo que antes era un auténtico misterio: el mecanismo que rige la
herencia y la variabilidad en los organismos vivos.
Antes de Mendel, poco se sabía al respecto. Darwin, el gran genio de la
biología del siglo XIX, no conocía las leyes de la genética. En su obra The
Variation of Animals and Plants under Domestication, de 1868, propuso
una teoría que a la larga se ha venido llamando “teoría pangenética”. Darwin
sostenía que los cuerpos celulares derramaban una serie de “gémulos” (gemmules en
inglés) que iban a parar a los órganos reproductivos antes de la fertilización.
De esta forma, cada célula del cuerpo participaba, a su manera, en la
generación de la descendencia. La integración de los nuevos descubrimientos
genéticos de Mendel con la biología evolutiva de Darwin y los métodos
estadísticos desarrollados por Francis Galton (nieto, como Darwin, del filósofo
y científico Erasmus Darwin) no llegó hasta bien entrado el siglo XX, con la
llamada “síntesis neo-darwiniana” (debida a autores como Morgan, Dobzhansky o
Mayr) que redefinió las claves de la evolución natural al conectar dos
conceptos claves de las ciencias de la vida: las unidades de la evolución
(los genes) y el mecanismo de la evolución (la selección
natural).
Mendel fue un genio ignorado en vida que triunfó ya muerto. Vivió prácticamente
aislado de la comunidad científica y efectuó su trabajo solo, publicando en
revistas poco influyentes. Y sin embargo, es el padre de la genética y los
historiadores han reconocido con justicia el valor de sus aportaciones.
Quien iba a nuevo horizonte a las ciencias naturales nació el 20 de julio de
1822 en Heinzendorf (ahora Hyncice), actual República Checa y entonces parte
del imperio austro-húngaro, en el seno de una familia de lengua alemana. Su
nombre de pila era Johann Mendel. Su familia era humilde. De niño, Mendel tuvo
que trabajar como jardinero (claro preludio de lo que más tarde tendría que
hacer para descubrir las leyes de la herencia), y más tarde estudió en el
Instituto filosófico de Olmütz. En 1843, con veintiún años de edad, decidió
ingresar en abadía de Santo Tomás de Brno (Brünn), perteneciente a la orden de
los agustinos, monjes y monjas que siguen la regla de San Agustín de Hipona. La
lista de agustinos famosos incluye al papa Adriano IV (1100-1159, Nicholas
Breakspear, el único papa inglés hasta la fecha), al papa Eugenio
IV(1383-1447), al célebre humanista, teólogo y estudiosos del Nuevo Testamento,
el holandés Erasmo de Rotterdam, y a su contemporáneo Martín Lutero
(1483-1546). Como consecuencia de su vocación monástica, Mendel adoptó el
nombre de “Gregor”.
En 1851 sus superiores lo enviaron a estudiar a la Universidad de Viena. Este
hecho era y sigue siendo una práctica relativamente común entre las órdenes
religiosas dedicadas a la enseñanza como los agustinos, que mandan a algunos de
sus miembros más capaces a formarse en las universidades para luego poder dar
clases en sus colegios e institutos. No consta que fuese un estudiante
particularmente brillante: su genio estaba reservado para más adelante. Tampoco
Einstein destacó como alumno. La vida intelectual es suficientemente rica como
para huir de los estereotipos que marcan que un buen estudiante necesariamente
va a triunfar en el campo del conocimiento. Hay de todo.
Lo cierto es que Mendel recibió el estímulo tanto de sus profesores
universitarios como de sus compañeros en el monasterio de Brünn para investigar
el mecanismo de la herencia biológica. Disponía de dos cosas nada desdeñables:
tiempo y espacio. Tiempo, porque los monjes, según la consigna de San Benito de
Nursia (ya en el siglo VI), deben orar y trabajar (el famoso lema del ora
et labora) y huir de la ociosidad. Espacio, porque los jardines de un
monasterio del tamaño y del prestigio de Brünn le permitían tener
simultáneamente distintos cultivos de especies de guisantes en los que basar
sus conclusiones.
Entre 1856 y 1863, Mendel llegó a cultivar hasta 29.000 plantas de guisante de
la especie Pisum Sativum, lo que da idea de su rigor y
tenacidad, totalmente asombrosos. Cuando hoy en día los medios de comunicación
nos tienen acostumbrados a miles de estudios estadísticos y sociológicos que
con frecuencia se presentan como la última palabra en torno a una determinada
cuestión, tenemos que pensar que la mayoría de esas encuestas no alcanzan ni de
lejos el número de muestras empleadas por Mendel, a pesar de que los medios
técnicos actuales facilitan mucho el trabajo.
Tan ardua investigación quedó reflejada en un artículo, “Experimentos sobre la
hibridación de las plantas”, que leyó en dos encuentros que tuvieron lugar en
la Sociedad de historia natural de Brünn, en Moravia, en 1865, publicados en
los Verhandlungen des naturforschenden Vereins Brünn, que era
la revista periódica de esa academia científica.
El artículo pasó totalmente desapercibido. Sólo fue citado tres veces en los
siguientes treinta y cinco años (es decir, entre 1865 y 1900), y las pocas
referencias que se hicieron de él fueron sumamente críticas. En cualquier caso,
la moderna historiografía considera que en ese artículo se encuentra la base de
los hallazgos de Mendel y el “embrión” de la genética moderna.
El nombramiento como prior del monasterio en 1868 supuso que Mendel abandonase
gran parte de su carrera científica, obligado a preocuparse más del monasterio
y de sus miembros que de los guisantes, en un momento, además, en que tenía que
discutir con el gobierno civil, que pretendía fijar impuestos especiales a las
instituciones religiosas. La creatividad científica de Mendel se vio absorbida
por sus responsabilidades administrativas, burocráticas y espirituales. Murió
el 6 de enero de 1884 en el mismo monasterio en el que había descubierto las
leyes de la herencia a causa de una nefritis crónica.
Si los trabajos de Mendel habían pasado desapercibidos para la comunidad
científica, ¿cómo es que hoy se reconoce su papel en el nacimiento de la
genética y hay una serie de leyes biológicas que llevan su nombre? En uno de
los actos de mayor honestidad intelectual que se han dado en la historia de la
ciencia, el holandés Hugo de Vries (1848-1935) y el botánico alemán Carl
Correns (1864-1933), que estaban realizando investigaciones similares a las de
Mendel, buceando en la bibliografía disponible de los artículos publicados que
tratasen sobre la transmisión de los caracteres hereditarios, “redescubrieron”
el que Mendel había presentado en 1865, y no tuvieron ningún problema en
aceptar la prioridad del monje agustino. Enseguida se dieron cuenta de que
Mendel había identificado, treinta y cinco años antes, lo que ellos buscaban:
las leyes de la herencia. Podrían no haberlo hecho, aunque seguramente los
historiadores habrían acabado sabiendo la verdad, pero lo innegable es que
desde el primer momento admitieron el mérito de Mendel. Después de una agria
polémica entre los defensores de las teorías de Mendel y los que preferían una
aproximación más “estadística” al fenómeno de la herencia biológica
(principalmente autores ingleses como William Bateson, que acuñó el término
“genética” para la nueva disciplina en ciernes), ambos enfoques fueron unidos
por R.A. Fisher en 1918.
¿Qué descubrió exactamente nuestro monje moravo? Lo que se conoce como
las leyes de Mendel. Estas leyes se pueden exponer del
siguiente modo:
La ley de la segregación o primera ley de Mendel afirma que
las variaciones que se producen en las características heredadas (el que los
ojos sean de tal o cual color, por ejemplo) están causadas por la existencia de
versiones alternativas de los genes. Esas versiones se llaman alelos,
que representan las diferentes versiones posibles de los genes que pueden
definir una misma característica. Existe un gen específico para el color de los
ojos en cada persona, pero hay distintos alelos según las posibilidades que
finalmente pueda adoptar el color de los ojos.
Todo organismo hereda dos alelos para cada característica biológica concreta
(como pueda ser el color de los ojos): un alelo procederá de la madre y otro
del padre. Los alelos, lógicamente, pueden ser idénticos (producirían el mismo
efecto a nivel de características biológicas manifiestas) o distintos. Si ambos
alelos son diferentes (por ejemplo, un alelo implicaría tener ojos azules y el
otro tenerlos oscuros), sólo uno de los dos alelos acabará expresándose en el
organismo que resulte de la fecundación de los dos progenitores. ¿Cuál de
ellos? El rasgo dominante (producto del gen codificado por un
alelo en particular) será el finalmente transmitido. Por su parte, el alelo que
codifique la transmisión del rasgo recesivo no influirá
sensiblemente en la apariencia física (o fenotípica) del nuevo
organismo. Uno de los principales méritos científicos de Mendel consiste en
haber entendido adecuadamente la distinción entre rasgos dominantes y recesivos
y el modo en que acaban transmitiéndose las características biológicas, no por
“mezcla” entre rasgos sino por preponderancia de uno sobre otro. Los dos
rasgos, el dominante y el recesivo, están presentes en la esfera del genotipo,
pero sólo uno de ellos acaba expresándose fenotípicamente (es
decir, manifestándose visiblemente: en griego feno significa
apariencia). Pero los rasgos recesivos se siguen transmitiendo a nivel del
genotipo, aunque por el momento no logren expresarse en las características
“físicas” del nuevo organismo por tener que competir con un rasgo predominante.
Si bien se han descubierto especies biológicas con rasgos “intermedios” que no
responden a una relación estricta de dominio y recesión (la denominada
“dominancia incompleta”) o que incluso se explican en términos de “codominancia”,
las conclusiones de Mendel tienen un amplio rango de aplicación y, con matices,
se siguen manteniendo como sustancialmente válidas.
El hecho de que cada gameto (el de la madre por un lado y el del padre por
otro) contenga sólo un alelo para cada gen permite que ambos alelos (el del
padre y el de la madre) acaben combinándose en el “hijo” y así se asegura la
variabilidad genética de las especies, clave en su supervivencia y en su
desarrollo evolutivo.
La segunda ley de Mendel, propiamente la ley de la herencia, afirma
que el surgimiento de un determinado rasgo se hace con independencia de los
demás rasgos, no viéndose mutuamente afectados. La herencia es “genética” en
sentido estricto, ya que cada rasgo se transmite por un mecanismo autónomo, por
unidades, no influyendo un rasgo sobre el otro. El color del ojo no repercute
sobre el del pelo, porque están codificados por genes distintos que se
transmiten independientemente. La biología moderna ha demostrado, sin embargo,
que esto sólo es verdadero para aquellos genes que no estén ligados. En
sus numerosos experimentos con guisantes, Mendel vio que al mezclar un rasgo
siempre se obtenía una relación de 3 a 1 entre el fenotipo dominante y el
recesivo, pero al mezclar dos rasgos (el llamado “cruce dihíbrido”) la relación
se elevaba a 9:3:3:1.
Supongamos que la piel de un animal puede adoptar dos colores: marrón (el
dominante) o blanco (el recesivo). Y por otra parte, la longitud de su cola
puede ser corta (dominante) o larga (recesivo). ¿En qué proporciones se
obtendrán animales de esta especie que, respectivamente, muestren piel marrón y
cola corta, piel blanca y cola corta, piel marrón y cola larga y piel blanca y
cola larga, que son las cuatro combinaciones posibles entre las dos
características? Si los padres son homocigóticos para cada
rasgo (es decir, uno de los progenitores tiene, para el color de la piel, ambos
alelos dominantes -piel marrón- y para la longitud de la cola, ambos alelos
recesivos - cola larga-; y el otro a la inversa: para el color de la piel tiene
ambos alelos recesivos - piel blanca- y para el tamaño de la cola ambos alelos
son dominantes -cola corta), en la primera generación, los hijos serán heterocigóticos y
sólo mostrarán los rasgos dominantes (los rasgos recesivos se habrán transmitido
también, pero sólo en el genotipo, no en el fenotipo, por lo que no serán
visibles). Es decir, podremos tener hijos con una combinación de todos los
alelos (aunque ellos, físicamente, sólo manifiesten los rasgos dominantes):
piel marrón, piel blanca, cola corta, cola larga. Los padres eran
homocigóticos, con los dos alelos iguales para una misma característica; los
hijos no: pueden transmitir ambos alelos para cada característica.
¿Y qué ocurrirá en la segunda generación, esto es, en los “nietos”, si los
hijos se unen entre ellos? Los guisantes de Mendel nos dan la respuesta: la
relación será de 9:3:3:1, teniendo lugar todas las combinaciones del color de
la piel y de la longitud de la cola. Nueve de ellos manifestarán
(¡fenotípicamente!) los rasgos dominantes (piel marrón y cola corta), tres
tendrán piel blanca y cola corta, tres piel marrón y cola larga (alternancia
del rasgo recesivo en uno de los genes y del dominante en el otro,
respectivamente) y uno, en su aspecto físico, sólo mostrará rasgos recesivos:
piel blanca y cola larga.
¿Y por qué estas proporciones en concreto? Son las que Mendel encontró
combinando cientos de guisantes con características distintas. Algunos autores
han acusado a Mendel de falsificar sus datos y de caer en mala práctica
científica. Fisher consideró bastante poco plausible la relación 3:1 obtenida
por Mendel en la mezcla de un mismo rasgo entre los individuos con fenotipo
dominante y recesivo. Sin embargo, modernamente se han reproducido muchos de
los experimentos que efectuó Mendel y se ha concluido que sus resultados eran,
en lo fundamental, correctos, por lo que sería injusto llamarle fraudulento.
Probablemente, Mendel “intuyó” (recordemos que su trabajo supuso una
interesante unión de previsión teórica y habilidad experimental) que la
relación final se aproximaba a 3:1, y aunque no tuviese una certeza total de
que ésa era la proporción, decidió “arriesgarse” y proponerla como resultado
definitivo.
En cualquier caso, Mendel descubrió, nadie lo duda, las leyes de la herencia,
pero no fue hasta décadas más tarde que los científicos han podido revelar los
mecanismos biológicos que están en la base de esas leyes de la herencia. Hoy
sabemos que el núcleo de una célula (unidad funcional y estructural en los
seres vivos) está hecho de diversos cromosomas, que son los
auténticos responsables de “transportar” los rasgos genéticos. Cada cromosoma
tiene dos cromátidas. Las células reproductivas suelen tener
sólo una de esas dos cromátidas, y al fusionarse dos de estas células reproductivas,
el nuevo organismo tiene la mitad de los genes de la madre y la mitad del
padre. Este intercambio genético que se produce en muchas especies durante la
reproducción ha demostrado ser una excelente estrategia evolutiva, al permitir
la variabilidad dentro de la especie.
El monje moravo Gregor Mendel sentó así las bases de la genética, ciencia que a
la larga se convertiría en una de las hazañas más notables de la insaciable
inteligencia humana.
Capítulo 15
Thomas Edison enciende una nueva luz en el Mundo…
Difícilmente se encontrará en la historia de la
humanidad un inventor tan prolífico como Thomas Alva Edison. En vida registró
más de mil patentes, algunas de las cuales no sólo impulsaron definitivamente
la segunda revolución industrial como una especie de nuevas “máquinas de
vapor”, sino que llegaron a calar tan profundamente en nuestras vidas
cotidianas que no es de extrañar (aunque sí discutible) que en su momento la
revista Life considerase a Edison la persona más influyente de
los últimos mil años. Edison ha pasado a la imaginería popular como una mente
infinitamente creativa y de una originalidad desbordante, que podía alumbrar
tantas ideas como sus bombillas iluminaban casas y ciudades, capaz de concebir
nuevos artilugios que facilitasen la vida a los demás. Para muchos es el
prototipo del espíritu emprendedor americano, que llevó a un niño poco o nada
brillante en los estudios a fundar lo que sería el germen de una de las
principales compañías del país (la General Electric, hoy la
segunda empresa del mundo por capitalización bursátil, delante incluso de
Microsoft) y a situarse en la cima del liderazgo tecnológico de Norteamérica y
de Europa a finales del siglo XIX y principios del XX, amasando una inmensa
fortuna que él reinvertía constantemente para financiar nuevos inventos. A
partir de Edison, los inventos ya no serían vistos como simples golpes de
suerte, ideas felices que les surgían repentinamente a ciertos afortunados,
sino como un proceso cuasi-industrial, de producción en masa, donde tan importante
como la inspiración iba a serlo la organización y el trabajo en equipo.
Que alguien carente de una formación científica y académica sólida lograse todo
eso es una prueba más que suficiente de los innumerables recursos de que
dispone el genio humano para avanzar y progresar. De nada valen los prototipos,
los clichés, los itinerarios rectos y horizontales para alcanzar una meta
partiendo desde una salida. Siempre hay gente que se los salta y que se mueve
“en vertical”. La vida y las personas se resisten a clasificaciones de
catálogo: para ser inventor hay que hacer primero tal o cual cosa, para
triunfar en los negocios hay que estudiar tal o cual máster... La experiencia
parece resistirse a satisfacer esa necesidad tan humana de buscarle, a todo,
reglas y métodos. Por eso, para disfrutar con la ciencia y con la historia del
conocimiento no hay nada mejor que leer historia de la ciencia y biografías de
los descubridores e inventores. Así podemos admirar la riqueza y la fecundidad
de cada científico y de cada pensador, su singularidad y su carácter único e
irrepetible.
Thomas Alva Edison nació el 11 de febrero de 1847 en Milan, un pequeño
pueblecito de Ohio, al nordeste de los Estados Unidos, que como es de esperar
está tan orgulloso de su hijo más ilustre que le ha dedicado una casa-museo en
la que muestra algunos de sus primeros inventos. Era el pequeño de siete
hermanos. Pero Edison no se crió en Ohio, sino en Port Huron, en el estado
fronterizo de Michigan. Prácticamente todo el mundo ha oído hablar del fracaso
de Edison en la escuela. Siempre que se quiere proponer un ejemplo de futuro
triunfador dotado de una inteligencia excepcional que falló estrepitosamente en
la escuela (o, a la inversa, que la escuela falló estrepitosamente con su
educación) se acude a Thomas Edison. Y no es para menos. Oficialmente, Edison
sólo estuvo matriculado tres meses en el colegio. Ésa fue su formación
“curricular”, porque Edison recibió otro tipo de educación. Si un profesor de
griego ha pasado a los anales de la futurología por decirle a Einstein que
nunca llegaría a nada, uno de los maestros de Edison podría entrar en las
crónicas de la psicología y de la historia de los recursos humanos por llamarle
atontado. No hay que ser injustos, en cualquier caso, con ambos tutores, porque
ni Einstein ni Edison mostraron una especial predisposición para el aprendizaje
“oficial” en la escuela, por lo que hasta cierto punto es comprensible que
algunos sospechase de sus capacidades intelectuales. En todo caso, la historia
posterior acabaría disipando toda duda.
Como se veía que la escuela no era lo suyo, su madre (Nancy Matthews Edison) se
encargó de enseñarle en casa. Las vidas de muchos grandes genios no se
entienden sin el papel que desempeñaron sus padres y madres en ellos. Si Mozart
no habría sido Mozart sin la figura de su padre y también músico Leopold,
probablemente Edison (emprendedor, autónomo, dotado de una gran iniciativa)
tampoco habría sido Edison sin su madre Nancy. Esto no ha ocurrido en otros
casos, al menos que se sepa, porque no en todas las biografías de personajes
relevantes se percibe una influencia tan destacada de sus progenitores. Edison,
más que “un hombre hecho a sí mismo”, es un “hombre hecho por su madre”, y no
es un juego de palabras ni una afirmación obvia. El propio Edison nunca tuvo
inconveniente en reconocer que su madre había sido la causa de su éxito, y
siempre sintió que ella confiaba tanto en sus posibilidades que nunca quiso
decepcionarla, y esto le ayudó a perseverar en sus objetivos.
Edison no fue a la universidad. Por inquietud y por economía familiar estaba
claro que no era el lugar más apropiado para una persona como él. Se puso
enseguida a trabajar, y tuvo tantas ocupaciones que también sería difícil dar
en la historia de los inventores y científicos con una experiencia laboral tan
dilatada como la suya. Fue vendedor de periódicos en los trenes que iban de
Port Huron a Detroit. Cuando vemos una típica película estadounidense
ambientada a finales del XIX o a principios del siglo XX en la que sale un simpático
chico joven con una gorra y una bufanda que se mueve por los andenes de la
estación anunciando los titulares del periódico que ofrece, no estaría de más
pensar que el genial Thomas Edison tuvo ese oficio antes de inventar el
fonógrafo o la bombilla, porque nunca se sabe a lo que cada uno puede llegar.
Con ése y con otros muchos trabajos a tiempo parcial Edison fue ahorrando y con
eso pudo poner en práctica sus propuestas de inventos. Pero uno de los puestos
más interesantes al que accedió Edison fue el de telegrafista. Aunque el
telégrafo eléctrico tiene una historia larga y compleja (en la que participó un
científico español de finales del siglo XVIII, Francisco de Salva), el célebre
Samuel Morse patentó un dispositivo en 1837 en los Estados Unidos. Morse
(17911872) fue un pintor y polémico inventor de Massachusetts al que se le ha
acusado reiteradamente de robar ideas a otros y de atribuirse méritos
inexistentes, pero lo cierto es que participó activamente en el desarrollo de
la telegrafía por cable y en la creación (junto con su colaborador Alfred Vail)
del famoso código morse, en el que se alternaban puntos y
rayas (secuencias cortas y largas) para representar letras y números y así,
usando este lenguaje, mandar misivas rápidamente a lugares lejanos. Edison se
mostró entusiasmado con la idea de ser telegrafista, y al poco se había
convertido en uno de los telegrafistas más rápidos de América. La anécdota
cuenta que la velocidad con que transcribía mensajes al código morse era tan
alta que cuando recibió la noticia del trágico asesinato en Washington del
presidente Abraham Lincoln en abril de 1865, Edison, que por entonces tenía
dieciocho años, pasó el mensaje tan rápido al morse que no se dio cuenta de la
importancia de la noticia. Ni siquiera algo así le distraía. Pero su éxito como
telegrafista tropezó con su pasión por la ciencia, tanto que fue despedido de
la Western Union porque mientras manipulaba ácido sulfúrico
una noche en su oficina lo derramó y acabó llegando al despacho del jefe.
Para un joven de tan sólo veinte años y con toda una vida por delante ese
despido no podía convertirse en trauma. Todo menos frustrarse, podría ser el
lema de Edison. No importaba que estuviese en la miseria y casi sin empleo.
Siempre encontraba el modo de salir adelante y de dedicar todo el tiempo que
tenía a inventar. Y al poco su fábrica de ideas comenzó a dar resultados: en
1869 patentó un sistema de recuento eléctrico de votos, creyendo que a sus
señorías les sería de utilidad. Se equivocaba. Un diputado le confesó que el
invento no hacía ninguna falta y que acelerar las votaciones no serviría de
nada. ¿Otro varapalo a la carrera de Edison? ¡En absoluto! El mundo parecía
encaminarse a una nueva era, a una nueva revolución industrial, y esta
efervescencia tecnológica pedía a gritos una gran figura a modo de líder.
Edison estaba preparado para asumir esa función. Así que debió de pensar, como
más tarde Elvis Presley, “it’s now or never”, ahora o nunca, y se puso manos a
la obra.
Y llegamos al primer gran invento de Edison: el fonógrafo. Algo
que hoy nos resulta tan común y cotidiano (un aparato que permita reproducir
sonidos y canciones) no existía en tiempos de Edison, y no porque a nadie se le
hubiese ocurrido que un dispositivo así sería enormemente útil. En 1857, el
francés Édouard-Léon Scott de Martinville había patentado lo que llamó phonautograph, capaz
de registrar el sonido pero no de volver a reproducirlo. Y entró en escena
Edison. El esquema era relativamente sencillo: había que construir algo capaz
de trasladar el sonido (ondas acústicas) a un medio que no fuese el aire. Si
las ondas acústicas se empleasen para producir vibraciones mecánicas, el sonido
quedaría “grabado” como una vibración mecánica, y el fenómeno podría utilizarse
a la inversa para reproducir el sonido: las vibraciones mecánicas registradas
podrían usarse para emitir ondas acústicas y así escuchar esos mismos sonidos.
El fonógrafo (foné-grafé: “escritor de voz” en griego, porque,
efectivamente, la voz -onda sonora- se transcribía a un medio distinto del
aire) de Edison grababa y reproducía.
Edison consiguió llevar ese esquema a la práctica en 1877. El artilugio
consistía en un estilete que, gracias al sonido, adquiría la energía mecánica
necesaria para registrar las vibraciones acústicas en un cilindro de cartón
recubierto con estaño (que luego sería sometido a sucesivas mejoras, como usar
cera sólida). El invento de Edison maravilló a sus contemporáneos. Nadie antes
que él había hecho “hablar” así a una máquina tan aparentemente elemental. Una
de las aspiraciones milenarias de la humanidad (que las palabras no se las
llevase el viento) se veía ahora cumplida. Si con la escritura se había logrado
preservar todo un universo (el de la mente) en un medio objetivo y de acceso
para todos, con el fonógrafo era posible “revivir” el momento mismo en que esos
pensamientos, ideas o emociones fueron expresados, revelando su auténtico
significado. El viejo sueño de viajar al pasado empezaba a hacerse realidad. Al
leer un texto de una civilización antigua volvemos a dar “vida” a esa cultura y
a esa gente que nos precedió en el tiempo. Pocas cosas hay que sean tan
hermosas como esta capacidad cuasi-divina de “recrear”, de infundir “aliento” a
lo que parece estar muerto, de hacer presente el pasado. ¿A quién no le habría
gustado escuchar la voz del mismísimo Cicerón o escuchar en directo a
Farinelli? Si en su época y en muchas otras hubiese existido el fonógrafo,
tantos enigmas de la historia o tantos acontecimientos y personalidades que
siempre nos han fascinado quizás hubiesen dejado de serlo. Y aquí reside la
grandeza y la pequeñez de ideas e inventos tan geniales como el fonógrafo,
porque al acercarnos el pasado también hacen que el pasado pierda misterio. No
nos impresiona oír las voces de personajes famosos del siglo XX porque hemos
tenido oportunidad de escucharlas en innumerables ocasiones en los medios de
comunicación. Pero como ese dilema existe, en realidad, con toda nueva
invención o con todo cambio de relevancia, lo importante es que sepamos utilizar
lo que ha costado tantos siglos y tanto esfuerzo crear para conocer y
progresar.
Edison era toda una celebridad. Se le apodó el “mago de Menlo Park” por su
asombrosa proeza, hasta entonces nunca vista. Pero Edison tenía poco de mago:
“el genio es un uno por cierto inspiración y un noventa y nueve por ciento
sudor” (en inglés suena mejor porque la frase de Edison juega con los
términos inspiration y perspiration). Los suyo era
trabajar y trabajar, eso sí, con una mente formidable. Justamente es en Menlo
Park donde Edison instaló su “cuartel general”, su “fortín” para fabricar ideas
magníficas y maravillar a América y a Europa, el laboratorio de donde saldrían
algunos de sus inventos más aclamados. Menlo Park estaba situado en Raritan
Township, que en 1954 tomó el nombre de “Edison” en honor a nuestro inventor.
De hecho, en esta ciudad del estado de Nueva Jersey se levanta la Edison
memorial tower para demostrar que la posteridad ha reconocido los
méritos de Edison. Los monumentos que hemos erigido a lo largo de la historia
como tributo a quienes más admiramos nos abren a uno de los sentimientos más
elevados que tenemos los seres humanos: el de agradecimiento. De pocas cosas
podemos estar tan orgullosos como de esa posibilidad de agradecer a quien ha
hecho algo bueno por nosotros. Con ello demostramos que nuestras acciones no
miran sólo hacia delante, hacia el futuro, hacia los distintos fines que nos
vamos proponiendo, sino que saben buscar las raíces y los orígenes de mucho de
lo que tenemos hoy. Vivimos también en el pasado, y el olvido es siempre una de
las mayores tragedias que pueden afligirnos. Y recordar a los genios de la
ciencia y a los maestros del pensamiento mostrando nuestra sincera gratitud y,
más aún, enmendar esos olvidos en los que hemos caído no pocas veces, haciendo
justicia a los grandes hombres y mujeres que llevaron el conocimiento a
horizontes nuevos y mejoraron nuestras vidas con sus inventos, es una acción
verdaderamente noble.
Menlo Park no era un simple laboratorio para Edison: era una auténtica
industria dedicada a la producción de inventos en la que Edison se había
rodeado de ingenieros y científicos de un altísimo nivel profesional que le
asistieron en muchas de sus aportaciones. Emulaba, en su campo, a la cadena de
montaje de Henry Ford que revolucionó la industria del automóvil, aunque aquí
lo que se producía en masa no eran coches sino inventos de muy diversa índole.
Hoy en día nos hemos acostumbrado demasiado a pronunciar (en ocasiones a la
ligera) palabras como “investigación”, “desarrollo”, “innovación”. El I + D + i
se ha convertido en un tópico que hay que lanzar obligatoriamente en todo
discurso que pretenda ser moderno y quiera dar la impresión (o la ilusión) de
espíritu emprendedor. El I + D + i ha acabado hechizándonos, de manera que
prácticamente no existe negocio o institución que no tenga entre sus objetivos
esas siglas. Y es que el embrujo que pueden llegar a ejercer sobre nosotros
ciertos términos a base de repetirlos es increíble. Si hay tantas empresas que
se vanaglorian de priorizar el I + D + i entre sus objetivos por más que no
esté tan claro que hayan aportado algo realmente novedoso e innovador a la
sociedad que otros no hubiesen obtenido antes, seguramente es porque hemos
usado excesivamente esos conceptos, y al final los hemos malgastado. En Menlo
Park sí que se privilegiaba la investigación, el desarrollo y la innovación.
Toda la compañía se centraba exclusivamente en eso: en estar constantemente
innovando. Y los frutos de semejante ideario hablan por sí solos.
Y si hay un artilugio duradero, influyente y exitoso que saliera de Menlo Park,
ése es la bombilla. La historia se repite por enésima vez.
Edison no fue el primero en inventar la bombilla eléctrica que reemplazaría a
las lámparas de gas en el alumbrado de las casas y de las ciudades. Tampoco
Galileo inventó el primer telescopio ni James Watt la primera máquina de vapor.
Pero si Galileo fue el primero que supo utilizar adecuadamente el telescopio
con fines científicos y James Watt en construir una máquina de vapor con un
rendimiento eficaz, Edison fue la primera persona en producir una bombilla
eléctrica comercializable. Los prototipos previos, diseñados con anterioridad a
Edison, no eran tan seguros. Muchas de esas bombillas nunca habrían alcanzado
la misma difusión que las de Edison (en realidad no la alcanzaron, y los hechos
son los hechos) porque eran caras y tenían un tiempo de vida muy corto. El
consumidor habría tenido que estar cambiando de bombilla cada dos por tres.
Precisamente la genialidad de Edison fue perfeccionar las bombillas más
rudimentarias incorporando un filamento incandescente, es
decir, un alambre que no se fundiese al pasar la corriente eléctrica. El
químico inglés Sir Humphry Davy había empleado, a principios del siglo XIX, un
filamento de platino. Y en 1854 el alemán Heinrich Göbel utilizó un filamento
de bambú carbonizado, fabricando una bombilla operativa durante 400 horas.
Aunque Göbel no solicitó una patente (cosa que Edison hacía enseguida: era
especialista en inventar y en patentar), los historiadores suelen estar de
acuerdo en que la primera bombilla en sentido estricto se le debe a Göbel, si
bien el diseño que triunfó es el de Edison.
¿Cómo era la bombilla de Edison? En el fondo, una bombilla no es ni más ni
menos que un dispositivo por el que pasa una corriente eléctrica que calienta
el filamento y produce luz. Es lo que se llama efecto Joule, en
honor del físico británico James Prescott Joule (1818-1889), que hizo
contribuciones fundamentales al estudio de la relación entre calor, trabajo
mecánico (el conocido como “equivalente mecánico del calor”, descubierto por
Joule) y energía (la unidad de energía en el sistema internacional es el julio,
en honor de este científico inglés). ¿Cuál es el calor generado por el paso de
una corriente eléctrica a través de un material conductor? Si llamamos Q al
calor producido (que es una forma de energía), i a la
intensidad de corriente, R a la resistencia eléctrica del
conductor y t al tiempo que dura el paso de esa corriente, la
ley de Joule afirma que: Q = i2Rt. La ley en
cuestión es paralela a la ley de Ohm, propuesta en 1827 por el
físico alemán Georg Ohm y que sostiene que en los circuitos eléctricos, la
intensidad de la corriente que pasa entre dos puntos cualesquiera es
proporcional a la diferencia de potencial que se establece entre esos dos
puntos e inversamente proporcional a la resistencia del conductor entre esos
dos puntos: i = V/R. En realidad, la ley de Joule se
puede deducir de la Ohm considerando que la diferencia de potencial (o voltaje)
es igual a la energía dividida por la carga eléctrica, y como la carga
eléctrica es el producto de la intensidad de corriente por el tiempo (ya que la
corriente es el flujo de carga eléctrica o, matemáticamente, la derivada de la
carga con respecto al tiempo), los términos de la ecuación de Ohm se pueden
reorganizar para dar la expresión de Joule.
La ley de Joule se puede interpretar diciendo que todo conductor por el que
pase una corriente eléctrica se calentará, que es lo que ocurre en el filamento
de la bombilla. Lo que hizo Edison es encerrar el filamento incandescente en
una especie de cápsula de cristal para que el oxígeno del aire no destruyese el
filamento calentado por el paso de la corriente eléctrica. En un filamento
incandescente como el de Edison, el propio filamento “resiste” el flujo de
electrones (la corriente eléctrica), y como consecuencia de esa resistencia,
los electrones se excitan a un orbital atómico de energía
superior. Esto es pura mecánica cuántica. Lógicamente, Edison no sabía mecánica
cuántica cuando inventó la bombilla, pero los desarrollos teórico y tecnológico
no siempre han ido a la par, como tampoco se comprendió el binomio
calor-energía mecánica hasta bien entrado el siglo XIX a pesar de que la
máquina de vapor había nacido en el XVIII. Según la mecánica cuántica, cuando
se le comunica energía a un electrón, éste será promovido a un nivel energético
superior. El electrón estará excitado, es decir, elevado a un nivel de mayor
energía. Como la situación más estable es siempre la de mínima energía y la
naturaleza tiende a la mínima energía, en cuanto el electrón regrese a su
estado energético inicial emitirá el exceso de energía que tenía en forma de
fotón (un cuanto de luz, de radiación electromagnética), con una frecuencia
proporcional a la diferencia de energía entre los dos estados: el excitado y el
inicial (la fórmula de Planck que relaciona -mediante la constante de Planck-
la energía y la frecuencia de un cuanto). En el filamento
incandescente, la frecuencia a la que se emite ese fotón pertenece al rango del
visible o del infrarrojo en el espectro electromagnético, excelente para
producir luz artificial.
¡Edison había encendido una nueva luz en el mundo! Era el 31 de diciembre de
1879, y nuestro hombre tenía treinta y dos años. Una fecha memorable para la
historia. Las penurias que tantos habían tenido que sufrir durante siglos para
alumbrarse llegaban afortunadamente a su fin, porque Edison había inventado una
manera sencilla, eficaz y económica de producir luz artificial. Ya no hacían
falta lámparas de gas, velas o candelabros, porque la bombilla era muy barata,
tal y como el propio Edison había prometido: “haremos electricidad tan barata
que sólo los ricos quemarán velas”. Si James Watt había descubierto el poder
del calor para producir energía mecánica (movimiento), Edison había sido capaz
de aprovechar el poder de la electricidad. Así como Watt y su invento (la
máquina de vapor) se sitúan en la base misma de la primera revolución
industrial, Edison y su creación lo están en la de la segunda revolución
industrial, donde la electricidad ocuparía un lugar central en la innovación tecnológica.
Pocos artilugios han influido tanto en la vida cotidiana de millones de
personas como la bombilla de Edison. Mirando hacia atrás, nuestros antepasados
nos parecen auténticos héroes por el escaso bienestar de que disfrutaron, al
menos en comparación con el nuestro. Pero lo cierto es que hoy consideramos
indispensable la luz eléctrica, y conforme progresamos cada vez consideramos
indispensables más y más cosas. ¿Quién podría vivir hoy sin ordenador,
televisión, radio o coche? Pero la humanidad ha estado siglos sin ordenador,
televisión, radio o coche. Y previamente estuvo siglos sin rueda, escritura o
vestimenta. Y así hasta la noche de los tiempos del género humano sobre la
Tierra. Aquí sí se cumple sin fisuras que la medida del tiempo es relativa. Para
un antiguo, su vida era la que era, con sus comodidades y con sus
inconvenientes. Para nosotros, nuestra vida es la que es, y seguramente cuando
los hombres y mujeres del futuro lean sobre cómo vivíamos a principios del
siglo XXI se quedarán asombrados y quizás exclamen: “¡cómo podían ignorar tal o
cual cosa o sobrevivir sin tal o cual artilugio!” Por eso, más que el invento
en sí, por relevante y trascendental que haya resultado a la larga, me parece
más importante reflexionar sobre la capacidad que el ser humano tiene de
innovar y de progresar, de superar situaciones anteriores y de configurar un
nuevo “escenario” que tiempo atrás habría parecido imposible. Hacer lo
imposible posible es una de las habilidades más extraordinarias del genio
humano.
El éxito de Edison no se reduce, desde luego, al fonógrafo y a la lámpara de
luz de filamento incandescente o bombilla. Inventó también el telégrafo
cuádruple (que le reportó ingentes beneficios) o el micrófono de carbón para
aplicarlo al teléfono que el escocés residente en Estados Unidos Alexander
Graham Bell acababa de patentar en 1876, y su laboratorio de Menlo Park no
hacía más que crecer y abrir nuevas áreas de investigación.
Edison era un gran inventor y un agudo hombre de negocios. Supo combinar su
inteligencia creativa con su talento empresarial, una especie de Bill Gates de
la época. En 1878 fundó la Edison electric light company, con
el apoyo de financieros como John Pierpont Morgan (junto con Rockefeller, uno
de los hombres más ricos de Estados
Unidos en aquella época), quien apreció el inmenso filón que representaba la
compañía de Edison. Además, Edison fue lo suficientemente astuto como para
aliarse con sus posibles rivales (por ejemplo, Joseph Swann en Inglaterra) y
así evitar competencia en el extranjero, donde su patente podía no ser ni la
única ni la primera.
Pero si Edison había inventado la bombilla, todavía faltaba un sistema de
distribución de la electricidad a gran escala que permitiese sacarle verdadero
partido a su artilugio. Cuesta entender por qué hombres tan brillantes e
inteligentes como Edison a veces se han negado cerrilmente a ciertas
innovaciones, precisamente ellos que habían revolucionado el estado de la
tecnología. También Einstein se resistía a aceptar la interpretación de la mecánica
cuántica de la escuela de Copenhague (Bohr, Heisenberg, Born), que luego se ha
generalizado, pero en su caso había razones profundas de orden científico y
filosófico que podrían justificarlo. Sin embargo, Edison prefirió el uso de
corriente continua en lugar de corriente alterna (cuya dirección va cambiando
cíclicamente) en los sistemas de distribución de electricidad sin ningún motivo
de peso. Era mucho más eficiente y práctico emplear corriente alterna. El
problema estaba en que quien había inventado la corriente alterna era persona
non grata a los ojos de Edison: Nikola Tesla (1856-1943).
Tesla, de origen serbio pero que vivió la mayor parte de su vida en Estados
Unidos, es uno de los intelectos más prolíficos, polifacéticos y curiosos de la
historia de la ciencia y, sin duda, otra mente tan maravillosa como la de
Edison. Desgraciadamente, su excéntrica personalidad y las no pocas
controversias en que se vio envuelto desacreditaron en parte su condición de
científica, aunque la historia posterior haya reconocido con creces sus
indudables méritos (de hecho, la unidad en el sistema internacional para la
inducción magnética es el tesla). La enemistad entre Tesla y Edison es
proverbial. Tesla había trabajado en la compañía de Edison, pero se marchó por
desavenencias económicas y personales. Para deslegitimar a Tesla, Edison llegó
a diseñar un modelo de silla eléctrica que funcionaba con corriente alterna. Se
había declarado la “guerra de las corrientes” entre los defensores de la
corriente continua y los promotores de la corriente alterna. Pero los hechos
son tozudos y por mal que le pesase a Edison, la corriente alterna de Tesla se
demostró más útil en los sistemas de distribución eléctrica. Así que la
combinación ideal para alumbrar el mundo acabó siendo producto de dos mentes
geniales pero enfrentadas: la bombilla de Edison con la corriente alterna de
Tesla. Era inevitable que dos personalidades de la talla intelectual y
científica de Edison y Tesla colisionasen. Es casi ley de vida: entre personas
igualmente brillantes suele surgir, al unísono, una enemistad de no menor grado
que su talento. Es como si una de las dos percibiese que la otra le va a hacer
sombra sin solución de continuidad. O la una o la otra, pero las dos al mismo
tiempo y en el mismo lugar no pueden sobrevivir. El genio necesita destacar y
relucir por encima de lo que le rodea, y si lo que le rodea es otro genio ya no
es posible marcar la diferencia. Y por encima de todo, Edison, como todas las
grandes mentes, era humano. Y tan humano es querer crear, descubrir y amar como
en ocasiones sentir envidia o rechazo hacia alguien. Todos podemos caer en
ello. En cualquier caso, se cuenta que en sus últimos días Edison admitió que
uno de los mayores errores que había cometido fue el de subestimar a Tesla.
Tesla, por su parte, se mostró muy crítico con Edison, haciendo comentarios
bastante negativos (y cuestionando sus métodos y su rigor científico) al poco
de fallecer el inventor americano. Olvidaba Tesla que de mortuis, nisi
bonum, “de los muertos, sólo lo bueno”, máxime en un obituario.
La inagotable creatividad de Edison le llevó a realizar, sólo en Estados
Unidos, 1093 patentes. Los beneficios que obtenía con sus patentes los
reinvertía en investigación de nuevos artilugios. Lo suyo, más que afán de
lucro, era afán de innovación, que en algunas personas ha sido casi tan
poderoso como el primero. Su prestigio no se limitaba al continente americano,
sino que Edison alcanzó igual fama en Europa. Todo el que suba al tercer piso
de la Torre Eiffel podrá contemplar algo no menos singular que la vista de
París desde casi 300 metros de altura: una reproducción a tamaño natural con
las figuras de Edison, Gustave Eiffel y la hija de Eiffel durante la cálida
acogida que el francés dispensó a nuestro inventor en un edificio que era el
orgullo y la cima de la ingeniería de la época. Las compañías de Edison se
instalaron también en Europa. Resulta inexplicable que Edison no recibiese el
premio Nobel de física. Parece ser que el comité sueco había decidido otorgárselo
en 1915 junto con su enemigo mortal Nikola Tesla, pero finalmente optó por
concedérselo a los Bragg, padre e hijo (el hijo, William Lawrence, continúa
siendo la persona más joven en ganar un Nobel, pues sólo tenía veinticinco
años). En cualquier caso, es una tremenda injusticia que ni Edison ni Tesla
ganasen el premio Nobel, como también lo es que ni Tolstoi, ni Gandhi ni
Mendeleyev lo recibiesen en campos como literatura, la paz o química.
Thomas Alva Edison murió el 18 de octubre de 1931, a los 84 años. Edison,
prolífico inventor y sagaz hombre de negocios, cambió la historia contemporánea
al impulsar de manera definitiva el uso de la electricidad en la vida cotidiana
de millones de personas. Aunque ni todos los inventos que patentó eran
exclusivamente suyos ni había sido el primero en diseñar la mayoría de ellos,
no se puede minimizar la influencia real del Edison inventor y empresario en la
revolución tecnológica de finales del siglo XIX.
Capítulo 16
Cajal y la “doctrina de la neurona”.
¿Ciencia y España? Para muchos, un binomio
contradictorio, una imposibilidad cuasi-metafísica. Y no es para menos: la
ciencia en España no es que haya encontrado un suelo fértil. Su desarrollo ha
sido más bien lento, tardío y en ocasiones deficiente.
En el siglo XIX surgió lo que se conocería posteriormente como el “debate sobre
la ciencia española”. Destacados intelectuales de nuestro país discutían
acaloradamente en las tribunas y en las academias sobre la existencia -o
inexistencia- de ciencia auténtica en la historia de España. Frente al
apologetismo ciego y bastante rancio de un Menéndez Pelayo, que pretendía sacar
científicos de debajo de las piedras, lo cierto es que la postura más matizada
de otros autores dejó claro que en España, por desgracia, no se habían
cultivado propiamente las disciplinas científicas. Descontando el paréntesis de
la España medieval (donde la confluencia de las culturas cristiana, musulmana y
judía produjo una notable ebullición de ideas científicas y humanísticas), la
España moderna y pre-moderna prácticamente no aportó nada significativo a la
ciencia. Y como la ciencia en sentido estricto nace el siglo XVII,
fundamentalmente a raíz del trabajo de Galileo Galilei, se puede afirmar
categóricamente que España se desvinculó, por razones de diversa índole, del
desarrollo de la ciencia moderna hasta bien entrada la Ilustración. De nada
sirvió el descubrimiento de América (que debería llamarse en realidad “el
descubrimiento para los europeos de América”, pues ese continente ya llevaba
milenios descubierto para el ser humano), que motivó importantes adelantos en
las técnicas de navegación y de medición y que, lógicamente, representaba una
ocasión excelente para promocionar eventuales investigaciones científicas. Fue
desaprovechado.
Hacer auto-crítica es algo, a mi juicio, muy positivo. De nada sirve
vanagloriarse de supuestos éxitos que no han existido, si no se quiere caer en
el triunfalismo tantas veces ridículo de exaltar logros que en realidad no
fueron tales, o que al menos no fueron tan relevantes como se piensa en las
transformaciones sociales, culturales y científicas. Las modernas sociedades
plurales y democráticas tienden, y con razón, a ser bastante escépticas con
respecto a los triunfalismos pseudo-patrióticos. ¿Acaso debe ser un tema tabú
denunciar el escaso o papel que ha desempeñado España en el desarrollo de la
ciencia? Nadie niega que España haya aportado otras cosas a la historia, pero
entre esas cosas difícilmente se encontrará ciencia. Y por otra parte,
refugiarse en ensoñaciones y magnificaciones de acontecimientos como el
descubrimiento de América como si compensase, por sí solo y por lo que supuso
en la génesis del mundo moderno, la poca relevancia de España en el surgimiento
de la ciencia moderna, es olvidar el trágico rastro de destrucción y
aniquilamiento de pueblos y culturas indígenas que ocasionó. Y no parece muy
acertada la típica reacción del “¿y ellos qué?”, refiriéndose a que otros
países colonizadores también cometieron horribles tropelías en el Nuevo Mundo.
Hacer auto-crítica es sumamente sano, y pretender inmunizarse de la crítica
constructiva que identifique los aspectos negativos y manifiestamente
mejorables es una empresa a todas luces inútil. Además, es absurdo crear
“tabúes” aparentemente inexpugnables para la labor crítica propia de toda
persona, sea o no intelectual o académica. España tiene otros factores
sumamente positivos y destacables, pero ello no debe convertirse en un
subterfugio para eludir la crítica legítima.
Y una vez denunciado el problema, ¿cuáles son sus causas? Se han propuesto
muchas, con frecuencia convergentes, que explicarían la falta de ciencia en la
historia de España. No debemos olvidar que el desarrollo científico es
inseparable del desarrollo social y económico. De vez en cuando surgen genios
que en muchos casos han sabido superar enormes adversidades que, desde luego,
no hacían presagiar que fuesen capaces de hacer avanzar el pensamiento
científico. Pero por lo general la ciencia, al ser la labor conjunta de muchas
personas en muchos lugares y tiempos, requiere de una serie de instituciones,
infraestructuras y condiciones políticas y culturales que la hagan posible. En
España, estas condiciones no se dieron. El potencial político y económico que
parecía haberse alcanzado con la conquista de América fue desperdiciado en
infinidad de guerras por media Europa que acabaron sumiendo al país en la
bancarrota. Por otra parte, la expulsión de los judíos en 1492, que escribió
una de las páginas más tristes de la historia de nuestro país, podría haber
hipotecado por siglos el futuro tecnológico, científico e intelectual de
España, ya que el pueblo judío siempre ha mostrado una particular inclinación
hacia el cultivo de las ciencias y del conocimiento, contribuyendo eficazmente
al desarrollo, en todos los sentidos, de los países en que se ha instalado. Un
ejemplo: cuando Hitler, con su política criminal y suicida, forzó a los judíos
a exiliarse de Alemania y de otras naciones que cayeron bajo su dominio, Europa
perdió el liderazgo científico e intelectual, que se desplazó a Estados Unidos
(en un fenómeno análogo al que se dio a mediados del siglo XV, cuando la
conquista otomana de Bizancio obligó a muchos eruditos a emigrar a Italia y el
resto de Europa). Este éxodo de científicos y humanistas estuvo protagonizado
sobre todo por judíos, muchos de los cuales acabarían ganando el premio Nobel
en sus especialidades.
Algo similar ocurrió en España. Al expulsar a los judíos, España se quedó sin
gran parte del estamento científico e intelectual. Y no menos relevante, la
existencia de un órgano como la Inquisición, en funcionamiento desde 1478, que
gozó de tanto prestigio y de tanto poder y que fue utilizado por los sucesivos
monarcas como herramienta de dominio, supuso un órdago difícilmente subsanable
para el desarrollo del conocimiento y de la ciencia. La Inquisición anuló la
creatividad de muchos científicos y escritores, al someterlos a férreos
controles y al extender un miedo generalizado hacia su dictadura ideológica.
Esa censura ideológica pasaría una onerosa factura a España: subdesarrollo,
retraso, cultura de gueto con respecto a Europa, insignificancia científica...,
y un país replegado sobre sí mismo a raíz de la contrarreforma (se llegó a
prohibir a los estudiantes españoles acudir a universidades fuera del imperio).
Sólo con la irrupción, lenta pero a la postre firme, del movimiento ilustrado y
con el declive de la España inquisitorial, se irían curando, aunque muy poco a
poco, esas costosas heridas. Por desgracia, los problemas internos y las
cruentas guerras civiles que asolaron el país en el siglo XIX postergaron,
nuevamente, la creación de un auténtico “sustrato” científico, técnico e
intelectual en España. Lo que Unamuno llamó “guerra incivil” y los largos años
de dictadura, con algunos de los exponentes más granados de la intelectualidad
española en el exilio, volvieron a suponer una pesada carga, un nuevo muro en
la construcción de una sociedad moderna que pudiese cultivar propiamente la
actividad científica. Los sucesivos gobiernos democráticos de nuestro país no
han prestado la suficiente atención a la ciencia y a la educación en general,
pues al parecer tenían otras prioridades, y España corre el peligro de quedarse
muy atrasada en una carrera enormemente competitiva (como es la producción
científica e intelectual) y de no basar su desarrollo socio-económico en el
conocimiento, lo que a la larga puede conllevar, de nuevo, una gravísima
hipoteca.
Y tampoco debemos olvidar que un rasgo muy típico de la sociedad española es un
cierto elitismo endogámico, que tiende a juzgar a las personas más por los
títulos y por los honores que poseen que por sus aportaciones efectivas al
conocimiento o a la reflexión. Solemos admirar más a alguien por ser de tal o
cual real academia, por poseer determinados másters conseguidos en prestigiosas
universidades o por haber ganado ciertos premios que por lo que realmente ha
pensado, escrito y, en definitiva, contribuido (de su propia cosecha) a la
labor científica y humanística. Antes que el currículum, siempre me ha parecido
más interesante oír a esa persona hablar, expresarse, escribir, transmitir
ideas o, en caso de ser un científico, exponer qué ha descubierto exactamente.
Lo demás me parece secundario. El Nobel no se gana por una exitosa carrera
académica, sino por aportar algo concreto que haga progresar el conocimiento
científico. Y tampoco conviene olvidar que muchos grandes genios del arte, las
ciencias y el pensamiento no fueron reconocidos en vida (por ejemplo Van Gogh,
Mendel, Galois o Nietzsche) y a muchos otros todavía no se les ha hecho
justicia.
Si hay alguien de España que merece el mayor respeto y consideración por su
esfuerzo, inteligencia, tenacidad y contribuciones reales al progreso de las
ciencias naturales es, sin duda alguna, Santiago Ramón y Cajal, a ojos de
muchos el científico más importante que ha tenido nuestro país. Rastreando en
la historia de España se pueden encontrar, obviamente, figuras señeras que
fueron grandes investigadores, pero suelen ser casos aislados, excepciones que
confirman la regla. Entre ellos figurarían algunos representantes de la Escuela
de Salamanca, que en el siglo XVI no sólo puso las bases del derecho
internacional, sino que también dejó un nada desdeñable legado científico en
las postrimerías del Renacimiento. Miguel Servet fue el primer europeo en
describir la circulación pulmonar, aunque la intolerancia de su tiempo, el
siglo XVI, hiciera que fuese perseguido simultáneamente (a causa de su negación
teológica de la Trinidad) por católicos y protestantes y que acabase quemado en
la hoguera de Ginebra por Calvino en 1553. Juan de Caramuel y Lobkowitz, en el
siglo XVII, fue un gran matemático, teólogo y eclesiástico de la Orden del
Císter que viajó por media Europa y que escribió trabajos interesantes sobre la
teoría de probabilidades. Pero se trata de singularidades, y hasta el siglo
XVIII y sobre todo bien entrado el XIX, no se gestaría
Santiago Ramón y Cajal, el padre de las modernas neurociencias, nació en
Petilla de Aragón el 1 de mayo de 1852. Es sorprendente acercarse a un pueblo
tan diminuto como Petilla y pensar que de él surgió alguien que iba a
revolucionar el conocimiento sobre el sistema nervioso y el cerebro. El genio
“sopla” por donde quiere y como quiere, sin estar (¡por fortuna!)
necesariamente constreñidos a los condicionamientos culturales, económicos e
históricos. Es una muestra de la creatividad que siempre ha existido en la
especie humana, y nos permite imaginar que en los lugares más recónditos o que
la sociedad considera más insignificantes y aislados puede nacer una mente
maravillosa en cualquier campo que acabe deslumbrando al mundo. La vida es
sumamente rica y libre, y cada trayectoria, única.
Sus padres se llamaban Antonia Cajal y Justo Ramón. Su padre era profesor de
anatomía aplicada en Zaragoza y siempre quiso que su hijo fuera, como él,
médico. Santiago no fue un alumno particularmente aplicado: tuvo que
trasladarse de un colegio a otro porque era bastante rebelde y tenía serios
problemas con la autoridad de sus maestros. De hecho, a los once años tuvo que
ir a la cárcel por destruir la puerta de entrada al pueblo en que entonces
vivía con un “cañón” de fabricación casera.
¿Cómo era de joven? Inquieto, amante del arte, de la pintura y de la gimnasia,
al igual que tantos otros grandes pensadores y científicos; muy emprendedor y
tenaz. Trabajó como zapatero, barbero... Desde luego, su carrera científica
sería todo menos un camino de rosas, especialmente en la España de mediados del
siglo XIX.
Cajal estudió medicina en la Universidad de Zaragoza, y se graduó en 1873, a la
edad de veintiún años. Mostró una preferencia clara por las clases prácticas y
por el trabajo de laboratorio. Se cuenta, de hecho, que un profesor, el Dr.
Ferrer, que impartía la asignatura de obstetricia, le llamó la atención por
faltar a menudo a sus clases, y aunque Cajal justificaba sus ausencias
argumentando que empleaba ese tiempo en acudir a clases prácticas o en leer
libros de medicina avanzada por su cuenta, el profesor no le creyó. Tanto es
así que le obligó a salir a la pizarra para hablar sobre las membranas
embrionarias. Cajal, ni corto ni perezoso, disertó durante media hora larga
sobre las membranas embrionarias, acompañadas de exquisitos dibujos en la
pizarra que dejaron a toda la clase, incluyendo al profesor, atónita.
Cajal ya era médico, pero todavía le quedaba lo más difícil: ejercer su
profesión. Tras pasar un durísimo examen, Cajal logró una plaza de oficial
médico en el ejército español, pero fue destinado al que por entonces era el
punto más conflictivo de lo que quedaba del antiguo imperio colonial español:
Cuba. En el hospital de Vista Hermosa de la perla del Caribe, Cajal atendió a
enfermos de paludismo y disentería entre 1874 y 1875, pero acabó cayendo
enfermo y contrajo enfermedades como la tuberculosis y la malaria que afectaron
gravemente a su salud. Finalmente, regresó a España y en 1879 se casó con
Silveria Fañanás, con quien tendría cuatro hijas y tres hijos.
En 1877 obtuvo el grado de doctor en Medicina, que se concedía en Madrid, y fue
nombrado profesor de anatomía general y descriptiva en la Universidad de
Valencia. Le costó conseguir una cátedra; como en tantos otros casos, no porque
le faltasen capacidades para ello, sino por las trabas con que se encontró en
algunas de las instituciones académicas por las que pasó. Finalmente, ganó la
cátedra de histología y anatomía patológica en la Universidad de Barcelona en
1887 y en 1892 asumió la misma cátedra en Madrid. Entre 1900 y 1901 dirigió el
Instituto Nacional de Higiene y en 1922 fundó el “Instituto de Investigaciones
Biológicas”, germen de lo que más tarde sería el Instituto Cajal. Falleció
en Madrid en 1934.
Sus investigaciones sobre la estructura del sistema nervioso se remontan a
1880, año en que empezó a publicar una serie de trabajos que desembocarían más
tarde en una de sus obras más célebres, Textura del sistema nervioso
del hombre y de los vertebrados (1897-1899), libro de texto en muchas
universidades europeas, así como en numerosos manuales, artículos en revistas
científicas y libros sobre técnica de micrografía, escritos en español, francés
y alemán. Cajal fue siempre un extraordinario dibujante, ya desde su temprana
vocación artística, y algunos de sus dibujos del cerebro o el tejido nervioso
sorprenden aún hoy por su precisión y belleza.
En 1889, siendo catedrático en Barcelona, Cajal se presentó, por su cuenta, en
el congreso de la Sociedad anatómica de Berlín. La hazaña tiene pocos
precedentes: un desconocido investigador español se desplaza a lo que por
entonces era una de las mecas de la ciencia médica, Alemania, y maravilla a los
científicos allí reunidos por lo que había descubierto. ¿Y en qué consistían
estos hallazgos? Básicamente en haber sido capaz de mostrar, haciendo uso de
nuevas técnicas de tinción mejoraban la visibilidad en el microscopio, la
auténtica naturaleza del sistema nervioso.
El italiano Camilo Golgi (1843-1926) había probado que utilizando una solución
de cromato (derivado oxigenado del elemento cromo) de plata, era posible
“manchar” y así identificar ciertas neuronas cerebrales, ya que los tintes
orgánicos inventados por médicos como Koch o Ehrlich no permitían observar
neuronas individuales. Pero Golgi había llegado a la conclusión de que esas
neuronas no constituían verdaderas “unidades”, sino que formaban un tejido
continuo, una especie de “telaraña” o retículo.
Cajal, que conocía muy bien el trabajo de Golgi, no estaba de acuerdo con la
tesis del italiano. Empleó el método de tinción que había desarrollado Golgi,
pero demostró que el sistema nervioso está formado por millones de células
separadas (o neuronas) y que éstas se encuentran polarizadas (es
decir, con un polo positivo y otro negativo). No se trata, por tanto, de una
maraña de células continuas, sino de neuronas individuales y contiguas. La
teoría de Cajal acabó llamándose “teoría de la contigüidad”, precisamente por
subrayar el carácter de “átomos” situados los unos junto a los otros, en vez de
concebir el tejido nervioso como una red continua. Las neuronas están
separadas; son entidades independientes. Pero entonces, ¿cómo se comunican las
neuronas entre sí? ¿Serán acaso “mónadas” aisladas, sin ventanas, como en la
famosa teoría filosófica de Leibniz? En absoluto: Cajal sugirió que las
neuronas disponían de un tipo particular de uniones, que posteriormente
recibirían el nombre de sinapsis por el neurólogo y premio
Nobel británico Charles Sherrington en 1897, las cuales permitían el contacto y
la comunicación electroquímica entre ellas. El modo en que se transmite el
impulso nervioso es por contacto entre neuronas, generando potenciales químicos
y no por transmisión continua a lo largo del citoplasma (el fluido gelatinoso y
semitransparente que “rellena” la mayoría de las células). De esta manera, el
sistema nervioso está compuesto por unidades individuales llamadas neuronas
que, a su vez, se comunican entre sí a través de sinapsis.
Las teorías de Cajal acabaron imponiéndose en el seno de la comunidad
científica a la teoría reticular de Camillo Golgi, especialmente al publicarse
los facsímiles, entre 1899 y 1904, en los que Cajal recogía sus espléndidos
dibujos y reproducciones de sus observaciones al microscopio. Su prestigio fue
en aumento y en 1906 compartió con su opositor científico pero que, por encima
de todo, había sido una pieza clave en las investigaciones de Cajal por su
técnica de tinción, Camillo Golgi, el premio Nobel de Fisiología o Medicina,
convirtiéndose en el primer español en ganarlo (hazaña sólo repetida por el
bioquímico Severo Ochoa en 1959), y el segundo en obtener un premio Nobel
(después del cuestionado ingeniero y dramaturgo madrileño José Echegaray, que
recibió el Nobel de Literatura en 1904 junto con el poeta francés Frédéric
Mistral).
Las teorías de Cajal se aceptaron, y la doctrina de la neurona se ha convertido
ya en pilar de las neurociencias. El uso del microscopio electrónico (inventado
en los años ’30 del siglo pasado) ha permitido comprobar que cada neurona está
rodeada por una membrana de plasma, que la separa de las demás y hace de ella
una unidad independiente, en la línea de lo sostenido por Cajal. Además de
sentar las bases de la doctrina de la neurona, Cajal propuso que los axones (es
decir, las prolongaciones que, partiendo del cuerpo o soma de
las células nerviosas conducen el impulso nervioso) crecían formando “conos” en
sus terminaciones, y que el crecimiento de las células neuronales estaba
mediatizado por una serie de señales químicas responsables de fijar la
dirección del proceso en cuestión (lo que hoy conoce como quimiotaxis).
Pero el problema persistía: si lo que hace el sistema nervioso es transmitir
impulsos eléctricos, pero las neuronas no forman un continuo sino que son
unidades separadas, ¿cómo se transmite, entonces, dicho impulso? Habría una
serie de saltos o rupturas discontinuas que impedirían el paso del impulso
nervioso. La solución al problema la dio el propio Cajal: la energía eléctrica
del impulso se transforma en energía química en cada punto de contacto,
provocando la salida de iones potasio y la entrada de iones sodio. Los iones
potasio, que se representan como K + , son cationes, esto
es, especies químicas cargadas positivamente, consistentes en un átomo de
potasio que ha perdido un electrón para alcanzar la configuración electrónica o
disposición de electrones del gas noble inmediatamente anterior a él en la
tabla periódica, que es el argón, ya que la configuración electrónica de gas
noble es la de mínima energía y la más estable. Por eso los gases nobles son
tan poco reactivos y forman tan pocos compuestos: su estabilidad energética es
muy elevada y no necesitan reaccionar con otras especies químicas para alcanzar
una mayor estabilidad. Se les llama “nobles” por esa inercia química que les
lleva a participar tan poco en las reacciones, a “mezclarse” raramente con
otros elementos. Los iones sodio (Na + ) son,
como en el caso anterior, un átomo de sodio que ha perdido un electrón y que
por tanto tiene la misma configuración electrónica que el neón, otro gas noble.
La salida y entrada de iones potasio y sodio respectivamente genera un cambio
en la polaridad de la neurona (dijimos que las neuronas estaban
polarizadas por tener un polo positivo y otro negativo). Aunque la transmisión
no discurre, lógicamente, a la misma velocidad que en el caso de la corriente
eléctrica, siempre supera los 50 centímetros por segundo.
Cajal, además de una vastísima producción científica, escribió libros de ensayo
como Reglas y consejos sobre la investigación científica o Los
tónicos de la voluntad, y puso los cimientos de una importante escuela
neurológica en la que han trabajado grandes científicos españoles del siglo XX.
Siempre ha sido un ejemplo insuperable de tenacidad y afán descubridor para
jóvenes investigadores de dentro y fuera de nuestro país, que han encontrado en
Cajal una inspiración para sobreponerse a las adversidades de todo tipo que
puedan interponerse entre el científico y la ciencia. Sirva sólo como ejemplo,
pero recuerdo cómo un profesor que tuve de lenguas clásicas, Jonathan Katz, me
contaba que su padre, Sir Bernard Katz, neurocientífico y ganador del premio
Nobel de Medicina en 1970 (junto con U. Von Euler y J. Axelrod) por sus
investigaciones sobre el papel de la acetilcolina en la transmisión del impulso
nervioso, entre los pocos retratos que conservaba en su despacho sentía especial
veneración por el de Santiago Ramón y Cajal.
Cajal perteneció a numerosas academias y sociedades, destacando la Royal
Society de Londres (que ha tenido miembros -fellows- tan
ilustres como Isaac Newton, Charles Darwin o Albert Einstein), y recibió el
doctorado honoris causa de la Universidad de Cambridge en
1894.
Santiago Ramón y Cajal había abierto las puertas de un nuevo mundo al descubrir
la estructura del sistema nervioso. No sería exagerado afirmar que uno de los
grandes retos de la ciencia y que pone a prueba, quizás más que cualquier otro,
la capacidad humana de conocer y responder a las preguntas que nunca deja de
formular, es el de comprender adecuadamente el funcionamiento del cerebro.
Estudiar lo más distintivo del ser humano, la conciencia, cómo ha
surgido, evolucionado y, sobre todo, cuáles son sus verdaderas posibilidades,
representa uno de los horizontes más prometedores y fascinantes de nuestro
tiempo. El futuro del conocimiento se construye ya hoy. La
pregunta “¿quiénes somos y qué podemos hacer?” es inseparable de la pregunta
por la naturaleza de la mente humana y de sus capacidades, muchas de ellas
inexploradas.
Capítulo 17
Planck y los quanta.
Cuando leemos en los periódicos y en las revistas
de divulgación científica que gran parte de la innovación actual en el terreno
de la informática consiste en intentar desarrollar ordenadores cuánticos,
podemos intuir que lo “cuántico” ha cobrado una gran relevancia y se ha puesto
de moda. Cuántico nos parece sinónimo de enigmático, vanguardista,
científicamente exótico... Y no se equivoca quien asocie lo cuántico a lo
difícil de comprender. Richard Feynman, uno de los físicos más geniales del
siglo XX y premio Nobel en 1965, llegó a afirmar que nadie era capaz de
entender la mecánica cuántica, y no porque no existiesen personas que supiesen
usarla y aplicar sus tratamientos físico-matemáticos al estudio de muchos
campos de la física. El problema es que la intuición falla cuando utilizamos
las herramientas que ofrece la mecánica cuántica. Si Galileo, el padre de la
física clásica, había tenido que hacer enormes esfuerzos para vencer la
intuición y no dejarse guiar por lo que los sentidos mostraban a simple vista,
los físicos del siglo XX tuvieron que trabajar aún más duro y poner mayores
dosis de ingenio y de matemáticas para introducirse en el complejo y fascinante
mundo de los átomos.
Pero con anterioridad a la mecánica cuántica (que surgió en los años ’20,
gracias a científicos de una talla verdaderamente excepcional como Louis de
Broglie, Erwin Schrödinger o Werner Heisenberg) nació la teoría
cuántica, una de las grandes revoluciones en el pensamiento que
tuvieron lugar a principios del siglo XX. Su artífice era un distinguido
profesor alemán, lo suficientemente clásico y conservador en su terreno como
para desconfiar de sus propios resultados, hasta que no tuvo más remedio que
aceptar que había descubierto algo que trastocaba lo que hasta entonces se conocía
de la naturaleza de la energía: la existencia de los cuantos.
A finales del siglo XIX nada hacía presagiar que la física clásica fuese a
entrar en crisis. La física clásica era un edificio verdaderamente imponente,
una construcción intelectual formidable que se remontaba a Galileo pero que
Isaac Newton había llevado a su máxima expresión en el siglo XVII. Las teorías
de Newton habían sido aplicadas con un éxito extraordinario a la descripción de
multitud de fenómenos de la naturaleza, principalmente en astronomía. Para
hacernos una idea de su poder de predicción, cuando un joven matemático
francés, Urbain Le Verrier, observó que había discrepancias entre los datos de
la órbita de Urano obtenidos con el telescopio y los que cabría deducir de las
leyes de Newton, se dio cuenta de que esas diferencias no eran triviales, sino
que sólo podían ser explicadas si se postulaba la existencia de un nuevo
planeta. Pues bien, ese planeta se descubrió en 1846: Neptuno. ¡Con el solo
razonamiento matemático impuesto por las leyes de la mecánica de Newton, Le
Verrier había encontrado un nuevo planeta en el sistema solar! Quien quisiera
contradecir a Newton tenía que tener motivos de peso para hacerlo.
No es de extrañar, con estos antecedentes, que en una conferencia que reunió a
importantes físicos en Londres en 1890, Lord Kelvin (el que da nombre a una
escala de temperaturas), presidente de la Royal Society, declarase
que la ciencia física constituía, en lo esencial, un conjunto perfectamente
armonioso y acabado. Y es que tras el trabajo del físico escocés James Clerk
Maxwell (1831-1879) sobre la relación entre la electricidad y el magnetismo
resumida en unas elegantes ecuaciones, y las investigaciones del mismo Kelvin
sobre el cero absoluto, parecía que todos los problemas estaban resueltos y que
lo único que les quedaba a los investigadores del futuro era añadir decimales a
las mediciones disponibles. La teoría estaba prácticamente concluida. Ser
físico prometía ser bastante aburrido.
Quedaban, sin embargo, unos “detalles” que, claro está, a Kelvin no le parecían
de la suficiente envergadura teórica. Entre esos detalles estaba la radiación
del cuerpo negro. Un cuerpo negro es una situación ideal en la
que se absorben todas las radiaciones que se reciben, sin reflejar nada. Lo que
los físicos querían saber es si era posible encontrar un modelo matemático para
este fenómeno. El alemán Wilhelm Wien había propuesto una ecuación que daba las
intensidades de las distintas longitudes de onda (la longitud de onda,
simbolizada como X, es la distancia entre dos puntos que se repiten en la
propagación de una onda a una determinada frecuencia. Para entendernos, indica
el “tamaño” de esa onda) en función de la temperatura. Sin embargo, el inglés
Lord Rayleigh había encontrado que la ecuación de Wien sólo era válida para
frecuencias altas y, por tanto, para longitudes de onda bajas, porque
frecuencia y longitud de onda son magnitudes que varían inversamente, ya que en
una onda electromagnética, c/f = l, siendo f la
frecuencia de la onda (el número de oscilaciones que da la onda por segundo)
y c la velocidad de propagación de esa onda. Rayleigh y su
compatriota James Jeans habían propuesto otra ecuación, conocida como la ley de
Rayleigh-Jeans, que funcionaba de manera aceptable para las frecuencias bajas
(es decir, a longitudes de onda altas), pero que producía un resultado absurdo
para longitudes de onda bajas: conforme disminuyera la longitud de onda, el
modelo de Rayleigh-Jeans predecía que la energía emitida por el cuerpo negro
¡se haría infinita! Es lo que se llamó la catástrofe del ultravioleta,
porque aparecía a longitudes de onda cortas en el espectro electromagnético (el
que informa sobre el rango -en frecuencias o en longitudes de onda- al que
aparecen los distintos tipos de radiación electromagnética: rayos gamma, rayos
X, visible, infrarrojo...).
Lógicamente, ningún experimento recogía un resultado tan aparentemente
estrambótico. Los físicos más destacados de la época habían sido incapaces de
encontrar una ley que se ajustase a las curvas de emisión de luz (radiación
electromagnética) de un cuerpo negro. Y es que para hallar esa ecuación había
que hacer una serie de suposiciones que contradecían los principios de la
física clásica y que sólo Max Planck se atrevería a realizar. En recompensa no
sólo obtendría el premio Nobel, sino que abriría un horizonte inmenso para el
pensamiento humano. Max Planck pertenecía a una distinguida estirpe académica
germana. Alemania, que en el siglo XIX se había convertido en una especie de
“nueva Atenas”, había alcanzado un prestigio enorme como nación en casi todas
las áreas del conocimiento. Los alemanes descollaban por igual en las ciencias
naturales (los matemáticos de la escuela de Gottingen, físicos como Clausius o
Helmholtz, biólogos como Haeckel...) y en las Geisterwissenschaften (“ciencias
del espíritu”), que en la filosofía habían recibido una enorme influencia de
los pensadores idealistas de principios del siglo (Fichte, Schelling,
Hegel...). En la teología, los alemanes habían despuntado a lo largo de todo el
XIX, creando una poderosa tendencia, el protestantismo liberal, que habían
cultivado autores tan importantes como Friedrich Schleiermacher y Adolf von
Harnack. Y en la música, la estela de Beethoven, Wagner y Brahms era
verdaderamente majestuosa. Hablar de cultura y de afamados profesores era
hablar de Alemania.
El abuelo de Planck había sido catedrático de teología en Gottingen, y su padre
enseñaba derecho en Kiel, al norte de Alemania, donde nacería Max Planck el 23
de abril de 1858. Es interesante notar que muchos de los principales
científicos de Alemania no venían necesariamente de familias dedicadas a las
ciencias naturales. Lo cierto es que el ambiente familiar debió de transcurrir
en una atmósfera de cultura y de erudición que sin duda contribuyó a despertar
la inquietud intelectual del joven Planck. Heisenberg, otro de los grandes de
la ciencia del siglo XX y premio Nobel de física en 1932, era hijo de un
profesor de filología griega bizantina, y quizás por eso siempre apreció la filosofía
clásica y supo reflexionar sobre las proyecciones humanísticas que abrían sus
hallazgos científicos.
La cultura, sea de ciencias o de letras, es igualmente cultura, y en ambos
casos puede ayudar a fascinarse por lo que nos rodea y a fomentar un espíritu
crítico en cualquier campo. Escuchar los conciertos para violín de Johann
Sebastian Bach nos sumerge en la belleza del universo tanto como conocer las
ecuaciones que gobiernan el movimiento de los cuerpos, y hacen posible que el
rigor impuesto por la metodología de las distintas áreas del saber no nos
impida sorprendernos y elevarnos ante la capacidad de nuestra mente, que igual
descubre que crea. Y ojalá en los colegios nunca se dejase de escuchar a Bach,
Mozart o Beethoven, ni de leer a los clásicos. Las fragmentaciones arbitrarias
que enclaustran a un individuo en una determinada disciplina científica como si
sólo tuviese que centrar sus intereses en ese ámbito, incomunican y cierran
puentes, cuando lo más propio del ser humano es la comunicación. Puede que
naciendo en una familia como la de los Curie, con un padre (Pierre) y una madre
(Marie) que eran científicos de renombre y que entre los dos habían obtenido
tres premios Nobel, sea de esperar que surja una química de altura como Irène
Joliot-Curie, que compartió con su marido el premio Nobel de química en 1935.
Pero no es necesario. Influyen más el talento personal, el entorno cultural en
que uno se mueve y la educación que recibe que la profesión de los padres. Los
casos de familias en las que padres e hijos han ganado premios Nobel (como los
Curie, los Bragg, los Bohr, los von Euler o más recientemente los Kornberg) son
excepcionales y minoritarios.
La familia de Planck se trasladó en 1867 a Munich, donde su el padre, Johann
Julius, asumió una cátedra de derecho. Allí, Planck acudió al exquisito Maximilians
gymnasium, donde disfrutó del alto nivel intelectual de la educación
secundaria alemana, cuya fama ha sido proverbial en toda Europa. Junto al
estudio de los clásicos de Grecia y Roma, que se consideraban esenciales para
la buena formación de los alumnos, Planck se introdujo en el mundo de las
matemáticas, la astronomía y la física de la mano de Hermann Müller, que se
convirtió en su tutor. Con 16 años, Planck había terminado el exigente
bachillerato alemán y estaba en disposición de entrar en la universidad.
Se enfrentaba a un dilema: ¿qué estudiar, música o física? La sensibilidad
artística de Planck era notoria, pero finalmente se decidió por la física, que
a partir de ahora iba a contar con un poderoso intelecto entre sus filas, y eso
a pesar de que alguno de sus maestros le había desanimado, diciéndole (como
Lord Kelvin en su conferencia) que prácticamente todo estaba ya hecho. Así que
ingresó en la Ludwig-Maximilians- Universitat de Munich, mostrando
una clara predilección por la física teórica sobre la experimental. Como en el
caso de Einstein, Planck bien podría haber afirmado que su “laboratorio” eran
el papel y el lápiz: cálculos y más cálculos, razonamientos y más
razonamientos. Otros se encargarían de comprobar si respondían a los hechos.
En 1877 Planck se trasladó a Berlín, la capital del Reich que
había surgido con la victoria de Prusia sobre Napoleón III de Francia en 1871.
La Universidad de Berlín, fundada por el lingüista Wilhelm von Humboldt en
1810, y que llegaría a ser con el tiempo el modelo para la mayoría de las
universidades europeas, contaba entre los miembros de su claustro docente con
profesores tan eminentes como el matemático Karl Weierstrass (cuyo teorema
sobre límites y continuidad en las funciones se estudia, junto con el del
sacerdote checo Bernard Bolzano, en los colegios y en los primeros cursos
universitarios), el físico Gustav Kirchhoff, artífice de un trabajo fundamental
sobre los circuitos eléctricos, y el gran titán de la ciencia
alemán del siglo XIX: Hermann von Helmholtz (1821-1894). Helmholtz, que poseía
una cultura enciclopédica, realizó contribuciones importantes en prácticamente
todos los sectores de las ciencias naturales: física, química, medicina... Investigó
sobre temas tan diversos pero a la vez tan convergentes como la matemática
presente en el funcionamiento del ojo humano y la oftalmología; descubrió el
principio de conservación de la energía; desarrolló la termodinámica al
proponer lo que luego se ha conocido como “energía libre de Helmholtz”
(simbolizada por la letra A) y que mide el trabajo útil que se
puede obtener en un sistema termodinámico cerrado a temperatura y volumen
constantes (aunque en termodinámica es más usual emplear la “energía libre de
Gibbs”, G, porque opera a temperatura y presión constantes,
condiciones más habituales que las de la energía libre de Helmholtz); elaboró
su propia filosofía de la ciencia... En resumen: un auténtico gigante de las
ciencias.
La física del siglo XIX había producido dos grandes resultados. Maxwell había
sido capaz de unificar con un brillante modelo teórico la electricidad y el
electromagnetismo. Y por otra parte, los avances en la termodinámica (que es la
ciencia que, en definitiva, estudia la conversión de una forma de energía a
otra) habían llevado a formular el principio de conservación de la
energía (que Helmholtz denominó “conservación de la fuerza”, Erhaltung
der Kraft), a saber, que en un sistema aislado, la cantidad total de
energía permanece constante. Esta energía puede transformarse en alguno de los
distintos tipos de energía que existen en la naturaleza (cinética, térmica...),
pero se trata sólo de manifestaciones de un fundamento más
básico que es la energía en cuanto tal. Este principio constituye también el
primer principio de la termodinámica y, simplificando mucho, puede expresarse
mediante el famoso aforismo: “la energía ni se crea ni se destruye: sólo se
transforma”. La matemática y física alemana Amalie Noether (1882-1935), que
recibió los más altos elogios del mismísimo Einstein, demostró en 1918 que el
principio de conservación de la energía se deriva en realidad de que las leyes
de la física no varían con el tiempo.
Ahora bien, esa energía aparecía siempre como una magnitud continua.
Era lo más sensato: a nadie se le ocurre, de primeras, pensar que por ejemplo
la energía en forma de calor que se transmite de un cuerpo a otro pase
discretamente, “a partes”. Lo más intuitivo es suponer que ese calor se
transmite como un todo continuo. Esto era algo generalmente aceptado por los
físicos de finales del siglo XIX, aunque ya Ludwig Boltzmann había sugerido que
los estados de energía de un sistema físico podían ser discretos en lugar de
continuos.
En cualquier caso, el campo de la termodinámica llamaba poderosamente la
atención de Planck, y en 1878 defendió una tesis “sobre el segundo teorema
fundamental de la teoría mecánica del calor”. En Alemania, a quienes quieren
optar a un puesto como profesores en la universidad no les basta con una tesis
doctoral, sino que tienen que presentar una segunda tesis, la tesis de
habilitación. La de Planck estudiaba los estados de equilibrio de los cuerpos
isotrópicos (cuyas propiedades no dependen de la dirección) a diferentes
temperaturas, y la presentó en junio de 1880.
En 1885 obtuvo una plaza como profesor asociado en la Universidad de Kiel, su
ciudad natal, y sus intereses se centraron primordialmente en la química
física, disciplina a la que hizo aportaciones relevantes. En 1889 sustituía a
su antiguo maestro Kirchhoff en la cátedra de física de la Universidad de
Berlín, de la que sería profesor ordinario (máximo grado en el escalafón
docente) en 1892 y de la que no se retiraría hasta 1926. Alumnos suyos como la
física Lise Meitner (descubridora, junto con Otto Hahn, de la fisión nuclear
pero que injustamente y quizás por ser mujer, no ganó el Nobel de química de
1944 que sí obtuvo Hahn) recuerdan que sus clases eran extraordinarias,
caracterizadas por un rigor y una precisión formidables.
El antiguo profesor de Planck, Kirchhoff, era precisamente quien en 1859 había
lanzado, a modo de desafío, el problema de la radiación del cuerpo negro para
que lo resolvieran los físicos más distinguidos del momento; problema cuya
solución encontraría su antiguo alumno. Planck lo abordó en 1894. Un cuerpo
negro, que absorbiera toda la energía, ¿de qué modo emitiría la radiación? ¿Qué
distribución adoptaría en función de la temperatura? Como hemos dicho ya,
Rayleigh y Jeans habían propuesto una ley válida para las longitudes de onda
altas, pero que a valores bajos divergía hacia el infinito.
Planck era un hombre de espíritu más conservador que Einstein. Era un físico de
la época, educado en la gran tradición del siglo XIX, y no estaba dispuesto a
admitir cambios sustanciales en los grandes conceptos de la física a la ligera.
Tuvo que “luchar” contra sí mismo, contra el Planck, físico del siglo XIX, que
no podía aceptar que la energía no se emitiese de manera continua.
Ensayó modos distintos de explicar la curva de la radiación del cuerpo negro,
pero no tuvo más remedio, en ultimísimo término, que convencerse de que la
energía no se emitía de forma continua, sino discreta: había nacido la cuantización
de la energía. Era 1900, en las postrimerías del siglo XIX. ¿Qué es un
cuanto? Un “cuanto” (en latín, quantum en singular y quanta en
plural) es una cantidad de energía, un “paquete” energético que es múltiplo de
la frecuencia. Un cuanto es, por así decirlo, un “átomo” de energía. Un fotón,
por ejemplo, es un cuanto de energía luminosa cuya energía se puede escribir
matemáticamente con la siguiente ecuación (la ley de Planck): E = hv, donde v es
la frecuencia de esa radiación y h es la constante de
Planck, una de las constantes universales de la naturaleza y que da
una idea del “tamaño” de los cuantos. Su valor es de 6'626×10-34J.s
en el sistema internacional (unidades de acción: energía multiplicada por
tiempo). ¡Un valor minúsculo, casi ínfimo! No es de extrañar que a escala
macroscópica como a la que nos movemos ordinariamente nos parezca que la
energía es un continuo, porque los “cuantos” de energía son tan pequeños que
sumados prácticamente se aproximan a una magnitud continua. Años más tarde, en
1923, el físico danés Niels Bohr formulará el principio de
correspondencia, que sostiene que el comportamiento de un sistema cuántico
se reduce en realidad al de un sistema clásico (el que está regido por la
física de Galileo y de Newton) cuando los números cuánticos se hacen muy
grandes. En resumen: a nuestra escala (meso o macroscópica) siguen siendo
válidas las leyes de la física clásica, que representan un caso límite de
los principios de la física cuántica. Y es que una buena teoría científica no
destruye lo anterior, sino que lo engloba en un marco que abarca más aspectos.
Va, por así decirlo, al fundamento, y desde ese fundamento es capaz
de justificar los resultados válidos que se habían obtenido tiempo atrás. El
conocimiento científico es progresivo no porque las teorías se
mantengan inmutables y simplemente se sucedan unas a otras, pues es un hecho
que ha habido teorías que han sustituido y no sólo ampliado a otras, sino
porque los resultados que se han ido logrando y que no cabe cuestionar son integrados en
un edificio cada vez mayor. Las revoluciones científicas existen, pero afectan
al modo de entender los resultados científicos. La teoría
cuántica de Planck fue una revolución, porque proponía una nueva noción de cómo
se emite la energía (de modo discreto y no continuo), pero no una revolución en
el sentido de borrarlo todo y volver a empezar, como si fuera una “refundación”
de la ciencia que nació en el siglo XVII. Era una revolución conceptual que
profundizaba más en lo que ya se sabía y que abría las puertas a nuevos
descubrimientos.
Planck, que como hemos mencionado era una persona científicamente conservadora,
sólo quería conceder a su propuesta de los cuantos de energía el estatus de
mera “asunción formal”, una especie de herramienta matemática útil que le
servía muy bien para explicar el problema de la radiación emitida por un cuerpo
negro. Pero nada más. Sin embargo, los hechos terminaron siendo contumaces, y
lo que el profesor Planck veía como una hipótesis matemática acabaría
aceptándose como un hecho físico.
Con la suposición de Planck todo cuadraba, y era posible obtener una
distribución matemática que se ajustaba perfectamente a todo el rango de la
curva de emisión de radiación del cuerpo negro y no sólo a las frecuencias
altas o bajas. La era de los cuantos había llegado.
Como quiera que Planck no estaba muy conforme con su idea de los cuantos de
energía, que rompían con la tradición física previa, hubo que esperar a que
Albert Einstein propusiese en un célebre artículo de 1905 una explicación para
el efecto fotoeléctrico que empleaba la teoría de Planck, para
que la comunidad científica se terminase convenciendo de la existencia de
los quanta. Este efecto consiste en que al irradiar energía
electromagnética a una superficie metálica, ésta emite electrones siempre y
cuando la frecuencia de esa radiación sea igual o superior a un valor de
frecuencia umbral, y a mayor frecuencia de la radiación incidente, los
electrones emitidos presentan mayor energía.
Einstein asumió la teoría de Planck de que la energía se emite en cuantos
discretos y no como un continuo. La radiación electromagnética que incide sobre
el metal estará entonces compuesta por “paquetes” de energía o fotones (palabra
que acuñó el químico estadounidense G.N. Lewis en 1926, y que Einstein
llamaba Lichtquant, cuanto de luz, en su artículo en la
revista Annalen der Physik de 1905), y si esta energía es
suficiente, comunicará al electrón en cuestión de la superficie metálica una
energía cinética (esto es, una velocidad) tal que le permitirá escaparse. El fenómeno
en sí no tiene explicación dentro de los márgenes de la física clásica, porque
el trabajo de Einstein implica que cada fotón es capaz de excitar o potenciar
energéticamente a un único electrón: se establece una correspondencia de a
pares entre cada fotón y cada electrón, y cada electrón absorbe sólo un fotón.
Si la energía fuese continua, como se creía antes que Planck y como postulaban
las ecuaciones de Maxwell sobre el electromagnetismo, esa relación de a pares
habría sido imposible. Sólo admitiendo que la luz (que es la radiación
electromagnética del rango del visible, con una frecuencia comprendida entre
unos valores determinados, pero radiación electromagnética al fin y al cabo)
estuviese hecha de “cuantos” o “paquetes” de energía electromagnética, se podía
justificar físicamente el efecto fotoeléctrico. Si la explicación de Einstein
imagina la luz como una especie de “corpúsculo” o “paquete” de energía que
colisiona con los electrones, ¿es la luz una onda o una partícula? La luz
manifiesta comportamientos como la refracción, típicos de una onda, pero en
ciertas situaciones como en el efecto fotoeléctrico hay que verla como un
corpúsculo. ¿Qué es? Las limitaciones de nuestros conceptos físicos, que tratan
de representar una realidad a la que sólo se aproxima, obligan a que por ahora
la mecánica cuántica tenga que convivir con esa dualidad onda-
partícula, que se extiende no sólo a la luz sino, por extraño que
resulte, a todos los objetos del universo, que exhiben propiedades de onda y de
partícula.
La hipótesis de Einstein fue cuidadosamente corroborada por el físico americano
Robert Millikan. Einstein recibiría el premio Nobel de física en 1921 y
Millikan en 1923. El trabajo de Einstein venía a consagrar a Planck en el
Olimpo de la física de la época, obteniendo el premio Nobel en 1918 “en
reconocimiento a los servicios dados a la ciencia por su descubrimiento de los
cuantos de energía”. El efecto fotoeléctrico primero y el modelo atómico de
Niels Bohr después, constituían dos ejemplos excepcionales de los resultados
teóricos y experimentales que ofrecía la aplicación de la teoría cuántica de
Planck.
Los últimos años de Planck no fueron fáciles. Además de su hijo Karl, que había
fallecido en el campo de batalla de Verdún durante la primera guerra mundial,
en 1945 moría ejecutado su hijo Erwin por haber participado en el intento de
asesinar a Adolf Hitler en 1944. Max Planck falleció el 4 de octubre de 1947 en
la ciudad alemana de Göttingen.
Planck es una de las glorias científicas de Alemania, país que nunca ha
ocultado su orgullo por haber sido la patria del iniciador de la física
cuántica. La Kaiser-Wilhelm- Gesellschaft zur Forderund der
Wissenschaft (“Fundación káiser Guillermo para el avance de la
ciencia”) que había sido establecida en 1911 bajo los auspicios del káiser
Guillermo II (quien le daba nombre) pasó a llamarse, después de la segunda
guerra mundial, la Max Planck Gesellschaft, que en la
actualidad agrupa a numerosos centros de investigación a lo largo y ancho de
Alemania. La Sociedad física alemana concede, desde 1929, la “medalla Planck” a
destacados físicos teóricos, y entre sus poseedores se encuentran científicos
de la altura de Einstein, Bohr o Heisenberg.
Max Planck ha pasado a formar parte de la historia de la ciencia porque tuvo la
valentía de poner en tela de juicio sus convicciones más sólidas sobre la
naturaleza de la energía. Al postular la existencia de los cuantos de energía
en 1900, Planck inauguraba una nueva era en la física teórica que iba a
producir resultados asombrosos durante todo el siglo XX: la física cuántica
Capítulo 18
Marie Curie y la radioactividad
Una de las peores lacras de la historia de la
humanidad es el escaso papel que las mujeres han podido desempeñar hasta bien
entrado el siglo XX en el campo de la creatividad y del liderazgo intelectual y
social. De haber asumido ese liderazgo más pronto, no cabe duda de que
habríamos progresado antes, más y mejor. Por el contrario, una cultura androcéntrica (centrada
en el varón) degradó la condición de la mujer durante siglos, negándole toda
capacidad de realizar contribuciones al conocimiento y a la tecnología,
relegándola a un papel marginal en el gobierno de la sociedad y de las
instituciones, recluyéndola a la esfera doméstica como si fuese su único lugar
natural y, convirtiéndola, al fin y al cabo, en una esclava del hombre. Esta
misoginia generalizada que ha persistido durante siglos y que representa una de
nuestras manchas más oscuras y tétricas, ha tenido como consecuencia evidente
no sólo una ralentización obvia de los avances en todos los sectores (está
clarísimo que si la otra mitad del género humano hubiese tenido la oportunidad
de participar desde un principio en la construcción del edifico del
conocimiento y del desarrollo, todo habría ido más rápido), sino incluso la
extensión de opiniones sin fundamento científico o psicológico alguno pero con
matices ideológicos que sostenían que las mujeres no poseían una inteligencia
científica, especulativa o abstracta, y que nunca realizarían contribuciones
tan relevantes en el plano teórico (por ejemplo, en las ciencias y en las
disciplinas humanísticas) como los varones.
Aristóteles, uno de los hombres más sabios e influyentes de la antigüedad
clásica, afirmaba que el rol de la mujer en la procreación era meramente
pasivo. El varón era el elemento activo: tenía la virtus activa y
la mujer la virtus pasiva. En realidad, el único que generaba
a la nueva criatura era el varón, porque la mujer se limitaba a ser un simple
receptáculo del “principio activo” que salía del varón. Semejantes teorías,
seguidas acríticamente por un sinfín de personalidades a lo largo de siglos y
por supuesto sin la más mínima base empírica (de hecho ya Galeno, junto con
Hipócrates el mayor médico de la cultura clásica, reconocía un determinado
papel activo a la mujer en la procreación, por lo que la misoginia en ciertos
ámbitos intelectuales no estaba, en absoluto, justificada), llevaron a otros a
formular frases tan demoledoras y deprimentes (máxime si se tiene en cuenta la
sabiduría y el talento de estos mismos hombres en otros ámbitos) como que el
varón era el principio y el fin de la mujer, un ser aliquid deficiens
et occasionatum, “algo deficiente y malogrado”. Además, el mismo
Aristóteles defendía que la animación de la mujer (es decir, el momento en que
recibía el alma, su forma sustancial en la metafísica de este filósofo) se
producía con posterioridad a la del varón. La vida de la mujer debía gravitar
en torno a la del varón y someterse a sus exigencias, porque él era el ser
humano en sentido pleno. Hubo que esperar hasta 1827 para que se demostrase la
existencia del óvulo femenino y quedase plenamente confirmado el papel activo
de la mujer en la procreación.
Por si fuera poco, una mente extraordinaria como la matemática, inventora y
filósofa neoplatónica Hipatia de Alejandría fue asesinada por
una turba de exaltados (después de ser demonizada como bruja sediciosa) el año
415 después de Cristo con la complicidad silenciosa de Cirilo, patriarca de esa
ciudad egipcia y enemigo acérrimo del prefecto Orestes (quien era alumno de
Hipatia). Juan de Nikio, siglos más tarde, escribió un relato verdaderamente
desgarrador de la crueldad con que se produjo la muerte de Hipatia. La
marabunta fue en su busca, la apresó, la desnudó y la arrastró por toda la
ciudad. Luego cortaron su piel y su cuerpo, y cuando estaba ya muerta, la
descuartizaron para luego quemarla. ¿Acusación formal? Idolatría, herejía,
brujería, hechicería... De todo un poco. Un anticipo de lo que vendría siglos
más tarde con la satanización de muchas mujeres como brujas y adoradoras del
diablo (las famosas cazas de brujas) que difundió tamaña
superstición por amplias regiones de Europa y que constituye sin duda uno de
los episodios más denigrantes que se han dado para la dignidad de la mujer.
Los hechos prueban que conforme la mujer ha ido adquiriendo una mayor autonomía
y responsabilidad en la sociedad y en la educación, el número de ilustres
científicas y pensadoras ha aumentado. Las mujeres ya habían contribuido al
progreso del conocimiento, aunque sus méritos se atribuyesen con frecuencia a
sus maridos. La memoria de otras como Rosalind Franklin, clave en el
descubrimiento de la estructura de doble hélice del ADN, fue olvidada y la
relevancia de su labor científica minusvalorada, y no pocos críticos han
señalado que James D. Watson, en su libro La doble hélice, es
sumamente injusto con las aportaciones reales de Franklin. Lo cierto es que en
cuanto la mujer ha estado en igualdad de condiciones con el varón para acceder
a la formación superior, ocupar cátedras y tomar posiciones de liderazgos (en
la economía, la empresa, la ciencia, la sociedad...), las aportaciones se han
multiplicado. Poco de lo que sabemos sobre un concepto tan importante y cada
vez más popularizado para la cosmología actual como es el de materia
oscura habría llegado sin el trabajo de la astrofísica norteamericana
Vera Rubin. Rubin tuvo que sufrir en sus propias carnes la discriminación hacia
la mujer en países supuestamente modernos cuando quiso ingresar en la
Universidad de Princeton para cursar astronomía y le fue vetada la entrada. La
física y matemática alemana de origen judío nacida en Erlangen Ammalie Emmy
Noether (1882-1935) poseía una capacidad de abstracción y de teorización
extraordinaria, que le permitió formular uno de los teoremas más relevantes de
las ciencias físicas que relaciona las leyes de conservación con la simetría de
un sistema.
En cuanto las sociedades avanzadas han conseguido que la mujer se incorpore con
plenos derechos al liderazgo social, científico e intelectual, todo el mundo se
muestra contentísimo y orgullosísimo por esta gesta. Todos se apuntan al mérito
de una batalla ya ganada, olvidando la sangre, el sudor y las lágrimas que
costó a muchísimas mujeres durante siglos obtener esos derechos, pero
seguramente sin proponer medidas concretas para suplir deficiencias que
persisten todavía hoy como la participación de la mujer en la dirección de las
grandes empresas.
Y si hay una mujer que encarna, como pocas, ese ideal de esfuerzo, sacrificio e
inteligencia es Marie Curie. La vida de Marie Curie es la apasionante historia
de la superación constante de las adversidades y del triunfo del genio y del
talento sobre todos los obstáculos. Con ella y con el reconocimiento del que
pudo gozar, parece que la historia de la ciencia sanaba al fin una deuda
milenaria con la mujer.
Quien iba a abrir un nuevo mundo para la ciencia (emulando a su compatriota
Nicolás Copérnico) con sus trabajos sobre la radioactividad nació el 7 de
noviembre de 1867 en Varsovia, cuando Polonia estaba sometido al dominio del
imperio ruso. Su nombre de pila era Maria Sklodowska, y fue
bautizada como católica, aunque luego optase por el agnosticismo. Marie, polaca
y mujer, sufrió las contrariedades que parecían desafiar a su infinita
curiosidad y a su ansia insaciable de aprender desde muy joven. No tenía ningún
reparo en quedarse sin dormir o sin comer con tal de lograr la mejor nota de su
clase. De hecho, años más tarde y viviendo ya en París, llegará a pasarse
noches enteras estudiando y repasando para al final conseguir terminar la
número uno de su promoción, aun a costa de la malnutrición y el agotamiento
llevado hasta la extenuación que le hacía desmayarse en no pocas ocasiones en
la universidad.
Marie no pudo entrar en la universidad en Polonia. Mujer y polaca resultaba una
mezcla imposible en aquella época en su país, que estaba bajo el poder del zar
Alejandro II, “zar de todas las Rusias por la gracia de Dios” y que entre sus
innumerables títulos incluía el de “zar de Polonia”, abuelo del desdichado
Nicolás II Romanov. El zar había puesto serias limitaciones a la educación de
los polacos, y Marie tuvo que arreglárselas para asistir clandestinamente a
clases universitarias en Varsovia, a la vez que trabajaba como maestra en
diversas escuelas y como institutriz. Con el dinero que ganaba financió el
viaje de su hermana mayor Bronislawa a París para estudiar medicina, algo de
una generosidad excepcional si pensamos que Marie era más brillante que su
hermana y que habría merecido más irse a París. Pero el bien acaba siendo
recompensado, y Marie dispuso del dinero suficiente para marcharse ella misma a
París en 1891.
París, centro cultural de Europa junto con Londres y Viena, era por entonces un
vivero de ideas científicas, filosóficas, literarias... que afloraban por
doquier. A Marie le fascinó. La Torre Eiffel, erigida para cantar “la gloria de
la ciencia francesa” (y que lleva grabados en la fachada de la primera planta,
a unos 60 metros de altura, los nombres de 72 científicos, matemáticos e
ingenieros franceses de renombre, como Laplace o Cauchy) durante la exposición
universal de 1889, simbolizaba esa era de optimismo racionalista de finales del
XIX, donde se creía que la ciencia daría repuesta y solución a todos los
interrogantes y problemas que se presentasen.
Así que Marie se instaló en París y decidió buscar lo que más amaba: el
conocimiento. ¿Y en qué lugar de París se llevaba cultivando el conocimiento
desde hacía siglos? ¡En La Sorbona! En pleno barrio latino, la centenaria
universidad atraía a intelectuales, bohemios y soñadores. Marie se matriculó en
matemáticas, física y química. Había pocas mujeres en las aulas, y menos aún
que llevasen una carga de materias tan abrumadora como Marie. Pero nada se le
resistía. No había fronteras u obstáculos que no pudiese resolver con su tesón
y su inteligencia. En dos años, en 1893, Marie obtuvo la graduación con la
máxima nota de su promoción, algo indudablemente portentoso. Y al año siguiente
recibía también el título de matemáticas. Marie había tenido que trabajar muy
duro para triunfar en la Sorbona. Dormía en áticos sin calefacción,
permaneciendo noches entera despierta para estudiar. Su situación económica era
enormemente precaria: una emigrante polaca en París con escasos recursos,
matriculada en carreras exigentes y en una universidad del prestigio de La
Sorbona.
Pero lo logró. Y no sólo eso, sino que en 1903 alcanzaría el título de doctora
(con una tesis sobre radioactividad que le valdría dos premios Nobel, por lo
que puede considerarse como una de las tesis más fecundas, productivas y
galardonadas de la historia de la ciencia) y en 1909 sustituiría a su marido
Pierre en su cátedra de física en La Sorbona, convirtiéndose en la primera
mujer que accedía a un escalafón tan alto en esta universidad. Marie batía
todos los récords y hacía entrar a la mujer por la puerta grande en la ciencia,
puerta que otras ya habían atravesado antes que ella, pero que probablemente no
había disfrutado nunca de un reconocimiento tan generalizado como el que tuvo
Marie. Sólo una cosa se le resistiría en vida: por un voto no fue admitida en la
Academia francesa de las ciencias, a pesar de contar con méritos más que
suficientes (más que la mayoría de los miembros de esta institución).
Marie estaba interesada en el fenómeno del magnetismo, y la suerte hizo que
conociese a su futuro marido (se casaron en 1895) Pierre Curie (1859-1906), que
era una de las mayores autoridades en el campo. La ley de Curie, que
se enseña en los cursos de física fundamental, afirma que en los materiales
paramagnéticos (aquéllos que se magnetizan en presencia de un campo magnético
externo), la magnetización producida es directamente proporcional a la densidad
de flujo magnético e inversamente proporcional a la temperatura. El punto
de Curie es la temperatura a la que un material cambia sus propiedades
magnéticas (por ejemplo, un material ferromagnético -como el hierro o el
cobalto- deja de serlo por encima de esa temperatura). Además, Pierre y su
hermano Jacques habían conseguido demostrar que si ciertos materiales (como el
cuarzo) eran sometidos a una determinada presión, esos materiales eran capaces
de desarrollar una serie de cargas eléctricas. La tensión mecánica generaba una
polarización eléctrica en el seno de la estructura cristalina del material en
cuestión. Un hallazgo excepcional (por relacionar fenómenos mecánicos y
eléctricos) que se llamó piezoelectricidad, ampliamente
utilizado hoy en dispositivos tan populares como los micrófonos. Si Marie
quería saber de magnetismo, estaba claro que Pierre era la persona ideal.
En pocos matrimonios se ha dado una unión tan profunda e intensa de amor y de
pasión por la investigación científica. Si los Bach son la familia musical por
excelencia o los Bernouilli la familia de matemáticos por antonomasia, los
Curie no lo son menos en el campo de las ciencias físicas y químicas. La familia
Curie ha sumado un total de cinco premios Nobel: dos de Marie, uno de Pierre,
uno de su hija Irene Joliot-Curie y otro de Frédéric Joliot-Curie (marido de
Irène). Algo único en la historia de los galardones más famosos del mundo, por
lo que bien merecen el apodo de “la familia Nobel”.
A finales del siglo XIX, el físico francés Henri Becquerel (1852-1908) había
dado con algo sorprendente. Y como en tantos otros hallazgos científicos (la
síntesis química de la urea de Friedrich Wohler, la penicilina de Alexander
Fleming...), se produjo por casualidad, algo que en el ámbito anglosajón se
denomina serendipity. Porque, como dijo Louis Pasteur, “en el
campo de la observación, el azar sólo favorece a las mentes preparadas”.
Alguien que no tuviese los conocimientos de Fleming seguramente no habría
reparado en la importancia de que su cultivo bacteriano de estafilococos no
podía crecer en una zona en la que había un tipo de hongo muy especial
perteneciente a la familia Penicillium, dando así con uno de
los antibióticos que más vidas han salvado en el siglo XX. Para descubrir algo
por casualidad hay que estar allí. Es muy fácil volver luego la vista atrás y
decir: “¡qué suerte!”, “¡qué casualidad!”, “¡qué fácil!”, pero desde luego el
que no entre en un laboratorio o no se ponga a investigar difícilmente
descubrirá algo por casualidad, porque si algo no existe en la ciencia, es la
ciencia infusa. El rol de la casualidad en el progreso de la ciencia no quita
importancia y necesidad al método. Sin método, lo casual se convierte en
inútil. Si Fleming, Florey y Chain no hubiesen investigado después del fortuito
hallazgo del primero las propiedades de ese hongo y no lo hubiesen sometido a
rigurosos análisis (todo ello guiado, lógicamente, por los principios del
método científico), de poco habría servido lo que Fleming identificó aquel día
de 1928 en el hospital de Santa María de Londres.
Algo parecido le ocurrió a Becquerel. Colocó unas placas fotográficas de una
sal de uranio previamente envueltas en un cajón de la mesa de su despacho,
porque el mal tiempo le impedía realizar unos experimentos de fluorescencia que
estaba llevando a cabo. Pero cuál sería su sorpresa al comprobar que las
películas fotográficas se habían velado. ¿Cómo podían velarse si no habían
estado expuestas a la luz solar, ya que las había tenido guardadas en un cajón?
Era marzo de 1896, y Becquerel había descubierto la radioactividad, es
decir, el fenómeno que consiste en la emisión natural de radiación por parte de
ciertos materiales. ¡El uranio emitía radiación espontáneamente! Becquerel
había abierto un nuevo horizonte a la física nuclear. El átomo ya no era un
punto indivisible, sino que tenía “partes”, porque sin esas partes era
imposible explicar la radiación emitida por átomos como el de uranio, radiación
que consistía en rayos gamma (mucho más energéticos que
los rayos X que había descubierto el alemán Wilhelm Roentgen
años antes), radiación beta (electrones o positrones que se
emiten a muy alta energía) y radiación alfa (núcleos de helio,
es decir, dos protones y dos neutrones, que se suele simbolizar como un átomo
de helio que ha perdido los dos electrones que tenía en su corteza: He2
+ ). Conocer éstos y otros tipos de radiación y aprender a
dominarlos ha sido uno de los mayores hitos de la física del siglo XX, una de
cuyas principales líneas de trabajo ha estado orientada justamente al estudio
del núcleo atómico.
Los Curie tenían noticia de los descubrimientos de Becquerel y los tres (Henri,
Pierre y Marie) vivían en la misma ciudad. Empezaron a estudiar los
materiales radioactivos y en particular la pechblenda o
uraninita (dióxido de uranio: UO2), mineral que en esa
época era la principal fuente de uranio. La pechblenda, cristalina o amorfa, es
un material relativamente opaco, de color negro o grisáceo
Ellos mismos costearon la compra de grandes cantidades de pechblenda, que
tenían que importar desde Jáchymov, en la actual República Checa, y montaron su
propio laboratorio en unas condiciones cuanto menos heroicas. A Marie no le
importaba tener que llevar los tubos con sustancias radioactivas en sus
bolsillos, y las medidas de seguridad de su lugar de trabajo eran prácticamente
nulas. Lo único que parecía preocuparle era profundizar en el conocimiento del
fenómeno que había descubierto Becquerel. A día de hoy, cuando la ciencia se ha
profesionalizado mucho y los medios técnicos disponibles son tantos y de tanta
calidad, uno no puede sino admirar la entereza y la constancia del matrimonio
Curie. Lo que ellos hacían era ciencia con mayúsculas, en la mejor tradición de
espíritu de búsqueda y entrega a la causa del saber al que han servido algunos
de los nombres más ilustres de la historia. Y los Curie embellecieron con su
apellido esa genuina tradición.
Los Curie llegaron a la conclusión de que el mineral que estaban estudiando, la
pechblenda, tenía que contener aun a nivel de trazas (es decir, en
concentraciones extremadamente bajas) una sustancia de mayor poder radioactivo
que el uranio. Lo difícil era aislar un elemento que se encontraba en
proporciones tan minúsculas, pues había que separarlo del uranio. Era una tarea
sumamente complicada, pero no para los Curie, que ni se desanimaron ni cesaron
en su empeño de identificar esa misteriosa sustancia que emitía más radiación
que el uranio de Becquerel, a pesar de que su salud corría peligro por el tipo
de materiales a los que se estaban exponiendo. Finalmente, en diciembre de
1898, los Curie descubrieron un nuevo elemento para añadir a la tabla periódica
de Mendeleyev: el radio (radium en francés, de símbolo Ra y
cuyo número atómico -es decir, el número de protones- es 88) y lo llamaron así
por su intensa radioactividad. Pero aquí no acaba su hazaña, porque al poco
dieron con otro elemento completamente desconocido hasta entonces: el polonio
(Po, de número atómico 84). Marie le puso este nombre en honor de su
amada tierra natal, Polonia. Si tenemos en cuenta que el elemento de número
atómico 96, un metal transuránico radioactivo obtenido por primera vez en 1944
en Berkeley (California), se denominó curio en honor de los
Curie, hay al menos tres elementos de los (por ahora) 118 que componen la tabla
periódica que llevan la impronta de este genial matrimonio.
La comunidad científica no tardó en reconocer el valor de las investigaciones
de los Curie para el progreso de las ciencias. En 1903, Pierre y Marie
compartían con Henri Becquerel el premio Nobel de física por sus trabajos sobre
la radioactividad. María era así la primera mujer que ganaba este premio. El
trágico fallecimiento de Pierre atropellado por un carruaje en 1906 impidió que
compartiera con su esposa el premio Nobel de química de 1911, que Marie obtuvo
sola “por el descubrimiento del radio y del polonio”. María se convertía así
también en la primera mujer que conseguía el Nobel de química y en la primera
persona en acumular dos premios Nobel. Hasta el momento, nadie más ha logrado
ganar dos Nobel en dos ciencias distintas (Bardeen y Sanger ganaron dos en
física y dos en química respectivamente, y Pauling ganó uno en química y otro
en la paz).
Pero Marie no fue sólo una científica extraordinaria poseedora de un tesón sin
igual y de una maravillosa mente, sino también una persona comprometida con el
bien de la sociedad. No quiso patentar el proceso de aislamiento del radio
(quizás su mayor contribución a la química), de manera que todo investigador
que necesitase emplear la técnica que había descubierto pudiera hacerlo
libremente.
Marie dedicó sus últimos años a promocionar con fines médicos las
investigaciones sobre radioactividad, y con sus viajes a lo largo del globo
recaudó fondos para establecer el Instituto del Radio de
Varsovia, y fue nombrada directora del Instituto Pasteur de
París. De hecho, no sería exagerado especular con la posibilidad de que Curie
hubiese obtuviese un tercer premio Nobel, esta vez en Medicina, por su trabajo
sobre el valor de la radioactividad en la medicina. También Linus Pauling, uno
de los grandes químicos teóricos del siglo XX, estuvo a punto de ganar un
tercer premio Nobel (que podría haber sido en química o en medicina) por sus
descubrimientos sobre la estructura del ADN, pero Watson y Crick se le
adelantaron.
Su dedicación incondicional a la ciencia también se cobró un alto coste humano,
ya que una anemia aplásica (consistente en el mal desarrollo de las células de
la médula ósea y contraída como consecuencia del prolongado contacto de Marie
con elementos radioactivos) acabó quitándole la vida el 4 de julio de 1934. Su
cuerpo está enterrado bajo la cúpula del célebre Panteón de París, junto al del
hombre a quien tanto amó y en cuya compañía realizó sus mayores aportaciones al
progreso de las ciencias. Marie Curie es un símbolo de la posibilidad casi
infinita de superación y de sacrificio que posee el ser humano. La suya es una
de las biografías más heroicas que conoce la historia de la ciencia. Su mente
maravillosa no sólo descubrió dos nuevos elementos, permitió avanzar en el
estudio de la radioactividad y ganó dos premios Nobel, sino que hizo algo si
cabe más importante: a partir de Marie Curie, el papel y la imagen de la mujer
en la ciencia cambiarían para siempre.
Capítulo 19
Einstein. Todo es relativo... ¿o no?
¿Cómo se forjan los genios? ¿Yendo a buenos
colegios, a prestigiosas universidades y teniendo los mejores profesores? Puede
que sí, no lo neguemos. Pero no siempre es necesario. Es más: en ocasiones
puede resultar un obstáculo. Parece que la adversidad y la superación de
dificultades avivan el talento. Buscar modelos ya establecidos, “clichés” para
las grandes mentes, es demasiado limitado.
Y hablar de genio en nuestro tiempo es, para muchos, lo mismo que hablar de
Albert Einstein. Einstein no fue a los mejores colegios, ni a las mejores
universidades, ni tuvo los mejores profesores. Cierto es que, pese a todo, su
educación fue buena, pero también lo es que no destacó especialmente en los
estudios. Y sin embargo, la revista Time lo nombró, hace unos
años, el mayor genio del siglo XX. ¿Cómo lo hizo? Sus principales ideas le
vinieron estando casi asilado de la comunidad científica, en una oscura oficina
de patentes de Berna, en Suiza. De joven tenía la costumbre de leer a Goethe y
a Kant, y seguramente en éstos y en otros pensadores encontró mayor inspiración
que buceando únicamente en las publicaciones científicas. Poseía una
imaginación extraordinaria, desorbitada, que le permitía reproducir
experimentos mentalmente (su laboratorio, solía decir, consistía en una hoja de
papel y en un lápiz). Si, como se cuenta, a Descartes se le ocurrió la
geometría analítica y la representación mediante abscisas y ordenadas
contemplando la trayectoria de una mosca que pululaba por el techo de su
habitación mientras él dormía, Einstein soñaba que cabalgaba sobre un rayo de
luz y se preguntaba qué le ocurriría. La respuesta vino en forma de su teoría
más famosa: la relatividad.
Es muy difícil resumir en unas pocas páginas todas las aportaciones científicas
de Einstein, como también lo es describir la influencia de su obra en el
pensamiento del siglo XX. En cualquier caso, y como ocurre con la vida y obras
de los genios, leer su biografía nos permite “sentir” la ciencia y el
conocimiento, ver cómo se gestaban, cómo lo que a otros quizás les hubiera
costado esfuerzo, tiempo y la ayuda de los demás, a personas como Einstein les
venía de manera casi súbita (y aquí no estamos exagerando). Mozart componía
música con una velocidad asombrosa: tenía las partituras en su cabeza,
mentalmente, y lo único que le quedaba era ponerlas por escrito. Si no, habría
sido materialmente imposible que en sólo treinta y cinco años produjese tanto y
de tanta calidad. Algo similar puede decirse de Einstein: él “veía” la forma de
la naturaleza física de manera nítida y límpida. Si en capítulos anteriores
hemos podido dar una idea “negativa” de intuición como dejarse llevar por las
primeras apariencias sin profundizar, en el caso de Einstein la intuición
recobra toda su grandeza y todo su poder. Intuición, en científicos como
Einstein, es visión inmediata de lo oculto, de lo escondido, de lo que
requeriría de un enorme trabajo para dilucidarse. El antiguo filósofo indio
Sankara creía que la realidad estaba cubierta por un velo, el velo de
Maya. Todo es pura ilusión, fruto de la ignorancia. Einstein, como
otras mentes maravillosas a lo largo de la historia, han sido capaces de
levantar ese velo de maya y descubrir todo un universo de
sentido.
Sentido que, indudablemente, no es sinónimo de “finalización”, como si los
descubrimientos de Einstein disipasen directamente todos los interrogantes que
podamos plantearnos sobre el espacio y el tiempo. Es más: avivan nuevas
preguntas, como hacen en realidad todos los grandes avances en el conocimiento.
Y Einstein, cuando había logrado ver la solución, tenía que escribirla en el
lenguaje de la física, que es el lenguaje matemático. Einstein llegó a
pronunciar una frase poco antes de morir que puede desconcertarnos: “¡si yo
hubiera sabido más matemáticas...!” ¿Einstein quejándose de no saber
suficientes matemáticas? ¿Uno de los mayores intelectos científicos de la
historia se lamenta por sus lagunas matemáticas? ¡Sí! Han existido físicos
mucho mejor preparados técnicamente que Einstein que, sin embargo, no tenían su
talento para “ver” más allá de los detalles, los formalismos y los tecnicismos.
Pero todo verdadero genio es consciente de sus limitaciones, porque quien ha
podido explorar más e introducirse más en el mundo el saber acaba haciéndose
discípulo del Sócrates de “sólo sé que no sé nada”. Descubren, sí, nuevos
mundos; pero conforme descubren esos nuevos mundos descubren también lo mucho
que les queda por saber y que sus hallazgos conducen a nuevas incógnitas.
Las innumerables aportaciones de Einstein a la física teórica comprenden la
teoría especial de la relatividad, la teoría general de la relatividad, la
equivalencia entre la masa y la energía, la cosmología relativista, el efecto
fotoeléctrico, la acción capilar, la opalescencia crítica, la estadística de
Bose-Einstein en mecánica cuántica, la explicación del movimiento browniano,
las probabilidades de transición atómica, la aplicación de la teoría cuántica a
un gas monoatómico, la teoría de la emisión estimulada de la luz (que está en
la base de los láseres), un trabajo pionero sobre el campo
unificado (que integraría las cuatro fuerzas fundamentales de la
naturaleza - gravitatoria, electromagnética, nuclear débil y nuclear fuerte- en
un único marco teórico), etc. Aunque su fama le venga principalmente por la
teoría de la relatividad (especial y general), es fácil darse cuenta de que su
creatividad científica fue excepcional, casi sin comparación en la historia.
Albert Einstein nació el 14 de marzo de 1879 en la ciudad alemana de Ulm, en
Baden-Württemberg, al sur de Alemania. Procedía de una familia judía poco
practicante en la que el padre, Hermann Einstein, se dedicaba al comercio. Su
madre se llamaba Pauline Koch.
En 1880, al poco de nacer Einstein, la familia se trasladó a Munich, la capital
de Baviera y situada al este de Ulm, donde su padre había formado un consorcio
con su tío para establecer una fábrica de electrotecnia. En Münich, Einstein
acudió a una escuela elemental católica si bien, tal y como él mismo llegó a
contar, pronto “desconectó” de toda religión al considerar absurdos muchos
relatos bíblicos. Es cierto que en su madurez llegó a afirmar: “Dios no juega a
los dados con el universo” (en contraposición a la interpretación de la
mecánica cuántica en términos de probabilidades y no de valores determinados que
había dado la escuela de Copenhague, con Bohr, Heisenberg y Born a la cabeza),
pero la divinidad a la que se refería Einstein era más bien el dios de otro
ilustre judío, el filósofo del siglo XVII Baruch Spinoza; el dios que
representa la inteligencia y el orden que subsisten en la naturaleza. Un dios
que se identifica con la naturaleza y no el “dios de Abraham, el dios de Isaac,
el dios de Jacob”, que diría Pascal. En su infancia, Einstein desarrolló pasión
por la música clásica y en especial por Mozart, aprendiendo a tocar con
destreza las obras para violín del genial compositor de Salzburgo. Einstein
veía en la belleza de la música de Mozart una expresión de la armonía del mundo
físico que el ser humano descubre a través de leyes matemáticas. Esa gran “sinfonía”
que constantemente pone en escena el universo se asemejaba a las notas y a los
compases de Mozart. Ya anciano, escribirá a la reina de Bélgica: “existe
después de todo algo eterno, que está más allá del mañana, del destino y de las
decepciones humanas”.
Como otro genio de la física, Isaac Newton, Einstein estaba fascinado por el
diseño de aparatos mecánicos. Seguramente la agilidad mental que le
proporcionaba el estudio del funcionamiento de estos artilugios, de cómo se
disponen unas partes de manera que su movimiento repercute en el de otras, le
sería de ayuda inestimable en su futuro como físico teórico, llegando a
desarrollar una capacidad formidable para realizar “experimentos mentales” y
percibir el comportamiento de un sistema sin necesidad de presenciarlo.
Si hay algo que haya definido a las familias judías a lo largo de la historia
es el aprecio por todo lo que signifique conocimiento y la ayuda mutua que se
dan unos a otros para progresar intelectual y personalmente. Al parecer Max
Talmud, un joven que estudiaba medicina y que era amigo de los padres de
Einstein, propuso al niño Albert leer con tan sólo diez años obras como
la Crítica de la razón pura de Kant y los Elementos de
Euclides, y se suele decir que con doce años Einstein dominaba ya la geometría
euclídea y estaba preparado para iniciarse en el cálculo infinitesimal
(derivadas e integrales); por supuesto, con varios años de adelanto respecto de
los planes de estudio de la época. Esta independencia siempre definió a
Einstein. Hoy en día, en una sociedad tan interconectada, donde todo está
programado y hecho, donde todo el mundo se dedica a todo y prácticamente no
existe ningún área del conocimiento abandonada o sin “domesticar”, no deja de
sorprender la capacidad de iniciativa de Einstein. Vivió en otro tiempo, es
verdad, y quizás hoy sería imposible emularle porque la ciencia y cualquier
disciplina del saber está sumamente desarrollada y requiere de la colaboración
de muchas personas para hacerlas avanzar. Pero en cualquier caso, también es
comprensible que nos maravillemos ante ese “ardor” de genios como Einstein,
ante esa necesidad que sentían de proseguir por sí solos, de franquear las
barreras artificiales de la edad o de los medios disponibles para adentrarse en
lo que les llamaba la atención: el afán de entender.
Posteriormente, Einstein ingresó en el Luitpold Gymnasium de
Münich, fundado por el príncipe Luitpold de Baviera en 1891. Einstein, como
Descartes, no aprendió mucho en la escuela. Era rebelde por naturaleza,
prefería la soledad y, como dicen los ingleses, “marcarse su propia agenda” en
lugar de seguir los rígidos planes de estudio del por otra parte exigente
bachillerato alemán. No se sentía motivado, y como les ha ocurrido a tantos
niños y niñas aventajados y jóvenes con talento y gran capacidad intelectual,
no pudo aprovechar la enseñanza oficial porque no se encontraba cómodo en ella.
Además, los problemas en la educación de Einstein no eran los únicos que
preocupaban a su familia. El negocio que su padre había montado con su tío en
1880 en Münich iba mal, las pérdidas se acumulaban y los Einstein no veían más
solución que emigrar a Italia, primero a Milán y luego a Pavía. Era 1894.
Einstein permaneció en Münich para no interrumpir el curso académico y poder
examinarse como los demás colegiales, pero en 1895, con dieciséis años, se unió
al resto de la familia en Pavía.
Y Einstein nos vuelve a asombrar con otra prueba nuevamente con su deseo de
definir él mismo su curriculum académico al presentarse al
examen de ingreso en Instituto de Tecnología de Zurich (Eidgenossische
Technische Hochschule Zürich, una especie de escuela politécnica con
rango universitario), en Suiza, sin haber terminado el colegio y dos años antes
de la edad prevista. Podemos suponer que el examen en cuestión sería
complicado, y que Einstein se lo habría preparado por su cuenta consultando
libros y haciendo ejercicios de física y matemáticas. No lo aprobó. Los genios
también fallan y a veces pueden caer en un exceso de confianza en sí mismos.
Pero lo importante no es que suspendiese el examen de ingreso, sino que no se
dejó vencer por las contrariedades y las acabó superando.
Así que sus padres decidieron que Einstein tenía que terminar el bachillerato
antes de entrar en la universidad y lo enviaron a estudiar a la ciudad suiza de
Aarau, graduándose en 1896 con diecisiete años. Einstein, que había nacido en
Alemania, pidió la nacionalidad suiza tras renunciar a la germana para librarse
del servicio militar (de hecho, cuando ganó el premio Nobel de física en 1921
oficialmente figuró como “ciudadano suizo”, aunque todo el mundo supiera que
por origen y cultura era alemán). Einstein fue toda su vida un pacifista, que
se opuso a la primera guerra mundial cuando la clase científica alemana la
apoyaba y que luchó contra la proliferación nuclear, aunque una mancha negra en
su expediente fuese aconsejar al presidente Roosevelt construir la bomba
atómica.
Einstein pudo matricularse en la Escuela Politécnica de Zurich sin ningún otro
contratiempo. Ese mismo año entró una mujer, Mileva Maric, que años más tarde
se convertiría en su esposa. No consta que Einstein fuese un estudiante
brillante en el sentido de sacar muy buenas notas. Su amigo Marcel Grossmann,
también de origen judío, le tenía que pasar los apuntes de matemáticas porque
Einstein no prestaba mucha atención en clase, y probablemente sin los favores
de Grossmann, Einstein no habría obtenido el título universitario.
Tras licenciarse en Zurich, Einstein no encontraba trabajo. Ninguna universidad
le ofrecía un puesto docente y no sabía qué hacer. Gracias a la ayuda de un
amigo y tras dos años deambulando en busca de un empleo acorde con su formación
científica y técnica, Einstein fue contratado como asistente en la oficina de
patentes de Berna, una especie de “registro de la propiedad intelectual” en el
que Einstein tendría que examinar los inventos que le llegaban. En Berna,
Einstein tenía la sana costumbre de reunirse semanalmente con su amigo y
compañero en la oficina de patentes Michel Besso, con quien discutía sobre
temas de ciencia y de filosofía y leían a autores tan significativos como Ernst
Mach (1838-1916), un físico austríaco que sería precursor, por sus
estudios sobre la masa y la inercia de los cuerpos, de la teoría de la
relatividad general de Einstein, y cuyas ideas filosóficas influirán
notablemente en el positivismo lógico del Círculo de Viena en
los años ’20.
Así que tenemos al futuro gran genio trabajando como un humilde asistente en
una oficina de patentes. A simple vista, podría parecer una pérdida de tiempo,
un “insulto” para los talentos de Einstein que tuviese que dedicar sus horas a
analizar supuestos inventos en lugar de reflexionar sobre la luz y el espacio.
Pero a los genios no hay nada que se les ponga por delante cuando se trata de
descubrir e innovar, y menos aún si se trata de hacer de la necesidad virtud. Y
lo cierto es que su empleo en la oficina de patentes de Berna le dejaba a
Einstein mucho tiempo libre entre invento e invento para dedicarse a sus
pensamientos, incluso más que si hubiese empezado a dar clases en una
universidad de prestigio, ocupándose (al menos durante los primeros años) de
demasiadas tareas administrativas que seguramente le habrían distraído de sus
auténticos intereses intelectuales. Einstein tenía acceso a las principales
publicaciones científicas de la época, que se recibían en la oficina, por lo
que estaba muy “puesto al día” sobre los experimentos que se estaban realizando
y el estado de la física teórica. En el terreno familiar, Einstein se casó con
Mileva en 1903 y ambos tuvieron un hijo en 1904, al que llamaron Hans Albert, y
que llegaría a ser profesor de ingeniería hidráulica en Berkeley (California).
Y por fin, nos situamos en 1905, cuando un joven Einstein de 26 años iba a
revolucionar el mundo de la física. Es el annus mirabilis, el
“año maravilloso” de Einstein, porque en pocos meses verían a la luz una serie
de artículos científicos que cambiarían nuestra comprensión del universo.
El de Einstein no era el único año maravilloso protagonizado por una mente
maravillosa. Isaac Newton, para muchos el mayor científico de todos los
tiempos, había vivido una experiencia similar en 1666, doscientos treinta y
nueve años antes. Una epidemia de peste asolaba la Universidad de Cambridge y
Newton se vio obligado a regresar a su casa familiar de Woolsthorpe, en
Lincoshire, en plena campiña inglesa. En el particular enclaustramiento en la
“celda monástica” que era su casa natal, aislada del resto de la civilización y
en pocos meses, Newton hizo algunos de los descubrimientos más importantes de
la historia de la física y de las matemáticas: fundó el cálculo infinitesimal
(diferencial e integral), formuló la teoría de la gravitación universal,
encontró que un rayo de luz se dividía en distintos colores si se le hacía pasar
por un prisma, descubrió el teorema del binomio que lleva su nombre...
Asombroso. Sobrehumano. Sencillamente genial. Newton mismo escribiría que “en
aquellos días yo estaba en el apogeo de mi edad para la invención, y pensé en
matemáticas y filosofía [léase física] más que en cualquier otro momento desde
entonces”.
Si 1666 había sido una de las cimas intelectuales de Newton, 1905 lo fue para
Einstein. Ese año publicó cuatro artículos en la revista Annalen der
Physik, donde remitían sus trabajos los mejores físicos de Alemania,
que había elaborado estando en la oficina de patentes de Berna y que impulsaban
como pocos antes el avance de la ciencia. Eran los siguientes:
1. Un artículo titulado “Sobre el movimiento de
partículas pequeñas suspendidas en líquidos en reposo exigido por la teoría
cinético-molecular del calor”, donde explicaba el movimiento browniano, esto
es, el movimiento aleatorio que manifiestan partículas muy pequeñas y que había
sido descubierto por el botánico inglés Robert Brown en 1827, y que venía a
confirmar la teoría atómica. Muchos científicos de prestigio de la época, como
el químico Wilhelm Ostwald (premio Nobel en 1909), rechazaban la teoría de los
átomos por considerar que no había pruebas empíricas suficientes (nadie había
“visto” los átomos). El trabajo de Einstein significaba que para explicar el
fenómeno del movimiento browniano había que postular la existencia de átomos
como constituyentes de la materia, tal y como luego confirmarían los
experimentos.
2. Un artículo “sobre la electrodinámica de los
cuerpos en movimiento”, y que bajo ese aparentemente inofensivo título escondía
el germen de la teoría de la relatividad especial.
3. Un artículo, “¿Depende la inercia de un cuerpo de
su contenido de energía?”, que contenía la que quizás sea la ecuación más
famosa de la física, E = mc2.
4. Finalmente, un artículo, “sobre un punto de vista
heurístico concerniente a la producción y transformación de la luz”, en el que
aplicaba la teoría de los cuantos de Max Planck a la explicación del efecto
fotoeléctrico.
¡Tantas ideas de un solo hombre y en tan poco
tiempo! Una anécdota cuenta que iban caminando por las calles de París Einstein
y el filósofo y premio Nobel de literatura Henri Bergson. Bergson le preguntó a
Einstein si no solía llevar consigo un cuaderno para anotar las posibles ideas
que le viniesen a la cabeza mientras caminaba, a lo que Einstein respondió:
“Ideas. Se me ocurren tan pocas...” Y eso que Einstein ha sido, como dice
la Enciclopedia Británica, “uno de los intelectos más
creativos” de la historia...
Einstein recibiría el premio Nobel de física de 1921 “por sus servicios a la
física teórica, y en especial por su descubrimiento de la ley del efecto
fotoeléctrico”; básicamente por uno de sus cuatro artículos. Pocos negarán, sin
embargo, que cada uno de los artículos de Einstein habría merecido, por sí
solo, un premio Nobel, y eso sin contar contribuciones suyas posteriores como
la relatividad general o la estadística de Bose-Einstein. Además, no han
faltado casos en la historia de los Nobel en que una misma persona o
institución haya recibido dos o más premios. Marie Curie obtuvo el Nobel de
física en 1903 y el de química en 1911; Linus Pauling ganó el de química de
1954 y el de la paz de 1962; John Bardeen recibió dos premios Nobel de física
(1956 y 1972), por su trabajo sobre el transistor y por sus estudios sobre la
superconductividad) y el inglés Frederick Sanger ganó dos de química (1958 y
1980), por la estructura de la insulina y por su método de secuenciación del
ADN). Por su parte, la Cruz Roja ha obtenido tres premios Nobel de la paz: en
1917, 1944 y 1963 (además, su fundador Henri Dunant, ganó el primer premio
Nobel de la paz, el de 1901). Así que precedentes no habrían faltado.
Pero más allá del esplendor de los premios Nobel, ¿qué gran innovación teórica
se escondía bajo ese sutil título de “la electrodinámica de los cuerpos en
movimiento”? Ni más ni menos que un intento de integrar el electromagnetismo de
Maxwell con la mecánica.
Einstein estaba al corriente de que dos científicos, Albert Michelson y Edward
Morley, habían realizado un experimento para comprobar la existencia del éter. Los
físicos, hasta el siglo XX, creían que la luz, por ser una onda, tenía que
viajar en el éter, un fluido invisible y capaz de vibrar que
“transportaba”, por así decirlo, la luz. No era una hipótesis descabellada,
porque si la luz es una onda, debería viajar en algún medio, como hacen las
demás ondas (por ejemplo, el sonido se mueve a través del aire). ¿O acaso se
iba a desplazar por el vacío? La luz, análogamente, se movía a través del éter.
Pocos cuestionaban ese razonamiento, que extrapolaba las evidencias sobre la
naturaleza de las ondas a la luz. Pero Michelson y Morley pensaron, con mucha
lógica, que si el éter existía y a través de él se movía la luz, tenía que
detectarse una ligerísima variación en la velocidad de la luz. La luz se
estaría moviendo a través del éter a una velocidad enorme, pero la Tierra
también estaría dando vueltas alrededor del Sol a una velocidad mucho menor,
pero a una velocidad finita al fin y al cabo. Se estaría dando la misma
situación que si alguien lanzase un grito (una onda) desde un vagón en
movimiento: el grito iría a más velocidad, porque se sumarían la velocidad
propia del aire que “transporta” el grito y la velocidad a la que viaje el
tren. Y al “rebotar” (el eco) ocurriría lo contrario: el grito iría más
despacio porque a su velocidad natural habría que restarle la velocidad del
vagón de tren. Por tanto, tenía que poder medirse una pequeña variación en la
velocidad de la luz al llegar a la Tierra, ya que habría que tener en cuenta la
velocidad de la luz por el hecho de viajar en el éter (su medio, como la
velocidad del aire en el grito del vagón) y la velocidad de la Tierra.
Michelson y Morley habían diseñado un aparato llamado interferómetro que
teóricamente tenía que ser capaz de medir esa pequeñísima variación en la
velocidad de la luz. Pero no encontraron nada. No se detectaba ninguna
interferencia. ¿Qué estaba pasando? ¿Sería que la Tierra y los objetos físicos
que se encontraban en ella se “contraían” por efecto de la presión del éter?
Demasiado inverosímil. ¿Permanecía la Tierra inmóvil respecto al éter? Más raro
aún. ¿Y por qué no decir que el éter no existía y que la velocidad de la luz
era constante, la misma siempre, se moviese o no el objeto luminoso?
Paradójicamente, esta tercera opción era la que resultaba más absurda. ¿Por qué
iba a ser la velocidad de la luz invariable con respecto al estado de
movimiento del observador, al revés de lo que ocurría con los demás cuerpos
físicos?
Pero Einstein lo aceptó como un postulado, como una afirmación que se tiene que
admitir aun sin pruebas suficientes porque va a conducir todo el razonamiento
posterior. Ya se encargarían los experimentos de juzgar si es verdadera o no,
pero por el momento tiene que sostenerse para entender las conclusiones del
autor. Según Einstein, la velocidad de la luz en el vacío (c, de
aproximadamente 300.000 km/s) es una constante universal,
independiente del movimiento de la fuente emisora de luz.
Y, el otro postulado era, propiamente, el principio de relatividad: las
leyes de la física son las mismas en todos los marcos de referencia inerciales
(recordemos que “inercial” significa que, en ausencia de fuerzas -y por tanto,
sin aceleración-, un cuerpo que esté en reposo continuará en reposo y si se
estaba ya moviendo definirá una línea recta con una velocidad constante
-movimiento rectilíneo uniforme). No hay un marco de referencia privilegiado,
como el éter, que permanezca en reposo absoluto.
Y, con esos dos postulados Einstein construye la teoría de la
relatividad especial. Esta teoría se puede aplicar a marcos de
referencia inerciales (para ampliarla a todos los marcos de referencia hubo que
esperar a la relatividad general) y combina un principio de la física clásica
(el principio de relatividad de Galileo, que había propuesto el genial físico
italiano en sus Diálogos sobre los dos sistemas máximos del mundo en
1632) con otro totalmente innovador, el de la invariabilidad de la velocidad de
la luz en el vacío. Lo que Einstein proponía era una teoría de la
“relatividad”, porque al no existir el éter (un medio que llenase todo el
espacio), no hay nada que esté en reposo absoluto: todo está moviéndose con
respecto a todo, y en este sentido, todo movimiento es relativo al marco de
referencia que queramos fijar. Sólo podemos conocer el movimiento de un
objeto en relación a otro objeto. Pero al mismo tiempo, la
relatividad de Einstein fija un absoluto: la velocidad de la luz en
el vacío, que es la velocidad a la que se transmite la información en el
cosmos. Por tanto, cuando alguien invoca la teoría de la relatividad de
Einstein para decir que todo es relativo, olvida que no todo en esta teoría es
relativo. Intentar sacar conclusiones desde las teorías científicas a otros
campos como puedan ser la ética, la sociología o la política es una
exageración, al menos si esas conclusiones no se sustentan en razones sólidas y
no sólo en argumentos científicos que, por definición, sólo serán válidos
dentro de los márgenes en los que opere el método científico.
No hay que negar, sin embargo, que la teoría de Einstein ha conllevado una
profunda revolución no sólo en la física, sino en nuestra visión del mundo. Si
la teoría de Einstein nos ofrece una nueva noción de espacio y de tiempo, es de
esperar que los filósofos que reflexionen sobre el espacio y el tiempo la
tengan en cuenta y la acepten como un resultado científico comprobado. Lo demás
sería especular en el vacío. Pero también es cierto que la reflexión y el
pensamiento no tienen por qué limitarse a “interpretar” o explicar los
resultados científicos, como si fuesen meros “portavoces” de los científicos, a
los que tendrían que estar llamando a la puerta constantemente para pedirles
afirmaciones que ellos no pueden efectuar. El filósofo o el sociólogo no es un
“heraldo” del científico. Hay una legítima autonomía de las disciplinas
humanísticas que tampoco debe suponer una excusa para obviar los resultados de
la ciencia.
Las implicaciones que se podían deducir de la teoría de la relatividad especial
de Einstein saltaban a la vista. Ya no había, como pensó Newton, un espacio y
un tiempo absolutos: la distancia y el tiempo dependen del observador, que los
percibirá de manera distinta según el estado de movimiento en que se encuentre.
Como existe una velocidad límite en el universo, la velocidad de la luz en el
vacío, y ningún objeto puede desplazarse a una velocidad mayor, para los
objetos que se muevan a velocidades cercanas a las de la luz será como si el
tiempo hubiese pasado de manera más lenta. Es la famosa paradoja de los
dos gemelos: si de dos gemelos uno viaja al espacio en una nave
espacial que se mueve a gran velocidad, el tiempo transcurre más despacio que
sobre la superficie terrestre y al regresar a la Tierra el gemelo astronauta
será “más joven” que el otro gemelo. Entonces, cuando alguien se pone a correr,
¿el tiempo está transcurriendo de manera más lenta que para una persona que se
encuentra quieta? Sí, para él sí (no es que se altere el tiempo en sí, sino la
medida del tiempo, que es relativa al observador); lo que ocurre es que por
mucho que corra, su velocidad será tan pequeña en comparación con la de la luz
que el efecto no se podrá apreciar. A nivel ordinario, la física de Newton
sigue siendo válida porque representa un caso límite de la
relatividad de Einstein: el caso de objetos que se muevan a velocidades muy
bajas en comparación con la de la luz. Al igual que ocurre con la mecánica
cuántica, que converge o se aproxima a la mecánica clásica de
Newton cuando nos encontramos a una escala mayor que la atómica, la teoría de
la relatividad se acerca y en la práctica conduce a los mismos resultados que
la teoría newtoniana para velocidades ordinarias.
Si el tiempo no es absoluto, tampoco lo es el espacio, por lo que la medición
de una longitud dependerá del estado de movimiento del observador que quiera
medir esa longitud. No es que se altere la longitud, sino la medida de la
longitud, que va a depender del observador porque ya no existe un “espacio
absoluto” o una “longitud absoluta” que sirva de referencia fija para todas las
demás. En la mecánica de Newton había tres dimensiones espaciales (x,
y, z) absolutas y un tiempo absoluto respecto a las cuales se daban
todas las mediciones espaciales y temporales. Decir “me muevo a diez kilómetros
por hora” era lo mismo que decir “me muevo a diez kilómetros por hora respecto
de un marco fijo e invariable para el espacio y el tiempo”. Y parece lo más
sensato: suponer que existe un espacio y un tiempo “externos”, por así decirlo,
a los observadores y comunes para todos. El universo se asemejaría a un
escenario situado dentro de un gigantesco cubo, el del espacio absoluto, en el
que transcurre un tiempo único y absoluto. Aunque ya en el siglo XVIII se
alzaron algunas voces que ponían en tela de juicio esta afirmación de Newton
(por ejemplo, el gran matemático y filósofo alemán Leibniz en unas cartas que
intercambió con el discípulo de Newton, Samuel Clarke), nadie ofreció una
teoría consistente alternativa a la de Newton hasta Einstein. Si en los inicios
de la revolución científica (con Galileo y Newton) hubo que separar y delimitar
bien los distintos campos del conocimiento (el de las ciencias experimentales
del metafísico y del teológico), la ciencia contemporánea, con teorías como la
relatividad o la mecánica cuántica, ha incorporado a su arsenal conceptual
nociones como la de relatividad en la percepción del espacio y del tiempo o la
de indeterminación que se creían exclusivas de la psicología o de la filosofía,
tendiendo cada vez más puentes entre las distintas disciplinas y abriendo
nuevos espacios de encuentro y de reflexión. Si en una etapa hubo que dividir,
es como si de ahora en adelante hubiese que integrar.
Pocos años antes que Einstein un físico holandés, Hendrik Lorentz, había
intentado explicar el experimento de Michelson-Morley diciendo que el espacio y
el tiempo se contrarían por la presión del éter. Propuso una serie de
ecuaciones conocidas como las transformaciones de Lorentz para
ilustrar matemáticamente su hipótesis. La teoría de la relatividad especial de
Einstein corrige a Lorentz al sostener que no existe el éter y que no son la
longitud real o el tiempo real los que se contraen o dilatan, sino las medidas de
la longitud y del tiempo. Pero las ecuaciones de Lorentz continúan siendo
válidas, y analizándolas se puede entender bastante bien (quizás mejor que con
las palabras) el significado de la relatividad especial.
Otra conclusión verdaderamente fundamental de la relatividad especial o
restringida de Einstein es la equivalencia entre la masa y la energía: la
energía y la masa son dos caras de una misma realidad, pudiéndose convertir la
una en la otra según la ecuación E = mc2 (siendo E la
energía, m la masa y c la velocidad de la luz
en el vacío, que es constante). El mecanismo de las reacciones nucleares
implicadas en la bomba atómica es prueba más que suficiente de lo acertado que
estaba Einstein al pensar que la masa puede transformarse en energía.
Como existe una velocidad límite que no se puede superar (la velocidad de la
luz), por mucha energía que se le dé a un objeto, éste nunca va a poder viajar
más rápido que la luz. Si la física clásica nos decía que todo cuerpo, en
virtud de su velocidad, tiene una energía cinética asociada igual
al producto de su masa por la velocidad al cuadrado divido todo ello entre dos
(mv2/2), la física relativista sostiene que esa velocidad no
va a poder aumentar indefinidamente. Así, conforme aumente la velocidad de un
objeto aumentará también su energía y como la energía es masa, la energía que
adquiera el cuerpo se irá sumando a su masa. Se produce así un aumento en la
masa al aumentar la velocidad, justamente por la equivalencia entre la masa y
la energía. Matemáticamente, ¿cómo varía la masa de un cuerpo en función de su
velocidad? Einstein nos da la respuesta:
la masa relativista m aumentará,
por tanto, con respecto a la masa en reposo m0, porque
el cociente v2/c2 (es decir, el
cociente entre la velocidad relativa de ese cuerpo y la velocidad de la luz en
el vacío, que es invariable y limitante) se irá acercando a la unidad conforme
se incremente la velocidad v. Si v se acerca a 300,000
kilómetros por segundo (la velocidad aproximada de la luz en el vacío), el
cociente será de casi uno, y al restárselo al uno que hay en la raíz cuadrada,
el denominador tenderá a cero. Y, claro está, al dividir el numerador (m0)
entre cero, el resultado se hace infinito. ¡Si fuésemos a la velocidad de la
luz, nuestra masa sería infinita! Es la consecuencia de poner como nuevo
absoluto en el universo la velocidad de la luz en el vacío. Sobra decir que
todas las predicciones de la relatividad especial de Einstein han sido
comprobadas una por una, y eso que, como podemos imaginar, no han faltado
físicos que han querido buscar los puntos débiles de Einstein. Pero, por el
momento, ninguno lo ha logrado.
Después de un año tan extraordinario y de trastocar los fundamentos de la
física, ¿aún le quedaba algo por hacer a Einstein? ¡Por supuesto que sí! Sólo
con lo que publicó en 1905 Einstein merecería un lugar destacadísimo en la
historia de la ciencia, aunque grandes matemáticos de la época como el francés
Henri Poincaré (1854-1912) hubiesen estado a punto de adelantársele. Pero lo
que hizo a continuación era si cabe más importante, más trascendental y más
sorprendente.
Einstein había propuesto una teoría de la relatividad válida para los marcos de
referencia inerciales. ¿Y para los sistemas no inerciales, como por ejemplo un
cuerpo sometido a la fuerza de la gravedad? Era de esperar que una teoría tan
innovadora como la relatividad especial que redefinía nuestro modo de entender
el espacio, el tiempo, la masa y la energía tuviese que ampliarse también a los
sistemas de referencia no inerciales, que también se situaban en el espacio y
el tiempo y están compuestos por cuerpos con una masa.
La solución no era trivial. Requería de una capacidad de abstracción y de una
destreza matemática inmensas, y el reto le llevaría casi diez años. En 1911
Einstein fue nombrado profesor asociado de la Universidad de Zurich, pero al
poco recibió un puesto de profesor ordinario en la Universidad Carlos
de Praga, la más antigua de la República Checa, fundada en el siglo
XIV por el rey Carlos I de Bohemia. Así que Einstein se fue a vivir a Praga, y
residiendo en una de las ciudades más bellas de Europa comenzó a investigar
sobre la posibilidad de aplicar su teoría de la relatividad a cuerpos sometidos
a un campo gravitatorio.
Su estancia en Praga fue muy corta, porque en 1912 regresó a Suiza para ocupar
una cátedra en la Escuela Politécnica de Zurich, la misma que no le admitió a
los dieciséis años pero en la que finalmente cursó la carrera. En esa misma
universidad daba clases de matemáticas su antiguo compañero de estudios Marcel
Grossmann. Einstein, consciente de que para generalizar su teoría de la
relatividad necesitaba unos conocimientos de matemáticas que no tenía, le pidió
ayuda a Grossmann, quien le explicó los fundamentos de la geometría de
Riemann. Bernhard Riemann (1826-1866) fue un genial matemático alemán
que a pesar de vivir sólo cuarenta años hizo contribuciones esenciales a la
geometría diferencial y a las geometrías no-euclídeas (las que no siguen el
postulado de las paralelas de Euclides). Einstein se dio cuenta de que con el
análisis de Riemann y el cálculo tensorial (un tensor es una
función multilineal que se emplea en muchos campos de las matemáticas) que
había desarrollado (entre otros) el italiano Tullio Levi-Civitá, contemporáneo
de Einstein, tenía las herramientas numéricas adecuadas para abordar el
problema de la relatividad y la fuerza de la gravedad.
En 1915 Einstein había dado ya con la teoría de la relatividad general, que
expuso en el artículo “Die Feldgleichungen der Gravitation” (“Las ecuaciones de
campo de la gravitación”), publicado por la Academia prusiana de las ciencias.
La gravedad, esa fuerza que había permitido a Newton explicar la órbitas de los
planetas y resolver infinidad de problemas de mecánica, era en realidad el
efecto de la distorsión del espacio-tiempo (que ya en la
relatividad especial el espacio y el tiempo habían dejado de considerarse
entidades separadas para verse como un conjunto de cuatro dimensiones, tres
espaciales más una temporal) producida por los cuerpos materiales que están en
ese espacio-tiempo. Si era ya difícil de entender la relatividad especial y de
aceptar sus conclusiones, con la relatividad general Einstein nos sumió en la
más absoluta orfandad intelectual: el universo material se mostraba como algo
sumamente complejo (y no es para menos) cuya comprensión sólo estaba al alcance
de especialistas. Con razón escribía el poeta inglés John C. Squire,
parafraseando a Alexander Pope: “la naturaleza y sus leyes yacían ocultas en la
noche. Dios dijo: -¡Que sea Newton!, y todo fue luz. Pero no duró mucho; el
diablo rugió: -¡Oh, que sea Einstein!, y todo volvió de nuevo a la oscuridad”.
Pero por abstrusa y complicada que sea la relatividad general, sobre todo
porque requiere de un instrumental matemático bastante elevado, sus fundamentos
nos dan una luz sobre la naturaleza del espacio-tiempo y de la gravedad. Podrá
ser dificultosa y ardua, pero describe la realidad, porque así lo han
confirmado los experimentos, y por tanto no estamos tan solos y tan
intelectualmente huérfanos como podríamos pensar en primera instancia. Si no
conociéramos la relatividad general sí que estaríamos en una auténtica
situación de oscuridad, pero contando con ella gracias a mentes maravillosas
como la de Einstein no hay nada que temer. El aude sapere (“atrévete
a saber”) de los ilustrados se muestra aquí muy oportuno. No hay que tener
miedo al conocimiento. Hay cosas más o menos difíciles, cosas que nos resultan
más fáciles o gratas que otras, pero siempre es posible exponer al menos los
fundamentos o los aspectos generales de una teoría en el campo de la ciencia o
del pensamiento de manera que sea comprensible para el no especialista. Lo
importante es estar dispuesto a aprender y tener espíritu de búsqueda.
La relatividad general de Einstein parte de un principio que
había sido formulado, aunque vagamente, por Ernst Mach: “la inercia de un
cuerpo es el resultado de la acción mutua de todas las masas del universo”.
Esto significa que la inercia (la tendencia que tiene un cuerpo a preservar su
estado de movimiento -reposo, trayectoria rectilínea uniforme- cuando no se ve
sometido a fuerzas o la fuerza neta resultante es nula) es el producto de la
interacción de todos los cuerpos que constituyen el universo. Todo en el
universo influye sobre todo: la partícula más pequeña afecta a la inercia de un
planeta.
Una visión más profunda del principio de Mach le permitió a Einstein darse
cuenta de que, matemáticamente, no se podía distinguir un cuerpo acelerado de
uno que estuviese sometido al efecto de la fuerza de la gravedad. Los
experimentos certificaban que había una equivalencia estricta entre la masa
inercial de un cuerpo (que mide la resistencia de ese cuerpo a un cambio en su
velocidad con respecto a un marco inercial) y su masa gravitatoria. Porque,
¿qué es la gravedad? En la física de Newton era una fuerza de atracción
universal que se establecía entre dos cuerpos y que sólo dependía de sus masas
y de la distancia a la que se encontrasen el uno del otro. Es como si esa
fuerza actuase en la distancia, y este problema de la actio in distans (“acción
a distancia”) había traído no pocos quebraderos de cabeza a físicos y
filósofos. Además, la acción a distancia era incompatible con la relatividad
especial, porque la atracción no podía “transmitirse” instantáneamente de un
cuerpo a otro, dado que ningún tipo de información viaja más rápido que la luz.
Hay un límite en la transmisión de la información en el universo.
Einstein no se imaginó la gravedad de esa manera. Como explica Stephen Hawking
en su Historia del tiempo, “Einstein hizo la sugerencia
revolucionaria de que la gravedad no es una fuerza como las otras, sino que es
una consecuencia de que el espacio-tiempo no sea plano como previamente se
había supuesto: el espacio-tiempo está curvado, o deformado, por la
distribución de masa y energía en él presente. Los cuerpos como la Tierra no
están forzados a moverse en órbitas curvas por una fuerza llamada gravedad; en
vez de esto, ellos siguen la trayectoria más parecida a una línea recta en un
espacio curvo, es decir, lo que se conoce como una geodésica”. Los cuerpos
deforman el espacio-tiempo, como haría una pelota que cayese en una malla
elástica.
¡La gravedad es el resultado de la curvatura del espacio-tiempo que producen
todos los cuerpos que hay en el universo! Si otras ideas geniales nos habían
parecido tan sencillas que lo incomprensible es que a nadie se le hubiesen
ocurrido antes, no sucede lo mismo con la relatividad general de Einstein. Todo
menos elemental, pero lo cierto es que la relatividad general es la teoría más
satisfactoria y que mejor explica la fuerza de la gravedad y el funcionamiento
del universo a gran escala. De hecho, las grandes teorías cosmológicas que
intentan explicar el origen y la evolución del universo, como el Big
Bang, se basan fundamentalmente en la relatividad general de Einstein.
Pero una teoría tan aparentemente extravagante e incomprensible como la de
Einstein no podía aceptarse sin más, sin pruebas. Si el rigor del método
científico era implacable con teorías mucho más lógicas a simple vista, no iba
a serlo en menor medida con la de Einstein.
Y las pruebas son muchas, y todas ellas demuestran determinadas consecuencias
de la relatividad general. Nadie “ve” la curvatura del espacio-tiempo, pero sí
podemos deducir su existencia analizando, por ejemplo, el efecto que produciría
esa hipotética curvatura sobre un rayo de luz.
La primera prueba la relatividad general de Einstein vino en 1919. Los
astrónomos habían notado que el valor que la mecánica de Newton ofrecía para el
desplazamiento del perihelio de Mercurio (el punto de la órbita en que este
planeta se hallaba más cercano al Sol) difería ligeramente de los resultados
experimentales. Ese “ligeramente” significa una diferencia de tan sólo 42
segundos por siglo con respecto a lo que predecía la ley de Newton. ¡42
segundos por siglo! Una cantidad minúscula, pero que en el ansia de exactitud
que siempre ha caracterizado a los grandes científicos había llevado al francés
Leverrier a proponer la existencia de otro planeta entre el Sol y Mercurio (que
llamó “Vulcano”) para justificar esa mínima irregularidad con respecto a la
teoría de Newton. Leverrier, crecido por deducir matemáticamente la existencia
de Neptuno a partir de las leyes de Newton y haberse comprobado luego esa
predicción, se dejó llevar por ese “optimismo planetario” que pretendía
solucionar todas las discrepancias entre teoría y datos postulando la presencia
de nuevos astros hasta entonces invisibles. Pero no hacía falta suponer
planetas que nadie encontraba. Esa variación en el perihelio de Mercurio podía
explicarse con la relatividad general, y el efecto era únicamente perceptible
en Mercurio porque en éste es más fuerte la atracción gravitatoria del Sol al ser
el planeta más cercano al astro rey. Si para Newton el perihelio de Mercurio
debía desplazar 532 segundos por siglo, para Einstein eran 574 segundos por
siglo, exactamente 42 segundos más a causa de la curvatura del espacio- tiempo,
que se hace más pronunciada cuanto más cerca se sitúa el planeta del Sol, lo
que cambia la orientación de la órbita.
Pero la demostración que tuvo más repercusión pública y que convirtió a
Einstein en lo que es hoy (un icono, un símbolo, una verdadera estrella de la
ciencia) y le dio quizás más fama que a ningún físico antes, es la observación
de la desviación de la luz por la gravedad durante un eclipse solar en 1919. La
luz no es otra cosa que radiación electromagnética, por lo que un rayo de luz
lleva energía. Einstein había establecido una equivalencia entre la masa y la
energía, de manera que un rayo de luz, como cualquier otra masa, debería sentir
el influjo del campo gravitatorio ejercido por objetos pesados, tal y como la
Tierra es afectada por el campo gravitatorio del Sol. Claro está que la
atracción gravitatoria que vaya a sufrir un rayo de luz es tan pequeña que
resulta imposible de medir en condiciones normales. Además, nunca podríamos
medir la desviación causada por el Sol en un rayo de luz procedente de una
estrella no muy lejana, porque la propia luz que emite el Sol la taparía.
Nunca, excepto en un eclipse solar total, que es cuando la Luna se interpone
entre la Tierra y el Sol. Entonces sí será posible detectar la luz que venga de
otra estrella y que pase junto al Sol y que por efecto de su campo gravitatorio
se desvíe levemente. Eso es lo que hizo el astrónomo de la Universidad de
Cambridge Sir Arthur Eddington. Se decía que Eddington era, junto con Einstein,
la única persona que entendía la relatividad general (“¿quién es el tercero?”,
se preguntaba el mismo Eddington cuando alguien le decía que sólo tres personas
eran capaces de comprender la teoría de Einstein), lo que habla muy a su favor,
porque la rivalidad entre Inglaterra y Alemania que cristalizó en la primera
guerra mundial había tenido no pocas repercusiones científicas, entre ellas que
los ingleses no quisiesen leer los trabajos de los alemanes y viceversa. Parte
de su equipo viajó hasta Sobral, al norte de Brasil, mientras otros
expedicionarios se trasladaban a la isla del Príncipe, en la costa occidental
del golfo de Guinea. ¡Einstein tenía razón! Aunque análisis más detallados de
las fotografías que tomaron Eddington y su equipo han señalado que las
mediciones eran demasiado imprecisas como para anunciar a bombo y platillo que
se había confirmado la relatividad general (algo que sí se llegaría a hacer con
muchos otros experimentos), lo cierto es que la prensa de la época no albergó
ninguna duda: “Revolution in Science -New Theory of the Universe
-Newtonian Ideas Overthrown” (“Revolución en la Ciencia. Nueva teoría del
Universo. Caen por tierra las ideas de Newton”), titulaba el prestigioso diario
británico The Times el 7 de noviembre de 1919. Einstein se
había convertido en una celebridad mundial, en la más viva encarnación del
poder que tiene la inteligencia para adelantarse a los acontecimientos y
formular teorías que, por extrañas y complejas que parezcan, acaban
corroborándose. Aunque considero que toda teoría tiene un valor intrínseco con
independencia de sus aplicaciones, porque responde al muy humano afán de hacer
avanzar el conocimiento, debemos pensar que a día de hoy, tecnologías tan
populares como el GPS (Global Position System) se basan en la
relatividad general de Einstein, que en absoluto es una mera disquisición
matemática alejada de la realidad.
Einstein había ganado la simpatía del mundo entero, pero no de los físicos
alemanes. Los celos y la envidia pudieron aquí con la sensatez científica. El
clima antijudío que se creó con el ascenso de Adolf Hitler al poder en 1933
tuvo su traducción “científica” en la creación de un movimiento llamado
la Deutsche Physik (“física alemana”) o “física aria”. Sus
líderes no eran unos analfabetos: Philipp Lenard y Johannes Stark habían ganado
el premio Nobel de física (en 1905 y 1919, respectivamente), y ambos sentían
fascinación por la ideología nazi, hasta el punto de que despreciaban las
teorías de Einstein por ser “física judía” (jüdische physik). Pocos
(como Heisenberg) se atrevían a enseñar las teorías de Einstein en las
universidades alemanas, y se llegó a decir que la equivalencia entre masa y
energía era el descubrimiento de un ario, Friedrich Hasenohrl. En realidad, la
“física alemana” era una tendencia sumamente reaccionaria de científicos a la
antigua usanza que, además de participar de una ideología como la nazi, se
sentían desbordados por los nuevos avances teóricos en la física. Eran, por así
decirlo, físicos del siglo XIX más que del XX.
Einstein, viendo el complejo panorama político alemán, decidió quedarse en
Estados Unidos (donde había viajado en diciembre de 1932) en lugar de regresar
a Europa, y finalmente aceptó un puesto en el Instituto de estudios
avanzados de Princeton y acabó obteniendo la nacionalidad americana.
Un inmigrante de lujo para el país del tío Sam.
Su implicación en asuntos políticos fue in crescendo. En 1939
firmó, junto a Leo Szilard, una famosa carta dirigida al presidente de los
Estados Unidos Franklin Delano Roosevelt, donde se le urgía a que pusiese en
marcha un programa de investigación para desarrollar la bomba atómica ante el
peligro de que los nazis la inventasen antes. Como es bien sabido, el proyecto
Manhattan condujo a la fabricación de armas nucleares que luego se lanzaron
sobre las ciudades japonesas de Hiroshima y Nagasaki causando miles de muertos.
Al parecer Einstein, que siempre fue un pacifista convencido, se arrepintió de
haber firmado esa carta. Su enorme talla internacional hizo que le llegasen
ofrecimientos tan peculiares como el de asumir en 1952 la presidencia del
Estado de Israel, sustituyendo al fallecido Chaim Weizmann. Einstein se negó.
En alguna ocasión dijo: “la política es para el momento; una ecuación es para
la eternidad”. Sus posiciones ideológicas se mostraban cercanas a la izquierda
(publicó un famoso artículo en la Monthly Review, “¿Por qué el
socialismo?”), temeroso de los estragos sociales que podía provocar el
capitalismo. Einstein falleció el 18 de abril de 1955 en su casa de Princeton,
en Nueva Jersey, tras haber dejado a la humanidad uno de los legados
científicos más extraordinarios de todos los tiempos.
Capítulo 20
Internet y la world wide web.
Todos lo hemos experimentado. Es cuestión de
teclear una palabra, esperar unos segundos, y todo el imponente edificio de la
información a escala global aparece ante nosotros. Al tiempo que admiramos
nuestra genial invención, nos sentimos agobiados ante todo lo que nos ofrece.
La humanidad, que durante siglos había ansiado crear una red universal de
conocimientos a disposición de todos los hombres y mujeres de la Tierra y en
cualquier instante, lo ha conseguido al fin.
Internet representa, en mi opinión, uno de los momentos culminantes de la
historia intelectual humana. Es el fruto más sobresaliente de una época que se
remonta, a corto plazo, a los sueños de los matemáticos y filósofos del siglo
XVII, quienes, como Leibniz (1646-1716) o ya antes el jesuita, lingüista,
inventor, criptógrafo y estudioso de la lengua copta Athanasius Kircher
(1602-1680), habían ideado un sistema lógico universalmente válido capaz de
sintetizar todos los conocimientos adquiridos por el género humano.
Contemporáneo de Leibniz fue Pierre Bayle, uno de los primeros librepensadores
de occidente y una figura a todas luces fascinante, que escribió su
célebre Diccionario histórico-crítico a principios del siglo
XVIII, convirtiéndose en un destacado precursor de la Ilustración. Sólo nos
separan tres siglos de estos grandes pensadores, y por eso hablo de “a corto
plazo” (a largo plazo nos obligaría a buscar cuándo nació el deseo tan típicamente
humano de conocerlo todo). Poco representan tres siglos dentro del dilatado
recorrido humano por la Tierra, aunque el ritmo acelerado de la historia que
vivimos nos lo impida ver y nos cambie nuestra percepción del tiempo.
La Ilustración constituye una de las cimas intelectuales de la modernidad, y
posibilitó, en palabras de Kant, “la salida del hombre de su minoría de edad”.
Se fijaron unos ideales, tan utópicos como admirables, de difusión global de la
cultura a todos los rincones del orbe. Sin querer ignorar las sombras de las
Luces, que otros muchos ya se han encargado de poner de relieve (¿no es acaso
la postmodernidad una reacción contra la Ilustración y sus ideales
universales?), no dejaré a un lado sus logros. La Encyclopédie de
Diderot (consejero, entre otros, de Catalina la Grande de Rusia) y D'Alembert
(matemático y físico), la “Biblia” del movimiento ilustrado europeo durante
décadas, fue concebida como una puesta en común de los avances en la
investigación científica y humanista desde los ideales que guiaban a los
espíritus ilustrados.
¿Qué habrían pensado Kircher, Leibniz, Bayle, Diderot y D'Alembert al conocer
la gran creación humana que es Internet? ¿Qué habrían pensado
al comprobar que todo cuanto la humanidad había llegado a conocer, que tantos
pensamientos que habían habitado en nuestras mentes, estaban ahora al alcance
de todos, sin importar la distancia y cada vez menos la situación social? ¿Y
qué habrían pensado si hubiesen comprobado que, además de reunir una cantidad
ingente de conocimientos que probablemente ningún hombre, por prodigiosa que
fuese su cabeza, hubiera podido acumular, también incluía una cantidad
igualmente ingente de perspectivas de pensamiento y de sistemas filosóficos? En
Internet expresa sus ideas la práctica totalidad de movimientos culturales,
intelectuales y religiosos del mundo. Es el espacio de lo universal, el espacio
de lo humano, donde convergen todas las posiciones, todas las creencias, todos
los descubrimientos. Realiza, de esta forma, el ideal más genuinamente
ilustrado: el afán de que todos se puedan expresarse libremente (con el límite,
que más que un límite es una prueba de responsabilidad, del respeto a la
dignidad de toda persona).
La posibilidad de disponer de otro mundo, el virtual., nos
abre a esa doble presencia: la real y la telemática. Internet permite, de esta
forma, la simultaneidad, la universalidad, nos ofrece innumerables alternativas
y, aunque muchos usen estas ventajas para evadirse de la realidad presente
(pensemos en programas tan en alza como Second Life, donde el
participante puede llevar una segunda vida virtual en la que realizar y conseguir
cosas que no ha logrado en su vida real, extra-informática), lo cierto es que
Internet abre horizontes nuevos y potencialmente infinitos en los que cada
persona pueda desarrollar sus facultades y colmar muchos de sus deseos.
Pero, ¿quién es aquí la mente maravillosa? Quizás, el recorrido que hemos hecho
por algunas de las grandes figuras de las ciencias y del pensamiento nos haya
acostumbrado a identificar un descubrimiento concreto o una gran idea con una
persona en particular, algo que no es siempre posible si se quiere hacer
justicia a todos los que realmente participaron en la realización de un gran
avance. ¿Se puede decir que el modelo de la doble hélice del ADN, quizás la
principal aportación a las ciencias de la vida en el siglo XX, sea obra de
James Watson y de Francis Crick? En absoluto. Nadie niega que ellos
desempeñaron un papel clave en este hito científico, pero no podemos olvidar
las investigaciones de una mujer, Rosalind Franklin, o el trabajo que ya
existía previamente de Linus Pauling.
Algo parecido ocurre con Internet. Conforme la ciencia y el conocimiento se han
ido haciendo más complejos y más difíciles de dominar, siquiera en un campo
concreto, para una única persona, los descubrimientos más importantes han
exigido la colaboración de muchos equipos. Han surgido, indudablemente,
individualidades geniales, dando ellas solas pasos significativos en un campo
de las ciencias naturales o humanas; pero suele ser raro. Lo normal es que los
premios Nobel se otorguen a científicos que han dirigido grandes equipos de
investigación y laboratorios, ofreciendo directrices sobre cómo debían
desarrollarse los experimentos y ensayos pero colaborando, lógicamente, con
muchas otras personas a las que resulta muy difícil conceder el mismo
reconocimiento (por ejemplo, un galardón como el Nobel).
Para conocer la historia de Internet es necesario remontarse varias décadas
atrás, y ante todo tener claro que Internet es distinto de
la World Wide Web (las famosas tres uves dobles que tecleamos
en los buscadores cuando queremos acceder a una determinada página web).
Internet se refiere, primordialmente, al conjunto de redes de ordenados
conectados entre sí, mientras que la “World Wide Web” (“Web” significa
telaraña; no basta con crear un gran invento: hay que darle un buen nombre para
que triunfe) consiste en documentos interconectados mediante
hipervínculos (hyperlinks) y URLs (Uniform Resource
Locator). Las dos se rigen por protocolos informáticos distintos: el
IP, o Internet Protocol, y el HTTP, Hypertext Transfer
Protocol. O en otras palabras, puede decirse que Internet es una
estructura a modo de soporte capaz de ofrecer distintos servicios, entre los
cuales se encuentran la World Wide Web, el correo electrónico... y otras muchas
aplicaciones. Las historias de Internet y de la World Wide Web están
estrechamente relacionadas, porque si Internet ha gozado de tanta aceptación
popular y hoy en día es uno de los pilares fundamentales de nuestro mundo
globalizado es, en gran medida, gracias a las facilidades que ofrece esta
última.
Los orígenes de Internet nos llevan a la carrera espacial emprendida
por las dos grandes superpotencias del momento: los Estados Unidos de América y
la Unión Soviética. Enfrentadas en una guerra fría sin cuartel, se disputaban
no sólo el control político del mundo, sino el liderazgo científico y tecnológico
para mostrar la supremacía de sus ideologías respectivas (el capitalismo
liberal y el comunismo leninista). Los soviéticos habían tomado la delantera en
esa carrera espacial al lanzar el primer satélite artificial en órbita,
el Sputnik (Спутник, que en ruso significa algo así como
“compañero de viaje”) en 1957, y al llevar el primer hombre al espacio (Yuri
Gagarin, el 12 de abril de 1961) y la primera mujer (Valentina Tereshkova, el
16 de junio de 1963) e incluso al primer ser vivo (la perrita Laika, el
3 de noviembre de 1957).
Los Estados Unidos no podían consentir que su principal enemigo les superase de
manera tan evidente en semejante competición. Por ello, el gobierno (entonces
presidido por el general Dwight Eisenhower) creó la Advanced Research
Projects Agency (conocida por sus siglas como ARPA) en febrero de
1958, para retomar la iniciativa en la batalla tecnológica con la Unión
Soviética.
Entre los proyectos que surgieron de la ARPA destacó el establecimiento de una
oficina, la Information Processing Technology Office (IPTO),
entre cuyos objetivos principales estaba el de desarrollar un sistema de
control automatizado llamado Semi Automatic Ground Environment (SAGE).
Este sistema permitía conectar sistemas de radar a lo largo y ancho del país,
lo que para aquella época era un verdadero hito. Entre los participantes en el
proyecto destaca la figura de J.C.R. Licklider (1915-1990), uno de los
informáticos más importantes del siglo pasado, que escribió importantes
estudios sobre la “simbiosis” que podía darse entre el ser humano y el
ordenador. Un auténtico visionario de las posibilidades que ofrecía la
informática para los nuevos tiempos.
Licklider, allá por los años ’50, estaba trabajando en el prestigioso MIT y
había empezado a investigar sobre un campo que hoy resulta de primorosa
actualidad: la tecnología de la información, ocupación que simultaneaba
desempeñando puestos de alta responsabilidad en una de las empresas punteras
del sector, BBN Technologies. Licklider, junto con otro
informático llamado Lawrence Roberts (considerado uno de los “padres” de
Internet), desarrolló un sistema que operaba mediante el denominado packet
switching (estudiado antes por Paul Baran, un ingeniero famoso también
por haber inventado lo detectores de metal que se usan en los aeropuertos) en
lugar del circuit switching. ¿En qué se diferenciaban ambos
mecanismos? En que el primero, que se suele traducir al castellano como
“conmutación de paquetes”, implica conducir unidades de transporte de
información entre nodos o puntos específicos dentro de la red
de comunicaciones pero que, a diferencia del “circuit switching” como por
ejemplo los antiguos circuitos telefónicos, no establece una tasa constante
de bits (los dígitos binarios, compuestos de ceros o unos, que
están en la base del almacenamiento y el transporte de la información en los
sistemas computacionales) entre dos nodos. Con los circuitos la comunicación se
restringía a dos partes, mientras que los paquetes permitían la comunicación
simultánea entre más terminales y no sólo entre quien enviaba datos y quien
estuviera al otro lado del circuito. Ahora, con los paquetes, era posible usar
un mismo vínculo de comunicación para entrar en contacto con más de una
máquina. Puede decirse que el desarrollo de la comunicación por “paquetes” en
lugar de circuitos está en la base de Internet.
En 1969, en la UCLA (la Universidad de California en Los Ángeles) se creó el
ARPANET (Advanced Research Projects Agency Network), la
primera gran red de comunicaciones que operaba con el sistema de paquetes en
vez de con los clásicos circuitos. En 1978 se estableció el International
Packet Switched Service (IPSS), un consorcio entre la oficina de
correos británica, la compañía financiera Western Union y una
red de comunicaciones, la Tymnet, formando la primera red
internacional mediante la tecnología del intercambio de paquetes, que a
principios de los ’80 ya se había extendido a lugares como Hong Kong y
Australia.
En 1983 estaba operativo en Estados Unidos el primer protocolo de Internet, que
dio lugar rápidamente al surgimiento de distintas redes educativas y
comerciales. Gobiernos y empresas vieron en la nueva herramienta informática,
Internet, un mecanismo excepcional para la comunicación y el intercambio.
Internet pasaba a ser la “nueva imprenta” de la civilización tecnológica.
A principios de los años ’90, Internet dejó de ser una tecnología desconocida y
misteriosa para el común de los mortales y entró de lleno en el espacio
público. Un evento sumamente importante en estos años fue la invención de
la World Wide Web por otra de las mentes maravillosas de la
informática, Tim Berners-Lee. Detengámonos un poco en alguien que
todavía vive y que ocupa ya un lugar destacado en la historia del progreso
humano.
Timothy Berners-Lee nació en Londres el 8 de junio de 1955, hijo de un
matrimonio de matemáticos que se dedicaban al diseño de ordenadores. Nuestro
hombre creció en una atmósfera muy intelectual, donde las matemáticas eran uno
más de la familia. En ese contexto de gran estímulo intelectual, Berners-Lee
realizó estudios en una escuela primera, Sheen Mount Primary School, aunque los
“A-Levels” (unos exámenes que los alumnos tienen que hacer para acceder a la
universidad, con unos cursos previos parecidos al bachillerato español en el
sistema educativo británico) los cursase en “Emmanuel School”, en Wandsworth
(suroeste de Londres).
Tim Berners-Lee estudió en el afamado Queen’s College de la
Universidad de Oxford, fundado en 1341 y situado en plena High Street de
esta ciudad británica, y en el que han vivido, entre otros famosos ex alumnos,
el filósofo utilitarista Jeremy Bentham. Oxford era y sigue siendo una de las
mejores instituciones de educación superior del mundo. Su idílico paisaje
(verdes campiñas inglesas con edificios medievales que, sin embargo, dan cobijo
entre sus muros a la vanguardia en muchos campos de investigación) y su tradición
la convierten en un escenario magnífico para la labor intelectual y científica.
Parece que “invita” a pensar y a producir ideas e inventos. Tim Berners-Lee
estudió allí la carrera de ciencias físicas, graduándose en 1976. Poco después
de finalizar sus estudios de física, Berners-Lee comenzó a trabajar como
programador. Su mujer, Jane, también se dedicaba a la informática (una especie
de matrimonio “Curie” de los ordenadores).
Una fecha muy importante en la vida de Tim Berners-Lee es 1980. Ese año estaba
trabajando en el CERN (Conseil Européen pour la Recherche Nucléaire) de
Ginebra, en Suiza, un centro puntero en la física de altas energías y en el
estudio de las partículas elementales. Fue allí donde Berners-Lee desarrolló la
idea del hipertexto, destinado a permitir el intercambio de
información entre los investigadores que se encontraban en el CERN. Se trataba
de una especie de “intranet” que operaba sólo en el CERN, pero que incluía una
sofisticada tecnología para el traspaso de datos y archivos.
Berners-Lee siguió trabajando como programador, pero en 1989 decidió regresar
al CERN, que había instalado un potente nodo de Internet que le permitiría
desarrollar lo que había concebido años antes (el hipervínculo). El mérito de
Berners-Lee consiste, ante todo, en haberse dado cuenta de que integrando dos
tecnologías que habían surgido hasta cierto punto de manera independiente
(Internet y el hipertexto), podía dar al mundo una herramienta de información y
de intercambio que superaba con creces a las disponibles en esa época: la World
Wide Web. Podía servirse de Internet para generar un instrumento valiosísimo de
intercambio de información. Nuevamente, esto puede parecer sencillo, pero en
realidad se trataba de un reto de altísimo nivel. Era marzo de 1989, un año que
debe recordarse no sólo por la caída del Muro de Berlín, sino también por algo
no menos trascendental como es la invención de la World Wide Web.
Con la ayuda del belga Robert Cailliau, Berners-Lee lanzó la World Wide Web,
desarrollando el primer servidor, el conocido como httpd (Hypertext
Transfer Protocol Daemon). Era el comienzo de las páginas web (la
primera, realizada en el propio CERN, apareció en agosto de 1991), hoy tan
presentes en nuestras vidas cotidianas.
La historia que viene a continuación es sobradamente conocida: es la historia
del éxito de la idea de Berners-Lee, la del éxito de la World Wide Web y la del
éxito de Internet. Ambos han pasado a formar parte de nuestra existencia
cotidiana, de tal modo que parecería imposible subsistir sin ellas.
Pero también es la historia de la grandeza humana: la que mostró Berners-Lee al
no patentar su invento. En 1994 creó el World Wide Web Consortium, que
preside en la actualidad, pero en ningún momento pidió “royalties” por su idea,
probablemente una de las que más han influido en el mundo contemporáneo. Podría
ser uno de los hombres más ricos del mundo, pero prefirió no serlo. Es
perfectamente legítimo que alguien gane dinero, fama y prestigio por sus
inventos o creaciones, porque al fin y al cabo representan una forma de
reconocer su labor y su esfuerzo. Pero es innegable que resultará más fácil
admirar a quien renuncia a ello y lo pone a disposición de la humanidad sin
pedir nada a cambio. Ambas opciones son legítimas, pero también es legítimo admirar
más una que a otra. Berners-Lee ha demostrado, con ello, ser no sólo una mente
maravillosa, sino un gran ejemplo para una sociedad necesitada de referentes
éticos y de figuras con las que sentirse identificada.
Berners-Lee se dedica ahora al desarrollo de la denominada web
semántica, un proyecto fascinante que permitiría a los ordenadores
“entender” ellos mismos la información que poseen, en lugar de limitarse a
procesar las órdenes que nosotros, los humanos, les damos. Por ejemplo, estamos
habituados a entrar en Google o Yahoo y
decirle al buscador que encuentre cuál es la montaña más alta de África. El
buscador no entiende la pregunta: simplemente se limita a buscar páginas donde
aparezcan los términos “montaña/ más/ alta/ de/ África”, dando como resultado
de la búsqueda un gran número de páginas, y dejando al usuario que sea él mismo
quien dé con la respuesta mirando esas páginas. El ordenador no interpreta el
contenido de esas páginas. Con la web semántica, el ordenador nos daría
directamente la respuesta: el Kilimanjaro, sin necesidad de remitirnos a otras
páginas en las que conseguir la información. El ordenador dejaría de ser una
mera herramienta de procesamiento de órdenes para llevar a cabo una tarea más
“activa”. En otras palabras: sería el propio ordenador quien leyera las páginas
web.
Miles de millones de personas se conectan, diariamente, a la Red. Si nunca como
ahora habíamos sido tantos, tampoco nunca como ahora hemos tenido tantas
posibilidades para encontrarnos, conocernos y ayudarnos. Nunca habíamos tenido
una herramienta tan poderosa para el intercambio de información y la
configuración de una auténtica sociedad del conocimiento. Hoy,
progreso es sinónimo de Internet. De nosotros depende que esto no sea un simple
sueño utópico, y que el uso que demos a una de las creaciones más importantes
de los últimos siglos responda al bien de todos.
Capítulo 21
Todas las mentes pueden ser maravillosas.
El título de este capítulo puede sorprender.
¿Después de hablar de gigantes intelectuales como Sócrates, Arquímedes, Galileo
o Einstein cabe decir que todas las mentes, también las nuestras, pueden ser
maravillosas? ¡Sí! Es una convicción que mantengo y que trataré de justificar
en las siguientes líneas.
Primero, me veo en la obligación de explicar qué entiendo por una mente
maravillosa. Por supuesto, Sócrates, Arquímedes, Galileo, Einstein y muchos
otros nombres que han ido apareciendo por el libro han sido mentes
absolutamente extraordinarias, dotadas de una inteligencia y de un tesón
excepcionales que no todo el mundo posee. Pero una mente maravillosa no es sólo
una cuestión de ser un prodigio desde muy joven. Han existido
casos de personas que aparentemente no prometían nada en el campo de la ciencia
o de las humanidades (no fueron niños prodigio ni estudiantes brillantísimos) y
que sin embargo acabaron realizando contribuciones fundamentales al progreso
del conocimiento. Por ejemplo, el inventor de la batería eléctrica, Alessandro
Volta, el genial físico Michael Faraday (un hombre casi sin formación
científica) o sin ir tan lejos, el del premio Nobel de química de 2003 y
descubridor de las acuaporinas (las proteínas clave en el transporte de agua en
la célula), Peter Agre, que obtuvo un grado “D”, una nota bajísima, en su
primera clase de química, a pesar de que su padre era profesor universitario de
química. Ni la precocidad ni el entorno familiar garantizan nada, aunque puedan
facilitar las cosas. Además, no olvidemos que de algunos de los mayores genios
de la historia, como Isaac Newton, Immanuel Kant o Charles Darwin, no nos
consta que fuesen particularmente prodigiosos en su infancia.
Y a la inversa, se han dado situaciones en las que figuras prodigiosas desde
temprana edad o que consiguieron un currículum formidable “fracasaron”, en el
sentido de que no dejaron ninguna aportación relevante en la ciencia o en el
pensamiento. Un ejemplo muy célebre es el de William James Sidis (1898-1944),
probablemente una de las personas más inteligentes de todos los tiempos. Sidis
fue un niño muy especial. Sus padres eran emigrantes rusos de origen judío, y
el pequeño William nació el 1 de abril de 1898 en Nueva York. Boris Sidis, su
padre, era un renombrado psicólogo y políglota profesor en Harvard, y su madre
estudió la carrera de medicina en la Universidad de Boston. Ambos progenitores
poseían, por tanto, una educación y una inteligencia muy superiores a la media
del momento. Con un padre psicólogo que además investigaba sobre cómo potenciar
las habilidades intelectuales de las personas, era de esperar que William
recibiese una formación completamente atípica. ¿Qué método de enseñanza podía
emplear quien pensaba, como Boris Sidis, que el genio podía “avivarse” e incluso
“fabricarse” con una correcta pedagogía? Al igual que el padre de John Stuart
Mill (1806-1873), James Mill, se propuso hacer de su hijo un gran sabio que
pudiese enarbolar en un futuro la bandera de la filosofía utilitarista, y para
ello le privó de relaciones con los demás niños de su edad y le sometió a una
férrea disciplina que incluía la lectura en griego de las Fábulas de
Esopo y de la Anábasis de Jenofonte a los ocho años (lo que
acabó pasándole una costosa factura, ya que a los 21 años sufrió un colapso
nervioso del que afortunadamente, sobre todo para la historia del pensamiento,
se recuperó), Boris Sidis también diseñó un cuidadoso programa de instrucción
para su joven criatura. Si el escultor modela su obra, Boris Sidis quería
modelar a su propio genio. Y si sumamos a esta inquebrantable voluntad paterna
la excepcional precocidad que de por sí tenía William, el resultado es
asombroso, casi increíble: Sidis era capaz de leer el New York Times a
los 18 meses, a los ocho años había aprendido los rudimentos de lenguas como el
latín, el griego, el francés, el ruso, el alemán, el hebreo, el turco y el
armenio, y no contento con eso había inventado un nuevo idioma, el vendergood. En
los Sidis archives, disponibles en Internet, se pueden leer
las crónicas que salían en los periódicos de la época y que daban cuenta de los
progresos de semejante maravilla.
Sidis quiso entrar en la universidad a los 9 años, pero como les ha ocurrido a
tantos otros niños prodigio, se topó con numerosas trabas a causa de su edad. A
los 11 logró ser admitido en la Universidad de Harvard dentro de un programa
especial en el que también participaba el futuro matemático, padre de la
cibernética, Norbert Wiener. Tal era el nivel de matemáticas exhibido por el
joven Sidis que con sólo 11 años pronunció una conferencia sobre los cuerpos
tetra-dimensionales en el club matemático de Harvard, con la asistencia de las
mayores eminencias matemáticas del momento, que se quedaron atónitas ante su
genio. El profesor Daniel Comstock, del Instituto tecnológico de Massachusetts
(el MIT), llegó a predecir que Sidis lideraría la ciencia en breve.
Sidis se licenció en matemáticas a los 16 años, en 1914, obteniendo la
calificación de cum laude (a su madre no le pareció suficiente
porque no era summa cum laude). “Quiero vivir la vida
perfecta”, declaró Sidis a los medios de comunicación que le entrevistaron con
motivo de su graduación en Harvard. Sidis despreciaba el dinero y había
decidido permanecer célibe, seguramente porque creía que pensar en mujeres le
distraería de sus intereses intelectuales y académicos. Tras terminar sus
estudios tan pronto, ¿qué podía hacer ahora? Empezó a dar clases de matemáticas
en la Universidad Rice, en Houston (Texas), con tan sólo 17 años, pero Sidis no
conseguía encontrar la felicidad. Se sentía frustrado y aburrido, y como el
clásico, debió de decirse para sus adentros: taedet animam meam vitae
meae, “mi alma está hastiada de la vida”. Las matemáticas ya no le
llenaban, y nunca volvería a ser el mismo y exitoso prodigio que había puesto a
Harvard bajo sus pies. Sidis se matriculó en derecho, pero terminó abandonando
la vida académica. Fue arrestado por participar en una manifestación socialista
(Sidis era ateo y de izquierdas) en Boston y condenado a 18 meses de prisión,
en teoría por su comportamiento violento durante la protesta. Tenía 21 años. El
prodigio Sidis, célebre en Estados Unidos desde tempranísima edad, se convirtió
ahora en el objeto de las burlas y los escarnios de la prensa neoyorkina que
antes lo había exaltado como la mayor promesa de América. Los periódicos nunca
dejarían de ridiculizarlo: “prodigioso fracaso”, lo llamó uno de ellos. Gracias
a la intervención de su padre, Sidis se libró de la prisión, pero a cambio tuvo
que ser internado en un sanatorio psiquiátrico dirigido por sus propios padres,
quienes le amenazaron con llevarlo a un manicomio si no cambiaba de
comportamiento.
Me parecería sumamente injusto decir que Sidis fracasó. Fracasó, ciertamente,
en la esfera pública, o al menos fracasó para las expectativas que muchos
habían alumbrado. Esos muchos casi nunca pensaron en el Sidis de carne y hueso,
y sostener que alguien fracasa sólo porque no pasa a la historia efectuando
descubrimientos o escribiendo libros inmortales es olvidar que el auténtico
triunfo se da en el interior de cada persona, en su propia auto-realización.
Los títulos académicos, la fama, el prestigio, el dinero o la inteligencia, en
el fondo, son totalmente secundarios con respecto a las cualidades morales de
una persona. Gente con un gran currículum hay mucha; famosos y con prestigio,
también; dinero en el mundo, en cantidades asombrosas; personas inteligentes,
muchísimas... Pero no siempre encontramos a gente verdaderamente buena y dada a
los demás. Y Sidis lo fue. Su vida transcurrió en el anonimato, sólo
interrumpido por los litigios judiciales que le enfrentaron a distinguidos
periódicos que seguían empeñados en criticarle y humillarle por no haber hecho
nada importante desde que fue un niño prodigio. Trabajó en oscuras oficinas al
tiempo que viajaba a lo largo y ancho de Estados Unidos para escribir una
historia de América donde los nativos ocupaban un papel que les había sido
vetado en los relatos oficiales. A Sidis le encantaba conversar con sus amigos,
darles su visión del mundo y de la sociedad, leer y escribir... Vivió solo, y
murió de una hemorragia cerebral en Boston en 1944, con 46 años. Según Abraham
Sperling, el cociente de Sidis pudo oscilar entre 250 y 300. Gracias a la
publicación de los manuscritos de Sidis en Internet, se ha podido saber que
llevó a cabo reflexiones innovadoras sobre campos tan diversos como la
astrofísica, la termodinámica o la historia de América, además de patentar un
sistema de calendario perpetuo.
Pero no todos los niño prodigio han corrido la misma suerte que Sidis. El
holandés Hugo Grocio (1583-1645) entró en la Universidad de Leiden a los 11
años y a los 15 cautivó con su talento al rey Enrique IV de Francia en una
audiencia, que lo describió como el “milagro de Holanda”. Ha pasado a la historia
como uno de los padres del derecho internacional y como una figura determinante
en la modernidad europea. Blaise Pascal (1623-1662) también fue un niño
prodigio que a los 16 años publicó lo que hoy se conoce como el “teorema de
Pascal” sobre las cónicas, y siguió haciendo contribuciones notorias al
conocimiento en campos tan variados como la física, las matemáticas, la
filosofía, la teología y la prosa francesa. El alemán Carl Friedrich Gauss
(1777-1855), seguramente el mayor de los matemáticos junto con Arquímedes y
Newton, era el hijo de un humilde albañil cuando llamó la atención de un
profesor de la escuela elemental al calcular al instante el valor de la suma de
todos los números desde 1 hasta 100: 1 + 2 + 3... + 100: -“¡5050!”, dijo
enseguida. El maestro Büttner había puesto a sus alumnos como tarea hacer esa
suma para entretenerlos mientras atendía otros asuntos, pero debió de quedarse
extasiado y fuera de sí al comprobar que un niño de corta edad había tardado
tan poco en resolver el problema. Y es que Gauss se había dado cuenta de que
tanto si la suma comienza desde 1 como si empieza desde 100, al adicionar los
términos opuestos (1 + 100, 2 + 99, 3 + 98, 4 + 97...) el resultado siempre es
de 101. Como hay 100 términos, pero sumamos de dos en dos, habrá que
multiplicar 101 por 50, lo que da 5050. Fascinante el poder de la inteligencia
humana ya desde edades tan tempranas. Y recientemente, el que fuera niño
prodigio de las matemáticas, el australiano de origen chino Terence Tao, ha
ganado una de las medallas Fields, el “Nobel” de las matemáticas, que se
entregaron en el congreso internacional de matemáticas de Madrid en 2006
(galardón que rechazó el polémico y genial matemático ruso Grigori Perelmann,
autor de la demostración de la conjetura de Poincaré, uno de los interrogantes
matemáticos más complicados de las últimas décadas).
Y siempre tenemos el ejemplo de Wolfgang Amadeus Mozart (1756-1791), el niño
prodigio por excelencia que sorprendió a media Europa y que como adulto legó
algunas de las creaciones más bellas del genio humano, que nos han extasiado
durante siglos. Como dijo un director de orquesta, en la música de Mozart hay
tres etapas: una en la que Mozart pertenece a su tiempo; otra en la que Mozart
supera con creces a su tiempo; y una final en la que Mozart se sale del tiempo.
¿Qué habría sido de la historia de la música si Mozart no hubiese muerto a los
35 años? Afortunadamente y por haber sido un prodigio tan extraordinario,
Mozart empezó a componer muy joven y por eso nos han llegado tantas sinfonías,
conciertos, misas y óperas suyas.
Nos seguimos preguntando, ¿qué es una mente maravillosa? Hemos visto que no
necesariamente un ser prodigioso desde la infancia se transforma en una mente
maravillosa. ¿Y qué decir de esos cerebros asombrosos que aprenden decenas de
lenguas o que hacen cálculos mentales con suma facilidad? ¿Son mentes
maravillosas? Hay gente que, por ejemplo, es capaz de calcular la raíz trece de
un número de cien dígitos en menos de un minuto. ¡La raíz trece! No sólo la cuadrada
o la cúbica, sino la raíz trece. El colombiano Jaime García Serrano, “la
computadora humana”, posee cinco récords mundiales de cálculo. Puede el
calcular el día de la semana de cualquier fecha en un rango de un millón de
años (¿qué día será el 20 de septiembre del año 200.000? “Miércoles”, nos diría
Jaime sin rechistar); saca la raíz trece de un número de cien cifras en 15
centésimas de segundo, ha memorizado 37.000 decimales del número pi... Y sólo
tiene estudios de formación profesional. Formidable. No menos que la gesta de
Bhandanta Vicitsara, un hombre que en 1974 recitó de memoria 16.000 páginas de
un texto budista. Y tampoco se queda atrás el italiano Giuseppe Caspar
Mezzofanti (1774-1849), un cardenal políglota apodado en vida la
Pentecote vivante, “el Pentecostés viviente”, por su legendaria
facilidad para aprender idiomas. Mezzofanti, que era de Bolonia (hay una placa
en su casa natal donde se le llama massimo dei poliglotti), pudo
llegar a dominar, según la biografía del reverendo Charles W. Russell y otras
fuentes, 38 lenguas a la perfección y 50 dialectos (el lingüista Richard Hudson
acuñó en 2003 un término para las personas que hablan con fluidez seis o más
idiomas: hiperpolíglota, que sin duda Mezzofanti cumplía de
sobra), incluyendo el húngaro, el chino, el turco, el árabe (Mezzofanti fue
catedrático de árabe), el indostano, el valaco, el ilírico, el persa o lenguas
nativas de América. Muchos viajeros se desplazaban a Bolonia o después a Roma
simplemente para conocerlo y para poner a prueba sus habilidades. Aunque
Mezzofanti aparece habitualmente en las ediciones del libro Guinness de los
récords, no faltan pretendientes al disputado título de mayor políglota de la
historia. Se dice que el filósofo y teólogo estonio fallecido en 1985 Uku Masing
hablaba 65 idiomas y traducía 20, o que en la actualidad Ziad Fazah, nacido en
Monrovia (Liberia) pero residente en Brasil, conoce 58 lenguas, y se ha
sometido a numerosos “exámenes” en distintos programas de televisión de todo el
mundo. Sin embargo, también se han dado exageraciones y fraudes como las de Sir
John Bowring (1792-1872), cuarto gobernador británico de Hong Kong, diplomático
y viajero, que presumía de poder hablar 200 idiomas, cuando en realidad
dominaba poco más de diez y los dialectos.
Ya sean calculadoras humanas, seres dotados de una “mega-memoria” o hiper
políglotas, lo que entiendo por mente maravillosa es muy distinto. Esas
personas han estado dotadas de unas facultades únicas que desbordan todo límite
que a priori se pueda imponer a las capacidades intelectuales
del ser humano. Pero no han hecho progresar el conocimiento, ni han dejado a la
posteridad una gran idea o una escuela de pensamiento, ni han inventado nada.
Una mente maravillosa tiene que ser alguien más creativo, alguien que
verdaderamente abra un nuevo horizonte a la humanidad, aun sin disponer de esas
habilidades tan extraordinarias y sorprendentes que nos invitan a reflexionar
sobre el alcance de la inteligencia humana. Una mente maravillosa es más
compleja: quizás no tenga el mayor cociente intelectual, ni la mayor memoria,
ni la mayor capacidad de cálculo, ni sea el mejor escritor, pero es todo a la
vez, suma y no resta, sabe también situarse en el contexto histórico en que
vive y ver qué puede aportar él en ese lugar y en ese momento. No desiste, no
ceja nunca en su empeño por aprender, nunca cree que ya tiene la respuesta
plena o que ya lo ha aprendido todo. ¿Qué es, entonces, una mente maravillosa?
Una mente maravillosa es lo opuesto a la autosatisfacción intelectual y
personal. Es alguien perpetuamente “abierto” a nuevos desafíos y a nuevos
horizontes que sabe ver más allá de lo evidente, inmediato o comúnmente
aceptado. Es alguien que trabaja y que quiere trabajar para conocer, descubrir
o crear.
Porque si ni un niño prodigio ni una persona con una memoria o una capacidad de
cálculo magníficas se convierte apodícticamente en una mente maravillosa,
tampoco está garantizado que quien tenga un gran cociente intelectual vaya a
serlo. Desde que el psicólogo francés Alfred Binet publicara en 1905 los
primeros tests modernos de inteligencia, y que el alemán Wilhelm Stern emplease
el término Intelligenz-Quotient como puntuación para la medida
de la inteligencia de una persona, el IQ (intellectual quotient, en
español “cociente intelectual”) ha pasado al lenguaje coloquial y se ha
convertido en un número de uso habitual en estudios de ciencias sociales, en
estadísticas educativas, en los departamentos de recursos humanos en las
empresas... El prototipo de test de inteligencia de Binet lo combinó el
estadounidense Lewis M. Terman, de la Universidad de Standford, con la noción
de cociente intelectual de Stern, dando como resultado lo que hoy se conoce
como test de Standford-Binet. ¿En qué consiste el cociente intelectual?
Sencillamente en eso: en hacer un cociente o división entre la edad mental de
un individuo y su edad cronológica y multiplicarlo por 100:
Cociente = Edad mental/Edad cronológica × 100.
Un cociente de 100 en la escala de Standford-Binet
(la que se utiliza comúnmente) significa una persona de inteligencia media, ya
que su edad mental está perfectamente sincronizada con su edad cronológica. Una
persona con un cociente de 150 significa que a los 10 años de edad cronológica
tiene una edad mental de 15(15/10 X 100 = 150), y una persona con un cociente
de 80 significa que a los 10 años tiene una edad mental de 8 (8/10 X 100 = 80).
El problema es que los primeros tests de inteligencia funcionaban básicamente
para niños, en edades muy tempranas donde era más fácil calcular la diferencia
entre la edad cronológica y la mental, pero no eran aptos para medir la
inteligencia de los adultos. Por eso, los estudios más desarrollados para
determinar el cociente intelectual emplean principalmente métodos estadísticos
(desviaciones estándar, percentiles...) para las distribuciones de cocientes
intelectuales en una determinada población. Hasta la fecha, la escritora
norteamericana (que dejó la Universidad de Washington antes de terminar la
carrera) Marilyn Vos Savant, nacida en 1946 y columnista de la famosa
revista Parade, es quien ha obtenido la puntuación más alta en
un test de inteligencia, con 228 en la escala de Standford- Binet. Sin embargo,
el resultado ha generado mucha discusión, porque la medida de cocientes
intelectuales altos es enormemente inexacta y todavía es objeto de controversia
científica. Por ejemplo, medir un cociente superior a 130 con un test de
Wechsler para adultos (que integra pruebas relacionadas con la comprensión
verbal, la percepción organizativa, la memoria o la velocidad de procesamiento
y de asimilación de la información) es bastante complicado. La propia Marilyn
ha reconocido que un test puede ofrecer una idea más o menos aproximada sobre
ciertas habilidades mentales, pero que la inteligencia comporta tantos campos y
tantos factores que intentar medirla es, en el fondo, una empresa inútil.
Por lo general, se suelen barajar los siguientes cocientes intelectuales a la
hora de calificar la inteligencia de una persona:
Ni el que tiene un cociente alto tiene que verse
como alguien superior (porque la inteligencia sólo es una faceta de la persona
entre otras muchas), ni el que tiene un cociente bajo debe sentirse inferior o
discriminado. Lo importante es aceptarse a uno mismo tal y como se es y
esforzarse siempre por mejorar. De la misma manera, los gobiernos y las
instancias educativas han de ofrecer a todos las posibilidades adecuadas para
que se desarrollen según sus aptitudes y cualidades, de modo que su inteligencia
pueda servir al progreso de la sociedad y del conocimiento, al tiempo que
ayuden a quienes más asistencia necesiten en el aprendizaje. La inteligencia
nunca puede justificar la soberbia o la autosatisfacción: precisamente los
grandes hombres y mujeres han sabido reconocer sus limitaciones y lo mucho que
ignoraban en comparación con lo que eran capaces de comprender o con lo que
habían descubierto. Y siempre permanecen interrogantes que ni los genios puede
responder y que nos afectan a todos por igual.
¿Por qué tener cociente alto o incluso extraordinariamente elevado no conlleva
necesariamente ser una mente maravillosa como las que hemos descrito en este
libro? Nuevamente, un gran cociente intelectual puede facilitar muchas cosas,
ya que ofrece un potencial indiscutible. Pero al igual que haber sido un niño
prodigio o disponer de una memoria fotográfica o de una calculadora inserta en
el cerebro no garantiza que se hagan contribuciones auténticas al conocimiento
(a las ciencias, al pensamiento, a las matemáticas...), tampoco el poseer un
alto cociente intelectual asegura que esa mente sea verdaderamente creativa,
innovadora e influyente en el curso de la historia. El propio Alfred Binet
estaba convencido de que los testes de cociente intelectual no eran suficientes
para medir la inteligencia de una persona, ya que las cualidades intelectuales
no se pueden superponer, como se hace a la hora de calcular el cociente: no se
pueden sin más sumar la fluidez verbal o el razonamiento matemático y, haciendo
media, decir cuál es el cociente intelectual de un individuo. Hacer esa
operación puede dar una idea del nivel de inteligencia y de las aptitudes, pero
implica de por sí un presupuesto absolutamente cuestionable (que la
inteligencia como un todo se puede fragmentar en “sectores de la inteligencia”
y examinar cada una de estas áreas por separado). El padre de William James
Sidis, Boris Sidis, despreciaba los testes de inteligencia como “estúpidos,
pedantes, absurdos y engañosos”, y otros autores han llegado a acusar a los
testes de inteligencia de racistas por llevar implícitas arbitrariedades
culturales y geográficas (si bien hay modelos más desarrollados que no
incorporan esos sesgos). Los tests se basan en consideraciones estadísticas, y
lógicamente siempre pueden darse casos que no respondan a los procedimientos
estadísticos que están en la base teórica de esos testes. Lo mismo podría
decirse de los testes de personalidad: tienen un carácter orientativo, pero no
ofrecen una certeza cien por cien que describa a un individuo tal y como es,
porque en el fondo hacerlo sería inabarcable e imposible (¿quién es capaz de
conocernos si ni nosotros mismos nos conocemos de manera óptima?). Por tanto,
nadie debe frustrarse por no tener un cociente altísimo o por no haber
destacado especialmente por precocidad o brillantez. Es verdad que, como ha
reconocido la Asociación americana de psicología, los análisis
de cociente intelectual presentan un valor predictivo notable y muchas veces
pueden explicar las diferencias intelectuales que se producen entre
determinados individuos. Pero nuevamente, no son métodos absolutos y por tanto
es necesaria una visión más amplia de la inteligencia. Sin llegar a una crítica
tan extrema como la que hizo el paleontólogo estadounidense Stephen J. Gould en The
mismeasure of man (1981), en el que acusaba a la psicología
contemporánea de “reificar” o “cosificar” conceptos abstractos como el de
inteligencia en valores cuantitativos como el cociente intelectual, no se puede
negar, a día de hoy, que la medición de la inteligencia entraña una inevitable
imperfección, y que no siempre puede dar cuenta de las aptitudes reales de una
persona. Por tanto, si bien la “medición” de la inteligencia puede ser
interesante y ayudar en algunos aspectos, no es absoluta y no debe tomarse como
absoluta a efectos de conocer las habilidades de uno, que en el fondo no se
pueden identificar hasta que no se han “visto” (por su biografía, itinerario
personal e intelectual...). En las ciencias sociales (como la psicología) no se
puede emplear el mismo concepto de “predicción” que por ejemplo se usa en las
matemáticas o en ciencias naturales como la física (al menos en la física
clásica), porque el individuo de carne y hueso nunca se puede “uniformizar”,
aunque con frecuencia encaje bastante bien en los estándares propuestos.
La inteligencia no es, desde luego, un número, una cantidad fija e inamovible.
Puede aumentar o disminuir, por lo que todos (independientemente de nuestra
procedencia social, de nuestro nivel de educación o del ambiente en que nos
movamos) podemos, si nos lo proponemos, aumentarla. Esto no quiere decir que
todos vayamos a alcanzar el mismo grado de inteligencia y de creatividad que un
Shakespeare o un Einstein (aunque... ¿por qué no? ¿Acaso no podrá surgir un
dramaturgo que supere a Shakespeare o un físico que destrone a Einstein y dé
una visión más profunda y rigurosa del universo físico?). Se puede partir de un
determinado potencial de inteligencia, que en unos casos será
mayor o menor, pero ese potencial no define unívoca e irreversiblemente los
logros intelectuales efectivos de una persona. Lo contrario sería transmitir
una imagen excesivamente determinista del ser humano, cuando la experiencia
(hemos tenido la oportunidad de comprobarlo en algunos de los personajes de
esta obra) parece indicar que la persona muestra una desmesura. De
hecho, el filósofo Xavier Zubiri concebía al ser humano como una “esencia
abierta”, una capacidad de desbordar todo límite. Y eso ha sido y es justamente
el progreso. Los testes de inteligencia y el cociente intelectual sirven como
herramientas orientativas, pero nunca deben convertirse en identificadores o
“huellas digitales”, al estilo de “usted tiene un 100 de cociente intelectual y
entonces sólo puede optar a esto o a aquello”, máxime si con ello se pueden
cerrar puertas a una persona, por ejemplo en la esfera laboral. Hay que ser
conscientes de sus virtualidades y de sus restricciones.
Tampoco la inteligencia es algo que simplemente se herede, ante
todo porque lo que normalmente se entiende por “herencia” es inmutabilidad,
cuando lo que en realidad ocurre es que la herencia es cambiable, en el sentido
de que uno u otro ambiente puede modular directamente esa herencia. Además, los
estudios señalan que hay factores como la alimentación que pueden provocar un
aumento o un descenso en los niveles de cociente intelectual, al influir en el
desarrollo cognitivo de la persona. De igual forma, entrenarse en actividades
intelectuales también ayuda. Otra cosa es que no se pueda saber a ciencia cierta
cómo ayuda exactamente o en qué grado (si por leer tales libros o por jugar más
partidas de ajedrez mi cociente intelectual va a verse incrementado en un tanto
por ciento). Con todo esto sólo se quiere transmitir la idea de que la
inteligencia no es una facultad incólume, impoluta e impasible, como si uno
tuviese que conformarse irrevocablemente con la inteligencia que ha heredado o
que tiene desde una cierta edad. Se puede hacer mucho en su favor o en su
contra, y depende de nosotros mismos y de la sociedad. No se puede demostrar
que un test de inteligencia mida la inteligencia “innata” de una persona, con
independencia total de las experiencias y condicionamientos que ya ha recibido,
aunque sea en pocos años. No podemos saber si en una determinada persona, por
extraño que parezca en primera instancia, se dará la particular simbiosis de
circunstancias y de azar que haga de ella una mente maravillosa capaz de servir
con sus talentos a la sociedad y a su desarrollo intelectual, tecnológico,
económico y ético. Por ello, la preocupación por la educación como la mayor
riqueza de un país (el valor añadido por excelencia) es a
todas luces fundamental. El nivel de un país no se mide sólo por el número y el
tamaño de sus empresas, por su poderío militar, por sus infraestructuras o por
sus recursos naturales. El nivel y el valor humano de un país se mide por el
papel que en él jueguen el conocimiento y la educación. Y está en nuestras
manos que la creatividad intelectual no se circunscriba a un ámbito geográfico,
al de los países más avanzados e industrializados, lo que supone una enorme
injustica a escala global que hace que en los países pobres, por disponer de
unas peores condiciones materiales y de una peor educación, no se lidere el
progreso intelectual, llegando a la tragedia de la fuga de cerebros y del éxodo
masivo de figuras prometedoras al mundo rico, que acaba acumulando todo el
capital intelectual de la humanidad y arrebatando la riqueza más preciada que
poseen otros pueblos. Es algo que podemos solucionar: “globalizar” la
inteligencia a todas las regiones del mundo, porque en todas, si se dan las
condiciones de educación y nivel socioeconómico, pueden surgir mentes
maravillosas.
Tanto los individuos como las sociedades pueden hacer mucho para desarrollar la
inteligencia. No basta con disponer de un buen sistema educativo; nosotros
mismos también tenemos que poner de nuestra parte. Potenciar la mente
implica buscar activamente el conocimiento. El conocimiento o
los interrogantes intelectuales no pueden ser, simplemente, “cosas” que nos
llegan pasivamente: uno tiene que mostrar iniciativa, espíritu crítico,
inquietud, leer e informarse muchísimo, dialogar con el que ya sabe... Hay que
estar siempre abierto a aprender y aceptar que no se conoce todo. Creo que un
error muy típico en los estudios superiores, sobre todo en los universitarios,
es concebirlos como un mero trámite que hay que pasar para conseguir el título.
Si “absorbo” como por ósmosis el contenido de los libros, manuales y apuntes
lograré llevar a buen término una asignatura y así podré terminar la carrera.
¿Y nada más? ¿No me llaman la atención las preguntas sin respuesta que aún
quedan, el porqué de lo que estoy estudiando, cómo se llegó a esas u otras
conclusiones, qué limitaciones presentan, hacia dónde se dirige la
investigación actual en ese campo...? ¿No me fascina ver la conexión que existe
entre muchas ideas y disciplinas científicas, y cómo la “arquitectónica” del
conocimiento permite que en muchas ocasiones partiendo de una idea general se vaya
descendiendo progresivamente a los detalles? ¿No me fascina ver la “síntesis”
que se puede encontrar detrás de todo “análisis”? Está claro que no todas las
materias nos tienen que interesar o gustar por igual, pero al menos en las que
nos interesen sí creo que es necesario adquirir una serie de inquietudes
profundas que nos permitan formarnos un juicio propio e incluso proponernos
efectuar alguna aportación que haga avanzar esa ciencia o línea de pensamiento.
No hay trucos para ser una mente maravillosa. Sólo las mentes
que verdaderamente han sido maravillosas a lo largo de los siglos podrían
enseñárnoslo, pero en el fondo nos daríamos cuenta de que cada una tuvo una
trayectoria singular. Eso sí: partiendo de puntos de origen distintos y
atravesando sendas completamente dispares a menudo alcanzaron la misma meta, la
de contribuir a aumentar nuestro conocimiento o a mejorar nuestras vidas.
Gracias a Einstein entendemos más sobre el universo y la gravedad, y gracias a
Tim Berners-Lee tenemos más acceso a las vías de información y de intercambio a
escala global, aunque también por “culpa” de Einstein haya hoy nuevos
interrogantes y por “culpa” de Berners-Lee hayan surgido no pocos problemas
relacionados con la World Wide Web. Pero objetivamente
hablando, ambos (y podríamos citar otros muchos nombres) han inaugurado un
escenario intelectual y tecnológico nuevo.
Nunca se sabe si alguien puede convertirse en una mente maravillosa, creativa y
descubridora. Y precisamente porque nunca se sabe, nunca hay que desistir, si
se tiene el empeño, en cultivar la inteligencia y el aprendizaje.
Algunas lecturas recomendadas sobre los temas
tratados
Como obra de referencia histórica, además de las
enciclopedias destaca la historia universal del matrimonio Durant (Will y
Ariel), que cubre desde el nacimiento de las grandes civilizaciones hasta
Napoleón, y que abarca también los aspectos relacionados con la historia de la
ciencia y del pensamiento en las distintas etapas que estudia.
Para la historia de las matemáticas, un libro fundamental es El
pensamiento matemático desde la antigüedad a nuestros días, de Morris
Kline (Alianza, 1999).
Las Feynman’s Lectures on Physics, curso en tres volúmenes del
premio Nobel Richard Feynman, constituyen una excelente exposición de los
conceptos y teorías fundamentales de las ciencias físicas.
Como compendio extenso y pormenorizado de la historia de la filosofía está la
obra del jesuita inglés Frederick Copleston, en varios volúmenes, desde la
filosofía griega hasta el siglo XX.
En Internet, el nivel y el rigor de muchos artículos de wikipedia (al
menos en la edición inglesa, que es la más completa y la que dispone de un
mayor número de enlaces y de fuentes) son bastante altos, ofreciendo una idea
muy adecuada de distintas cuestiones científicas, biográficas, históricas y
filosóficas.
Otras obras interesantes relacionadas con los capítulos de este libro son:
- Historia de la escritura, de Ignace J. Gelb (Alianza, 1994)
- Historia del Egipto antiguo, de B.G. Trigger, B.J. Kemp, D. O’Connor,
A.B. Lloyd (Crítica, 1997)
- Historia antigua de Egipto y del Próximo
Oriente, Antonio Pérez Largacha (Akal, 2006)
- Introducción a la cosmología, Francesc Nicolau (Encuentro, 1988)
- Momentos estelares de la ciencia, Isaac
Asimov (Salvat, 1984)
- El método, carta
de Arquímedes a Eratóstenes, descubierto en 1906 en un palimpsesto
(manuscrito que se había reutilizado para escribir un texto distinto al
original), editado por Alianza (1986)
- El cosmos, la Tierra y el hombre, Preston
Cloud (Alianza, 1988)
- El mensajero sideral, intercambio epistolar entre Galileo y
Kepler (Alianza, 1990)
- Einstein 1905: un año milagroso, John Stachel (ed.) (Crítica, 2001)
- Sobre la teoría de la relatividad especial y
general, Albert Einstein (Altaya,1998)
- El reloj de la sabiduría: tiempos y
espacios en el cerebro humano,Francisco
Mora (Alianza, 2004)
- Historia del tiempo: del big bang a los
agujeros negros, Stephen Hawking (Alianza, 1999)
- El mundo cuántico, Stéphane Deligeorges
(dir.) (Alianza, 1999)

No hay comentarios:
Publicar un comentario