© Libro N° 8172.
Historia Sencilla De La Ciencia. Comellas, Jose
Luis. Emancipación. Enero 9 de 2021.
Título
original: © Historia Sencilla De La
Ciencia. Jose Luis Comellas
Versión Original: © Historia Sencilla De La Ciencia. Jose
Luis Comellas
Circulación conocimiento libre, Diseño y edición
digital de Versión original de textos:
http://www.librosmaravillosos.com/historiasencilladelaciencia/index.html
Licencia Creative Commons:
Emancipación
Obrera utiliza una licencia Creative
Commons, puedes copiar, difundir o remezclar nuestro contenido, con la única
condición de citar la fuente.
La
Biblioteca Emancipación Obrera es un medio de difusión cultural sin fronteras,
no obstante los derechos sobre los contenidos publicados pertenecen a sus
respectivos autores y se basa en la circulación del conocimiento libre. Los
Diseños y edición digital en su mayoría corresponden a Versiones originales de
textos. El uso de los mismos son estrictamente educativos y está prohibida
su comercialización.
Autoría-atribución: Respetar la autoría del texto y el nombre de los autores
No comercial: No se puede utilizar este trabajo con fines
comerciales
No derivados: No se puede alterar, modificar o reconstruir este
texto.
Portada E.O. de Imagen original:
http://www.librosmaravillosos.com/historiasencilladelaciencia/imagenes/portada.jpg
© Edición, reedición y Colección Biblioteca Emancipación: Guillermo Molina
Miranda
LEAMOS SIN RESERVAS,
ANALICEMOS SIN PEREZA Y SOMETAMOS A CRÍTICA TODA LA CULTURA
HISTORIA
SENCILLA DE LA CIENCIA
Jose Luis Comellas
Historia Sencilla De La
Ciencia
Jose Luis Comellas
CONTENIDO
Introducción
1. Algo sobre la ciencia primitiva
2. La ciencia de los grandes imperios orientales
3. Los tiempos clásicos
4. La ciencia en los tiempos medievales
5. La ciencia del renacimiento
6. La Revolución del siglo XVII
7. La ciencia en el periodo de la ilustración
8. La época de la revolución industrial
9. La actitud positivista y la gloria de la ciencia
10. La era de los inventos
11. La gran crisis del siglo XX
12. Aspectos de la ciencia de hoy
A modo de conclusión
Introducción
Escribía Cristóbal Colón en una carta a los Reyes
Católicos, a raíz de su tercer viaje, que «aquello que mueve al hombre a
descubrir es su deseo de conocer los secretos de este mundo». No cabe duda de
que tanto Colón como los demás grandes descubridores fueron movidos por otros
muchos alicientes: desde el logro de la fama hasta el ansia de riquezas, pero
en ningún caso puede negarse una cualidad afín a la naturaleza humana: queremos
saber, y una vez que sabemos, queremos saber más. El doctor Fausto, como paradigma
de esta ansia humana por aumentar sus conocimientos hasta los últimos extremos,
se lamentaba, siempre que recapacitaba sobre sus prodigiosos estudios, de no
poder llegar nunca a los límites del saber.
Y es esta curiosidad la que nos ha permitido progresar, desde los tiempos
primitivos, hasta ahora mismo, de una forma tal vez no continuada, ni triunfal
en todos los frentes posibles, pero sí espectacular y en el fondo imparable. El
hombre es un ser curioso, que siempre busca realidades nuevas, aspectos hasta
ahora no explorados, horizontes desconocidos capaces de abrirle nuevas puertas
al conocimiento de lo que es; y en esta aventura maravillosa ha empleado sus
esfuerzos y su ingenio para avanzar y seguir avanzando. Sin este afán, qué duda
cabe, no hubiera progresado. Puede ser cierta o no del todo aquella curiosa
afirmación de Linton: «el índice de progreso de los pueblos se mide por su
capacidad de aburrimiento». Lo que quería decir Linton es que el pueblo que no
se aburre no progresa. Bien sabemos que hay personas o miembros de determinadas
culturas poco desarrolladas que son capaces de «estar» sin necesidad de hacer
(ni de pensar, que puede ser una forma de hacer, y francamente útil). No se
aburren, o se aburren muy poco cuando se limitan a dejar pasar el tiempo, o
simplemente vegetar. Pero diríase que la actitud humana por excelencia, cuando
menos aquella que ha permitido cualquier forma de progreso, es muy distinta. El
hombre quiere conocer, actuar, llegar, alcanzar, cambiar. Y cuando realiza una
de estas operaciones progresa de alguna manera. De aquí que, aun cuando no
siempre hayamos sabido progresar en la dirección más conveniente, hoy hayamos
alcanzado unos estadios de cultura, de civilización, de conocimientos, de
dominio sobre el mundo que habitamos y sus recursos, que no pudo soñar el
hombre primitivo. La historia de la ciencia y de sus aplicaciones es en gran
parte la historia del progreso de la humanidad. De aquí que no podamos
comprender enteramente nuestra historia ni sus logros de hoy sin conocer,
cuando menos en sus líneas básicas, la historia de la ciencia.
Por supuesto: hemos de poseer de antemano una idea suficientemente clara acerca
de qué es la ciencia: una palabra que posee distintos
sentidos, y cuyo uso se presta por tanto a inevitables confusiones. «Ciencia»
viene de scientia, saber, conocimiento. Toda forma de
conocimiento implica por tanto una ciencia que puede estudiarse y ser conocida.
La carrera de piano no puede ser ejercida sin un estudio, un método, una
disciplina y una práctica, aunque la mayoría de los pianistas opinarán,
probablemente, que su profesión no es exactamente una ciencia, sino un arte. He
aquí que desde el primer momento empezamos a tener dificultades. Una definición
clásica que aún hoy mantienen los diccionarios, incluido el Diccionario de la
Lengua, precisa que «ciencia es el conocimiento cierto de las cosas por sus
causas». Definición que nos convence en un principio, hasta que reparamos que
pueden ser objeto de conocimiento científico cosas cuya causa se nos escapa. No
es fácil del todo explicar por qué dos y dos son cuatro. Es un
hecho que no nos ofrece dudas de ninguna clase (excepto tal vez a algunos
matemáticos muy conceptuales), un hecho que podemos constatar una y otra vez y
que siempre resulta ser verdad, pero que solo podemos explicar diciendo que dos
y dos son cuatro porque dos y dos son cuatro; del mismo modo que a veces
afirmamos que las cosas son así porque las cosas son así. Hay verdades tan
evidentes que no necesitan demostración. Las llamamos axiomas. Y sin axiomas,
el edificio de la ciencia se nos derrumbaría. Se atribuye a Newton esta frase,
entre humilde y muy enraizada en una concepción positivista: «conozco las leyes
de la Gravitación, mas si se me pregunta qué es la Gravitación, no sé qué responder».
A los sabios les basta que las cosas sean como son, y poder constatar de modo
seguro e inapelable que son como son, o por lo menos poder determinarlas,
medirlas, contarlas, enunciarlas. Quizás un día descubramos el gravitón, una
partícula sobre la que se teoriza sin saber con seguridad que existe; pero el
hecho es que podemos operar con pleno éxito sobre las leyes de la gravedad, sin
saber exactamente qué es la gravedad y qué es lo que la produce.
Hoy tiende a precisarse mejor la definición de la ciencia como un «conocimiento
riguroso», o «sometido a un método riguroso». El rigor parece un atributo
necesario de lo científico. Exigimos que un conocimiento sea riguroso, no
podemos exigir que sea inapelablemente cierto, porque la historia de la ciencia
es hasta cierto punto (¡afortunadamente solo hasta cierto punto!) la historia
de las equivocaciones de la humanidad. La complicadísima y perfectísima
maquinaria celeste descrita por Ptolomeo en un trabajo de perfección admirable
cuya validez fue aceptada sin discusión por espacio de mil trescientos años, se
ha comprobado ser falsa, porque se basa en la idea aparentemente indiscutible,
pero equivocada, de que los astros se mueven alrededor de la Tierra; y hoy
sabemos que no es verdad; como no es verdad la teoría del flogisto para
explicar la combustión, teoría que se mantuvo hasta comienzos del siglo XIX,
como hasta comienzos del XX se mantuvo la del éter para
explicar la continuidad del espacio allí donde no hay materia. ¿Cuántas teorías
sostenidas hoy como ciertas no se resquebrajarán en el futuro? La ciencia es
prudente, y tiende, cuando no está segura de un hecho, a sustituir la tesis por
la hipótesis. Precisamente por eso trabaja con rigor, no se le puede acusar de
frívola; y es indudable que sin hipótesis previas no hubiéramos llegado hoy a
conocer hechos que se pueden defender como tesis. Lo importante es el rigor, la
seriedad que debe presidir nuestra búsqueda de la verdad, hasta constatarla, si
es posible, definitivamente.
Ahora bien: existen disciplinas que exigen un notable esfuerzo mental y un gran
rigor en su tratamiento que no suelen incluirse entre las «ciencias». Ahí está
la filosofía, que para sus enunciados más originales y profundos ha requerido y
sigue requiriendo cerebros excepcionales, y sin embargo a pocas personas se les
ocurre decir que la filosofía es una «ciencia». Algo por el estilo puede
decirse de otras disciplinas de carácter humanístico, o las referidas al arte.
Pitágoras operó como un científico cuando descubrió la relación de la longitud
de las cuerdas de una cítara con el sonido que cada una de ellas emitía; y sin
embargo, la música de la época de los griegos dista mucho de alcanzar la
portentosa complejidad que hoy apreciamos en una gran sinfonía: no cabe duda de
que el arte musical se ha desarrollado a lo largo de los siglos en un progreso
espléndido: y sin embargo, pese al estudio y a la técnica que su composición y
su ejecución necesitan, tendemos a considerarla, repitámoslo, más como un arte
que como una ciencia.
Todo ello nos obliga a una última precisión, que nos permitirá acotar mejor el
espacio reservado a lo que consideramos usualmente como «ciencia». Hay
actividades que exigen un trabajo riguroso o una investigación realizada con
métodos impecables que solemos encuadrar en el campo de las «humanidades» o de
las «artes». Otras, más relacionadas con el estudio de la naturaleza y de sus
fenómenos, son encuadradas en el campo de las «ciencias». Ello no quiere
significar que las disciplinas del primer grupo sean menos «rigurosas» que las
del segundo, ni que merezcan menos crédito. Tal vez, insinuémoslo siquiera,
existe un cierto prejuicio según el cual solo las disciplinas relacionadas con
los fenómenos de la naturaleza, ¡incluso las que estudian la naturaleza
humana!, disfrutan de la calificación de «científicas», en tanto las demás no
gozan de ese privilegio. Desde el siglo XIX, especialmente desde el
prevalecimiento de la mentalidad positivista, las «verdades científicas», lo
«científicamente comprobado», en el campo de los conocimientos experimentales,
goza de un prestigio inmenso. Todos sabemos muy bien que existen disciplinas en
las cuales no resulta humanamente posible llegar a una certeza absoluta. Y, sin
embargo, no podemos negar que los esfuerzos que realizamos en el campo de los
conocimientos filosóficos, humanísticos o artísticos también nos enriquecen,
nos son útiles, y con mucha frecuencia nos hacen felices. Necesitamos tanto los
valores «humanísticos» como los «científicos». En tiempos antiguos, incluso
hasta el siglo XVIII, era frecuente que unos y otros tuviesen una misma
consideración, y fuesen practicados por una misma persona. Aristóteles escribió
una Física y después una Metafísica. Leonardo fue artista y
científico al mismo tiempo. Tanto Descartes como Leibniz o Pascal pueden
considerarse como filósofos-científicos. No podemos considerar a Einstein como
un físico violinista, porque sus notables habilidades con el violín no tenían
que ver con su capacidad para deducir las más asombrosas ecuaciones (¿o sí la tenían?;
pero esta pregunta no parece «científica»). El hecho es que el progreso del
conocimiento humano ha obligado cada vez más a la especialización y al desglose
de unas actividades y unas potencialidades de la mente respecto de otras. Las
«ciencias» se han separado cada vez más de las «letras», porque un ser humano
no es capaz de contener todos los conocimientos a la vez. Hoy parece inevitable
que una historia de la ciencia se limite a aquellas actividades de la mente
humana que se basan en el estudio riguroso de la naturaleza y de sus fenómenos;
sin que esa limitación nos impida tener en cuenta la cultura y las
manifestaciones históricas que más caracterizan a un pueblo o a una sociedad y
al momento en que se produjeron.
Al lado de la ciencia, ocupa un lugar privilegiado la técnica. Hay quien habla
de ciencia teórica y de ciencia práctica, pero esta división no siempre es
definitiva. El magnetismo dejó de ser un simple campo de curiosos experimentos
cuando se descubrió la brújula, y más tarde cuando, conocida su relación con la
electricidad, aparecieron el electroimán, la dinamo y el motor. La física
nuclear o física de partículas pareció una rama de la ciencia sin posible
sentido práctico hasta que se descubrieron sus insospechadas y en ocasiones
terroríficas aplicaciones. Una ciencia teórica puede convertirse en práctica en
cualquier momento. Quizá sea preferible hablar de ciencia y de técnica, o
tecnología. En el fondo, la técnica no es más que la aplicación de la ciencia a
un fin práctico. Ambas actividades están muy relacionadas y muchas veces
necesitan tenerse en cuenta entre sí. Sin su interés por el estudio de las
tormentas, Franklin no hubiera descubierto el pararrayos, o si Ericsson no se
hubiera preocupado por la geometría tal vez no nos hubiera proporcionado la
hélice propulsora (de barcos, más tarde de aviones). Es cierto que en un
principio la técnica puede desarrollarse sin ciencia: Edison no estudió ninguna
carrera universitaria, empezó como un mecánico hábil, y a lo largo de su vida
llegó a patentar más de mil inventos; o puede parecer extraordinario que los
hermanos Wright, inventores de la aviación, fuesen ¡dueños de un taller de
bicicletas! Pero a la larga, incluso para permitir el desarrollo de los
inventos de aquellos hombres ingeniosos y hábiles, la colaboración con la
ciencia fue indispensable. Hoy las dos actividades están inseparablemente
relacionadas. De aquí que una historia de la ciencia no tenga sentido sin una
alusión a los «inventos» o «descubrimientos» que tan espectacularmente han
contribuido al progreso humano.
Una ciencia permanece fiel a los métodos deductivos tan caros a la filosofía, y
sin embargo, todos estamos de acuerdo en admitirla entre las disciplinas
«científicas»: es la matemática. Un matemático necesita de un orden mental
parecido al de un filósofo, no precisa por lo general de un laboratorio o de
experimentos con complicados aparatos. Sin embargo, la matemática es un
instrumento indispensable para el científico, que ha de manejar una y otra vez
fórmulas y expresiones numéricas y geométricas, y sabe muy bien que toda ley de
la naturaleza ha de poder ser expresada matemáticamente. Sin matemáticas, las
ciencias de la naturaleza, de Arquímedes a Einstein, no hubieran podido llegar
a sus espectaculares resultados. No podemos olvidar la historia de las
matemáticas en una historia de la ciencia, ya desde sus primeros y emocionantes
balbuceos.
En este sentido, algunos historiadores de la ciencia afirman que no existe un
espíritu científico propiamente dicho hasta el Renacimiento, o hasta los
tiempos de Newton, o hasta los grandes descubrimientos del siglo XIX. Todo
depende, por supuesto, de lo que entendamos por espíritu científico; pero si
los babilonios podían extraer raíces cuadradas, si Pitágoras supo formular un
teorema que sigue siendo fundamental en la geometría, o Arquímedes descubrió un
principio del que los físicos no pueden todavía prescindir, si Kepler descubrió
las leyes que rigen el movimiento de los planetas, al mismo tiempo que se
dedicaba a vender horóscopos (de lo contrario no hubiera podido subsistir), no
parece lícito despreciarlos solo porque no hayan tenido lo que en el siglo XXI
se entiende por espíritu científico o metodología científica. La ciencia, el
conocimiento de las cosas a través de su comportamiento y de las leyes que lo
rigen, comenzó a desarrollarse en épocas asombrosamente tempranas de la
historia de la humanidad, y continúa desarrollándose ahora mismo, hasta
extremos impredecibles, a veces basándose en principios y postulados
descubiertos hace muchísimo tiempo. Y el historiador no puede permitirse el
lujo de escamotear aquellos remotos esfuerzos.
La ciencia requiere, a veces por hábito, otras por estricta necesidad, un
lenguaje muy especial, que se caracteriza por palabras técnicas o expresiones
muy sofisticadas, poco comprensibles al común de los mortales, o emplea
fórmulas más o menos complicadas, que lo dicen todo con unos cuantos signos,
más precisos que las palabras, con una concisión y una exactitud inigualables,
pero que no siempre una persona que no está versada en disciplinas científicas
puede interpretar correctamente, o no lee con gusto, porque se le exige la
incomodidad de un esfuerzo suplementario. Hay historias de la ciencia sumamente
útiles para un científico, pero incómodas para un número grande de lectores,
tal vez cultos, tal vez curiosos, pero que no dominan ni tienen por qué dominar
las expresiones y la terminología de la ciencia. Algunas de ellas, por el
prestigio de sus autores, han llegado a difundirse ampliamente, pero muchos
lectores realmente interesados, no han podido pasar de sus primeras páginas, a
causa del esfuerzo que exige su texto, o de los conocimientos que requiere
seguirlas de principio a fin.
En este sentido, no resulta fácil escribir una historia sencilla de la
ciencia. La ciencia, en sí, es maravillosa, pero no es sencilla. Y sin
embargo, muchas personas sienten curiosidad por saber cómo se ha desarrollado
la ciencia hasta alcanzar los niveles propios de nuestros días. Esa historia
nos trasciende, informa una buena parte de nuestra cultura, ha modelado nuestra
concepción del mundo y buena parte de nuestras mentalidades, y es digna de
conocerse, porque en el fondo nos permite conocernos mejor a nosotros mismos.
La lucha por alcanzar cada vez un grado más amplio y más profundo del saber es
una cualidad sustancial de la naturaleza humana, y no podemos permanecer al
margen de esa lucha llena de esfuerzos y de emoción. Es una gran aventura. Y
como tal, este libro va a procurar recordarla en toda su grandeza, sin introducirse
en intrincaduras de difícil interpretación para un número grande de lectores,
que no tienen, ni falta que hace en este sentido, por qué ser científicos. Un
aforismo de la ciencia pretende que la solución más verdadera de un problema es
casi siempre la más sencilla. Busquemos en las páginas que van a seguir, la
mejor explicación con la máxima sencillez.
Capítulo 1
Algo sobre la ciencia primitiva
Contenido:
§. La revolución neolítica
§. El sorprendente hombre de Stonehenge
§. El hombre aprende a contar
Es absolutamente imposible precisar cuándo nació la
ciencia, sobre todo si el concepto de la ciencia se nos aparece sumamente
resbaladizo. Partimos de la idea de que la ciencia, que no tiene por qué ser
solamente lo que hoy entendemos como tal, no apareció en los tiempos modernos,
como pretenden algunos historiadores demasiado exigentes, sino mucho antes. Y
no tenemos inconveniente en admitir que la ciencia, en cuanto conocimiento y
aprovechamiento de las cosas y de sus particularidades, es tan antigua como el
hombre, ese ser capaz de saber y de progresar en lo que sabe. Quizá valga
recordar aquella reflexión de Ortega que observaba que un tigre de hoy es, en
cuanto a sus recursos, intercambiable por un tigre de hace miles de años,
mientras que un hombre de hoy no lo es: el hombre progresa.
Los seres humanos siempre se las ingeniaron de alguna manera para subsistir,
para defenderse, para alimentarse, para viajar y transportar, para protegerse
de las inclemencias naturales, y en su capacidad de ingenio siempre avanzaron.
Trataron de conocer mejor la naturaleza, de valerse de sus recursos, de
explorar nuevos horizontes, en busca de un ambiente en que pudieran
desenvolverse mejor, probaron alimentos hasta dar con los más convenientes,
sintieron desde los tiempos más primitivos asombro ante los
más fascinantes espectáculos de la naturaleza, y al mismo tiempo, el afán de
dominarla o controlarla en su propio provecho. Utilizaron al principio técnicas
primitivas de caza con piedras, lanzadas a distancia o manejadas a mano (cada
vez mejor preparadas), o con azagayas puntiagudas; el conocimiento de los
animales y de sus costumbres, para el mayor éxito de sus partidas de caza, y de
las condiciones de comestibilidad de cada uno... fueron otros tantos frutos del
ingenio del ser humano para sobrevivir y para vivir cada vez en mejores
condiciones.
Se habla del descubrimiento del fuego como el primer gran paso de la humanidad.
Realmente, no sabemos cuándo ni cómo exactamente el hombre llegó a «descubrir»
el fuego. Se ha relacionado siempre este «descubrimiento» con la llama divina
que arde en el pensamiento del hombre, y muchas mitologías lo consideran como
un don de los dioses. No nos detendremos en este punto, que se ha prestado
siempre a muchas elucubraciones sin suficiente fundamento. Es evidente que ese
ser inteligente que es el hombre no «inventó» el fuego en el sentido de que no
lo produjo por primera vez como resultado de su inteligencia o de su esfuerzo.
Se lo encontró cuando un rayo incendió los bosques, o cuando en una zona
volcánica la lava ardiente prendió en los matorrales más cercanos. Y huiría del
fuego como los demás seres vivientes. Pero tal vez muy pronto aprendería
a utilizar el fuego como ningún otro animal fue capaz de
hacer. Sin duda en tres fases: a) el manejo del fuego ya existente, prendiendo
ramas u otros cuerpos combustibles, para valerse de él en su propio provecho;
b) la conservación del fuego, en su hogar o campamento, o en
el lugar escogido de antemano, prendiendo nuevos combustibles en los que ya ardían,
y manteniendo el fuego encendido de una forma permanente o al menos durante
mucho tiempo; c) la producción del fuego por propia iniciativa. Este último
logro, producto insigne del ingenio humano, debió ser posterior, tal vez muy
posterior, a los otros dos; aunque todas las culturas conocidas sabían obtener
fuego, por cierto mucho más hábilmente que nosotros, mediante la fricción de
trozos de madera o percutiendo materiales duros capaces de producir chispas. El
hecho es que en los yacimientos prehistóricos, por antiguos que sean, se
encuentran señales de la utilización del fuego.
Naturalmente que el hombre paleolítico no sabía que la combustión es producto
de una violenta combinación química en que el oxígeno y por lo general el
carbono quedan implicados: sabía, ¡y eso le era suficiente!, que el fuego es
útil. Lo empleó para calentarse durante la estación fría, en las cuevas o
abrigos que había elegido para vivir; para iluminarse de noche; para asar, más
tarde cocer, los alimentos y hacerlos más digestivos; y lo empleó también para
ahuyentar a las fieras. El hombre aprendió a utilizar el fuego y perdió el
miedo instintivo que sentía hacia él: no era la víctima, sino el dueño, y esta
capacidad de dominio fue decisiva. En cambio, los animales siguieron y siguen
temiendo el fuego, porque no son capaces de controlarlo ni de manejarlo a su
servicio.
El hombre descubrió inmediatamente que el sol sale todas las mañanas por una
región determinada del horizonte y al cabo de un tiempo se oculta por la
opuesta; después de un lapso similar de oscuridad, el sol vuelve a surgir
aproximadamente por el mismo lugar que el día anterior, y se repite un ciclo
día-noche alternativa e ininterrumpidamente. Pronto cobró también conciencia de
las fases de la luna y su repetición indefinida, una circunstancia que le
permitió una medida aproximada del tiempo y, por supuesto, del ciclo de las
estaciones con sus alternancias térmicas y su reflejo en la vegetación o en el
comportamiento de los animales; estas sucesiones le ayudaron a contar, pero
no es nada seguro que se hubiese agenciado un calendario hasta el neolítico.
El paleolítico superior representa un avance singular en el progreso humano.
Dos novedades sensacionales nos dan cuenta de la capacidad de aquellos seres
primitivos. Por un lado, la aparición del arco y las flechas, un ingenio que
permite lanzar armas penetrantes a gran distancia, y, además, afinar hasta un
grado muy notable la puntería. Las puntas de flecha del paleolítico superior
son verdaderas obras de arte y de paciencia: qué duda cabe de que sus autores
procuraban recuperarlas para introducirlas en el extremo de otra flecha cada
vez que podían. La técnica es ya incomparablemente superior a la de las hachas
de piedra toscamente tallada, y su eficacia hubo de ser también mucho mayor. El
otro logro es el arte. Poco importa que las pinturas o las tallas del hombre
paleolítico tuvieran un origen ritual, o estuvieran destinadas a lograr un
mayor éxito en la caza: de hecho, fomentaron su creatividad y le sirvieron como
un medio maravilloso de expresión. No hemos de olvidar, aunque el hecho no
guarde tal vez relación alguna con el conocimiento del mundo, que es entonces
cuando el hombre comienza a enterrar de forma ritual a sus muertos, un recurso
que se relaciona tanto con el respeto a los suyos y al misterio de la muerte
como con la creencia de un más allá.
§. La revolución neolítica
Hace unos seis o siete mil años, con motivo al parecer de un cambio climático,
que hizo la Tierra más habitable, y más fácil la vida, el progreso del hombre
se aceleró de forma espectacular. Hoy es frecuente hablar de la «revolución
neolítica». Por de pronto, los asentamientos humanos se hacen permanentes y
termina la vida nómada. Ello supone la aparición del poblado, con sus viviendas
habituales, el trabajo de la tierra, que sustituye la simple recolección por el
cultivo y la caza por la ganadería, y por tanto la domesticación de animales.
La utilización de los animales, no solo como reserva alimenticia, sino como
medio de transporte da lugar a uno de los inventos más insignes del neolítico:
la rueda. Como resultado de las nuevas prácticas, se consagran la propiedad,
con todas sus consecuencias;
la organización que requiere una forma, siquiera primaria, de poder; la defensa
o protección del propio ámbito frente a peligros o amenazas exteriores; la
confirmación de la familia como célula primaria de la sociedad, y el principio
hereditario; la práctica habitual del trabajo, y el intercambio de productos
entre familias o grupos. Como consecuencia de todos estos cambios, que suponen
un inicio de la «civilización», la humanidad, hasta entonces estable en cuanto
al número de miembros, o en lento progreso, se dispara hasta multiplicarse por
treinta, según creen algunos, en menos de un milenio.
En el neolítico, el ingenio del hombre se aguza hasta por necesidad. La
administración de lo propio y de su intercambio originan la economía
(etimológicamente economía es «la ley de la casa») y la
necesidad de contar, por ejemplo las cabezas del rebaño, para comprobar si
están todas; y así aparecen los sistemas generalizados de numeración. Se hace
necesario medir el tamaño de las parcelas asignadas a cada uno o a la propia
comunidad, de suerte que aparecen las unidades de medida y su manejo sobre el
terreno o geometría (geometría, «medida de la tierra»). Es preciso
conocer de un modo seguro las estaciones, y con ello saber cuándo llega la
época de la siembra o de la recogida, o cuándo se aproxima la estación de las
lluvias o de los fríos, para estar prevenidos o guardar la cantidad necesaria
de leña o provisiones. De esta suerte, surge el calendario. Más todavía: la
organización y el ejercicio del poder requieren el concurso de los más sabios.
Surge una casta de sacerdotes que cultivan los conocimientos y al mismo tiempo,
quizá por superstición o por mantener sus secretos, los apoyan en ritos mágicos
y en fórmulas no asequibles a la mayoría de los miembros de la comunidad. La
religión se complica y se mezcla muchas veces con la práctica de la hechicería;
pero aquellos «magos», que generalmente pertenecen a una casta superior, poseen
también conocimientos científicos, estudian el movimiento de los astros,
predicen fenómenos, manejan ábacos o cuerdas con nudos que les permiten contar
y realizar cálculos cada vez más complejos, y conocen el comportamiento de las
leyes de la naturaleza, aunque con frecuencia engañan a los demás, fingiendo
que poseen las fórmulas capaces de conjurar o modificar los fenómenos
naturales. En determinadas zonas del mundo, como el Extremo y Medio Oriente, o
en determinadas culturas americanas, el paso del Neolítico o la Edad de los Metales
a los primitivos grandes imperios es más un fenómeno cuantitativo o de
acumulación de organización y poder que propiamente cualitativo. Las grandes
civilizaciones estaban en marcha.
§. El sorprendente hombre de Stonehenge
Uno de los monumentos más apasionantes de la prehistoria es el cromlech de
Stonehenge, que se encuentra en una meseta cerca de Salisbury, en el sur de
Inglaterra. Se trata de un círculo de menhires de gran tamaño, de más de 40
metros de diámetro, en cuyo interior se levantan otras piedras. Fuera del
círculo hay un dolmen trilito, llamado Heel Stone. Todo el
conjunto fue edificado por una cultura, luego desaparecida, que habitó en
aquellas tierras hace 5.000 años. Stonehenge no se diferencia en su disposición
de otros monumentos megalíticos del mismo tipo, pero ya en el siglo XVIII los
estudiosos descubrieron que, observando desde Heel Stone, el principal de los
menhires coincide con el punto de salida del sol en el momento del solsticio de
verano (para nosotros el 21 de junio). Luego se descubrieron otras
alineaciones: todas coinciden con puntos que señalan la salida o puesta del sol
o de la luna en sus distintos ciclos. El cromlech parecía ser
un auténtico calendario a cielo abierto, que permitía conocer la llegada de las
estaciones y las fases de la luna.
Nunca se supuso que el hombre del Neolítico fuese capaz de semejantes
precisiones, pero la sensación llegó al máximo cuando J. Aubrey descubrió
alrededor del monumento los restos de 56 agujeros que luego fueron rellenados
por otras culturas posteriores, que tal vez desconocían su función. Los 56
agujeros, el Círculo Aubrey, sorprenden por su relación con el
«número Saros», o ciclo de años en que los eclipses se repiten en el mismo
orden. Norman Lockyer fue el primero en suponer que las piedras eran un
sofisticado instrumento para predecir eclipses. Luego Gerald Hawkins aplicó
programas de ordenador al problema y obtuvo resultados sorprendentes. Más
tarde, Fred Hoyle y Alexander Thon llegaban a nuevas y sensacionales
conclusiones. La tesis de Hoyle es la más ingeniosa, y supone que los hombres
del Neolítico empleaban tres piedras, que iban cambiando periódicamente de
agujero. La piedra blanca, representativa del sol, se movía en dirección
contraria a las agujas de un reloj y daba una vuelta completa al círculo en un
año, es decir, cambiaba de agujero cada 6,5 días (una vez seis, otra siete, y
así sucesivamente). La piedra gris, la luna, se movía mucho más deprisa:
saltaba los agujeros de dos en dos cada día. A cada plenilunio se ajustaba su
posición, si era preciso. Y la piedra negra iba mucho más despacio: se movía
hacia la derecha, y cambiaba de agujero tres veces al año. Cada vez que las
tres piedras coincidían en el mismo agujero, se producía un eclipse.
Las discusiones a la hipótesis de Hoyle no se basan en sus cálculos, que son
irreprochables, sino en la duda de que el hombre prehistórico fuera capaz de
utilizar un instrumento tan sofisticado. Si hace falta una perspicacia muy
singular para representar los movimientos del sol y de la luna por medio del
cambio de agujeros que sufrían la piedra blanca y la piedra gris (el color es
una mera suposición, pero en todo caso el sistema resulta válido), más
asombroso resulta el movimiento de la piedra negra. Porque la piedra negra, una
realidad invisible, representa los nodos, es decir, los puntos
de la eclíptica donde se intersecan las trayectorias aparentes del sol y la
luna, y donde por tanto puede producirse un eclipse. Si esto fue así, y la
coincidencia de los datos no puede ser negada, hemos de descubrirnos ante la
genialidad del hombre prehistórico: hombre con todas sus consecuencias al fin y
al cabo. ¿Qué chispa de su ingenio le permitió trazar sus alineaciones y sus
juegos de piedras y agujeros? ¿La experiencia? ¿La intuición? ¿La tenacidad de
siglos? Stonehenge, aún con sus misterios no del todo revelados, puede ser un
estremecedor ejemplo de hasta dónde llega la capacidad del hombre para observar
los astros y obtener de ellos datos válidos en orden a su propia organización.
§. El hombre aprende a contar
En tiempos muy antiguos, no sabemos cuándo, el hombre aprendió a medir y a
contar. Las formas de vida, la organización, la propiedad, que nacen desde el
Neolítico, obligaron a emplear valores numéricos y de medida, tal vez muy
sencillos y elementales, pero necesarios para la existencia ordinaria. Por
ejemplo, el contar los días, o conocer el número de cabezas de un rebaño. O
medir el terreno que pertenece a cada uno, o cuántos cazos de grano necesita
una plantación, o cuántas piedras o piezas de adobe son necesarias para
edificar una vivienda. Los conocimientos fueron aumentando conforme se
generalizó el intercambio de bienes o la necesidad de hacer viajes regulares.
Algunas formas de cultura primitiva que han llegado hasta nosotros (o a los
antropólogos del siglo XX) apenas disponían de palabras para mencionar los
primeros cinco números: casi siempre cinco, por el hecho de que tenemos cinco
dedos. Los andamaneses del sur no sabían mencionar valores superiores a cinco,
pero seguramente podían decir «cinco y tres», y para ello se aseguraban con los
dedos de la otra mano. Las culturas más desarrolladas idearon sistemas de
numeración mucho más complejos. Hoy estamos acostumbrados a emplear el sistema
decimal, no nos cuesta trabajo mencionar valores francamente altos, y nos
parece que siempre ha podido operarse así. Pero no nos damos cuenta de las
dificultades que presenta establecer un sistema de numeración.
Probablemente el más antiguo es el de base cinco, muy fácil de emplear contando
los dedos de una mano con la otra mano. Es más fácil recordar cinco nombres que
diez. Y, cuando se aprende un sistema de notación, es más fácil recordar cinco
signos que diez. Para comprender sin dificultad el sistema, vamos a suponer que
se emplea el valor cero para designar la carencia de unidades o el paso a un
orden superior (dos cifras, tres cifras...).
Escribiríamos: 0 1 2 3 4. Se nos han acabado los nombres y los signos, porque
solo conocemos cinco. Tenemos que pasar al orden superior: 10 11 12 13 14. Los
números siguientes serían 20, 21, 22, 23, 24... Después del 44, puesto que no
disponemos del dígito 5, tendremos que escribir 100, etc. El sistema nos sirve,
es muy sencillo en su base, pero nos obliga a emplear muy pronto varias cifras.
Para valores bajos, es más fácil de recordar, pero incómodo para los «grandes
números». El matemático Yakov Perelman pone este ejemplo en labios de un hombre
que emplea el sistema quinario: «Terminé mis estudios cuando tenía solo 44
años; un año después, siendo un joven de 100 años, me casé con una muchacha de
43. Al cabo de muy pocos años teníamos una familia de 10 niños...». La frase no
encierra ningún disparate. Basta tener en cuenta que este hombre, tan
inteligente como nosotros, no emplea más de cinco guarismos distintos. Es fácil
traducir: «Terminé mis estudios cuando tenía solo 24 años; un año después,
cuando tenía 25, me casé con una muchacha de 23. Al cabo de pocos años,
teníamos una familia de 5 niños...». Podríamos emplear tranquilamente el
sistema quinario, pero la mayoría de las culturas, entre ellas la nuestra,
emplean el sistema decimal, por la sencilla razón de que tenemos diez dedos,
contando las dos manos. Fijémonos en la numeración romana: procede de un
sistema quinario que se transformó al fin en sistema decimal. Para el primer
orden representaban signos verticales: I, II, II, IIII [1] . Para
el 5 se valían del signo V (la mano abierta, omitiendo por comodidad los dedos
intermedios). Para el 10 dibujaban las dos manos: X. Para el 50 empleaban L,
para el 100, C; para el 500 escribían D. Como se ve, para el 5 por 10 o por
100, usaban signos especiales. En tiempos antiguos debieron valerse
alternativamente de los dedos de una mano o los de las dos. El sistema de
numeración romana, que a veces aún empleamos nosotros cuando nos ponemos
solemnes, es perfectamente válido para expresar valores. Así, nuestra
numeración arábiga necesita para representar el año en que se comienza este
libro, cuatro cifras: 2006; la numeración romana no necesita más: MMVI. Lo malo
del caso es que para operaciones complejas, los romanos no conocían la utilidad
del cero, y tenían que valerse de un ábaco, o contador de bolas que se corrían
de un lado a otro: es el primer precedente de nuestra calculadora, pero su
empleo resulta incómodo.
Hubo también pueblos que emplearon el sistema vigesimal o de base 20: se conoce
que contaban con todos los dedos, de las manos y de los pies. Había que
recordar veinte nombres y emplear (cuando se empleaban) veinte signos
distintos. No era necesario usar tantos órdenes de cifras, pero había que tener
más memoria. Los mayas, que eran buenos matemáticos, empleaban el sistema
vigesimal. En algunos pueblos, los escandinavos, los escoceses, los franceses,
los vascos, conservan restos del orden vigesimal. Todavía queda un sistema
empleado por muchas culturas de Oriente Medio, el duodecimal, que los
babilonios convirtieron nada menos que en sexagesimal. Todavía hoy contamos los
huevos por docenas, o los relojes marcan doce horas. No se conoce bien el
motivo de esta base, ya que los dedos no nos sirven. Quizá, aducen algunos,
porque la luna completa doce ciclos en un año. El hecho es que el sistema
duodecimal parece el más adecuado porque el 12 tiene cuatro divisores, el 2, el
3, el 4 y el 6, mientras que el 10 solo puede dividirse por 2 y por 5.
Lagrange, a fines del siglo XVIII, proponía seguir un sistema duodecimal, con
el cual las operaciones serían mucho más fáciles. Pero la costumbre de emplear
el decimal estaba ya demasiado establecida, y resultaba incómodo cambiarla. Al
fin y al cabo, tenemos diez dedos.
Capítulo 2
La ciencia de los grandes imperios orientales
Contenido:
§. La ciencia mesopotámica
§. Los egipcios
§. La ciencia de los antiguos chinos
Los avances del hombre del Neolítico y luego de los
de la Edad de los Metales originaron una serie de condiciones para la creación
de grandes civilizaciones. Civilización es, en sentido etimológico «aquella
forma de cultura que se desarrolla en la ciudad». La ciudad fue una
consecuencia del asentamiento permanente de las comunidades humanas en un lugar
determinado. El asentamiento exige, por de pronto, una organización y un poder
que la mantenga y garantice. Conforme las ciudades se fueron haciendo más grandes,
aumentó la necesidad de afianzar y multiplicar los distintos servicios. Las
formas de gobierno se afirmaron, y se aseguró la dominación de los territorios
necesarios para el mantenimiento de la comunidad, se distribuyó la propiedad de
las tierras y se hizo necesario no solo acotarlas, sino acotar también la zona
geográfica de influencia de la comunidad, lo que significó el establecimiento
de unas fronteras, que se procuró llevar cada vez lo más lejos posible, y, por
supuesto, defenderlas. La creación de unas normas, la administración del
territorio, la justicia, en su caso la guerra, aumentaron las formas de poder.
Con el tiempo, unas ciudades prevalecieron sobre otras, o el dominio de varias
de ellas se mancomunó. Así se pasó del asentamiento en un poblado a las
primeras formas de territorialidad organizada. Y fue esta necesidad la que
obligó a aprender y a aplicar el aprendizaje a comunidades que ya no podían
llevar una vida espontánea, y habían de atenerse a unas normas. El calendario,
la medida de las tierras, la arquitectura, el comercio, el juego de los
intereses obligaban al cálculo y a la medida. El hombre adquirió conocimientos
por pura necesidad, y algunos individuos, que comenzaron a sobresalir por
encima de otros, ganaron la reputación de «sabios», y gozaron de un estatus
especial. La ciencia nació así por razones obvias, aunque nada nos impide
suponer que fue impulsada también por esa cualidad tan afín a la naturaleza que
es la curiosidad.
§. La ciencia mesopotámica
Dos grandes y caudalosos ríos, el Éufrates y el Tigris, nacen en las montañas
nevadas de la región oriental de Turquía, y son capaces de atravesar el
desierto en un curso sensiblemente paralelo de casi dos mil kilómetros, dejando
entre ellos una llanura bien regada y fácil para el cultivo, la Mesopotamia, o
«tierra entre ríos». Allí floreció una de las culturas más duraderas del mundo
antiguo, entre los años 3000 y 500 a.J.C. El contraste entre el desierto y la
fertilidad de la estrecha zona regada provocó una extraordinaria concentración
de población en poco espacio. Entre las enormes ciudades que allí crecieron
figuran Babilonia, a orillas del Éufrates (al sur de la actual Bagdad), y
Nínive, a orillas del Tigris (muy cerca de la actual Mosul). Pero en cualquier
región de Mesopotamia es fácil encontrar restos de infinitas poblaciones de
sorprendente antigüedad. Todo parece indicar que se trataba de una región muy
poblada y muy apetecida por diferentes comunidades humanas, que se disputaron
aquel pasillo verde y feraz, rodeado por el ardiente desierto a un lado y otro.
Quizá en ninguna otra parte del mundo sea posible encontrar una superposición
tan asombrosa de restos del Neolítico, de la Edad de los Metales, de los
sumerios, de los acadios, de los babilonios, de los asirios, de los
neobabilonios, hasta que la región fue invadida por los persas hacia el año 500
a.J.C. Uruk, Babilonia, Nínive, fueron capitales de grandes imperios dominados
por hombres de pueblos muy diversos, y monarcas tan famosos como Sargón, Naran
Sin, Hammurabi, Asurbanipal, Nabucodonosor: unos vencieron a otros, se
sucedieron reinos y razas, pero la cultura, en general, se mantuvo. Con
frecuencia los conquistados, pacíficos, se la transmitieron a los
conquistadores, guerreros; y el periodo neobabilonio fue como el epígono de
todos los avances científicos anteriores. Se estima que los pueblos
mesopotámicos fueron los primeros que inventaron la rueda (ya desde los tiempos
neolíticos), y de ella obtuvieron una ventaja inmensa en orden a la locomoción
y el transporte. Luego, aquel invento iría difundiéndose por todo el mundo
antiguo. También de origen mesopotámico es el torno de alfarero, fundamental en
la fabricación de vasijas y otros utensilios; así como el ladrillo, hecho de
barro cocido en hornos. Las tierras arcillosas entre los dos ríos permitieron
la fabricación de todo tipo de útiles, y también han transmitido hasta nosotros
la primera forma de escritura conocida: la cuneiforme. Ya muchos pueblos
neolíticos trazaban insculturas en la piedra que tenían que significar algo;
pero los primeros que inventaron un alfabeto con signos uniformes y
característicos fueron los caldeos de Mesopotamia. Las tablillas de barro
grabado y posteriormente endurecido se mantienen indefinidamente, y gracias a
eso conservamos testimonios directos procedentes de hombres de hace casi cinco
mil años.
Algunos signos no representaban palabras, sino números. Los caldeos comenzaron
con un sistema de numeración decimal. Una cuña con la punta más aguda hacia
abajo representa la unidad; tres cuñas, el tres; una cuña con la punta hacia la
izquierda, el diez; una con la punta a la izquierda y cuatro con la punta hacia
abajo, el catorce..., y así sucesivamente. Con este sistema consiguieron
consignar valores y realizar cálculos cada vez más complicados. Hacia el año
2000 a.J.C. comenzaron a emplear un signo parecido a la A al revés: representa
el 6o. Idearon así el sistema sexagesimal. Para números pequeños es preferible
el decimal, similar al nuestro; pero para valores muy grandes prefirieron la base
60, que permite trazar menos signos: y no olvidemos que para los mesopotámicos
escribir significaba tener que practicar incisiones en el barro. El número 60
es, de todos los de dos cifras, el más divisible: lo es por 1, por 2, por 3,
por 4, por 5, por 6, por 10, por 12, por 15, por 30. ¡De ningún otro número de
dos cifras puede decirse nada parecido! No sabemos cómo los pueblos
mesopotámicos llegaron a concebir las excelencias de un número relativamente
elevado para contarlo con los dedos. Cierto que dieron también importancia a
los divisores, especialmente el 12.
El sistema sexagesimal se prestó a cálculos muy complicados.
Representaron en tablillas de barro las tablas de multiplicar. Sabían,
inversamente, dividir, y hasta multiplicar un número por sí mismo, esto es,
potenciar. La tablilla Plimpton, hoy conservada en la universidad de Columbia,
parece expresar algo parecido al teorema de Pitágoras. En cálculo matemático,
los babilonios no tuvieron rivales; en geometría, en cambio, parece que les
superaron los egipcios. El sistema sexagesimal es el único no decimal que ha
llegado hasta nosotros. Nuestros relojes tienen doce números; cada hora se
divide en sesenta minutos, y el minuto en sesenta segundos. Los ángulos se
miden por grados (y estos en minutos, y los minutos en segundos); un triángulo
equilátero mide 60º; el rectángulo 90º (60 + 30), y la circunferencia entera,
360 (60×6). Realmente, algo les faltó a los babilonios para legar a la
posteridad la mejor herramienta de cálculo de todas las posibles: ¡el cero! Al
fin inventaron el signo, para indicar un nuevo orden; lo empleaban para
expresar algo así como 330; pero no se les ocurrió usarlo para expresar 303.
Fue una pena. La matemática perdió tal vez dos mil años en su progreso. El cero
lo inventaron los hindúes, y lo aprovecharían desde el siglo IX los árabes, que
fueron por un tiempo grandes matemáticos.
Los mesopotámicos, y especialmente los babilonios, fueron también reputados
astrónomos. En este campo, y a diferencia de las matemáticas, que practicaron
como ciencia pura, mezclaron con el estudio creencias mágicas que desvirtuaron
en ocasiones la concepción del universo; pero no por eso sus hallazgos dejaron
de ser válidos. El cielo habitualmente limpio de su país les permitió realizar
observaciones habituales. Desde los zigurates, templos
piramidales escalonados, orientados siempre con sus aristas hacia los cuatro
puntos cardinales, midieron la altura del sol en cada época del año, y
precisaron mejor que ningún otro pueblo la llegada de las estaciones. También
observaron durante la noche la luna, los planetas, que identificaron, y las
estrellas. Midieron el tiempo en que la luna completa sus cuatro fases, o
periodo sinódico, de 29,55 días, y de ahí pudieron derivar la concepción del
mes como una útil división del calendario (y la división del año en 12 meses).
Algo más descubrieron: la luna se va moviendo a lo largo de su trayectoria
aparente entre las estrellas siempre por las mismas constelaciones: Aries,
Tauro, Géminis, Cáncer... etc., siguiendo invariablemente el mismo camino. Los
babilonios comenzaron a hablar del «camino de la luna», lo que luego se
llamaría zodíaco. Se dieron cuenta pronto de que los planetas siguen también
ese mismo camino. Y finalmente llegaron a la conclusión de que el sol, al que
siempre consideraron como un ser divino, marcha también por esa franja del
cielo. Se explicaron mejor la sucesión de las estaciones, y dieron a aquellos
signos celestes un significado mágico. La astrología se desarrolló al par de la
astronomía. Pero no por eso dejaron de calcular con mucha precisión los
movimientos de los astros, y de predecir sus posiciones en el futuro. ¡Esta
capacidad de predecir fue un avance extraordinario de la ciencia y al mismo
tiempo un argumento para la magia! La mayor parte de los signos del zodíaco que
hoy conocemos (aunque apenas sirvan para otra cosa que la predicción
acientífica de los horóscopos) proceden de los babilonios. Pero también
sirvieron para establecer efemérides. En el Museo Británico se conserva una
tablilla que se interpreta como una regla para la predicción de eclipses. Quizá
llega demasiado lejos Stephen Toulmin cuando afirma que «las tablas
astronómicas de los babilonios vienen a ser registros muy similares a los de
nuestros almanaques náuticos».
Los babilonios también inventaron el reloj de sol, aparte de que empleaban
igualmente el reloj de arena. La división del día y de la noche en doce horas
es consecuente con su concepción duodecimal. La construcción de grandes
edificios les obligó a calcular volúmenes, y por tanto la cantidad de ladrillos
que hacen falta para construir cada uno. Poco sabemos de la torre de Babel (que
ha querido identificarse con alguno de aquellos enormes templos o edificios),
ni de los Jardines Colgantes de Babilonia. Solo sabemos que los pueblos
mesopotámicos dominaron como pocos la técnica de la arquitectura. Y la
necesidad imperiosa del riego les obligó, que sepamos por primera vez en la
historia, a construir canales. Es curioso que el empleo del barro cocido haya
convertido sus monumentos, después de miles de años, en enormes colinas
artificiales (lo que hoy se llaman tells). En cambio, este material, aunque
frecuentemente reducido a pedazos, cuando queda enterrado conserva bastante
bien los signos que trazaron para escribir o para calcular. Gracias a ellos
podemos hoy reconstruir aspectos de su ciencia, la más antigua que con
certidumbre conocemos.
§. Los egipcios
Heródoto de Halicarnaso, considerado como el padre de la Historia, tuvo alma de
reportero, viajó por países del Próximo Oriente, preguntó y anotó, y gracias a
él conocemos, por testimonio externo, algunas peculiaridades de la cultura
egipcia. Fue Heródoto quien hizo una afirmación repetida durante dos mil
quinientos años: Egipto es un don del Nilo. Sin este otro gran río,
Egipto hubiera sido un desierto tan insoportable como Mesopotamia sin el
Éufrates y el Tigris. Con la ventaja de que el Nilo se desborda, entonces
inexplicablemente, en verano. La crecida del Nilo no solo proporciona abundante
agua justo cuando más falta hace, sino que la riada arrastra un limo fértil,
procedente del África intertropical, que fecunda los campos y se desparrama por
el delta. Heródoto apunta hipótesis muy razonables sobre la crecida del Nilo.
Durante muchos siglos se ignoraron los motivos del prodigio. Hoy conocemos muy
bien sus dos causas principales. Primera, la fusión de las nieves de las
altísimas montañas de Etiopía (Nilo Azul); segunda, la estación de las lluvias
en la cordillera Ruwenzori y el lago Victoria (Nilo Blanco). El Nilo es el único
gran río del mundo que nace en el hemisferio Sur y desemboca en el hemisferio
Norte.
Otra particularidad de Egipto es la persistencia de un mismo pueblo y una misma
cultura, durante casi tres mil años, en idéntico escenario. Prácticamente no
sufrió invasiones, y sus ciudades, por excepción, no estaban defendidas por
murallas. Los egipcios no pasaron, metodológicamente hablando, de la Edad del
Bronce. El hierro lo aportaron los «pueblos del mar», y en escasas cantidades.
Tanto es así, que en una tumba faraónica se encontró una bola de hierro
encerrada en un cofre de oro: se concedía más importancia al contenido que al
continente. Pero la escasez de metales duros no impidió a los egipcios alcanzar
una elevada cultura y una ciencia privilegiada, que se mantuvo por espacio de
milenios merced a una admirable continuidad histórica, a lo largo de treinta y
una dinastías consecutivas. Jamás pueblo alguno ha disfrutado de una historia
prácticamente no interrumpida durante tantísimo tiempo. Quizás este mismo hecho
tuvo en cierto modo un efecto retardatario: los egipcios disfrutaron desde muy
pronto de una de las culturas más refinadas del mundo antiguo, pero durante
miles de años apenas la desarrollaron. Un hecho digno de mención es, por
ejemplo, una escritura ideográfica-pictográfica, que ha podido descifrarse
gracias a la Piedra de Roseta, escrita en caracteres egipcios y griegos. Así
hemos podido penetrar tres mil años en el misterio de los egipcios. No llegaron
a tener nunca una escritura alfabética, como sus casi vecinos los fenicios.
Escribieron en la piedra de sus templos y sobre todo en hojas de papiro. Con
aquella piedra construyeron los imponentes edificios que son las pirámides (la
de Keops sigue siendo, después de casi cinco mil años, la edificación maciza
más grande del mundo), para cuya construcción precisaban de profundos
conocimientos geométricos y arquitectónicos. Y también monumentales templos,
como los de Karnak y Luxor. En ellos trazaban sus solemnes textos jeroglíficos,
que han llegado casi intactos a nosotros. Pero para textos usuales, se valían
del papiro, una planta que se puede cortar en láminas muy finas, que luego se
secaban, se golpeaban y se pulían, en un proceso que requería una excelente
técnica. Escribían con tinta negra (los grandes epígrafes en tinta roja), y
también dibujaban. Sobre el papiro utilizaban caracteres más sencillos
(hieráticos o demóticos), que podían escribirse más rápidamente. El papiro
escrito se conserva bien en ambientes muy secos. Gracias a esa circunstancia
conservamos escritos de contabilidad, de operaciones aritméticas, de historia,
hasta un tratado de medicina, que nos permiten conocer, bastante mejor que en
el caso de Mesopotamia, la ciencia egipcia.
Los egipcios fueron excelentes geómetras. Y no tenían más remedio que serlo,
porque el limo de las crecidas del Nilo cubría la tierra y borraba los límites
de las parcelas: tras cada inundación era preciso parcelar de nuevo. Heródoto
llama a esta operación geometría, «medida de la tierra», y la palabra ha
llegado hasta nosotros. Sabían medir la altura de un edificio por la longitud
de su sombra. Podían calcular superficies con facilidad, y áreas de diversas
figuras geométricas: estuvieron muy cerca de hallar el valor exacto de «pi», o
razón de la circunferencia al radio. También midieron con precisión volúmenes.
Un hecho que puede parecemos sorprendente: trazaban con precisión ángulos
rectos valiéndose de un sistema muy ingenioso. En una cuerda medían muy
exactamente tres varas, y hacían un nudo; luego, cuatro varas, y hacían un
segundo nudo; al fin cinco varas, y un nuevo nudo. Cuatro hombres ponían la
cuerda tirante, y el último se acercaba al primero, hasta que el comienzo de la
cuerda tocaba el tercer nudo. Quedaba formado un triángulo, uno de cuyos lados
era necesariamente recto. Efectivamente, 3 × 3 =9, 4 × 4 = 16 y 5 × 5 = 25. El
cuadrado de la hipotenusa es igual a la suma de los cuadrados de los catetos:
25 = 16 + 9. ¡Habían descubierto el teorema de Pitágoras! En fin: quizá no
exactamente; habían descubierto que con tres trozos de cuerda de longitud 3, 4
y 5, se forma un triángulo rectángulo. La explicación teórica necesitaría del
genio griego.
Para sus cálculos geométricos, los egipcios necesitaban un sistema de
numeración y unos signos capaces de representar los números. Emplearon el
sistema decimal, y unos signos muy sencillos, parecidos a una U invertida. El
diez se dibujaba con un doble signo, y el cien con tres. No intuyeron el cero.
Podían realizar operaciones sencillas. Para restar decían: del seis al diez,
¿cuánto me falta? Fueron buenos astrónomos, y construyeron las pirámides con
las caras hacia los puntos cardinales. La aparición de la estrella Sirio
señalaba el comienzo del año. Y tenían bien calculada la posición de 36
estrellas para ajustar el calendario. Contaban tres estaciones (inundación,
cosecha, sequía) de cuatro meses de 30 días en cada estación. Al final añadían
cinco días epagómenos, para completar los 365.
Fueron mejores médicos que los babilonios. Por primera vez, que sepamos, tenían
especialistas: en enfermedades de los ojos y la vista, en afecciones de boca y
garganta, en indigestiones o molestias de los huesos. Diagnosticaban muy bien,
y describían minuciosamente los síntomas. Y aunque gozaban fama de eficaces
(¿lo eran realmente?), sus recetas, de las cuales conservamos hasta 900 en el
papiro Ebers, aproximadamente del año 1650 a.J.C., no parecen muy eficaces.
Algunas de las hierbas o pociones que describen podían paliar un poco los
dolores o mejorar la salud; otras pueden parecer contraproducentes. A pesar de
que dominaban maravillosamente la técnica de la momificación, los cuerpos de
algunos faraones han llegado francamente bien conservados hasta nosotros, no se
atrevieron demasiado con la anatomía. Sí tuvieron felices intuiciones, como
reconocer en el corazón el motor de la circulación de la sangre. El hecho es
que la fama de los médicos egipcios duró muchos siglos.
Un inconveniente de la ciencia egipcia fue su relación con la magia, con el
simbolismo, con los secretos esotéricos y con los números cabalísticos. Solo
los sacerdotes y los altos funcionarios sabían leer o calcular, aunque lo
hacían muy bien. Hasta había un calendario popular y otro secreto, más ajustado
a la realidad, que muy pocos conocían. Parece ser de origen egipcio el mito de
la piedra filosofal, un producto obtenido a base de complicadísimas
combinaciones químicas, que estaría dotado de poderes maravillosos: entre ellos
el de proporcionar la eterna juventud y el de obtener oro de otros metales. La
alquimia, que no es otra cosa que la química primitiva, con sus aciertos o sus
errores, que eso es distinto, se desvió muchas veces a la búsqueda de este
producto prodigioso. Los egipcios, los persas, los griegos, los árabes, los
europeos medievales, se desvivieron buscando la piedra filosofal. Todavía en el
Renacimiento se hablaba de ella, o de la transmutación de los elementos. Quizá
la afición de los egipcios a lo misterioso y a lo oculto retrasó la evolución
de su ciencia, que progresó muy poco en 3.000 años.
China fue durante muchos siglos un mundo aparte. Enorme y muy poblada, poco
tendente a relacionarse con otros pueblos, tuvo capacidad para vivir una
cultura propia, llena de originalidad. Los chinos fueron de los primeros que
aprendieron a cultivar la tierra con técnicas adecuadas, de los primeros en
inventar la rueda, y con ella un instrumento que parece que no se les puede
discutir: la carretilla, de los primeros en constituir un gran imperio con una
compleja legislación, y una cultura muy refinada; y también disfrutan de una
fama, casi legendaria, de haber figurado entre los primeros en contar con una
ciencia admirable y desarrollada. Un problema con que nos encontramos es la
tendencia de las leyendas chinas a exagerar la antigüedad de sus inventos. No
conviene incurrir en el tópico que confunde «lo chino» con lo «antiquísimo».
Sí es muy antiguo su sistema de escritura, de carácter pictográfico e
ideográfico, con elementos fonéticos; una escritura que emplea signos
extraordinariamente complicados, que exigen una enorme memoria y una no menos
enorme paciencia: las letras habían de ser pintadas con un pincel; eso sí, no
representaban sonidos sueltos, sino ideas o palabras. También podían escribir
valores aritméticos, y parece que aprendieron pronto las cuatro reglas y cálculos
más complicados. Más tarde llegarían a resolver ecuaciones de segundo grado.
Dedicados a la agricultura y al comercio, dominaron bien la contabilidad y la
geometría. Hay vestigios de un sistema sexagesimal, pero los documentos que
conocemos indican que se empleaba comúnmente el decimal. Con su capacidad de
cálculo idearon un calendario luni-solar. Contaban meses por lunaciones, y el
año, como en Caldea y Egipto, tenía doce meses. Doce lunaciones suponen 354,5
días. Periódicamente añadían al año un decimotercer mes, para ajustar el
calendario a las estaciones.
Fueron excelentes astrónomos. Calcularon las efemérides del sol y de la luna, y
llegaron a predecir bien los eclipses. Cuenta la leyenda que a un sabio que no
supo prever un eclipse de sol le cortaron la cabeza. Hicieron catálogos de
estrellas, y distinguieron constelaciones, la mayoría de ellas de configuración
muy distinta de las nuestras. Y, sobre todo, tomaban un registro minucioso de
todo lo que observaban. Gracias a eso sabemos de la aparición de cometas, y del
estallido de estrellas novas y supernovas, que los chinos llamaban «estrellas
invitadas». Los anales chinos son en este sentido muy útiles a la ciencia
actual. Eso sí, no se hicieron preguntas acerca de por qué sucedían esos
fenómenos.
A los chinos se les atribuyen, y con razón, muchos inventos, aunque hoy tiende
a restárseles antigüedad. Por ejemplo, sabemos que descubrieron la brújula.
Pero no pasa de ser una leyenda la mención a un «carro guiado» en año 2634
a.J.C. Sí pudieron conocer pronto la piedra magnética y sus propiedades. La
primera mención de una aguja de hierro que, sostenida sobre una hoja, permitía
orientarse a los viajeros, data del siglo II d. J.C., y la primera mención de
una aguja flotante es del XI. De los chinos aprendieron muy poco después los
árabes el uso de la brújula, que perfeccionaron. En cuanto al papel, otro de
sus inventos, la primera referencia concreta es del año 105 d.J.C. Antes
escribían sobre hojas de bambú. La pólvora es otro de los inventos chinos. Pudieron
emplearla hacia el siglo I; el primer relato de una especie de fuegos
artificiales es del siglo VII. El hecho de que los chinos no hayan realizado
sus descubrimientos en los tiempos antiquísimos que antes se les atribuían no
resta su mérito, e indica, además, un hecho no frecuente en otras culturas muy
tradicionales: progresaron en sus conocimientos. Parece que su
edad de oro, por lo que a la ciencia respecta, se encuentra aproximadamente
entre el siglo III a.J.C. y el X d.J.C. Una obra casi épica, que nos da la
medida de su tecnología y de su paciencia es la Gran Muralla China, una cadena
fortificada de miles de kilómetros, comenzada hacia el año 220 a.J.C., y
culminada por la dinastía Ming, después del 1200 de nuestra era. Su trazado
puede parecer poco racional y zigzagueante, pero cumplió un papel fundamental,
si no como bastión defensivo, sí como vía de comunicación de insospechadas
posibilidades. Los chinos fueron un pueblo laborioso y cuidadoso, idearon
máquinas sencillas para sus trabajos, y hasta se les atribuye un ingenio
parecido al reloj. Sus instrumentos son eminentemente prácticos. Si bien hay
que reconocer que el máximo partido de sus inventos lo obtuvieron los árabes, y
más tarde los europeos.
Capítulo 3
Los tiempos clásicos
Contenido:
§. El genio de los griegos
§. La gran síntesis alejandrina
§. La ciencia de los romanos
Podemos comenzar de nuevo con una alusión a
Heródoto, que fue un historiador riguroso, pero no exactamente un científico,
tal como hoy se entiende esta palabra. En su viaje a Egipto quiso enterarse de
todo, incluso de la causa de que el Nilo se desborde precisamente en verano. Y
un sacerdote egipcio, cansado de su insaciable curiosidad, le espetó: «Oh,
vosotros los griegos sois como los niños: no hacéis más que preguntar». Porque
los griegos, y los sucesores de los griegos se hicieron preguntas para saber el
porqué de las cosas, fue la ciencia lo que fue en Occidente. Los babilonios,
los persas, los chinos, los hindúes, los egipcios, los fenicios, que navegaban
guiándose por las estrellas, estudiaron muy bien los fenómenos, pero nunca
intentaron averiguar su porqué, no buscaron una explicación de
las cosas. La curiosidad racional de los griegos fue un paso gigantesco en la
historia de la ciencia, y también, por sus consecuencias, en la historia del
mundo. La cultura clásica grecolatina, que dominó el espacio mediterráneo y sus
contornos sería un elemento fundamental de la cultura europea, y por la
expansión de la europea, de gran parte de la cultura universal.
§. El genio de los griegos
La cultura griega nace fundamentalmente en Asia Menor, donde los primitivos
helenos tuvieron contacto con otros pueblos del Próximo Oriente, más avanzados
que ellos. De los fenicios, que poseían un sentido muy práctico, tomaron el
alfabeto. Los fenicios inventaron un sistema de expresión fonética basado en el
dibujo de un objeto del que tomaban el primer sonido. «Buey» se decía aleph: dibujaban
esquemáticamente una cabeza de buey, un óvalo con dos astas, y lo empleaban
para representar el sonido «a». Los griegos dibujaban un signo aún más sencillo
y lo llamaban «alfa», que ya no significaba nada más que el sonido mismo. Bit en
fenicio era casa, (dibujaban un plano muy sencillo) y de ahí viene la
«beta». Gamal significaba en fenicio «camello» y representaban
su primer sonido con dos jorobas; los griegos hicieron un signo más simple para
la «gamma», y así sucesivamente. Lograron así un sistema de escritura rápida y
fácil, que les permitió independizar los signos de las cosas, expresar las
ideas más abstractas y una esplendorosa literatura. Los romanos imitarían el
alfabeto griego con unas variantes, todavía más fáciles, que son prácticamente
las mismas que hoy empleamos en la mayor parte del mundo. En cambio, los
griegos no inventaron signos para expresar los valores numéricos. Tenían un
sistema decimal, y de ellos lo hemos heredado también la mayor parte de los
seres humanos, pero para representar los números se valían de letras. Y lo peor
es que no concibieron el cero como un valor representable. Fueron más geómetras
que calculistas, y más filósofos que geómetras, pero su afán por explicarse las
cosas tuvo un valor incalculable en el desarrollo de la ciencia.
Tales de Mileto (624-548 a.J.C.), natural, como todos los primeros sabios
griegos, de Asia Menor, parece que estuvo en Egipto, y allí aprendió a medir la
altura de las pirámides por su sombra. Y quizá de eso extrajo su teorema, el
famoso «teorema de Tales» el más antiguo que conocemos, y que describe la
relación que se establece cuando dos rectas no paralelas cortan a una serie de
rectas paralelas. El teorema, el principio demostrable: he ahí
un hallazgo fundamental del genio griego. Tales opinaba que el agua es el
elemento fundamental del cual proceden todos los demás: se equivocó, pero
formuló por primera vez una teoría, y trató de razonarla. También observó que
el ámbar (en griego «elektron») atraía partículas muy ligeras, y de allí nació
el interés por la electricidad, un fenómeno que tardaría muchos siglos en
explicarse. Acierto definitivo de Tales (y de Anaxágoras) fue la explicación de
las fases de la luna de acuerdo con la posición que ocupa respecto del sol. La
luna no es luminosa, la ilumina el sol, y solo vemos la parte iluminada. Parece
que a nadie se le había ocurrido hasta entonces semejante idea. Y, no menos
importante, Tales fue maestro de Pitágoras.
Pitágoras, considerado ya en su tiempo como «padre de los números», fue uno de
los grandes pioneros de la ciencia griega, y hasta cierto punto, de la ciencia
universal. Nacido en la isla de Samos, vivió aproximadamente entre los años 582
y 496 a.J.C. Viajó, como otros, por Egipto y Mesopotamia, cuya ciencia estudió
y racionalizó. Molesto con el tirano Policrates, que gobernaba en Samos, emigró
a Crotona, en el sur de Italia, y allí creó la escuela pitagórica, que duraría
más de un siglo. De aquí que resulte difícil separar la obra de Pitágoras de la
de sus discípulos. Por otra parte, los pitagóricos formaron una especie de
secta a la que se exigían fuertes valores morales: «no seas nunca esclavo de tu
vientre, de tu lascivia, de tu ira. Si obras mal, arrepiéntete». Creían en la
inmortalidad del alma. Pero también se dejaron llevar por creencias mágicas y
símbolos misteriosos, que tal vez tomó Pitágoras de Egipto. La concepción
pitagórica fundamental es la de que los números forman parte de la esencia del
universo, y por tanto solo es posible expresar la realidad del universo
mediante números. Esta creencia, sin duda exagerada, fue, sin embargo la base
de la concepción de las matemáticas como disciplina indispensable para la
comprensión y expresión de la realidad científica. También creía Pitágoras en
la «armonía universal», una especie de música que refleja la bella proporción
de la maquinaria del universo: una música que suena, pero que no oímos, porque
hemos nacido con ella y a ella estamos desde siempre habituados. El hecho puede
tener relación con el interés de Pitágoras por la música.
En efecto, la humanidad debe a Pitágoras dos grandes hallazgos: el teorema que
lleva su nombre y la escala musical que hoy seguimos empleando. Ya hemos visto
cómo los egipcios, y posiblemente también los mesopotámicos, conocían una
propiedad fundamental de los triángulos rectángulos; pero solo Pitágoras supo
enunciarla de un modo racional: «el cuadrado de la hipotenusa es igual a la
suma de los cuadrados de los catetos». ¡Ahí radica justamente el genio de los
griegos! Saben racionalizar, saben explicar, saben teorizar, saben definir. Así
empezó la ciencia teórica en el mundo. El concepto de «cuadrado», que hoy
seguimos empleando, tiene un origen geométrico, y la expresión de su teorema la
dibujaban los pitagóricos justamente con cuadrados.
Es posible que el teorema de Pitágoras le haya sido sugerido por el anterior
teorema de Tales. También el teorema de Tales pudo influir en su concepción de
la escala musical. Una cítara está formada por una serie de cuerdas paralelas
entre dos líneas divergentes. Y de aquí dedujo Pitágoras la proporción entre la
longitud de las cuerdas y la nota que da cada una de ellas cuando la pulsamos.
Lo cierto es que la escala musical que hasta hoy hemos venido empleando en
Occidente es la establecida hace dos mil quinientos años por los pitagóricos.
En Atenas hubo, especialmente en el siglo IV a.J.C., grandes filósofos. Platón
pasa por ser un gran geómetra, y a la puerta del jardín de Academos en que
enseñaba hizo colocar su famoso aviso: nadie entre aquí que no sepa
geometría. Con todo, Platón, más que geómetra, fue un gran pensador
idealista: para él hay figuras perfectas o imperfectas, según que se aproximen
o no a su «ideal». La línea más perfecta es la circunferencia y la figura más
perfecta es la esfera. La Tierra y el cielo deben ser grandes esferas. Esta
convicción perduró hasta los tiempos modernos. Sin embargo, el que demostró con
argumentos que la Tierra es esférica fue su discípulo Aristóteles. Los
argumentos aristotélicos son realmente irreprochables:
1º el peso de la Tierra es tan enorme, que todas sus partes gravitarán sobre sí
mismas; y la única forma de autogravitación en equilibrio es la esfera;
2o la sombra de la Tierra en todos los eclipses de luna es
circular. La única figura cuya sombra es circular cualquiera que sea su
posición es la esfera;
3º conforme avanzamos hacia el norte o el sur, las constelaciones brillan en el
cielo a una altura distinta; sin embargo, su figura no cambia. Si las dejáramos
atrás, esa figura cambiaría por efecto de la perspectiva; pero como no es así,
lo que ocurre es que, al caminar sobre una esfera, nuestra cabeza va apuntando
a sitios distintos del cielo, y las estrellas que teníamos encima parecen quedar
atrás.
Para explicar el movimiento de los astros, Aristóteles suponía, como Eudoxo y
como Platón, una serie de esferas cristalinas que giraban: una para el sol,
otra para la luna, otras para cada uno de los, planetas y finalmente las
estrellas; pero para explicar las distintas anomalías que se observaban,
propuso hasta 55 esferas concéntricas. La teoría de las esferas es falsa, pero
se mantuvo durante siglos, porque era la única explicación posible, y los
griegos, a diferencia de los otros pueblos antiguos, querían explicaciones.
Aristarco intuyó, para comprender aquellas anomalías, un supremo
descubrimiento: la Tierra no es el centro de Universo: tanto ella como los
planetas giran alrededor del sol. Era una teoría demasiado revolucionaria. Sus
contemporáneos le contradijeron y hasta le persiguieron. La teoría
heliocéntrica tardaría casi dos mil años en formularse de nuevo.
Parece absolutamente necesaria la alusión a un médico, Hipócrates de Cos,
considerado tradicionalmente como el padre de la medicina. Médicos hubo en
China, en Egipto, en la India y Mesopotamia; pero de nadie sabemos que haya
investigado las causas de las enfermedades y el porqué de los remedios más
convenientes. Para nada emplea la magia, como los médicos de culturas
anteriores. Hipócrates intuyó genialmente que la fiebre es el resultado de la
lucha del propio organismo con la enfermedad. También descubrió la relación
entre la dieta o los aires y las aguas con la salud; en este sentido, es el
fundador de la medicina preventiva. Sus contemporáneos le atribuyen grandes
éxitos, que por lo visto le hicieron famoso. De Hipócrates se conservan muchas
obras, aunque no sabemos con seguridad cuántas son realmente suyas. Y sobre
todo, los famosos «aforismos», sentencias breves, fáciles de recordar, y el
«juramento hipocrático» («lucharé solo por la salud, no por mis intereses;
guardaré secreto cuando me lo pidan; seré respetuoso, sobre todo con las
mujeres»), que tradicionalmente han venido haciendo tantos médicos al recibir
su título.
Los pueblos orientales desarrollaron la ciencia observando los fenómenos y
anotando los resultados. Los griegos le confirieron un nuevo sentido
preguntándose el porqué, definiendo, estableciendo principios y teoremas,
explicando: pero apenas observaron. Llegó un momento de contacto entre las dos
formas de entender la ciencia, y se unieron la observación y la medida con la
lógica y la explicación: fue realmente un momento glorioso para el progreso
científico. Ese momento llegó en tiempos de Alejandro Magno (356-323 a.J.C.),
aquel joven extraordinario y ambicioso, un mito real casi inexplicable, que a
los dieciséis años ganó su primera batalla, conquistó toda Grecia y luego se
lanzó a la conquista del todo el mundo conocido: Egipto, Asia Menor, Siria,
Mesopotamia, Persia, la cuenca del Indo. Interesado por el saber, fue discípulo
de Aristóteles, hizo que un grupo de sabios le acompañaran en sus campañas. De
ellos Teofrasto fundaría la botánica, experimentando con plantas de todo el
mundo, y Dicearco trazaría mapas de todas las tierras conocidas.
Alejandría, en Egipto, sería su capital. Alejandro murió a los 33 años, y su
imperio fue dividido entre sus generales. Egipto correspondió a Ptolomeo,
también discípulo de Aristóteles, que creó una escuela científica. Su hijo,
Ptolomeo Filadelfo estableció el Museo, una especie de centro de altos
estudios, que llegó a disponer de una fabulosa biblioteca, la más grande del
mundo. El Museo fue algo parecido a una universidad y un centro de
investigación. Uno de sus directores fue Eratóstenes (272-194), matemático,
físico, astrónomo, geólogo y hasta poeta. Una de sus hazañas más increíbles fue
la medida del tamaño del mundo. Supo que en la ciudad de Siena, en un día
determinado, equivalente a nuestro 21 de junio, a mediodía las columnas no
daban sombra, y la imagen del sol se reflejaba en el fondo de un pozo muy
profundo: es decir, el sol estaba exactamente en el cénit. Midió la distancia
entre Alejandría y Siena, que era de 4.860 estadios. Y en el día indicado,
midió la distancia angular del sol al cénit en Alejandría, que resultó ser de
7º Entonces hizo una simple regla de tres: si 7º suponen 4.860 estadios, 360º,
o sea la circunferencia entera de la Tierra serán x estadios. Así llegó a la
conclusión de que nuestro mundo tiene una circunferencia de 248.000 estadios.
Si asignamos al estadio, como hoy se estima, una longitud de 165 metros, la
Tierra tendría 40.900 km. de circunferencia. Hoy sabemos que tiene 40.000. Fue
una hazaña asombrosa, increíble para aquellos tiempos.
Por su parte, Hiparco midió la duración del año con un error de solo 6 minutos.
Uno de sus más importantes descubrimientos fue el de la precesión de los
equinoccios (el punto en que el sol alcanza la primavera se va moviendo
lentamente entre las estrellas), y esto le permitió conocer mejor la relación
entre las constelaciones del zodiaco y la sucesión de las estaciones. Hiparco
calculó también la posición de unas 1000 estrellas, y las dividió en
«magnitudes» de acuerdo con su brillo aparente. Fue así el autor del primer
catálogo estelar. Renovó los métodos matemáticos e inventó la trigonometría
esférica. Si Hiparco fue ante todo astrónomo y geómetra, Euclides (330-277
a.J.C.) fue el gran maestro de la matemática en la antigüedad. Sus Elementos son
un resumen completo y luminoso de todo el saber de su tiempo: recoge los
hallazgos de Tales, de Pitágoras, de Eudoxo, de Hipócrates. Es lógico,
organizado, sistemático como nadie. Parte de axiomas indiscutibles, y de ahí
deduce teoremas y corolarios con método impecable. Fue la base de toda la
matemática y sobre todo de la geometría en Occidente hasta el siglo XIX.
La cultura alejandrina también se difundió por la zona del Egeo y el sur de
Italia, donde ya se había establecido Pitágoras. Uno de los más grandes sabios,
y también técnicos, de la antigüedad fue Arquímedes (287-217 a.J.C.) natural de
Siracusa, en Sicilia. Estuvo, como tantos, en Alejandría, donde fue amigo de
Eratóstenes, y luego regresó a Siracusa, donde estuvo al servicio del rey
Hierón, que le protegió. Plutarco atribuye a Arquímedes una «inteligencia
sobrehumana». Fue matemático, geómetra, físico e «ingeniero», en cuanto que fabricó
multitud de instrumentos y máquinas producto de su ingenio. Sus estudios sobre
cuerpos en equilibrio le llevaron al descubrimiento de la palanca y de sus
leyes: una palanca puede mover cuerpos muy pesados con poco esfuerzo: todo
depende de la longitud de los brazos, el de la «potencia» y el de la
«resistencia». Parece que no es cierto que dijera: «dadme un punto de apoyo y
moveré el mundo», porque al fin y al cabo era un hombre realista; pero tuvo
conciencia de lo que puede conseguirse de una palanca. Tampoco es cierto que
corriese desnudo por las calles de Siracusa gritando ¡Eureka!, después de
descubrir la ley fundamental de la hidrodinámica; pero esta ley le sirvió para
comprobar si la corona que le habían regalado a Hierón era de oro puro o había
sido falsificada. La corona, sumergida en un cubo lleno hasta los bordes, hace
que se derrame una cantidad de agua: esta cantidad tiene un volumen idéntico al
de la corona, y por tanto es posible conocer el volumen de la corona. Pesando
la corona, se conoce su peso. Y, conocida la densidad del oro, como el peso es
igual al volumen por la densidad, se sabe si la corona es de oro o no. El gran
descubrimiento de Arquímedes fue definido así: «un cuerpo sumergido en un
líquido sufre un empuje hacia arriba igual al peso del líquido que desaloja».
Un metro cúbico de agua pesa mil kilos. Un metro cúbico de madera pesa
seiscientos kilos: la madera flota. Un metro cúbico de hierro pesa 7.600 kilos.
El hierro se hunde.
En el campo de la geometría hizo Arquímedes contribuciones decisivas sobre las
áreas y volúmenes de las figuras y los cuerpos, y determinó el valor de «Pi»
con mayor precisión que nadie hasta entonces. Inventó la catapulta y otras
máquinas de guerra que sirvieron a los de Siracusa para defenderse de los romanos.
No fue suficiente, porque la ciudad cayó, y un soldado romano le mató contra
las órdenes estrictas que tenía de no hacerlo. A los romanos les interesaba más
la persona del prodigioso Arquímedes que la posesión de la ciudad.
La culminación de la ciencia alejandrina tuvo lugar con Claudio Ptolomeo, ya en
tiempos del imperio romano (85-165 d.J.C.). Su nombre nos dice que era
ciudadano romano, y su apellido que descendía de familia real. Podríamos
inscribirlo entre los sabios de la era romana, pero es el último heredero de la
edad de oro de Alejandría. Escribió la Megalé Syntaxis, o
«gran tratado», que ha llegado hasta nosotros con su nombre árabe de Almagesto.
Ptolomeo, más que investigar, recopiló con precisión impecable todo el saber
matemático y geométrico de su tiempo. Como astrónomo, completó a Hiparco, e
hizo un gran catálogo de estrellas, precisando su posición exacta y su
magnitud. Intentó resolver definitivamente la estructura del sistema solar.
Descartó la teoría heliocéntrica de Aristarco, que a todos parecía disparatada,
a pesar de que explicaba satisfactoriamente la irregularidad aparente del
movimiento de los planetas (irregularidad debida al hecho de que la Tierra
también se mueve). Ptolomeo no quiso defender teoría alguna, y se atuvo a los hechos
observados. Y así imaginó una complicadísima maquinaria de los cielos, con sus
esferas, sus círculos, sus epiciclos y sus deferentes: una estructura genial y
ajustadísima que daba cuenta de todos los movimientos y permitía predecirlos
con gran exactitud. Ptolomeo se equivocó al aceptar una concepción geocéntrica;
sin embargo, aquel sistema, complicadísimo, pero satisfactorio para explicar
todos los movimientos celestes, se mantuvo como verdad indiscutible hasta el
siglo XVI. ¡Y todavía sirve, si lo aplicamos correctamente, para predecir la
posición aparente de los astros!
También fue Ptolomeo un gran geógrafo, que recopiló datos de todos los viajeros
y determinó las posiciones y las distancias de países y ciudades de acuerdo con
su longitud y su latitud. La visión ptolemaica del mundo perduraría también
hasta los tiempos de Colón.
§. La ciencia de los romanos
Decía Tito Livio, el primer historiador de Roma propiamente dicho, que los
romanos no se preocupan de escribir la historia, sino de hacerla. Es una afirmación
más orgullosa que humilde, porque los romanos se jactaban de su incansable
actividad, y no valoraban demasiado las lucubraciones y teorías de los griegos.
S. F. Masón entiende que los romanos procedían de una cultura menos
evolucionada que la de los griegos, a los que consideraban demasiado
entretenidos en filosofías inútiles, poco prácticos y hasta «afeminados».
Catón, por ejemplo, mostraba su desprecio hacia los griegos y sus sutiles
juegos mentales. Sea lo que fuere, la ciencia griega decayó desde el siglo II
a.J.C., y aunque su epígono alejandrino se mantuvo un poco más, acabó decayendo
también, y cuando Roma se apoderó de sus tierras, el apogeo científico había ya
pasado en su mayor parte. Los romanos tenían un alfabeto parecido al de los griegos
(sus signos son los mismos que empleamos hoy en Occidente), y un sistema
decimal de numeración que representaba los valores por letras mayúsculas, más
operativo que el de los griegos; pero no fueron grandes matemáticos teóricos,
ni geómetras: destacaron especialmente en la contabilidad.
No por ello hemos de infravalorar a los romanos. Construyeron un inmenso
imperio que iba de Inglaterra a Egipto, de Mesopotamia a Portugal; se
organizaron maravillosamente en instituciones muy sólidas. El derecho romano,
lógico, preciso y sumamente práctico, es la base de todas las edificaciones
jurídicas del mundo civilizado. Y como constructores de ciudades, calzadas,
puentes, acueductos, obras de ingeniería, no tuvieron rival. Quizá el arte
romano no alcanza la delicadeza y el sentido de las proporciones del griego,
pero posee una técnica admirable. Cuántas edificaciones aparentemente
inestables, como los acueductos, han llegado hasta nuestros días, y cuántos
puentes romanos resisten hoy el peso de los camiones. Los griegos coronaban sus
grandes edificios con un entablamento, sobre el que tendían vigas que sostenían
un techo plano. Los romanos introdujeron la bóveda, de techo cilíndrico o
semiesférico, todo de cantería, capaz de sostenerse por el contrarresto entre las
partes y por su propia solidez; para construir bóvedas emplearon con sabiduría
«cimbras» o armazones de madera que permitían ir colocando las piezas, hasta
que completada la obra, se sostenían aquéllas por sí mismas. Nuestra
civilización de hoy ha heredado tanto el genio del pensamiento griego como el
riguroso sentido constructivo de los romanos, y es difícil separar estas dos
grandes herencias.
Plinio el Viejo (23-79 d.J.C.) escribió, con el sentido práctico de los
romanos, su monumental Historia Natural, en que estudia con
detenimiento los cuerpos celestes, las estrellas, los planetas, la botánica, la
zoología, la mineralogía, se interesó especialmente por la piedra imán, la
medicina y hasta la etnografía; sabe distinguir muy bien las características de
los romanos, los iberos, los celtas, los germanos: sus viajes a España, Francia
y Alemania le permitieron precisar los rasgos de cada uno. Y de su interés por
la naturaleza da testimonio el hecho de que, al conocer la devastadora erupción
del Vesubio el año 79, viajara hasta sus laderas, donde encontró la muerte. Su
amigo Lucio Anneo Séneca fue filósofo, y sobre todo moralista, pero no dejó de
interesarse por fenómenos naturales; por ejemplo, observó que las colas de los
cometas se vuelven siempre en dirección opuesta al sol. También predijo que al
otro lado del Atlántico se encontrarían tierras desconocidas, aunque el intento
de buscarlas no llegaría hasta los tiempos de Colón.
El calendario romano contaba doce meses de treinta o treinta y un días,
alternados, para un total de 365 días al año. Pero ya es sabido que ¡por
incómodo que sea!, la traslación de la Tierra en torno al sol se completa en
365,2422 días, es decir, casi un cuarto de día más que los 365 del calendario
romano. Así resultó que en tiempos de Julio César el calendario romano,
establecido el año 753 a.J.C., se había retrasado unos noventa días, de suerte
que las fiestas de primavera se celebraban en verano, y las de la llegada del
verano cuando ya había comenzado el otoño. Los romanos no tenían expertos
capaces de calcular las causas de esta anomalía. César hizo venir de Alejandría
al sabio Sosígenes, que el año 45 a.J.C. aconsejó un cambio del calendario. El
año comenzaba con las calendas de marzo. Pues bien: cada cuatro años, al día
«sextus calendas martias» se añadía un día «bis sextus», de donde viene la
palabra bisiesto. Se aprovechó la ocasión para rendir culto a la personalidad,
y el primer mes del verano, «Quintilis» pasó a llamarse Julius, y se quitó un
día a febrero. Cuando Augusto se hizo proclamar emperador, Sextilis pasó a
llamarse Augustus, y febrero quedó reducido a 28 días, excepto los bisiestos.
El calendario juliano se mantendría bastante satisfactoriamente hasta 1585.
Los romanos fueron extraordinarios arquitectos. Sus puentes o acueductos, como
queda dicho antes, están construidos con una técnica admirable, que hoy no
sabemos muy bien cómo llegaron a alcanzar. En algunas obras importantes está
grabado el nombre del arquitecto que la proyectó y construyó, pero es muy poco
lo que sabemos de la vida y la ciencia de cada uno. El único arquitecto del que
sabemos con seguridad que escribió libros de teoría constructiva fue Marco
Vitrubio, que vivió en la época de Augusto, aunque no conozcamos los años de su
nacimiento y de su muerte. Los diez libros del tratado De Architectura hablan
de la construcción de las ciudades, los templos, los edificios, precisan los
cánones de los órdenes clásicos, y en este aspecto, su doctrina ha perdurado
durante siglos, y también se preocupó de la orientación y sobre todo de la
posición del sol. Descubrió que el sol no siempre alcanza el meridiano
exactamente a la misma hora, y estableció el «analema», o índice del adelanto o
retraso del astro del día respecto de la hora ordinaria; modificó la técnica de
los relojes de sol y precisó la mejor medida del tiempo. Los principios de
Vitrubio serían doctrina fundamental para los hombres del Renacimiento.
Mencionemos por último a un gran médico, Galeno, que aunque de origen helénico,
nació en Pérgamo, quizá en 129, fue traído a Roma a causa de su fama, y en la
gran ciudad ejerció como médico de tres emperadores, Marco Aurelio, Commodo y
Septimio Severo, y destacó, se dijo, por algunas curaciones asombrosas. Murió
en 216. Fue, con Hipócrates, el más grande médico de la antigüedad. Hoy
seguimos llamando «galenos» a los médicos, y suponemos que por algo será.
Aficionado a la disección de animales, aprendió la anatomía de los seres vivos,
la disposición de huesos, músculos, nervios, vasos. Más tarde fue cirujano de
gladiadores, un oficio que le permitió profundizar en el conocimiento del
cuerpo humano. Escribió tratados de anatomía, de fisiología, de patología
humana y el tratamiento de las enfermedades. Se fió poco de las teorías, aunque
se reconocía discípulo de Hipócrates. Pero siempre quiso ser independiente.
Para Galeno, «corto y fácil es el camino de la especulación, pero no conduce a
ninguna parte; largo y penoso es el camino de la experimentación, pero nos
lleva a encontrar la verdad».
Fue tenido como un hombre infalible..., aunque cometió errores, como el suponer
que el centro de la circulación sanguínea es el hígado; eso sí, el calor del
cuerpo es producido por el corazón. Las arterias conducen sangre, y no aire,
como se suponía. Dedujo bastante bien el papel del aparato digestivo, y
comprendió en parte la importancia del cerebro. Relacionó la frecuencia de las
pulsaciones con la fiebre, y ésta con las enfermedades. Clasificó muy
aceptablemente las dolencias por sus síntomas, y los tratamientos para cada
una. Por supuesto, muchos de sus preparados, las famosas «recetas galénicas»,
no son, que sepamos, eficaces, aunque en ocasiones acertó. Al fin quiso
encontrar la triaca, un medicamento válido para todas las
enfermedades. No hace falta decirlo: no dio los resultados previstos aquella
maravillosa combinación, producto de setenta plantas distintas... una de las
cuales es el opio, que, bien administrado, produce alivio de síntomas. Galeno,
con entera razón o no, fue seguido sin discusión hasta los tiempos modernos.
Capítulo 4
La ciencia en los tiempos medievales
Contenido:
§. Las «oscuras sombras»
§. La ciencia árabe
§. Las matemáticas
§. La astronomía
§. La geografía
§. La medicina
§. Lo que transmitieron los árabes
§. España, puente entre culturas
§. Los traductores de Toledo
§. La Baja Edad Media
§. Las universidades
§. Algunos nombres y teorías
§. La medicina
§. La aventura de la navegación
§. La brújula
§. Astrolabio y cuadrante
§. Los mapas
§. Empieza la exploración del mundo
§. Algo sobre la ciencia maya
El concepto de Edad Media, tal como usualmente lo
entendemos, es propio de la cultura europea. Cuando por algún motivo lo
aplicamos a otras culturas, lo hacemos en un sentido que solo está determinado
cronológicamente por nuestra propia historia occidental. Si hablamos de «China
en la Edad Media», queremos decir «China en la época histórica que en Europa
llamamos Edad Media». La misma expresión podríamos emplear para la cultura
árabe, o para la cultura maya. Naturalmente, nos resulta perfectamente lícito
utilizar ese jalón cronológico comprendido más o menos entre los años 500 y
1500 de la era cristiana, siempre que hagamos esa salvedad. Se trata de un
recurso, si se quiere, cómodo, que no deja, sin embargo, de tener un valor
metodológico.
Es más cómodo hablar de la ciencia antigua, así la refiramos a los chinos, a
los mesopotámicos, a los egipcios, a los griegos, porque todas las
civilizaciones de la Edad Antigua nacen como retoños independientes de un
desarrollo, en distintos escenarios, de la que suele llamarse hoy revolución
neolítica. El concepto «Edad Media» es más incómodo. Vamos a tomarlo solo como
un encuadre cronológico. En el fondo, si la ciencia moderna, tal como la
concebimos, y tal como ahora mismo la estamos disfrutando, nació en el seno de
la civilización cristiana-occidental, no es ningún disparate utilizar ese marco
cronológico como punto de referencia.
§. Las «oscuras sombras»
Es un tópico entre la mayoría de los historiadores de la ciencia y aun de
muchos historiadores de la cultura considerar la Edad Media como una época
bárbara e ignorante, cuyo transcurso significa un retroceso respecto de las
conquistas científicas obtenidas en el mundo antiguo. La actitud de la Iglesia,
preocupada por la filosofía y la teología, pero indiferente hacia los fenómenos
naturales, habría tenido la culpa de ese retroceso. El tópico, con todo el
fundamento en la realidad que se quiera, pero siempre exagerado y unido a
palabras denigrantes, se ha mantenido con pertinacia y ha engañado a muchas
personas cultas no especializadas en la materia. Es cierto que los
eclesiásticos, en los primeros siglos del Medievo, concedieron preferencia a
las ciencias especulativas sobre las naturales, y el mundo en que vivían apenas
se prestaba a otra cosa; pero no por eso dejó de cultivarse la ciencia ni dejó
de existir interés por el conocimiento de los fenómenos de la naturaleza. Sobre
todo a partir del siglo XII la ciencia se separa de la filosofía como nunca
hasta entonces lo había hecho. Tampoco se puede hablar de «una sociedad
ignorante» como si la Edad Media hubiera sido la única isla de ignorancia. El
sistema sexagesimal era conocido por muy pocos babilonios. La ciencia egipcia
fue patrimonio de la casta sacerdotal, que ocultaba al resto de la sociedad
hasta las reformas que era preciso establecer en el calendario, para poder
usufructuar sus secretos. Ni Pericles ni la inmensa mayoría de sus
contemporáneos conocía el teorema de Pitágoras. La leyenda del «fabuloso
despliegue de la ciencia antigua» habría que reservarla para reducidísimas
minorías. A los árabes se atribuye el invento del cero: el hecho no es exacto,
como vamos a comprobar muy pronto; pero lo que no suele decirse es que solo los
grandes matemáticos utilizaban este guarismo: los comerciantes árabes, que
necesitaban hacer contabilidad, empleaban el sistema sexagesimal derivado de
los babilonios.
Realmente, la falta de interés por las ciencias, incluso entre personajes
distinguidos, se echó de ver ya en los tiempos romanos. Y la cultura medieval
fue heredera de Roma. Las invasiones germánicas que destruyeron la armazón del
Imperio, vinieron a crear una sociedad rural, de pequeños poblados en que se
practicaban la agricultura y una artesanía rudimentaria. No hubo en la alta
Edad Media grandes ciudades en Europa; y ya es bien sabido que la ciencia
progresa en el seno de la civilización, y la «civilización» es privativa de las
ciudades. Las ciudades necesitan del contacto exterior para su mantenimiento, y
alimentan el comercio a distancia, y con él los intercambios de todo tipo. Una
sociedad rural tiende a la autarquía, y progresa mucho más lentamente. No por
ello desapareció la cultura. La cultura se refugió en los monasterios,
apartados por lo general de los poblados. En ellos los monjes custodiaron y
copiaron viejos textos antiguos, gracias a los cuales el legado de la sabiduría
y de la cultura clásica grecolatina, sobre todo de la latina, no se perdió, y
sería transmitido a los siglos futuros. Esa labor supone también un nuevo tipo
de soporte de conocimientos: el libro. Cuando decimos que Ptolomeo escribió
setenta libros, o que la biblioteca de Alejandría contenía más de medio millón
de libros, debiéramos hablar de «rollos» o manuscritos enrollados, cada uno de
relativamente breve extensión y de lectura molesta. P. Chaunu cree que fue en
el siglo IV cuando aparece el «volumen», una serie de hojas cosidas una tras
otra en un tomo, que puede colocarse en una estantería, con su título escrito
en el lomo, y con unas páginas que pueden abrirse por donde interesa, a
voluntad. Ha aparecido el «libro» tal como hoy lo entendemos, y su aparición
significa uno de los inventos más útiles y menos valorados de los inicios de la
Edad Media.
Entre los sabios altomedievales que se preocuparon ampliamente de las ciencias
podemos mencionar a san Isidoro de Sevilla (560-636), autor, entre otras obras,
de «las cuatro disciplinas matemáticas», en que se refiere con amplitud a la
aritmética, la geometría, la astronomía y la música, entendida ésta como una
ciencia exacta. No avanza, en general, respecto de los saberes clásicos, pero
los mantiene. Separa claramente la astronomía de la astrología, y atribuye esta
última a superstición. Explica el movimiento de los astros, y las fases de la
luna; el sol es mucho más grande que la Tierra y que la luna, y por tanto debe
encontrarse mucho más lejos. En otro de sus libros, De Rerum natura, se
ocupa de los eclipses, describe tierras, fenómenos telúricos, animales. Como el
libro está lleno de círculos, fruto de su afán de explicar gráficamente los
movimientos de los cuerpos celestes, fue conocido en Europa como el Líber
rotarum, el libro de las ruedas. Un detalle curioso, que tal vez no
conviene olvidar: el libro de Isidoro encantó al rey Sisebuto, muy aficionado a
las ciencias. Fue probablemente el primer «rey sabio» que hubo en España,
aunque el hecho no suela aparecer en los libros generales, y muchos españoles
lo ignoren. Sisebuto contestó a Isidoro con un breve tratado sobre los
eclipses. Hubo varios por aquellos años, que mucha gente estimó como señales de
mal agüero. Sisebuto rebate esta suposición, y compara los eclipses con
«carreras de carros», en que, a causa de su distinta velocidad, unas ruedas
pueden ocultar a otras. Y deduce que, como el sol y la luna no siguen
trayectorias en el mismo plano, no se produce un eclipse de sol cada novilunio
ni un eclipse de luna cada plenilunio; pero explica muy bien los fenómenos, y
deja entender que la Tierra es redonda, puesto que su sombra lo es. Por su
parte, san Isidoro nos ha dejado también testimonios inestimables sobre la
música visigoda, que solo gracias a él podemos reconstruir.
Beda el Venerable (672-735) fue un monje inglés de gran erudición, teólogo,
filósofo, también historiador y científico. Sus textos están destinados a una
lectura sencilla: para las acotaciones, inventó un sistema empleado desde
entonces: la nota a pie de página. Es interesante su estudio «sobre el cálculo
del tiempo». Y puede sorprender su afirmación de que la Tierra es «redonda como
una bola». Alcuíno de York (735804), nacido el año en que murió Beda, es otro
sabio inglés, pero fue reclutado por Carlomagno para dirigir la Escuela
Palatina de Aquisgrán. Alcuíno fue uno de los grandes artífices del llamado
«renacimiento carolingio», y consagró la división de las «artes liberales» (las
no referentes a filosofía y teología) en dos secciones, el trivium (gramática,
lógica y retórica), que tienen más que ver con las «letras»; y el quatrivium (aritmética,
geometría, astronomía y música), que tienen que ver más con las ciencias.
Escribió varias obras de ciencias, tal como éstas se entendían entonces,
siguiendo un método de preguntas y respuestas, que hacía el texto más
comprensible. El estudio del trivium y el cuatrivium se mantendría con los
sucesores de Alcuíno, y sería la base de los «estudios generales» y más tarde
de las universidades.
Un sabio que culmina la época altomedieval fue Gerberto de Aurillac (938-1003),
que terminó su vida como papa Silvestre II. Fue matemático y físico, cuidando
muy bien de diferenciar ambas ciencias. Se cuenta que realizó cálculos muy
complicados, con un ábaco capaz de alcanzar valores de miles de millones. E
ideó una serie de instrumentos. Se le atribuye la invención del reloj de pesas,
más complicado que el de arena, pero que poseía indudables ventajas, como la de
poder medir cualquier fracción de tiempo. Luego el reloj mecánico sería
perfeccionado hasta la introducción del péndulo, por Huygens, ya en el siglo XVII.
La medicina también se practicaba en los monasterios. Con procedimientos
elementales, pero nadie era rechazado. El hospital fue una
institución cristiana ligada al monacato, concebida principalmente para atender
a desvalidos, pero también para curarlos. Puede extrañarnos el consejo de
Casiodoro en una época a la que suele atribuirse gran suciedad: «han de
construirse baños que sean adecuados para el aseo del cuerpo, en los que el
agua fresca de los manantiales entre y salga con facilidad, para favorecer la
salud».
La ciencia altomedieval no supuso un avance decisivo respecto de los periodos
históricos que precedieron, al contrario, se nos aparece relativamente modesta:
pero puso las bases de un progreso futuro que sí fue crucial en la historia de
la ciencia. Un científico de fines del siglo XIX y comienzos del XX, Pierre
Duhem (1861-1916), trató de averiguar los orígenes de la ciencia moderna, y
rescató numerosos manuscritos medievales en que ve «la raíz» de lo que llegaría
a ser el despliegue del Renacimiento y de la actitud científica de fines del
siglo XVII y los tiempos que siguieron. El húngaro-americano Stanley Jaki (n.
1924) ha estudiado la poco conocida obra de Duhem y ha ampliado sus tesis. Para
Jaki, las ciencias de la antigüedad (China, India, Babilonia, Egipto, Grecia,
Roma) no lograron un desarrollo capaz de continuarse porque aquellas culturas
concebían la naturaleza sometida a unas divinidades caprichosas. El
cristianismo, añade Jaki, ve en la naturaleza el resultado de una creación divina,
pero la naturaleza no es Dios, ni está ligada en sus fenómenos a un capricho
divino, sino a unas leyes que pueden ser estudiadas de una manera objetiva, y
que no varían. Para Duhem y Jaki, no es una casualidad que la ciencia moderna
haya nacido en Europa de «una matriz cultural cristiana» que alcanzaría a su
tiempo un desarrollo independiente y continuado.
La Edad Media, por otra parte, es pródiga en pequeños inventos prácticos que
demuestran que aquella sociedad poco desarrollada no fue ajena a la tecnología.
Entre ellos cuentan, por ejemplo, la carretilla tal como hoy la conocemos, el
tonel, el jabón, la chimenea, los botones, la ballesta, el taladro y nuevas
aplicaciones del cristal: sobre todo, el cristal para las ventanas, también los
cristales coloreados. Destacan los avances en el uso del caballo, no solo como
cabalgadura, sino como sustancial elemento de transporte y de trabajo: así la
silla de montar, la herradura, los estribos, la collera, los varales del carro
con tiro independiente. También el arado de ruedas, de tracción animal, que
permitió dar al instrumento más peso y por tanto más profundidad.
Se dice que con la letra de cambio apareció el papel moneda. Se generalizaron y
se perfeccionaron la rueca y el huso para hilar. Y se consagraron los molinos
que utilizaban las fuerzas naturales: el agua o el viento. Se sabe que por el
año 1000 había en Inglaterra seis mil molinos de agua, que servían al mismo
tiempo para hacer papel, serrar, manejar martillos o mazos de batanes. Luego
vendrían los molinos de viento, muy útiles allí donde no hay corrientes de agua
(o donde el agua no corre, como la llana Holanda). También aperecieron en la
Edad Media los primeros altos hornos de fundición (por supuesto, muy simples).
Quizá el invento más revolucionario en la historia del mundo fue el de la
quilla y luego el de su complemento, el timón, que revolucionaron la navegación
a vela. Se relaciona la quilla con la ciudad alemana de Kiel, pero lo cierto es
que los restos de las embarcaciones vikingas que conservamos, del siglo X,
muestran ya una alargada quilla. La quilla posibilita transformar la fuerza del
viento en un empuje tangencial que permite al barco «ceñir» en muy diversas
direcciones; el timón mejorará todavía estas facilidades. Si los europeos
descubrieron el resto del mundo y no ocurrió al contrario, fue en gran parte
gracias a la quilla y el timón.
De pronto, inopinadamente, una nueva cultura irrumpió en la historia del mundo.
Nació en Arabia, una tierra casi desértica, cruzada por caravanas y trajinantes.
En el siglo VI, La Meca era un centro de rutas comerciales, y uno de aquellos
comerciantes, llamado Mahoma (570-632), dijo haber recibido una revelación del
arcángel Gabriel, y comenzó a predicar una nueva confesión religiosa, el Islam,
basada en tradiciones judaicas y cristianas, pero dotada de aspectos
peculiares. Expulsado de La Meca, Mahoma se refugió en Medina, allí logró más
adeptos, conquistó la capital y otros territorios, y estableció un poder
teocrático. Sus sucesores, Abú Bakry Ornar, se lanzaron a la conquista del
mundo conocido, seguidos de multitudes enfervorizadas, y aquel entusiasmo,
unido a otras circunstancias favorables, les llevó a granjearse un imperio
inmenso, que iba de la India a España, pasando por Asia Central y el norte de
África. En 732, un siglo después de la muerte de Mahoma, Carlos Martel detenía
en Poitiers a los árabes, que ya habían llegado al centro de Francia. Se
estableció un califato, con capital en Damasco (los Omeyas) y luego otro en
Bagdad (los Abasíes). Los árabes no poseían una importante cultura autóctona,
pero la conquista de territorios dotados de una alta tradición cultural les
permitió apropiársela. Por lo que respecta a la ciencia, se valieron del
riquísimo depósito de los mesopotámicos, los hindúes, los persas, los
helenísticos de Asia Menor, los alejandrinos. Incluso pudieron tomar elementos
de los chinos. Todavía más: la expulsión de los «filósofos» de Atenas el año
529, que les hizo refugiarse en Asia Menor y en Persia, les resultó muy
favorable para ponerse en contacto con la ciencia helénica. Y si los árabes
poseyeron una concepción teocrática en la política y el derecho, en cambio
aceptaron la ciencia de los pueblos conquistados, porque otra no tenían, y un
gran imperio necesita organización y planificación.
Por otra parte, los primeros califas de Bagdad, Al-Mansur (770-790), Harun
al-Rashid (hasta 808), y Al Mamón, que reinó de 813 a 835, convirtieron a la
capital del Tigris en una ciudad fastuosa llena de poetas y científicos.
Al-Mansur atrajo sabios de los más diversos países, Harun al-Rashid (el
de Las Mil y Una Noches) se rodeó de artistas y poetas; y Al
Mamón, muy interesado por las ciencias, creó la Casa de la Sabiduría, que
no fue exactamente una universidad, como algunos dicen, pero sí un centro de
investigación y de discusión científica, dotado de una biblioteca cada vez más
abundante. Allí colaboraron traductores cristianos, siríacos, persas, judíos,
que vertieron al árabe obras de Aristóteles, Ptolomeo, Arquímedes, Hipócrates,
Galeno, y copias de los más altos sabios griegos y alejandrinos. También
recibieron aportaciones persas, hindúes, y posiblemente chinas. Los árabes, que
no tenían tradición científica, reunieron en un solo conjunto todas las
tradiciones de la ciencia antigua, las desarrollaron, y luego las difundieron
por todos sus dominios. Al fin las aprovecharían los europeos cristianos, que
acabaron obteniendo de todo aquel acervo conclusiones que los mismos árabes no
hubieran podido imaginar. De aquí el inmenso papel de los árabes, primero como
compiladores del saber, luego como buenos científicos, finalmente como
transmisores a otras culturas, con o sin intención de serlo. Su papel en la
historia de la ciencia es un punto que no puede discutirse.
Cuántas veces hemos oído decir que los árabes inventaron el cero. No es cierto,
aunque fueron los primeros en utilizarlo en operaciones complejas, y en obtener
de su empleo el máximo partido. Como es sabido, los babilonios utilizaron un
signo (una raya horizontal) para expresar un número sin valor individual, pero
que podía representar un nuevo orden de cifras: pero creyeron que solo podía
emplearse al final de una expresión numérica, no para ocupar un espacio
intermedio. Fue una pena. Sin embargo, los hindúes se dieron cuenta de que esa
cifra sin valor en sí podía colocarse en cualquier posición: lo hicieron en el
siglo VI. ¡Justo para que se aprovecharan de ello los árabes! Curiosamente, el
primero que menciona el cero tal como lo empleaban los hindúes, fue, en 662, un
obispo de Siria, Severo. Muy pronto los árabes conquistadores comprendieron la
inapreciable utilidad de aquel hallazgo.
El gran matemático de la Casa de la Sabiduría fue Al Jwarizmi.
De su nombre viene la palabra «guarismo», cifra; seguramente también
«algoritmo». Empleó el cero con soltura en sus cálculos, aunque las cifras
«árabes» no fueron utilizadas entonces por los árabes, salvo sus mejores
matemáticos. Al Jwarizmi escribe el número 1 180 051 492 863, pero en sus
manuscritos se ve obligado a expresarlo así: «un mil de mil, de mil y de mil; y
un ciento de mil y de mil y de mil; y ochenta de mil, de mil y de mil, y
cincuenta y uno de mil y de mil, y cuatrocientos mil, y noventa y dos mil, y
ochocientos sesenta y tres». No tenía palabras para expresarse de otra manera,
pero él podía operar con las cifras. Nuestro sistema de numeración decimal
quedaba consagrado de una vez, lo mismo que los signos, para representar los
valores, signos que son muy parecidos a los que empleaban entonces los árabes.
Cero se decía «sifr», palabra que en árabe significa «vacío». Como se ve, dio
origen a otra palabra que hoy empleamos: «cifra».
Pero la gran creación de Al Jwarizmi fue el álgebra. L. Jean Lauand pretende
que, así como la concepción cristiana concede una importancia fundamental al
amor, al perdón, a la renuncia a la venganza, la musulmana tiene muy en cuenta
la justicia distributiva, el «a cada cual lo suyo», ya sea el premio o el
castigo. De aquí que los árabes concibieran el álgebra. Puede ser una teoría
muy ensayística. Lo cierto es el álgebra nació como un juego de equivalencias
separado por el implacable signo «igual». Si a una parte le quitamos algo de su
valor, tenemos que quitárselo a la otra.
De aquí que cuando un término de una ecuación cambia de miembro, hay que
cambiarlo de signo:
a + b = c
entonces
a = c - b.
Así por ejemplo, 5 + 3 = 8; entonces 5 = 8 - 3.
Al Jwarizmi manejó con soltura los términos, de suerte que la equidad se
mantuviera siempre. Eso sí, se sintió obligado a traducir los signos a términos
comprensibles por sus coetáneos. En vez de a o b (términos conocidos) dice
«dirhems» (un dirhem era una moneda); para mencionar la incógnita (nosotros
escribimos x), dice «cosa». Su lenguaje resulta por demás pintoresco: «un
dirhem más un cuarto de dirhem, menos tres octavos de dirhem, son la cosa»...
pero sus cálculos, a veces muy complicados, son irreprochables.
También fue Al Jwarizmi un buen geómetra, que, en su afán explicativo, se ve
obligado a dibujar figuras. Lo mismo puede decirse de Al-Bataní (conocido en
Occidente como Albategnius) o Tabib Bencuma, experto también en la fabricación
de relojes de sol.
Se dice que la necesidad de orientar el «mirhab» de las mezquitas en dirección
a La Meca obligó a los árabes a estudiar la astronomía. Sin duda hubo más:
también necesitaba orientarse una cultura de comerciantes, camelleros y
navegantes que habían de recorrer enormes territorios, muchas veces despoblados
y carentes de puntos de referencia. Aparte de esto, vivieron en ámbitos como
Mesopotamia, Persia, Egipto, de gran tradición astronómica. ¿Y por qué no contar
también la curiosidad científica? Los árabes no fueron tan propensos a buscar
explicaciones como los griegos, pero sí resultaron excelentes
observadores. La Casa de la Sabiduría fue, ante todo, un gran
observatorio. Al-Farari inventó o perfeccionó el astrolabio, un instrumento que
los árabes fabricaron con gran perfección, y que más tarde se introdujo en el
mundo cristiano. Con el astrolabio podían medir ángulos mucho más exactamente
de lo que hubieran podido hacerlo Hiparco o Ptolomeo. Así, Al Sufí realizó un
catálogo de estrellas valiéndose del Almagesto ptolemaico y corrigiéndolo o
añadiendo sus propias observaciones cuando hacía falta. Un detalle: describió
por primera vez los colores de las estrellas. Descubrió el año trópico (el
periodo que el sol tarda en regresar al punto de la primavera), que es
ligeramente distinto al del año solar natural. De sus observaciones se valió Al
Farghani (Alfragano) para su libro Del conjunto de las estrellas. Del
afán de los árabes por las medidas precisas participó también Al Battani
(Albategnius), que calculó con gran precisión la oblicuidad de la Eclíptica y
la precesión de los equinoccios (suele decirse que fue su descubridor:
recordemos que ya la había constatado Hiparco). Al Battani avanzó en el difícil
campo de la trigonometría esférica. En los cálculos sobre la esfera celeste (y
la esfera terrestre) los árabes fueron verdaderos especialistas.
En efecto, el estudio de la Tierra como una gran esfera fue también una
especialidad de la ciencia árabe. La idea de una Tierra esférica deriva, como
es sabido, de Aristóteles. El hecho de que los árabes llegasen a dominar
territorios inmensos les obligaba a conocerlos mejor, a calcular distancias y
trazar mapas. Se dice que el califa Al Mamón encargó a sus científicos que averiguasen
las dimensiones del mundo. Al Fragán fue el destinado a responder a tan
soberbio cometido, aunque otros creen que el cálculo correspondió a Al
Jwarizmí. Probablemente colaboró en la misión un equipo de sabios. Pero fue Al
Fragán quien encargó a diversos navegantes que calculasen la posición exacta de
las estrellas en un momento muy determinado desde puntos muy determinados. Por
ejemplo, la máxima altura que una estrella alcanzaba sobre el horizonte desde
distintas latitudes. De acuerdo con los datos que recibió, determinó que un
grado, medido sobre la esfera terrestre, tiene una longitud de 56 millas y 2/3,
digamos 56,66 millas. Multiplicó este valor por 360, y halló que el cinturón de
nuestro planeta mide 20.398 millas. De acuerdo con el valor que se atribuye a
la milla árabe, la circunferencia de la Tierra sería de 40.255 kilómetros. ¡Un
valor todavía más asombroso que el de Eratóstenes! (Esta medida tendría una
importancia fundamental en la historia del mundo: Cristóbal Colón tuvo noticia,
a través del humanista Toscanelli, de esta medida. Pero pensó que se trataba
de millas cristianas, más cortas que las árabes. Por eso
calculó que la distancia de Europa a China era más corta navegando hacia el
Oeste que hacia el Este. Fue, dice Rey Pastor, «el más fecundo error de la
Historia». Este error le permitió descubrir un continente nuevo: América).
Los árabes fueron también muy hábiles trazando mapas, aunque lo hicieron más
tarde. No llegaron a dibujar líneas señalando paralelos y meridianos hasta después
de que lo hicieran los cristianos. Una particularidad curiosa de los mapas
árabes es que colocan el sur arriba y el norte abajo: están al revés que los
nuestros. Una vez que advertimos este criterio, no nos es difícil orientarnos
en ellos.
El más famoso médico de la edad de oro del califato fue Ibn Sina, o Avicena,
como en Occidente se le conoce (980-1037). Se le atribuyen curaciones
sorprendentes. Muy joven aún, atendió al emir de Bukhara, que padecía una
enfermedad que ningún médico supo diagnosticar. Avicena intuyó que padecía una
intoxicación por plomo debida a su costumbre de beber en una lujosa copa
coloreada por pigmentos metálicos. Acertó, y se hizo famoso. Más tarde curaría
con éxito a otros príncipes. Avicena conoció los legados de Hipócrates y
Galeno, y supo valerse también de sus experiencias, y de las de otros médicos
árabes. Escribió el Canon de la Medicina, un compendio que atiende cuestiones
de anatomía, cirugía, las enfermedades, sus síntomas y su tratamiento, y
termina con la farmacopea, de la que proporciona unas 760 recetas. Como
anatomista, sorprende que haya podido conocer tanto cuando entre los árabes
estaba prohibida la disección de cadáveres; intuye el papel de los órganos,
describe las válvulas del corazón, las venas y arterias, los músculos y los
nervios. El Canon de Avicena fue fundamental durante varios siglos en las
universidades europeas. Al Razes fue también un médico famoso.
Un papel fundamental de la ciencia árabe fue lo que tomó de otras culturas y lo
que transmitió más tarde a Occidente: esta última función, por supuesto, no fue
intencionada, pero sí efectiva. Queda dicho que la enorme extensión del imperio
árabe y su capacidad para absorber los legados de otros pueblos sirvió para
hacerles depositarios de herencias muy diversas. Así ocurre que se atribuyen a
los árabes inventos que no realizaron. La concepción del cero procedía de los
babilonios, y principalmente de los hindúes, pero fueron Al Jwarizmi y sus
compañeros quienes mejor redondearon la armazón posicional de cifras del
sistema decimal, y lo hicieron, además, con unos signos muy claros y fáciles de
trazar, similares a los que hoy empleamos. La brújula es un invento chino, que,
al parecer sirvió para orientarse a los viajeros; pero fueron los árabes los
que utilizaron este hallazgo para la navegación y ampliaron su uso por
procedimientos más prácticos; sin embargo, serían los europeos, en el siglo
XII, los que aprenderían a construir brújulas muy transportables y ligeras,
aptas para los navíos. Lo mismo puede decirse del papel, otro invento chino,
que los árabes adoptaron con éxito; de ellos lo tomarían los europeos. También
de origen chino es la pólvora: los orientales sabían hacer con ella algo
parecido a fuegos artificiales. Los árabes la utilizaron para luchar con los
cristianos; pero serían más tarde los europeos los que supieron construir armas
de fuego de todo tipo y con una eficacia mucho mayor. La ciencia árabe
cumpliría así un papel fundamental, quizá más que como creadora, como
sintetizadora de los conocimientos antiguos, y como transmisora al mundo de
Occidente de la posibilidad de una serie de invenciones que los propios árabes
no habían realizado, y de las que serían los europeos quienes se aprovechasen
más a fondo.
La cultura árabe, especialmente por lo que toca a la ciencia, vivió sus mejores
momentos entre los años 850 y 1050; luego, se paralizó o decayó. Quizá por la
división del califato en una serie de emiratos independientes y con frecuencia
enemigos unos de otros; quizá por un cambio de mentalidad, que perjudicó a una
de sus cualidades más destacadas, el afán del conocimiento científico.
Curiosamente, conforme comienza a decaer la ciencia árabe en Bagdad y otros
centros de Oriente medio, se consagra un nuevo foco en el más occidental de los
confines de aquella cultura, España. Los rivales de la dinastía abasí, los
Omeyas, crearon un emirato en Córdoba, en 756, con Abderrahman I. La grandeza
de los Omeyas llegó a su máximo con Abderrahman III (912-961), que se proclamó
califa, en un desafío al poder supremo de Bagdad. Córdoba era entonces una
ciudad grande, rica y culta. Abderrahman se hizo rodear de sabios, poetas y
músicos. Su sucesor, Alhakem II (961-976) erigió una gran biblioteca, que llegó
a tener unos 400.000 volúmenes, y una academia, en cierto modo contraparte de
la Casa de la Sabiduría bagdadí. En ella floreció Al Gazal, que fue, entre
otras cosas, un reputado astrónomo. A Córdoba llegaron copias de las obras de
los grandes sabios conocidos por los árabes, y de los propios sabios árabes, como
Al Jwarizmí o Avicena. La decadencia de Córdoba comenzó con el débil Hixem II
(976-1003), cuya minoría fue aprovechada por el ambicioso y guerrero Al Mansur
(Almanzor), que hizo quemar los libros de la biblioteca, y ejerció una
dictadura basada en la continua guerra con los cristianos. En 1031 se disolvió
el califato de Córdoba, sustituido por el mosaico de los reinos de taifas, pero
fue entonces justamente cuando alcanzó su máximo esplendor la ciencia
hispanoárabe.
Cordobés fue Walid ibn Rushd, Averroes, sin duda el más famoso y trascendente
sabio de Al-Andalus. Médico de profesión, al servicio de los más altos
príncipes, en Córdoba y Marrakesh, realizó una soberbia síntesis de la medicina
antigua y la de su tiempo. Sin embargo, su nombre va íntimamente unido al de la
historia de la filosofía, por cuanto fue el mejor intérprete de Aristóteles en
árabe, e introductor involuntario de la obra del filósofo en la Europa
medieval, un hecho que revestiría la mayor importancia. Sin embargo, la ciencia
de observación se desarrollaría especialmente en Toledo, cuyo monarca, Al
Mamón, sería protector de matemáticos y astrónomos. Ente ellos destaca de forma
singular Al Zarqali, Azarquiel, que, aunque nacido en Córdoba (1029), pasó la
mayor parte de su vida en Toledo. Azarquiel fue uno de los más grandes
astrónomos de la Edad Media, e hizo medidas muy precisas con enormes
astrolabios, con los que pudo elaborar un catálogo de posiciones de los astros
y unas tablas del movimiento de los planetas. Aunque siguió la concepción de
Ptolomeo, lo superó en un detalle que habría de ser histórico: intuyó que la
única forma de explicarse la trayectoria de los planetas interiores, Mercurio y
Venus, consiste en suponer que giran alrededor del sol: ¡de aquí a suponer que
giran todos no había más que un paso!, aunque ese paso no se daría hasta
Copérnico. También se dio cuenta de que la órbita de Mercurio es francamente
excéntrica: comenzaban a ponerse las bases de la concepción elíptica. Las
tablas de Azarquiel pasarían pronto a toda Europa y serían utilizadas hasta los
tiempos de Regiomontano. También construyó Azarquiel dos grandes clepsidras
(relojes de agua: en este caso, más bien, calendarios) a orillas del Tajo; los
estanques alimentados por ellas se llenaban por completo los días de luna llena
y se vaciaban en el momento de la luna nueva. Así podían seguir los toledanos
el calendario árabe, que, como se sabe, era lunar. Un sistema tan ingenioso
trató de ser copiado más tarde, pero nadie lo consiguió satisfactoriamente.
En el campo de la medicina destacaron Al Zarahmi, autor de una extensa
enciclopedia médica, y quizá sobre todo el sevillano Avenzoar (1091-1162), un
hombre que, contrariamente a las normas usuales entre los árabes, no tuvo
inconveniente en estudiar cadáveres humanos y en disecar animales para estudiar
su anatomía. Su Libro General de la Medicina trata lo mismo
del cuerpo humano que de sus enfermedades, sus síntomas y su tratamiento.
Proporciona también un buen número de recetas, por lo que es considerado
también como farmacéutico. En la época de los reinos de Taifas fue Toledo el
principal centro científico; pero no faltaron sabios en la misma Córdoba, en
Sevilla, donde Avenzoar no estaba solo, y en Zaragoza, donde destacó Avenpace
(1106-1138). Toda la ciencia árabe acabaría pasando a los reinos cristianos de
España, y de aquí a Europa occidental.
En 1085 el rey de Castilla Alfonso VI conquistó Toledo. Fue un hecho de gran
relevancia simbólica, porque Toledo había sido la capital del reino de los
godos, y se atribuía a su posesión una especie de derecho a adueñarse de toda
la Península. Azarquiel huyó a Sevilla, pero muchos eruditos, musulmanes y
judíos, quedaron en la ciudad. Fue una ocupación pacífica, pactada de antemano,
que permitió la convivencia de las tres culturas, una convivencia de la que
iban a derivarse muy positivas consecuencias en el orden cultural y científico.
La llamada «escuela de traductores de Toledo» no fue en sentido estricto una
escuela, sino una serie de personas que colaboraron, unas veces en equipo, otras
individualmente, en la ingente tarea de traducir del árabe al latín o al
romance las obras que se conservaban en la biblioteca de Toledo, o en
manuscritos particulares. Su labor es perfectamente comparable a las
traducciones que trescientos años antes se habían hecho en la Casa de
la Sabiduría de Bagdad, del griego al árabe. Esta nueva versión sería
básica para el desarrollo de la cultura de Occidente.
Hubo dos periodos distintos, aunque nunca dejaron de hacerse traducciones. El
primero estuvo marcado por la iniciativa del arzobispo Raimundo, interesado por
la cultura antigua, que hizo traducir las obras de Aristóteles y los
comentarios sobre el mismo por Avicena y Al Farabí. Pero también se tradujeron
manuscritos científicos, referentes a Ptolomeo, Al Hazari y Al Jwarizmi. La
segunda etapa corresponde al reinado de Alfonso X el Sabio, tan interesado por
las ciencias como por la política. Aquí sí que puede hablarse ya, en muchos
casos, de un verdadero equipo, controlado por el monarca, en que colaboraron
eruditos cristianos, árabes y judíos. El papel de los judíos, que conocían el
árabe y el «ladino», latino o romance, fue muy importante en su labor
intermediaria. Entre los principales traductores figuraron Domingo Gundisalvo,
Abraham Alfaqui, Gerardo de Cremona, Juan Ben David o Juan de Sevilla,
judeoconverso. También colaboraron, atraídos por la novedad de las
aportaciones, sabios franceses, ingleses y alemanes. Si en el siglo XII se
habían hecho traducciones, nada fáciles, del árabe al latín, bajo Alfonso X se
realizaron con más frecuencia del árabe al romance. No en balde el monarca
consideraba al castellano como la lengua unificadora de España. Más tarde, y
sobre todo con vistas a su difusión por Europa, muchas de estas traducciones
fueron vertidas a su vez al latín. Y las copias se hicieron en su mayor parte
en papel. Ya los cristianos de la Península conocían desde siglos antes el
papel, que los demás europeos llamaban «pergamino de trapo»; luego su uso se
propagó a todo el continente.
Alfonso X fue una personalidad de extraordinario interés. Su labor legisladora
(Las Partidas), literaria (Las Cantigas), histórica (La «Grande e General
Estoria») se vio completada por su tarea científica, especialmente como
astrónomo. No solo hizo traducir las obras de los antiguos y de los árabes,
sino que hizo construir un observatorio en el castillo de San Servando de
Toledo, encargando directamente trabajos a sus colaboradores, especialmente su
astrónomo principal, Isaac ben Cid. Alfonso pudo observar personalmente, y
sabemos que era capaz de manejar los delicados instrumentos de medida de aquel
observatorio. Fruto de sus iniciativas fueron el Libro del Saber de
Astronomía, que reúne la obra científica de todos los autores conocidos, e
incluye un catálogo de estrellas y describe numerosos instrumentos de
observación y medida; así como las famosas Tablas alfonsíes, que
predicen cuidadosamente los movimientos del sol y la luna, sus ortos y ocasos,
y las posiciones de los planetas en el cielo. Alfonso X toma como base la
ciudad de Toledo, y como punto de partida cronológico el año 1252. Estas tablas
fueron utilizadas por sabios y navegantes, y de ellas se valdría Copérnico.
También hizo componer Alfonso X el lapidario, un libro en que
se recogen datos sobre 360 piedras distintas.
No menos importantes fueron las traducciones de obras médicas, tanto las de
Hipócrates y Galeno, como las de los árabes (Al Razes, Avicena, Avenzoar, Al
Zarahmí). En general, el trasvase de la ciencia recopilada y también la
desarrollada por los árabes a Europa occidental a través de España fue
absolutamente decisiva en la historia. Así, Toledo, más tarde Sevilla, serían
la base de gran parte de la ciencia bajomedieval. Pero tampoco hemos de olvidar
a Sicilia, que fue un enclave árabe hasta el siglo XI, de donde pasaron
escritos o conocimientos científicos a Italia. Especial relieve tiene la figura
de Leonardo de Pisa, conocido también como Fibonacci (1170-1240). No solo tuvo
contacto con las tradiciones dejadas en Sicilia, sino que, como diplomático,
viajó por Egipto, Siria y Bizancio, recogiendo información matemática, que
luego sistematizó en tres grandes libros. Líber abad, o libro
del ábaco, es un tratado de aritmética, en que ya emplea las cifras árabes, o
más exactamente, «las figuras de los indios», un extremo en el que acierta, y
enseña cálculos con números enteros y fracciones, proporcionando las nociones y
reglas para sumar, restar, multiplicar y dividir. Luego se introduce en la
aritmética comercial. Finalmente, enseña a extraer raíces cuadradas y cúbicas.
Y se mete con los principios del álgebra: a este respecto muestra muchos
ejemplos y plantea y resuelve problemas para una mayor comprensión. Es una obra
sumamente didáctica, y por eso mismo fue muy importante para los mercaderes de
su tiempo. La Practica Geometriae recoge los «Elementos» de
Euclides, pero los perfecciona con aportaciones propias. El Líber
Quadratorum incluye ya un tratado de álgebra en que enseña a resolver
ecuaciones de primero y segundo grado, así como diversos problemas. Tras él, la
ciencia matemática ya no tenía nada que aprender de los sabios antiguos o de
los árabes.
§. La Baja Edad Media
Mientras florecía, en una explosión inesperada, la cultura árabe, Europa vivía
recluida en sí misma, sin apenas contacto con el mundo exterior, en sus
castillos, en sus monasterios, en sus pequeñas ciudades amuralladas, y en sus
extensos agros, cuyo cultivo era el principal sustento de una sociedad por lo
general sencilla y de escasa cultura. Los conocimientos se limitaban a los monasterios,
y, en grado menor, a los castillos o los palacios de una clase dirigente muy
fragmentada en distintos territorios de señorío. No parece disparatado imaginar
para la mayor parte de la sociedad altomedieval un mundo pequeño, familiar,
vinculado casi siempre al horizonte visible de cada día. Eso sí, aquella
sociedad encontraba su denominador común en una concepción cristiana de la
vida.
Aquel panorama comenzó a cambiar lentamente, a partir del año 1000, y sobre
todo a partir del 1100, es decir, del siglo XII. Por un lado, creció la
población, como no lo había hecho en varias centurias. Es un fenómeno
sorprendente cuyas causas habrá que averiguar, y que puede tener relación con
la mejora de los métodos de cultivo. Por otro, se consagró la división del
trabajo, de suerte que el que fabricaba muebles no era el mismo que dominaba la
técnica de los telares o los tornos de alfarero. En otras palabras, el trabajo
se especializó y aparecieron los «artífices», y con ellos los distintos
oficios. La tecnología se desarrolló notablemente. Y así se multiplicó el
intercambio de productos muy diversos y de buena calidad. Este intercambio, que
ya no solo el trabajo, engendraba riqueza en los pequeños mercados locales,
luego en las grandes ferias periódicas, que se celebraban en ciudades
determinadas en fechas determinadas. Los mercaderes, en cuanto intermediarios y
transportistas, se hicieron tan ricos o más que los propios productores. Las
ciudades aumentaron su tamaño y población, con su monumental catedral gótica,
su palacio comunal, su mercado, sus gremios de artífices y mercaderes, y el
flujo de bienes hacía posible que estas ciudades estuvieran provistas no solo
de los productos de su entorno, sino de otros procedentes de lejanas tierras.
Comenzaba a consagrarse una cultura de ciudad, esto es, una civilización. Con
la diferencia, tal vez interesante, de que estas ciudades no son «enormes»,
como las del Oriente, sino de una población media, variada, pero familiar.
París, Londres, Roma, Aquisgrán, Brujas, no suelen pasar de los 50.000
habitantes. Todos se conocen, aunque sus cometidos son muy variados. Un mundo
no del todo feliz, porque en esta vida no faltan las penas ni las injusticias,
pero en general floreciente, variado y encantador.
El desarrollo del comercio obligó a hacer cuentas y cuadrar cantidades.
Apareció por entonces la contabilidad por partida doble, y se consagró la letra
de cambio, que hacía innecesario el transporte real del dinero. Con frecuencia
se emplea la regla de tres. Francis Peller escribe en el siglo XIV: «si cuatro
cosas iguales valen 9, ¿cuanto valdrán cinco? Multiplica 5 por 9: resulta 45.
Ahora divide 45 por cuatro, y encontrarás 11 y un cuarto». Cálculos así, aunque
resultaran, como en este caso, fracciones, eran corrientes entre los comerciantes
medievales. Que por la cuenta que tenían en ello, procuraban afinar sus
operaciones.
Con el tráfico continuo, las comunicaciones entre ciudades y países se hicieron
mucho más fluidas, frecuentes y rápidas, así como las vías, tanto terrestres
como fluviales o marítimas. Los conocimientos y los logros se comunicaban; no
solo se viajaba por intereses, sino que se hicieron más frecuentes las
peregrinaciones, a Roma o a Santiago, por ejemplo, así como la predicación y la
difusión de las órdenes religiosas, que ahora ya no solo se dedican, como
antes, a la vida monástica, o a lo sumo a la atención de hospitales, sino que
se establecen en las ciudades, como los franciscanos o los dominicos; salen a
la calle, buscan a la gente, viajan para predicar o enseñar. O la expansión del
arte, que ya no conoce fronteras, y difunde las nuevas escuelas y los nuevos
estilos por distintos países. La portentosa arquitectura gótica, en que
predominan los vanos sobre los macizos, en que los empujes se contrarrestan por
contrafuertes, arbotantes y pilastras, son una muestra de una técnica de
equilibrios como ninguna cultura había alcanzado hasta entonces en el mundo.
Viaja también la propia cultura, con la aparición de las universidades, a las
que van a estudiar gentes venidas de fuera, o los propios profesores que,
expresándose en ese idioma de la cultura europea que es el latín, van de un
país a otro para dictar lecciones en los distintos centros culturales de
Occidente. Un hecho más: el aumento de las ciudades y la prosperidad general
origina el crecimiento de una clase media, que ya no siempre necesita vivir
exclusivamente de su trabajo, y siente la necesidad de aumentar sus
conocimientos. Se desarrollan las «artes liberales», las típicas del trivium y
el quatrivium de que ya hemos hablado, y con ellas la
posibilidad de «trabajar» en oficios que ya no suponen una labor puramente
manual o un simple ejercicio de la fuerza física: leer, escribir, estudiar,
enseñar, investigar, interpretar las leyes o defender pleitos, curar enfermedades.
Se consagran así, más que antes, las profesiones, y cada una de ellas requiere
el dominio de una ciencia determinada.
§. Las Universidades
El desarrollo de la ciencia bajomedieval, o lo que C. H. Haskins llama «el
Renacimiento del siglo XIII», se basa en tres pilares: primero, la transmisión,
a través de las traducciones del árabe, de todo el legado de la ciencia
antigua; segundo, la consagración de una clase media laica, no eclesiástica,
deseosa de saber (o deseosa de que sus hijos estudien para adquirir una
profesión liberal); tercero, la aparición de las universidades. La universidad
es un «invento» especial de la cultura europea, que puede tener una cierta
relación con las escuelas del saber propias de otras culturas y otras edades;
pero que se realza como una institución independiente, dotada de una identidad
propia, muy peculiar, de autonomía, con reglamentos que la hacen independiente
de cualquier otra entidad, y dotada de una asombrosa capacidad de perduración,
como que se ha mantenido en sus líneas generales desde el siglo XII hasta, por
lo menos, el XXI. La gestación de las universidades se fue operando poco a
poco, pues que derivan de las antiguas escuelas de artes liberales,
patrocinadas por las órdenes religiosas, luego por los obispos o cabildos
catedrales. Hubo escuelas catedrales desde el siglo XI que enseñaban las «artes
liberales» en sus dos conjuntos de saberes: las «letras» o trivium y
las «ciencias» o quatrivium. La idea de artes liberales tiene
que ver con el concepto de los «trabajos liberales», aquellos que no se
realizan mediante el esfuerzo físico. Y están abiertas a todos los que
demuestren preparación suficiente para estudiarlas, con independencia de su
condición.
Algunas de estas escuelas destacaron extraordinariamente, antes de convertirse
en universidades. Por ejemplo, la de Chartres, en Francia, que para Jaime
Escobar «simboliza históricamente los comienzos de nuestra era científica y
tecnológica». En Chartres se estudiaban con preferencia las ciencias naturales,
la matemática y la astronomía, y su carácter independiente de la teología o la
filosofía marca un hito en las orientaciones del saber sistematizado. Sin
embargo, las escuelas más famosas fueron por un tiempo las de París, sobre todo
las de la catedral de Nôtre Dame, también las de Santa Genoveva y San Víctor.
Sabemos que, ya desde antes de constituirse en Universidad, acudían jóvenes de
las más distintas procedencias a estudiar allí. Llegó un momento en que las
escuelas se independizaron de las autoridades catedralicias, para adquirir un
carácter autónomo, una especie de gremio, o como dice muy gráficamente Alfonso
X, «un ayuntamiento de maestros e escolares», con jurisdicción propia. Así,
comenzaron a llamarse «estudios generales» o «universidades», entendida esta última
palabra como «universalidad de saberes», entendamos un centro donde se enseñan
y aprenden disciplinas muy distintas. Esta capacidad omnicomprensiva de la
universidad fue su cualidad más excelsa desde los primeros momentos.
Se puede hablar de una primera universidad en Oxford a fines del siglo XII, y
la de Cambridge se considera como tal en 1209. Los estudiantes de Bolonia ya
estaban agremiados en 1150, aunque la institución no fue reconocida como
universidad hasta 1230. La de París fue admitida como centro independiente en
1229. Uno de los redactores de sus estatutos fue Roberto Sorbon, de donde viene
el nombre de Sorbona que sigue conservando. Enseguida se fundó la universidad
de Nápoles. En Palencia existía un estudio general desde 1185. Sin embargo, el
primer centro en España que recibió el título de universidad fue el de
Salamanca, hacia 1230. Sus estatutos fueron confirmados por Alfonso X en 1254.
Pronto surgió la universidad de Colonia, más tarde la de Heildelberg. El
Estudio General de Cracovia seguía conservando este nombre cuando en él enseñó
Copérnico. En total, las universidades creadas en el siglo XIII fueron catorce.
Si tenemos en cuenta que a comienzos del Renacimiento existían veinte, habremos
de reconocer la importancia que tuvo la época fundacional.
Por lo general, se desarrollaban dos ciclos, un primario, en que se aprendían
el trivium y el quatrivium, y otro de especialización, en que se buscaba la
capacidad para ejercer una profesión, mediante el consiguiente «título». Para
ello se crearon «facultades» especializadas dentro de cada universidad. Aparte
de filosofía y teología, había siempre facultades de derecho y medicina, que
eran las dos profesiones más demandadas. En Montpellier se dio una importancia
especial a las ciencias naturales, y en Bolonia, aparte del derecho, una
carrera que sigue teniendo allí un prestigio especial, se desarrollaron
ampliamente los estudios de medicina, matemáticas y astronomía. Las
universidades inglesas tuvieron también un amplio desarrollo en el campo de las
ciencias de la naturaleza.
Una cualidad también «universal» de las universidades fue la movilidad de sus
profesores más ilustres. El empleo de una lengua culta común, el latín, sirvió
para que cada centro invitara a impartir cursos a maestros conocidos por su
categoría. Roger Bacon pasó de Oxford a París. Pedro de Irlanda fue a explicar
a la universidad de Nápoles.
Alberto Magno enseñó en Friburgo, Ratisbona, Colonia, París, Padua. Tomás de
Aquino fue profesor de París, Colonia, Bolonia, Roma, Nápoles. También los
estudiantes viajaban, cuando podían, a las universidades más famosas. La
universidad contribuyó así, además de a difundir los conocimientos más amplios
y variados, a construir la cultura de Europa.
En la Alta Edad Media apenas se conocía otra filosofía que la platónica. Ahora,
la traducción de los manuscritos árabes que habían recogido las doctrinas de
Aristóteles (comentadas y enriquecidas por Averroes y otros) confirió a la
cultura bajomedieval un sentido de estudio organizado, razonado y riguroso. Las
universidades prestaron una dedicación especial a la filosofía aristotélica, de
donde derivó la escolástica, que redujo a formas muy estructuradas santo Tomás
de Aquino, sin duda el más célebre y el más claro, al mismo tiempo que el más
riguroso y sistemático de aquellos profesores universitarios. Pero no todo
quedó en teología o filosofía. La matemática, la física, la química, la
astronomía, las ciencias naturales, fueron cultivadas también por muchos de
aquellos sabios. No se desarrollaron tanto como la teología o la filosofía
lógica, pero no dejaron de progresar, como enseguida veremos. Tratar de ver en
la universidad medieval un centro de estudios puramente teóricos o
especulativos es un error, no por difundido menos desconocedor de la realidad.
L. Adáo da Fonseca ha destacado la importancia de la dialéctica como actitud
propia de los escolásticos, porque plantea problemas, «quaestiones», a que es
necesario responder. Y exige un método, es decir «la construcción de un sistema
coherente». Con ello se colocan las bases de lo que será la ciencia occidental.
La razón y el orden: he aquí dos normas supremas. «Natura est ratio», la
naturaleza tiene un sentido, puede explicarse razonablemente, y al mismo tiempo
mantiene un orden susceptible de ser reducido a esquema: «omne res est
ordinatum». Alejandro de Halles, profesor de la universidad de París,
observaba: «el mismo orden es bello». He ahí una de las actitudes mentales más
clásicas del pensamiento de Occidente: la tendencia al orden, a la regularidad
de las cosas que pueden sistematizarse, la cognoscibilidad de la naturaleza,
que está llena de sentido, y al mismo tiempo es maravillosamente hermosa.
«Ahora, precisa Léopold Génicot, el hombre quiere comprender...; procura
precisar conceptos, conciliar contradicciones, descubrir causas, remontarse a
los principios...». Un nuevo camino, método significa camino,
estaba abierto.
§. Algunos nombres y teorías
Alberto de Bollstadt, más conocido como san Alberto Magno (1200-1280), nació en
el sur de Alemania y estudió en la universidad de Padua, donde se hizo
dominico. Estuvo en seis universidades distintas de diversos países de Europa,
sobre todo en las de París y Colonia (dos veces). Viajó varios miles de
kilómetros, y siempre se impuso hacerlo a pie. Fue tal su fama, que en París se
vio obligado a explicar al aire libre (en la plaza Maubert (de «Magnus
Albertus»). Uno de sus discípulos fue Tomás de Aquino. En Colonia fue rector y
a lo largo de su vida ocupó diversos cargos y fue asesor de un concilio, pese a
lo cual mantuvo sus estudios, que le convirtieron en uno de los sabios más
polifacéticos de todos los tiempos: aparte de sus trabajos sobre teología y
filosofía, escribió tratados como «los fenómenos físicos», «el cielo y la
tierra», «sobre el aire y los meteoros», «sobre la fuerza del aire», «sobre el
aire y la respiración», «sobre los lugares de la naturaleza», «de los
animales», «de los vegetales», «de la alimentación», «de la química». Por su
capacidad enciclopédica fue llamado Doctor Universalis. En este
sentido, nadie más «universitario» que él. De sus estudios se dijo que «no tocó
tema que no enriqueciera», porque nunca se limitó a estudiar a otros, sino que
quiso mejorar sus conocimientos, y fue un investigador nato. Aprendió de
Aristóteles y Averroes, pero también discrepó de ellos, y denunció sus errores.
Su contemporáneo Ulrich Engelbert le consideró «sabio en todas las ciencias» y
«asombro de nuestro tiempo». Fue siempre sencillo, y de vida ejemplar.
Una actitud sorprendentemente moderna para su tiempo es la que se propone
«investigar las causas que operan en la naturaleza». Y sobre todo esta (tomada
de su tratado sobre las plantas): «el experimento es la única forma de
certificar los conocimientos». He aquí, en pleno siglo XIII, un científico experimental.
En De coelo et mundo demuestra con más claridad que ningún
otro que la Tierra es esférica. Desde entonces, ninguna persona docta, contra
lo que tantas veces se ha pretendido, se atrevió a discutir esta tesis. La
concepción de una Tierra plana puede corresponder a personas ignorantes, o más
bien deducirse falsamente de los mapamundis que entonces se trazaron, pero la
esfericidad del planeta fue admitida desde el siglo XIII por todos los
eruditos. Alberto Magno es al mismo tiempo geógrafo, y autor de notables mapas.
Una afición suya: representar las cadenas de montañas. Y el hecho le llevó a
estudiar con seriedad los climas.
La temperatura varía en función de la latitud geográfica: cuanto más se avanza
hacia el polo es más fría, y cuanto más hacia el ecuador, más cálida; pero
también varía en función de la altitud: las tierras elevadas son más frías que
las bajas. Como botánico, afirma que no basta observar las plantas: es preciso
seguir todo el proceso de su crecimiento, y con ese criterio las describe. Y
respecto a De animalia, observa H. J. Stadler: «Si hubiera
continuado el estudio de las Ciencias de la Naturaleza por el camino emprendido
por San Alberto, se hubiera ahorrado un espacio de tres siglos». Su curiosidad
no admite límites. Diseccionó el ojo del topo para tratar de comprender la
visión de este animal que vive en la oscuridad; comparó los huevos de los
pájaros y de los peces para establecer semejanzas y diferencias. Alberto Magno
se dedicó también a la química, y realizó experiencias en un laboratorio
propio. Se sabe que descubrió el arsénico, cuyas propiedades describe. Se dio
cuenta de que el cinabrio, un mineral rojo que suele encontrarse en las minas
argentíferas, es una combinación de azufre y mercurio. También describe la
preparación del ácido nítrico. Entre las gentes se difundió la especie de que
poseía poderes mágicos: tal vez por su polifacética sabiduría, tal vez por sus
experimentos. Pero fue todo lo contrario de un mago: condenaba la magia y fue
tal vez el primero que negó la posibilidad de obtener la piedra filosofal, que
no es más que un mito absurdo: «ninguna operación química será capaz de
producir oro».
- John Hollywood, conocido como Juan de Sacrobosco (Hollywood es «bosque
sagrado») escribió hacia 1250 el tratado De Sphera. Considera
también, como Alberto Magno, una Tierra esférica, correspondiente a la esfera
de los cielos. Describe ambas esferas, las constelaciones, y proporciona
criterios para medir la longitud y la latitud, tanto en la esfera celeste como
en la terrestre; mide la altura del sol cada mediodía, y sugiere que la latitud
puede determinarse por esta altura. Sus ideas trascendieron especialmente entre
los navegantes, y llegaron a tener gran desarrollo en el Renacimiento.
Sacrobosco se equivoca al tratar, sin fundamento científico, de fijar la
proporción de tierras y mares sobre el globo. Fue justamente este punto el que
más se discutió en la época de los grandes descubrimientos geográficos.
- Sin duda el científico por excelencia de la baja Edad Media fue Roger Bacon
(1214-1294). Nacido en Inglaterra, estudió desde muy joven aritmética,
geometría, astronomía y música (es decir el Quatrivium). Con
este bagaje, fue admitido y pronto reconocido en la universidad de París, donde
explicó matemáticas entre 1241 y 1247. En 1247 regresó a Inglaterra y se
convirtió en el más famoso profesor de Oxford, donde siguió explicando
preferentemente matemáticas. Para Bacon, «las matemáticas son la puerta y la
llave de las ciencias». Luego se dedicó a estudiar temas de física,
especialmente en el campo de la óptica: experimentó con lentes y consiguió
aumentar el tamaño de las imágenes; y aunque aspiraba a observar el cielo con
alguna combinación de sus cristales, es francamente exagerada la afirmación de
que inventó el telescopio. También trabajó con espejos y estudió las imágenes
que se pueden obtener con ellos. Comprendió los fenómenos de la reflexión y la
refracción, adelantándose en varios siglos a los estudiosos en esta materia. Y
se dio cuenta de que el fenómeno del arco iris no es más que el resultado de la
refracción de los rayos del sol en las nubes (diríamos hoy: en las gotitas de
agua de las nubes). También se interesó por fenómenos como la fuerza de la
gravedad o los efectos de la perspectiva: un tema que interesaría especialmente
a los pintores del siglo XV. Bacon no rechaza el saber de los antiguos; pero
tampoco lo acepta sin más como pretendía el famoso «argumento de autoridad»:
«no se deben condenar las obras de Aristóteles o de Averroes a causa de los
errores que haya en ellas; porque la imperfección es inseparable de las
ciencias; así nosotros los modernos aprobamos esos libros, pero rechazamos los
errores que descubrimos en ellos».
En 1266 escribió a su protector el papa Clemente IV proponiéndole la
realización de una enciclopedia de todas las ciencias. El papa le alentó a
aquella empresa; pero la muerte del pontífice en 1268 dejó a Bacon sin
patrocinador, y hasta con una serie de enemigos. Con todo, conservamos parte de
esos trabajos en los libros titulados Opus magnum, Opus minus y Opus
tertium, que dan cuenta de la diversidad y la originalidad de sus
saberes. Se considera a Roger Bacon (sin entera justicia, porque habría que
recordar también a Alberto Magno) el predecesor del método experimental en las
ciencias. Tras su muerte, la universidad de Oxford mantuvo una curiosa
tradición en el estudio de la óptica, de la gravedad y de la aceleración de los
movimientos. Un especialista en el tema, de cuya vida sabemos muy poco,
Jordanus Nemorarius (fines del siglo XIII, principios del XIV) trató el tema del
movimiento sobre un plano inclinado, y cómo la fuerza de la gravedad, aunque
ejerce un empuje hacia abajo, puede descomponerse hasta provocar un movimiento
de deslizamiento sobre ese plano: fue el primero que descompuso fuerzas en
vectores, un descubrimiento que se atribuye a Galileo, tres siglos más tarde.
Los manuscritos primitivos de Jordanus no se conservan, pero las ideas que se
derivan de sus textos resultan en verdad sorprendentes.
- Sin embargo, fue un curioso profesor francés, Jean Buridan (1300-1358), que
llegó a rector de la Sorbona, el que mejor trabajó sobre los cuerpos en
movimiento. Aristóteles concebía que para que exista el movimiento, tiene que
existir una fuerza. También concibe la resistencia: si la fuerza es inferior a
la resistencia, el cuerpo no se mueve. Hasta ahí, Aristóteles va bien. Pero
pensaba que esta fuerza tiene que actuar de manera continua: así en el caso de
un caballo que tira de un carro. Si el caballo deja de tirar, el carro se para.
Sin embargo, hay formas de movimiento en que no parece que se esté actuando
sobre el móvil: por ejemplo, cuando lanzamos una piedra. Aristóteles, aferrado
a su teoría, pretende que la piedra es empujada por el aire. Buridan rechaza
indignado esta suposición: al contrario, el aire la frena. ¿Cómo es entonces
que continúa moviéndose? Aquí el profesor francés intuye un concepto nuevo:
el Ímpetus. La piedra conserva el impulso inicial que le fue
proporcionado, y sigue moviéndose. Si acaba cayendo, ello de debe a dos
circunstancias: a) el aire la frena; b) actúa sobre ella la fuerza de la
gravedad, el peso, que tiende a hacerla caer. Suponiendo un cuerpo al que hemos
comunicado un ímpetus, y no estuviera perturbado por la
fricción del aire ni por la fuerza de la gravedad, seguiría moviéndose
indefinidamente. Así intuye genialmente Buridan el concepto de inercia, no
formulado hasta los tiempos de Newton.
Más todavía: si esa piedra, no perturbada por ninguna otra fuerza, estuviera
siempre impulsada por un empuje continuo, no solo mantendría
su movimiento, sino que lo aceleraría. Buridan acaba de
descubrir uno de los elementos fundamentales de la dinámica. Y para ello
recuerda la fuerza de la gravedad: el peso está actuando continuamente sobre un
cuerpo que cae, y por eso el movimiento de caída de ese cuerpo es uniformemente
acelerado. Es una pena que los descubrimientos, incipientes, pero válidos, de
los físicos bajomedievales, no hayan tenido continuidad, en parte ello se debe
a la escasa difusión de sus escritos, en una época en que aún no se había inventado
la imprenta, y se haya perdido tanto tiempo hasta la consagración de los
principios fundamentales de la física.
- Citemos por último a Nicolás de Oresme (1320-1382), un matemático que trabajó
sobre potencias, introduciendo exponentes fraccionarios y operando con ellos;
se valió de signos que constituyen un precedente de los logaritmos. Si se
adelantó hasta cierto punto a Neper, también se adelantó a Descartes cuando
trazó sistemas de coordenadas, aunque de forma muy sencilla. En el campo de la
física destacó, de acuerdo con Buridan, en la explicación del movimiento
acelerado y teorizó varios puntos de la cinemática. En 1377 escribió Le
livre du Ciel et du Monde, ya en lengua romance, que le convierte hasta
cierto punto en predecesor de Copérnico: encuentra que es mucho más fácil
explicar los movimientos de los astros suponiendo que es la Tierra la que gira
sobre su eje que admitiendo los complicados mecanismos teorizados de Ptolomeo.
¡Hasta trató de medir la velocidad de la luz! También escribió tratados de
economía, explicando el porqué del empleo de ese bien multilateral de
intercambio que es la moneda, y el mecanismo de la inflación.
En suma, y sin pretender llegar más lejos en este punto, parece claro que la
ciencia bajomedieval superó con claridad el nivel de cualquiera de las
precedentes en la historia. Curiosamente, casi nadie lo sabe.
§. La medicina
Desde la alta Edad Media se dispensó atención médica en los monasterios, donde
por lo general se cuidaba a los enfermos por caridad, o por conciencia de un
deber cristiano. A este respecto, ha comentado Laín Entralgo que el consuelo a
los enfermos, menos natural en otras culturas, constituyó una suerte de psicoterapia
cristiana, que no dejó de surtir efectos en el estado anímico del
paciente, y posiblemente también en su mejor disposición para la curación. En
la baja Edad Media trascienden las enseñanzas de Hipócrates, Dioscórides,
Galeno, Avicena, y se establecen no ya centros conventuales, sino «hospitales»
en el sentido amplio de esta palabra. Los hospitales estaban destinados en
principio al cuidado de los caminantes, con frecuencia agotados o heridos, pero
también se fueron consagrando como centros de atención médica o quirúrgica. Al
mismo tiempo, en las universidades aparecían facultades de medicina, en donde
se enseñaba y se practicaba, hasta el momento de otorgar títulos a los
estudiantes capacitados.
Destacaron algunas escuelas en particular, como la de Chartres, famosa ya desde
el siglo X, y cuyo prestigio se mantuvo por lo menos hasta el XII; en ella
destacaron Fulberto de Chartres y su discípulo Hildegario. En el siglo XIII se
cuenta entre las más notables la escuela de Montpellier, caracterizada por sus
éxitos en el campo quirúrgico. Henri de Mondeville (1260-1320) fue profesor de
anatomía en Montpellier y cirujano del rey de Francia, Felipe el Hermoso.
Discípulo de Mondeville fue Guy de Chauliac, que al mismo tiempo que practicaba
la cirugía, fue también un experto en ortopedia. En la escuela de Montpellier
destacó extraordinariamente el valenciano Arnau de Vilanova (1234-1311), que no
solo curaba enfermedades, sino que también las prevenía: para él una vida sana
y la limpieza corporal son esenciales para mantener la salud. Vilanova fue un
místico un tanto extraño y visionario, cuya vida experimentó inesperados
vaivenes, aunque terminó como médico del papa. También buenos cirujanos fueron
los miembros de la escuela de Bolonia: allí se aprendió por experiencia que el
pus no es una secreción liberadora de malos humores, sino una señal de infección
que es preciso evitar: para ello los boloñeses fueron los primeros en lavar
repetidamente las heridas, y mantenerlas limpias, aunque sangrasen; para evitar
esto último inventaron la sutura o cosido. En cuestión de fracturas, fue famoso
Gianfranco de Milán, que ideó el entablillamiento para mantener la inmovilidad
del hueso roto.
La escuela de Salerno fue famosa durante siglos. En ella se exigía una buena
preparación, se hacían prácticas y exámenes y no se otorgaba el título hasta
haber superado difíciles pruebas. Fue tal vez la primera escuela de medicina en
que se admitieron mujeres. Se ha dicho que daba preferencia a los hechos
observados sobre la teoría, hasta el punto de que algunos la consideran la
primera escuela de medicina experimental: por supuesto, dentro de límites muy
modestos. Allí se empleaban preparados de mercurio para las afecciones de la
piel, así como algas marinas. En general, y como ocurrió desde los tiempos de
los egipcios o de Hipócrates, en las distintas escuelas se empleaban fórmulas
magistrales más o menos subjetivas, algunas de ellas absolutamente inadecuadas,
aunque la experiencia pudo aconsejar sobre la utilidad de cada una en distintas
afecciones. En Salerno destacó Ruggiero Frugardi, experto en curar heridas. La
medicina medieval, como la antigua o la moderna hasta el mismo siglo XVIII,
obró más por principios consagrados o pequeñas experiencias que por un método
rigurosamente científico; pero en medio de todo supuso un avance respecto de
épocas anteriores.
Un hecho decisivo en la historia el mundo fue el desarrollo de las técnicas de
navegación en la baja Edad Media. Ya nos hemos referido en su lugar al invento
de la quilla y el timón. La quilla apareció en fechas tempranas, lo más tarde
en el siglo X, y tuvo un papel fundamental en las navegaciones de los vikingos
por las costas del Atlántico y luego en sus audaces expediciones, probablemente
hasta tierras americanas. El timón de codaste es algo posterior, y sustituye al
antiguo timón empleado ya por los fenicios, en forma de un remo largo. El
codaste es una sólida viga vertical solidaria a la popa del navío, y en él se
sujetaba con bisagras un timón cuya caña se podía manejar cómodamente desde
popa. La combinación quilla-timón dio unas posibilidades a los navíos de poder
maniobrar y ceñir contra viento, navegando en cualquier dirección (para avanzar
contra viento era necesario ceñir en zigzag: ¡se tardaba más, pero era
posible!).
La técnica de navegación avanzó sin cesar a lo largo de la Edad Media. Mientras
el centro del tráfico fue el Mediterráneo, los barcos eran relativamente
ligeros y de no alto bordo: un mar con abundantes islas y costas relativamente
cercanas permitía por lo general encontrar abrigo frente a un temporal. Una
vieja tradición fenicia y griega permitió combinar los remos con las velas. Y
fueron los mediterráneos, paradójicamente, los primeros en lanzarse a la
exploración del Atlántico (si exceptuamos las hazañas de los normando-vikingos
alrededor del año 1000). Las aventuras atlánticas de los italianos no son bien
conocidas, pero se sabe que el genovés Lancellotto Mallocello descubrió las
islas Canarias en 1312 (Lanzarote lleva todavía su nombre); poco después los
hermanos Vivaldi exploraron por la costa africana todo el territorio que hoy
corresponde a Marruecos. En 1341 fueron descubiertas las islas Madeira; y hacia
1346 el catalán Jaume Ferrer llegó a las costas del Sáhara Occidental, hasta el
lugar que llamó Río de Oro. Estas aventuras cesaron cuando sobrevino la
catástrofe de la Peste Negra (1348-50), que diezmó los pueblos mediterráneos.
Por el contrario, los países del oeste de la Península Ibérica (portugueses y
castellanos), menos castigados, se hicieron grandes expertos en la navegación
de altura por el Océano, utilizando la combinación quilla-timón de codaste, así
como las velas triangulares, más adecuadas para ceñir contra el viento. Un
descubrimiento decisivo fue el de la carabela, un barco relativamente ligero,
ágil, muy capaz de navegar en mala mar y con todos los vientos posibles. No
puede transportar grandes cargas, pero es ideal para descubrir. La carabela,
muy probablemente, nació en Portugal, pero muy pronto la imitaron los españoles
de la zona del golfo de Cádiz. A ellos iban a estar reservados los más
sensacionales descubrimientos de la Baja Edad Media e inicios de la era
renacentista. Estos descubrimientos iban a cambiar el mapa del mundo y la
propia historia del mundo.
§. La brújula
Como instrumento fundamental de orientación se consagró, a fines del siglo XII
o comienzos del XIII la brújula o «aguja». Como es sabido, las propiedades de
la piedra magnética fueron descubiertas por los chinos, que se valieron de este
mineral en los viajes de personajes importantes, como los embajadores. Al
parecer, hacían flotar una barra magnética sobre un círculo de madera que
colocaban en un recipiente con agua. De los chinos tomaron el instrumento los
árabes, que lo utilizaron en sus viajes y navegaciones. De los árabes pasó a
Europa, comenzando por los países mediterráneos. Se atribuye su introducción a
Flavio Gioja, de Amalfi. La aguja aparece ya mencionada por A. Neckam (1195),
Guyot de Provins (1203 y 1205) y Jacques de Vitry (1218). No sabemos, sin
embargo, si la palabra significó en principio una piedra imán aguzada o una
aguja de hierro imantada por la piedra, que fue su forma definitiva. Ya Alfonso
X dice que «la aguja es la medianera entre la estrella y la piedra», y Raimundo
Lulio (1235-1314) alude a «la aguja tocada por la piedra». La forma definitiva
fue la «bussola» o cajita, de donde viene el nombre. La aguja imantada giraba
libremente sobre un pequeño eje vertical metido en una caja. La brújula
resultaba así transportable, y fácilmente utilizable a bordo de una
embarcación, que fue donde prestó durante siglos sus más inestimables
servicios.
Ahora bien: aunque al principio se pensó que la aguja señalaba exactamente el
Norte, pronto se descubrió en los países europeos que no es así. Hoy se sabe
que apunta hacia el polo magnético, que no coincide con el geográfico y que
además se desplaza poco a poco sobre el área del círculo polar. En la época de
Alfonso X o de Colón, la brújula se desviaba ligeramente al E. Desde el siglo
XVII al XX, ha marcado un poco hacia el NO, y a comienzos del XXI está
recuperando (para un observador situado en las costas atlánticas europeas) casi
exactamente la dirección N-S. Hacia 2060 marcará de nuevo como en los tiempos
de Colón. Estas desviaciones provocaron algunos problemas, sobre todo en los
países nórdicos, donde la anomalía era más marcada. Por eso se distinguía entre
brújulas flamencas, que tenían en cuenta esta desviación, y brújulas genovesas,
que apenas era necesario corregir. A pesar de estos inconvenientes, la brújula
prestó un servicio inestimable a los navegantes y permitió orientarse en alta
mar con notable precisión.
Ciertamente más exactas eran las indicaciones de las estrellas. Para eso era
necesario realizar mediciones muy precisas, y por tanto más laboriosas e
incómodas. Ya los babilonios habían inventado aparatos para medir ángulos, y
los árabes fueron verdaderos maestros en el menester. Típicamente árabe fue
el astrolabio, un círculo graduado de grado en grado, provisto
de una regla que señalaba el punto de partida, y una alidada o aguja movible
parecida a la de un reloj, que podía deslizarse a lo largo del círculo.
Apuntando a un punto determinado con la regla principal y moviendo la alidada
hasta que apuntase a otro objeto, era posible medir el ángulo que los separaba,
por ejemplo la altura del sol o de la estrella polar sobre el horizonte. Los
árabes heredaron de los babilonios la división del círculo en 360 grados. Por
tanto, un ángulo recto medía 90 grados. Esta graduación, propia del sistema
sexagesimal, ha llegado hasta ahora mismo.
Los árabes sabían que la estrella polar se eleva sobre el horizonte un ángulo
igual a la latitud del lugar. Así resulta que en Bagdad la estrella polar se
levanta 32o sobre el horizonte; en Madrid brilla a 40º; en
Londres, a 52º. Desde el polo Norte se ve la polar a 90º de altura, es decir,
en el mismo cénit, y un observador desde el ecuador la ve a 0°, justo en el
horizonte: es decir, no la ve. Pero tampoco la estrella polar señala el Norte
con absoluta precisión, por la sencilla razón de que no se encuentra
exactamente en el polo celeste, sino muy cerca de él. Todas estas ligeras
inexactitudes (que no impidieron una bastante correcta orientación de los
navegantes) no fueron descubiertas hasta los tiempos de Cristóbal Colón. Los
marinos cristianos prescindieron del astrolabio y utilizaron un instrumento más
pequeño y manejable, el cuadrante. El motivo es bien sencillo: solo tenían que
medir la altura del sol o de la estrella polar, y ninguno de estos dos objetos
puede elevarse a más de 90º sobre el horizonte. El cuadrante y luego la
ballestilla, un aparato todavía más fácil de manejar, cumplieron un papel
fundamental en la época de los grandes descubrimientos geográficos.
§. Los mapas
Primero en el Mediterráneo, más tarde en las costas del Atlántico, aparecieron
las primeras cartas náuticas o «portulanos». Se llaman así porque señalan ante
todo los principales puertos a que puede arribar una nave; pero también los
cabos, las bahías abrigadas, los escollos peligrosos. Lo más curioso de los
portulanos son las líneas de rumbos tendidas en todas direcciones. Un navegante
no tenía más que transportar la dirección que quería seguir con una escuadra y
un compás, para conocer el rumbo adecuado. La rosa de los vientos, colocada
sobre la brújula, que se generaliza en el siglo XIV, permite conocer este rumbo
a la perfección. No es extraño que los portulanos hayan aparecido con
posterioridad al conocimiento de la brújula. Sus líneas de rumbos y las de las
rosas de los vientos están íntimamente relacionadas. Cuando en 1270 el rey de
Francia, Luis IX, navegaba hacia Túnez, quiso conocer dónde estaban y cuánto
tardarían en llegar a las costas africanas. Los pilotos trajeron entonces un
mapa lleno de líneas, y mostraron al monarca el lugar exacto en que se
encontraban y la previsión del tiempo en que tardarían en llegar a su destino.
El hecho demuestra que ya por entonces se manejaban los portulanos y se podía
calcular de modo satisfactorio la situación de un navío sobre el mapa. Entre
los más famosos portulanos figuran la «carta pisana», la carta de Visconti, o
el «atlas catalán» de Abraham Cresques.
Con todos estos materiales comenzó, sobre todo por obra de los pueblos
atlánticos de la Península Ibérica, la exploración del mundo en el siglo XV.
Les guiaba, qué duda cabe, el incentivo del comercio y la posibilidad de hallar
metales preciosos o grandes riquezas, que se pensaba existían en Oriente; pero
también la curiosidad, el afán de conocer. Los españoles llegaron a las
Canarias y comenzaron su conquista. También, en competencia con los
portugueses, llegaron más allá con sus ágiles carabelas. Los portugueses
vivieron durante sesenta años una aventura mucho más amplia, en demanda de las
fabulosas tierras de Extremo Oriente que había descrito con exageración
encomiástica a fines del siglo XIII un extraordinario viajero, Marco Polo. El
objetivo era llegar al reino del Preste Juan, un monarca cristiano rodeado por
los musulmanes (se trataba sin duda del emperador de Etiopía), a la misteriosa
India, con sus príncipes riquísimos, la gran Isla de las Perlas (Ceylán, hoy
Sri Lanka), y, más allá, al imperio del Gran Khan (China) o al de Cipango, o
del Sol Naciente (Japón). Ahora bien, para llegar a aquellas maravillosas
tierras había que dar la vuelta a África, cuyas verdaderas dimensiones ni
siquiera se conocían. La aventura era incierta, pero apasionante. En apoyo de
la empresa se constituyó una escuela de náutica en Sagres, y en Lisboa una
«Xunta dos Mathematicos». Utilizando las ágiles carabelas y las modernas
técnicas de navegación, Gil Eanes rebasó por primera vez el trópico de Cáncer
en 1434; Fernando Póo cruzó el ecuador en 1468, y en 1481 Bartolomeu Dias
superó la punta sur de África por el cabo de las Tormentas, que el rey Juan II
rebautizó como cabo de Buena Esperanza. El astrónomo Josef Vizinho calculó
cuidadosamente la latitud de los lugares descubiertos. Parecía abierto el
camino de la India cuando apareció en escena un hombre un poco estrafalario que
decía conocer un camino mejor. Se llamaba Cristóbal Colón.
§. Algo sobre la ciencia maya
Cuando Colón llegó al Nuevo Mundo, no encontró más que culturas primitivas, que
apenas habían alcanzado los niveles del neolítico. Más tarde, los españoles
encontraron dos poderes fuertes y bien organizados, el inca y la confederación
azteca, aunque ninguno de ellos pudo defenderse con éxito frente a los recién
llegados, y otras culturas más o menos desarrolladas. Gran parte de América
vivía en estadios primitivos. Una cultura, entonces en plena decadencia, había
alcanzado en tiempos coetáneos a «nuestra» Edad Media un considerable
desarrollo científico: era la de los mayas, y a ella parece que conviene
referirse ahora, después de haber tocado aspectos de la ciencia medieval y
antes de referirnos a la consecuencia de la incorporación de América a la
cultura de Occidente.
Los pueblos mayas ocuparon un área relativamente reducida en zonas de la
península de Yucatán, México, y parte de lo que hoy son Honduras y Guatemala.
Nunca se unieron entre sí: formaron una serie de pequeñas ciudades-estado,
regidas por caciques poderosos y por una casta sacerdotal teocrática. Su
periodo de máximo esplendor tiene lugar aproximadamente entre los años 600 y
900 de nuestra era. Luego comenzaron a decaer, por causas aún no bien
aclaradas. Se habla de un cambio climático, provocado, tal vez, por los mismos
mayas, que deforestaron grandes extensiones de selva para dedicarlas al
cultivo, especialmente del maíz, que consumían en parte y en parte exportaban.
Los estudios realizados recientemente sobre semillas fósiles demuestran que a
partir del siglo X hubo cada vez menos bosques y más matorrales. La erosión
arrasó las tierras más fértiles y disminuyó su producción. Otros estudios
modernos parecen confirmar una disminución de la tasa alimentaria y la
existencia de duraderas sequías. Tengamos en cuenta que la economía maya se
basaba casi exclusivamente en la agricultura. Su artesanía estaba poco
desarrollada, a pesar de la calidad de su arquitectura y su arte. No conocían
la rueda. En el siglo XVI, cuando llegaron los españoles, los mayas no tenían
más que gloriosos recuerdos y sorprendentes ruinas.
Pero durante un milenio los mayas habían edificado la cultura quizá más
refinada que hubo en América. No tenían grandes ciudades, pero sí magníficos
edificios decorados con altorrelieves, templos, canchas para el juego de pelota
que practicaban, y sobre todo pirámides, todas o casi todas las cuales tenían
una finalidad religiosa y al mismo tiempo científica, puesto que los sacerdotes
eran al mismo tiempo matemáticos, astrónomos, jerarcas y hechiceros. La
existencia de pirámides es un hecho sorprendente, que pone en relación,
siquiera de similitud, a los mayas con pueblos muy lejanos, como los del N.O.
de la India, los babilonios o los egipcios. No parece que pudiera existir
contacto alguno. Las pirámides mayas se difundieron por la zona, y las imitaron
luego los toltecas y los aztecas. Eran pirámides escalonadas, como las
babilónicas, y orientadas de acuerdo con los puntos cardinales. En Mesopotamia
se orientaban las aristas; en Egipto, las caras. En las magníficas pirámides
mayas, Tikal, Copán, Uxmal, Chichen-Itzá, la orientación de las caras sigue
aproximadamente, ¡pero no exactamente!, los puntos cardinales. Si suponemos que
aquellos indios no dominaban adecuadamente la geometría de posición, nos
equivocaríamos. Sus sacerdotes calculaban de manera muy precisa el orto y ocaso
de los astros, las estaciones, las efemérides del sol, la luna y los planetas,
y podían predecir eclipses. Parece ser que daban una importancia desmesurada a
Venus, y orientaban una cara de la pirámide en la dirección del orto helíaco de
Venus en el momento de su máxima declinación. Otras pirámides parecen estar
orientadas en dirección al punto en que sale el sol el día en que pasa por el
cénit. En aquella zona, al sur del trópico de Cáncer, el sol pasa por el cénit
dos días al año, en mayo y agosto. En fin, las pirámides mayas están
relacionadas con los astros (aunque de acuerdo con una lógica muy distinta de
la nuestra), y probablemente eran, además de lugares de culto, observatorios.
En lo alto de aquellas pirámides había siempre un templete.
Los mayas tenían un sistema de numeración vigesimal, y una forma muy clara de
representar los números. Es probable que hayan inventado el cero antes que los
hindúes, y por tanto que los árabes (los babilonios lo hicieron antes, pero no
sabían emplearlo en todos los casos).
Usaban tres tipos de signos: el cero, que servía para expresar «números
redondos», no parece que los mayas llegaran a abstraer el concepto de valor
nulo, los puntos o pequeños círculos, que expresaban las unidades, y las rayas
o barras horizontales, que representaban el valor 5; empleaban por tanto una
curiosa mezcla del sistema vigesimal con el quinario. Ahora bien, a partir del
número 20 representaban cuatro barras para la numeración ordinaria, pero para
sus cálculos astronómicos continuaban trazando puntos hasta convertir el 260 en
«número redondo». O encerraban valores de 20 unidades en una especie de
«paquetes» o «cartuchos». No conocemos bien la devoción de los mayas hacia el
260, que hoy no nos dice nada, pero que seguramente está relacionada con otra
curiosa devoción hacia el planeta Venus, al que concedían una importancia
extraordinaria. En efecto, Venus es visible, ya al atardecer, ya al anochecer,
por periodos aproximadamente de 260 días (aunque ese periodo es ligeramente
variable). Ya hemos visto también como la orientación de las pirámides parece
tener que ver con Venus.
El calendario maya era sorprendentemente exacto. Tenía un año de 18 meses de 20
días (en total 360), más cinco o seis epagómenos, como los de los egipcios.
Cada cuatro años, introducían seis epagómenos, como nuestros bisiestos.
Conviene saber que las actuales corrientes indigenistas, entusiasmadas con los
logros de los mayas, llegan a afirmar que su calendario era mejor que el
occidental europeo «hasta los tiempos de la NASA» (la NASA no se dedica a
modificar el calendario). En realidad, según se deduce de los estudios de B. y
V. Böhm, calculaban un año de 365, 265 días, menos exacto que el gregoriano del
siglo XVI. Los citados autores creen que los mayas, que desconocían los
decimales o los quebrados, tenían que operar, para alcanzar cierta precisión,
con «grandes números», de millones de días o miles de años, y, naturalmente,
aunque nos dan cifras teóricas enormes, nunca tuvieron tiempo de comprobarlas.
Pero al mismo tiempo empleaban otro calendario de 20 meses de 13 días, o sea
que contemplaba un año de 260 días, ese famoso número sagrado. Las afirmaciones
de que con arreglo a ese calendario efectuaban las faenas agrícolas no tiene
explicación, ya que tales faenas deben ajustarse al año natural. Eso sí, los
sacerdotes eran los únicos que (¡como los egipcios!) conocían la medida del año
con exactitud, y podían señalar las fechas de cada tarea. Por las noticias que
tenemos, ese calendario corto estaba destinado, aparte de las celebraciones
religiosas, a «la gente inferior». El comienzo de los años largos y los años
cortos volvía a coincidir cada 52 años, y a esta cíclica coincidencia se
concedía también una gran importancia simbólica.
La matemática de los mayas alcanzó una notable precisión para la medida del
tiempo y para los cálculos de efemérides astronómicas. Se usaba también para la
contabilidad; pero no hay noticias de que se realizaran operaciones complejas.
Muchos códices mayas fueron destruidos. Escritos sobre cortezas vegetales, se
conservaban mal. Fray Diego Landa nos ha proporcionado traducciones de textos
recitados de viva voz por los indios. Se conservan tres códices importantes, el
mayor en Dresde (con efemérides de Venus), y otros dos en Madrid (Museo
Arqueológico) y París. Los mayas empleaban una escritura pictográfica que al
parecer no expresaba claramente conceptos abstractos. La expresión numérica 365
puesta en palabras era «cinco en la marca diecinueve». Es difícil saber si un
día encontraremos la fórmula para descifrar del todo aquella escritura.
Capítulo 5
La ciencia del renacimiento
Contenido:
§. La imprenta
§. El descubrimiento del mundo
§. La revolución copernicana
§. La reforma del calendario
§. Otros científicos del Renacimiento
A lo largo del siglo XV la cultura europea
experimentó un cambio espectacular. No repentino, pero sí continuado. Las
antiguas visiones que pretendían identificar el Renacimiento con un movimiento
eclosivo y antimedieval han sido sustituidas ahora por la de una lenta
evolución a partir de lo medieval, pero que llega a destinos finales muy
distintos. Lo cierto es que se registra en Europa, de una forma todo lo
paulatina que se quiera, pero irreversible, un cambio en la manera de pensar
que tiene también su proyección al mundo de la ciencia. Tampoco se mantiene hoy
la tesis de J. Burckhardt, que cifraba en el Renacimiento «el descubrimiento
del hombre por sí mismo». Porque es preciso reconocer que la Edad Media cultivó
un elevado humanismo y tuvo un alto concepto de la razón de ser del hombre y de
su alta dignidad. Más bien cabría entender en el Renacimiento un descubrimiento
de las posibilidades del hombre en este mundo, y de aquí que podamos encontrar
en el panorama histórico una vertiginosa aventura de conquistas y de logros
movidos por una juvenil ambición de llegar cada vez más allá, de alcanzar
nuevas metas, nunca antes logradas. Personifica el tipo del homo faber, el
hombre cuyo destino es hacer, y alcanza un destino tanto más elevado cuantas
más y cuantas mejores cosas hace. El político realiza el ideal del «Príncipe»,
crea la poderosa maquinaria del Estado Moderno, un ejército profesional, una
burocracia eficiente, y se siente orgulloso del alcance de su poder. El artista
del Renacimiento aspira a los ideales de la belleza clásica, pero pretende
superar todo lo anterior, hasta logros nunca alcanzados que le deparen honra y
fama. El hombre de negocios crea casas de banca, emite letras de cambio,
establece redes financieras y comerciales, y aspira a una riqueza que le
permita conquistar el prestigio y el buen nombre. No le basta ser rico, sino
que quiere que todo el mundo lo sepa. Como el militar aspira a dominar nuevas
tácticas y asombrar a sus enemigos con su iniciativa, su inteligencia y su
valor, con los que llega a conquistar territorios hasta entonces no poseídos. O
el navegante atraviesa los mares en demanda de tierras e islas nuevas al otro
lado de los océanos, y busca en ellas la gloria y la fama. La actitud del
hombre del Renacimiento, en suma, es la de un vencedor nato, que pretende
alcanzar una meta difícil y gloriosa, y cuando al fin la consigue se siente
feliz. En cuanto científico, el hombre del Renacimiento no llega tal vez tan
lejos como los conquistadores los políticos o los artistas, pero persigue
también con entusiasmo el logro de nuevos y espectaculares horizontes.
El «humanismo» pretende el desarrollo de las ciencias humanas, la cultura
basada en el principio de la «razón independiente». Y estas «ciencias humanas»
son, al menos en principio, las clásicas grecolatinas, el legado de los
antiguos, la lengua de los griegos del tiempo de Pericles y de los romanos del
tiempo de Cicerón; el arte basado en el «canon» y el equilibrio, la
secularización de las universidades, la legislación que se apoya en el
predominio del estado moderno, y con ella el principio de la «razón de estado»;
el conocimiento de la realidad corporal del hombre, y de aquí los estudios de
anatomía comparada y el progreso de la cirugía más que de la medicina clínica y
farmacológica, el estudio de las razas y pueblos que la curiosidad de los
europeos descubre más allá de sus fronteras.
El humanismo es también en este sentido un interés del hombre por el hombre, o,
como quiere Strieder «un entusiasmo por el más acá». No es que desaparezca el
espiritualismo, que sigue disfrutando de insignes cultivadores; pero renace,
como tantas otras concepciones clásicas, la idea de Protágoras de que «el
hombre es la medida de todas las cosas». El interés del hombre renacentista es,
por lo general, más humano, o, por mejor decirlo, antropocéntrico: el
predominio del príncipe, la conquista, la riqueza, la fama, la prosperidad, el
lujo. Y también, un ansia indisimulable de cosas nuevas, hasta entonces, nunca
vistas. Parece como si el mundo hubiera entrado en una fase de renovada
actividad.
Muchos aspectos del Renacimiento no interesan centralmente al objeto de este
libro. Los grandes humanistas, del tipo de Lorenzo Valla, Pico della Mirándola,
Erasmo, Tomás Moro, Luis Vives se preocuparon, y es lógico, por las «letras»
mucho más que por las ciencias, aunque no dejaron de alentar el progreso
científico. Y en el campo del arte destacaron los nombres insignes de
Brunelleschi, Miguel Angel, Rafael, Leonardo da Vinci, que perfeccionaron las
técnicas, qué duda cabe, pero de los que apenas puede decirse que fueran
«científicos» en el sentido estricto de la palabra, salvo en el caso de
Leonardo, inventor de máquinas y aparatos que se adelantan a su tiempo, y quizá
por eso, o porque la técnica de entonces no podía desarrollarlos, no llegaron a
tener auténtica virtualidad histórica, aunque hoy nos admiren aquellas
ingeniosas maquetas. Sí la tuvo un invento que iba a multiplicar hasta extremos
impensables la difusión de los conocimientos.
Hay quien coloca la fecha de 1453, en que salieron impresos los primeros
ejemplares de la Biblia editada por Gutenberg, como el hito que inicia la Edad
Moderna. Puede servir perfectamente, aunque otros prefieran el año 1492, en que
Cristóbal Colón avista América. Lo cierto es que el descubrimiento de la
imprenta es mucho más que un avance de la técnica humana. Vino a cambiarlo todo
hasta extremos impensables.
El uso de caracteres grabados en tacos de madera que, mojados en tinta, servían
para imprimir signos sobre una hoja de papel nació como obra de un grupo de
monjes budistas chinos, al parecer el año 593. Ya nos hemos referido a este
hallazgo en su lugar. La primera obra impresa, con ilustraciones, también en
China, data del año 868. El logro fue importantísimo, pero no se desarrolló
especialmente desde entonces. La razón es sencilla: la escritura china requiere
caracteres muy complicados, y tan numerosos, son más de diez mil, que la tarea
de grabarlos, ordenarlos y manejarlos resultaba extraordinariamente difícil.
Allá por el siglo XI los monjes cristianos, sin saber nada de los chinos,
idearon el mismo sistema, con un alfabeto mucho más sencillo. Con todo, apenas
lo utilizaron más que para imprimir la letra inicial, generalmente con tinta
roja, de sus preciosos manuscritos caligráficos. También se hicieron
xilografías, grabados hechos con madera, representando figuras reales o
alegóricas. La utilización de escritos impresos con caracteres móviles habría
de esperar todavía muchos años, hasta el siglo XV. Hay quien atribuye el mérito
al holandés Laurens Coster. Otros creen que empezaron antes los grabadores de
Estrasburgo. Lo cierto es que una máquina de imprenta realmente eficaz y de una
cierta capacidad industrial no aparece hasta Gutenberg.
Johann Gutenberg (1395-1467) era natural de Maguncia, y se dedicaba, entre
otras actividades, a la grabación de monedas con destino a su acuñación. Este
oficio, qué duda cabe, estimuló su inventiva. Se sabe que estuvo en
Estrasburgo, y este hecho puede ser importante por lo que antes hemos dicho. De
nuevo en Maguncia, inventó un aparato de imprimir con caracteres móviles que,
debidamente alineados, se introducían en una prensa (la palabra imprenta, o la
misma palabra «prensa» vienen de ahí). Pero la realización de la idea no era
tan sencilla. Los tacos de madera se manchaban de tinta y después de usados
muchas veces, era casi imposible limpiarlos. Gutenberg recurrió a piezas
metálicas, que era preciso fundir en un molde de hierro; el metal de estas
piezas habría de tener un punto de fusión más bajo que el hierro, por ejemplo
el plomo. Luego se utilizó una aleación de plomo y estaño. La dificultad de su
trabajo obligó a Gutenberg a asociarse al banquero Johann Fust. Como la
imprenta, de momento, no dio los beneficios esperados, Fust puso pleito a su
compañero y lo ganó. Gutenberg vio incautada su imprenta, y tuvo que partir
otra vez de cero. Los inventores son tenaces, y Gutenberg se asoció al
dibujante y grabador P. Schöffer. En 1447 logró imprimir un pequeño calendario.
Y entre 1450 y 1453 consiguió sacar a la luz el primer libro impreso
propiamente dicho: una Biblia completa, cuya edición le llevó tres años de
trabajo. No era fácil preparar los «plomos», alinearlos, ajustarlos, elegir la
tinta, encajar los tipos en su «caja», y emplear la prensa. ¡Al principio usó
Gutenberg una prensa para uvas del Rhin! Aquella Biblia fue una maravillosa
obra de arte. Es increíble cómo pudo obtenerse una impresión tan perfecta y tan
limpia. Los ejemplares que se conservan no tienen precio. Y nunca consiguió
Gutenberg igualar aquel trabajo. Tuvo nuevos problemas económicos, y murió
pobre, protegido por el arzobispo de Maguncia, a fines de 1467 o comienzos de
1468.
La imprenta triunfó después de su muerte, conforme fue posible grabar varias
páginas por día: a fines del siglo XV ya podían imprimirse 50 páginas. Las
guerras que asolaron a Maguncia llevaron al exilio a muchos discípulos de
Gutenberg: Numeister, Keffer, Ruppel, Mentel, Speyer. Europa se llenó de
impresores alemanes: antes de 1500, había 100 en Italia, 30 en Francia y 26 en
España. En 1510 habría ya 417 imprentas. El primer libro en España parece que
se imprimió en Segovia en 1472: no está fechado. Sí lo está otro impreso en
Valencia en 1475. Enseguida hubo imprentas en Zaragoza, Barcelona y sobre todo
en Sevilla, que a causa de la riqueza generada por el descubrimiento de América
se convirtió en la Meca de los impresores. También lo fueron Venecia o
Amsterdam. La inmensa ventaja de la imprenta viene de su capacidad «industrial»
para producir libros. Antes era preciso copiar los manuscritos, uno a uno. Cada
copia exigía un trabajo de una paciencia casi infinita, y aún así, es difícil
encontrar dos copias de la misma obra cuyos textos coincidan exactamente. En
las versiones a imprenta son también posibles las erratas, pero, una vez
corregidas, pueden hacerse centenares o miles de copias, todas exactamente
iguales, y muy fácilmente legibles. El libro se multiplicó de modo
sorprendente.
Hacia 1510 estaban editados unos 40.000 títulos, con un total de medio millón de
ejemplares. La difusión del saber transformó la cultura del mundo occidental, e
hizo infinitamente más fácil la transmisión de las ideas y los conocimientos.
Sin la imprenta, la historia hubiera sido diferente. Y sin duda mucho más
lenta.
A lo largo del siglo XV, los portugueses exploraron toda la costa occidental
africana. Lo que les interesaba realmente era llegar a las fabulosas tierras de
Extremo Oriente. Al fin, en 1497, Vasco da Gama, en una aventura
extraordinaria, consiguió llegar a la India. Dos mundos que hasta entonces
habían vivido la historia por su cuenta quedaban enlazados de una vez para
siempre. El viaje, que, realizado por tierra, en caravanas sucesivas, y
amenazado por mil peligros, requería tres años, podía realizarse con muchas
menos complicaciones, y en pocos meses, por mar. Aquellas tierras no eran tan
inmensamente ricas ni tan llenas de exóticas maravillas como pretendía la
leyenda; pero se hacían posibles el comercio y los intercambios, primero por
obra de los portugueses, más tarde también por la iniciativa de otros pueblos
europeos, que establecieron pequeñas colonias o factorías en aquellas lejanas
tierras. No hubo, en cambio, un amplio contacto entre culturas y conocimientos
científicos: en parte tal vez porque las culturas orientales no se encontraban
en su mejor momento.
Poco antes del viaje de Vasco de Gama, en 1492, un navegante genovés, almirante
de la armada española, Cristóbal Colón, llegaba a las costas de América, aunque
estaba por entonces muy lejos de suponer que se trataba de un Nuevo Mundo. Su
idea, basada en la suposición de que Asia estaba más cerca de Europa por el
oeste que por el este, no es en realidad suya. Colón fue un navegante dotado de
una extraordinaria intuición, pero no llegó a ser un aceptable científico sino
después de su descubrimiento. La idea, equivocada, de la distribución de
tierras y mares sobre el planeta fue realmente de un humanista italiano de
segunda fila, Paolo del Pozzo Toscanelli. Habiendo leído Toscanelli que (por
los cálculos de Al Farghani), la circunferencia de la Tierra mide 20.000
millas, creyó que se trataba de millas cristianas, que eran las únicas que
conocía; imaginó por tanto un mundo que sería solo un 65 por 100 de su tamaño
real. Dando fe por otra parte a las exageraciones de Marco Polo sobre la
inmensa lejanía a Extremo Oriente, pensó que la distancia de Lisboa o Canarias
a Cipango (Japón) era de unos 6.000 km.; más o menos la que separa las costas
europeas de las Antillas. Los portugueses conocían mejor las dimensiones del planeta
que el teórico italiano, y no le hicieron caso; pero Colón quedó entusiasmado
por la teoría, y quiso ponerla en práctica. Expuso, confusamente, porque no
quería que se le adelantaran, su propósito de llegar a las Indias por el
Atlántico, pero el rey de Portugal, que se fiaba más de la Xunta dos
Mathemáticos que de aquel extraño extranjero, se negó a apoyar su
empresa. Entonces Colón se vino a España, el otro país de las exploraciones
atlánticas y de las carabelas.
Después de largas conversaciones con los expertos españoles, que tampoco
estaban de acuerdo con sus ideas, el navegante genovés encontró al fin la
protección de los Reyes Católicos, y se lanzó a una de las aventuras más
emocionantes de la historia, a través del Océano. En un increíble viaje, lleno
de incidencias, descubrió la variación de la declinación de la aguja magnética
en función de la longitud geográfica, la Corriente Ecuatorial del Norte, el Mar
de los Sargazos, que los alisios se prolongan indefinidamente a lo largo de
todo el Atlántico; y sobre todo que la estrella Polar no se encuentra
exactamente en el polo norte celeste, y por tanto hay que calcular de otro modo
la latitud. Este descubrimiento fue probablemente el más importante que hizo
Colón, después del propio descubrimiento de América. Al fin, después de un
viaje interminable y cuando las tripulaciones estaban a punto de amotinarse,
llegó a un islote de las Bahamas llamado Guanahaní, que él bautizó como San
Salvador, nombre que hoy ha vuelto a designar a aquel pequeño territorio. No
intuyó haber llegado al Nuevo Mundo, sino a una parte del Viejo (Asia).
Siguiendo noticias de los indios, alcanzó las costas de Cuba, que creyó que
correspondían a Cipango (Japón), luego a Catay (China). Más tarde creyó
identificar a La Española (Haití) definitivamente con Cipango.
La aventura de Colón supuso una revolución en los conocimientos geográficos.
Por de pronto, se ofrecieron miles de voluntarios para su segundo viaje. Sin
embargo, los españoles tomaron progresivamente conciencia de que las tierras
descubiertas, que resultaron ser muchas y muy variadas, no pertenecían a Asia.
El tercer viaje colombino estuvo destinado a llegar a la Trapobana (hoy Sri
Lanka). Llegó realmente al delta del Orinoco, y Colón, a la vista de un río que
endulzaba las aguas en un área de muchas millas, intuyó que se encontraba ante
«una tierra grandísima, de la cual no se hubo noticia». Había descubierto
América; pero, empecinado en su deseo de llegar a Asia, no valoró su propio
descubrimiento. En el cuarto viaje pretendió llegar al estrecho de Catigara (de
Malaca) para alcanzar la India. Alcanzó de hecho América Central. Colón jamás
encontró lo que buscaba, pero nunca quiso reconocer su error. Ni quiso
reconocer que lo por él descubierto era realmente un nuevo continente dotado de
infinitas posibilidades, que iba a cambiar el curso de la historia universal.
Los viajes colombinos, aunque técnicamente supusieron una equivocación,
condujeron al descubrimiento y conquista de los extensos territorios del Nuevo
Mundo y a la transformación del Atlántico en el nuevo Mare Nostrum. Los
cosmógrafos españoles fueron completando el mapa del continente y sus islas, se
hicieron importantes hallazgos en el campo de la antropología, la etnología, la
geografía, la climatología, además de hallar al otro lado del Océano
incalculables riquezas, muchas más que las que se suponían en Asia. El oro y
plata de América permitieron una multiplicación enorme de las posibilidades de
la economía del mundo occidental. Si el problema del Renacimiento era el
aumento de la producción, no compensado por un aumento del dinero, y al fin
todo se hubiera venido abajo por obra de la deflación, la abundancia de metal
permitió un espectacular desarrollo de la velocidad de circulación de la
riqueza, con unas consecuencias que no se esperaban y que fueron los españoles,
Martín de Azpilicueta, Tomás del Mercado, los primeros en estudiar: la
inflación. En fin, la primera vuelta al mundo por Juan Sebastián Elcano en
1519-1522 demostró por primera vez experimentalmente la esfericidad de la
tierra, y supuso el último de los avances espectaculares en el conocimiento de
nuestro planeta por el intrépido hombre del Renacimiento.
De vez en cuando se produce, en el campo de las ciencias, un cambio de
paradigma, una nueva concepción integral que lo transforma todo y obliga a
planteamientos radicalmente nuevos. Herbert Butterfield considera que un cambio
de paradigma equivale a «ver el mundo con unas gafas nuevas». Diríamos que se
queda corto en su comparación, a no ser que el hombre que estrena las gafas sea
un cegato que hasta ese momento no se había dado cuenta cabal de lo que tenía
delante. Un cambio de paradigma significa una revolución que echa por tierra no
todo, como a veces exageradamente se ha dicho, sino gran parte de lo hasta
entonces admitido. Así ocurrió en el campo de la química en tiempos de
Lavoisier, o en el de la física y la cosmología con la Teoría de la Relatividad
de Einstein. Un cambio de paradigma supone un avance repentino, deslumbrante;
pero por eso mismo deslumbra, desconcierta, y sobre todo resulta incómodo de
aceptar, después de tanto tiempo en que se venía admitiendo un hecho que se
tenía como verdad indiscutible: de aquí que ante cada cambio de paradigma haya
existido un movimiento de perplejidad y actitudes de apasionada oposición, de
tal modo que la realidad descubierta tarda mucho tiempo hasta ser admitida por
todos.
Un hecho que se venía considerando como indiscutible, porque es palmario, se ve
y se contempla todos los días, es que los astros, incluidos el sol y la luna,
salen por el este y se ponen por el oeste: giran alrededor de la Tierra. La
Tierra debe ser así el centro del Universo, y los demás cuerpos describen
trayectorias circulares en su torno. Es cierto que, en cuanto comenzó a
observarse detenidamente el movimiento de los astros, se comprobó que unos
giran más deprisa que otros: por ejemplo el sol da una vuelta cada 24 horas, la
luna cada 24 horas 50 minutos. Los planetas giran un poquito más despacio que
el sol. Y las estrellas son las que giran más deprisa: dan una vuelta en 23
horas 56 minutos. Y hay retrogradaciones. En fin: la teoría geocéntrica acaba
por resultar incómoda, pero parece tan evidente... De aquí que los sabios
procurasen explicarla suponiendo una serie de «epiciclos» en cada astro,
especialmente en los planetas. Ptolomeo llegó a desarrollar un modelo
extremadamente complicado, pero absolutamente preciso. La maquinaria del
Universo es cualquier cosa menos sencilla, pero todo podía explicarse
satisfactoriamente desde el punto de vista de la pura cinemática (el
movimiento). Hasta era posible predecir el comportamiento futuro de los astros,
como es posible predecir el de las agujas de un reloj.
Sin embargo, siempre hubo disidentes. Aristarco formuló la teoría de que la
Tierra giraba sobre su eje, y este movimiento explicaba mejor la trayectoria
aparente de los astros, pero su idea se consideró tan perturbadora, que fue
perseguido por ella. Algunos astrónomos árabes insinuaron la misma teoría, pero
no quisieron llevarla demasiado lejos, y no prosperó. Azarquiel propuso que los
planetas interiores, Mercurio y Venus, giran alrededor del sol, y esta
hipótesis simplificaba las cosas. Nicolás de Oresme encontraba «más sencillo»
aceptar que es la Tierra la que gira sobre su eje, y rebatió la tesis de
Aristóteles, según el cual si fuera así, una piedra lanzada al aire se quedaría
atrás respecto de la rotación de la Tierra: ¡es que el aire, decía Oresme,
forma parte de la Tierra y también gira!
Con todo, la teoría no fue conocida por muchos y no fue aceptada por nadie.
Nicolás Copérnico (Koppernigh, 1473-1543) nació en Polonia, a orillas del
Vístula, y estudió en Cracovia filosofía y medicina, pero allí mismo se
aficionó a las matemáticas y a la astronomía. A los 23 años viajó a Italia,
para estudiar derecho en la famosa universidad de Bolonia. Después estuvo en
Roma, donde se relacionó con medios eclesiásticos y científicos. Parece que se
ganó la vida trabajando como médico. Posiblemente fue en Italia donde comenzó a
concebir sus teorías; pero las desarrolló después de su regreso a Polonia en
1505. Fue nombrado canónigo y ocupó diversos cargos, sin dejar sus estudios
astronómicos. Copérnico fue observador, pero ante todo se valió de los datos de
otros más avezados a la medida de las posiciones de los astros para desarrollar
sus ideas. Su punto de partida (al parecer similar al de Oresme) es que existe
una explicación «más sencilla» para dar cuenta de los movimientos celestes.
Desde entonces se ha convertido en una especie de aforismo científico el suponer
que «la explicación más sencilla es por lo general la más verdadera». Por de
pronto, todo cobra más sentido si suponemos, como Azarquiel, que Mercurio y
Venus giran alrededor del sol. Pero ¿es cierto que el universo entero, los
astros todos, hasta las estrellas lejanísimas, giran alrededor de la Tierra?
¡Qué velocidad casi infinita han de tener los cuerpos más alejados! ¿No es más
fácil admitir que es la Tierra la que gira sobre su eje, y este «efecto de
tiovivo» produce la impresión de que son los astros todos, ahí está el secreto,
todos, cercanos y lejanos, los que se mueven a nuestro alrededor?
La rotación de la Tierra explica muchas cosas y permite imaginar un mecanismo
ciertamente maravilloso, pero en sí más sencillo. Y hay más todavía. Ahí está
el año: el año tiene un comportamiento cíclico, en que retornan periódicamente
las estaciones, varía la altura de sol, las estrellas vuelven a verse en la
misma posición justo en el periodo de un año, como si la Tierra regresase
siempre al mismo sitio y diese cara, tras 365 días, al mismo punto del cielo.
Este continuo retorno solo puede explicarse si suponemos que la Tierra, además
de girar sobre sí misma, se traslada a lo largo de un año hasta regresar al
punto de partida. ¿En torno a qué se traslada? Lo más lógico y explicativo es
que lo haga alrededor del sol, un hecho que nos permite comprender enseguida
las estaciones. Nuestro mundo tiene por tanto dos movimientos: uno de rotación,
que determina los días, otro de traslación, que determina los años. Este
descubrimiento es todavía más revolucionario que el primero porque supone
el destronamiento de la Tierra. La Tierra no es el centro del
Universo, lo es el sol. (Copérnico no estaba aún en disposición de suponer que
tampoco el sol es el centro del Universo). Y si la Tierra gira alrededor del
sol, la única forma de explicar el movimiento de los planetas es suponer que
también se mueven alrededor del sol. ¡Ahora sí se comprenden las
desconcertantes retrogradaciones! Cuando la Tierra se mueve más deprisa que un
planeta, parece que este retrocede porque queda atrás. Lo
importante es que la Tierra es un planeta, lo mismo que los demás, aunque posea
el altísimo privilegio de albergar vida, y vida inteligente.
Copérnico tardó muchos años (por lo menos de 1505 a 1520), tomando datos y más
datos conforme los iba conociendo o se los iban suministrando, en completar su
teoría. Tuvo que pensar mucho y calcular mucho más para asegurarse. En 1533 se
decidió a dar a conocer un avance, el Comentariolus, animado
por el papa Clemente VII. Y solo cuando tuvo maduro su trabajo y creyó no
encontrar demasiadas oposiciones, publicó en 1542 De Revolutionibus
orbium coelestium. Naturalmente, la palabra «revolución» significaba
movimiento circular. Pero fue una revolución en toda regla, una de las más
grandes de la historia, no solo en el plano científico, sino en el filosófico.
Copérnico moriría muy poco después de ver publicada su obra, pero la polémica,
a veces escandalizada, que suscitó, sería enorme. El paradigma de una Tierra inmóvil
rodeada de círculos que los astros siguen por los cielos era tan lógico y
estaba tan arraigado, que pasarían muchos años, incluso para algunos, siglos,
antes de ser sustituido por la concepción copernicana.
Un hombre intentó terciar en la dramática discusión: Tycho Brahe (1546-1601),
un famoso astrónomo danés que protegido por el rey Federico II fundó el
impresionante observatorio de Uranienborg, dotado de instrumentos enormes de
observación visual, por medio de los cuales determinó con precisión las posiciones
de las estrellas y el movimiento de los planetas. Sus tablas fueron de
incalculable utilidad, y de ellas se valió Kepler para establecer sus
fundamentales tres leyes. Tycho Brahe presentó un modelo que conciliaba los
descubrimientos de Copérnico con la tradición clásica. De acuerdo con este
modelo, el sol gira alrededor de la Tierra, y por eso ésta conserva su posición
central; pero los planetas giran alrededor del sol. La teoría de Tycho, en
principio, ingeniosa y hasta cierto punto convincente, se haría insostenible en
el siglo XVII. La concepción copernicana, por transgresora que pareciese, fue
imponiéndose muy poco a poco por obra de la lógica y de la propia observación.
Copérnico fue encargado de realizar una cada vez más necesaria reforma del
calendario que se empleaba en el mundo occidental. Se esforzó en ello, pero no
tuvo tiempo de aquilatar todos los extremos precisos. Esta reforma no se
efectuaría hasta 1582. ¿Por qué era necesaria? Ya sabemos que César, en el
siglo I a.J.C. fue advertido del escandaloso adelanto de las estaciones del
año, y recurrió al sabio Sosígenes para que hiciera un nuevo calendario.
Sosígenes propuso intercalar un año de 366 días cada cuatro años, y así nació
el año bisiesto. El sistema pareció marchar satisfactoriamente durante siglos.
Pero poco a poco se fue operando un ligero desfase, en sentido contrario al
advertido en tiempos de César. Si el periodo de 365 días se queda corto, el
propuesto por Sosígenes, de 365,25, se pasa un poquitín de largo. La duración
del año es, como sabemos, de 365,2422 días. A lo largo de los siglos, el
equinoccio (el día igual a la noche) de la primavera se fue adelantando de modo
que en el siglo XVI no ocurría el 21, sino el 11 de marzo. ¡Llegaría un
momento, andando los siglos, en que las estaciones estarían completamente
cambiadas! En 1582, el papa Gregorio XIII decidió poner fin a este desfase.
Llamó a una comisión de sabios entre los que destacaban el alemán Schlüssel
(Clavius) y el español Chacón. La comisión propuso dos medidas: primera, saltar
diez días en el calendario. Se pasaría del jueves 4 de octubre al viernes 15 de
octubre: los días intermedios no existieron. Segunda medida:
no serían bisiestos los años terminados en dos ceros cuyas dos primeras cifras
no fueran múltiplos de 4. Así el año 1600 fue bisiesto; no lo fueron 1700, 1800
y 1900; lo ha sido 2000, pero no lo será 2100. La reforma gregoriana está
admirablemente hecha, y podrá durar miles de años. Con todo, la Comisión
Internacional de Medida del Tiempo ha ordenado que el año 4000
no sea bisiesto. «Veremos» si le hacen caso. Y si entonces existen seres
humanos y no se ha inventado otro calendario.
La reforma gregoriana, muy conveniente en sí, obliga a ciertas precisiones
históricas. Por ejemplo, Cristóbal Colón encontró América el día que en
sus tiempos se llamaba 12 de octubre. Hoy le llamamos 22. En su Diario
de Navegación anota el 30 de septiembre una fuerte mar de fondo con viento en
calma: producto, es preciso inferirlo, de una tormenta tropical que azotó las
Bahamas. Ese día era nuestro 10 de octubre. Colón no hubiera llegado a las
Bahamas el 12 de octubre, porque dos días antes las carabelas hubieran
zozobrado. Afortunadamente, llegó el 22. Otro hecho curioso, aunque no pasa de
anecdótico: santa Teresa falleció apenas pasada la medianoche del 4 de octubre
de 1582... y fue enterrada el 15. Por unos minutos, las Teresas celebran su
onomástica once días más tarde que si no se hubiera verificado la reforma. Esta
reforma fue aceptada en los países católicos. Los protestantes y los cristianos
orientales la rechazaron por ser una medida «papista». Al fin tuvieron que
adaptarse a los hechos. Los luteranos lo hicieron en 1700, cuando llevaban once
días y medio de retraso. Los ingleses no lo hicieron hasta 1752. En Rusia no se
aceptó la reforma papal, hasta el advenimiento del régimen soviético, que no
era «ortodoxo»; aunque curiosamente los rusos siguieron celebrando la
«Revolución de Octubre» el día de su aniversario, el 7 de noviembre. Y los
griegos no pasaron al nuevo cómputo hasta 1927, cuando sus calendarios
marchaban ya con 13 días de retraso.
Las técnicas de navegación se desarrollaron prodigiosamente en la época de los
grandes descubrimientos geográficos. En la Casa de la Contratación de Sevilla
se crearon cátedras de matemáticas, astronomía y cartografía, al mismo tiempo
que se elaboraba el «Padrón General» o mapa del Nuevo Mundo. Cada piloto tenía
obligación de hacer un mapa de las tierras por él descubiertas, mapa que iba
enriqueciendo el General. Parece que fue Diego Gutiérrez el que consiguió
elaborar en 1562 un mapa completo y enorme del continente americano. Alonso de
Santa Cruz fue autor de unas «cartas esféricas» que suponían una nueva técnica
en la representación de una superficie esférica sobre un plano, y Pedro de
Medina escribió un famoso tratado de navegación.
El alemán Johann Müller, más conocido como Regiomontanus por haber nacido en
Königsberg (1436-1476), fue el mejor matemático y geómetra de su tiempo.
Su Algorismus demonstratus fue un excelente tratado de
cálculo, y una obra posterior, De triangulis, puede
considerarse el primer tratado propiamente dicho de trigonometría. Sustituye
las cuerdas por los senos, y explica cómo se puede resolver un triángulo
conociendo tres de sus elementos (dos ángulos y un lado o dos lados y un
ángulo). La ciencia de la trigonometría, con todas sus espectaculares
consecuencias, estaba en marcha.
Niccoló Fontana, que adoptó él mismo el nombre de Tartaglia, porque era
tartamudo, (1499-1559) fue un insigne matemático italiano, que teorizó sobre
las leyes de la balística y estudió la caída de los cuerpos, preludiando los
trabajos de Galileo y de Newton. Ideó el famoso «Triángulo de Tartaglia», una
serie de números en que cada término es la suma de los dos que están sobre él.
Parece un simple entretenimiento o un juego cabalístico, pero resulta de gran
utilidad en el orden de las progresiones o para calcular la potencia enésima de
un binomio. También logró dar criterios para la resolución de la ecuación de
tercer grado, que era la bestia negra de los matemáticos de entonces. [2]
En este punto sostuvo una larga y famosa polémica con Jerónimo Cardano
(1501-1576), un matemático entre genial, egoísta y loco, que también trabajó
sobre el tema, y fue uno de los introductores del álgebra en Europa. Se dice
que Cardano, que practicaba la pseudociencia de los horóscopos, profetizó la
fecha de su muerte. Como llegado el momento gozaba de buena salud, y estaba
empeñado en acertar, se suicidó. En orden al progreso del álgebra, no podemos
olvidar a Simón Stevin (1448-1520), que propuso tomar como inicio de la serie
de los números el cero y no el uno. De ahí pasó a concebir los números
negativos. Una persona que no tiene dinero, pero lo debe no es lo mismo que
otra que simplemente no lo tiene: la primera «posee» un caudal negativo, y la
segunda un caudal cero. Ahora ya es posible restar 435 - 623= -188. Y como caso
curioso, recordemos a G. Frisius (1508-1555), autor de una Aritmeticae
practicae methodus facilis, destinada a los comerciantes y contables.
En 40 años se hicieron 60 ediciones de este libro: fue un auténtico «best
seller».
- En el campo de la medicina hemos de destacar la figura de Paracelso
(Teofrasto de Hohenheim, 1493-1540), un suizo inquieto y rebelde, que viajó por
toda Europa, de España a Grecia, pasando por Suecia, y visitó también lugares
de Asia y África. En su tiempo se seguía como a autoridades indiscutibles a los
clásicos. Paracelso se rebeló contra la tradición, y en un acto espectacular
quemó las obras de Galeno y Avicena. Pretendía una medicina nueva, aunque no
estuvo a salvo de prejuicios y arrebatos místicos. Laín Entralgo advierte que
«no entenderá la obra de Paracelso quien no vea en ella un intento de rehacer
(...) los saberes humanos, pero no mediante la lectura y reflexión, sino merced
a una fervorosa y omnímoda pesquisa personal». Ahí estuvo su principal defecto:
la excesiva confianza en sí mismo, y el deseo de hacerlo todo él, como si fuera
una especie de profeta inspirado. Eso sí, rechazó a los clásicos, pero también
combatió todo tipo de hechicerías, muy frecuentes aún en su tiempo. Intentó
descubrir la causa de las enfermedades, y cuando menos acertó aconsejando la
mayor asepsia posible, y los baños, mejor baños en aguas minerales. Formuló
preparados a base de metales: mercurio, plata, oro, cobre, de los que creyó
obtener las «esencias», por más que se tratase en la mayoría de los casos de
productos ineficaces, cuando no perjudiciales. Su espíritu extrañamente místico
le llevó a creer que los medicamentos actúan en virtud de un poder espiritual o
«quintaesencia». Acertó en unos puntos, se equivocó en otros; pero dio una idea
de lo que es la «iatroquímica» o química médica. Pasado mucho tiempo, aquella
idea acabaría fructificando en productos de síntesis química que constituyen la
base de la medicina clínica actual.
- Andrés Vesalio (Wessel), era belga de nacimiento (1514-1564), pero también
viajó mucho, y se fijó por largo tiempo en Padua, la principal escuela de
medicina por entonces, donde fue profesor de anatomía. Al contrario que otros
maestros, disecaba él mismo delante de sus discípulos, e iba describiendo y
analizando los distintos órganos del cuerpo. Llegó a ser médico de Felipe II de
España, aunque su principal actividad fue la anatomía. Su obra magna, De
fabrica humani corporis fue durante mucho tiempo la base de los
conocimientos anatómicos. Para Vesalio, la armazón de esa «fábrica» son los
huesos; la carne se afianza en ellos por los tendones y músculos; luego vienen
las arterias y las venas, que conducen la sangre; en el interior del cuerpo
están los órganos: el corazón, los pulmones, el estómago, el hígado, los
riñones, que realizan cada cual una función vital distinta. Lo que más admira
en Vesalio son sus maravillosas láminas, realizadas con una pulcritud y una
precisión extraordinarias. Vesalio es uno de los grandes introductores de la
medicina moderna: comenzó siguiendo a Hipócrates y Galeno para irse separando
de ellos, pero sin adoptar nunca posturas combativas.
- El mecanismo de la circulación de la sangre quedaba aún pendiente. Tardó un
tiempo en ser comprendido. Un médico revolucionario y heterodoxo, a la manera
de Paracelso, el español Miguel Servet, aragonés o navarro, según las
versiones, 1511-1553, mezcló sus teorías religiosas con las médicas; en un
libro en que pretendía reformar el cristianismo (De restauratio fidei
christianae) formuló la idea de que la sangre necesitaba purificarse,
y lo hacía gracias al aire que aportaban los pulmones: de aquí que se le
atribuya el descubrimiento de la pequeña circulación de la sangre, o
circulación pulmonar. Eso sí, relacionaba el aire inhalado con el «pneuma» o
espíritu. Servet fue condenado a perecer en la hoguera por otro reformista,
Calvino. Cinco años después de la muerte de Servet, en 1558, Realdo
Colombo, profesor en Padua, se refería con más claridad a la parte derecha y la
izquierda del corazón; la primera enviaba la sangre a los pulmones, de donde
regresaba a la parte izquierda. Sin embargo, una explicación completa de la
circulación de la sangre no llegaría hasta el médico inglés William Harvey (1578-1657),
buen clínico y mejor observador, al que ya podríamos incluir entre los grandes
científicos del siglo XVII. Distinguió, en ese maravilloso motor que es el
corazón, el papel de las aurículas y el de los ventrículos, y separó la
circulación pulmonar de la general. La sangre, impulsada por el ventrículo
izquierdo, sale por las arterias, y después de regar todo el organismo regresa
por las venas. Una teoría tan correcta causó sin embargo extrañeza. John
Aubrey, biógrafo de Harvey, dice que cuando éste formuló la teoría de la
circulación, muchos de sus pacientes le abandonaron, porque le tenían por loco.
Capítulo 6
La Revolución del siglo XVII
Contenido:
§. Descartes: el método y el análisis
§. Kepler y el triunfo insospechado de la elipsis
§. Galileo: genio y polémico
§. Los logaritmos
§. Algo sobre Torricelli y Huygens
§. Leibniz y el cálculo infinitesimal
§. Newton y la ley del universo
En nuestra estimación más habitual, el
Renacimiento, en los siglos XV y XVI, es más brillante que el barroco, que
ocupa una época que transcurre en el XVII y parte del XVIII. Identificamos el
barroco con lo desmesurado, lo innecesariamente complicado, hasta con lo
irracional. El siglo XVII es tenido como una época de decadencia. Se registra
en Europa una grave crisis económica, motivada en parte por la disminución de
los aportes metálicos y del tráfico con el Nuevo Mundo (América va aprendiendo
a valerse por sí sola), de disminución de la población europea por obra de una
serie de pestes terribles, y por guerras interminables, entre ellas la Guerra
de los Treinta Años, que asoló a gran parte del continente. Por si fuera poco,
hay en muchos países monarcas indolentes y ministros corruptos, tal vez porque
la excesiva complejidad de la administración del estado hace la función de
gobernar cada vez más incómoda, y no se han inventado funciones nuevas. Todo
eso es cierto. Pero también es cierto que el siglo XVII es el siglo de
Cervantes, Shakespeare, Velázquez, Rembrandt; como también lo es, en el campo
científico, de Descartes, Kepler, Galileo, Neper, Leibniz, Newton. O que en la
música consagra las tonalidades y las formas que hoy seguimos considerando
«clásicas». Hay en el siglo XVII un misterio, capaz de suscitar grandes genios
y grandes innovadores, en medio de una época convulsa, llena de dificultades y
que muestra signos de languidez. La ciencia, por su parte, se independiza de la
filosofía, racionaliza sus métodos, observa los fenómenos, deduce leyes, y
utiliza instrumentos de cálculo desconocidos o poco conocidos hasta entonces,
que permiten un avance espectacular, como tal vez ningún otro siglo había
conocido. Y de este avance deriva la «ciencia clásica», tal como se la concibe
y se la practica en el siglo XVIII y sobre todo en el XIX.
§. Descartes: el método y el análisis
Suele identificarse, según los criterios, a Descartes o a Galileo como «el
introductor de la ciencia moderna». Quizá con cierta imprecisión, por cuanto la
moderna concepción científica fue llegando poco a poco, tuvo sus predecesores y
más tarde sus confirmadores; pero es cierto que tanto Descartes como Galileo
tuvieron un evidente sentido «moderno», aunque cada cual a su estilo, que independizaron
la ciencia de cualquier otro tipo de conocimiento, que buscaron lo riguroso y
que dieron una especial importancia a la relación entre la razón humana y la
experiencia.
Descartes goza de una fama especial como filósofo, y esa fama es merecida, pero
no puede separarse su filosofía de su espíritu científico. Tanto es así, que su
obra más famosa, el Discurso del Método, no es más que el
prólogo a un libro general de ciencias, el «Tratado del Mundo», del cual solo
llegó a publicar tres partes: «Dióptrica», «Meteoros» y «Geometría». René
Descartes (1596-1650) nació en La Haye, Turena, Francia. Estudió con los jesuitas,
y más tarde cursó derecho, pero la carrera no le convenció. Durante un tiempo
participó como militar en la guerra de los Treinta Años, y sirvió a Mauricio de
Nassau. En 1619 sufrió un impulso interior, que él interpretó como una
revelación, que le condujo a dedicar su vida al hallazgo de un método infalible
para alcanzar la verdad. Desde entonces fue filósofo y científico a un tiempo.
A diferencia de otros autores del siglo XVII, no establece una distinción
específica entre la filosofía y la ciencia. Estuvo en Italia, más tarde en
Holanda, donde publicó la mayor parte de sus obras. Al final decidió
establecerse en Suecia, donde la reina Cristina quería recibir sus lecciones.
El frío invierno sueco agravó su enfermedad pulmonar, de la que falleció cuando
tenía 54 años.
Descartes parte de la idea de que no cabe apoyarse en los conocimientos
antiguos, porque contienen muchos errores y no es posible partir de lo
equivocado. En realidad, el conocimiento ha sido hasta el momento un mar de
dudas. Y Descartes siente un ansia infinita de alcanzar lo cierto, lo
absolutamente indiscutible. Le encantan las matemáticas, y cree saber por qué:
las matemáticas no fallan, llevan a conclusiones apodícticas, sin posible
recurso en contra. «Las matemáticas demuestran todo lo que expresan, expulsan
todas las dudas». ¿No podría encontrarse para las demás ciencias, para la misma
filosofía, un «método matemático» capaz de alcanzar en todos los ámbitos una
certeza absoluta? Toda su vida estuvo obsesionado con la búsqueda de ese
método. En el Discurso del Método, como es bien sabido, parte
de una «duda metódica», en que se refugia en sí mismo, como si lo demás no
existiera (o no fuese seguro que existiera), y en ese refugio encuentra un
hecho que se le aparece como evidente, como un axioma que no se puede
discutir: cogito, ergo sum, pienso, luego existo. Descartes
parte así de su propio yo, del hecho de «su» pensar y de la conclusión de «su»
existencia. Introduce un elemento subjetivo, aunque le parece evidente. Y a
partir de este hecho deduce la existencia de Dios, que hay una «res cogitans»,
digamos un espíritu capaz de pensar, y una «res extensa», es decir, una materia
conocible. Y por este camino va reconstruyendo la realidad, que resulta ser más
o menos como le han dicho. ¡Ah!, pero la admite no porque se la han dicho, sino
porque él la ha comprobado. Con Descartes se introduce el
papel del yo como suprema instancia, la correspondencia entre el sujeto
cognoscente y el objeto conocido, y el uso de la razón como supremo árbitro en
la elucidación de la verdad. Una concepción de esta naturaleza será la base de
toda la ciencia clásica desde entonces hasta la gran crisis científica del
siglo XX. Y, por supuesto, la admisión de la matemática como la base, «la
puerta» dice Descartes, de todo el desarrollo del conocimiento.
Por lo que se refiere a la ciencia en sentido estricto, la mayor aportación de
Descartes fue la geometría analítica, llamada también geometría cartesiana. Ya
otros habían trazado ejes de coordenadas, pero es él quien generaliza el
método, y, sobre todo, quien de acuerdo con el sistema de referencia que esos
ejes crean (llamando x a los valores en ordenadas, e y los valores en
abscisas), aplica el álgebra a la geometría. Así, representando una
circunferencia, una elipse, una parábola en función de los puntos que estas
figuras ocupan respecto de un eje de coordenadas, deduce las ecuaciones de la
circunferencia, de la elipse, de la parábola. Las figuras pueden representarse
por ecuaciones, y puede operarse con ellas como si fueran las propias figuras.
La geometría analítica significó un avance de importancia colosal en el método
matemático, y permitió las más insospechadas aplicaciones. Más aún: hemos
escrito las palabras «en función de», un concepto que hoy empleamos con
frecuencia para muchas cosas, no solo estrictamente científicas. El concepto de
«función» sería tomado más tarde por Leibniz para introducir los fundamentos
del cálculo infinitesimal. Descartes, efectivamente, había abierto la puerta.
§. Kepler y el triunfo insospechado de la elipse
Johannes Kepler (1571-1630) es quizá menos famoso entre las personas
relativamente cultas que sus contemporáneos Descartes o Galileo, pero no por
eso es menos importante, si no lo es más. Eso sí, no fue un rebelde ni amigo de
gestos espectaculares. Hijo de una familia relativamente modesta, nació en
Weil, Würtenberg, Alemania, y con el propósito de hacer la carrera eclesiástica
estudió filosofía en la universidad de Tubinga. Allí encontró un profesor de
matemáticas y astronomía, que cambió su destino. «Yo iba a ser teólogo,
escribió una vez Kepler. Luego me di cuenta de cómo Dios se manifiesta también
vivamente en la obra de sus manos». En 1594 fue profesor en Graz, Austria, y
vivió en una modesta casita que aún se conserva. Su fama de sabio creció de tal
manera, que en 1602, a la muerte de Tycho Brahe, el emperador Rodolfo II le
nombró su astrónomo oficial. Kepler disfrutó de la inmensa ventaja que suponía
poder disponer de las numerosísimas y precisas observaciones de Brahe, y tuvo
el inconveniente de estar obligado a hacer horóscopos, una actividad que él
bien sabía que era anticientífica, porque el oficio de astrónomo imperial
incluía tal cometido y Rodolfo se lo reclamaba.
Kepler apenas fue observador. No dispuso de los complicados instrumentos que
Brahe había tenido en Uranienborg, y su enfermedad de la vista hubiera
dificultado su labor. Fue en cambio un fabuloso calculista, y además estaba
convencido de que los cielos están regidos por leyes expresables
matemáticamente. Partió de la concepción copernicana, pero halló un obstáculo
al estudiar detenidamente la retrogradación de los planetas. Sobre todo en el
caso de Marte, el más fácil de estudiar, la retrogradación variaba según la
posición de aquel astro en el cielo, y además era tanto más fuerte cuanto más
brillante aparecía Marte, (es decir, podía colegirse: cuanto más cercano). No
todos los acercamientos de Marte se producían a la misma distancia. Copérnico
había tratado de resolver este problema suponiendo que las órbitas de los
planetas eran circulares, pero el sol no estaba exactamente en el centro de
estos círculos. Kepler se dio cuenta de que tal explicación era insuficiente.
La solución matemática era muy sencilla, pero muy insatisfactoria: ¡los
planetas giran en torno al sol describiendo una órbita elíptica! Ya en 1605 se
dio cuenta de que no podía ser de otra manera, pero su imaginario, influido por
convicciones de milenios, se resistió durante unos años a admitirlo, hasta que
al fin hubo de rendirse ante la evidencia. En 1609 se decidió a formular sus
famosas tres leyes:
1. Los planetas describen una elipse en su movimiento en torno al sol,
el cual se encuentra en un foco de esa elipse . Es la más sencilla de
expresar de las tres, pero también, aunque hoy estemos muy lejos de imaginarlo,
la que a sus contemporáneos pareció más revolucionaria. El mismo Kepler intentó
buscar otras explicaciones: no le gustaban las órbitas elípticas, pero al fin
hubo de atenerse a los hechos. El mundo científico vivía inmerso en las
concepciones pitagóricas sobre la armonía universal, y en la idea de Platón de
que la circunferencia es la línea más perfecta de todas, y la figura más perfecta
es la esfera. Y los cielos son perfectos, como proclamaba Aristóteles en una
afirmación que nadie se había atrevido a negar. Recordémoslo porque es curioso:
un científico tan inconforme con la autoridad y tan progresista como Galileo
escribía a Kepler: «vuestras elipses me quitan el sueño. Pensar que los
movimientos celestes no son perfectos supone que cualquier día todo el
majestuoso edificio de la Creación puede venirse abajo. Os lo repito: vuestras
elipses no me dejan dormir». Hoy no se nos ocurre pensar que una elipse pueda
ser menos «perfecta» que una circunferencia, o que la maquinaria de los cielos
corra peligro por el hecho de que las órbitas sean elípticas: pero la
resistencia a un cambio de paradigma es tenaz hasta en los científicos más preparados.
2. El radio vector de un planeta barre espacios proporcionales al
tiempo empleado en recorrerlos. Lo que viene a significar que un
planeta se mueve tanto más rápidamente cuanto más cerca se encuentra del sol, y
más lentamente cuanto más lejos. Puesto que las órbitas son elípticas, un
planeta se mueve unas veces más que otras: acelera y decelera. En Marte el
fenómeno es mucho más visible. En la Tierra, no tanto, pero lo es también. La
mayoría de las personas cultas, pero no todas, ciertamente, saben que en
diciembre la Tierra se encuentra más cerca del sol que en junio (por supuesto,
la distancia al sol no tiene nada que ver con las estaciones). Pero quizá no
nos hemos dado cuenta de que, en el hemisferio Norte, el verano dura 94 días y
el invierno 89: basta tomar un calendario para comprobarlo. Y es que la Tierra
marcha más deprisa en diciembre-enero que en junio-julio. En Marte la
diferencia es más escandalosa: en el hemisferio Norte, el verano dura 183 días
y el invierno 158. Todo porque la órbita marciana es mucho más marcadamente
elíptica que la terrestre.
3.El cuadrado del tiempo de revolución (digamos el año de un planeta)
es proporcional al cubo de su distancia al sol. Esta tercera ley fue
establecida por Kepler años más tarde, después de arduos cálculos, y nos sirve
para conocer la distancia al sol de cada planeta: naturalmente, siempre que
conozcamos la de un planeta determinado. Por ejemplo, podemos observar que
Júpiter da una vuelta completa al sol en 11,8 años. Aplicando la ley, resulta que
Júpiter dista del sol 5,2 veces más que la Tierra. Para conocer la distancia
exacta tenemos que saber de antemano la de la Tierra al sol. Esta distancia,
hallada por triangulación, o por los pasos de Venus por delante del disco
solar, era entonces muy difícil de determinar. Horrocks, en 1639, calculó una
distancia de 90 millones de kilómetros, pero Huygens, en 1659, la estimó en 160
millones. Fue un acierto increíble para aquellos tiempos. Hoy sabemos que el
sol, está a 150 millones de kilómetros de nosotros. Conocida la distancia al
sol, conocida la de los demás planetas. El siglo XVII terminaba con este
sensacional logro que permitía conocer con notable aproximación las dimensiones
del sistema solar. Por otra parte, las leyes de Kepler serían básicas para que
Newton, antes de terminar aquella centuria, descubriera la ley de la
Gravitación Universal.
Galileo Galilei (1564-1642) nació en Pisa, hijo de un músico notable,
progresista y rebelde, que pretendía realizar experimentos con los sonidos y
lograr una música nueva. Su retoño heredó unas cuantas de sus cualidades, entre
ellas un carácter polémico y la afición a la música, que no dejó de practicar
toda la vida. El padre, Vincenzo, le hizo estudiar medicina en la universidad
de Pisa, pero Galileo salió también rebelde y dejó la carrera para aprender
matemáticas y física. Llegó a catedrático, y fue siempre original. Tuvo unas
dotes de observación extraordinarias. Su biógrafo Viviani cuenta que, durante
una función en la catedral de Pisa, observó las oscilaciones de una lámpara que
colgaba de la bóveda: las oscilaciones eran isócronas, aunque cada vez menos
acentuadas, es decir, el recorrido de la lámpara era cada vez menor, pero el
tiempo que empleaba en cada ciclo o vaivén, era siempre el mismo. Si fue así, descubrió
de joven la ley del péndulo, aunque no la publicó hasta muchísimo más tarde.
También se cuenta, aunque no es nada seguro, que arrojó una serie de bolas de
plomo y de madera desde lo alto de la Torre inclinada de Pisa, para demostrar,
contra la teoría de Aristóteles, que todos los cuerpos caen a la misma
velocidad, y no, como se decía, que los más pesados caen más de prisa. Si hizo
tal experiencia, falló ante sus contrincantes. Porque es cierto que en el
espacio libre, donde no hay atmósfera, digamos en la luna, cae con la misma
velocidad una bola de plomo que una pluma; pero en nuestro mundo, por el
rozamiento del aire, la pluma lo hace más despacio. La teoría era genial, la
práctica, tal como la hizo, parecía dar la razón a sus contrarios. Galileo era
un hombre rebelde. Odiaba vestir la toga en la universidad, que entonces era la
prenda reglamentaria; y lo que es peor, escribió un epigrama sarcástico contra
los que usaban toga. Sus intemperancias le ganaron enemigos, y fue expulsado de
la universidad.
Le invitaron entonces a enseñar en la universidad de Padua, donde estuvo
durante dieciocho años (1592-1610). Allí destacó como matemático y como físico.
Se dedicó a la dinámica, al estudio de los cuerpos en movimiento y a la
determinación del centro de gravedad de las diversas figuras geométricas.
También mejoró el principio de Arquímedes sobre la flotabilidad de los cuerpos.
Aunque se quejaba de que no le pagaban lo suficiente y protestó con frecuencia,
su vida hubiera sido relativamente plácida si un hecho no hubiera venido a
alterarla de forma dramática en 1610. Muchas personas creen que Galileo fue el
inventor del telescopio. No es exacto. Ya Bacon hizo un instrumento para
aumentar el tamaño aparente de los objetos lejanos, aunque no sabemos en qué
consistía. Y sabemos que por 1580 un individuo vendía por las calles de Sevilla
un tubo para «catar lejos» (catalejo). Estos inventos no dieron resultado, a lo
que parece. En 1608 un fabricante de lentes flamenco, Hans Lippersey, colocó en
un extremo de un tubo una lente convexa y en el otro extremo una lente cóncava,
y observó con asombro que aumentaba el tamaño de los objetos lejanos, como una
lupa aumentaba el de los cercanos. El invento era de utilidad incalculable para
los marinos, y Lippersey dio a conocer por escrito su descubrimiento: fue este
escrito el que le dio difusión, con independencia de que otros hubieran logrado
antes lo mismo. En 1609 un comerciante y marino flamenco recaló en Venecia y
enseñó su catalejo. Galileo, que ya había hecho experimentos de óptica,
comprendió la utilidad del hallazgo, fabricó un instrumento igual y se dispuso
a sacarle partido. Esta iniciativa cambió la historia.
Las primeras observaciones telescópicas de Galileo parece que se hicieron desde
lo alto del Campanile de San Marcos de Venecia, naturalmente sobre objetos
terrestres: navíos o edificios lejanos. El Dux y los caballeros que le
acompañaban quedaron entusiasmados, y le ayudaron. Galileo pudo fabricar así
telescopios cada vez mayores. Ya en Padua, observó manchas en el sol (que él
atribuyó a nubes solares, escandalizando a los que sostenían que el sol es
inmaculado); las montañas de la luna (¡la luna es un mundo como la Tierra, con
montañas y al parecer mares oscuros!); las fases de Venus (¡Venus tiene fases
como la luna, y esto solo se explica si unas veces está más lejos que el sol y
otras más cerca!); los satélites de Júpiter (la primera noche vio tres
«estrellitas» en torno al planeta, la segunda vio cuatro, y volviendo a
observar noche tras noche, llegó a la conclusión de que giraban alrededor de
Júpiter: ¡luego hay unos astros que giran alrededor de otros, y no todos
alrededor de la Tierra!). No tuvo tanta suerte con Saturno: le parecieron tres
planetas ensartados uno a otro; años más tarde, creyó ver un planeta en forma
de huso con dos agujeros: su modestísimo telescopio le producía estos efectos
ópticos. Sólo en 1655 Christian Huygens, operando con un telescopio mucho más
potente, descubrió los anillos de Saturno. El último descubrimiento astronómico
de Galileo fue que la Vía Láctea se resolvía en millones de estrellas
individuales. Tuvo que ser más una intuición que una constatación, porque su
aparatito no daba para más. Pero esa intuición venía a destruir para siempre la
idea de «la esfera de las estrellas». Estas se encuentran a distancias muy
distintas, algunas infinitamente más lejos que otras.
Los descubrimientos de Galileo venían a trastornar la concepción del Cosmos.
Por supuesto, levantaron polémicas, que el sabio pisano disfrutaba fomentando.
El astrónomo papal, el alemán Clavius, uno de los autores de la reforma del
calendario creyó escandalizante que la luna pudiera tener montañas. Galileo
llevó su telescopio a Roma, y allí Clavius quedó plenamente convencido. Otra
polémica tuvo con el P. Scheiner, que también había descubierto las manchas del
sol: ambos discutieron sobre quien las había descubierto primero y cuál era su
verdadera naturaleza. Pero el hallazgo que Galileo quiso considerar primordial
fue el de los satélites de Júpiter: reforzaba la concepción copernicana, pues
aunque no demostraba que los planetas giran alrededor del sol, dejaba en claro
que unos satélites giran alrededor de un planeta, y no de la Tierra. En 1610
publicó Sidereus nuntius («el mensajero celeste»), y, se lo
dedicó a Cosme II de Médicis: como el gran sabio era un magnífico vendedor,
llamó a los satélites de Júpiter los Astros Medíceos. Ni que decir tiene que
Cosme II se sintió halagado, recibió con los más altos honores a Galileo y le
hizo su Astrónomo Mayor.
David Brewster escribe que «la imprudencia con la cual Galileo insistió en
hacerse enemigos sirvió aún más para que éstos se alienaran de la verdad». Fue
un perjuicio para ambas partes. Y creó una falsa leyenda muy difícil de
desarraigar. Una encuesta reciente recoge el dato de que el 30 por 100 de los
universitarios cree que Galileo murió en la hoguera de la Inquisición, y un 80%
que fue torturado. No sufrió daño físico alguno, y murió, casi octogenario, en
su magnífica «villa» de Arcetri. Un hecho que puede sorprendernos en principio
es que Copérnico, canónigo de Cracovia y descubridor del sistema heliocéntrico,
no fue molestado por ello; que Kepler, otro hombre profundamente religioso, no
solo aceptase la teoría copernicana, sino que descubriese las leyes que rigen el
movimiento de los planetas alrededor del sol, sin encontrar enemigos (como no
fuese el propio Galileo, más conservador, que no podía tolerar la idea de las
elipses). Y que en cambio, Galileo, que no descubrió en este campo más que el
movimiento de los satélites de Júpiter, y no precisamente en torno al sol,
generase dramáticos problemas con la Iglesia. Es muy posible que en los inicios
del Barroco, por razones del cambio de mentalidad y por intuirse el peligro de
la interpretación libre de la Biblia que defendían los protestantes, se hubiera
hecho más conservadora. Es indudable también que la época barroca es
extremadamente tendente a polémicas. Y que Galileo era polémico, y además
sarcástico, por naturaleza. Se ha discutido si aquel hombre genial se consideraba
a sí mismo «el mensajero celeste» o si esas palabras se refieren solo al libro
que escribió con ese título. El hecho pudo escandalizar. Ludovico Geymonat
pretende que Galileo quiso instrumentalizar a la Iglesia para hacer triunfar su
doctrina. Si en las Universidades, centros muy ligados a la Iglesia, se
enseñaba como verdad oficial el heliocentrismo, y con él las teorías de
Galileo, el sabio adquiriría un renombre universal.
Sea de ello lo que fuere, Galileo viajó a Roma en 1611, y fue recibido por todos
con admiración como un gran científico. El telescopio fue colocado en los
jardines del Quirinal, y hasta el papa contempló admirado las manchas del sol y
otras maravillas. El sabio estaba a punto de conseguir su objetivo. De momento
todo fue bien, aunque, como en todas partes, Galileo encontró enemigos, pero
sobre todo entusiastas partidarios. La cosa comenzó a estropearse cuando uno de
esos entusiastas, el P. Foscarini, pretendió encontrar en la Escritura pruebas
de la teoría heliocéntrica. Y lo peor fue cuando el propio Galileo empezó a
hacer exégesis bíblica por su cuenta. Se estaba mezclando innecesariamente la
interpretación de los libros sagrados con hechos científicos, de una naturaleza
distinta. Galileo fue objeto de numerosas denuncias ante la Inquisición. No
llegó a juzgársele, pero el cardenal Bellarmino, primera autoridad sobre la
cuestión en aquel momento, pidió a Galileo que no enseñara el heliocentrismo
como un hecho comprobado, sino solo como una hipótesis, en tanto no
pudiese demostrarla.
Ni triunfo apoteósico ni fracaso completo. Galileo regresó a Florencia, donde
siguió siendo sumamente estimado. Continuó haciendo experimentos sobre la
gravedad de los cuerpos, e inventó el primer tipo de termómetro, todavía un
tanto imperfecto. Eso sí, sostuvo una polémica con el jesuita Orazio Grassi
sobre la naturaleza de los cometas. Ninguno acertó. En 1623 fue elegido papa
Maffeo Barberini, que tomó el nombre de Urbano VIII. El cardenal Barberini era
uno de los incondicionales admiradores de Galileo, y éste vio su camino
abierto. Para cumplir su promesa de no defender como tesis la teoría
heliocéntrica, utilizó un recurso muy socorrido entonces: la forma literaria
del Diálogo. Fue el Diálogo sobre los dos sistemas del Mundo, publicado
en 1630.
Los principales protagonistas son Salviatti, copernicano, y Simplicio, un
aristotélico de ideas rancias que hacen honor a su nombre. La obra es, en
efecto, una sucesión de argumentos y contraargumentos, en que Salviatti,
digamos el autor, se muestra muy superior a su contrario. La obra resulta
ingeniosa, aunque en extremo satírica y despectiva hacia los teóricos
tradicionales. El Diálogo fue buen recibido, y Galileo volvió
a Roma decidido a imponer su criterio. El papa y la mayoría de los cardenales
le recibieron calurosamente. No es fácil saber cómo se torció de nuevo la cosa.
Los enemigos de Galileo se movieron activamente. Una de las acusaciones
consistió en la supuesta identificación de Simplicio con Urbano VIII, algunas
de cuyas ideas se recogen, en efecto; pero parece sumamente improbable que
Galileo cometiese semejante acto de imprudencia con quien además se consideraba
su amigo.
Lo cierto es que las acusaciones acabaron promoviendo un juicio por parte de la
Inquisición que sorprendió a todos. Galileo sufrió una decepción tremenda y lo
pasó mal, porque además se consideraba un fiel católico. Tampoco los
inquisidores disfrutaron con el proceso. Se encontraron en la dramática
situación de tener que definirse entre dos concepciones del mundo, un asunto
muy comprometido entonces, y en el cual no hubieran debido entrar. M. Artigas
ha encontrado recientemente documentos en que se aprecia que los inquisidores
no querían condenar a Galileo; pero se veían presionados por las denuncias y
por el peligro de aceptar oficialmente una doctrina que podía ser falsa. Al
fin, y como era imposible un acuerdo, decidieron someter el asunto a votación.
Fue la votación la que decidió por mayoría: Galileo fue condenado.
Teóricamente a prisión. Se deduce que todo fue fruto de un consenso, puesto que
no llegó a estar preso nunca. Vivió durante un tiempo en el Quirinal, después
en la residencia del arzobispo de Siena, y finalmente en su villa de Arcetri.
No podía enseñar en la universidad, aunque sí seguir investigando y recibir
visitas. La condena de Galileo fue un baldón para la Iglesia, puesto que a la
larga (entonces era imposible) se demostró que la teoría heliocéntrica era la
verdadera. Las repercusiones históricas de esta condena, aunque hubiera sido
mínima, y hoy siga siendo tergiversada y exagerada, fueron inmensas. La frase
atribuida a Galileo al salir del tribunal, eppur si muove («y
sin embargo [la Tierra] se mueve») fueron inventadas en el siglo XVIII, aunque
todo el mundo se las crea. La condena a Galileo fue revocada en 1741, cuando ya
el sistema heliocéntrico estaba claramente probado.
El científico pisano siguió trabajando. En Arcetri practicó sus mejores
experiencias. Realizó un estudio decisivo sobre resistencia de materiales, y
sobre todo sobre la caída de los graves. Galileo descubrió y formuló la ley del
péndulo, pero no fue capaz de construir un reloj de péndulo (lo conseguiría
Huygens en 1656), pero ideó un ingenioso reloj de agua con un frasco
cuidadosamente graduado que le permitió comprobar el movimiento uniformemente
acelerado de los cuerpos que caen. Este principio, no lo olvidemos tampoco,
había sido enunciado en el siglo XIV por los tan olvidados Buridan y Oresme;
pero fue Galileo quien lo comprobó experimentalmente mediante un método
impecable. Se valió de un plano inclinado, también graduado, y de bolas que se
deslizaban por una ranura experimentando una mínima fricción, y siempre
constante. Como pronto comprobó que las bolas que caen por un plano inclinado
suben luego por otro colocado a continuación y cuesta arriba, descubrió también
la ley de la inercia. Ambos descubrimientos colocan a Galileo entre los
pioneros de la mecánica experimental y formulada: realmente fue el primero que
aplicó la matemática al movimiento de los cuerpos. Sus descubrimientos serían básicos
para los que después efectuaría Newton.
Galileo fue perdiendo la vista, y falleció en Arcetri el 8 de enero de 1642.
Como expresó uno de sus inventores, Henry Briggs, «los logaritmos son unos
números inventados para resolver más fácilmente los problemas de aritmética y
geometría». Esa invención se realizó a principios del siglo XVII, y ya por 1660
era conocida por la mayoría de los matemáticos. La idea no partió de Briggs,
que era, efectivamente, matemático, sino de un propietario de tierras y
aficionado a hacer cuentas, que se llamaba John Napier (generalmente es
conocido como Neper) barón de Merchiston. Neper (1550-1617) fue un ardiente
patriota a quien preocupaba la posibilidad de una invasión de las Islas
Británicas por los españoles, hacia los que sentía mucha rabia, y a este efecto
inventó sistemas de fortificaciones y cañones de grueso calibre que no llegaron
a fabricarse nunca. También publicó libros de teología, que fueron su obra
entonces más famosa, de los que se hicieron muchas ediciones. A Neper le
fastidiaba hacer cuentas, sobre todo elevar a potencias y extraer raíces. Y de
aquí que idease un sistema de operaciones aritméticas simplificadas, mediante
lo que él llamó «números artificiales», que luego pasaron a ser conocidos como
«logaritmos». El sabía que para dividir potencias bastaba restar exponentes.
Pues bien, operemos con exponentes.
Partió de la correspondencia entre dos progresiones
1 2 3 4 5 6
2 4 8 16 32 64
La primera es una progresión aritmética en que cada
número es igual al anterior más uno. La segunda es una progresión geométrica en
que cada número es el doble del anterior. Pues bien, el 1 es el logaritmo de 2,
el 2 el logaritmo de 4, el 4 el logaritmo de 16, y así sucesivamente. En 1614
Neper escribió un libro sobre «las maravillosas propiedades de los números
artificiales». Tales son los logaritmos neperianos, que siguen teniendo un
importante valor matemático. Pero poco después, el matemático Henry Briggs, que
visitó a Neper y conoció su invento, prefirió valerse de una base decimal. Así,
el logaritmo de 10 es 1; el de 100, 2; el de 1000, 3, y así sucesivamente. Los
logaritmos de Briggs o logaritmos decimales son los que empleamos usualmente.
Para multiplicar basta sumar, para dividir basta restar, para potenciar basta
multiplicar y para radicar basta dividir. Las operaciones mediante logaritmos
se hacen mucho más sencillas. Lo complicado es hacer una tabla de logaritmos,
ya que no todos los números son exponentes de 10. Así, el logaritmo decimal de
584 es 2,7664128471124; el logaritmo de 2006 es 3,3023309286844. Naturalmente,
el logaritmo de un millón es 6. Neper empleó 23 años en elaborar sus tablas, y
Briggs por lo menos 13. Pero una vez que el calculista conoce esas tablas, sus
operaciones se hacen incomparablemente más rápidas. (Y por lo general, no hace
falta emplear tantos decimales como aparecen en las tablas). Kepler difundió
los logaritmos por Europa, y Blas Pascal les encontró toda clase de aplicaciones.
Cálculos que exigían semanas enteras podían realizarse en un día. Simón de
Laplace dijo que «los logaritmos han duplicado la vida de los matemáticos» (en
el sentido de que les han ahorrado muchísimo tiempo). Sin duda se quedó corto.
Solo a fines del siglo XX y en el siglo XXI, con las máquinas calculadoras y
los ordenadores, las tablas de logaritmos se han quedado obsoletas. Pero
cumplieron una función histórica e insustituible durante tres siglos.
§. Algo sobre Torricelli y Huygens
En 1642 el Gran Duque de Toscana, Fernando de Médicis, había decidido construir
una nueva fuente en los jardines de su palacio, y los obreros estaban abriendo
un profundo pozo. Conforme aparecía el agua, la extraían por medio de una
bomba, para que pudieran continuar las obras. Sin embargo, al llegar a los 11
metros de profundidad, el agua dejó de subir por el tubo, por afanosamente que
trabajara la bomba. Nadie se explicaba el fenómeno. La idea vigente desde los
tiempos de Aristóteles era que el agua, o cualquier fluido, sentía «horror al
vacío», y tendía a llenar todo espacio que se dejase vacío de aire. Así
funcionaban las bombas, y nadie discutía tal principio. ¿Por qué el extractor
de agua dejaba de sentir «horror al vacío» a partir de once metros de desnivel?
Curiosamente, la inexplicable falta de horror del agua llenó de horror a los
entendidos. Nadie se explicaba aquella falta flagrante a las leyes de la
naturaleza. El Gran Duque consultó con el matemático de la corte, Evangelista
Torricelli, que se propuso resolver el misterio.
Torricelli era ya un científico reconocido. Había sido secretario de Galileo en
la última etapa de su vida, y por eso precisamente fue su sucesor en la corte
de los Médicis. Intuyó que alguna fuerza empujaba al agua a subir por un tubo
cuando en él se hacía el vacío, pero esta fuerza no era ilimitada: no podía con
el peso del agua cuando esta llegaba a poco más de diez metros de altura. No
cabía pensar en el horror al vacío. Y a Torricelli se le ocurrió la idea de que
el agua subía por el tubo porque estaba empujada por el aire. Probó con un
líquido más pesado que el agua, el más pesado de todos: el mercurio. Encontró
un tubo de cristal de metro y medio de longitud. Llenó el tubo de mercurio, lo
invirtió con la boca hacia abajo, y lo sumergió en una cubeta llena del mismo
metal. El mercurio descendió hasta una altura de 76 centímetros por encima del
nivel de la cubeta. En la parte superior del tubo se había hecho el vacío. ¡Y
el peso de una columna de mercurio de 76 centímetros de altura es igual al de
una columna de agua de 10,13 metros! El aire pesa, esa fue la deducción de
Torricelli. Y es ese peso el que hace subir un fluido por un tubo en el que se
ha hecho el vacío. Pero no indefinidamente: el peso de ese fluido nos indica
cuál es el peso del aire. Es falso que el aire no pesa, como se creía por
entonces. Presiona sobre todas las cosas, sobre nosotros mismos. Y si no somos
aplastados es sencillamente porque las partes huecas de nuestro cuerpo no están
vacías... están llenas también de aire. Torricelli inventó el barómetro, es
decir, un instrumento para medir el peso o presión del aire. Naturalmente, hoy
empleamos el barómetro como un medio para predecir el tiempo, puesto que la
presión del aire es más baja en el seno de las borrascas que en el de los
anticiclones. Eso Torricelli no lo sabía, pero el descubrimiento del barómetro
iba a ser fundamental en el mundo de la física, y dejó en claro que los gases
también pesan: unos más que otros.
Torricelli descubrió otras muchas cosas: por ejemplo la velocidad de salida de
un fluido por un tubo, un hecho relacionado también con la presión, y con la
altura del nivel del fluido (es el llamado «Principio de Torricelli»). Trabajó,
como Galileo, a quien perfeccionó, sobre el centro de gravedad de los cuerpos,
e intuyó la posibilidad de manejar valores infinitesimales, adelantándose a
Leibniz y a Newton. Sin duda aquel sabio laborioso y sencillo hubiera
descubierto muchas cosas más, si una fiebre tifoidea no se lo hubiera llevado
inesperadamente cuando tenía 39 años.
- Otro sabio también sencillo y humilde, a quien no se dio demasiada
importancia en su tiempo fue el holandés Christian Huygens (1629-1695). Fue
discípulo de Descartes, a quien conoció en los viajes que éste hizo a Holanda,
y hasta le alojó en su casa. Más tarde viajaría a Inglaterra, donde conoció a
Newton. Huygens se convierte así en una especie de enlace entre dos grandes
generaciones de científicos. Fue el típico sabio que abarcó los más diversos
saberes. Conocía el latín y el griego, escribía música, pulía lentes y fue un
excelente mecánico. Pasó quince años (1666-1681) en Francia, donde Luis XIV le
hizo miembro de la Real Academia de Ciencias. Allí hizo muchos de sus más
notables descubrimientos. Mejoró el sistema de pulimento de lentes y construyó
el mejor telescopio de su tiempo. Con él resolvió el famoso problema de
Saturno: no era un planeta triple, ni un astro con asas, sino que tenía un
brillante anillo alrededor. Y además descubrió un satélite de Saturno, Titán.
También observó Marte, e hizo los primeros dibujos de este planeta. Se dio
cuenta de que los accidentes marcianos no ocupaban siempre la misma posición, y
así calculó la rotación del planeta, que gira sobre sí mismo en poco más de 24
horas, ¡casi como la Tierra! Al mismo tiempo trabajó con lentes en la
observación de objetos muy pequeños, y junto con su compañero Leeuweenbroek
descubrió el microscopio: fue el primer hombre que consiguió ver las células de
nuestro cuerpo (aunque no pudo interpretarlas).
En París publicó Horologium oscillatorium, en que da cuenta
del descubrimiento del reloj de péndulo. Galileo, descubridor de la ley del
péndulo, se había esforzado inútilmente en construir un reloj. Huygens, mejor
mecánico, no solo hizo relojes, sino que inventó el péndulo compuesto, que corrige
la dilatación de la longitud del péndulo por efecto del calor, con lo cual sus
oscilaciones son isócronas bajo las más diferentes temperaturas. ¡Y muy poco
después descubrió el reloj de resorte! Mediante un muelle en espiral, logró un
movimiento constante de la maquinaria sin necesidad de péndulo. Un reloj de
resorte es transportable, y puede llevarse de cualquier forma, caminando, o
bien a bordo de un navío. Naturalmente, necesitaba aún muchos
perfeccionamientos antes de que un reloj así pudiese marchar de forma
satisfactoria. Con Newton discutió sobre la naturaleza de la luz, y concluyó
que era un fenómeno vibratorio.
Trabajando con espejos y prismas dejó en claro las leyes de la reflexión y
refracción de la luz. A veces es difícil separar lo que son descubrimientos de
Huygens de los que pertenecen a Newton. Otro trabajo de Huygens que más tarde
resultó utilísimo a Newton fue la teoría de la fuerza centrífuga. De ahí dedujo
que la Tierra debe ser achatada por los polos y abultada en el ecuador. Y
también enunció mejor que Galileo la ley de la caída de los cuerpos en el
vacío. Todo ello nos hace ver lo mucho que le debe su amigo Newton. Otra
aportación de Huygens fue un tratado completo sobre el cálculo de
probabilidades. Fue, en suma, el científico del siglo XVII que tocó más temas e
hizo más descubrimientos. Nunca se enzarzó en una polémica. Era tímido y
amable, y siempre respetó la obra de los demás. Tuvo la mala suerte de que la
mayor parte de sus escritos no llegaron a publicarse por entonces, al menos de
una manera amplia, de modo que solo fue bien conocido con posterioridad a su
muerte. Y aun así, es posible que nunca se le haya hecho justicia.
§. Leibniz y el cálculo infinitesimal
Zenón de Elea, un filósofo griego del siglo V a.J.C., que pasa por ser el
inventor del arte de discutir, propuso una serie de problemas o «apodas» que
pese a la aparente sencillez de su planteamiento, sus contemporáneos no
pudieron rebatir, aun sabiendo que las teorías de Zenón eran absurdas. La
«aporía» más conocida es la que se refiere a la apuesta entre Aquiles y la
tortuga. El héroe «de los alados pies» fue desafiado por una tortuga a que
nunca la alcanzaría en una carrera, siempre que le diese una determinada
ventaja. Supongamos, para entendernos mejor, que Aquiles corre diez veces más
rápido que la tortuga, y que concede a ésta cien metros de ventaja. Cuando
Aquiles ha corrido esos cien metros, la tortuga ha corrido diez, esto es, aún
va diez metros por delante. Cuando Aquiles recorre esos diez, la tortuga ha
recorrido uno, y todavía le lleva un metro de ventaja al héroe. Cuando este ha
recorrido ese metro, la ventaja de la tortuga es aun de diez centímetros. Y si
Aquiles avanza esos centímetros, la tortuga le llevará un centímetro. Cuando el
héroe recorra ese centímetro la ventaja de la tortuga será de un milímetro,
después será de una décima de milímetro, de una centésima de milímetro, y así
sucesivamente... Pero Aquiles nunca alcanzará a la tortuga.
Nosotros nos damos perfecta cuenta de que la argumentación encierra un
sofisma... y los griegos también lo sabían, porque eran dueños de una lógica
tan depurada como puede ser la nuestra; pero con su tosca contabilidad por
medio de ábacos, no encontraban manera de contradecir a Zenón. La trampa
consiste en escoger cada vez trechos más pequeños, hasta llegar a los
infinitamente pequeños, siempre dentro del ámbito en que Aquiles no ha
alcanzado a la tortuga. Los últimos trechos acaban siendo irrisorios, al fin,
absolutamente despreciables. Reparemos en el recorrido de Aquiles antes de
alcanzar a la tortuga: cien metros, diez metros, un metro, un decímetro, un
centímetro, un milímetro, una décima de milímetro...
Lo que, expresándonos en metros viene a ser: 100 +10 + 1 + 0,1 +001 +...
O, lo que es lo mismo, 111,111111111111... metros. Por este camino no
llegaremos nunca hasta el momento en que Aquiles alcanza a la tortuga, porque
necesitamos escribir un número infinito de unos, y no tenemos una pizarra en el
mundo donde quepan todos. Ese punto exacto al que queremos, pero al que no
podemos llegar es el límite en el cual el alcance se produce.
Naturalmente que Aquiles alcanza a la tortuga. Sin ir más lejos, en el metro
112 ya la adelantado en casi 89 centímetros. [3]
El concepto de límite ya fue teorizado por muchos matemáticos,
pero fue Leibniz el que lo expresó más claramente que nadie. Gottfried Wilhelm
Leibniz (1646-1716) fue quizás el último sabio universal. Fue teólogo,
filósofo, jurista, historiador, lingüista, diplomático, y al mismo tiempo uno
de los grandes genios del cálculo. Para B. Russell fue una de las inteligencias
más preclaras de todos los tiempos. Gauss, uno de los grandes matemáticos del
siglo XIX, le critica por haber desperdiciado su enorme talento para el
cálculo, al haber dedicado gran parte de su precioso tiempo a otros y muy
variados menesteres. Pero Leibniz fue así: polifacético, y al mismo tiempo
dotado de una ilimitada ansia de síntesis. Quiso abarcarlo todo. Dominaba el
latín, el griego, el alemán, el francés, el inglés, conocía el español y el
italiano y se interesó por el chino. La primera de sus grandes ideas
unificadoras, cuando le hicieron diplomático, fue conseguir una paz universal.
Luego trató de reconciliar a católicos y protestantes. Era luterano, pero se
fue acercando progresivamente al catolicismo; sin embargo, se negó a
convertirse, porque lo que quería era lograr una única confesión cristiana. No
hace falta decir que fracasó en su propósito (era demasiado idealista, y los
tiempos no eran quizá los más propicios para aquella misión, pero por lo menos
no dejó de intentarla). Más tarde concibió la idea de unificar todas las formas
de conocimiento humano: al parecer fue la lectura de Raimundo Lulio, a quien
Leibniz admiraba, el que se la sugirió. El ideal era una sciencia
generalis, expresada por un lenguaje común y perfecto, la lingua
characterica. De aquí la búsqueda de «un método en que todas las
verdades de la razón sean reducidas a un tipo de cálculo». A Leibniz, lo mismo
que antes a Descartes, le seducía el lenguaje matemático, porque lo encontraba
infalible, sin posibilidad alguna de error. Si todas las proposiciones de la
razón humana pudieran ser expresadas mediante un lenguaje parecido al
matemático, desaparecerían todas las dudas. Tampoco hace falta decir que
Leibniz no encontró este lenguaje, pero se le considera el primer gran pionero
de la lógica matemática.
Leibniz, cuya profesión era la de diplomático, estuvo en París, Londres,
Berlín, Roma, Amsterdam. Fue en París (1873-1879) donde conoció a Huygens, que
le instruyó en los principios matemáticos. Leibniz ya había estudiado
aritmética y geometría, pero quizá nunca hubiera llegado a ser un gran genio
del cálculo sin esa fecunda amistad. Filósofo como era, intuyó muy pronto la
importancia de los sistemas de numeración, y teorizó como nadie el sistema
binario (el que hoy emplean los ordenadores); enseguida desarrolló el cálculo
combinatorio y la teoría del cálculo de probabilidades, dos campos afines, en
que la matemática iba a desarrollarse muy ampliamente en el futuro. Pero muy
pronto se preocupó de lo que él llamó el calcul de l’infinément petit. Del
concepto de límite llegó al del infinitesimal. No olvidemos que en París se
familiarizó Leibniz con la geometría cartesiana. Una curva puede ser
representada en un sistema de coordenadas, y esta representación puede ser
expresada por una ecuación. Ahora bien, una curva está formada por infinitos
puntos. Y un punto no es curvo, ¡es solo un punto! ¿Puede ser localizado e
identificado un punto? Sí, por su posición exacta respecto del eje de
coordenadas. Leibniz pensó entonces en una serie de rectas tangentes a la
curva. Podemos trazar todas las tangentes a la curva que queramos, cada una de
ellas tendrá una inclinación, pendiente, distinta. Y cada
tangente toca a la curva en un solo punto. Ese punto, solo ese punto, será
común a la curva y a la tangente que toca con ella. Y la pendiente de la
tangente es perfectamente determinable, y coincide además con la pendiente de
la curva en ese punto.
La pendiente de cada punto de la curva coincide con la pendiente de una recta
tangente a ella. Aunque la curva, en ninguno de sus puntos, «es» la recta. Ni
la recta, en ninguno de sus puntos, «es» la curva. Y nadie puede protestar.
Basándose en esta equivalencia, que es perfectamente válida, llega Leibniz a
los supuestos del «cálculo», lo que llamamos hoy cálculo infinitesimal.
Descartes había expresado el concepto defunción (un punto de una
curva puede determinarse enfunción de los ejes de coordenadas:.
Pues bien, Leibniz idea la función derivada (hoy simplemente
«derivada») con la que puede operarse como si ese segmento infinitesimal de una
curva fuese una recta. Y esa posibilidad de operar sobre términos equivalentes
abre un inmenso camino a los recursos del cálculo, antes inimaginables. El
descubrimiento del cálculo infinitesimal fue probablemente el avance más
importante de la ciencia matemática en muchos siglos. Y gracias a la
matemática, lo fue también de la física, de la ingeniería, de la astronomía y
de otras muchas ciencias. Si nuestra civilización ha llegado a donde ha llegado
es en gran parte gracias al cálculo infinitesimal.
Ahora bien: la invención del cálculo infinitesimal no puede atribuirse
únicamente a Leibniz. Ya lo insinuó claramente Barrow años antes. Y
contemporáneamente, lo descubrió Newton. El «análisis» de Leibniz fue publicado
en Acta eruditorum en 1684, y los Principia de
Newton en 1687; pero desde mucho antes habían descubierto los dos genios, con
absoluta independencia, los fundamentos del nuevo cálculo. Ya en 1676 había
expuesto Leibniz lo que el llamaba differentia (diferencial) y
hasta escribió la notación que hoy se emplea, dx, o diferencial de equis. Pero
Newton asegura que la idea se le ocurrió ya en el annus mirabilis de
1666, cuando por culpa de una peste tuvo que refugiarse en su finca de
Woolsthorpe: y todo es posible. Varios testigos lo aseguran. Y también es
cierto que cuando Leibniz estuvo en Londres en 1673 conoció a Newton o supo
cuando menos de sus trabajos. Varias veces se escribieron los dos sabios, y se
comunicaron algunos de sus secretos, pero fueron empleando un lenguaje cada vez
más cabalístico conforme temieron que el otro le plagiara. La denuncia de
plagio partió al fin de Newton, ya cuando ambos habían publicado sus trabajos.
Y siguió una polémica ingratísima, e indigna de dos de los sabios más grandes
de todos los tiempos, azuzados por sus respectivos amigos. Leibniz era tan
ingenuo, que sometió la disputa al arbitraje de la Royal Society de Londres...
cuyo presidente era Newton (!!). Innecesario es decir cuál fue el veredicto.
Hoy tiende a considerarse que ambos fueron descubridores independientes del
cálculo moderno. Tal vez Newton se adelantó un poco, pero Leibniz lo formuló
mejor. Las expresiones que hoy empleamos son las de Leibniz, que parecen más
claras. De hecho, ambos pueden compartir con todos los honores la gloria de
haber realizado un descubrimiento que la humanidad debe agradecerles a lo largo
de los siglos.
§. Newton y la ley del Universo
Nadie hubiera apostado por Isaac Newton el día que nació, ni siquiera algunos
años más tarde. Las distintas biografías dan como fecha de su nacimiento el 14
de diciembre de 1642, o el 4 de enero de 1643, no porque existan dudas sobre la
cuestión, sino porque entonces regía en Inglaterra el calendario juliano, y los
ingleses no querían aceptar una reforma, por científica que fuera, establecida
por decisión de un papa. En todo caso, el padre de Isaac, un granjero de
Woolsthorpe, Inglaterra, había muerto tres meses antes. Y nació sietemesino.
Quizá sean exageradas las informaciones según las cuales solo pesaba dos libras
(un kilo); sí está claro que vino al mundo como un ser enclenque, y enclenque
se mantuvo durante su niñez. Por si fuera poco, su madre volvió a casarse
cuando el pequeño tenía dos años, y el padrastro no quiso cargar con él, de
suerte que Isaac se crió en la granja con sus abuelos. Mucho se ha hablado de
la relación de estos hechos con su vida retraída: es imposible asegurarlo. Sus
abuelos lo enviaron a una escuela cercana, donde no destacó por sus estudios,
ni tuvo amigos: sí mostró interés por los juguetes mecánicos: inventó un
cochecito manejado por una manivela, un molino de viento, una cometa que
llevaba luces encendidas...
Muerto su padrastro, la madre volvió a Woolsthorpe y pretendió convertir a
Isaac en un buen granjero, pero el muchacho descuidaba sus deberes, y siempre
lo encontraban leyendo libros de matemáticas... Así fue como por consejo de un
tío lo enviaron, a los 18 años, a estudiar en el Trinity College de la
Universidad de Cambridge, no muy lejos de Woolsthorpe. Obtuvo media beca y lo
alojaron como «estudiante sirviente», es decir, como criado de sus compañeros,
aunque podía recibir lecciones como los demás. Hasta entonces no había
destacado gran cosa, pero lo descubrió el matemático Barrow, que encontró en él
un extraordinario discípulo. Era ya un destacado universitario cuando, con
motivo de la peste de 1664, cerró la universidad de Cambridge. Isaac volvió a
la granja de Woolsthorpe, donde trabajó muy poco y meditó mucho. Fue en
aquellas circunstancias cuando según él mismo, y sobre todo según sus
partidarios, vivió el annus mirabilis de 1666. De acuerdo con
estas versiones solo en ese año descubrió la Ley de la Gravitación Universal,
la ley de desarrollo del binomio, las leyes del movimiento, y las «fluxiones»,
nombre que él daba a las «tasas de cambio en las variables en un intervalo
infinitamente pequeño», es decir, las propias del cálculo infinitesimal. Parece
lógico suponer que no desarrolló en su integridad todas las teorías; hubiera
sido un auténtico milagro. Pero pudo, en sus reflexiones solitarias, haber
intuido el núcleo de muchas de las que luego serían sus principales
aportaciones a la ciencia universal.
La famosa historia de la manzana ha sido siempre tenida por falsa, pero no
debemos olvidar que fue el propio Newton quien la inventó. Absolutamente nadie
puede negar que una noche de verano, cuando la luna llena brillaba en el cielo,
oyera caer una manzana. Conocía perfectamente ese ruido característico. Y pudo
preguntarse, en aquel momento o bien más tarde, por qué, si cae una manzana, no
cae también la luna. ¿Cuál es la diferencia entre la manzana y la luna?
Cualquier otro científico hubiera podido señalar cien diferencias, pero Newton
halló la fundamental: la manzana parte del reposo, mientras que la luna está en
movimiento. Concretamente, da vueltas alrededor de la Tierra. Y porque
da vueltas, no cae. De sobra conocía Newton lo que es la fuerza centrífuga. Es
más, si la luna da vueltas alrededor de la Tierra y sin embargo no sale
disparada como la piedra de la honda de los pastores, es precisamente porque la
Tierra la atrae. El sabio tuvo que meditar profundamente sobre la cuestión. Si
la luna no cae sobre la Tierra, pero tampoco sale disparada, sino que se
mantiene siempre en la misma órbita, es porque, solicitada por dos fuerzas, la
centrífuga y la centrípeta, se mantiene en equilibrio dinámico. ¿Cómo puede
explicarse ese equilibrio? A Newton le habían fascinado las leyes de Kepler,
tal como se las había explicado Barrow. Y trabajando con aquellas leyes y con
los hechos observados, dedujo, no sabemos exactamente cuándo, porque entre
aquella primera reflexión y la solución definitiva pudieron mediar años y
muchos cálculos, la Ley de la Gravitación Universal: dos cuerpos se atraen
entre sí en razón directa de sus masas, e inversa del cuadrado de su distancia.
Se ha dicho, al menos durante siglos, que es la ley más importante del
Universo.
Es posible que durante el mismo verano maravilloso intuyese Newton los
principios del cálculo infinitesimal, y, por supuesto, el desarrollo del
binomio y las leyes del movimiento. Todo está relacionado en cierto modo. Y
todo lo iría madurando en años sucesivos. Sin embargo, pasarían más de veinte
años antes de que se decidiese a publicar sus Principia mathematica, en
que todo ello está expresado. ¿Por qué esa inexplicable tardanza? El genio de
Newton es muy difícil de comprender. Sabemos que su mentalidad un poco
retorcida era enormemente susceptible a las críticas; y él vivía en una época
extremadamente propicia a la polémica. Newton era un genio, y poseía un
altísimo concepto de sí mismo. No podía soportar que le contradijesen: montaba
en cólera, se ponía malo. Y, cuando menos varias veces, aseguró que no quería
publicar sus teorías ante la posibilidad de que alguien las negase. Pudo ser
así, pudo sentir el deseo de dejar sus principios irrebatiblemente asentados,
pudo existir cualquier circunstancia psicológica que le impidiera expresar en
público lo que había descubierto. Lo cierto es que cuando al fin publicó
los Principia, en 1687, redactados al parecer entre 1684 y
1686, todos aquellos principios estaban descubiertos por Newton desde mucho
tiempo antes, y, en algunos casos, desvelados ya a sus discípulos.
En el campo del cálculo infinitesimal llegó a casi los mismos resultados que
Leibniz, aunque por un camino en cierto modo distinto. Leibniz partió
exclusivamente de la geometría analítica y de la identificación de puntos en
que una curva y una recta tangente se encuentran. Newton estaba más preocupado
por el movimiento. Sobre todo el movimiento de los astros. Las leyes de Kepler,
el hecho de que las órbitas de los planetas sean elípticas le hicieron ver que
el movimiento uniforme se da muy pocas veces. Los astros, contra lo que se
hubiera podido suponer un siglo antes, aceleran y deceleran. Esta consideración
fue el punto de partida que le permitió deducir la Ley de la Gravitación
Universal. Ahora bien, para determinar una órbita, es preciso conocer con
exactitud todos los puntos que recorre, y el momento en que ese cuerpo estará
en cada uno de esos puntos. De aquí la necesidad de calcular las «fluxiones» y
recomponer las órbitas.
Newton recurrió tanto al concepto de derivada como a la recomposición de todos
esos infinitésimos en forma de «integral». Quizá las expresiones que usó no
resulten tan cómodas ni a primera vista tan claras, pero su trabajo fue tan
genial y tan irreprochable como el de Leibniz.
Fue justamente el cálculo de la órbita de un cometa el que le movió a dar
publicidad por escrito a su método de cálculo. Veamos. En 1682 se hizo visible
un gran cometa. El astrónomo Edmund Halley encontró similitudes entre la
trayectoria aparente descrita por aquel llamativo astro y la de los cometas que
se vieron en 1531 y en 1607. ¿Se trataría quizás del mismo cometa que regresaba
a las cercanías de la Tierra una y otra vez? El periodo parecía ser de 75 o 76
años. Si esto era así, los cometas no son astros errantes que surgen cuando
menos se piensa y luego desaparecen para siempre: vuelven, después de haber
descrito una órbita cerrada. ¡Qué gran idea!: los cometas no son unos monstruos
siderales que anuncian desgracias, sino astros como los demás, solo que sus
órbitas son mucho más alargadas que las de los planetas. ¿Pueden calcularse
estas órbitas? Halley recurrió a Newton, del que sabía que ya había encontrado
un método nuevo que permitía calcular trayectorias celestes. De sus
conversaciones con el gran genio pudo Halley confirmar sus ideas, y al mismo
tiempo le animó insistentemente a publicarlas de una vez. Fue así como más o
menos entre 1683 y 1686 Newton se puso a redactar los tres impresionantes
libros de sus Principia mathematica. La tenacidad de Halley en
este sentido fue decisiva, y tenemos que agradecérsela. Por otra parte, Halley
pudo calcular que el cometa volvería a aparecer en 1758. Para esa fecha, el
astrónomo había fallecido, pero su retorno sobrevino con absoluta puntualidad.
¡La predicción se había cumplido! En honor de Halley, el famoso cometa fue
bautizado con el nombre de aquel astrónomo. Pero la intervención de Newton fue
también decisiva.
Otros dos puntos importantes que también se tocan en los Principia son
la fórmula para el desarrollo del binomio y las leyes del movimiento de los
cuerpos. La fórmula de desarrollo del binomio facilita enormemente el cálculo.
Casi todos sabemos que
(a + b)2 = a2 + 2ab
+ b2
Menos gente sabe que
(a + b)3 = a3 + 3a2b
+ 3ab2 + b 3
Y así sucesivamente. Cuanto mayor sea la potencia a
la que deseamos elevar un binomio mayor es el número de términos que hemos de
emplear. Pero Newton dio con la fórmula aplicable a todos los casos, e intuyó
que por ese camino podía operar con series polinómicas infinitas.
Y por lo que se refiere al movimiento, Newton formuló tres leyes fundamentales:
1ª, la de la inercia: un cuerpo inicialmente en reposo, si no es solicitado por
ninguna fuerza, permanecerá indefinidamente en reposo. Un cuerpo en movimiento,
si no es solicitado por ninguna fuerza, permanecerá indefinidamente en
movimiento, y ese movimiento será uniforme. (Es lo que ocurre con un cuerpo
lanzado al espacio, cuando no es atraído por ningún otro cuerpo).
2ª ,la fuerza que impulsa constantemente a un cuerpo es igual a la
masa por la aceleración. Es decir, ese cuerpo se mueve de forma uniformemente
acelerada. Todavía hoy se llama «newton» (N) a la fuerza que hay que ejercer
sobre una masa de 1 kg para que adquiera una velocidad de 1 m/seg. De aquí que
la energía sea igual a la masa por el cuadrado de la velocidad. Y por eso la
velocidad es el factor más importante cuando sufrimos un accidente de
carretera.
3ª, toda fuerza ejercida sobre un cuerpo provoca en éste otra fuerza de
reacción equivalente a la que ha recibido. Si desde un bote que flota sobre el
agua empujamos otro bote para apartarlo, el bote se separará de nosotros, pero
también nuestro bote se separa de él. Es una experiencia que nos extrañaba de
niños, y a la que nos hemos ido acostumbrando. Cuando disparamos una carabina,
sentimos un empuje hacia atrás que, si no estamos preparados, hasta puede
tumbarnos de espaldas. Todos estos principios eran más o menos conocidos, pero
nadie los había formulado matemáticamente (y por tanto nadie los había
explicado y universalizado) como Newton.
La publicación de los Principia en 1687 hizo a Newton famoso de la noche a la
mañana. Habría que añadir al hecho otro más coyuntural, pero decisivo: la
revolución inglesa de 1688, que, de rebote y por circunstancias políticas, lo
convirtió en un héroe. Pronto fue elegido parlamentario, luego le nombraron
director («Guardián») de la Casa de la Moneda. Este hecho alejó a Newton de la
Universidad. Fue muy celoso de su cargo: inventó un sistema de pequeñas estrías
en el borde de la moneda que la hacían muy difícilmente falsificable, estrías
que aún conservan las monedas actuales. Por cierto que nuestro hombre fue
implacable con los falsificadores. Luego le hicieron «sir», y le nombraron
presidente de la Royal Society. Había llegado al momento de su máxima gloria,
pero en cambio se había acabado el de los grandes descubrimientos.
En 1704 publicó su última obra, Opticks (en su tiempo se
escribía así), pero sus experiencias en el campo de la óptica fueron muy
anteriores, y hasta las había realizado públicamente ante la Academia. Newton,
operando con prismas, observó que éstos desviaban la luz y al mismo tiempo la descomponían
en los distintos colores del iris. Ya Bacon en el siglo XIII había observado y
enunciado el fenómeno, pero no pudo teorizarlo ni formularlo como Newton.
También Descartes, entre otros, lo había observado, pero creía que la luz era
unitaria y que el prisma producía un efecto falso. Newton intuyó que la luz del
sol «está compuesta por rayos diversamente refractares», de modo que el prisma
descompone lo que es ya diverso. Por experimentos demostró que el color blanco
es la suma de los distintos colores. Es más, añadía Newton, «posiblemente la
luz es una combinación de pequeñísimas partículas de diferentes tamaños, siendo
las rojas las mayores y las violetas las más pequeñas». Huygens había propuesto
que la luz es un fenómeno ondulatorio. Newton, en cambio, creyó que era un
fenómeno corpuscular, e intuyó los fotones. Los dos acertaron, puesto que hoy
la teoría cuántica admite que la luz es un fenómeno corpuscular y ondulatorio a
un tiempo. Los fotones no tienen tamaño propiamente dicho, pero acertó en
cierto modo Newton, puesto que el rojo tiene una longitud de onda más larga que
el violeta.
Otro invento importante: el telescopio de espejo. Los telescopios de lentes
obraban un poco como prismas, y descomponían ligeramente la luz: los bordes de
la luna o de los planetas aparecían irisados. Newton corrigió este defecto
construyendo un telescopio cuyo objetivo no era una lente, sino un espejo. Hoy
se le sigue llamando telescopio newtoniano. Curiosamente, el gran sabio inventó
un nuevo tipo de telescopio, pero no fue un asiduo observador, como lo habían
sido Galileo o Huygens. No hay ningún descubrimiento observacional que podamos
atribuirle.
Los últimos treinta y tantos años de Newton fueron casi perdidos para la
ciencia. Mucho se ha especulado sobre la «crisis de 1693», que dejó al sabio
sin ánimos. Pudo estar provocada por un pequeño incendio que destruyó gran
parte de sus papeles: y ya es sabido que Newton, como su émulo Leibniz,
escribió más que publicó. Bien es verdad que muchos de los manuscritos que no
publicó carecen de interés científico. Es increíble que un hombre como él
creyera en los horóscopos, ya entonces desacreditados, y que practicase la
astrología, que pretendiese hallar la piedra filosofal, que escribiese
farragosos tratados de cabalística, y que idease una teología de escasa altura,
muy poco original. También es triste que sufriese ataques de «melancolía»
(entendamos depresión), que le costase cada vez más entenderse con la gente,
que fuese desconfiado y receloso, y que en las sesiones de la Academia, que
tenía que presidir, se quedase invariablemente dormido. La explicación más
compasiva es la de Bertrand Russell: el increíble esfuerzo mental de Newton en
sus años de plenitud le dejó intelectualmente agotado, incapaz de seguir más
adelante. Su cuerpo aguantó muy bien hasta los ochenta y cuatro años. Murió en
1727, y fue enterrado con todos los honores en la abadía de Westminster. Con él
se coronó la increíble revolución científica del siglo XVII.
Contenido 7
La ciencia en el periodo de la Ilustración
Contenido:
§. Las matemáticas
§. La astronomía
§. La medida y el conocimiento del mundo
§. La física y los aparatos
§. La revolución de la química
§. El triunfo de las ciencias naturales
§. La medicina
Cuenta Paul Hazard en uno de sus mejores libros
sobre el espíritu del siglo XVIII esta curiosa anécdota.
Un conocido contertulio ilustrado, M. de Lagny, se
encontraba gravemente enfermo, y los amigos que rodeaban su lecho intentaban
sin éxito hacerle hablar. Hasta que llegó el Director de la Academia de
Ciencias, M. de Maupertuis, y aseguró que podía hacerlo. Dijo simplemente:
- Monsieur de Lagny: ¿el cuadrado de doce?
- Ciento cuarenta y cuatro, murmuró el enfermo con voz débil.
Fueron sus últimas palabras.
Monsieur de Lagny estaba dispuesto a cualquier cosa
menos a parecer un ignorante en cuestiones matemáticas. Tal fue el espíritu de
la Ilustración.
El siglo XVIII fue más bien pacífico (y la mayor parte de las guerras que en él
tuvieron lugar, concebidas casi como partidas de ajedrez, fueron poco
mortíferas), en él apenas hubo grandes epidemias, se registró un aumento de la
producción agrícola merced a los nuevos sistemas de cultivo, y gracias a ello
un incremento general de la población, mejoraron los sistemas de manufactura,
nuevos tipos de navíos (fragatas, corbetas, bergantines) cruzaron el Atlántico
y realizaron amplias exploraciones en el Pacífico; y, en general, se registra
entonces una etapa de desarrollo económico y de las condiciones de vida de la
mayor parte de la sociedad en Europa. No solo la nobleza, que ahora procura
hacerse culta y dominar los métodos científicos, sino también una próspera
burguesía, enriquecida con el ejercicio de la industria y el comercio, o con la
práctica de las profesiones, buscan estar al tanto de los avances del
conocimiento, y particularmente de la ciencia. En todos estos aspectos fue el
XVIII un siglo particularmente amable, consciente de que las cosas marchan
bien. Quizá por eso mismo el progreso se convierte en un mito,
y los sabios o eruditos de entonces escriben esa palabra con mayúscula. Para
Robert Nisbet fue aquella la centuria más optimista de la historia, la más
confiada en el futuro de la humanidad. El interés por la mejora del saber se
manifiesta en la formación de numerosas Academias, que
proceden muchas veces de tertulias particulares de personas cultas o de sabios,
provistas del espíritu atildado y educado de la época, a las que asisten
caballeros vestidos de casaca y tocados de pelucas empolvadas y rizadas a
tenaza, que discuten razonablemente, sin levantar la voz y de acuerdo con un
turno riguroso.
Algunas de estas academias acaban siendo reconocidas por el poder, porque
también los gobernantes creen en el progreso y se sienten en el deber de
estimular el desarrollo de la ciencia. El zar Pedro I de Rusia tenía su propio
planetario, el duque de Orleans su laboratorio particular, el rey de Inglaterra
Jorge III coleccionaba aparatos científicos. Ya en la segunda mitad del siglo
XVII nacieron algunas de ellas, como la Royal Society de Londres que presidió
Newton, la Real Academia de París, fundada por Colbert, ministro de Luis XIV, o
la de Berlín fundada por Leibniz. En el XVIII las academias oficiales llegaron
a ser más de setenta, repartidas por toda Europa, de Lisboa a San Petersburgo.
Las academias, en cierto modo, relevan a las universidades en el papel de
adelantadas de la ciencia. La Universidad, más tradicional, más apegada a sus
viejos usos, queda en ocasiones superada por las nuevas sociedades de sabios y
eruditos que constituyen la «República de las Letras y las Ciencias», en forma
de instituciones más libres, compuestas por un número limitado de personas, en
que se enseña menos y se aprende más, y en que el contacto entre sabios
contrasta descubrimientos y experiencias que luego se publican y se difunden
por todas partes. Órganos de este nuevo espíritu científico son revistas como
«Le Journal des Savants», las «Nouvelles de la République des Lettres» o el
«Acta Eruditorum». En ellas se defiende la idea de la ciencia como un libre
desenvolvimiento de la capacidad de la razón humana por alcanzar la verdad sin
necesidad de recurrir a instancias superiores, y esta tendencia muestra también
un carácter ideológico, cuyas consecuencias se tocarán después de las
Revoluciones que conmoverán a Europa y América a fines del siglo XVIII y
principios del XIX. La confianza en la Razón manejada exclusivamente por el
hombre es uno de los elementos sustentadores del optimismo de la época
ilustrada.
Otra característica de la ciencia dieciochesca es el afán de conferir un
sentido práctico a los saberes. Ya no se concibe el adelanto del conocimiento
sin una aplicación concreta al desarrollo de la vida. El estudio debe conducir
a conclusiones útiles. Ya no basta descubrir, es preciso también «inventar». La
ley de la dinámica de los gases ha de estar relacionada con la máquina de
vapor, la observación de la dilatación de los cuerpos con el calor conduce a la
invención del termómetro, los experimentos sobre las propiedades de la
electricidad sugieren la pila eléctrica, la geometría esférica permite
establecer rutas más racionales y más cortas para la navegación. Se inventan
nuevas máquinas para tejer y para hilar, después para fundir metales. Se sigue
discutiendo si la revolución industrial comenzó ya en el siglo XVIII o hay que
esperar al XIX para ver la historia humana drásticamente modificada por el
avance de los medios de producción; lo único indudable es que la ciencia de la
Ilustración busca «aplicaciones prácticas» a sus experiencias y sus
descubrimientos, aunque los logros estuviesen todavía muy lejos de ser
espectaculares. Pero se impone ya la concepción de una «ciencia útil», que no
va a contentarse con la constatación del mero saber.
El siglo XVIII es, por otra parte, una época de coleccionistas. El afán por
reunir es muy característico de la mentalidad ilustrada. Y para reunir
ordenadamente es preciso clasificar. Se distingue entre unas especies y otras,
entre unas clases y otras. Linneo clasifica plantas, Buffon clasifica animales,
De Beer clasifica insectos o Lalande clasifica estrellas. El mundo queda así
más «ordenado» en la mente de aquellos sabios. A la idea de la «razón» acompaña
así la del «orden», la de cada cosa en su sitio, que permite proceder a un
estudio más sistemático. En adelante, ya no será fácil prescindir de este afán
ordenador y clasificador tan propio de la ciencia moderna de Occidente. Hasta
las palabras son ordenadas y clasificadas en los numerosos diccionarios y
enciclopedias que aparecen por entonces; y ese orden permite encontrarlas y
utilizarlas correctamente en cuanto queda clara su acepción. El deseo de
clasificar conocimientos hallará su máxima expresión en la gran Enciclopedia dirigida
por Diderot y D’Alembert, en la que colaboraron más de sesenta sabios y
eruditos. En 1770 se calculaba que iba a ocupar diez grandes tomos, de los
cuales salió el primero en 1772; pero la primera edición completa, en 1780,
constaba de 35 volúmenes. La Enciclopedia es la más depurada representación del
espíritu el siglo XVIII, no solo por su prurito de alcanzar todos los sectores
del conocimiento humano, y muy especialmente el científico, sino por su afán
clasificatorio y por su misma ideología, muy preocupada por destacar la
capacidad de la razón humana y por atacar los conocimientos tradicionales.
Miles de suscriptores en toda Europa financiaron aquella obra, que imprimió
carácter a una época, hasta el punto de que se habla del «enciclopedismo» o se
califica de enciclopedistas a muchos racionalistas ilustrados, hubieran
colaborado o no en la elaboración de la obra. Más tarde muchos de aquellos
artículos, y otros nuevos, dieron lugar a la Enciclopedia Metódica,
que adopta una clasificación por áreas de conocimiento, y no simplemente
alfabética.
La ciencia del siglo XVIII experimentó muy notables avances, y no puede decirse
que, por lo que a logros respecta, desmerezca respecto de la del siglo
anterior; pero no es fácil encontrar grandes genios, como los que forman
aquella serie increíble que va de Descartes a Newton. Por eso quizá resulte
conveniente ordenar la materia no por autores, sino por disciplinas.
La revolución del cálculo operada en el siglo XVII puso las bases de la nueva
matemática. Su desarrollo hasta las más altas posibilidades tuvo lugar en el
XVIII. Los Bernoulli (hermanos Jacques y Jean, luego hubo toda una dinastía,
¡hasta siete Bernoulli grandes matemáticos!) fueron maestros en el cálculo
infinitesimal: a Jacques se debe el término «integral», el concepto fue intuido
por Newton, que hoy se usa. También desarrollaron el cálculo combinatorio
(variaciones, combinaciones, permutaciones), un arte de distribuir elementos de
suerte que se puedan combinar unos con otros sin repetirse y sin obstaculizar
las series. La combinación fue una verdadera obsesión del siglo XVIII, y aunque
a nosotros nos parezca poco más que un juego, su papel en ciertos aspectos de
la vida práctica resulta indispensable. Pensemos, si queremos descender a esos
extremos, que sería prácticamente imposible organizar el Campeonato Nacional de
Liga sin dominar el cálculo combinatorio. También los Bernoulli estudiaron el
cálculo de probabilidades, nada despreciable en situaciones en que conviene
determinar qué valor o qué alternativa tiene más opciones de salir que otra
cualquiera. ¿Por qué, en una serie infinita de opciones de similar grado, éstas
tienden a igualarse? Imaginemos que echamos un dado sobre una mesa seis
millones de veces, y el dado no está trucado. El resultado será un millón de
unos, un millón de doses, un millón de treses, etc. etc., con diferencias
porcentuales pequeñísimas que al fin acaban resultando completamente
despreciables. Como si hubiese una invisible ley de las compensaciones que
reparte suerte, a la larga, equitativamente. Por supuesto, puede salir el cinco
en cuatro tiradas consecutivas: pero en ese momento, es el cinco el valor menos
probable en la tirada siguiente. Los buenos jugadores de azar, que
tienen el vicio metido en el cuerpo, pero que no tienen por qué no ser
inteligentes, llevan estricta cuenta de las jugadas anteriores para saber el
número al que deben apostar: es el que menos veces ha salido en la serie. Como,
naturalmente, en cada caso no se cumple el cálculo de probabilidades, sino en
series muy altas, el jugador sigue empecinado en un empeño que puede ser
ruinoso. El afán de apostar por una opción determinada fue el que movió a
diversos gobiernos dieciochescos, en Francia, en España, en Italia, a crear la
lotería, en que siempre hay un ganador seguro: el que la organiza.
Discípulo de los Bernoulli, y suizo como ellos fue Leonhard Euler (1707-1783),
posiblemente el mejor matemático del siglo XVIII. Tenía una memoria y una
capacidad para realizar operaciones de cálculo realmente fabulosa. Llevado por
Bernoulli a la Corte de Catalina I de Rusia, fue admirado por todos e ingresó
en la Academia de San Petersburgo. Allí resolvió en tres días un problema que
los académicos calculaban que exigiría un trabajo de varios meses. Luego estuvo
en la corte de Federico el Grande de Prusia, otro monarca admirado por el
progreso de las ciencias y protector de sabios. Finalmente regresó a Rusia,
contratado por Catalina II. Perdió un ojo por causas desconocidas (se dice que
por una concentración visual en sus cálculos, por un incendio, por un
accidente), y siguió trabajando, incluso cuando fue perdiendo el uso del otro
ojo, hasta quedar completamente ciego. Aun en ese estado, siguió dictando sus
cálculos: seguramente es exagerada la afirmación según la cual «escribió» la
mitad de su obra después de haber perdido la vista. Fue un hombre bondadoso,
muy piadoso y amigo de los niños. Tuvo 13 hijos, cuyos gritos y juegos no le
impedían concentrarse en el cálculo.
Euler cultivó todas las modalidades de la matemática, especialmente el cálculo
infinitesimal y el álgebra. Desarrolló hasta sus más impensadas posibilidades
la combinación de ambas, las ecuaciones diferenciales, indispensables
hoy a los matemáticos, físicos e ingenieros. Representó por medio de signos
números que no pueden representarse de otra manera; así, generalizó el uso de π
(razón de la circunferencia al diámetro), e (la base de los logaritmos naturales
o neperianos) o i (raíz cuadrada de -1), y, es más, escribió una fórmula que
emplea los seis valores más importantes de las matemáticas: eiπ +1
= 0. «Pi» (π) es el valor más importante en la geometría, e el más importante
en el cálculo, i es el símbolo de los números imaginarios, que Euler
prácticamente inaugura como términos operativos. La importancia de los números
0 y 1 es que son los dos únicos que no alteran el resultado de una operación;
el 0, la suma o la resta: así, 7 + 0 = 7; 7 - 0 = 7; y el 1 la multiplicación y
la división: 7×1 = 7; 7/1 = 7. La cosa no parece tener importancia, pero para
los matemáticos la tiene. La obra de Euler es inacabable. Las actuales obras
completas de este autor ocupan 87 volúmenes con un total de más de 800 tratados
distintos. Hoy aún se siguen leyendo sus manuscritos. Ningún matemático (ni
posiblemente ningún hombre) escribió tanto jamás.
Joseph Louis de Lagrange (1736-1813) nació en Turín, de familia francesa. Como
tantos ilustrados viajeros, pasó gran parte de su vida en Berlín, protegido por
el rey de Prusia, Federico II el Grande; allí permaneció veinte años, hasta que
falleció el monarca, y se trasladó a París. Fue miembro de la Academia
Francesa, la Revolución le respetó, aunque no le ensalzó, y luego fue protegido
por Napoleón. Siendo joven, escribió a Euler, planteándole un problema que era
incapaz de resolver. El bondadoso sabio encontró la solución, pero solo dio a
Lagrange las pistas necesarias para que la hallara por sí mismo, de modo que el
descubrimiento fue atribuido a Lagrange. Este matemático, valiéndose de las dos
grandiosas aportaciones de Newton, el cálculo infinitesimal y la Ley de la
Gravitación, fue un maestro en el campo de la mecánica analítica, una
obra que fue calificada por Hamilton de «poema científico». Uno de sus logros
fue la determinación por cálculo de lo que se denominan «puntos de Lagrange», o
puntos donde un cuerpo, atraído por otros dos, se estabiliza en función de dos
atracciones que se compensan. El cálculo de los puntos lagrangianos tiene hoy
una importancia fundamental en la era de los satélites artificiales, el
satélite Soho, por ejemplo se encuentra en un punto lagrangiano «equidistante»
mecánicamente de la Tierra y el sol, ; y hasta se aplica a altas cuestiones de
cosmología.
Pierre Simón de Laplace (1749-1827) fue considerado por sus compatriotas «el
Newton francés». Tal vez no llegó a la genialidad de aquél, pero se le parece
en su portentosa facilidad para el cálculo y la amplitud de los temas que tocó.
Cultivó también aspectos de la astronomía y de la física. Por ejemplo, fue uno
de los descubridores del fenómeno de la osmosis, o paso gradual de las
moléculas de un líquido a otro a través de una membrana. Fue un maestro del
álgebra y de ese tema recurrente que fue entonces el cálculo de probabilidades;
para Laplace, que quería encontrar a todo una solución natural, «en el fondo,
la teoría de probabilidades es solo el sentido común expresado en números». Fue
sobre todo un calculista de órbitas. Se descubrieron entonces pequeñas
perturbaciones en las órbitas de Júpiter y Saturno, y el hecho sembró la alarma
en la comunidad científica: para Newton las órbitas tenían que ser estables,
porque de no ser así, tarde o temprano el Universo tenía que venirse abajo.
Laplace descubrió que los dos planetas gigantes se atraen mutuamente hasta el
punto de modificar sus trayectorias, pero lo hacen con un periodo que se
completa en 929 años, a partir de los cuales el proceso se repite una y otra
vez, indefinidamente. No debemos alarmarnos: las órbitas, en definitiva, son
estables. Como fruto de sus estudios, publicó Exposition du Systéme du
Monde (1796), y la famosa Mécanique céleste (1799-1825),
dos tratados que siguen considerándose fundamentales. A Laplace se debe también
la teoría de la formación del sistema solar a partir de la contracción de una
nebulosa primitiva: con gran habilidad supo demostrar cómo un movimiento de
contracción puede convertirse en un movimiento rotatorio. Hoy la teoría de
Laplace ha quedado superada, pero sus procedimientos matemáticos son
irreprochables.
El XVIII fue un siglo no solo de grandes calculistas sino también, y quizá
sobre todo, de grandes observadores. Se consagran los famosos observatorios de
Greenwich (Londres), París, Berlín, Madrid, Cádiz (luego trasladado a San
Fernando). De acuerdo con las directrices de Newton, se fabrican grandes
telescopios reflectores (de espejo), aunque siguen construyéndose también
refractores (de lentes), que no dejan de tener sus ventajas. Se elaboran
también delicados instrumentos de medición, destinados a precisar posiciones
celestes o medir ángulos. El descubrimiento del sextante de reflexión permitió
calcular la posición relativa de determinadas estrellas cercanas a la posición
de la luna. Con ello, con una tabla de efemérides y con un buen cronómetro fue
posible vencer a la bestia negra de la navegación de altura: el cálculo de la
longitud geográfica. Ya Colón pudo calcular más o menos bien la latitud, pero
durante mucho tiempo la determinación de la longitud (la posición de un barco o
un país con respecto a los meridianos) se consideró «el límite que la
Providencia ha puesto a la mente humana». El mismo Colón quiso determinar la
longitud de la isla de Jamaica, por un eclipse de luna, pero se equivocó.
Felipe II ofreció un premio elevadísimo a quien inventara un método para medir
la longitud; años más tarde, Galileo optó a él ofreciendo la observación de los
eclipses de los satélites de Júpiter; pero estos fenómenos son muy difíciles de
cronometrar con un catalejo desde alta mar. Aparte de esto, no basta un
catalejo, sino que es preciso un buen reloj, y un reloj de péndulo se para con
el balanceo de un barco. En 1707 la escuadra del almirante Shovell se estrelló
contra las islas Scilly, catástrofe que costó la vida a más de 2.000 marinos, y
el parlamento inglés ofreció otro premio sustancioso a quien resolviese el
dichoso problema. Realmente, se fue resolviendo poco a poco; los catalejos
fueron perfeccionados, y los relojes de escape y de áncora de Grahan y Harrison
(luego nos referiremos a ellos) permitieron cada vez una mayor precisión.
Justo la precisión fue uno de los grandes pruritos de los astrónomos del siglo
XVIII, preocupados de obtener medidas cada vez más exactas, empleando a veces
una paciencia infinita. Y también por supuesto, predominó el afán de catalogar
y clasificar. John Flamsteed, director del observatorio de Greenwich publicó ya
a comienzos de la centuria el más completo catálogo de estrellas que se había
realizado hasta entonces. Pero Flamsteed prefería medir la posición de las
estrellas con instrumentos enormes, que no podían utilizar más que la vista
humana. Joseph Jerome Lalande (1732-1807) usó un telescopio muy bien orientado,
y con él hizo un catálogo, para aquellos tiempos fabuloso, de 47.000 estrellas.
Quedaba claro que las estrellas son de magnitudes muy distintas, y por tanto
hay más motivos que nunca para pensar que se encuentran a distancias también
muy distintas. Y es más: la Vía Láctea, como ya había intuido Galileo, quedó
confirmada como un conjunto de innumerables estrellas. Podía parecer una cinta
de maravillosa riqueza estelar que rodeaba el Universo; pero el filósofo
Enmanuel Kant (1724-1804), que también se ocupaba de estas cosas, intuyó que la
Vía Láctea es el propio Universo. Concretamente, el Universo tiene la forma de
un disco o lenteja: estamos más o menos en el centro de ese disco: si miramos
hacia los bordes del disco, veremos muchas más estrellas y mucho más lejanas
que si miramos hacia los planos. La intuición resultó cierta, y Kant adivinó la
forma aproximada de la Galaxia; comoquiera que intuyó que podían existir además
otros «universos islas» (digamos otras galaxias), tuvo una idea relativamente
aproximada, que más no podía exigirse en su tiempo, de la maravillosa
estructura del Universo.
Pero volvamos a Lalande. La ciencia tiene que agradecerle bastante más que su
trabajoso y muy preciso catálogo de estrellas. Otra de sus grandes aportaciones
fue una extraordinaria medida de precisión. Se puso de acuerdo con su colega
Lacaille. Lalande se fue a Berlín y Lacaille a la Ciudad de El Cabo: dos
ciudades situadas en el mismo meridiano, pero en muy distinto paralelo. Llegado
un día determinado, ambos midieron la posición exacta de la luna desde sus
respectivos puntos de observación. Así se pudo determinar un triángulo
Berlín-El Cabo-el centro de la luna. Conocidos dos ángulos y un lado, resuelto
el triángulo. La luna estaba, y está, a 384.000 kilómetros de distancia. Nunca
hasta entonces había podido nadie medirla con tal precisión. Lalande organizó
otras muchas expediciones internacionales: fue el primer «internacionalizador»
de la astronomía.
Una profesión entonces muy practicada entre los astrónomos fue la de «cazador
de cometas». Una vez comprobado el regreso del cometa Halley, quedó demostrado
que estos cuerpos giran alrededor del sol, aunque en órbitas muy alargadas.
Cada una distinta, pero siempre con el sol en uno de sus focos. ¿Qué naturaleza
tienen estos extraños cuerpos? ¿Hasta dónde se extienden esas órbitas? ¿Son
elípticas, parabólicas, hiperbólicas? La perfección del cálculo permitía ya
evaluar sus elementos, y el hallazgo de un nuevo cometa hacía famoso a su
descubridor. Uno de los más renombrados fue Charles Messier (1730-1813), un
hombre de origen humilde, que solo destacaba como dibujante. Pero, una vez
demostrada su vista extraordinaria, se le concedió el puesto de astrónomo en el
observatorio de París. Descubrió trece cometas, uno de los cuales lleva su
nombre. Pero su fama le viene de un aparente fracaso. Con gran alegría
descubrió un «cometa» nuevo en la constelación de Tauro. Era el año 1758, y
todo el mundo estaba ansioso por encontrar el predicho por Halley: ¿retornaría
o no? El que lo descubriese se haría famoso [4] .
Messier anotó su posición, y se dispuso a observar su movimiento en las noches
consecutivas. Pero el cometa no se movía. Incomprensible. Hasta que, después de
dos semanas, llegó a la conclusión decepcionante de que aquel objeto no era el
cometa que se buscaba, sino una nebulosa. Hasta entonces nadie había concedido
importancia a las nebulosas. Messier, despechado, tomó buena nota de aquel
falso cometa (hoy conocido como Messier I) y decidió hacer un catálogo de otros
objetos tan inútiles como aquél, «con el fin de evitar que los astrónomos
pierdan el tiempo observándolos». Con los años encontró no nebulosas, cuya
posición anotó cuidadosamente. Hoy esos no objetos figuran entre los más
famosos del cielo.
El más importante observador del siglo XVIII fue William Herschel (1730-1817),
alemán de origen e inglés de adopción. Es una de las figuras más curiosas y
simpáticas de su tiempo. Experto en lenguas, aficionado a la mitología clásica,
músico y compositor, director de orquesta... y descubridor de Urano. Su afición
a la astronomía fue creciendo gradualmente, hasta que por 1780 se construyó un
telescopio gigantesco, de 12 metros de longitud y 1,50 m. de diámetro: jamás un
ser humano había podido disponer de un ojo tan grande para asomarse al cielo.
Herschel encontró millares de objetos celestes, entre ellos uno que tenía forma
de un circulito azulado. Lo observó durante varias noches consecutivas: ¡se
movía, pero no era un cometa! No pudo explicarse el misterio. Ni siquiera
cuando lo bautizó como Georgium Sidus, el Astro de Jorge, en
honor de Jorge III de Inglaterra. A nadie se le ocurrió que pudiera ser un
planeta. ¿No se había dicho siempre que los planetas eran seis, y no podían ser
más de seis? Al fin se venció el prejuicio, y al nuevo planeta se le dio el
nombre de Urano. Bien sabía Herschel que Urano era el padre de Saturno. El
descubrimiento de Urano fue tal vez el hecho astronómico más importante del
siglo XVIII. [5]
Herschel descubrió además unos 2.500 objetos notables: varios satélites, nuevos
cometas, más de mil estrellas dobles, cúmulos, nebulosas, y esos misterios de
entonces que hoy conocemos como galaxias. Muerto Herschel, siguió observando su
hermana Margarita, que vivió 97 años y a los 80 descubrió un cometa. Su hijo,
John Herschel, fue también, en el siglo XIX, un famoso astrónomo.
La centuria acabó, simbólicamente, con un nuevo descubrimiento. En la noche del
31 de diciembre de 1800 al Io de enero de 1801,
casi todos los habitantes de Palermo estaban en la calle, celebrando
alborozadamente el cambio de siglo. Una de las pocas excepciones era Giuseppe
Piazzi, director del observatorio, que no perdía ocasión de seguir trabajando,
ni aun en excepcionales circunstancias. Y aquella noche encontró un pequeño
planeta, situado entre las órbitas de Marte y Júpiter. Todo el mundo estaba
buscando aquel objeto, pues en esa zona se producía un «hueco» que rompía la
regularidad de la distribución de los planetas en el sistema solar. Pero nadie
daba con «el que faltaba». La verdad es que lo que encontró Piazzi era un
cuerpo muy pequeño, que no llegaba a los 1.000 Km. de diámetro: mucho menor
incluso que la luna. Pero era un planeta, y venía a restablecer la regularidad.
Se le dio el nombre de Ceres. En realidad, Ceres es considerado hoy un
«asteroide» o planeta menor. En el siglo XIX se descubrieron cientos de ellos,
y hoy se sabe que son muchos millares. Piazzi se hizo famoso por el hallazgo.
Más famoso se hizo más tarde con un descubrimiento que sugirió la posibilidad
de conocer la distancia a las estrellas. En su momento lo veremos.
§. La medida y el conocimiento del mundo
En el siglo XVIII renace el ansia exploradora, ahora por vía marítima. Todas
las expediciones van acompañadas de científicos, astrónomos o naturalistas,
que, además, realizan amplios relatos de sus aventuras. Los libros de viajes
fueron devorados con extraordinaria avidez por los lectores ilustrados. Los
españoles habían llegado a América y los portugueses a Extremo Oriente a fines
del XV y principios del XVI. Magallanes y Elcano habían dado la primera vuelta
al mundo en 1519-1522. Más tarde, a los descubrimientos habían seguido las
conquistas. El Pacífico fue explorado por españoles (Saavedra, Mendaña, Quirós,
Torres) en el siglo XVII. Algunos archipiélagos, como las Marianas, las
Carolinas o las Salomón fueron incorporados al imperio español, aunque apenas
colonizados. El interés renació en la segunda mitad del XVIII. El francés Louis
Antoine de Bouganville hizo un viaje de circunnavegación del mundo en
1767-1769, y descubrió varias islas de Polinesia. Se detuvo especialmente en
Tahití, una isla que por su clima delicioso, sus paisajes fascinantes, su flora
exótica y sus indígenas acogedores le hizo pensar en un maravilloso paraíso. Se
piensa que los entusiastas relatos de Bouganville y compañeros contribuyeron a
crear el «mito del buen salvaje», tan extendido en la época ilustrada, y que
iba a encandilar a Rousseau.
El almirante Cook hizo dos viajes de vuelta al mundo, el primero de ellos en
1768-71. Se detuvo también en Tahití, en este caso para una misión
fundamentalmente científica, la observación el tránsito del planeta Venus por
delante del disco del sol, uno de los acontecimientos más deseados por los
astrónomos, para medir la distancia Sol-Tierra. De resultas de estas
observaciones y otras muchas, se supo que el astro solar se encuentra a unos
150 millones de Km. de nosotros. Cook pretendía encontrar una gran tierra
austral. La mayoría de los continentes se encuentran en el hemisferio Norte, y
desde los tiempos de Ptolomeo se estimaba que tenían que existir grandes
tierras en el Sur, para «equilibrar» nuestro planeta. Ya Torres adivinó
Australia. Cook la exploró en grado suficiente para saber que es todo un
continente. Sin embargo, no bastaba. Se pensó que tenía que existir un
continente todavía mayor. Por eso hizo Cook un segundo viaje en 1772-75.
Descubrió nuevas islas, pero el Pacífico Sur resultó ser un enorme océano casi
desolado. Hasta el siglo XIX no se descubriría la Antártida. Por supuesto, la
idea de la necesidad de un «contrapeso» había sido abandonada mucho antes.
Estrictamente científica fue la expedición de los franceses Godin y La
Condamine y los españoles Jorge Juan y Antonio de Ulloa a las costas de Ecuador
y Perú en 1736-38. Su finalidad principal era la de medir un arco de meridiano
en la región ecuatorial, y comprobar así si la Tierra es abultada por el
ecuador (que es achatada por los polos ya lo habían descubierto Huygens y
Celsius). Los dos equipos midieron cuidadosamente los ángulos, y para trazar
mapas realizaron triangulaciones: un método absolutamente preciso. También
midieron la altura del volcán Chimborazo, y concluyeron que era la montaña más
alta del mundo: de hecho era la más alta conocida entonces. ¿Lo sigue siendo
hoy? He aquí una curiosa polémica. Si por altura concebimos el punto más
alejado del centro de la Tierra, el Chimborazo, gracias al abultamiento
ecuatorial, reúne esa cualidad. Si la altura se mide sobre el nivel del mar,
como estiman los criterios actuales, la gloria se la lleva el Everest. Jorge
Juan y Ulloa permanecieron más tiempo en América, y al fin trazaron un mapa muy
exacto de toda la costa del Pacífico.
Conocida la curvatura de la Tierra cerca del polo y en el ecuador, quedaba
conocer la curvatura en latitudes medias. Hubo muchas medidas, pero la
definitiva fue otra vez franco-española. En 1792 se determinó exactamente el
ángulo entre la horizontal de Dunkerque y de Barcelona, dos ciudades situadas
en el mismo meridiano, pero en distinto paralelo (estas mediciones dieron lugar
a nombres barceloneses muy conocidos, como La Meridiana y El Paralelo). Y se
adoptó como unidad universal de medida el metro.
§. La física y los aparatos
Desde los tiempos de Newton se hizo inevitable que la física se hiciera
inseparable de la matemática, como sigue ocurriendo hoy día. La concepción
mecanicista del siglo XVIII contribuyó también a esta relación. Aunque la
física necesita de la matemática, también es cierto que en ocasiones los
problemas físicos hicieron trabajar a los matemáticos en el sentido que la
física reclamaba.
Ya se sabía que los cuerpos se dilatan con el calor. En el siglo XVIII se quiso
saber cuáles se dilatan más y cuáles se dilatan menos, o cuál es el coeficiente
de dilatación de cada uno. Ahora bien, no se sabía qué es el calor. Se
teorizaba sobre el «calórico», un material que afectaba a los cuerpos, y los
calentaba. Incluso un químico tan innovador como Lavoisier, al que nos
referiremos muy pronto, consideró que el «calórico» era uno de los elementos
químicos fundamentales. La dilatación de los cuerpos, especialmente de los
metales, sugirió muy pronto la idea de medir la temperatura mediante esa
dilatación. Ya Galileo ensayó un termómetro de agua, que surtió pocos
resultados. Fue Gabriel Fahrenheit (1686-1736), un hábil e inteligente
constructor de aparatos, el que fabricó los primeros termómetros fiables,
primero de alcohol (1709), luego de mercurio (1714). Naturalmente, para medir
la temperatura, hacía falta una escala convencional. Fahrenheit colocó el cero
de su escala en la temperatura más baja que consiguió obtener, mediante una
mezcla de hielo y cloruro amónico. Este punto cero, que Fahrenheit imaginó como
«cero absoluto», equivale a -18 grados en la actual escala centígrada. Y el 100
estaría en el punto de evaporación del cloruro amónico, a 37,5 grados
centígrados. Esta temperatura coincide también, casi exactamente, con la del
cuerpo humano. (En Inglaterra, durante doscientos años, los niños estaban
dispensados de acudir a la escuela si su temperatura sobrepasaba los 100
grados). Si continuamos esta escala hacia arriba, resulta que el punto de
ebullición del agua, cuando el agua comienza a hervir, a presión normal, es de
212 grados Fahrenheit. Esta escala, que apenas necesita decimales en el uso
corriente, es para la mayoría de la gente, en el mundo no anglosajón, un poco
incómoda (llegar a Nueva York un agradable día de primavera, y encontrarse con
que los termómetros marcan 75 grados sorprende bastante).
El sueco Anders Celsius (1701-1744), profesor de la universidad de Upsala,
observador de auroras boreales, y partícipe en la expedición a las regiones
árticas para medir allí la curvatura de la Tierra, propuso en 1744 una escala
de cien grados siendo el valor o el de la congelación del agua y el 100 el del
punto de ebullición. La escala de Fahrenheit no preveía los valores negativos;
la de Celsius los admite. Con frecuencia, en invierno nos encontramos con
temperaturas bajo cero, y no hay inconveniente en medirlas. En Oimiakon,
Siberia, se ha llegado a -76º, y en la Antártida a -85º. Desde lord Kelvin, a
fines del siglo XIX, se sabe que el «cero absoluto» se encuentra en el -273 de
la escala centígrada: en su momento habremos de referirnos a ello. También la
escala Celsius permite medir temperaturas superiores a 100 grados. Así, podemos
decir que el hierro se funde a 1.536 grados. La escala Celsius es coherente con
el sistema métrico decimal, y se usa en la mayor parte de los países del mundo.
También se sabía que los gases se dilatan, y mucho más que los sólidos o
líquidos, con el aumento de la temperatura. Ya en el siglo XVII Robert Boyle
(1627-1691) advirtió esta relación, aunque la tasa de expansión de los gases no
sería formulada hasta Gay Lussac, a principios del XIX. Pero se encontró una
aplicación muy espectacular ya a fines del XVIII: el globo aerostático. En 1783
los hermanos Joseph y Etienne Montgolfier, que no eran científicos, sino
fabricantes de papel, pero sabían que el aire caliente es más ligero que el
frío, fabricaron el primer globo, ¡de papel!, que se elevó hasta 12 metros de
altura. El hombre había construido un aparato capaz de volar. Al año siguiente
se realizó, con gran peligro para el aeronauta, pero en medio de un éxito
apoteósico, el primer vuelo tripulado. Luego, los Montgolfier utilizaron el
hidrógeno, un gas descubierto en 1766, más ligero aún que el aire caliente. Los
Montgolfier tuvieron muy pronto audaces competidores, de modo que los vuelos
tripulados se convirtieron ya a fines del XVIII en un espectáculo de multitudes
y en un magnífico negocio para los aeronautas, que, por supuesto, cobraban
grandes cantidades por sus ascensiones. Reyes, nobles, burgueses, gentes del
pueblo, acudían en masa a presenciar el increíble espectáculo. El primer vuelo
tripulado en España tuvo lugar en la madrileña plaza de la Armería delante del
rey Carlos IV, el ministro Godoy y una inmensa multitud. El hombre había
cumplido el fabuloso mito de Ícaro. No siempre con éxito: muchos audaces
aeronautas perdieron la vida trágicamente, y el espectáculo fue prohibido por
un tiempo en varios países.
Una aplicación si se quiere menos vistosa, pero mucho más práctica de la
dilatación de los gases fue la máquina de vapor. Ya por 1712 Thomas Newcomen
inventó una máquina impulsada por vapor recalentado, todavía muy tosca, a la
que se encontraron pocas aplicaciones. En 1764 James Watt fabricó una máquina
de vapor que movía un émbolo vertical, que se elevaba, al final de su recorrido
perdía el vapor, y volvía a caer hasta recibir una nueva masa de gas caliente.
En 1776 Watt consiguió ya máquinas de vapor útiles a la industria. El socio de
Watt, Boulton escribía al rey Jorge III de Inglaterra: « Majestad:
tengo a mi disposición lo que el mundo necesita; algo que impulsará más que
nunca la civilización, al librar al hombre de todas las tareas indignas: tengo
la máquina de vapor».
El invento no iba a cambiar el mundo tan rápidamente como Watt imaginaba, ni
tampoco iba a hacer felices a todos los miembros de la sociedad (al contrario,
la máquina suplantó al hombre), pero la profecía iba a cumplirse, y acabaría
siendo la base de la revolución industrial.
- Otro tema que el hombre del siglo XVIII tomó con enorme interés fue el de la
energía eléctrica , o electromagnética. La electricidad es realmente una fuerza
conocida por los antiguos. Los griegos llamaban elektron al
ámbar (resina fósil), y sabían que una varilla de ámbar, convenientemente
frotada, atraía objetos ligeros, como virutas u hojas secas. El hecho llamó la
atención de los sabios medievales o renacentistas, aunque no consiguieron
explicarlo. Los científicos del siglo XVIII experimentaron con la electricidad
y encontraron métodos más eficaces para obtenerla. Y algo tan importante o más:
medios para almacenarla. Por 1744 se descubrió la botella de Leyden, por obra
de varios profesores de aquella universidad holandesa. Una botella medio llena
de agua, más tarde con láminas de diversos metales, cuyo corcho es atravesado
por un alambre, puede recibir una carga eléctrica, previamente obtenida por
frotación. Si en cualquier momento tocamos el cable, recibimos una pequeña
descarga. O también, aproximando otro metal, es posible obtener una chispa. Eso
sí, la descarga es cada vez más débil: la botella se descarga pronto.
Alessandro Volta (1745-1827) obtuvo hacia 1800 la primera pila eléctrica, a
base de dos metales y un trapo húmedo. No era mucho mejor que la botella, pero
mucho más manejable. Más tarde, Davy perfeccionaría el invento. En el siglo XIX
las pilas serían cada vez más prácticas y duraderas.
Otro italiano como Volta, Luigi Galvani (1737-1798) descubrió que una descarga
eléctrica puede activar los músculos de una rana. Esta propiedad portentosa de
la electricidad de producir movimientos automáticos en los seres vivos causó
sensación en su tiempo, y sugirió al rey de Francia, Luis XV, la peregrina idea
de electrificar a su cuerpo de guardia, para provocar en los soldados
movimientos instantáneos de prodigiosa precisión. El proyecto, irrealizable por
otra parte, fracasó, entre otros motivos, porque los soldados se negaban a
recibir descargas eléctricas. Uno de los pioneros de la electricidad, de nombre
bien conocido por todos, es el político norteamericano Benjamín Franklin
(1701-1790), aficionado, como tantos hombres cultos de su tiempo, a hacer
experimentos. Inventó la mecedora, las gafas bifocales (muy toscas todavía), un
taladro de hierro... ¡descubrió la Corriente del Golfo! Sintió un entusiasmo
especial por la electricidad, ese gran misterio de la época. E intuyó que los
rayos que se producían en las tormentas eran chispas eléctricas de enorme
potencial. Para comprobarlo, hizo un experimento de casi todo el mundo
conocido: construyó una cometa, provista en su parte superior de una punta
metálica (como las de la botella de Leyden), y acompañado de su hijo, la hizo
volar un día de tormenta. Afortunadamente para él, o para el niño, que sujetaba
el hilo de vez en cuando, comenzó a llover, y padre e hijo se refugiaron bajo
un cobertizo. Así evitaron que la parte del hilo que sostenían en las manos se
mojara; de lo contrario, es probable que hubieran perecido. Franklin ató una
llave al extremo del hilo; cada vez que acercaba otro objeto metálico a la
llave, se producía una pequeña chispa. Ya estaba claro: ¡los rayos son
fenómenos eléctricos! De ahí devino el pararrayos, un invento que no dejó de
producir beneficios a la humanidad. Poco después Coulomb enunciaría su famosa
ley: la fuerza que se ejerce entre dos cargas eléctricas es proporcional al
producto de las cargas e inversamente proporcional al cuadrado de la distancia.
Nos recuerda, no sin fundamento, a la Ley de la Gravitación Universal. En honor
a Coulomb se llama culombio a la cantidad de electricidad, como en honor a
Volta se llama voltio a la unidad de tensión eléctrica.
No olvidemos otros aparatos típicos del siglo XVIII. Ya nos hemos referido al
reloj de bolsillo o reloj transportable. Graham inventó el sistema de escape de
áncora y Harrison preparó los primeros relojes de cuerda de gran resultado. Un
reloj de Harrison fue llevado en una expedición a Jamaica: en 161 días atrasó
165 segundos: un segundo por día. Más tarde fabricó otros que solo variaban un
segundo cada tres días. Ya era posible navegar conservando la hora del punto de
partida, y midiendo la hora local con el sextante: la diferencia de horas
permite conocer la diferencia de meridianos. El ingenio del hombre había
conseguido vencer el famoso problema de las longitudes geográficas. Ya era
posible orientarse en alta mar, o determinar la posición exacta de un lugar
desconocido. Para prevenir tormentas, fue muy útil el descubrimiento del
barómetro aneroide, transportable, por J. E. Zeiher (1793). E. Regnier
descubrió en 1798 el dinamómetro de resorte, base, por ejemplo, de la báscula.
Y la balanza de torsión, descubierta el mismo año por H. Cavendish, permitió
medir la densidad de la Tierra.
§. La revolución de la química
Antoine de Lavoisier (1743-1794) fue un revolucionario en el sentido de que
aceptó los principios de la Revolución francesa, fue elegido diputado y ocupó
cargos. Aunque, para hacer bueno el principio de que «la revolución devora a
sus propios hijos», murió en la guillotina. Hombre moderado, antes y después de
los sucesos de 1789, fue ante todo un revolucionario en el campo de la química:
nadie en toda la historia había imprimido a esta ciencia un avance tan
espectacular. Con razón se le considera el «padre de la química moderna».
Ciertamente, antes de Lavoisier hubo buenos químicos en el siglo XVIII: su
maestro, J. F. Rouelle, que experimentó con ácidos, Joseph Black que descubrió
un cuerpo que se encuentra en el aire, que procede de la combustión, ¡incluso
de la respiración!, pero que no es aire; se refería al dióxido de carbono,
aunque todavía no podía llamarlo así; C. W. Scheele, que descubrió el magnesio,
H. Cavendish, que descubrió el hidrógeno, al que dio el nombre de «aire
inflamable»; J. Priestley, que descubrió el oxígeno, aunque ni le dio este
nombre ni acertó con su papel en la combustión. Antes de Lavoisier, y especialmente
después de las teorías de G.E. Stahl, se admitía la existencia del flogisto, un
cuerpo invisible que ardía: los cuerpos más combustibles son los más ricos en
flogisto. Este provoca la combustión, y después de arder, se difunde en el
aire. Pero ¿qué es el flogisto? ¿Como se le puede aislar? La respuesta tópica
era que no se le podía aislar, porque solo existía en los cuerpos compuestos:
pasaba de un compuesto a otro, pero nunca se daba en estado libre. El misterio
del flogisto permaneció inexplicado hasta que Lavoisier demostró que no
existía. Por otra parte reinaba una caótica confusión sobre cuáles son los
elementos básicos, que, combinándose con otros, producen los cuerpos
compuestos. Ya en el siglo XVIII los químicos dudaban de la teoría de los
cuatro únicos elementos, de Empédocles: la tierra, el agua, el aire, y el
fuego, pero discutían si alguno de estos cuatro es un verdadero elemento, si
hay otros cuerpos que también lo son. Igualmente se hablaba del «calórico» como
de un elemento químico: ¿cómo es que algunas reacciones producen calor? El
calor parece ser parte esencial de esas reacciones. Y aún había quien creía, si
no estrictamente en la piedra filosofal, sí en la posibilidad de transformar un
elemento en otro mediante una reacción química.
Lavoisier, constante y metódico, se propuso acabar con los tópicos que aún
lastraban la química, sin duda por el fuerte peso que conservaban las
tradiciones clásicas. No especuló, experimentó. Sus instrumentos preferidos
eran la retorta o el matraz, una balanza de precisión y la «caja neumática», un
recipiente cerrado en que se podían introducir gases que quedaban aislados
respecto del entorno. Ante todo, acabó con la alquimia. Demostró que el agua no
produce sedimentos: estos sedimentos pueden estar disueltos en agua, y al
evaporarse ésta, aparecen convertidos en residuos sólidos; pero estos
residuos no forman parte del agua, ni están «producidos» por
ella. La idea del agua como «madre» de otros elementos quedó destruida. Tampoco
es cierto que la tierra produzca madera. Los vegetales nacen de la tierra, pero
lo hacen alimentándose de sustancias que la tierra contiene (sobre todo si esas
sustancias son fácilmente asimilables cuando están disueltas), pero no es la
tierra, ni el agua que disuelve esas sustancias, la que «crea» los vegetales,
sino éstos, los que al poseer una forma determinada de vida, se alimentan y
transforman esas sustancias en componentes de la planta, como el organismo de
los animales transforma también las sustancias de que se alimenta. La idea de
que el agua o la tierra, elementos fundamentales, son «madres» de otros
cuerpos, quedaba en entredicho.
Luego la emprendió con el flogisto. El flogisto, como lo había definido Stahl,
era otro de los «elementos fundamentales» de Empédocles, el fuego. Todos los
cuerpos contienen flogisto, que se desprende de ellos al arder en forma de
llama. Esos cuerpos que han ardido quedan «desflogistizados», y han perdido una
parte de su masa. Siempre las cenizas pesan menos que la madera o el papel.
Lavoisier hizo arder una serie de materiales en frascos cerrados.
El frasco, después de la combustión, mantenía exactamente su peso. Lo que había
perdido el cuerpo al arder lo había ganado el gas contenido en el frasco. ¿Qué
era ese gas, flogisto? No: un compuesto de carbono, tal como lo había
descubierto su maestro Rouelle, lo que hoy llamamos CO o CO2. El
flogisto no existe. La llama es el resultado de una reacción muy violenta, que
libera una gran cantidad de calor. Pero pesando todos los componentes de la
materia que entra en combustión, la masa es la misma. «No se crea masa, tampoco
se destruye, solo se transforma». El gran triunfo de Lavoisier llegó cuando
consiguió hacer arder metales, por ejemplo estaño, luego plomo. ¡El metal había
ganado peso, no lo había perdido! En cambio, la cantidad de aire que había en
el recipiente había disminuido. El peso total del conjunto se mantenía
invariable. ¿Qué es lo que hace que un metal gane peso al arder? ¡El óxido! El
aire posee un componente que oxida, al que Lavoisier llamó oxígeno (que
genera óxido). No hay flogisto, hay oxígeno, y la combustión es una reacción
química.
Ahora bien: cuando un cuerpo arde, el oxígeno se combina con él y forma un
cuerpo compuesto. Sin embargo, queda un gas, que no es oxígeno, y que no
reacciona con la combustión. Se mantiene sin combinarse. Lavoisier descubrió
que este otro gas es inerte. Si lo respiramos, nos ahogamos. Por eso le llamó
«ázoe» (sin vida). Hoy le llamamos nitrógeno. En el aire hay dos gases
mezclados: el oxígeno y el ázoe o nitrógeno. El oxígeno oxida y reacciona con
muchos elementos; el nitrógeno es neutro, refractario a combinarse (Lavoisier
lo imaginaba así: realmente, el nitrógeno también se combina, aunque menos
fácilmente). Total: que el aire no es un elemento, sino una mezcla de dos
elementos. ¿Y el agua? ¡El agua también oxida! Lavoisier demostró que el agua
contiene oxígeno, y por eso genera óxidos, pero también otro elemento muy
ligero, ya descubierto por Cavendish, que es el hidrógeno. En otras palabras:
el aire no es un elemento, sino la mezcla de dos elementos; el agua tampoco es
un elemento, sino la mezcla, más bien la combinación, de dos elementos. El aire
y el agua no son elementos: lo son el oxígeno, el hidrógeno, el nitrógeno.
Tampoco la tierra y el fuego son elementos. Todo lo que quedaba de la química
clásica cayó por los suelos.
En 1789 publicó Lavoisier su Traité élémentaire de Chimie. En
él distinguía hasta 32 elementos diferentes, a los que llamó principios. Estos
elementos o cuerpos simples pueden combinarse químicamente, produciendo cuerpos
compuestos. Comprendió muy aceptablemente las bases de las combinaciones
químicas, definió los metales y los metaloides, los ácidos y las sales, y la
forma como pueden combinarse entre sí. No acertó plenamente, ni se le podía
exigir tal cosa. Por un lado, se quedó corto, porque los elementos son muchos
más que 32. Hoy se conocen unos 120, aunque solo 86 son estables. Y por otro
lado se pasó de largo, porque admitió como cuerpos simples la cal (óxido de
calcio), la alúmina (óxido de aluminio) o la sílice (óxido o sal de silicio)...
e incluso el calórico... Lavoisier descubrió que la combustión oxida, pero no
supo explicar la causa del calor que produce. De todas formas, como observa B.
Bensaude-Vincent, «hizo olvidar todas las químicas que le habían precedido y
puso las bases de la química moderna». A partir de él la ciencia que estudia la
composición de los cuerpos y sus combinaciones no haría más que avanzar.
El espíritu del siglo XVIII se mostró muy interesado por la realidad de los
países exóticos, sus paisajes, sus volcanes, su fauna, su flora. Los viajes se
multiplicaron, como hemos visto páginas más atrás, y los viajeros trataron de
reflejar en memorias y estudios aspectos de la naturaleza de muy distintos
países. Puede decirse que, en este sentido, la familiaridad del hombre de
Occidente por su mundo habitual quedó enriquecida por el conocimiento
descriptivo y muchas veces científico de gran parte del resto del mundo. El
viaje se convirtió en una especie de deber de las clases cultas. En este
sentido, conviene destacar la práctica del Grand Tour, una
gira por distintos países que debían realizar los alumnos más aristocráticos de
las universidades británicas al finalizar su carrera. Anthony Ashley escribía
ya en 1707, que «el escenario del mundo es la verdadera escuela de todas las
ciencias que un caballero debe conocer, y que no encontrará nunca en los
colegios». El deseo de disecar animales raros, coleccionar plantas o reunir
minerales curiosos formó parte también de este afán no solo de conocer, sino de
poseer y de clasificar.
Nada tiene de particular que haya sido en el siglo XVIII cuando se realiza un
estudio generalizado, y sobre todo una clasificación universal de los animales
y plantas, y también, hasta cierto punto de los minerales. El afán clasificador
de la mentalidad ilustrada alcanza en este punto sin duda su ápice más
espectacular.
Karl von Linné, o Carlos Linneo (1707-1778) era sueco, y estudió en la
universidad de Lund, de donde pasó a Upsala. Concretamente, se hizo médico,
pero su afición primordial fue la botánica. Participó en la expedición que para
medir el arco de curvatura terrestre recorrió Laponia, y allí se familiarizó
con las especies vegetales de la región. También viajó al Cáucaso, a Inglaterra,
a Francia, y permaneció tres años en Holanda, donde aprendió de otros botánicos
y pudo estudiar aquellos «jardines» exóticos tan apreciados en la Europa de su
tiempo. Fue justamente en Holanda donde publicó su Sistema Naturale, en
que realiza una completa clasificación de las plantas, ante todo por sus
órganos de reproducción: fanerógamas son las que tiene flores visibles, y
criptógamas las que no las muestran. Estudió los pétalos, los sépalos, los
estambres, los pistilos, y las diferencias entre los distintos tipos de flores.
Al fin adoptó los módulos de «clase», «orden», género», «especie» y «variedad»:
tal es el orden que acepta en el subtítulo de su libro. Más tarde se introdujo
también en el reino animal, y trató de establecer una clasificación más o menos
similar. Y, aunque no llegó a ser un mineralogista propiamente dicho,
estableció los tres «reinos»: el animal, el vegetal y el mineral, dotados de
las siguientes características: «los minerales crecen; los vegetales crecen y
viven; los animales crecen, viven y sienten». El Systema Naturale fue
recibido con gran éxito en la mayor parte de Europa. En la décima edición
establece Linneo el sistema binomial: con solo dos palabras distingue el género
y la especie. Por lo general, la primera palabra es un sustantivo y la segunda
un adjetivo. Este sistema perdura hasta hoy, aunque, naturalmente, el número de
nombres se ha multiplicado casi hasta el infinito. Así, la quercus
pedunculata es el roble común, la quercus rotundifolia es
la encina y la quercus súber el alcornoque: tres árboles muy parecidos, pero
con características que pueden distinguirse entre sí. De mismo modo, hay que
distinguir entre el canis canis, el perro; el canis
lupus, el lobo, y el canis vulpes, el zorro. Linneo
se hubiera vuelto loco ante la cantidad de perros, producto de cruces, que hay
ahora. Hasta la pulga recibe el merecido nombre de pulex irritans. (Hay,
naturalmente, otras clases de pulgas que no molestan al hombre). Linneo recurre
al latín, no solo porque aún era el idioma común de la cultura, sino para
evitar los muy diversos nombres que a los mismos seres vivos se daban en los
distintos idiomas, y que provocaban confusiones. Hasta entonces, la
clasificación de animales y plantas era caótica. Desde Linneo quedó
perfectamente establecida, y el sistema, en líneas generales, se mantiene hasta
nuestros días.
Georges Louis Leclerc, conde de Buffon (1707-1788), riguroso contemporáneo de
Linneo, fue un entusiasta observador de la naturaleza, aunque no tan
sistemático como el sueco. Viajó por Suiza, Italia, Inglaterra, y se enamoró de
los paisajes, y de las especies que los animan. A diferencia de Linneo, prestó
menos atención a las plantas y más a los animales y hasta a los minerales, como
que se le puede considerar uno de los padres de la mineralogía. Atendiendo a la
lenta formación de las rocas y de los sedimentos, dedujo que la edad de la
Tierra era mucho mayor de la que se le atribuía: se atrevió a sugerir una
antigüedad de 50.000 a 75.000 años, lo que en aquellos tiempos no dejó de parecer
una exageración. También realizó audaces, y equivocadas, teorías sobre el
origen de los planetas. No es cierta su tesis de que hubo un tiempo en que el
mar cubrió la totalidad del planeta (Buffon encontró conchas fósiles hasta en
los Alpes), pero no deja de ser verdad que aquellas regiones donde se
encuentran esas conchas estuvieron alguna vez en el fondo del mar.
Luis XV le hizo director del «Jardin du Roí» (hoy «Jardin des
Plantes»), en que se reunían especies vegetales traídas de todas las partes del
mundo; y allí aprendió Buffon mucho más. Su obra es enorme, y abarca los 36
tomos de su Historia Natural, en la que trata lo mismo de los
orígenes de la Tierra que de las especies menos conocidas. Para Buffon, la
mayoría de los animales son más parecidos entre sí de lo que se supone: todos
respiran, digieren, tienen una sangre que circula, se reproducen. Todos ellos
parecen ser producto de «un plan». También intentó desterrar los tópicos: «el
león no es el rey de los animales, ni el gato es infiel...» Buffon fue hombre
al que le gustaba la polémica. Sus discusiones con Réaumur fueron violentas. Y
pretendió que su sistema de clasificación era superior al de Linneo, y le retó
a un debate. El sueco prefirió no entrar en él. La verdad es que el sistema de
Linneo es que ha prevalecido, perfeccionado a comienzos del siglo XIX por
Cuvier. A Buffon le perdió un poco su excesivo entusiasmo y su cierto desorden,
pero ello no impide considerarle el pionero de la zoología.
§. La medicina
La revolución científica del siglo XVII quizá no tuvo, en el campo médico, otro
hecho importante que el descubrimiento de la circulación de la sangre por
Harvey. Sirvió más para el desarrollo de la fisiología humana que para
favorecer el tratamiento clínico, pero fue un hito fundamental. Quizá merezca
mencionarse también el hallazgo de la quina como remedio contra las fiebres
palúdicas, las tercianas y la malaria. Los indios americanos de la zona del
Perú se valían ya de la corteza de la quina, y fueron los misioneros jesuitas
los que conocieron y difundieron su uso. Parece que fue la condesa de Chinchón
la primera persona que la trajo a España. Conocido es el hecho de que el Lord
Protector de Inglaterra, Oliver Cromwell, muy anticatólico, contrajo el paludismo,
pero se negó a utilizar la quina, a la que consideraba un «medicamento
papista». Y murió. Solo en el siglo XIX se obtendría el extracto de quinina, de
muy amplia aplicación.
En el siglo XVIII, la ciencia médica no avanza todo lo que hubiera podido esperarse.
Las discusiones entre los partidarios de la medicina tradicional y los de la
innovación a ultranza fueron interminables, sin que los innovadores lograsen
abrir nuevos caminos alternativos. Los especialistas en la cuestión afirman que
la medicina no pudo progresar porque aún no se conocían bien las funciones de
los órganos del cuerpo humano. Quizá sea más importante el hecho de que tampoco
se conocían los gérmenes patógenos. Existía ya el microscopio, pero no se
habían aislado e identificado los microorganismos, ni era fácil relacionar a
éstos con las enfermedades. El hecho es que la profesión médica no gozaba de
mucho prestigio, sin que por ello muchos enfermos llegasen a acudir al galeno
cuando su mal cobraba caracteres amenazadores. Los remedios prescritos, todavía
en el siglo XVIII, eran las sangrías (se suponía que la enfermedad estaba en la
sangre) y la dieta (después de comer suele subir la fiebre). El P. Feijoo, un
clásico del criticismo propio de la época, refiere un caso sangrante, aunque
hoy nos parezca gracioso. Un amigo suyo se puso enfermo, y el médico le
prescribió dieta: solo pan y agua. Como su mal empeoraba, el doctor se mostró
más exigente: solo agua. El estado del paciente se hizo más grave todavía:
¡dieta absoluta, ni agua siquiera! El amigo de Feijoo se encontraba gravísimo
cuando le visitó Fray Benito., Amigo mío: tal como está, ya no puede ponerse
peor: coma y beba usted lo que quiera. El buen hombre comió y bebió a su gusto,
y se puso estupendamente. La anécdota, probablemente, no es cierta, pero revela
el descrédito que en plena época de la Ilustración rodeaba todavía a la clase
médica.
Entre las disputas figuran, por ejemplo, la de los partidarios de que la
digestión es un fenómeno físico, y los que pretendían que es un fenómeno
químico: al final, parecieron llevar razón estos últimos, pero faltaba mucho
para que se conociera en grado suficiente la química orgánica capaz de sacar
partido de ese descubrimiento. John Brown era partidario de dispensar a los
pacientes grandes dosis de fármacos, para reforzar su actividad; pero en
ocasiones prevalecían los efectos secundarios, y resultaba peor el remedio que
la enfermedad. Frente a él se alineaba Hahnemann, a quien se considera el padre
de la homeopatía, que estimaba preferible la administración de medicamentos a
dosis muy pequeñas, pero de manera continuada. Franz Mesmer, que descubrió,
como Galvani, la acción electromagnética sobre los músculos, fue una especie de
precursor de la magnetoterapia, pero sus experimentos no tuvieron un resultado
terapéutico. William Cullen atribuía las enfermedades a un exceso o bien a una
deficiencia de la energía nerviosa, y era por tanto a los nervios a los que
convenía atender. G. Magnani estimaba que la enfermedad está localizada en una
parte del cuerpo, y era esta parte aquella a la que había que prestar atención:
y acertó muchas veces; pero también confundió muchos síntomas con la raíz de la
enfermedad. No faltaron clasificadores: en el siglo XVIII esta tendencia era
inevitable. Siguiendo el mismo sistema que Linneo y Buffon, Sauvage intentó
dividir las enfermedades en diez grupos, con 195 géneros y 2.400 especies
distintas. El sistema no dejaba de ser ingenioso, pero no encontró aplicaciones
prácticas.
Por supuesto, se realizaron avances, algunos de indudable importancia.
Mejoraron los conocimientos anatómicos y progresó la cirugía. Las operaciones
tuvieron cada vez más éxito. También mejoró la obstetricia, y aunque la
mortalidad en el parto, de la madre o de la criatura, siguió siendo elevada,
disminuyó notablemente: he ahí un factor, todo lo modesto que se quiera, del
crecimiento demográfico del siglo XVIII. Ambrose Paré impuso la ligadura de
vasos, venas e incluso arterias, en lugar de la cauterización de heridas, que
resultaba demasiado traumática. Lázaro Spallanzoni descubrió el jugo gástrico,
responsable de la digestión estomacal. Sin duda el descubrimiento más
importante del siglo fue el de la vacuna contra la viruela, una enfermedad que
causaba muchos miles de muertes al año, sobre todo en épocas de epidemia (en
Rusia parece que murieron dos millones de personas en un solo año), y que
dejaba además secuelas para toda la vida. Parece que fue la esposa del
embajador británico en Turquía la que contó que las mujeres circasianas
pinchaban a sus hijos con agujas infectadas en vacas que padecían la
enfermedad: esos niños no llegaban a contraer nunca la viruela. Edward Jenner,
un médico rural inglés, intuyó la utilidad del remedio como medida preventiva.
Supo de varios casos de infecciones similares en granjas inglesas que
inmunizaban a quienes las contraían. El secreto consistía en inocular una
cantidad insuficiente de materia contagiosa, para estimular las defensas del
organismo. Al fin, cuando estuvo seguro de sus resultados, probó con un niño,
que a los pocos días se puso ligeramente enfermo, luego sanó, y nunca llegó a
contraer la viruela, incluso durante las más graves epidemias. Otras
experiencias del mismo tipo surtieron idénticos resultados. Había descubierto
la vacuna antivariólica (la palabra «vacuna» viene precisamente de vaca. Las
vacas padecen de costras variólicas, pero no graves). El gran descubrimiento
causó sensación, y también una fuerte polémica. Hubo caricaturas que
representaban a Jenner con cabeza de vaca. Pero el sistema produjo resultados
sensacionales, y no muchos años más tarde Jenner figuraba como uno de los
grandes benefactores de la humanidad.
Capítulo 8
La época de la revolución industrial
Contenido:
§. El triunfo de la máquina de vapor
§. El barco de vapor
§. El triunfo arrollador del ferrocarril
§. Los avances de la electricidad
§. Los prodigios de la luz
§. La química puede formularse
§. Los avances en la medicina
A fines del siglo XVIII y comienzos del XIX la
revolución política cambió los destinos del mundo occidental. El Antiguo
Régimen, caracterizado por la supremacía del poder real, fue sustituido por un
Nuevo Régimen cuyos principios fundamentales son la libertad, el derecho del
pueblo a la soberanía, la separación de poderes y el ejercicio del legislativo
por un parlamento elegido. No siempre los electores fueron la mayoría, ni mucho
menos la totalidad, pero por lo general se ejerció, en mayor o menor grado, el
principio representativo. También se presumió de libertad de expresión y de
prensa, y nacieron los partidos políticos. El Nuevo Régimen se impuso en los
distintos países de América y en los de Europa occidental. En Europa central
tendría que esperar más, y más todavía en Europa oriental; pero el ambiente de
libertad cundió en casi todos los países del mundo civilizado, y el hecho no
dejó de tener repercusiones en el desarrollo de la ciencia, que contó en
adelante con menos entorpecimientos, y hasta, por lo general, con un ambiente
admirador del progreso científico. Tal admiración existió ya, ciertamente, por
parte de algunas clases distinguidas, en la época ilustrada; pero en el siglo
XIX alcanzó un ámbito incomparablemente más amplio.
Tan importante como la revolución política fue la revolución social que la
acompañó. En general, la vieja nobleza de sangre perdió en parte o del todo su
antiguo poder, y fue sustituida en la mayoría de los puestos de mando por la
«burguesía». Esta palabra, puesta de moda por la historiografía marxista,
resulta hoy bastante resbaladiza. Hay muchas formas de entender lo que es la
burguesía. Marx la asocia a la noción de «plusvalía», es decir, a la obtención
por el «burgués» de un margen de beneficios abusivo en detrimento de un
proletariado «explotado» por los poderosos. Proletario será así aquel
trabajador que recibe como salario una cantidad inferior a lo que vale su
trabajo. En este sentido solo serían «burgueses» los capitalistas que han
emprendido un negocio, se enriquecen con él, y pagan un bajo salario a sus
trabajadores. Sin embargo, las revoluciones suelen colocar en el poder a otro
tipo de «burguesía», la que podemos llamar clase política, formada
fundamentalmente por abogados y funcionarios. También existe una «burguesía
intelectual», que es la que da las ideas, y con frecuencia las defiende en los
parlamentos o en los periódicos. Raras veces la burguesía intelectual, y lo
mismo podríamos decir de la «burguesía científica», recibe más de lo que vale
su trabajo. Con frecuencia ocurre todo lo contrario. De todas formas conviene
recordar dos hechos: primero, que existe en el siglo XIX una «mentalidad
burguesa» muy característica, que abarca en cierto modo a todos los ciudadanos
de las clases medias; y segundo, que quizá precisamente por eso cabe una suerte
de alianza, consciente o inconsciente, entre las distintas burguesías.
Son las personas acomodadas, que poseen un suficiente capital inicial, las que
inician un movimiento tan grande por lo menos como el político, o el social: la
transformación del mundo por la producción masiva de productos cada vez más
perfectos y sofisticados que llenan los mercados, y por la aparición de medios
de comunicación y transporte que ponen en contacto a sociedades muy diversas y
contribuyen a acortar distancias que en otro tiempo se consideraban casi
insalvables. Este progreso, lo mismo en el campo de la producción industrial
que en las facilidades de desplazamiento y transporte, modifica las condiciones
de vida de millones de seres humanos, hace el mundo más pequeño y crea nuevas e
insospechadas formas de relación. Es lo que se conoce con el nombre de
Revolución Industrial. Esta revolución obedece al invento de nuevos
instrumentos válidos para la utilidad humana, o cuando lo menos para la de determinados
hombres, y se prevale de la técnica, que viene a ser, decíamos
la aplicación de la ciencia a un fin práctico. En adelante ya no podremos
prescindir de la técnica. Pero conviene tener en cuenta que el triunfo de la
técnica no puede conseguirse sin una nueva alianza: el ingenio del investigador
o inventor, y los medios aportados por quien es capaz de hacer posible la
conversión del invento en una realidad ampliamente producida y fácilmente
distribuible. Con el descubrimiento de aparatos útiles a la producción, que la
hacen más fácil, más eficaz o más barata, se pasa, en comentario de S. Lilley,
de la manufactura a la maquinofactura. Hace falta el hombre
que con su ingenio sepa fabricar o sepa cómo se fabrican esos aparatos. Pero
para fabricarlos en serie y distribuirlos hace falta dinero. De aquí la
asociación, buscada o no, pero casi siempre indispensable, del inventor y un
socio capitalista.
§. El triunfo de la máquina de vapor
La revolución industrial comenzó en Gran Bretaña. Se han dado muchas
explicaciones al caso. Una de ellas es que en ningún otro país fue tan fácil al
inventor encontrar su socio capitalista. Parece como si los ingleses adinerados
hubiesen intuido antes que nadie las ventajas que representaba la invención de
nuevas máquinas. Goethe comentaba a comienzos del siglo XIX que «los ingleses
son libres para descubrir, para usar su descubrimiento y para valerse de él
para descubrimientos nuevos. Así se explica por qué están más avanzados que
nosotros en todo». Hay otras muchas explicaciones, entre ellas la de que ya
había en Inglaterra una rica burguesía comercial deseosa de nuevas inversiones,
o la costumbre de utilizar carbón mineral. En otras partes se empleaba carbón
de madera, pues una vieja leyenda pretendía que el de piedra desprendía gases
venenosos.
Los primeros inventos se realizaron en el sector textil. Dos hombres de
apellido muy parecido, Richard Arkwright y Edmund Cartwright inventaron,
respectivamente, el huso y el telar mecánicos. Cartwright era un clérigo
anglicano que deseaba favorecer a la humanidad y facilitar el trabajo a los
obreros, y se encontró, paradójicamente, con la primera revuelta social en el
campo de la industria, porque las máquinas hacían el trabajo de los hombres y
disminuían la contratación de mano de obra. Comenzaba así la dolorosa
contradicción entre el progreso industrial y la pauperización de unos
trabajadores condenados a elegir entre salarios bajos o el paro. Los
instrumentos, manejados durante siglos por los propios operarios, a mano o
mediante pedales, pasaron a utilizar la fuerza animal, y de ahí el nombre de
una de aquellas máquinas, la mulé jenny. Luego, conforme se
fabricaron máquinas más grandes, se trató de aprovechar la fuerza de las
corrientes de agua. La historia de los instrumentos textiles, aunque sumamente
interesante, no debe ocuparnos demasiado en el sentido de que no fue obra de
científicos propiamente dichos. Hasta que apareció la máquina de vapor, y
entonces cambió el mundo.
Ya por 1708-1712, Thomas Newcomen, a quien ya hemos mencionado, había inventado
una máquina de vapor: el vapor recalentado impulsaba un émbolo embutido en un
cilindro. Sin embargo, la máquina era bastante tosca, y apenas se usaba, sin
mucho éxito, para extraer agua. James Watt (1736-1819) no fue un científico de
primera fila, pero conocía la ley de la cinética de los gases, tal como la
había formulado Boyle, y se dispuso a obtener de ella el máximo partido. En
primer lugar, introdujo en la máquina de vapor dos geniales innovaciones:
a) una caldera independiente, que es alimentada por vapor a presión de forma
continua, de modo que el émbolo sube y baja sin parar, y siempre a la misma
velocidad, y
b) el cigüeñal, un ingenio inspirado en el pedal de los afiladores, que
transforma el movimiento lineal en otro circular; y así, el eje o biela hace
girar una rueda.
Poder mover una rueda mediante una máquina de vapor fue un adelanto sin el cual
no hubiera podido desarrollarse la revolución industrial. Otros logros de Watt
fueron unos cilindros muy perfectos y unos émbolos muy bien ajustados, que
aprovechaban toda la fuerza del vapor; y finalmente, el sistema de doble
empuje, con émbolos por los dos lados de la rueda; cuando uno subía, el otro
bajaba, y la rueda no dejaba de recibir empuje ni un solo momento.
En 1800, Watt había fabricado 496 máquinas de vapor; de ellas 164 eran
utilizadas como bombas de agua, 24 para los fuelles de los altos hornos, y 308,
o sea la mayoría, para suministrar energía a otras máquinas (generalmente
textiles). Hay que tener en cuenta que una máquina de vapor (de 1800)
desarrolla una fuerza equivalente a la de cien hombres, o doce caballos. Los
fuelles a su vez insuflaban una gran cantidad de aire a los altos hornos, de
suerte que la industria siderúrgica se desarrolló con impulso increíble conforme
avanzaba el siglo XIX. La revolución industrial estaba en marcha. En 1830 había
en Gran Bretaña unas 10.000 máquinas de vapor. Su secreto no solo radica en su
capacidad de trabajo, sino en su autonomía: ya no necesita de la fuerza animal,
de la corriente del agua o del aire, como a lo largo de los siglos; es autónoma
y funciona dondequiera que se la coloque. Solo necesita de carbón y agua.
Pronto revolucionará también los sistemas de transporte.
El americano Robert Fulton (1765-1815) fue uno de esos típicos inventores que
se dedican a múltiples actividades. Trabajó en el taller de un joyero, fue
pintor, trazó canales y esclusas, e ideó un molino para aserrar el mármol.
Ensayó torpedos, y proyectó un submarino lanzatorpedos que convenció a
Napoleón, el cual contrató sus servicios. El famoso barco de Fulton se partió
en dos en aguas del Sena, y el desgraciado inventor hubo de regresar a Estados
Unidos. Allí ideó un barco de vapor, aunque ya nadie le hacía caso: se hablaba
de «las locuras de Fulton». Sin embargo, esta vez el proyecto resultó: en 1807
el Clermont, dotado de una máquina de vapor que movía unas
paletas, remontó el curso del río Hudson de Nueva York hasta Albany en 32 horas
(a una velocidad de unos 7 km/hr). No era un éxito sensacional, pero se había
descubierto un nuevo sistema de transporte. En 1812 funcionó el Comet, construido
en Glasgow, que podía remontar las aguas del Clyde. Casi al mismo tiempo
empezaron a funcionar barcos de vapor en el Escalda (Bélgica) y en el
Guadalquivir. En 1816 se botó el Real Fernando, un barco que cubría el trayecto
entre Sevilla y Sanlúcar en 9 horas. El Guadalquivir, después de las grandes
riadas del siglo XVII, se había hecho casi innavegable para barcos de vela a
causa de los «tornos» o meandros que obligaban a continuas y peligrosas
maniobras. La travesía podía durar entre uno y ocho días. Ahora, el barco de
vapor podía cambiar de dirección a voluntad, con absoluta independencia del
viento. La ventaja era manifiesta, porque al mismo tiempo el barco de vapor,
que podía transportar grandes cargas, era más barato que el transporte a lomos
de mulas.
Como podemos observar, los barcos de vapor navegaban por los ríos, en los que
las tempestades no levantan fuerte oleaje. En mar abierto eran torpes,
bandeaban peligrosamente, las ruedas o paletas se hundían de forma desigual en
las olas, y derrochaban mucha energía. Por otra parte, una navegación a través
del Atlántico obligaba a dedicar el 8o% de la carga a carbón y agua, con lo
cual la carga útil se reducía a un 20 por 100: aparte de que el peligro de una
navegación oceánica en barcos tan poco estables era francamente grande. En la
primera mitad del siglo XIX atravesaban el mar algunos barcos mixtos de vapor y
vela. El vapor funcionaba justamente cuando no hacía viento. Pero la navegación
oceánica se practicaba fundamentalmente en barcos de vela hasta que en 1859 se
inventó un artilugio de extraordinaria eficacia: la hélice. Y sobre todo desde
que en 1869 se abrió el canal de Suez.
El primer barco de vapor surcó las aguas con éxito en 1807; el primer tren
sobre raíles, arrastrado por una máquina de vapor lo hizo en 1825, es decir,
con 18 años de retraso; sin embargo, la revolución ferroviaria sería
infinitamente más rápida y espectacular en la primera mitad del siglo XIX.
Realmente, la primera locomotora fue inventada por un ingeniero militar
francés, Nicolás Cugnot, en 1769. Impulsada por una máquina de vapor, se movía,
sin raíles, a la no muy asombrosa velocidad de 4 km/h. Lo malo del caso es que
consumía todo el carbón que podía cargar en 12 minutos, y era preciso
aprovisionarla de nuevo. Luis XV quiso conocer aquella maravilla, que fue
probada en el palacio de Vanves, donde, por un defectuoso sistema de dirección
y de frenos, derribó un precioso muro. ¡Qué fuerza, pero qué desastre! El rey
no quiso saber nada del invento, y, como de costumbre, la gloria de la
aparición del ferrocarril correspondió a los ingleses. El sistema solo funcionó
cuando se unieron el «carril», vías de madera, luego de hierro, que hacían más
fácil el movimiento de vagonetas, generalmente en las minas, con la máquina de
vapor locomotora. En 1800, Richard Trevithick construyó la primera locomotora,
que transportaba 8 toneladas de carga, ¡pero la vía se hundió!. Fueron precisos
muchos ensayos hasta que en 1825 George Stephenson (1781-1848) logró hacer
correr un tren con locomotora y 36 vagonetas de carbón entre Stockton y
Darlington, a 16 kilómetros de distancia. La velocidad no era mucha, pues
delante del convoy iba un hombre montado a caballo con una bandera, para
prevenir a los viandantes. Más tarde, el tren admitió también viajeros.
El sistema tuvo tal éxito, que el gobierno británico abrió un concurso para
construir una vía férrea entre Liverpool y Manchester, dos ciudades distantes
65 kilómetros. Lo ganó Stephenson, que presentó la «Rocket», una locomotora
capaz de hacer la asombrosa velocidad de 15 kilómetros por hora. El fue el
técnico, y una sociedad se encargó de asumir los gastos. La explotación de la
línea fue un completo éxito, y Stephenson fabricó locomotoras cada vez más
potentes, hasta alcanzar velocidades de 40 km/h. La fama del inventor se
propagó por el mundo entero, y todas las naciones se lo disputaban para
construir líneas de ferrocarril. En 1832 Charles Fox inventó el sistema de agujas,
que permite el cruce de dos trenes (con vía doble solo en las estaciones). La
fiebre ferroviaria fue uno de los fenómenos del siglo. En 1830 estaban
construidos 50 kilómetros de vía; en 1850, alcanzaban los 35.000. En 1875,
220.000. Y en 1900, ¡un millón de kilómetros de vía tendida! Entretanto, la
velocidad de los trenes pasó de 20 a más de 100 km/h. Los trenes cubrían
continentes enteros, transportaban millones de toneladas de carga y millones de
viajeros. Los gastos eran inmensos, e hicieron trabajar a fondo a los
ingenieros: nuevos materiales, estudio del terreno, resistencia de los carriles
y precauciones para evitar que la dilatación de las vías con el calor provoque
una catástrofe, trazados de no más de un 3 por 100 de pendiente, con puentes, viaductos,
trincheras y túneles: la ciencia avanzó increíblemente con la revolución
ferroviaria, y la economía de los países adelantados también. Construir una
línea costaba mucho dinero, pero los beneficios eran todavía mayores. Hasta
para las clases modestas se abrió el camino de las migraciones y la posibilidad
de transportes baratos. Los precios de los productos lejanos bajaron, y los
domésticos se unificaron en todo país, gracias a la facilidad de
comunicaciones. Los poetas cantaban al ferrocarril como a la maravilla de los
nuevos tiempos, y Saint-Simon los creía garantes de una «paz perpetua en el
mundo» por su capacidad para unir naciones. Tal fue lo que se conoce como
la railway age.
Alessandro Volta había conseguido almacenar energía eléctrica en una pila
formada por dos metales distintos. Su capacidad de carga era muy limitada, pero
una prueba de lo sensacional de su descubrimiento fue el interés de Napoleón,
que llamó al físico a París, y, admirado por su descubrimiento, lo llenó de
honores. En 1808 Humphrey Davy (1778-1827) construyó una pila de gran tamaño y
mucha más capacidad, formada por 250 placas metálicas. Davy descubrió también
la electrólisis, un método para separar un elemento químico de otro bañándolo
en un líquido eléctricamente cargado. Por este sistema pudo, por ejemplo,
separarse el oxígeno del hidrógeno en el agua. Y otro descubrimiento de Davy,
menos genial, pero muy práctico, fue la lámpara que lleva su nombre, capaz de
evitar las explosiones de gas grisú en las minas de carbón, entonces en plena
explotación por el auge de la industria siderúrgica.
El danés Hans Christian Oersted (1771-1851) descubrió una sorprendente relación
entre electricidad y magnetismo. Parece que por una afortunada casualidad.
Acercó una pila con un cable conductor a una brújula que estaba enseñando a sus
alumnos, y la brújula se desvió considerablemente, como si le hubieran acercado
un imán. ¡La electricidad atrae! A esta misma conclusión llegó el francés André
Marie Ampère. Es más, las cargas eléctricas se atraen o repelen. Por similitud
con el imán, empezó a llamarse a estas cargas «positivas» y «negativas», y la
corriente eléctrica no parecía ser otra cosa que un fenómeno de atracción y
repulsión. Empezaban a descubrirse las posibilidades de la electricidad como
fuente de energía utilizable mecánicamente. Un paso más lo dio el británico
Michael Faraday (1791-1867), que intuyó la inducción eléctrica: la energía
eléctrica no solo se transmite a través de un cable, sino que puede sentirse
cerca del cable (por eso es peligroso acercarse a un cable de alta tensión).
Apareció el electroimán, una barra de hierro no previamente magnetizada, que
sin embargo, atrae cuando se la rodea de una bobina por la que pasa una
corriente eléctrica. Y entonces se le ocurrió a Faraday construir un aparato
que el llamó de «rotación eléctrica». Fue el primer motor eléctrico de la
historia. Todavía no encontró una aplicación industrial, pero acababa de darse
un paso de inmensas posibilidades.
Huygens había intuido que la luz era un fenómeno ondulatorio; por el contrario,
Newton creía que consistía en un fenómeno corpuscular. En todo caso, los
corpúsculos o las ondas se desplazaban a una velocidad endiablada. Nadie fue
capaz de medir en la Tierra la velocidad de la luz. Pero un contemporáneo de
Newton y Huygens, Olaf Römer, se dio cuenta de que los eclipses de los
satélites de Júpiter se retrasaban cuando el planeta estaba lejos de nosotros,
y se adelantaban cuando se acercaba. Como no cabe suponer que el periodo
orbital de los satélites sufra tales modificaciones, la conclusión era lógica:
cuando Júpiter está lejos, su luz tarda más en llegar a nosotros que cuando
está cerca. Los cálculos de Römer, que no disponía de los medios necesarios, no
fueron muy exactos, pero ya en el siglo XIX se supo que la luz se desplaza en
el vacío a una velocidad de 300.000 kilómetros por segundo.
Sin embargo, los científicos de la primera mitad del siglo XIX se preocuparon
menos de la teoría que de la práctica. El hecho puede parecer extraño en una
época en que prevalece en el ambiente la mentalidad romántica. Pero los sabios
de la era romántica fueron poco románticos, y sí muy realistas. Joseph
Fraunhofer (1787-1826) era fabricante de cristales de alta calidad. Hacía
magníficos espejos, y soberbias lámparas de cristal de Bohemia. También
fabricaba lentes, y descubrió que superponiendo dos lentes de cristales de
distinta refringencia, podía eliminar el cromatismo de las imágenes que tanto
molestaba a los astrónomos: había descubierto la lente acromática. Era un artista,
pero al mismo tiempo muy aficionado a las ciencias. Observó que un prisma
descompone la luz en los colores del iris (eso ya lo había descubierto Newton,
pero Fraunhofer en su juventud aún no lo sabía). Entonces se dedicó a fabricar
prismas cada vez más grandes y con mayor capacidad de refracción, algo que
Newton nunca pudo permitirse, porque no era un orfebre en cristales. Obtuvo
franjas de colores de más de un metro de longitud. Y de pronto descubrió que en
esta franja de colores aparecían unas líneas oscuras muy finas. En 1814
experimentó con la luz del sol. Sorpresa: la franja del arco iris, debidamente
ampliada, aparecía cruzada por infinidad de líneas negras. Ampliando el
«espectro» todo lo posible y observando con una lupa la sucesión de colores,
desde el rojo hasta el violeta, contó hasta 600 líneas. Increíble. Fraunhofer
no supo a qué se debían aquellas rayitas misteriosas. Lo descubriría Kirchhoff.
Pero había puesto las bases del análisis espectral.
Robert Bunsen (1811-1899) era químico. Estudió la técnica de los altos hornos,
y se dio cuenta de que perdían un 50 por 100 de combustible. ¡Cuántas veces el
técnico trabaja de espaldas al científico, o el científico de espaldas al
técnico! Pero cuando se asocian, los resultados son espectaculares. Desde
entonces, la industria siderúrgica obtuvo los mejores rendimientos. Uno de sus
inventos fue el «mechero Bunsen», que consta de dos fuentes independientes, de
gas y de aire: graduando una y otra hasta obtener los mejores resultados, se
puede conseguir una llama que no despide humo. El mechero Bunsen, mucho más
limpio que las demás fuentes de luz y calor, encontró múltiples aplicaciones;
una de ellas fue el análisis espectral, cuando se asociaron el químico Bunsen y
el físico Kirchhoff, que estaba interesado por los experimentos de Fraunhofer.
Un prisma acoplado a un pequeño catalejo fue el primer espectroscopio. Y el
mechero Bunsen resultó el mejor emisor de luz limpia. Bunsen y Kirchhoff
observaron que un gas interpuesto entre el mechero y el espectroscopio produce
un espectro de rayas características. Por ejemplo, el sodio muestra dos rayas
gemelas en la región del amarillo; el calcio una raya ancha en la región del
rojo, el hidrógeno, multitud de líneas muy finas en la región del azul... ¡Cada
cuerpo se distingue por sus rayas propias, distintas de las de los demás
cuerpos! Una noche, cuando nuestros dos sabios estaban cenando en un lugar
cerca de Hamburgo, vieron un voraz incendio a gran distancia. Apuntaron el
espectroscopio a la luz del incendio, y descubrieron dos rayas gemelas en la
región del amarillo. ¡Sodio! Al día siguiente supieron que había ardido un
almacén de sal. Estaba perfectamente claro: el espectroscopio es un magnífico
instrumento para analizar los cuerpos, sin necesidad de efectuar operaciones
químicas.
Y enseguida se les ocurrió: ¿Y el sol? Construyeron un anteojo mayor, acoplado
a un potente prisma, y lo dirigieron al sol. Casi no fue sorpresa, porque en
cierto modo lo esperaban: en el sol descubrieron las rayas del sodio, del
calcio, del hidrógeno, y hasta de un cuerpo desconocido en la Tierra, que por
parecer privativo del sol, llamaron helio (Hoy se conoce la existencia de helio
en nuestro planeta, aunque en escasa proporción). Habían analizado por primera
vez la composición química del sol, un hecho que parecía imposible. Más tarde
se pudo dirigir el espectroscopio a las estrellas, a través de grandes
telescopios: también el hidrógeno, el helio, el calcio, el sodio, el oxígeno,
el hierro... Increíble: el hombre podía conocer la composición química de los
astros. Cuando, ya a fines de siglo, se publicó el hallazgo de oro en el sol,
los periódicos difundieron el hecho en grandes titulares, y la noticia causó
sensación en el mundo civilizado, como si el descubrimiento pudiera hacer ricos
a los hombres... Pero en definitiva, una conclusión era clara: el Universo
entero está fabricado con los mismos materiales. Fue un descubrimiento que
contribuyó a dar una idea de la unidad de la Creación.
Una aplicación de la óptica, menos profunda, pero sumamente práctica, fue la
fotografía. Ya a fines del siglo XVIII Davy descubrió que las sales de plata se
ennegrecían con la luz, y consiguió algunas imágenes proyectándolas sobre una
placa revestida con estas sales. Pero aquellas «fotos» primitivas duraban muy
poco, porque pronto, con la luz natural, se ennegrecía todo el papel. En 1827,
el francés Niepce obtuvo reproducciones algo más estables, pero fue en 1831
cuando su compatriota Louis Daguerre logró obtener imágenes dentro de una
cámara, en placas recubiertas de yoduro de plata. Luego las «fijaba» con una
disolución concentrada de sal común. La sal hacía que el yoduro de plata dejase
de ser sensible a la luz, y la imagen pudiese conservarse. Obtener una
fotografía no era cosa fácil. Para que la placa se sensibilizara hacía falta
una exposición de varios minutos, a veces de media hora: naturalmente, era
mucho más fácil obtener una reproducción de una casa o de un paisaje que de una
persona. En 1839 Daguerre consiguió ya exposiciones de menos de un minuto: con
cierto esfuerzo, el retratado era capaz de mantenerse sin mover un músculo. Por
1842, la exposición era ya de diez o doce segundos. Los habitantes de París se
volvían locos por conseguir su propio «daguerrotipo», y el inventor hizo su
agosto. Luego, se fueron descubriendo métodos más fieles de reproducción y
exposiciones más cortas. Con todo, era preciso emplear una cámara de gran
tamaño sostenida por un trípode. El proceso de fijación y revelado era largo;
pero el proceso valía la pena, y el invento de Daguerre, secundado por otros,
se difundió por el mundo.
John Dalton (1766-1844), hombre de origen humilde y de gran talento, fue
matemático, físico, químico, zoólogo, botánico, meteorólogo... y daltónico.
Hizo infinidad de estudios sobre el tiempo atmosférico, y llevó durante muchos
años constantes registros meteorológicos: hasta cientos de miles de datos.
Intuyó que la causa de la lluvia no depende precisamente de la presión, sino
del enfriamiento del vapor de agua contenido en la atmósfera. Sin embargo, al
darse cuenta de que tenía una apreciación de los colores distinta a la de sus
amigos, dedicó varios años al estudio de los colores. Intuyó, aunque otros
desarrollarían mejor estos conocimientos, que las cosas no «son» blancas,
verdes, amarillas o rojas, sino que reflejan, o bien todos los colores (las
blancas), o bien el verde, el amarillo o el rojo. Un papel blanco, iluminado
solo por una luz roja no es que se vuelva rojo, sino que, aunque puede
reflejarlo todo, no recibe otra luz qué reflejar que la roja. Sobre todo intuyó
el papel de la retina al provocar las sensaciones de los colores que recibe.
Algunas retinas provocan reacciones similares ante colores distintos, y de ahí
las confusiones en que incurren los «daltónicos» como él. Con todo, la gran
aportación de Dalton a la ciencia se centró en el campo de la química, como
enseguida vamos a ver.
Lavoisier, a fines del siglo XVIII, había puesto los cimientos de la química
moderna. Había acabado con viejos mitos, como la alquimia o el flogisto, e intuyó
la existencia de cuerpos simples o «principios» y de cuerpos compuestos. Pero
no siempre acertó. No tuvo una clara idea del mecanismo de las reacciones. Un
paso fundamental lo dio el personaje al que acabamos de aludir, John Dalton,
que descubrió que en una reacción química los elementos se combinan en
«proporciones fijas». Por ejemplo, para formar agua, se combinan el oxígeno y
el hidrógeno, pero siempre en la misma proporción: el peso del oxígeno ha de
ser ocho veces mayor que el peso del hidrógeno [6] . Si
añadimos una mayor proporción de oxígeno o de hidrógeno, tendremos una parte
sobrante. Lo mismo ocurre si combinamos cloro y sodio para formar sal común,
etc. Los cuerpos se combinan siempre entre sí en proporciones fijas. Estudiando
las formas de combinación y los cuerpos resultantes, Dalton escribió sus Principios
de filosofía química. Por primera vez, Dalton establece una distinción
esencial entre cuerpos simples y cuerpos compuestos. Los cuerpos simples están
formados exclusivamente por átomos iguales. Los átomos son indivisibles,
perfectos, exactamente idénticos a los demás del mismo cuerpo, e
indestructibles. No hay nada más pequeño que el átomo. Dalton concebía los
átomos de hierro o de cloro como «el principio esencial» del hierro o del cloro.
Los átomos son los determinantes de los caracteres de los cuerpos simples: en
ellos está como contenida su naturaleza fundamental. Pero los cuerpos simples
pueden combinarse entre sí para formar cuerpos compuestos.
Dalton da el nombre de «átomos de compuesto» a lo que hoy llamamos moléculas.
Una molécula está formada por varios átomos, generalmente de distintos cuerpos
simples. La molécula del agua es el resultado de la combinación de dos átomos
de hidrógeno y uno de oxígeno; una molécula de sal común es la combinación de
un átomo de cloro y otro de sodio; una molécula de ácido sulfúrico es la
combinación de un átomo de azufre, cuatro de oxígeno y dos de hidrógeno. Cada
molécula de un cuerpo compuesto es igual a otra cualquiera del mismo cuerpo:
dos moléculas de agua son iguales entre sí. Pero ya no son «perfectas»,
«unitarias» ni «indestructibles». Dalton aún no alcanza plenamente el concepto
de «valencia», ni tampoco puede precisar el mecanismo de las combinaciones,
pero sí da con las proporciones necesarias para cada una y con el concepto que
deduce acerca de lo qué es átomo y lo que es molécula.
El sueco Berzelius aclaró mejor el número de átomos de cada elemento que se
unen para formar una molécula, calculó el llamado «peso atómico», e inició un
sistema de notación simbólica, con letras para designar cada elemento y
subíndices (realmente Berzelius escribía exponentes) para designar el número de
átomos que entraban en la combinación. Pero fue el italiano Stanislao
Cannizzaro el que arbitró los signos que hoy se usan, con una o dos letras del
nombre latino de cada elemento. El más importante o el primeramente conocido
lleva solo una letra: H es hidrógeno; B, boro; C carbono... etc.; en tanto que
He es helio; Hg (Hydrargirium), mercurio; Ba, bario; Ca, calcio. Con este
sistema de notación a base de una o dos letras, y el conocimiento que ya
existía sobre las combinaciones de elementos, fue posible formular reacciones
químicas con la misma precisión con que se manejaban expresiones matemáticas.
Era posible formular una reacción sobre la pizarra, antes de que ésta se
produjese en el laboratorio. La química clásica había nacido.
§. Los avances en la medicina
La ciencia médica comienza a experimentar en la primera mitad del siglo XIX un
progreso en sus conocimientos y sus métodos que ya no se interrumpirá hasta
ahora mismo. Caducan definitivamente sistemas antiguos como la dieta
generalizada o la sangría, se abandonan las viejas tradiciones galénicas, se
estudian las enfermedades y se relacionan con sus síntomas correspondientes, a
la vez que se procuran remedios específicos para cada una de ellas. Proliferan
los hospitales y los centros de salud, y el estudio de la medicina se
independiza definitivamente del de otras ciencias. La mayor parte de los
grandes médicos del primer cuarto del siglo XIX son franceses. En parte por
casualidad, en parte porque los maestros destacados tienden a crear escuela.
Georges Cabanis (1774-1808) se preocupó muy especialmente por la higiene. No se
conocía aún el origen de la mayoría de las enfermedades, pero estaba claro que
muchas de ellas se transmiten especialmente en ambientes poco limpios. El
cuidado corporal, del ambiente doméstico, de la calle, y, quizá más aun, de los
hospitales, justo donde los contagios son más fáciles, fueron para Cabanis
principios fundamentales en la medicina preventiva. Gaspard Bayle (1774-1816)
fue un especialista en anatomía patológica. Relacionó mejor de lo que nadie
había hecho antes cada enfermedad con sus síntomas específicos. Distinguió
hasta seis tipos distintos de tisis. Auscultaba cuidadosamente a sus pacientes,
atendiendo a las pulsaciones de su corazón o a los ruidos respiratorios que se
producían en el pecho, y de todo ello sacaba sus conclusiones. Fue uno de los
pioneros de la medicina experimental. También experimental fue el método de
Pierre Louis (1787-1822), al que muchos consideran el iniciador de la medicina
de observación. Clasificó hasta 50 hechos clínicos distintos, y los
relacionó con enfermedades específicas, que requerían cada cual su tratamiento.
En este último aspecto, la medicina no logró aún dar su paso decisivo, aunque
Louis prohibió terminantemente las sangrías, y estimó la importancia de la
fiebre. Fue el primero en aplicar a los enfermos un nuevo y sensible tipo de
termómetro, el termómetro clínico, siguiendo cuidadosamente la evolución de la
temperatura. A mayor temperatura, casi siempre mayor gravedad del mal. Pero se
dio cuenta también de que la fiebre tiende a bajar por la mañana y a elevarse
por la tarde, sin que ello represente una mejoría o un empeoramiento de la
enfermedad.
Los remedios de la época romántica no fueron muchos ni infalibles, pero
supusieron un paso. Se sabía utilizar la morfina contra el dolor intenso, la
quinina (un extracto de la quina) era útil para combatir la fiebre y
especialmente la malaria; el yodo era un buen desinfectante; el tanino un
eficaz astringente. En 1831 comenzó a usarse el cloroformo como anestésico, y
con él la cirugía cambió de estilo. Hasta entonces había primado la rapidez,
para evitar sufrimiento al operado. Ahora se pudo dar más importancia al
cuidado, la precisión y la eficacia. Al mismo tiempo, el desarrollo de la
asepsia y la antisepsia disminuían las complicaciones postoperatorias, que
hasta entonces habían provocado más muertes que la operación misma. Cada vez se
curaban más y mejor los males tradicionales. No había llegado todavía la época
de los grandes específicos, mucho menos la de los medicamentos de síntesis,
pero el genio del hombre comenzó a obtener victorias cada vez más
espectaculares sobre la enfermedad, y este hecho, reconocido por todos,
revalorizó social y profesionalmente la imagen del médico, hasta entonces, recordémoslo,
un tanto despreciada. Sin embargo, a comienzos del siglo XIX pareció
consagrarse un nuevo enemigo: la tisis o tuberculosis. Un tópico muy repetido
pretende que la tuberculosis es una enfermedad romántica. ¿Es así realmente?
¿Pudo existir una mutación que hizo que el bacilo de Koch adquiriera nueva
virulencia, o todo es una simple impresión, producto del hecho de que unos
cuantos literatos o artistas románticos murieron tuberculosos? ¿O bien es que
antes se había confundido la tuberculosis con otras enfermedades pulmonares? La
discusión continúa, y no cabe decidirse sobre ella.
Lo cierto es que muchos médicos se dedicaron a estudiar detenidamente la
tuberculosis y la forma de combatirla. Uno de ellos fue el citado Bayle. Pero
sin duda el más luchador fue Theophile Laennec (1781-1826). Uno de sus
descubrimientos fue el estetoscopio, un aparato muy sencillo que facilita la
auscultación. A muchos pacientes les molestaba que el médico aplicara el oído a
su cuerpo; las mujeres, especialmente, sentían un cierto pudor. El estetoscopio
no solo evitaba estos inconvenientes, sino que permitía escuchar mejor los
ruidos internos, y localizarlos con precisión, según el punto sobre el que se
aplicaba sucesivamente el aparato. Laennec aprendió mucho sobre las dificultades
respiratorias y sobre la frecuencia o las irregularidades cardíacas. Muchas de
sus indicaciones siguen conservando hoy validez. Pero sobre todo, se aplicó al
caso de la tuberculosis, cuyos síntomas determinó muy bien.
Ganó batallas, perdió la guerra. Murió a los 45 años, víctima de la enfermedad
con la que había estado en tan estrecho contacto. Fue, si se quiere, un mártir
de la ciencia. Aquellas batallas acabarían por surtir resultados, y eso es lo
que la humanidad debe agradecerle.
Capítulo 9
La actitud positivista y la gloria de la ciencia
Contenido:
§. Augusto Comte y la divinización de la ciencia
§. La nueva imagen del Universo
§. El conocimiento del mundo
§. La antigüedad de la Tierra
§. El evolucionismo y el origen del hombre
§. El imperio de la termodinámica
§. El orgullo v desconcierto del «no es más que»
§. El hada electricidad
§. La química: el átomo y más allá
§. De la química orgánica a la biología
§. Mendel y los orígenes de la genética
§. Claude Bernard y la medicina experimental
Decía un personaje de Dickens: «lo que yo quiero
son hechos; hechos es lo que hace falta en el mundo. Es preciso desterrar para
siempre la palabra imaginación». La imaginación había sido una
cualidad propia del hombre romántico; Dickens, autor realista, quiere hechos,
se atiene a los hechos, no a las fantasías. Está expresando claramente un
cambio de mentalidad, una mentalidad que deja atrás las formas del
romanticismo. El sentido realista hace decir a un científico y divulgador de la
ciencia, Frangíos Arago, allá por 1850: «no es con bellas palabras como se
obtiene el azúcar de la remolacha, ni con versos alejandrinos como se extrae la
sosa de la sal marina». Es la afirmación de un positivista que fue en vida,
aunque no romántico, muy combativo.
¿Nos sentimos movidos a darle la razón? Por supuesto, la poesía no sirve para
esas cosas, pero muchas personas de categoría tienen derecho a pensar que
«sirve» para algo muy importante. Lo que interesa a Arago es defender aquellos
conocimientos encaminados a fines prácticos. Otra cita que también puede
parecemos necesitada de matización es del gran creador de la medicina
experimental, Claude Bernard: «Kant, Hegel, Schelling, etc., no introdujeron la
más insignificante verdad en la tierra. Solo los científicos pueden hacerlo».
De nuevo el desprecio a las actividades del espíritu que no son ciencia.
Millones de personas alegarían que la filosofía busca encontrar la verdad tanto
como la ciencia misma, y no tiene por qué ser, en sí, menos rigurosa ni menos
respetable. Pero aquí, como es frecuente en la época, hallamos una militante
defensa del conocimiento práctico. La nueva mentalidad alcanzó a todos los
órdenes. Un ministro de Napoleón III, Émile Olivier observaba en un discurso
que «hemos acumulado en nuestros corazones suficientes imágenes, demasiados
sueños... Para que todo eso sea útil, debemos colmarnos de hechos prácticos».
Probablemente no son necesarias más citas. Llegó un momento en que, dentro de
nuestra cultura occidental, el romanticismo soñador, que cultivaba las
leyendas, las quimeras, los sueños imposibles, y que concedía en el campo del
arte y de las costumbres, tanta o más importancia al corazón que a la cabeza,
apareció de pronto como pasado de moda, y se impuso lo práctico, lo útil, lo
que da resultado. Esta nueva actitud se denomina, en el arte y la literatura,
realismo; en la ciencia, y también por lo que se refiere a cierto modo de
entender la vida, positivismo. No cabe duda de que la nueva mentalidad es más
pragmática, en algunos aspectos también más materialista. No se trata en este
punto de destacar los aspectos positivos o negativos que pueda tener en la vida
y en las conciencias; sí es evidente que esa nueva mentalidad estaba a favor de
una concepción más científica del mundo, e iba a favorecer como pocas en la
historia el desarrollo de la ciencia y sobre todo el de sus aplicaciones.
La edad del optimismo por naturaleza es la positivista. Nunca estuvo el hombre
tan seguro de su porvenir en este mundo, del avance del Progreso como en la
segunda mitad del siglo XIX. Y ello gracias justamente a su ilimitada confianza
en una ciencia que estaba cambiando el planeta y las condiciones de la vida del
hombre civilizado sobre él. La ciencia conduce al progreso y permite formas de
desarrollo cada vez más avanzado; y a su vez el progreso dota de nuevos medios
al científico, que ahora ve facilitada su labor, y se siente alentado y apoyado
como nunca lo había sido. Una concepción basada en la práctica y la eficacia
provoca tres hechos espectaculares: a) un avance de las ciencias que desborda
todos los precedentes, sobre todo en aquello que respecta al conocimiento
aplicado; b) una modificación sustancial de los medios que de pronto son
puestos a disposición del hombre, y por tanto un progreso imparable de eso que
se conoce como civilización-, y c) el dominio del mundo,
mares, tierras, montañas, selvas y desiertos, por el hombre de Occidente, como
jamás se había visto. Las repercusiones de estos hechos son espectaculares.
Como observa Stephen Toulmin con referencia a la ciencia y la técnica de la
segunda mitad del siglo XIX, «muy pocos sueños colectivos de los hombres se han
realizado de forma tan completa como éste». Tratemos de estudiar, de momento
sin pararnos a aventurar ventajas o inconvenientes, esta increíble aventura.
§. Augusto Comte y la divinización de la ciencia
Puede parecer una gran paradoja, y muy probablemente lo es, que el gran adalid
del positivismo haya sido un romántico soñador. Augusto Comte (1798-1857) fue
un filósofo francés, discípulo de un socialista utópico, Henri de SaintSimon,
que soñaba una humanidad fraterna y feliz. Desde su adolescencia, estuvo
preocupado por la idea de que Europa se encontraba en crisis, sin criterios de
seguridad moral, sin certezas absolutas. Se había caído en una «anarquía
espiritual». ¿Cuál era la causa de tal fenómeno? Comte estimó que se trataba de
un debilitamiento de las creencias religiosas. La Revolución había destruido
los presupuestos del Antiguo Régimen, y el sistema de respetos en que se
basaba. Los principios que permitían al hombre estar absolutamente seguro de un
sistema de certezas se habían oscurecido (el mismo Comte no era creyente); y,
por eso se hacía necesario encontrar un sistema cuyos postulados nadie pudiera
discutir, capaz de permitir un grado de certidumbre absoluta. Y esa certidumbre
solo podía proporcionarla, a su juicio, la ciencia.
Ahora bien: las ciencias se habían equivocado durante mucho tiempo. Era preciso
llegar a un grado de conocimiento científico sin posible recurso en contra.
Comte, con un ensayismo harto discutible, creyó encontrar una ley de la
evolución de todas las ciencias. «Estudiando el desarrollo total de la
inteligencia humana, escribió en su «Curso de filosofía positiva», creo haber
descubierto una gran ley fundamental... Esta ley consiste en que cada rama de
nuestros conocimientos... pasa sucesivamente por tres estadios teóricos
diferentes: el estadio teológico, el estadio metafísico y el estado positivo,
que es el verdaderamente científico». Es lo que se ha llamado «la ley de los
tres estados», aunque parece preferible hablar de «estadios» o etapas. Esta
triple división, que Comte considera como una especie de ley universal, es tal
vez lo más forzado de su teoría. ¿En qué consiste esa pretendida evolución
inevitable? En que cuando una ciencia atraviesa su estadio teológico, se
atribuyen los fenómenos naturales a una causa trascendente. Zeus era para los
antiguos la causa de los truenos. Durante el estadio metafísico, se teorizan
los fenómenos, pero no se analizan; se permanece en una estéril abstracción,
que se pierde en conceptos universales, pero no concreta. Así la distinción
entre materia prima y forma sustancial. Cuando llega el estadio positivo, el
conocimiento abandona las explicaciones teóricas y se funda en la observación
de los hechos, para determinar sus leyes.
En la concepción de Comte, todos los fenómenos se ajustan a unas leyes
inmutables y eternas. Estas leyes se obtienen por inducción, esto es, por la
repetición de los fenómenos mediante la observación, y, más aun, mediante la
experimentación. Si no conocemos la ley que rige el comportamiento de un
fenómeno determinado, es que aún no hemos observado o experimentado ese
fenómeno de la manera conveniente. Pero todo obedece a leyes naturales, y
llegamos al conocimiento de esas leyes cuando las hemos experimentado un número
«suficiente» de veces, cuando ya no puede caber duda de que el fenómeno se
repetirá cuantas veces lo experimentemos. El conocimiento de las leyes de la
naturaleza conduce a un grado de certeza absoluta, porque esas leyes no pueden
fallar. Y la certeza, lo absolutamente seguro, lo siempre constatable, es la
base de la verdadera ciencia. Cuando la conocemos, se alejará de nuestro
espíritu el fantasma de la duda.
Ahora bien: no todas las ciencias, dice Comte, han llegado al estadio positivo.
Algunas sí lo han alcanzado, y pueden considerarse «infalibles». Por ejemplo,
la cabalística, con sus números simbólicos de significados mágicos, se ha
convertido en matemática, y la matemática no se engaña. La astrología, que
atribuía a los cuerpos celestes misteriosas influencias sobre los hombres o los
acontecimientos, se ha convertido en astronomía, y la astronomía es ya una
ciencia absolutamente racional, en que los hechos, como las órbitas o los
eclipses, pueden predecirse, y se cumplen inexorablemente. La alquimia, que
creía en elixires mágicos o pretendía obtener oro mediante la piedra filosofal,
se está convirtiendo en química, una ciencia en que las combinaciones de los
cuerpos pueden formularse y predecirse. La física se está convirtiendo también
en una ciencia, conforme se conocen los fenómenos y sus leyes; la medicina
progresa, y se están desterrando viejos prejuicios: pronto será una ciencia con
todas las de la ley. Otras se encuentran más retrasadas, especialmente las que
estudian el hombre: la biología, la etnología, la antropología. Comte pretendía
sobre todo dominar las leyes que rigen los comportamientos humanos. Todavía no
conocemos cómo y por qué obramos como obramos; pero en el futuro lo sabremos, y
el filósofo francés espera pronto conocerlo: «Haré evidente, escribe a su amigo
Vallot, que hay leyes tan determinadas para el desarrollo de la especie humana
como para la caída de la piedra». Y el día en que puedan conocerse esas leyes,
podremos dominar los secretos del hombre y modificar aquellos factores que los
perturban. En el futuro, dominadas las ciencias que explican el mecanismo
mediante el cual hacemos esto o lo otro, o no hacemos lo que debemos, habremos
encontrado el camino de la felicidad, de la justicia en las relaciones humanas,
de una auténtica solidaridad, que Comte creía posible alcanzar por medios
estrictamente científicos.
Al final, el filósofo francés cayó, paradójicamente, en una especie de
exaltación mística, y creyó en un progreso absoluto, continuo y necesario,
gracias al método que creía haber descubierto. Imaginaba una sociedad regida
por sabios, solo por ellos, por tanto muy poco democrática, en el sentido que
hoy damos a esta palabra, y acabó erigiendo la «Nueva Religión de la Humanidad»,
una religión que identificaba con la Ciencia, pero que no dejaba de tener sus
formas de culto. Los grandes sabios serían los sacerdotes, habría templos,
liturgia, sacramentos y hasta un nuevo calendario. Se establecieron templos
positivistas en Europa y América. En ellos se adoraba sobre un altar una
pequeña locomotora, como símbolo del Progreso. Y este Progreso garantizaba de
una vez para siempre la felicidad del género humano. Aún quedan algunos templos
positivistas, por ejemplo, en Brasil.
Es muy difícil asegurar que la utópica filosofía positivista haya originado
la actitud científica positivista, tal como históricamente la
conocemos, y el cientifismo como principio dominante en la segunda mitad del
siglo XIX. El positivismo científico es todo lo opuesto al idealismo soñador de
Comte que podamos imaginar. ¿Fue todo una simple coincidencia? ¿Imprimió el
filósofo francés un decisivo golpe de timón a la historia, o ese giro se
hubiera experimentado de todas formas? Algo hay de común entre la nueva
religión de la humanidad del pensamiento comtiano y la concepción de
la ciencia como una realidad sagrada e infalible por parte de algunos miembros
del cientifismo. He aquí algunas citas llamativas. Etienne Vacherot: «Nosotros
creemos en el dogma del Progreso como el creyente en su fe». Ernest Renán: «La
ciencia es una religión; la ciencia por sí sola resuelve para el hombre los
problemas eternos, de los cuales su naturaleza exige imperiosamente la
solución». Pierre Berthelot: «La ciencia es la bienhechora de la humanidad, y
como tal reclama la dirección intelectual y moral de las sociedades. Del
conocimiento de la ciencia derivará un hombre no solo cada vez más sabio, sino
cada vez mejor y cada vez más feliz». De esta concepción derivan dos actitudes:
una es la absoluta seguridad del hombre positivista en la capacidad de la
ciencia para hacer cada vez más felices a los hombres y llevarles a la verdad
integral. La otra es la que pudiéramos llamar el «orgullo del sabio», infatuado
y dogmático. Por fortuna no todos los sabios del positivismo, sino más bien una
minoría y sobre todo los menos cualificados, hicieron gala de este orgullo, que
es tal vez el rasgo más antipático del científico positivista. La mayoría de
ellos, y muy especialmente los más eminentes, fueron más bien hombres sencillos
y nada pretenciosos. Con todo, es preciso tener en cuenta que el cientifismo o
cientificismo constituye un movimiento de seguridad absoluta en el progreso del
hombre y su futura y total felicidad gracias a los avances de la ciencia. Sea
lo que fuere, el orgullo positivista y su tremenda seguridad caerían
dramáticamente por los suelos a raíz de la revolución científica de comienzos
del siglo
La ciencia positivista progresó de manera espectacular en la segunda mitad del
siglo XIX. Descubrió leyes y aplicaciones, pues estuvo dotada de un sentido
eminentemente práctico. El optimismo quedaba en buena parte justificado por los
resultados que se obtenían. Su limitación radicaba en el hecho de que se
conformaba con la constatación de los fenómenos, en la «fisis» o forma de
manifestarse las cosas, en lo que de ellas puede contarse, medirse, pesarse, no
en lo que son las cosas, y menos en la comprensión de su porqué. El positivismo
huye como del fuego de las últimas preguntas. Se queda en los comportamientos,
u, hoy lo sabemos, en la apariencia de esos comportamientos. Aquella actitud
supuso una limitación, quién lo duda, pero tampoco puede criticarse sin más el
método, la observación y la experimentación continuada de los científicos de la
segunda mitad del siglo XIX.
§. La nueva imagen del Universo
El progreso de la astronomía en la centuria decimonónica, y en particular
durante su segunda mitad, fue impresionante. Sobre todo, se fue pasando de la
astronomía de posición a la moderna ciencia de la astrofísica. La
astronomía de posición, cultivada especialmante en los siglos XVII y XVIII,
calculaba de forma cada vez más perfecta el lugar exacto que ocupaban los
astros en la bóveda celeste, sus movimientos, sus órbitas y permitía por tanto determinar
con exactitud sus efemérides, es decir, predecir las
posiciones que habrían de ocupar en tiempos sucesivos. Los astrónomos, desde la
antigüedad, se habían preocupado de hacer efemérides, pero el grado de
precisión con que podían predecirse los fenómenos astronómicos desde el siglo
XVIII llegó a parecer casi milagroso. Ello fue debido a la observación con
instrumentos de medida muy precisos y a los progresos realmente admirables en
el cálculo. Pero en el siglo XIX va naciendo la astrofísica, que no se conforma
con predecir los eclipses de sol, sino que pretende estudiar el sol, o
comprender cuál es la causa de que sea una inagotable fuente de luz y calor. Ni
es suficiente trazar un mapa detalladísimo de la posición de las estrellas,
sino de saber qué son las estrellas, cuál es su naturaleza, cuál es su origen,
su evolución, su muerte.
El planeta Urano había sido descubierto por Herschel en 1781; Neptuno, el gran
planeta siguiente, en 1846. Sólo transcurrieron sesenta y cinco años entre un
descubrimiento y otro, después de milenios en que no se imaginaba la existencia
de más planetas. Pero el descubrimiento de Neptuno se operó de una manera
completamente distinta, como símbolo de los nuevos métodos utilizados por el
hombre. Efectivamente, se había comprobado que el movimiento de Urano a lo
largo de su órbita no se ajustaba exactamente a los cálculos: unas veces se
adelantaba ligeramente y en otras ocasiones se retrasaba. No cabía admitir
ningún capricho en el movimiento de un planeta. Tenía que existir una causa
capaz de provocar tales anomalías, y esta causa no podía tener sino una
naturaleza gravitatoria. En otras palabras, el movimiento de Neptuno era
perturbado por la atracción de otro planeta desconocido. En 1843, la Academia
de Ciencias de Göttingen ofreció un premio a quien descubriese el astro
perturbador. Numerosos científicos se lanzaron a la búsqueda del desconocido,
no mediante la observación telescópica, que hubiera significado buscar una
aguja en un pajar (¡qué enorme suerte había tenido Herschel al encontrar
Urano!), sino por métodos de cálculo muy sofisticados.
En septiembre de 1846 un calculista muy meticuloso (tan meticuloso que sus
compañeros le juzgaban antipático), Urbain Leverrier, concluyó su larguísimo
proceso, y escribió al director del observatorio de Berlín, J.G. Galle, que
observase el punto del cielo en que tenía que estar el astro misterioso. Solo
cinco días bastaron a Galle para encontrar un disquito azulado que no era una
estrella, y no figuraba en los mapas. ¡Un nuevo planeta! Grande como Urano, a
4.500 millones de kilómetros de distancia, y recorriendo una enorme órbita que
tarda 165 años en completar. Ya no quedaban dioses de la mitología que
continuar en orden ascendente, y al nuevo miembro del sistema solar se le dio el
nombre de Neptuno, el dios de la profundidad de las aguas. Pero lo
impresionante no fue el descubrimiento en sí, sino la forma de realizarlo:
mediante el cálculo. La observación no hizo más que refrendarlo. «Con la punta
de su pluma, escribía el científico y político Frangíos Arago, ha encontrado
Leverrier un nuevo mundo». Era un motivo de orgullo para la nueva forma de
concebir la ciencia. También un motivo de orgullo para Francia. Leverrier pasó
a convertirse de hombre desagradablemente meticuloso en héroe nacional. La
discusión vino después. Pronto se supo que dos años antes que Leverrier, el
inglés John Couch Adams había determinado la posición de Neptuno con la misma
exactitud; pero los astrónomos Airy y Challis, a los que había escrito, no
hicieron gran caso de aquel casi desconocido, y no se habían molestado en
escudriñar el cielo. Fue una cuestión nacional, como la ocurrida casi
doscientos años antes con Newton y Leibniz. Pero esta vez no hubo violentas
discusiones: la comunidad científica reconoció conjuntamente a Leverrier y a
Adams como descubridores de Neptuno.
Ya se conocían las distancias de la Tierra a la luna y de la Tierra al sol. Las
distancias a los planetas pudieron ser calculadas aplicando la tercera ley de
Kepler. Pero, ¿y la distancia a las estrellas? Se suponía que era enorme,
cuando no infinita, y todos los esfuerzos que se habían realizado resultaron
inútiles. Una pista de valor inestimable la proporcionó Giuseppe Piazzi, a
quien ya conocemos como el descubridor del primero de los asteroides, Ceres. En
los años siguientes hizo Piazzi un completo catálogo de más de 7.000 estrellas.
Era una tarea muy del siglo XVIII, que él quiso completar. Y se encontró con
que una de aquellas estrellas, la 61 del Cisne, no ocupaba el mismo lugar que
había registrado Hevelius en 1690. Era extraño: Hevelius fue un muy concienzudo
observador. ¿Error en el catálogo? Era lo más probable, pero Piazzi, con su
prudencia acostumbrada, anotó el dato y se dispuso a esperar. En 1816 volvió a
medir la posición de la 61 del Cisne: con asombro descubrió que se había movido
un poco más; la estrella se desplazaba hacia el norte. Piazzi siguió esperando,
y al fin en 1823 dio a conocer a la comunidad científica que había descubierto
una estrella que se movía entre las demás. La llamó «la estrella volante».
Sorpresa en todo el mundo. Desde siempre se había admitido que las estrellas,
situadas a una distancia infinita o casi infinita, ocupan siempre el mismo
lugar en la esfera celeste: desde los tiempos de los egipcios, si queremos más
exactitud, desde los tiempos de Ptolomeo, se mantenían en la misma posición
unas con respecto a otras. Y he aquí que hay una estrella que se mueve.
Nadie podía explicarse el fenómeno. Hasta que en 1831, el más grande matemático
de su tiempo, Wilhelm Bessel intuyó que la 61 del Cisne mostraba un movimiento
apreciable, no por ser una estrella distinta a las demás, sino
por ser una estrella cercana. El conocía muy bien el efecto de
paralaje, producido por la perspectiva. Todos sabemos muy bien que cuando
viajamos en tren, los postes o los árboles cercanos parecen quedarse atrás con
gran rapidez, mientras que un castillo o una montaña, vistos a distancia,
parecen moverse muy lentamente. Si la estrella denunciada por Piazzi estaba más
cercana al sol que las demás, su distancia podía ser medida por un método muy
sencillo. Puesto que la Tierra gira alrededor del sol, y la distancia al sol es
de 150 millones de kilómetros, está claro que el Io de julio
nos encontramos a 300 millones de kilómetros del lugar que ocupábamos el 1º de
enero. Naturalmente que las determinaciones de Bessel fueron infinitamente más
complicadas de lo que parece; pero en sus líneas generales podemos admitir que
tomó como base de un triángulo el diámetro de la órbita terrestre. Disponía,
gracias a la prodigiosa técnica del siglo XIX, de instrumentos para medir
ángulos de extraordinaria precisión. ¡Y acertó! La posición exacta de la 61 del
Cisne, con respecto a las demás estrellas, no era la misma un día determinado
que seis meses más tarde. El efecto de perspectiva fue medido una y otra vez.
La desviación de la estrella, vista desde dos puntos opuestos de la órbita
terrestre resultó ser de 0”585, un ángulo pequeñísimo, que ningún ojo humano es
capaz de apreciar ni remotamente. Pero es un ángulo, al fin y al cabo. Bessel
calculó que la distancia a la 61 del Cisne es de 105 billones de kilómetros.
Las grandes cifras nos proporcionan una idea muy grosera de la realidad. Algo
más expresiva es una forma de mencionar las distancias estelares que aún se
mantiene hoy día: el año-luz. La luz, que se mueve a una velocidad de 300.000
km/s. y por tanto puede recorrer una distancia equivalente a siete vueltas al
mundo por cada latido de nuestro corazón, tarda dieciséis años en llegar de la
61 del Cisne hasta nosotros. El mundo se admiró ante las «cifras astronómicas»
que son capaces de medir los científicos.
A fines del siglo XIX se había podido medir geométricamente la distancia de
unas 60 estrellas. Otras distancias se determinaron de forma aproximada,
teniendo en cuenta el color y la composición. Quedaba perfectamente claro: la
distancia a las estrellas, siempre asombrosa, es mucho mayor en unos casos que
en otros. Pero no siempre su brillo aparente tiene que ver con su lejanía. Hay
estrellas relativamente cercanas que no se ven sino con un potente telescopio,
en tanto hay otras cuya paralaje no se pudo determinar en el siglo XIX, y deben
encontrarse a distancias inmensas, y sin embargo, figuran entre las más
brillantes del firmamento. Hay por tanto estrellas gigantes y estrellas enanas
(si concedemos a la palabra «enana» un sentido muy relativo). Y, era curioso,
las estrellas rojas parecían ser las más gigantes o bien las más enanas: este
misterio no podría descifrarse hasta el siglo XX. Ya es sabido que Kirchhoff
había conseguido conocer mediante análisis espectral la composición del sol.
Más tarde, y sobre todo en la segunda mitad del siglo XIX, se conocieron los
espectros de numerosas estrellas, y se comprobó que el Universo entero está
formado por elementos químicos ya conocidos en la Tierra. Por otra parte, se
dedujo que las estrellas azuladas son más calientes que las rojizas.
Los sabios no consiguieron adquirir ideas claras sobre la relación de colores,
masas y temperaturas de las estrellas, ni tampoco sobre su evolución, pues algo
parecía indicar que las estrellas nacen, se desarrollan y acaban por
extinguirse, aunque en periodos larguísimos de tiempo. Y, lo que era más
interesante todavía, no se sabía de dónde procede la fabulosa energía de las
estrellas. La idea de que aquellas inmensas masas de gas se calientan por
compresión, pues ya entonces se conocía la teoría cinética de los gases, se
vino pronto abajo. El sol no podría tener más allá de 300.000 años de
antigüedad, cuando está claro que calentaba a la Tierra desde hace millones de
años. Pero la ciencia positivista no se arrugaba ante las ignorancias. Sabía
que se encontraba en el buen camino, y, progresando por él, todos los misterios
habrían de resolverse con el tiempo.
La ciencia positivista no solo alentaba la absoluta seguridad del hombre en el
progreso de su conocimiento, sino que gustaba de escandalizar a las mentes más
conservadoras. Daba por supuesta la existencia de un Universo infinito y
eterno, por tanto increado, aunque ninguna ley o ninguna constatación cierta
podía asegurarlo. El positivismo, en virtud de su concepción inmanente de la
razón y de la capacidad de averiguación científica del hombre, no pudo evitar
caer en la contradicción de los dogmatismos. Y también estaban de moda los
destronamientos. En tiempos de Copérnico la Tierra había sido destronada como
centro del Cosmos. Ahora le tocaba el turno al sol, que era simplemente una
estrella como cualquier otra, y no precisamente de las más grandes o de las más
luminosas. Un nuevo tipo de destronamiento, aunque a escala menos enorme que la
del mundo estelar comenzó a defenderse antes de que terminara el siglo XIX. En
1881, el italiano Schiaparelli descubrió unas líneas finas y rectas que
atravesaban la superficie rojizo-amarillenta del planeta Marte. Les llamó
«canales» de manera convencional, sin pretender dar a la palabra connotación
alguna; pero muy pronto empezó a hablarse de los «canales» de Marte como obra
de seres inteligentes, dotados de una técnica muy superior a la del hombre,
porque aquellas supuestas obras de ingeniería tenían miles de kilómetros de
longitud y parecían trazadas con suma perfección. Se dijo que Marte, un mundo
viejo y en gran parte desértico, estaba habitado por unos seres de larga
historia y amplio desarrollo tecnológico, que habían trazado aquellas
construcciones para aprovechar la poca agua que quedaba en el planeta. El
millonario americano Percival Lowell, entusiasmado por la idea, hizo construir
en Flagstaff, Arizona, el mayor observatorio del mundo, dedicado especialmente
al estudio de Marte. El propio Lowell llegó a trazar dibujos de una red
increíble de «canales» que recordaban a un mapa de ferrocarriles. No solo
existían seres extraterrestres, sino que, al menos los marcianos, eran más
inteligentes y adelantados que nosotros. El astrónomo C. Flammarion escribió un
libro, La pluralité des mondes habités, que en 1892 conoció 36
ediciones. Y el novelista británico H. G. Wells publicó en 1898 La
guerra de los mundos, en que se relataba la invasión de la Tierra por
los marcianos. La obra causó sensación, y hasta en muchos casos movimientos de
pánico. El afán iconoclasta del positivismo tuvo estas consecuencias
paradójicas: por un lado, el hombre está en el verdadero camino del progreso y
del conocimiento universal; pero al mismo tiempo aparece como un ser limitado y
amenazado. Otras humillaciones esperaban al género humano fruto de los avances
científicos de entonces.
En el siglo XIX el hombre occidental coronó la exploración del mundo entero,
hasta sus últimos detalles, y también, en gran manera, lo dominó mediante su
presencia y control. La exploración del mundo, que es el aspecto que en este
punto nos interesa, constituye una mezcla de aventuras y misiones científicas
dotada de un atractivo especial. La simple exploración de mares desconocidos y
tierras exóticas ya no tiene sentido si no va acompañada por el estudio y el
análisis sistemático. De este interés derivó un grado de conocimiento como
nunca hasta entonces se había alcanzado sobre la realidad del mundo en que
vivimos y los procesos que han contribuido a su formación.
Las dos expediciones marítimas más famosas del siglo fueron la realizada por
Robert Fitz-Roy en 1836-1841, y por Charles Wyville-Thomson en 1872-76, ambas
con el patrocinio de la Corona británica. El capitán Fitz-Roy embarcó en
el Beagle a todo un equipo de astrónomos, oceanógrafos, naturalistas,
geógrafos, físicos, botánicos. Nunca un barco había albergado a tantos
científicos. El Beagle atravesó el Atlántico, exploró las
costas brasileñas y patagónicas, y después de invernar antes de lanzarse a la
parte más difícil de la aventura, exploró el estrecho de Magallanes y encontró
en él un paso más corto, el que sigue llamándose Canal de Beagle. Allí los
expedicionarios midieron cuidadosamente la talla de los patagones y la longitud
de sus pies. Desde el viaje de Magallanes y los relatos un poco exagerados de
su cronista Pigafetta, se pensaba que los habitantes de la Tierra del Fuego
eran gigantes dotados de pies enormes, a cuya sombra podían tumbados dormir la
siesta. Todo se debe, al parecer, a las huellas dejadas en las playas por los
grandes mocasines usados por los patagones. Aquellos aborígenes de gigantes no
tenían nada, y sus pies eran más bien pequeños.
Ya en el Pacífico, los expedicionarios confirmaron la idea de la corriente fría
de Humboldt, y midieron la temperatura de las aguas. En las islas Galápagos un
médico naturalista, Charles Darwin, observó que la diferencia entre estructura
somática de las tortugas y ciertas aves variaba ligeramente de isla en isla, y
siempre de manera progresiva conforme se avanzaba en la misma dirección. De
aquella curiosa observación obtendría Darwin más tarde las más asombrosas
consecuencias. Los del Beagle confirmaron, falsamente, que el
Chimborazo era la montaña más elevada del mundo. Descubrieron multitud de
archipiélagos en el Pacífico, y después de una larguísima travesía observaron
con sorpresa que Nueva Zelanda era un país «europeo» por su clima y su paisaje,
totalmente apto para ser colonizado. Conocieron mejor Indonesia y la naturaleza
del océano índico. Exploraron el sur de África, descubrieron la corriente de
Namibia, y siguieron con detalle no solo la costa africana, sino las
sorprendentes variaciones del clima de un extremo a otro. Realizaron un
detallado estudio de las islas de Cabo Verde, y al fin, después de un viaje de
cinco años, recalaron en Londres, donde publicaron los más interesantes
informes. La memoria de Fitz-Roy ocupaba dos tomos; la de Darwin, uno. Aquellos
textos son una mezcla curiosa de admiración ante paisajes exóticos y vírgenes,
llenos de fascinante belleza, entre continuas aventuras, y un estudio
científico detallado y riguroso de las realidades físicas y biológicas del
planeta.
A mediados del siglo, el americano F. Maury realizó un estudio oceanográfico
para determinar los vientos y las corrientes más frecuentes en los océanos. El
barco de vela no debía escoger la ruta más corta, sino la de vientos más
favorables. Gracias a las indicaciones de Maury, el viaje de San Francisco a
Guayaquil pasó a durar de 41 a 18 días. De Nueva York a California (por
Magallanes) se tardaban 180 días; Maury los redujo a 100. El trayecto de ida y
vuelta Londres-Sidney se completaba en 205 días. Maury propuso una ruta, dando
la vuelta al mundo, que podía hacer lo mismo en 130 días. El trabajo de Maury
hubiera sido una revolución en el arte de navegar si bien pronto no se hubiera
impuesto el barco de vapor en mares abiertos. Poco más tarde, Brooke inventaba
un nuevo tipo de sonda que no se desviaba de la vertical, y cuyas medidas de
los fondos marinos eran completamente fiables.
El último de los grandes viajes científicos fue el del Challenger, un
navío mixto de vela y vapor, provisto de grúas, cabrias, sondas, y capaz de
enfrentarse a las condiciones más difíciles. Su comandante, Charles Wyville
Thomson, era ya un experto oceanógrafo, y con él viajaron científicos de todas
clases. En cuatro años (1872-1876) recorrieron 70.000 millas, cosa de 100.000
km, en un periplo doble que el del Beagle, pero de menor duración. Fue una
vuelta al mundo con muchos zigzags, pues exploraron tanto las islas Aleutianas,
en el Ártico, como las costas de la Antártida. Midieron la salinidad de las
aguas, y las profundidades oceánicas (en la fosa de las Marianas la sonda
descendió a 8.100 metros). Sorpresa: la temperatura de los mares desciende con
la profundidad, pero se detiene en los 4° C. Es el punto de máxima densidad del
agua. Si ésta se enfría más, sube, y si se hiela... flota, como ya todo el
mundo sabía. Esta prodigiosa cualidad del agua (en estado sólido pesa menos que
en estado líquido) es la causa de que el mundo no se convierta en un carámbano.
De modo que por debajo de los hielos hay agua líquida y más templada. Otra
sorpresa: el fondo de los mares no es una llanura fangosa, como se suponía. En
las regiones abisales hay cordilleras, rocas, barrancos. Al fin se explicaba
que los cables submarinos se rompieran con tanta frecuencia. Se estudiaron las
corrientes, los vientos, la formación y evolución de las borrascas y su
relación con la presión barométrica. Se intuyeron por primera vez los frentes
de lluvias. Y durante el viaje se descubrieron más de 10.000 especies de seres
vivos hasta entonces desconocidas. La memoria científica publicada por los
sabios del Challenger ocupaba 40 tomos.
La exploración de las tierras requirió más bien iniciativas individuales. Fue
aquella la época de las grandes aventuras pioneras por inmensas regiones
desconocidas de África, Asia y Australia. El explorador es casi siempre un tipo
curioso: curioso en dos sentidos, original en su carácter y forma de ser, y
lleno de curiosidad. La mayoría no eran atletas, y algunos, como Rolhfst o
Livingstone, enfermizos; pero dotados de una enorme voluntad, una fabulosa
resistencia (Barth sobrevivió no solo a sus guías, sino a sus camellos), una
especial capacidad de adaptación al medio, facilidad para aprender las lenguas
indígenas y atraerse a los naturales, y hasta con una increíble facultad
camaleónica: varios de ellos atravesaron países árabes disfrazados de
peregrinos que decían ir a La Meca; aún no se sabe como Huc y Gabet
consiguieron llegar a Lhassa, la Ciudad Prohibida, disfrazados de monjes
budistas. Uno de aquellos exploradores, Nachtigal, escribió: «siento menos
interés por mi vida que por mi curiosidad». Atravesaron selvas y desiertos,
cruzaron altísimas cordilleras, estuvieron sometidos a todos los climas. Muchos
murieron en su empresa, la mayoría regresaron y relataron sus aventuras en
libros que fueron leídos por miles o millones de personas: pocas figuras hay
más populares y admiradas en la segunda mitad del siglo XIX que la del
explorador. La mayoría corren sus aventuras sin otro interés que el científico,
y con escasos medios. Su actitud con los pueblos indígenas, al contrario de lo
que luego pudo pasar con los colonizadores, fue cordial y generosa. Livingstone
abandonó la búsqueda de las fuentes del Nilo, para quedarse con los naturales
de Ujiji, a los que evangelizó, enseñó y curó, pues era médico. Savorgnan de
Brazza aconsejaba: «permaneced en contacto con los indígenas. Esforzaos por
conocer no solo su lengua, sino también su mentalidad. Visitad sus poblados,
hablad con las mujeres y los niños. No llevéis armas ni escolta. Recordad que
sois intrusos a los que no se os ha llamado». Y todos ellos, científicos o no,
anotan los datos que pueden recabar, miden temperaturas o lluvias, estudian
plantas, trazan mapas. Uno de ellos, Vogel, hacía buenos dibujos y logró
cartografiar el lago Chad. Preguntado por los indígenas, respondió que lo hacía
para conocer mejor el mundo. Aquellos hombres lo mataron para apoderarse de la
varita mágica que empleaba, pero no consiguieron conocer mejor el mundo. La
varita era un lápiz.
El interés por la exploración del planeta suscitó por toda Europa la fundación
de Sociedades Geográficas. Las más importantes fueron las de Londres, París,
Berlín, Lisboa, Turín, Viena. Según Miége, en 1881 contaban con 30.000 socios y
publicaban 25 revistas. En 1860, más de la mitad de la superficie de los
continentes era desconocida del hombre blanco. En 1880 se había llegado a todas
partes, incluso a la Antártida. Solo restaban objetivos que estaban reservados
al hombre del siglo XX: alcanzar los polos y ascender a la montaña más alta del
globo (que resultó ser la descubierta en Nepal por lord George Everest).
Conocido el mundo, era preciso representarlo de forma definitiva. Todos los
mapas trazados hasta entonces eran parciales o defectuosos. En 1891 se
constituyó en Berna la Comisión del Mapa Universal, bajo la dirección de
Albrecht Penck, y comenzó a editarse un mapa completo y perfectamente detallado
del globo, la «Carta del Mundo a la millonésima». Fue una labor inmensa, que
exigió recabar millones de detalles y fijar su posición exacta. Otra medida
obligada consistía en determinar un eje de coordenadas universal. No hubo
problema con los paralelos, que se contaban por grados, minutos y segundos
desde el ecuador (0º00), al polo (90º00). La dificultad estribaba en los
meridianos y en designar un meridiano central. El problema de las longitudes
estaba ya resuelto gracias a los sextantes de precisión, y a los cronómetros;
pero ¿dónde colocar el meridiano cero? Los franceses postularon París, la
Ciudad Luz, capital de la cultura. Ya algunos países habían adoptado la «hora
de París». Enseguida la recién unificada Alemania propuso Berlín. El meridiano
de Berlín tiene la ventaja de que es aquel que atraviesa mayor extensión de
tierras emergidas, desde el cabo Norte en el extremo de Noruega hasta la Ciudad
del Cabo, en el extremo sur de África.
Resurgía la rivalidad franco-alemana, muy avivada desde la guerra de 1871.
Entonces surgió la candidatura de Londres, o más exactamente, para no favorecer
a ninguna ciudad, la del observatorio de Greenwich, el más antiguo de Europa.
El meridiano de Greenwich no atraviesa tantos países, pero tiene la ventaja de
que el antimeridiano, la incómoda línea del cambio de fecha, va desde el
estrecho de Bering hasta la Antártida: ¡no atraviesa ninguna tierra! Nadie
saldría perjudicado. El meridiano de Greenwich como meridiano cero y la hora de
Greenwich como referente del «tiempo universal» fueron adoptados en 1884. Ya
era posible encerrar en un eje de coordenadas esféricas el planeta entero.
§. La antigüedad de la Tierra
Después de la geografía, tenía que venir la geología, la ciencia que estudia la
estructura de la Tierra, y la formación de los continentes, de las montañas,
las rocas o los fondos marinos. Pronto se unió el interés por esta estructura
de nuestro planeta con el de su origen e historia: eran dos aspectos que no se
podían separar. Desde un tiempo antes discutían los catastrofistas, que
pensaban que en otro tiempo una serie de fenómenos violentos habían modelado la
realidad de nuestro mundo, con los gradualistas, que pretendían que las
condiciones que ahora obran sobre la superficie de la Tierra y modifican su
aspecto fueron las mismas en todo tiempo. En ese caso, sería preciso admitir
una antigüedad enorme del planeta que habitamos, ya que los fenómenos que ahora
lo están modificando obran muy lentamente. También, por otra parte, discutían
los neptunistas, que solo se explicaban las cosas suponiendo que por un tiempo
todo el mundo estaba cubierto por las aguas (y de ahí la enorme cantidad y
extensión de terrenos sedimentarios, y los fósiles de animales marinos que se
encuentran en tierra firme), y los vulcanistas, que concedían más importancia
al calor interno de la Tierra y su capacidad para fundir las rocas o provocar
el alzamiento de las montañas.
El precursor de la ciencia geológica fue Charles Lyell, matemático y
naturalista, que publicó Principies of Geology, un libro que fue
evolucionando en sus distintas ediciones desde 1833 a 1863. Se opuso a los
catastrofistas, y concibió un mundo que se fue formando muy lentamente,
mediante una sucesiva superposición de capas. Por mucho que cavemos, siempre
encontramos sedimentos distintos, que tuvieron que tardar miles o millones de
años en formarse. Y cuanto más profundicemos, encontramos capas cada vez más
antiguas. Por otra parte, las rocas emplearon también mucho tiempo en
enfriarse, partirse, cristalizar o ser desgastadas por la erosión. También
encontró Lyell fósiles de animales antiguos, que le dieron una idea del
desarrollo de los seres vivos en las épocas geológicas, y de la relación entre
las distintas especies de fósiles y las épocas en que parecen haber vivido. Si
la idea de una Tierra enormemente antigua causó sensación y en muchos
escándalo, más lo provocó la publicación en 1863 de Geological evidence
of antiquity of Man. Lyell se equivocó al atribuir a los restos
humanos una edad similar a la de las eras geológicas, pero parecía claro que el
origen del hombre era mucho más antiguo de lo que se pensaba. En este sentido,
Lyell cumple un papel fundamental en la nueva y transgresiva actitud del
científico positivista. Es la misma actitud que adoptó Lamarck en su comentario
despectivo: «¡qué grande es la antigüedad del globo terrestre! ¡Y qué cortas
las ideas de los que le atribuyen una edad de seis mil y pico de años!».
Entre 1860 y 1880 se fundamentaron con más seguridad los principios de la
geología. Se supo que el mundo no se formó siempre con la misma cadencia, que
se atravesaron épocas muy distintas, y cada una de ellas dejó su huella en
forma de capas, rocas y sedimentos que pueden distinguirse con cierta facilidad
unos de otros. No siempre es cierto que cuanto más se profundice se encuentran
capas más antiguas. Hay en superficie rocas graníticas que parecen formadas en
los primeros estadios de la historia del planeta, o a cierta profundidad se
encuentran otras que parecen relativamente recientes. Se aprendió a distinguir
los materiales de cada época y se supuso con más y más fundamento que fenómenos
violentos (aunque tal vez muy duraderos) provocados por empujes y plegamientos
invierten con frecuencia el nivel o la profundidad de los estratos. En las
montañas es fácil ver algunos de estos estratos titánicamente retorcidos. Pero
lo fundamental era distinguir las diferentes capas geológicas, identificar sus
propiedades y datar, si no su antigüedad, sí cuando menos su orden cronológico.
En esta tarea cumplió un papel importante Louis Agassiz, suizo, que comenzó
estudiando los Alpes y trató de reconstruir su historia. En altas montañas
encontró conchas y peces fósiles. Era cierto que aquellas tierras, ahora tan
elevadas, estuvieron un tiempo en el fondo de los mares; pero Agassiz no se
adhirió plenamente a la teoría neptunista: cabía la posibilidad de que capas
terrestres situadas hoy muy por encima del nivel del mar hubiesen yacido en
tiempos remotos en el fondo de los océanos; pero también es posible que
terrenos submarinos hubiesen sido un día parte de continentes. La Tierra es un
planeta inquieto, lleno de empujes, que pudo adoptar en otros tiempos
configuraciones muy distintas. Otro descubrimiento de Suess fue que en gran
parte de Europa existen formaciones de tipo similar a los glaciares suizos que
él tan bien conocía, pero que se encuentran ahora en comarcas templadas: y
dedujo que hace mucho tiempo existió una era glacial en que los hielos cubrían
grandes extensiones de nuestro continente. Suess marchó a Estados Unidos, fue
profesor de la Universidad de Harvard, y se dedicó a la zoología y a la
oceanografía.
Dos grandes congresos, celebrados en París (1878) y en Bolonia (1881) sirvieron
para que los especialistas se pusieran de acuerdo sobre la denominación de las
capas geológicas. Se clasificaron cinco grandes eras: Arcaica, Primaria,
Secundaria, Terciaria, Cuaternaria. En cierto modo, el Cuaternario es una
especie de «regalo» a nuestro tiempo, ya que no constituye más que un diminuto
apéndice del Terciario; pero es en él cuando aparece el hombre. La era Arcaica
se caracteriza por rocas eruptivas muy antiguas, procedentes de una Tierra
caliente y de fuerte actividad volcánica. La primaria conoce ya rocas
compuestas, como el gneiss, las pizarras, y, por compresión de las masas
arbóreas, las rocas carboníferas. La secundaria abunda en vida: grandes
animales y peces, responsables en parte de abundantes depósitos de caliza. En
la era terciaria se distinguen capas de arcilla, gredas, etc. En la Cuaternaria
surgen las glaciaciones, y luego un «óptimo climatérico» en que ahora vivimos.
Después se particularizó más y se dividieron los grandes periodos en
subperiodos muy característicos, no tantos, sin embargo, como los que hoy se
distinguen. Pero el esquema aceptado en el congreso de Bolonia sigue siendo válido
en sus líneas generales. Y nadie se escandaliza de que el mundo haya tardado en
formarse, se dice en el siglo XXI, 4.500 millones de años. Esa cifra es más
asombrosa, y nos proporciona una idea de la grandiosidad de la Creación como
tal vez los escandalizados de hace ciento veinte años no podían tener.
§. El evolucionismo y el origen del hombre
Charles Darwin no figuraba entre los científicos más famosos que vivieron la
aventura del Beagle. Era médico aficionado al naturalismo. Pero su
ingenio y su intuición, sin duda también su facilidad para escribir de una
manera atractiva, romántica, pero al mismo tiempo rigurosa, sus experiencias
viajeras, contribuyeron a su prestigio y le ganaron miles de lectores. Darwin
regresó del viaje enfermo de una dolencia tropical, no pudo llevar una vida
activa, y se retiró al campo, donde se dedicó a rodearse de libros y recibir
todos los informes que sus amigos le fueron enviando. Como ya sabemos, una
sospecha le asaltó en su visita a las islas Galápagos, y quiso confirmarla
mediante estudios muy pacientes. Al fin, en 1859, después de veintitrés años de
trabajo, publicó su obra fundamental: Sobre el origen de las especies
por medio de la selección natural. Ya la gente sabía que en aquel
libro Darwin iba a hacer revelaciones sensacionales; y sus partidarios, quizá
más entusiastas que él, se dedicaron a airearlo. Fue así que el mismo día en
que apareció el libro se agotó su primera edición: jamás se recordaba semejante
avidez de los lectores. Enseguida se hicieron nuevas ediciones, y la obra fue
traducida a todos los idiomas cultos.
Darwin no era precisamente un experto en genética, una ciencia que no había
nacido por entonces, pero sí sabía que los caracteres transmitidos de
generación en generación admiten cierta holgura, porque los hijos no son un
calco exacto de sus padres. Esta «holgura» puede admitir variaciones en un
sentido o en otro, y si las sucesiones se operan de forma aleatoria, la especie
no sufrirá alteraciones significativas; pero si actúa siempre, por causas exógenas,
en la misma dirección, una especie puede evolucionar, e incluso, llegado el
caso, transformarse en una especie distinta. Tres leyes o fuerzas operan en
este proceso:
a. La adaptación al medio, intuida ya por Lamarck, que premia al individuo más
adaptable o mejor adaptado sobre el que menos capacidad tiene de hacerlo. Un
cambio climático influye en la vida y la alimentación de las distintas
especies, y prima a aquellas que son más capaces de adecuarse a las nuevas
condiciones. Las especies que tienen menos capacidad de adaptación, emigran, se
debilitan y tal vez acaban desapareciendo. Cualquier crisis de la naturaleza es
un filtro por el que pasan solo los más capacitados.
b. La selección natural. Los miembros más dotados de una especie tienden a
prevalecer mejor sobre las condiciones que han de soportar. Viven más tiempo,
y, algo importante, se reproducen más, con más facilidad que otros, o con más
frecuencia: y su descendencia heredará sus condiciones privilegiadas.
c. La lucha por la existencia. Los individuos más dotados de cada especie, o
las especies más fuertes o inteligentes, vencen, expulsan, suprimen o devoran a
los demás. La vida es una continua lucha. El ser vivo ha de alimentarse de
otros seres vivos, vegetales o animales. Ha de ser implacable en esta lucha, o
se debilitará y perecerá. La naturaleza no es un paraíso en que puedan convivir
felizmente todos los seres, bien avenidos. Con frecuencia sobrevienen tiempos
duros o necesidades apremiantes, y los más aptos tienden a prevalecer.
Es de esta forma como, en cambios paulatinos, muy lentos, pero obrando siempre
en el mismo sentido, seres vivos de una misma variedad pueden llegar a hacerse
de otra variedad, y en un tiempo mucho más lato todavía, llegar a constituir
una nueva especie. La teoría era lo más sensacional que concebirse podía, pues
que siempre se había supuesto que las especies animales son inmutables a lo
largo de los tiempos. Cada especie es ella misma, y no cabe pensar en una
transformación. Solo Darwin, recalcando la idea de la «holgura» de los
caracteres genéticos, y la tendencia, por condiciones externas, a cambiar
siempre en la misma dirección, podía insinuar un hecho tan inquietante como la
evolución. Su tesis encerraba una idea muy cara al espíritu de los
positivistas: la del progreso continuo y necesario. Si los individuos más
dotados tienden a prevalecer sobre los menos dotados, y a transmitir a sus
descendientes sus caracteres, es lógico suponer que las razas, las especies,
las familias, son cada vez más perfectas; los seres menos preparados tienden a
decaer o a extinguirse al cabo del tiempo. La perfección tiende a prevalecer en
la naturaleza.
Ahora bien, Charles Darwin, hijo de un pastor anglicano y profundamente
religioso él mismo, no incluyó entre las susceptibles de evolución a la especie
humana. Tal vez dejaba entender que los caracteres somáticos del hombre son
sensiblemente similares a los de los simios, pero reconocer una descendencia
directa del ser humano respecto del mono le parecía una gravísima falta de
respeto a la concepción del hombre no solo como hijo de Dios, sino a la de una
creación directa, mediante las «manos» de Dios, que modeló el barro para dar
existencia a ese ser excepcional y lleno de una especialísima dignidad que es
el hombre. Es cierto, y ese aspecto comenzaba a considerarse poco a poco, que
la vida se originó en la tierra mojada, esto es, en el barro: pero que el
hombre hubiera de pasar por una transformación de especie en especie hasta
llegar a la perfección suprema en este mundo, parecía una irreverencia que era
necesario evitar. ¿Qué duda cabe de que Darwin pensó que el hombre desciende de
los simios, pero jamás se le hubiera ocurrido expresar semejante idea? Fueron
sus amigos, o sus más entusiastas partidarios, los que le presionaron para que
hiciera públicas sus sospechas. Darwin se sintió cada vez más acosado, incluso
también más adelantado por otros que se atrevían a insinuar lo que él no
deseaba declarar. Las presiones continuaron hasta que en 1871, doce años
después de su obra, se decidió a publicar The Descent of Man. Con
la mayor delicadeza que le fue posible, confesó su sospecha: «Debemos
reconocer, a lo que creo, que el ser humano, con sus nobles cualidades, con la
consideración que siente por los más desdichados, con la benevolencia que
muestra no solo hacia sus semejantes, sino con su simpatía hacia los seres
vivientes más humildes, con su divina inteligencia, que le permitió descubrir
los movimientos y la constitución de los astros, debemos reconocer que con
todas sus sublimes facultades, el hombre lleva en su estructura somática el
sello indeleble de su humilde origen».
La palabra que tantos estaban esperando que pronunciase, estaba dicha al fin.
El escándalo de las personas más conservadoras ante la teoría darwinista fue
más fuerte y más dramático que ante ningún otro descubrimiento de la ciencia
positivista. Aquellos que profesaban una interpretación demasiado literal de
los textos bíblicos se sintieron profundamente heridos. Y aun prescindiendo del
sentido religioso, la idea de que el hombre desciende del mono parecía
monstruosamente humillante para la dignidad de la naturaleza humana. Nimrod
Reade refiere el caso de un joven que se suicidó después de leer a Darwin. Por
otra parte, la teoría darwinista, si bien por un lado defendía la idea del
progreso necesario, también insinuaba algo tremendo e implacable, una ley
externa a nosotros mismos, a la cual estamos sujetos sin remedio todos los
seres vivos: la lucha implacable por la existencia, con el prevalecimiento del
más fuerte. ¿Qué duda cabe de que este principio inspiró una de las teorías más
brutales de Nietzsche? Y más aún: la idea de ese «humilde», pero salvaje origen
pudo inspirar también a Sigmund Freud la tesis de un inconsciente más fuerte, y
más auténtico, que el consciente, y la enorme carga de bestialidad primitiva
que se esconde todavía, latente, pero efectiva, en el corazón del hombre.
El impacto del evolucionismo en la conciencia de las personas cultas o
semicultas de su época fue inmenso. Desiderio Papp comenta que «en toda la
historia de la ciencia hubo muy pocos investigadores... que lograsen una
repercusión tan poderosa como Charles Darwin». «Merced a su obra llegó a
término, en la segunda mitad del siglo XIX, para el mundo de las estructuras
vivas, una profunda innovación de ideas, semejante en sus alcances a la
revolución copernicana que se produjo en el Renacimiento». O de alcances mucho
más profundos: en primer lugar, porque afectaba no a la naturaleza inanimada,
sino al hombre mismo; y en segundo lugar, porque se produjo en una época en que
la difusión las ideas científicas llegaba a una proporción incomparablemente
mayor de conciencias. Más que Darwin, fueron los entusiastas darwinistas los
que procuraron esa difusión, y la llevaron hasta sus últimos extremos. Tan
famoso en su tiempo como Darwin fue el sociólogo Herbert Spencer. Seguidor
entusiasta de Comte, aunque a su manera, declaró en sus Principios de
Sociología (1862) que «el progreso no es un accidente: es una
necesidad». Y profetizó, como Comte, que, conocido suficientemente un
individuo, podría profetizarse su comportamiento. El darwinismo vino a darle
nuevas armas. La evolución biológica, es, según él, un proceso necesario e
inevitable, que forma parte de un principio todavía más amplio. La ley
fundamental que rige cualquier forma de vida es la de que «todo pasa de la
homogeneidad indefinida a la heterogeneidad definida». Lo mismo en la evolución
de las especies, que en el arte o en los idiomas, en las formas de gobierno. La
idea era en aquellos tiempos tan sugestiva, que solamente en Estados Unidos se
vendieron 368.000 ejemplares de la obra, sin contar las ediciones piratas, que
fueron muchas. Todo parecía reducirse a leyes universales y eternas. Y el
evolucionismo fue tan propagado y entusiásticamente defendido merced a la obra
de Spencer como a la del propio Darwin.
La tesis del evolucionismo comenzó a cobrar un nuevo cariz a raíz de la
publicación en 1894 de la tesis de Gregory Bateson (1861-1926) , según la cual
los cambios en las especies no se producen, como quería Darwin, por obra de
variaciones casi insensibles de generación en generación, sino mediante saltos
bruscos. Del evolucionismo se pasaba al transformismo. En 1901 Hugo de Vries
(1848-1935) descubrió la teoría de las mutaciones, en el seno de una ciencia
genética todavía en embrión. Hoy la concepción de De Vries como tal está
superada, pero se estima la posibilidad de un «salto» que en el plazo de una
generación puede dar lugar a una especie distinta. Se trata del fenómeno
llamado «disociación». El ser vivo que ha sufrido este cambio en sus cromosomas
(muy poco frecuente, pero posible), se vuelve infértil en su apareamiento con
otros animales de su especie, a no ser que se cruce con una pareja que posea la
misma mutación: entonces podría dar lugar a una especie nueva. Es lo que se
llama «especiación instantánea». Lo que probablemente jamás lleguemos a saber
es en qué momento exacto surgió la especie que conocemos como Homo
Sapiens.
Desde los tiempos más remotos, el hombre conoció el uso del calor para combatir
temperaturas muy inferiores a la de su cuerpo, para preparar alimentos, más
tarde para fundir metales. Pero ignoraba las posibilidades del calor para
realizar trabajo. Qué duda cabe de que la máquina de vapor fue la pionera de la
revolución industrial, la que promovió el estudio del fenómeno del calor, sus
manifestaciones y sus posibilidades de aprovechamiento. La ley de Gay Lussac,
formulada en 1809, que relaciona la presión de un gas con la temperatura,
constituyó el primer paso de una nueva especialidad de la física, la
termodinámica, que alcanzó su edad de oro precisamente en la era positivista.
La relación entre el calor, la presión, la fuerza, la energía, el trabajo, fue
cuidadosamente estudiada, y se obtuvieron de aquellos estudios las más
espectaculares consecuencias. Quedó claro que la energía cinética, aquella que
anima a los cuerpos en movimiento, puede transformarse en energía calorífica.
Una máquina en funcionamiento se calienta. Todo trabajo engendra calor, supone
la conversión de la energía cinética en energía calorífica. Pero también, a la
inversa, está claro que el calor engendra movimiento. La mayor parte del
movimiento de máquinas o de medios de transporte que el hombre logró en el
siglo XIX se basa en la expansión del vapor, o lo que es lo mismo, en la ley
cinética de los gases. También el calor es el responsable de otro de los
elementos fundamentales de la revolución industrial, la fusión de los metales,
mediante los altos hornos, introducidos por Derby, perfeccionados por Bunsen y
llevados a su máxima perfección por Siemens. Trabajos en otro tiempo
irrealizables se hicieron posibles y hasta relativamente fáciles merced a una
producción científica e industrial del calor.
Los principios de la termodinámica fueron desarrollados por Joule, Clausius,
Helmholtz y lord Kelvin. Parecen principios sencillos, a veces casi
perogrullescos, pero tuvieron un inestimable valor lo mismo para conocer el
calor y sus manifestaciones físicas que para obtener las más eficaces
aplicaciones. John Maddox discute si el desarrollo del estudio de la
termodinámica favoreció el aprovechamiento de la energía para fines prácticos o
si fue este aprovechamiento (ya es sabido que los ingeniosos inventores tienen
a veces un sentido de la intuición que no poseen los científicos) lo que
favoreció el desarrollo de la ciencia en el campo de la termodinámica. Lo más
probable es que ambos hechos se hayan influido recíprocamente.
James P. Joule (1818-1889) fue discípulo de Dalton, y figura como uno de los
inventores del motor eléctrico. Se dedicó al estudio de la energía. Encontró,
por ejemplo, que una corriente eléctrica, al fluir a través de un conductor, lo
calienta (sí este conductor ofrece fuerte resistencia, se calienta mucho: de
ahí vendrán después el invento de la lámpara eléctrica y del horno eléctrico).
Su más importante descubrimiento teórico fue el principio de la conservación de
la energía: «en un sistema cerrado la energía total permanece constante».
Cierto que puede transformarse, y de unas formas de energía se pasa a otras;
pero la energía total se mantiene. Rudolf Clausius (1822-1888: el apellido no
es una latinización, sino lituano) nació en Koscelin, ahora Polonia, y fue
profesor en varias universidades alemanas. Perfeccionó la teoría cinética de
los gases. Y en 1850 enunció el segundo principio de la termodinámica: «ningún
proceso espontáneo puede permitir el paso del calor de un cuerpo a otro más
caliente» (principio de la irreversibilidad de la energía). En 1865 bautizó a
esta irreversibilidad como «entropía». El concepto de entropía se ha convertido
con el tiempo en uno de los principios fundamentales de la termodinámica y
hasta de nuestra idea del Universo entero. La energía se mantiene, ha dicho
Joule, y tiene razón; pero no toda la energía utilizada es reutilizable en
sentido inverso, y esta tendencia es la que desde el momento mismo de la
Creación está enfriando al Universo. Hermann von Helmholtz (1821-1894), médico
y físico insigne, pasó del estudio del calentamiento de los músculos por el
trabajo, al tema, apasionante entonces, de la termodinámica, y supo expresar
sus principios con fórmulas matemáticas impecables. Ludwig Boltzmann generalizó
el concepto de entropía, y encontró una fórmula fundamental. Esta fórmula es la
que figura sobre su tumba:
S = K log w
en que S es el valor de la entropía, K una constante descubierta por Boltzmann,
y w el estado termodinámico de un gas. En una visión histórica no nos
corresponde explicar ni desarrollar la ley de Boltzmann, pero sí recordar que
por primera vez se escribe una fórmula fisicomatemática sobre una lápida
funeraria, como símbolo del casi religioso respeto por la ciencia que existía
en la era del positivismo.
Boltzmann descubrió en 1877 que el calor es producto del movimiento de las
moléculas en un cuerpo: cuanto más rápido se mueven, mayor es la «cantidad de
calor» de ese cuerpo. Comprendemos mejor que si mezclamos en un mismo
recipiente dos líquidos a diferentes temperaturas, el caliente hace subir la
temperatura del frío, pero a su vez pierde parte de su calor: la temperatura de
la mezcla acaba por igualarse. ¡He aquí, en un ejemplo muy sencillo, una
explicación de las dos leyes fundamentales de la termodinámica! La energía
total se mantiene, pero el cuerpo caliente ya ha perdido su posibilidad de
seguir calentando al frío. Esta irreversibilidad es justamente lo que llamamos
entropía. La relación de la entropía con la «tendencia al desorden», relación
universal e implacable, es uno de los temas más apasionantes de la ciencia en
nuestros días, pero su desarrollo exigiría más extensión que la que es posible
en este libro. Quede cuando menos fijada la idea de que la irreversibilidad de
la energía útil está ligada a una tendencia a lo que llamamos «desorden» en la
naturaleza. Todos estamos de acuerdo en que el desorden es más «fácil» que el
orden.
Las aplicaciones de la termodinámica para la transmisión de la energía, el
trabajo, el movimiento, fueron infinitas. P. Chaunu, en un ensayo sobre la
ciencia positivista, considera a 1877 (no sin una cierta dosis de ironía) como
«el año de la ciencia perfecta del cosmos infinito del orden perfecto». Ahora
bien: si el calor no es más que el movimiento de las moléculas, ¿qué ocurre
cuando las moléculas no se mueven? William Thomson, más conocido como lord
Kelvin (1824-1907) nació en Belfast, Irlanda, aunque pasó la mayor parte de su
vida en la Universidad de Glasgow, Escocia. Fue uno de los físicos más grandes
de su siglo. Formuló la ley de la disipación de la energía: «aunque la cantidad
de energía en un sistema permanece constante, la parte utilizable de la misma
disminuye continuamente»; que matiza el principio de Joule y explica mejor el
de Clausius, al tiempo que deja en claro la irreversibilidad de la energía
utilizable. Lord Kelvin es conocido por muchos de sus logros (por ejemplo, fue
el que encontró un sistema para tender un cable submarino entre Europa y
América), pero por todos es conocido como el descubridor del «cero absoluto».
Efectivamente, si el calor consiste en el movimiento molecular, cuanto mayor es
este movimiento, más alta es la temperatura; por el contrario, un menor
movimiento molecular se traduce en una temperatura más baja. ¿Hasta dónde puede
bajar la temperatura? El trabajo de lord Kelvin, combinando genialmente la
experimentación con el cálculo, llegó a una conclusión definitiva: a una
temperatura teórica de 273 grados centígrados bajo cero, las moléculas de un
cuerpo no se mueven: hemos llegado al cero absoluto. No puede
existir una temperatura más baja que esa. Nosotros seguimos utilizando la
escala Celsius, con su cero en el punto de congelación del agua. Los
científicos necesitan usar con frecuencia la temperatura absoluta, medida en
grados Kelvin. No es nada difícil de calcular, porque la diferencia entre grado
y grado es la misma que en la escala Celsius, solo que el cero se coloca en
-273 ºC. Una temperatura de 300 ºK es la propia de un hermoso día de verano.
Pero estamos más acostumbrados a los valores centígrados, y nadie nos prohíbe
usarlos.
§. El orgullo y desconcierto del «no es más que»
El calor no es más que el movimiento de las moléculas. El sonido no es más que
la sensación de la vibración del aire. El color no es más que la sensación que
produce la frecuencia de las ondas luminosas. Y la misma luz no es más que la
vibración de impulsos electromagnéticos. Vale la pena que nos detengamos, solo
por un momento, en estos extremos, porque constituyen una muestra por una parte
del desentrañamiento de secretos hasta entonces desconocidos, y por otra parte
también del dogmatismo cientifista, y del afán de desconcertar a los no
científicos, propio de la mentalidad positivista. Advirtámoslo igualmente desde
el primer momento: ese afán no corresponde exactamente a los científicos, salvo
casos muy aislados, sino más bien a los entonces muy frecuentes y amigos
de epatar divulgadores de la ciencia, leídos entonces quizá
más que nunca, a pesar de lo desconcertante de sus afirmaciones, ¡o
precisamente por eso! De decir que tal fenómeno «no es más...» a decir que el
calor no existe, sino que es tan solo una vibración, que el sonido no existe,
porque es solo un estímulo que el tímpano transmite al nervio auditivo para
acusar la vibración del aire; que el color no existe, porque «nuestro ojo nos
engaña», y no pasa de ser una sensación de nuestra retina ante las distintas
longitudes de onda de la luz, no va más que un paso. La ciencia positivista nos
descubre hechos inesperados, tan sorprendentes como constatados mediante una
técnica impecable; pero destruye o parece destruir conceptos seculares que de
siempre habíamos admitido. Y en la época positivista no existe una filosofía
reconocida por todos y lo suficientemente fiable por parte de los apóstoles de
la ciencia, capaz de explicarnos que las cosas existen realmente, que hay
vibraciones, movimientos, estímulos que proceden de fenómenos absolutamente
objetivos, y la información que de ellos nos transmiten nuestros sentidos es
perfectamente válida para nuestro correcto desenvolvimiento en la vida. Sería
molesto, hasta estúpido, negar que las hojas de los árboles son verdes, y que
lo único que ocurre es que reflejan tan solo una parte de la radiación
electromagnética que reciben, correspondiente a una gama entre 5.100 y 5.300
angstroms.
La causa de estos malentendidos está probablemente en la disociación entre
ciencia y filosofía, y el desprecio de los cientifistas hacia los conceptos
filosóficos. Hay hechos, no conceptos, dicen los científicos. Y las palabras
que empleamos en el lenguaje corriente corresponden a conceptos. No hace falta
conocer la frecuencia o longitud de onda del rojo para saber que un objeto es
rojo. Y rojo es el nombre que damos a una determinada longitud de onda de la
luz que nos refleja un objeto. Los descubrimientos de la ciencia positivista
son perfectamente correctos. Las palabras que usamos en el lenguaje corriente,
si son adecuadas a las sensaciones que recibimos, también son correctas. Y esas
sensaciones responden a una realidad objetiva que nuestros sentidos «traducen»
a un lenguaje inteligible, una vez que nosotros arbitramos una palabra para
designarlos. Las palabras no son las cosas, pero son la forma que tenemos para
expresar las cosas. No podríamos ser lo que somos ni saber lo que sabemos sin
palabras. Tampoco tenemos derecho a decir que nuestros sentidos nos engañan. Su
información no es de naturaleza científica, y no por eso esencialmente
inferior, pero nos sirve para desenvolvernos adecuadamente en este mundo. Sin
esas ventanas abiertas a nuestro exterior que son los sentidos, no podríamos
vivir. Cierto: nuestras sensaciones no nos proporcionan más que una información
limitada de la realidad. La retina solo es sensible a una cienmilmillonésima
del espectro total de las radiaciones electromagnéticas, pero vemos todo lo que
necesitamos ver. ¡Hasta vemos las estrellas! El tímpano solo es sensible a
vibraciones entre 32 y 4.000 ciclos por segundo. Por debajo están los
infrasonidos, por encima los ultrasonidos, pero no podemos oírlos (los perros,
por ejemplo, son más sensibles que nosotros a los ultrasonidos, porque ello les
conviene). Los humanos oímos en la vida corriente lo que necesitamos oír.
Helmholtz inventó aparatos para medir la frecuencia de sonidos que no hemos
escuchado jamás, pero disfrutaba enormemente con la música clásica. El hecho de
que la ciencia haya alcanzado conocimientos que están fuera de nuestras
posibilidades de percepción es un logro admirable de la inteligencia humana.
Pero estos conocimientos no pueden decir que aquello que conoce el hombre de la
calle y le permite dar pleno sentido a su existencia sea falso o esté trucado.
Respetemos todas las formas de conocer, siempre que resulten válidas.
El dominio sobre la electricidad fue una de las grandes conquistas del hombre
del siglo XIX. Aprendió a producirla, a transportarla, a almacenarla, a
aprovechar su energía en todas sus formas. Y la electricidad transformó el
mundo. Volta, Galvani, Coulomb, Ampère, Oersted, Ohm, Faraday permitieron un
conocimiento cada vez más completo de la energía eléctrica y sus
manifestaciones. Maxwell convierte en fórmulas y leyes las intuiciones de
Faraday y en su Treatise on Electricity and Magnetism (1873)
expresó matemáticamente la física de la electricidad y su relación con el
magnetismo hasta dotar al hombre de finales del siglo XIX de un instrumento de
impensadas posibilidades. No es de extrañar que la electricidad se haya
convertido en la época positivista en un símbolo del progreso del hombre y de
su dominio sobre la naturaleza. Si en los tiempos de St. Simón y Comte, ese
símbolo era la locomotora, treinta o cuarenta años después el símbolo era esa
fuerza casi invisible, explicable en términos científicos, pero en cierto modo
mágica, que es la electricidad. Una novela de Julio Verne, no publicada
entonces, París ou la vie eléctrique, profetiza un siglo XX
dominado por la electricidad. París sería la Ciudad Luz, iluminada por millares
de lámparas eléctricas, los vehículos se moverían por la electricidad, las
distracciones y espectáculos (en cierto modo adivina el cine y la televisión)
estarían proporcionados por la energía eléctrica. Ella sustituiría a los
hombres en todo tipo de trabajo. Y no hay que olvidar que la mascota de la
Exposición Universal de París fue el Hada Electricidad, una damisela, que
volaba sostenida por un cable invisible, e iba encendiendo mediante una varita
mágica los miles de puntos luminosos de aquel maravilloso espectáculo del
mundo.
La producción de energía eléctrica se hizo cada vez más fácil gracias al
generador, un juego de inductor e inducido de bobinas y electroimanes. El
inductor gira rápidamente sobre el inducido, y el resultado es la producción de
electricidad. Naturalmente, para que el generador gire con rapidez hace falta
una fuente de energía, primero una máquina de vapor, después una turbina
hidráulica. La serie de producción y transporte necesita por lo general de los
siguientes elementos:
1º. Una máquina motriz que hace girar el generador. La más útil, la turbina
hidráulica, fue introducida por Parsons.
2º. El propio generador, que produce energía eléctrica. Faraday ya ideó
generadores de buena calidad. Los mejoró Tesla. Siemens dio forma al generador
de alto rendimiento o dinamo.
3º. Un alternador. El generador produce corriente continua. La corriente
continua es más fácil de obtener, pero se pierde en gran parte en la
conducción. Es preferible transformarla en corriente alterna.
4º. Un conductor, que lleve la energía a su lugar de destino. Por lo general,
es un cable, o muchos cables, de cobre, un metal hasta entonces muy poco
apreciado por ser quebradizo, pero que es un excelente conductor de la
electricidad.
5º. Un transformador, que limite la tensión de la corriente antes de llegar a
su destino.
6º. Una red de distribución, que la lleve a cuantos lugares la requieran.
La electricidad encontró pronto múltiples aplicaciones. Para su conducción
conviene un hilo que ofrezca muy poca resistencia. Pero, en cambio, una fuerte
resistencia hace que el hilo se caliente, es decir, produce calor, ¡hace
trabajar a la electricidad! La «resistencia» es el fundamento del horno
eléctrico (hoy se emplea en la industria, en la cocina, en la plancha, en la
calefacción), y también de la lámpara eléctrica, cuando se calienta al «rojo
blanco». La electricidad servirá también para comunicaciones a distancia:
telégrafo, teléfono, radio, para reproducir el sonido, para mover medios de
transporte, en el siglo XIX el tranvía, el metro, etc. La galvanotecnia tiene
aplicación especial a la hora de recubrir un metal por otro inoxidable (dorado,
niquelado, cromado). La energía eléctrica tardaría muchos años en igualar la
potencia de una máquina de vapor (esto no ocurriría hasta el siglo XX). Pero su
asombrosa versatilidad quedó de manifiesto muy pronto, tal fue la clave de la
ilimitada confianza puesta en ella. En 1897 escribía José Echegaray, el primer
español Premio Nobel de Literatura, que era además ingeniero: «la electricidad,
ese fluido maravilloso para engendrar luz, para engendrar calor, para
transportar fuerzas, para realizar trabajos, desde los más sutiles, aquellos
que requieren dedos de hadas hasta los que reclaman músculos de titán... es la
última forma, el paso supremo del progreso humano».
§. La química: el átomo y más allá
Demócrito, en el siglo IV a.J.C., había intuido que la materia no puede
dividirse indefinidamente. La base de la materia es el átomo («sin partes»). La
teoría de Demócrito fue discutida durante siglos, y solo cuando Dalton, en 1808
descubrió que las reacciones químicas se operan en «proporciones fijas», la
teoría del átomo quedó afianzada. Los átomos «son perfectos en número, en
dimensiones y en peso», y, para cada elemento, «dotados de caracteres
imborrables impresos en ellos». Maxwell, siguiendo a Dalton, estableció la
triple división de la materia en partículas (la porción más pequeña que puede
obtenerse por medios mecánicos), moléculas (la porción más pequeña que puede
obtenerse por medios físicos) y átomos (la porción más pequeña que puede
obtenerse por medios químicos). No hay más allá. El átomo es rigurosamente
indivisible.
En 1869, un químico ruso, Dimitri Mendeléiev, tuvo la fecunda ocurrencia de
ponerse a ordenar los elementos de acuerdo con su peso atómico. Naturalmente,
no es posible medir el peso de un átomo. Pero sí se puede determinar la
relación del peso de dos elementos que entran en una combinación. De acuerdo
con las proporciones de Dalton, es preciso combinar dos partes de hidrógeno con
una de oxígeno para que se nos forme agua, H2O. Para obtener agua, hay que
emplear 8 veces más peso de oxígeno que de hidrógeno. Como en la combinación
entran dos átomos de hidrógeno por cada uno de oxígeno, el átomo de oxígeno
pesa 16 veces más que uno de hidrógeno. Mendeléiev, decíamos, se puso a ordenar
los elementos de acuerdo con su peso atómico. El más ligero es el hidrógeno. Le
siguen, por este orden, el helio, el litio, el berilio, el boro... etc. Y se
encontró con que las características de estos elementos se repiten
llamativamente de ocho en ocho [7] . No
siempre era así, pero Mendeléiev intuyó finalmente que los «huecos» que
quedaban en la tabla para completar la periodicidad correspondían a elementos
aún no descubiertos (en vida del químico ruso se descubrieron el galio, el
germanio y el escandio). Pero lo importante era lo siguiente: si las
propiedades de cada elemento son fijas, propias solo de él e intransferibles,
¿cómo es que muchas de ellas se repiten en múltiplos? La única explicación
posible es la de que los átomos no son á-tomos, sino que son a su vez múltiplos
de «algo», y ese algo determina algunas de sus cualidades.
Un largo camino de treinta años (1870-1900) separa a Mendeléiev de Rutherford.
Poco a poco se fue sabiendo lo que, en el átomo, que ya no merece este nombre,
son el núcleo y los electrones; cómo los electrones poseen carga negativa y por
tanto el núcleo, los protones, han de tenerla positiva; y cómo, sin embargo, la
masa de un núcleo formado exclusivamente por protones no es suficiente para
garantizar la estabilidad del sistema, y es preciso reconocer la existencia de
otras partículas dotadas de masa, pero de carga neutra: los neutrones. Niels
Bohr intuyó los distintos «pisos» de electrones, porque, a diferencia de los
planetas, varios electrones discurren por la misma órbita; saturada una órbita,
se forma un nuevo «piso», y así sucesivamente. Podía imaginarse el átomo como
una suerte un poco especial de sistema solar, y la analogía podía sugerir algo
así como la unidad del Universo: más tarde comprendería Bohr, y con gran disgusto
por su parte, que las cosas son distintas de como en principio pueden
imaginarse, y, por supuesto, mucho más complicadas. El conocimiento de la
estructura del átomo vendría a ser así uno de los factores de la crisis
epistemológica del siglo XX. Pero aún no hemos llegado a ese punto dramático.
§. De la química orgánica a la biología
Pronto descubrieron los químicos que dos elementos tetravalentes, el carbono y
el silicio, poseen una fabulosa capacidad para combinarse con otros, dando así
una cantidad increíble de cuerpos compuestos, algunos de ellos de una enorme
complejidad. Con una fundamental diferencia entre ellos dos. El silicio da
lugar a una variedad casi infinita de minerales: puede decirse que no existen
dos rocas que tengan exactamente la misma composición, ¡ni siquiera la tienen
dos granitos distintos de arena! En cambio, el carbono está presente, formando
combinaciones tan complejas si no más, (y sobre todo mucho más
organizadas) en los seres vivos. Todos los seres vivos, desde los
microorganismos hasta el hombre, pasando por las plantas, contienen carbono.
Sin carbono no hay vida. Un químico francés, Marcellin Berthelot (1827-1907),
muy combativo, dedicado finalmente a la política, fue uno de los padres de la
química orgánica. Por entonces se obtuvo la síntesis del alcohol o la del
metano, el más sencillo de los hidrocarburos. Pero Berthelot se esforzó sobre
todo en demostrar que la vida es un fenómeno químico. Todo depende,
naturalmente, de lo que se entienda por vida. Hoy sabemos, por supuesto, muchas
más cosas de esa inmensa complejidad que constituye la realidad material y la
organización interna de los seres vivos. Ni Berthelot, ni Erwin Schrödinger,
que publicó hacia 1900 el ensayo ¿Qué es la vida?, ni siquiera
D.T. Watson, que intuyó las bases de la biología molecular, llegaron a tener
una idea acabada de esa realidad. Pero se había abierto el camino hacia un
campo de investigación muy importante.
Ahora bien, los seres vivos son demasiado complejos, su organización es
demasiado admirable como para que los químicos del siglo XIX pudieran
estudiarlos en profundidad. Se dedicaron, o bien a analizar y a ser posible
sintetizar cuerpos orgánicos relativamente sencillos, como los hidrocarburos,
los alcoholes o los aldehídos, o bien los seres vivos de estructura más simple,
los microorganismos. Comoquiera que pronto se intuyó que muchos de estos seres
diminutos tienen que ver con las enfermedades, el sentido práctico de los
investigadores positivistas se dedicó con afán al estudio de los «microbios». Ese
instrumento esencial para observar lo más pequeño que es el microscopio nació
prácticamente al mismo tiempo que el telescopio, en el siglo XVII. Compañeros
de Galileo fueron los primeros que en la Accademia dei Lincei observaron las
patas o las alas de los insectos. El holandés Leeuwenhoek fabricó los primeros
microscopios de gran aumento, y tanto él como Malpighi o Robert Hooke vieron
los primeros microorganismos: Malpighi vio los glóbulos rojos, a los que
atribuyó el color de la sangre, y Hooke observó con detalle los maravillosos
cristalitos de hielo que forman la nieve. Más aún, en los tejidos vivos
descubrió unas celdillas («células») que llamó así porque le recordaban las de
un panal. Sin embargo, la observación microscópica no avanzó como la telescópica
en el siglo XVIII y primera mitad del XIX. Para ver seres pequeñísimos era
preciso aislarlos. Se hicieron «preparados» sobre cristales, y se descubrieron
los infusorios del agua, y otros microorganismos. Pero era preciso obtener
preparados más sofisticados, por ejemplo, con diversos tipos de aceites. Al fin
se utilizaron colorantes como la anilina, que permitían distinguir unos
microorganismos de otros, ya que eran muy sensibles a los colorantes. Se
conocieron mejor las células de los seres vivos, y se comenzó a distinguir la
membrana, el protoplasma y el núcleo. Apenas se pudo saber qué son los
cromosomas. Son los años comprendidos entre 1880 y 1900, como observa
Friedmann, aquellos en que se realizaron los más espectaculares descubrimientos
bacteriológicos: gérmenes, bacilos, bacterias, toxinas, vacunas, sueros;
gracias a la labor de unos cuantos biólogos extraordinarios: Pasteur, Koch,
Ebert, Klebs, Touissiant, Bering, Roux, Yersin. Curiosamente, «las primeras
décadas del siglo XX no parecen presentar la misma densidad de
descubrimientos».
Louis Pasteur (1822-1895) fue el típico investigador de laboratorio; todo lo
trataba de experimentar, y pocos le superaron entonces en esa tarea. Hombre
sencillo, honesto, muy religioso, en contraste con otros científicos
positivistas, unía a su carácter metódico una prodigiosa intuición. Fue el
principal investigador de los microorganismos capaces de producir enfermedades.
Comenzó por la fermentación o descomposición de los cuerpos
orgánicos. Allí donde hay descomposición hay gérmenes patógenos. Muchos
científicos de su tiempo defendían la «generación espontánea», la aparición de
seres vivos allí donde el medio favorece su proliferación. Pasteur era enemigo
de esta teoría. Alojó preparados orgánicos en un matraz aislado, y no se
formaron gérmenes. Hizo otros experimentos, y todos produjeron el mismo
resultado: era falsa la teoría de la generación espontánea. La simple química
no crea vida: solo un ser vivo puede originar otro ser vivo.
Para combatir la descomposición, que siempre atrae microorganismos, no los
crea, y les permite reproducirse rápidamente, inventó el sistema de
«pasteurización», que consiste en someter el objeto que se quiere conservar
incontaminado a una elevada temperatura, y encerrarlo después en un recipiente
sellado, en el que no pueden penetrar los gérmenes. La pasteurización dio
magníficos resultados, por ejemplo, con la leche, que pudo ser conservada en
recipientes cerrados durante largo tiempo. La pasteurización resultó ser
fundamental para la salud y para la conservación de los alimentos.
Pasteur descubrió y aisló gran número de gérmenes patógenos, que pudo
identificar y combatir con medios específicos para cada cual. Distinguió los
bacilos («bastoncitos», llamados así por su forma ante el microscopio) de los
«cocos» o gérmenes redondeados, entre ellos los estafilococos y los
estreptococos. Contra ellos comenzó a utilizar la desinfección y la profilaxis.
Uno de los descubrimientos más conocidos de Pasteur fue el de la vacuna contra
la rabia. Esta terrible enfermedad, transmitida por la mordedura de perros
infectados, también de otros animales, no tenía cura posible, y aumentaba la
angustia y el dramatismo de la persona afectada y de sus famulares el hecho de
que tarda semanas en incubarse. Al fin vienen las insoportables convulsiones,
hasta que sobreviene la muerte. Pasteur consiguió preparar una vacuna
preventiva, que incluso puede utilizarse con grandes probabilidades de éxito
después de recibida la mordedura, si no ha transcurrido mucho tiempo. Miles de
personas morían de rabia. La enfermedad se hizo cada vez menos frecuente entre
humanos, incluso entre animales.
Robert Koch (1843-1910), otro gran benefactor de la humanidad, fue el primero
en obtener cultivos de bacilos puros. La operación de «aislar» bacilos permite
estudiarlos de manera privativa y analizar su comportamiento y la manera de
combatirlos. Koch viajó a la India para conocer mejor una de las más terribles
enfermedades epidémicas: el cólera. Cuando el bacilo del cólera llegaba a una
zona del mundo en que no se desarrollaba habitualmente, tal Europa, sobrevenía
una epidemia de desastrosas consecuencias. Morían cientos de miles o millones
de personas. En la India, el cólera era endémico: de suerte que aunque había
personas enfermas, las demás estaban hasta cierto punto vacunadas y los
contagios no eran masivos. Koch expuso su vida, en contacto con la terrible
enfermedad, hasta que en 1883 consiguió aislar el bacilo, y poco después
apareció la vacuna anticolérica, cuyos efectos fueron bien pronto perceptibles.
Según Monod, la epidemia de cólera de 1886 mató en Europa solo a la mitad de
personas que la de 1866; la de 1892, a la tercera parte. El cólera sería
prácticamente erradicado de Europa a comienzos del siglo XX. El gobierno alemán
declaró la vacuna obligatoria, y lo mismo hicieron poco más tarde otros países.
Koch aisló también el bacilo de la tuberculosis (llamado «bacilo de Koch»), No
pudo encontrar una vacuna adecuada, pero sí se arbitraron métodos preventivos y
profilácticos. La tuberculosis, la famosa enfermedad de los románticos, se ha
ido haciendo cada vez menos frecuente y más fácilmente combatible en el siglo
XX.
§. Mendel y los orígenes de la genética
Durante mucho tiempo fue muy poco o nada conocida la figura de Gregor Mendel
(1822-1884), y tal vez por eso una de las ramas más importantes de la biología,
la genética, apenas progresó hasta la segunda mitad del siglo XX. Mendel, hijo
de un granjero moravo, y experto en injertos de árboles frutales, fue luego
monje agustino, y asiduo cultivador del huerto que los religiosos tenían
contiguo a su convento. Se aficionó al cruce de especies vegetales, trabajó
durante ocho años con 10.000 plantas distintas, y experimentó con nada menos
que 22 variedades de guisantes. El hecho más conocido es que, cruzando
guisantes verdes con guisantes amarillos, el resultado era siempre el
prevalecimiento de los amarillos. Sin embargo, en la siguiente generación,
aunque los amarillos seguían predominando, reaparecían los verdes, siempre en
la proporción de 1/4. Otros miles de pacientes experimentos le permitieron
escribir en 1866 un Ensayo sobre los híbridos vegetales. De su
estudio creyó deducir tres leyes que parecían cumplirse siempre:
1ª. El híbrido heredero de dos variedades distintas no es un intermedio entre
los caracteres de sus progenitores, sino que en él predominan los de uno o los
del otro (ley de los «caracteres dominantes»).
2ª. Los caracteres del que no predomina no se pierden, sino que permanecen
latentes, y se manifiestan en la siguiente generación, siempre en una
proporción fija (ley de los «caracteres recesivos»),
3ª.. Cada una de las características de una variedad se
transmite con independencia de las otras características (pongamos un ejemplo
humano para entendernos: de una pareja en que un progenitor es de pelo rubio y
ojos azules y el otro de pelo oscuro y ojos castaños, el hijo puede tener el
pelo rubio y los ojos castaños, o bien el pelo oscuro y los ojos azules: aunque
se parecerá más a su padre que a su madre, o viceversa).
Mendel había descubierto las leyes fundamentales de la genética, aunque no
sabía lo que era la genética, y el porqué de tan sorprendentes resultados. La
verdad es que desde mucho antes se había comentado, especialmente por lo que se
refiere a seres humanos, el mayor parecido de un hijo respecto de uno de sus
progenitores, o la reaparición de determinados caracteres propios de un abuelo,
que en los hijos no se habían advertido. Ya con motivo de la colonización de
América por los españoles se habían advertido variedades como «blanco»,
«mestizo», «castizo» y «salta atrás». El retroceso inesperado del «salta
atrás», que recuperaba caracteres de sus antecesores que ya parecían perdidos,
dio lugar a innúmeros comentarios. Pero nunca se conoció la causa de tales combinaciones.
Las pacientes clasificaciones de híbridos hechas por Mendel hubieran permitido
un avance de cien años en la ciencia de la genética. Pero su obra permaneció
prácticamente desconocida de la comunidad científica.
§. Claude Bernard y la medicina experimental
Aunque no hubiera escrito la famosa Introduction á l'étude de la
médécine experiméntale, Claude Bernard (1813-1878) hubiera pasado a la
historia no solo como el introductor de un nuevo concepto de la medicina, sino
como uno de los representantes más definitivos de la ciencia positivista. Tan
positivista o más que Comte o que Spencer. No fue en absoluto un idealista. El
análisis de la realidad, la prueba y el método. Lo demás no importa: no tiene
utilidad tratar de averiguar el porqué de las cosas, sino
el qué y el cómo: lo que sirve para algo. Mucha gente piensa
que Claude Bernard fue un gran médico; más que clínico fue un analista, un
experimentador. No se dedicaba fundamentalmente a curar enfermos, sino a
estudiar enfermedades. Más que hombre de hospital, que no dejó de serlo, fue
ante todo hombre de laboratorio, paciente, trabajador, dotado de un método
impecable. Para él, la ciencia, ante todo, «debe dedicarse al estudio de los
fenómenos naturales dentro de la realidad objetiva de las cosas»: con una fe
total en la capacidad del experimento como medio para conocerlo todo y
dominarlo todo sin confusión alguna: fue el suyo un optimismo objetivista que
hoy, hasta cierto punto, nos produce envidia.
El método es lo fundamental:
· en primer lugar se impone la observación, detallada y cuidadosa de los
fenómenos.
· luego, la construcción lógica de una hipótesis basada estrictamente en lo
observado;
· en tercer lugar, la verificación de la hipótesis mediante todos los
experimentos adecuados para poder comprobarla. No bastan las pruebas, hay que
realizar también contrapruebas; solo cuando todas las contrapruebas han fallado
es posible...
· la tesis o conclusión, a la que se llega después de haber aceptado todo lo
verdadero y desechado todo lo falso.
Maestro de la fisiología, Bernard dedicó su atención preferente al proceso
digestivo, y a todas sus fases, desde la deglución a la eliminación. Comprendió
el papel de la saliva, del estómago, sus ácidos y sus jugos, del duodeno, donde
la acción de los activos estomacales se complementa con la aportación de la
vesícula biliar y los jugos pancreáticos; del papel del hígado y del complejo
tracto intestinal. Se encontró con sustancias («jugos» o enzimas) que el
organismo no recibe: por tanto, el propio organismo las produce, como un
laboratorio, por medio de sus órganos o sus glándulas: en este sentido fue
Bernard un precursor de la endocrinología. Observó que el hígado no solo ayuda
a la digestión, sino que introduce azúcar en la sangre: de ahí deviene la tasa
de azúcar, y por tanto el hecho de que la diabetes no se deba únicamente a la
cantidad de azúcar que se ingiere, sino a la proporción que el hígado presta a
la sangre. También estudió el sistema muscular y el nervioso, y la combinación
de ambos, el nervio actúa, el músculo se contrae, para producir los movimientos
de los seres vivos, y especialmente de esa maquinaria perfecta y coordinada que
es el hombre. Claude Bernard no habrá salvado con su intervención personal
muchas vidas; pero sus conocimientos permitieron un avance sin precedentes en
la medicina de la segunda mitad del siglo XIX.
Capítulo 10
La era de los inventos
Contenido:
§. El inventor
§. El carrusel de los inventos
§. La transformación del mundo
§. La promesa del siglo XX
Un historiador británico de la ciencia y la
economía, G. Waddington, ha hecho una curiosa reflexión, no exenta de sentido
del humor. Supongamos, dice, que sir Horacio Walpole, erudito, académico y
político inglés de fines del siglo XVIII, invita a través del túnel del tiempo
a su tocayo Horacio, el gran poeta latino del siglo I a.J.C., a visitar el
Londres de 1800. El gran literato clásico no hubiera tenido problemas de
lenguaje, porque sir Horacio dominaba perfectamente el latín. Por demás se
hubiera encontrado un Londres donde se hablaba una lengua bárbara (bar,
bar bar, no sabían latín ni griego), pero la gente era culta y
educada. Su extrañeza no hubiera sido grande. Las calles eran estrechas y
empedradas, como las de Roma. A las casas de piedra o ladrillo se subía por
escaleras, como en Roma. Se abría la puerta principal con enormes llaves de
hierro, como en Roma. Se cocinaba con leña o carbón de leña, como en Roma, y
con leña se calentaban las gentes en invierno. En los mercados se comerciaba
con monedas de oro, plata o cobre, de acuerdo con el valor de los productos, lo
mismo que en Roma. Los que no marchaban a pie lo hacían a caballo, o en coche
de caballos, como en la patria de Horacio. Y a caballo se transportaban de un
lugar a otro las mercancías. Llegados los dos Horacios a orillas del Támesis,
verían barcos de remos o de vela, no muy distintos de los romanos. En suma, el
gran poeta latino no hubiera experimentado grandes sobresaltos.
Supongamos ahora que el mismo Horacio es invitado a visitar el Londres de un
siglo más tarde, en 1900. Hubiera ido de sorpresa en sorpresa. Las calles eran
mucho más amplias, y por ellas se verían circular extraños vehículos dotados de
un trole, que se movían a gran velocidad ¡sin necesidad de caballos! Las casas
eran de materiales distintos, y en muchas de ellas, en lugar de subir por las
escaleras, bastaba encerrarse en una especie de armario, que subía solo (?),
hasta los pisos, a los cuales se entraba manejando una llave diminuta, pero muy
complicada. Para alumbrarse no había candelas de cera ni de aceite, sino que
bastaba accionar un botón para que toda la sala quedase iluminada, casi como si
fuese de día. Las cocinas eran grandes planchas metálicas, alimentadas con
carbón de piedra. En los mercados se compraban artículos de todas clases,
procedentes algunos de países del otro extremo del mundo, y en vez de moneda se
empleaban rectángulos de papel. La extrañeza de Horacio hubiera llegado al
máximo viendo vehículos inmensos y muy pesados, de centenares de pies de largo,
que se movían a gran velocidad sin necesidad de tiro animal, y llegaban a las
estaciones de Victoria o de Paddigton: y su extrañeza se hubiera trocado en
horror al descender a los abismos y encontrarse con vehículos del mismo tipo,
potentes y ruidosos, que circulaban por las entrañas de la ciudad. A orillas
del Támesis, el poeta se hubiera sentido desconcertado ante gigantescos navíos
sin remos ni velas, que se movían sobre las aguas despidiendo un terrorífico
humo por largas chimeneas. Y tal vez hubiera presenciado un prodigio supremo:
un enorme navío aéreo, en forma de huso alargado, que no era un ave monstruosa,
y que transportaba seres humanos en una cabina. Horacio no hubiera encontrado
hexámetros para expresar su asombro. Quizá hubiera muerto de un infarto,
perfectamente explicable. Así es como
Waddington nos hace ver que las formas de vida del mundo occidental se
transformaron más espectacularmente en cien años, el siglo XIX, que en los dos
mil años anteriores.
§. El inventor
La que K. Jaspers llama Edad Técnica se caracteriza por un
progreso espléndido de la ciencia, pero sobre todo por un progreso
incomparablemente más espectacular todavía de las aplicaciones de la ciencia a
un fin práctico, es decir, de la técnica. Tantas aplicaciones se hallaban, que
el quizá más insigne físico del siglo, H. von Helmholtz, encargado de la
cátedra de Tecnología y Física de la Universidad de Berlín,
reconoció la imposibilidad de impartir conjuntamente las dos asignaturas... y
se quedó con la de Física. Sin la ciencia, la tecnología no hubiera podido
progresar, pero en cierto modo los más asombrosos avances de la tecnología los
logran hombres que no son sabios, a veces ni siquiera universitarios, que
poseen gran sentido práctico y una facultad asombrosa para idear ingenios
nuevos y revolucionarios, que van a cambiar la historia del mundo. Ahí están
los nombres de Bessemer, Edison, Siemens, Daguerre, Daimler, Lumière, Marconi.
Y su capacidad de inventiva no tiene fin. Quizá sea honesto recordar que el
primer avión que voló con éxito fue ideado por los hermanos Wright, que eran
dueños de un taller de bicicletas.
Henri Bessemer (1813-1898) inventó el cuño de correos, un nuevo sistema para la
extracción del zumo de caña, una bomba que utilizaba la fuerza centrífuga... y
el convertidor de acero, que transformó a éste de un metal semiprecioso en el
rey de la siderurgia de fines del siglo XIX, flexible y duro al mismo tiempo,
capaz de superar los más fuertes rozamientos y aplicable por consiguiente a las
más sofisticadas formas de maquinaria. Sin el invento de un método fácil de
obtención del acero, la técnica humana hubiera progresado mucho más lentamente.
Thomas Alva Edison (1847-1931) fue educado por su madre porque en la escuela no
lo aceptaron, considerándolo un retrasado. Pero era ingenioso como él solo.
Vendió periódicos, luego fabricó una imprenta de su invención y publicó su
propio periódico; terminó siendo un experto en toda clase de aparatos,
incluidos los eléctricos. A lo largo de su vida patentó mil
inventos: entre ellos un aparato para el recuento de votos; un indicador del
precio del oro en la Bolsa; las pilas alcalinas, el micrófono de carbono, un
nuevo tipo de hormigón, el gramófono o tocadiscos, la lámpara eléctrica...
Naturalmente, no todos sus inventos (puede calificársele de «inventor
compulsivo») dieron resultado, pero Edison tuvo un especialísimo sentido
comercial, que le permitió apoyarse en los más rentables, y terminó dueño de
una fortuna inmensa. Werner Siemens (1816-1892) patentó un aparato telegráfico
que imprimía señales: el operador ya no tenía que escribir los mensajes que
recibía (impulsos eléctricos de acuerdo con el código Morse), sino que los
mensajes quedaban impresos; en 1867 patentó el generador electrodinámico, que
transformaba el trabajo mecánico en energía eléctrica: una vez perfeccionado,
lo denominaría «dinamo»; en 1879 dio a conocer la locomotora eléctrica, y en la
Exposición de París de 1881 presentó el tranvía, que comenzó a funcionar el año
siguiente en varias ciudades europeas. Proyectó el metro de Londres, que se
inauguró en 1890. En 1882 patentó la lámpara de arco, que durante un tiempo
pareció más útil que la lámpara de filamento de Edison: las noches de Berlín se
hicieron deslumbrantes con sus arcos voltaicos en las calles. Luego inventó el
ascensor eléctrico. Descubrió un convertidor de acero, de uso más industrial
que el de Bessemer, etc.
La figura del «inventor» es muy característica de la segunda mitad del siglo
XIX. Nunca hubo tantos ni tan prolíficos inventores. Activos, ingeniosos,
originales, constituyeron un tipo de ejemplar humano muy representativo de la
época en que vivieron, dotados de una fe indestructible en sí mismos y en el
adelanto humano. Su deseo de hacer la vida más cómoda, más fácil, más feliz a
sus semejantes, es compatible con su ansia de enriquecerse gracias a sus ideas,
y de desbancar a la competencia. Con frecuencia se copiaron sus inventos, o se
inspiraron unos en otros, provocando infinitos pleitos hasta que se estableció
la Oficina Mundial de Patentes en Berna, en 1883 (uno de sus empleados se
llamaba Albert Einstein). Son quizá, por su sentido práctico y conquistador,
los más típicos representantes de la era positivista. Sin embargo, tuvieron muy
poco de intelectuales, ni siquiera de cientifistas. No pretendieron inventar
una filosofía del progreso, sino simplemente progresar. Fueron, si se quiere
admitirlo así, «positivistas prácticos», sin demasiado afán de atacar o
defender principios. Pero contribuyeron como nadie a transformar el estilo de
vida de las sociedades desarrolladas.
§. El carrusel de los inventos
No cabe en este libro una relación detallada de los muchísimos inventos
realizados en la segunda mitad del siglo XIX, porque ello nos obligaría a
dedicar al tema una extensión desmesurada, y porque hacerlo parece más propio
de una historia de la tecnología en cuanto tal que de una historia de la
ciencia. Con todo, sería injusto no dedicar un apartado a tan decisivas
aportaciones. Dos precisiones parecen ante todo necesarias:
- primera: es difícil determinar la fecha exacta de un invento y el nombre de
su autor. Todos los inventos tienen sus precedentes y también protagonistas de
modificaciones decisivas. El calendario que exponemos a continuación es
bastante exacto y ponderado; pero pueden hacerse, y de hecho se hacen, otros
calendarios distintos, igualmente razonables;
- segunda: es preciso distinguir desde el primer momento entre la fecha de la
invención y la de la aplicación, o de la generalización social de lo inventado,
que llega normalmente bastantes años después. Teniendo en cuenta estas
cautelas, es válida la lista siguiente:
Aquí termina la serie. Sería difícil prolongar una
lista tan densa en la primera mitad del siglo XX. A partir de entonces, el
mundo presencia la difusión y perfeccionamiento de lo descubierto más que
nuevos descubrimientos. Una lista de 54 inventos, cada uno de ellos capaces de
modificar las condiciones de la vida ordinaria, en el plazo de 55 años, no es
un hecho corriente en la historia. No sería del todo fácil explicar por qué
esto fue así.
§. La transformación del mundo
1. Los inventos lo cambiaron todo. Nuevas formas de vida, antes apenas
imaginadas, se hicieron realidad de la forma más espectacular, y alimentaron
como ningún otro factor la conciencia del «progreso». Representaron, entre
otros hechos, la victoria del hombre sobre los inconvenientes de la naturaleza:
la oscuridad, el frío, el calor, la distancia. Y el hombre se convirtió más que
nunca, en este sentido al menos, en Rey de la Creación: y así lo proclamaban
los optimistas.
1.1. La victoria sobre la noche se basó fundamentalmente en la luz
eléctrica. Por un tiempo compitieron el arco voltaico de Siemens y la lámpara
de incandescencia de Edison. El primero despide una luz cegadora, propia más
para la iluminación de exteriores. Las calles céntricas de Berlín destellaban
radiantes, como si la noche se hubiera convertido en día. Pero el sistema
obliga a cambiar con frecuencia los electrodos de carbono, que se gastan
fácilmente, y, además pronto se descubrió que aquella luz (que emite en gran
parte en la frecuencia del ultravioleta) era dañina para la vista. Ahora apenas
usan ese sistema más que los soldadores, eso sí, con sus ojos protegidos por
cristales oscuros. Por su lado, Edison tropezó con dificultades. Creía que sus
resistencias, encerradas en una bombilla de cristal en la que se había hecho el
vacío se pondrían al rojo blanco, pero no arderían, porque no tendrían un medio
comburente donde arder. Y, en efecto, no ardían, pero se fundían por la
altísima temperatura que alcanzaba la resistencia. Probó con hilo de algodón,
con viruta de abeto, con pelo de oveja, hasta con el de su barba o el cabello
de su mujer: todo se fundía. Logró mejor resultado con
filamento de carbono, pero aquella resistencia no duraba más que los electrodos
de Siemens. La cosa mejoró con resistencias de osmio. Y finalmente se encontró
la combinación perfecta: una aleación de osmio y wolfram (se le dio el nombre
de OSRAM). Hoy se prefiere el zirconio. La Exposición de París, en 1881, estaba
iluminada por 1.000 bombillas. En 1882, seis generadores alimentaban a 10.000
lámparas eléctricas en Nueva York. El primer edificio que dispuso de luz
eléctrica interior fue el palacio de Buckingham en Londres, y luego, la Opera
de París, no sin que mediaran violentas discusiones. A fines del siglo XIX,
muchas calles y muchas casas de Europa y América estaban iluminadas por luz
eléctrica. Lo que ello supuso fue un cambio drástico en los horarios y en la
calidad de vida.
1.2. La victoria sobre el frío se obtuvo, más que por el empleo de radiadores
alimentados por resistencias eléctricas, un medio no utilizado hasta el siglo
XX debido a su alto consumo, por la calefacción central. El sistema de circuito
cerrado de Baldwin, gracias a una única caldera de agua para toda la casa o
todo el edificio, alimentada por carbón de piedra, y con una circulación
continua debida al hecho de que el agua caliente tiende a subir y la fría a
bajar, fue un medio relativamente barato y fácil de montar. Comenzaron a
funcionar radiadores de calefacción en grandes edificios, como el palacio del
Elíseo, en París. Curiosamente, uno de los primeros en disponer de calefacción
con caldera central fue el célebre castillo medievalizante de Neuschwanstein,
en los Alpes, erigido por Luis II de Baviera.
La victoria sobre el calor parecía más difícil, y sin embargo el sistema de
refrigeración fue inventado por Linde y Tellier justamente el mismo año que la
calefacción central. Se basa en la descompresión de un gas. Como ya se conocía
muy bien por entonces, un gas que se comprime se calienta, y un gas que se
dilata se enfría. Charles Tellier descubrió la técnica de la descompresión en
1863, y comenzó a utilizar sus primeros aparatos frigoríficos en 1865. La
técnica fue progresando; si Linde se dedicó a fabricar frigoríficos
industriales cada vez más perfectos, Tellier soñaba con barcos frigoríficos
capaces de transportar mercancías perecederas durante muchos días. Así se botó
al agua Le Frigorifique, un barco de vapor de bodegas
refrigeradas, que en 1876 llevó toneladas de carne de Buenos Aires a Rouen: la
mercancía llegó en perfecto estado. No hace falta decir que el método fue una
de las bases de la prosperidad del cono sur americano y de la decadencia de la
ganadería en Europa. Gran Bretaña viviría de la carne de ultramar, y de
productos traídos de fuera que hasta modificaron el paisaje inglés y produjeron
la afluencia masiva de los propietarios a las grandes capitales financieras e
industriales (eso sí, trayéndose un pedacito de campo en forma de jardín,
obligatorio en la Inglaterra victoriana).
2.1. La victoria sobre la distancia se obtuvo en dos campos distintos, aunque
perfectamente complementarios: a) las comunicaciones; b) el transporte físico
de personas y mercancías. El inventor del telégrafo eléctrico fue el americano
Samuel Morse, (1791-1872), dibujante y pintor, que a partir de los cuarenta
años se interesó de pronto por la posibilidad de establecer comunicaciones a
través de descargas eléctricas transmitidas por un cable. En 1835 presentó su
primer sistema telegráfico, y en 1838 inventó el alfabeto o código Morse, de puntos
y rayas (descargas largas y cortas), cuyas combinaciones representan letras.
Así era posible, mediante descargas, transmitir mensajes. En 1844 circuló el
primer mensaje entre Baltimore y Boston. El mundo civilizado empezó a quedar
cubierto por líneas telegráficas. Más difícil era unir islas o continentes
separados. En 1850 se estableció la primera línea a través del canal de la
Mancha. Pero cuando se intentó tender un cable entre Europa y América, en 1860,
los fracasos fueron continuos. Por razones desconocidas, los cables se rompían
al poco tiempo. No se supo, hasta la expedición de Wyville Thompson, en 1876,
que el fondo de los océanos está cruzado por cordilleras y barrancos. Lord
Kelvin consiguió un tipo de cable entrecruzado de gran resistencia. Aun así,
los mensajes tenían que ser transmitidos de estación en estación, porque no
soportaban líneas de extraordinaria longitud. En 1878 la reina Victoria de
Inglaterra envió un telegrama al presidente norteamericano Buchanan, mensaje
que tardó 17 horas 40 minutos en llegar a su destino. Se consideró aquella
hazaña como un prodigio de la técnica. Pues bien, en 1896, con motivo de la
jubilación de lord Kelvin, sus amigos le enviaron un telegrama Glasgow, vía
América, Australia y Egipto, que llegó a su destinatario en siete minutos,
después de dar la vuelta al mundo. Es necesario suponer que los operadores de
cada estación estaban perfectamente «conjurados» para retransmitir el mensaje
al instante. Hasta ahí llegó la técnica del siglo XIX.
Pero entretanto se había logrado mucho más: la transmisión directa, a
distancia, de la voz humana. Fue el escocés Alexander Graham Bell (1847-1922),
un hombre preocupado por la percepción de los sonidos, como que se casó por
amor con una sordomuda, quien se dio cuenta de que el tímpano humano vibra a la
misma frecuencia que los sonidos que percibe. Comprendió que una lámina capaz
de vibrar ante un sonido, acoplada a un micrófono (descubierto por Edison), a
través de una bobina de inducción, y un cable conductor de baja resistencia,
podía emitir leves descargas de idéntica frecuencia a otra lámina situada a
distancia, que vibraría con los mismos sonidos que había recibido. Colaboró en
unos casos con Edison, riñó en otros con él, como todo buen inventor. Y
aprovechó muy oportunamente la Exposición Universal de Filadelfia, en 1876, que
celebraba el primer centenario de los Estados Unidos, para dar a conocer su
gran invento: el teléfono. Dos aparatos, situados a una milla (cerca de dos
kilómetros) de distancia, permitían una conversación entre dos personas. Bell
ganó mucho dinero mostrando su prodigioso aparato, y más todavía haciendo
apuestas con los incrédulos, que eran muchos... y ganándolas todas. El prodigio
fue calificado de imposible, y hasta se tachó al inventor de espiritista.
Graham Bell, convertido ya en ciudadano norteamericano, montó los primeros
teléfonos de Nueva York, y fundó luego la primera compañía telefónica, la Bell
Telephon Inc. En 1880 funcionaban en América 30.000 teléfonos. En 1910 habría
12 millones de líneas. El teléfono se impondría en las grandes ciudades del
mundo. Tardaría algo más en ser un medio de comunicación a muy larga distancia.
Un avance espectacular se daría ya a fines del XIX y comienzos del XX. En 1885
el físico alemán Heinrich Rudolph Hertz (1857-1894) descubrió unas ondas del
espectro electromagnético de baja frecuencia (ondas hertzianas) que podían
transmitirse a través de la atmósfera, y él mismo logró las primeras
transmisiones. El ruso Popov hizo un descubrimiento importante: la antena, que permitía
transmitir y recibir a mayor distancia. Un italiano extraordinariamente
intuitivo y tenaz, Guglielmo Marconi, fue perfeccionando el invento hasta
lograr en 1895 el primer transmisor y receptor de ondas hertzianas: le llamó
«telegrafía sin hilos». Su importancia radicaba en que, al no necesitar cables
de transmisión, permitía emitir y recibir desde cualquier punto. La telegrafía
sin hilos fue fundamental en los barcos, que podían estar en contacto con sus
bases o con sus armadores en alta mar; o pedir auxilio en caso de peligro.
También sirvió a exploradores que no podían disponer en tierras exóticas de
telégrafos o teléfonos. La telegrafía sin hilos transmitía impulsos, utilizando
el código Morse. Marconi estudió muy pronto la posibilidad de utilizar el mismo
sistema para transmitir no simples ruidos, sino sonidos. Fueron necesarios
muchos estudios y muchos ensayos hasta obtener un complejo aparato: el
transmisor y receptor de la voz humana. Marconi le llamó «telefonía sin hilos»,
luego se llamaría radiotelefonía, o simplemente radio. Ferviente católico,
regaló una estación de radio al papa Pió X: fue Radio Vaticano, la decana de
las emisoras del mundo.
2.2. La victoria sobre la distancia no solo permitió transmitir mensajes, sino
el transporte físico de hombres y mercancías de un lugar a otro. No lo
olvidemos: al finalizar el siglo XIX, las vías férreas se extendían sobre un
millón de kilómetros , transportando a millones de viajeros por todas las
partes del mundo; y los trenes llegaban a alcanzar velocidades de 120 km/h. Los
barcos de vapor surcaban los mares, y unían los continentes. Desde la
generalización de la hélice en sustitución de las «ruedas» o paletas, los
barcos se hicieron más largos y más rápidos, el consumo de carbón mucho más
barato, y el vapor se impuso definitivamente sobre el velero. La apertura del
canal de Suez, en 1869, mejoró y abarató el tráfico entre Europa y Oriente. Un
papel similar iba a cumplir a poco de comenzado el nuevo siglo el canal de
Panamá.
Un papel más importante de lo que se cree cumplió el transporte urbano. Dos
vehículos completamente distintos contribuyeron a modificar la distribución de
las ciudades. Uno de ellos fue el biciclo o bicicleta. Cuando se inventó, por
los años sesenta, era un molesto artilugio, con una rueda delantera de gran
tamaño, manejada por pedales. Pese a su incomodidad, los burgueses deportistas,
y sobre todo sus hijos, acudían orgullosos a los paseos públicos, y saludaban
ceremoniosamente a sus vecinos con un peligroso sombrerazo, para mostrar el
sorprendente «caballo de hierro». Por los años ochenta, gracias a la cadena de
transmisión, más tarde los rodamientos, fue posible construir bicicletas más
estables, más rápidas, de ruedas iguales, y más cómodas. Sin embargo, gracias a
la producción en serie, su precio bajó. No deja de resultar simbólica la
segunda película rodada por los hermanos Lumière en 1897: «salida de los
obreros de una fábrica de París». Varios de ellos montan en su bicicleta y
ruedan en dirección de la cámara: por cierto que la imagen causó el pánico en
la sala, pues muchos espectadores creyeron que iban a ser atropellados. Pero el
testimonio es significativo de un hecho: la bicicleta, mucho más perfecta que
la de veinticinco años antes, ya no es un artículo de lujo, sino un instrumento
útil para los trabajadores.
El otro invento es el tranvía eléctrico. Ya había líneas de coches de caballos
que circulaban sobre carriles; pero el tranvía fue el primer vehículo urbano
propulsado por fuerza no animal. La facilidad para tender líneas eléctricas en
las calles confirió al tranvía una posibilidad que durante décadas no tuvieron
los trenes. Presentado por Siemens en 1881, comenzó a circular muy pronto por
diversas ciudades europeas. En Milán causó numerosas víctimas, pues la gente no
relacionaba el sonido de campana que hacía oír el vehículo con un peligro
callejero. En 1891, como ya queda señalado, se inauguró el transporte
subterráneo de Londres, también con vehículos dotados de trole bajo un cable
cargado eléctricamente. El otro polo se obtenía directamente de la vía.
Tanto el tranvía como la bicicleta cambiaron las condiciones de vida de la
ciudad. Ya eran posibles ciudades enormes, de un millón o más de habitantes. Y
también era posible vivir a gran distancia del lugar habitual de trabajo. Se
construyeron nuevas viviendas y amplias avenidas, para favorecer la
circulación. En 1875-1900 la población de París aumentó en un 25 por 100; el
tráfico rodado, en un 400 por 100 (por supuesto: se incluye también el de
tracción animal). Si tenemos en cuenta que los periódicos alcanzan por primera
vez tiradas de un millón de ejemplares al día (gracias a la linotipia y la
rotativa, también a la alfabetización y a la rápida difusión de noticias de
todo el mundo), que es posible recurrir al cine, al tocadiscos, al teatrófono
(teatro por teléfono: tuvo su época de furor), a los viajes fáciles y baratos,
al desarrollo de los sistemas de saneamiento e higiene, a los grandes parques
públicos, comprenderemos cómo cambió la vida de la ciudad, en contraste con el
ritmo mucho menos desarrollado del campo. Y por ende, el incremento de la
migración agro-ciudad.
El transporte a larga distancia, lo hemos visto hace poco, siguió dependiendo
fundamentalmente del ferrocarril y del barco de vapor. Pero no debemos olvidar
los logros de la tecnología que desembocaron en la generalización del medio de
transporte más utilizado en el siglo XX: el automóvil. Por 1885 Daimler y Benz
inventaron modelos de vehículos movidos por motores de explosión. Karl Benz
trataba de «construir un vehículo que pueda moverse por la calle sin caballos,
pero sin raíles». Y el citado año presentó un coche de tres ruedas, un tanto
ruidoso, pero sorprendente, que logró rodar a una velocidad de 20 kilómetros
por hora. Daimler construyó en 1886 un vehículo que ante la admiración general
recorrió toda la ciudad de Carnstatt. Benz había fabricado 67 coches en 1894,
135 en 1895, 438 en 1898. Por los años 90 se introdujeron las versiones más
adecuadas de cilindros y bujías. En Francia, se celebró en 1898 la primera
Feria Internacional del Automóvil, y una carrera en que el vencedor logró
circular a 27 km por hora. París, en 1906, contaba con 7.000 vehículos, y en
1914 estaban matriculados en Francia 90.000 coches.
El transporte por aire no fue posible hasta que el hombre aprendió a dotar al
globo aerostático de un motor y un timón. En 1888 el conde Ferdinand von
Zeppelin logró el primer modelo de dirigible, aunque los primeros vuelos útiles
no se lograron hasta 1908. Utilizando el hidrógeno, más ligero que el helio, se
logró una mayor capacidad de sustentación. Los «zepelines» eran enormes husos
de alrededor de 100 metros de largo, que llevaban una cabina en la que cabían
de 24 a 72 pasajeros. La velocidad, en 1908, no sobrepasaba los 48 Km. por
hora, muy superior, ciertamente, a la de los automóviles. El mayor triunfo de
un dirigible fue la vuelta al mundo en 1929. El sistema parecía haber
desbancado al avión, más rápido, pero capaz para un número muy reducido de
pasajeros, cuando en 1937 el dirigible gigante Hindenburg, de
240 metros de longitud, que transportaba un centenar de personas, después de
haber cruzado el Atlántico, estaba aterrizando en New Jersey. Una chispa
provocó un incendio, el hidrógeno ardió instantáneamente, y el aparato quedó
convertido en chatarra en un minuto. Desde entonces, se decidió abandonar la
construcción de dirigibles, y todos los esfuerzos se dedicaron al avión.
El vuelo de aparatos voladores más pesados que el aire fue considerado durante
mucho tiempo como imposible, pese a que los pájaros gozan de esa cualidad. En
1889, Otto Lilienthal escribió un buen tratado teórico sobre El vuelo
de los pájaros como fundamento del arte de volar, pero todos los
modelos que ensayó fueron un fracaso, hasta que en uno de ellos halló la
muerte. Clement Ader inventó otro modelo el Avión, con alas
tipo murciélago, con el que pudo volar 300 metros. En un tercer intento se
estrelló. Solo perduró, curiosamente, el nombre. El primer modelo útil lo
consiguieron en 1903 los hermanos Wright con un biplano que logró volar casi a
ras del suelo 260 metros. En años sucesivos se fabricaron aparatos más perfectos,
hasta que en 1909 uno de ellos realizó la hazaña de cruzar el Canal de la
Mancha. Pero la historia de la aviación apenas había comenzado.
§. La promesa del siglo XX
En 1898 el biólogo A.A. Wallace publicó The Wonderful Century. El
siglo maravilloso era, por supuesto, el XIX, a punto de finalizar. «Nuestro
siglo, escribía Wallace, es superior a cualquiera de los anteriores». «A los
hombres del siglo XIX nos ha faltado tiempo para exaltarlo. El sabio y el
necio, el poeta y el periodista, el rico y el pobre, todos se apiñan formando
el coro de los admiradores de los maravillosos descubrimientos e inventos de
nuestra época». De modo que «puede afirmarse que el siglo XIX constituye el
inicio de una nueva era del progreso humano». La simple lógica hacía prever que
si el siglo XIX podía calificarse de maravilloso, la maravilla quedaría
potenciada en el venidero siglo XX. Reinaba entonces, escribe Bertrand Russell,
«una suerte de optimismo científico que hizo creer a los hombres que el Reino
de los Cielos estaba a punto de instaurarse en la tierra»..., y por obra del
propio hombre, sería preciso añadir. Tal es el espíritu de la oda de Swinburne,
que empieza con un «¡gloria al hombre en las alturas!». El
optimismo positivista había llegado a un grado de suprema exaltación.
Lo que Carlton Hayes llama «la promesa del siglo XX» tiene mucho de mesianismo,
puramente humano, es preciso repetir, que cree, por obra de la seguridad
positivista y por la conciencia de los impresionantes logros científicos,
llegada una edad nueva y maravillosa, en que desaparecerán todos los males del
mundo. El hambre será un recuerdo de épocas superadas. La producción puede
aumentar con las nuevas técnicas de cultivo y el desarrollo de una ganadería
planificada hasta cubrir las necesidades del género humano. Pero gracias a la
ciencia ni siquiera será necesario comer. Berthelot profetizaba el uso de unas
«pastillas azoadas» que dotarían al hombre de todos los principios necesarios
para el mantenimiento de su vida, al tiempo que podrían potabilizarse enormes
cantidades del agua de los océanos, para acabar de una vez para siempre con la
sed. La abundancia de artículos, gracias a una producción cada vez más masiva y
barata, desterraría la pobreza. Las leyes de educación establecidas por todos
los estados civilizados, que contemplaban la alfabetización obligatoria,
permitía esperar que en poco tiempo todos los hombres sabrían leer y escribir:
hasta los más salvajes, gracias a la obra civilizadora de la colonización.
Se profetizaba el vuelo individual, posible con unas pequeñas alas y un motor
casi silencioso; los hombres podrían dar la vuelta al mundo en pocos minutos,
subirían sin fatiga a las más altas montañas y descenderían con escafandras
hasta las más profundas fosas marinas. El clima podría ser alterado, y se
provocaría, cuando hiciera falta, la lluvia artificial. Nuevos trajes térmicos
podrían aislar a los humanos, en cualquier momento, del frío y del calor.
Podría vencerse a la gravedad y crearse la antigravedad. Los avances de la
medicina acabarían por encontrar el remedio para todas las enfermedades, sobre
todo ahora en que era posible aislar y conocer los distintos gérmenes
patógenos, destinados a desaparecer de la tierra. La vida humana sería mucho
más larga, y sobre todo mucho más feliz. Cierto que el desarrollo científico y
tecnológico permitía fabricar armas cada vez más sofisticadas y destructoras.
Pero los continuos intercambios habían convertido al mundo en un sistema de
vasos comunicantes, y a nadie podía ocurrírsele la absurda idea de una guerra
general, desastrosa para todos, aparte de que el grado de civilización
alcanzado parecía haber superado al fin la posibilidad de un hecho tan bárbaro
y antiguo como la guerra. F. Brouta se atreve a hacer esta predicción: «en el
siglo XX, a la paz armada sucederá la paz desarmada, porque el convencimiento
de que una guerra no genera sino destrucción general derivará forzosamente en
una situación de desarme de todos, y la humanidad entera, unida en estrecho
lazo habrá de trabajar fraternalmente en la obra común del progreso y de la
ciencia». El optimismo científico-positivista había alcanzado su más alto
grado. No tardaría en sobrevenir el desengaño.
Capítulo 11
La Gran Crisis del siglo XX
Contenido:
§. Mach y la inseguridad
§. Einstein y la Relatividad
§. Planck y la incertidumbre
§. Freud y la primacía del instinto
§. La «angustia de la ciencia»
« La física del siglo XIX, escribe John D. Bernal, fue una
majestuosa conquista de la mente humana, un progreso que, entre los que lo
consiguieron, produjo la impresión de encaminarse hacia una nueva y definitiva
imagen de la naturaleza y de sus fuerzas, sobre la segura base de las leyes
descubiertas, ciertas e infalibles. Esta visión estaba destinada a venirse
abajo nada más comenzado el siglo XX».
Fue, de nuevo, un cambio de paradigma. De pronto, todo resultaba ser distinto.
Hechos que se tenían como absolutamente fiables, por lo bien deducidos o
inducidos que estaban, y porque la realidad del mundo físico era un todo
racional y coherente, quedaban desbordados por nuevos y sorprendentes
descubrimientos. Las cosas no eran tan sencillas, tan «explicables» como se
suponía, y era preciso aceptar, por doloroso que resultara, una realidad
infinitamente más compleja, y, sobre todo, era preciso renunciar a una
comprensión racional de las realidades más profundas que era dado conocer al
hombre; y eso en todos los ámbitos: desde las partículas subatómicas, pasando
por los secretos de la vida, hasta las inmensidades insondables del Cosmos. Fue
un varapalo tremendo, si se quiere una humillación inesperada, para muchos
traumática, de la actitud orgullosa de una ciencia que ya, por obra de la
concepción positivista y de la fe en la capacidad de la razón humana para
penetrar hasta el fondo de la realidad, se sentía capaz de responder sin
vacilación a las últimas preguntas.
La crisis de comienzos del siglo XX es en realidad mucho más vasta que un
cambio de paradigma en las concepciones científicas. Afectó también al
pensamiento, al arte, a la literatura, a las coordenadas de la cultura
occidental. En el fondo, puede representar una crisis de la dogmática confianza
del hombre positivista en sí mismo. De pronto pierde esta confianza, y,
comoquiera que había abandonado otras instancias anteriores y superiores a él,
se queda angustiosamente solo. No es este el lugar en que proceda ahondar en la
cuestión. Pero, para comprender mejor los alcances de la «angustia de la
ciencia», también conviene recordar que la crisis se opera en todos los
ámbitos. Sobreviene una ruptura que quiebra los moldes de lo clásico y lo
racional para penetrar en un mundo de sombras indefinidas o de bellezas
irreales. Aparecen los «ismos», el simbolismo, el cubismo, el suprematismo, el
abstractismo, el dadaísmo, el fauvismo: los expertos han citado más de
cuatrocientos, que representan una rebelión contra las normas de lo razonable y
al mismo tiempo una fragmentación de las corrientes casi hasta el infinito. Lo
que valía ya no vale: y comoquiera que se rechaza la anterior validez de la
norma, esos nuevos caminos divergen en muy variadas direcciones. En términos
generales, la impresión que nos produce, al menos a primera vista, la crisis de
comienzos del siglo XX es la sustitución del superracionalismo positivista y la
concepción realista de la vida, incluso en el campo del arte o de la
literatura, por una nueva visión desconcertante cuya nota común es lo irracional
y lo inexplicable. Se imponen la filosofía existencial, la pintura no
figurativa, la poesía no formal que no significa, solo sugiere; el teatro del
absurdo, la música atonal. Y el resultado es la dificultad para «comprender»
por parte de quien recibe el mensaje.
Es curioso que un fenómeno sorprendentemente paralelo se registre en el mundo
de la ciencia. La ciencia, a lo que parece, debería seguir una trayectoria
distinta, por una razón muy sencilla. Tenemos la impresión, que hasta cierto
punto podría ser falsa, de que la filosofía, la literatura, la pintura, la
música cambian porque cambia la mentalidad del creador y su concepción de las
cosas; la filosofía cambia porque cambia la concepción del filósofo, la pintura
cambia porque cambia la del pintor, la música cambia porque cambia la del
compositor. Y quien hace arte, pensamiento o literatura vive inmerso en un
mundo, en una mentalidad que le sugieren nuevos caminos de orden subjetivo, las
corrientes, las modas, las actitudes dominantes, lo que está en la cresta de la
ola. Pero la ciencia cambia, ¡y en este punto también nuestra impresión podría
ser falsa!, porque la naturaleza de lo observado resulta ser distinta a lo que
antes se suponía. No es el científico el que varía de actitud, sino que la
realidad estudiada le obliga a variar. En ocasiones, los nuevos descubrimientos
desconciertan al sabio, hasta le ponen de mal humor: una reacción que se puede
advertir muy claramente en Planck, después en Niels Bohr. ¿Qué es lo que
ocurre? ¿Que la orientación de las ciencias cambia porque cambian las
mentalidades? ¿O es que las mentalidades cambian porque cambia la visión de lo
observado? Esta última eventualidad es mucho más fácil de aceptar. Y, sin
embargo, ofrece muchos problemas. Cabe admitir la posibilidad, por poco
probable que en principio parezca, de que la mentalidad del científico cambie
al tenor de los tiempos. Se ha dicho que Bracque, uno de los creadores del
cubismo, era amigo de un físico. Posiblemente ese físico no conocía a fondo, en
aquel momento casi nadie las conocía, las teorías de Einstein: y sin embargo se
ha dicho que Bracque o Picasso representan un universo de n dimensiones.
Lo cual es posible, pero muy discutible. Se ha dicho que la poesía hecha con
palabras sacadas al azar de Tristan Tzara está relacionada con la teoría
cuántica, lo cual es más discutible todavía. O que la Verlust der
Mitte, «la pérdida del centro» de que trata Seldmayr tiene que ver con
la aleatoriedad de los sistemas de referencia. La mayoría de las personas
cultas saben muy bien que los artistas o escritores de comienzos del siglo XX
sabían muy poco sobre la ciencia que estaba sorprendiendo a los sabios, ni
acertaban a comprender su significado o su falta de significado. Los dos
fenómenos se dan simultáneamente sin relación alguna entre sí, a pesar de sus
notas comunes. ¿O existe esa relación y no podemos adivinarla?
§. Mach y la inseguridad
Si en algún caso existió una actitud previa e intencionada por parte del
científico para destruir los supuestos de su tiempo, el máximo representante de
esa actitud fue Mach: con la agravante de que atacaba esos supuestos en nombre
del positivismo. Ernst Mach (1838-1916) fue profesor de Física en la
universidad de Praga. Sus aportaciones en el campo de la mecánica, de la óptica
y de la acústica no fueron nada despreciables. La más conocida se refiere a la
relación entre la velocidad de un cuerpo y la velocidad del sonido; y a la onda
de choque que se produce cuando un cuerpo en movimiento rompe la «barrera del
sonido». Pero Mach, además de eminente científico, fue filósofo, muy influido
por Kant y sus «juicios sintéticos a priori». En 1888 comenzó a estudiar los
apriorismos de los científicos, y diez años más tarde publicó la versión
definitiva de su Contribución al análisis de las sensaciones. Mach
pone el dedo en la llaga al observar que los científicos son incoherentes con
sus propios principios. Si la ciencia solo cree en los fenómenos y deja a un
lado los conceptos porque son «filosóficos», ¿cómo sigue admitiendo conceptos
que en el fondo no son más que abstracciones? ¿Por qué, si admitimos que el
color o el sonido no son más que conceptos, y en cuanto tales no existen , no
decimos lo mismo del espacio, el tiempo, el movimiento? Si solo los fenómenos
son verificables, quedémonos en la descripción de los fenómenos, y no demos por
supuestos los conceptos que empleamos para explicar la pura fenomenología. Por
ejemplo, la mecánica debe quedar reducida a cinemática (cinemática: la ciencia
que estudia los movimientos sin atender a sus causas).
Mach va contra la aceptación universal del principio de causalidad. Si ocurre
un fenómeno, e inmediatamente después de él ocurre otro, ¿tenemos «razón
suficiente» para decir que el primero es causa del segundo? Es posible que
estemos presuponiendo, por comodidad o por prejuicio, una dependencia de los
fenómenos entre sí. Los filósofos ya habían alertado contra la falacia de
decir post hoc, ergo propter hoc. Si a un eclipse de luna
sucede el desbordamiento de un río, no tenemos derecho a afirmar que el eclipse
es la causa de la crecida. Mach lleva esta precaución hasta el extremo. Nunca
sabemos si un fenómeno es «causa» de otro, sino que sigue a otro, y eso es lo
único que podemos afirmar con seguridad. El ataque al principio de causalidad
como un prejuicio, o tan siquiera como una expresión de certeza absoluta, viene
a herir profundamente uno de los más caros supuestos de la ciencia positivista.
Toda una poderosa arquitectura del pensamiento científico, basada en la
intercausación, en la relación causa-efecto, queda en entredicho, o por lo
menos se convierte en algo hasta cierto punto discutible.
Pero Mach llega mucho más lejos cuando denuncia la fragilidad del concepto de
«ley». El método científico positivista es el inductivo: observa un fenómeno,
o, para ganar tiempo, lo experimenta: comprueba que una vez y otra y otra el
resultado es el mismo. Si hacemos caer una piedra sobre el estanque, se
formarán una serie de ondas concéntricas. Si arrojamos otra piedra, se repetirá
el mismo fenómeno. E igualmente ocurrirá cuando arrojemos otra, y otra y otra
piedra. Entonces, dicen los científicos, la repetición indefinida nos
permite inducir la ley. Ahora bien, ¿hasta dónde hemos de
llegar con la observación de un fenómeno para poder estar seguros de que se
repetirá siempre? ¿Tenemos derecho a detenernos cuando hemos arrojado diez mil
piedras al estanque, y quedamos dispensados de arrojar la piedra diez mil uno?
Porque, y eso ningún científico sería capaz de negarlo, una sola excepción
basta para quebrar la ley. La ley será, en todo caso, «una probabilidad que
tiende a infinito», nunca una seguridad absoluta. ¿Por qué hablamos de leyes
universales y perpetuas si no podemos tener la completa seguridad de que van a
cumplirse en todos los casos? Pero es que aún hay más: como que existen leyes
que no se cumplen. La ley de Boyle precisa que el volumen de un gas, a
temperatura constante, es inversamente proporcional a la presión. ¡Pero si
ningún gas obedece exactamente a esta ley! En cada caso hay que aplicar un
factor de corrección. Es decir, no hay «gases perfectos»; o por mejor decirlo,
no hay leyes perfectas. Y si una ley no es perfecta, no es ley.
De Mach deriva la filosofía del «como si». Puesto que hemos de renunciar a los
conceptos, si nuestras ideas sobre la relación de los fenómenos entre sí
obedecen a juicios a priori, si no podemos estar absolutamente
seguros de que un fenómeno provoca otro, no podemos operar más que por
analogía. Newton, afirma Mach, «fue más allá de los hechos». Cayó en lo
hipotético al enunciar la Ley de la Gravitación cuando la idea de gravitación
no es más que un concepto. No puede decirse: «dos cuerpos se atraen entre sí en
razón directa de sus masas e inversa del cuadrado de su distancia»; sino en
todo caso: «dos cuerpos se comportan entre sí como si se atrajeran...». Es
curioso: el orgullo de la ciencia positivista sufrió un duro golpe por obra de
un hombre que proclamaba un positivismo radical. Fue un ataque con las mismas
armas. Siempre podía decirse que las ideas de Mach no pasaban de ser las
lucubraciones de un filósofo. Mach fue un filósofo, en efecto. Pero fue al
mismo tiempo un eminente científico.
En 1887 el físico Albert Michelson inventó un interferómetro para medir la
velocidad de la luz. En realidad, no se trataba tanto de esta medida como de
superar la teoría del éter. El éter, como la piedra filosofal o el flogisto,
era uno de los grandes mitos de la ciencia, concebido por muchos para explicar
el movimiento de la luz y de otras radiaciones a través del espacio. Así como
el sonido necesita un medio en el cual moverse (concretamente la atmósfera; el
sonido también se transmite a través del agua, de los metales, etc., pero no en
el vacío), parecía necesario admitir un medio a través del cual pudiera
circular la luz. En este caso, la discusión sobre el éter no nos interesa,
excepto para negar su existencia: las radiaciones se transmiten sin necesidad
de medio alguno. Michelson se asoció con otro físico, F. Morley, y realizó un
sensacional experimento. Dicho de una manera muy simplificada, el
interferómetro consistía en unos espejos que giraban a gran velocidad. Se
suponía que, cuando se movían el dirección contraria a una corriente de luz,
las partículas luminosas llegarían a la superficie de los espejos con más
velocidad que cuando se alejaban de la fuente luminosa. Esto parecía un
postulado fundamental de la mecánica. Se conocía ya con bastante precisión la
velocidad de la luz, pero el interferómetro de Michelson-Morley permitiría
afinar esta precisión todavía mucho más (y de paso comprobar o rechazar la
existencia del éter). Sin embargo, el delicadísimo instrumento no acusó
diferencia alguna. La luz llegaba a los espejos con la misma velocidad cuando
se acercaban que cuando se alejaban de la fuente luminosa. Nadie se explicó
este fracaso, que fue, como se ha repetido muchas veces, «la más importante
experiencia negativa de la historia». ¿Qué ocurría? ¿El instrumento estaba mal
concebido? ¿Existía tal vez un defecto de fabricación?
Las discusiones sobre un hecho tan inesperado se generalizaron. Y en 1905, un
físico, empleado de la Oficina de Patentes en Berna llamado Albert Einstein,
publicó un artículo en la revista Annalen der Physik titulado «Sobre la
electrodinámica de los cuerpos en movimiento», en que llegaba a la conclusión
más sorprendente: el interferómetro de Michelson estaba perfectamente concebido
y fabricado, y sus medidas eran exactas. Lo que ocurre es que el valor de la
velocidad de la luz es absoluto con independencia del sistema de referencia que
lo emite o lo percibe. Albert Einstein había nacido en Ulm (Alemania) en 1879,
y moriría en Princeton, Estados Unidos en 1955. No fue un estudiante
aventajado, pero tampoco tan torpe como a veces se ha dicho. Se hacía y hacía
continuas preguntas, un hecho que molestó a algunos profesores. Y tuvo siempre
un espíritu muy independiente. Al fin se nacionalizó suizo, y aunque no logró
ser profesor universitario, encontró empleo en la Oficina de Patentes. En los
ratos libres, se dedicaba a escribir artículos sobre temas de física y de cálculo.
Los tres trabajos que envió en 1905 revolucionaron los conceptos de espacio y
de tiempo, e iniciaron la desconcertante visión científica del siglo XX. De
aquí que si se ha considerado annus mirabilis el de 1666, por
ser el más fecundo de la vida de Newton, se haya vuelto a dar la misma
consideración al de 1905, quizá el más importante de la nueva revolución
científica.
De la teoría de Einstein se deduce que un cuerpo es tanto más corto cuanto
mayor es su velocidad. Con frecuencia se ha citado la paradoja del tren: un
tren que es algo más largo que un túnel, si circula a máxima velocidad, resulta
que la cabeza de la locomotora estará en la salida del túnel cuando el final
del vagón de cola esté justo en la entrada: es decir, tendrá, para un
observador, el mismo tamaño que el túnel. La única velocidad absoluta y al
mismo tiempo la mayor posible, es la de la luz, de suerte que si un cuerpo se
moviera a la velocidad de la luz, se acortaría de tal modo, que dejaría de
tener una dimensión: sería alto y ancho, pero no sería largo: simplemente un
plano. Una paradoja todavía más sorprendente es la de los dos gemelos:
supongamos dos seres humanos de la misma edad; uno emprende un viaje espacial a
una velocidad asombrosa, y otro se queda en la Tierra; si el primero regresa,
se encontrará con que es más joven que su hermano: tendrán edades distintas. El
hecho es, en sí, inverificable; lo único que puede decirse es que el viajero
«medirá» un tiempo más corto que el que permanece en reposo. Este punto sí que
pareció comprobado, cuando, en 1980 un reloj atómico hizo un viaje de largo
recorrido en un avión supersónico: al regreso estaba muy ligeramente retrasado,
en una pequeñísima fracción de segundo, respecto de otro reloj atómico
sincronizado con él, y que había quedado en tierra. Algo por el estilo pudo
experimentarse después con un acelerador de partículas que parecía «alargar el
tiempo» de los «muones», unas partículas de vida muy corta.
Naturalmente, estas medidas no pudieron ser realizadas en tiempos de Einstein.
Pero sí otras, relacionadas con la Teoría General de la Relatividad, expuesta
en 1915-1916. Según la Teoría General, la gravedad y la aceleración forman
parte de una misma realidad. Si viajamos en un vehículo y este frena, seremos
empujados hacia adelante, como si fuésemos atraídos en esa dirección. Si el
vehículo describe una curva brusca, recibiremos un empuje lateral hacia el lado
convexo de la curva. En el fondo, los planetas en sus órbitas no experimentan
otra cosa que un fenómeno de aceleración. Este efecto se describe en física
clásica como inercia, un fenómeno muy bien descrito por Newton; pero Einstein
supera a Newton, en cuanto que nos proporciona un concepto mucho más profundo
(y mucho menos intuible por una persona no versada en el tema). De acuerdo con
la Relatividad General, el tiempo y el espacio están profundamente
interpenetrados entre sí, de modo que constituyen un «espacio-tiempo» sin duda
no fácil de explicar por los métodos ligados a la lógica tradicional, pero
formulable por ecuaciones matemáticas deducidas impecablemente. Resulta que el
espacio se curva en torno a una masa, y en consecuencia, puesto que hay masas
en el Universo, el espacio es curvo. No se trata de que en el espacio haya
curvas, sino que la curvatura es una propiedad del espacio. Al curvarse sobre
sí mismo, acaba cerrándose sobre sí mismo, como ocurre con una línea que se
cierra (una circunferencia) o una superficie que se cierra (una esfera). El
espacio es así una realidad de cuatro dimensiones, de las cuales nosotros, seres
limitados, solo podemos percibir tres (delante-detrás, derecha-izquierda,
arriba-abajo); la cuarta solo es perceptible, a lo sumo, por el tiempo. Quizá
podamos comprender mejor lo que es la «hiperesfera» de Einstein, con sus cuatro
dimensiones, si leemos la curiosa novela de E. Abbot Planilandia, un
país donde sus inteligentes habitantes no perciben más que dos dimensiones,
longitud y anchura, y en ese espacio pueden entenderse y relacionarse. El
protagonista encuentra a un habitante de «Linealandia», para el cual solo hay
delante y detrás, y se siente superior al pobre desgraciado que solo concibe
las líneas (el cual, por supuesto, es feliz en su mundo lineal). En cambio, se
sorprende cuando se encuentra con un habitante de Espaciolandia, entendamos un
hombre, que concibe tres dimensiones. El planilandés trata de comprenderle,
pero al fin lo toma por loco. Es un curioso ensayo sobre espacios de n
dimensiones.
Ahora bien: si el Universo se curva hasta cerrarse sobre sí mismo, resulta que
el «Universo es finito, pero carece de límites». (En español y en la mayoría de
los idiomas es difícil encontrar una expresión más adecuada). Es finito, puesto
que se cierra, y se pueden enunciar distancias que de hecho no existen.
Pero carece de límites puesto que no comienza ni termina en ninguna parte: como
una circunferencia no comienza ni termina en ninguna parte (o, si queremos,
comienza en el punto que nosotros mismos elijamos arbitrariamente, y termina en
ese mismo punto, «después de haber dado una vuelta sobre sí misma»). Hoy
existen muchas teorías sobre las dimensiones y la curvatura del espacio, y se
estima que la concepción de Einstein no es necesariamente la más correcta; pero
las líneas generales de un continuum espacio-tiempo, la imposibilidad de
verificar desde dos sistemas de referencia fenómenos simultáneos, la existencia
de un espacio de n dimensiones y la misma curvatura del espacio se mantienen
incólumes, y hoy se sigue estimando a Einstein como uno de los más grandes
científicos de todos los tiempos. El año 2005, centenario de los famosos
artículos einstenianos, fue declarado Año Internacional de la Física.
Las teorías de Einstein causaron sensación en la comunidad científica, y en
muchos casos también escándalo. Se le acusó por algunos de loco y de quimérico.
Las discusiones fueron enconadas. Se pidieron pruebas. Y la más espectacular
fue sin duda el eclipse de sol de 1919. De acuerdo con las teorías de la
Relatividad, la propia luz del sol sería desviada por la masa de la luna; más
exactamente, sería desviado el espacio, y con él la propia luz. Los
experimentos, realizados con la mayor precisión posible, demostraron la validez
de la afirmación de Einstein, y la conmoción por este hecho, en principio
inexplicable, fue inmensa. Según Paul Johnson, «ni antes ni después ningún
episodio de verificación científica atrajo nunca tantos titulares o se
convirtió en tema de comentario universal». La Teoría de la Relatividad quedó
reforzada, pero subsistieron hasta los años 30 reticencias o incomprensiones de
muchos físicos; hasta se buscaron teorías alternativas, un poco más aceptables
por la lógica humana. Ninguna de ellas prosperó. En 1921 le fue concedido al
físico judío-alemán el Premio Nobel de Física, y viviría el resto de su vida
como un mito.
La teoría de la Relatividad, qué duda cabe, es en alto grado perturbadora, y
nos viene a decir que el mundo no es como nos lo habíamos imaginado; y lo peor
del caso es que no podemos imaginarlo tal como es, porque resulta inimaginable
a nuestra mente. Se puede formular, no se puede «comprender». En comentario de
Roland Stromberg, con Einstein «desapareció del Cosmos un apoyo aparentemente
sólido y el Universo se tornó menos amistoso para la humanidad y menos a la
medida del hombre». Hemos de resignarnos a la idea de que hay realidades cuya
existencia se puede fundamentar matemática y hasta experimentalmente, pero que
no resultan fácilmente comprensibles para la inteligencia humana, y más
particularmente para la inteligencia de personas tal vez cultas, pero no
especializadas. Se dijo a mediados del siglo XX que sólo seis mentes
privilegiadas eran capaces de comprender la teoría de la Relatividad.
Realmente, la teoría de la Relatividad no está destinada a ser «comprendida»,
sino a ser formulada, aplicada y asumida.
Antes de terminar resulta conveniente aclarar dos puntos. Primero: se ha hecho
frecuente, sobre todo en nuestros tiempos, confundir relatividad con
relativismo, es decir, pensar que las teorías de Einstein demuestran la idea de
que no es posible distinguir el bien del mal, la verdad de la mentira, lo bello
de lo feo, y, en suma, que «todo es relativo». Muchos trabajos realizados
precisamente con motivo del Año Internacional de la Física destacan que la
Relatividad es precisamente más sólida, más coherente con una última realidad
absoluta, que las ideas, aparentemente tan razonables e indestructibles de la
Física Clásica. El mismo Einstein reconocía su «humilde admiración por el
ilimitado espíritu superior que se revela en los detalles que podemos percibir
con nuestra frágil y débil mente». No pretendió nunca que todo es relativo;
sino que la realidad está tan lejos de nuestra limitada comprensión humana, que
no podemos penetrarla hasta el fondo, porque es demasiado grande para nosotros.
Y segundo: el hecho de que «las cosas no son como las vemos» no afecta en
absoluto a nuestra vida ordinaria. La realidad de que vivamos en un espacio de
cuatro dimensiones no nos impide vivir y ser felices, si somos, por otra parte,
capaces de ello, en el espacio de tres dimensiones que intuimos. Que la
gravitación no sea más que una forma de aceleración, que la línea recta no sea,
a escalas macrocósmicas, la más corta entre dos puntos, no nos impide
sostenernos válidamente sobre la superficie de la Tierra o trazar una recta
perfectamente válida a escala humana. Que un hombre, a una velocidad cercana a
la de la luz pueda vivir millones de años, según su forma peculiar de medir el
tiempo, es un hecho irrelevante para nuestra existencia, puesto que nunca
podremos alcanzar esa velocidad ni medir ese tiempo. Para defendernos en este
mundo, o si llega el caso para viajar a Marte, nos basta y nos sobra la
precisión de nuestros relojes. Una cosa es la realidad total de un Universo en
gran manera misterioso e indescifrable, y por eso mismo más maravilloso que
nunca, y otra muy distinta la validez de las formas que nos sirven para
entendernos en este mundo.
§. Planck y la incertidumbre
Cuando nos referíamos al cálculo infinitesimal, recordábamos una de las famosas
«aporías» de Zenón de Elea, la de Aquiles y la tortuga. Puesto que hemos
prometido ocuparnos de otra aporía, la expondremos brevemente. El sagitario
tensa su arco y dispara una flecha. A partir de ese momento, ¿la flecha se
mueve o no? Todo el mundo dice que sí, excepto el siempre original Zenón.
Supongamos, dice, que la flecha, en un momento determinado, está en un punto
determinado. Un infinitésimo de tiempo después ¿está en el mismo punto? Si está
en el mismo punto, no se ha movido, y como el tiempo está compuesto de
infinitésimos de tiempo, la flecha no se mueve en ninguno de ellos. Por tanto,
no se mueve. Si no está en el mismo punto, y comoquiera que no hay tiempo entre
un infinitésimo de tiempo y el siguiente, la flecha tampoco se ha movido, sino
que ha dejado de existir en un punto y ha comenzado a existir en el otro.
Tampoco eso es «movimiento». Bien: si el problema de Aquiles y la tortuga queda
satisfactoriamente resuelto por el cálculo infinitesimal, el de la flecha que
deja de existir y comienza a existir en otro punto da la razón a Zenón, no con
respecto a las flechas, por supuesto, por obra de la mecánica cuántica. De aquí
que el efecto de la mecánica cuántica en el conocimiento humano sea todavía más
perturbador que el de la Relatividad.
Un día de 1900 el director de la cátedra de Física Teórica de la Universidad de
Berlín, Max Planck, dijo a su hijo al regresar a casa: «me parece que he hecho
un descubrimiento que va a cambiar el mundo». Planck intuía lo que estaba
diciendo, aunque no podía calcular exactamente sus consecuencias. Había
dedicado mucho tiempo a estudiar la «radiación de un cuerpo negro», un extremo
en que aquí no vamos a entrar, y al fin se fue dando cuenta de que todos los
valores de cualquier forma de energía que pudo medir son múltiplos de un número
pequeñísimo, que podemos enunciar como 6,626 × 10-27 erg.
El ergio es una unidad de energía (la capaz de mover un gramo un centímetro
durante un segundo). La expresión diez elevado a menos veintisiete equivale a
escribir un cero, una coma y veintiséis ceros seguidos antes de un 1. Tan
pequeñísimo valor está tan lejos de nuestra capacidad de imaginación como la
distancia a los astros más remotos. De aquí que en la vida práctica parezca
carecer de valor. ¡Pero todas las formas de energía que conocemos están
constituidas por una cantidad casi infinita de unidades de energía
pequeñísimas! A esta pequeñísima unidad de energía, por debajo de la cual no
existe ninguna otra, llamó Planck quantum. Un quantum equivale
en cierto modo, por tanto, a un átomo de energía. Muy bien: conocemos lo que es
un átomo de materia, ahora conocemos lo que es un átomo de energía: la física
clásica parece que ha llegado a su culminación.
El descubrimiento provocó las mejores sensaciones en la comunidad científica,
aunque Planck intuyó desde el primer momento que semejante constatación iba a
plantear muy serios problemas (el mismo Planck confesó, al darse cuenta de
ellos, que se sumió «en un estado de desesperación»). Y esos problemas no
sobrevinieron por la existencia de un átomo de energía, sino por el descubrimiento
de que los átomos de la materia no son tales átomos, sino que están compuestos
por partículas todavía más pequeñas. Estas partículas se fueron descubriendo
poco a poco, hasta presentar un panorama completamente nuevo. Resultó que los
electrones se movían, o varios por la misma órbita, o varios por distintas
órbitas. Niels Bohr, que por un momento creyó poder ofrecer una hipótesis
coherente con la ciencia clásica, se dio cuenta de lo que eran los «pisos» de
los electrones, y cómo pequeñas diferencias de carga provocan el salto de un
electrón de una órbita a otra. Ahora bien: los movimientos de los electrones
requieren una energía menor que un quantum. ¿Cómo explicar
semejante contradicción? La suposición más lógica, si la lógica pudiera entrar
en estas cuestiones, sería la de que el quantum está mal establecido, y hay
unidades de energía menores todavía. Pero la observación demostraba que no era
así. Bohr, y Dirac llegaron a la conclusión de que las partículas atómicas no
se mueven en el sentido que solemos dar a esta expresión: saltan, y si queremos
decirlo de forma más ajustada, dejan de existir en un punto para comenzar a existir
en otro.
Si queremos predecir estos saltos, nos sentiremos sumidos en un mar de
incertidumbres; puede saltar esta partícula o la otra, puede saltar ahora mismo
o un instante más tarde. Esos cambios de posición, que no desplazamientos, son
instantáneos, impredecibles, como si estuvieran sometidos a un sorteo. La
certeza se ve sustituida por la probabilidad, y nunca podremos saber de
antemano qué partícula va a ser la primera en dar el salto, ni tampoco sabremos
de dónde a dónde. La física clásica se basaba siempre en la absoluta
regularidad de los fenómenos, en su rigurosa previsibilidad. En la física
cuántica, acertar de antemano la verificación de un fenómeno concreto es una
simple quimera condenada al fracaso. De aquí el desconcierto de los científicos
al penetrar en el comportamiento de los componentes más pequeños de la
naturaleza, las partículas subatómicas. Estos comportamientos, ¿están
determinados por el capricho? No, en cuanto que el equilibrio del sistema se
mantiene estable estadísticamente; sí, en cuanto que no existe una norma que
determine el cómo y el cuándo de la verificación de cada fenómeno. Todo parece
funcionar más por casualidad que por causalidad.
Dando un paso más en este desconcertante camino, Werner Heisenberg observa en
1927 que si tratamos de definir el punto en que se encuentra una partícula, no
tenemos la menor posibilidad de establecer su movimiento; si, por el contrario,
intentamos establecer su movimiento, se nos convierte en una onda cuya posición
no podemos fijar nunca. Es el llamado principio de incertidumbre, una
de las más desconcertantes paradojas de la física de partículas. ¿Corpúsculo u
onda? Huygens había creído que la luz era un fenómeno ondulatorio. Newton que
era un fenómeno corpuscular, formado por pequeñísimos cuerpos que luego se
llamaron fotones. ¿Cuál es la verdad? Las dos, pretenden ahora los físicos; un
fotón se comporta como un corpúsculo cuando lo examinamos de determinada
manera, o como una onda, cuando lo estudiamos de otra. Posee una doble
personalidad; se manifiesta como dos cosas distintas, según la manera de
observarla o según el observador, pero sin embargo esas dos cosas no son más
que una. Maurice de Broglie trató de encontrar un concepto nuevo capaz de
«explicar» esta naturaleza dual. Avanzó, pero no lo encontró ¿O será tal vez,
como pretenden otros, que una partícula no es ni un corpúsculo ni una onda,
pero se comporta como esas dos cosas a la vez? No lo sabemos.
Para J. D. Bernal, la mecánica cuántica introduce en la serenidad de la ciencia
un elemento «perturbador», capaz de «producir malestar», un conjunto de
fenómenos desconcertantes que solo pueden expresarse mediante «números
mágicos», que poseen «un cierto sabor cabalístico». No hubo más remedio que
arbitrar nuevos términos y nuevos símbolos, no ya para «explicar» esos
fenómenos, que son por naturaleza inexplicables; sino tan solo para expresarlos
de alguna manera. Pero esos fenómenos contradicen los principios más
elementales de la lógica. Una partícula «está» y «no está». «Es» una cosa y
«es» la otra. Para Jean Guitton, científico y filósofo al mismo tiempo, «la
teoría cuántica nos dice que para aprehender lo real hay que renunciar a la
noción de lo real. Que el espacio y el tiempo son ilusiones. Que una misma
partícula puede ser detectada en dos puntos a la vez. Que la realidad
fundamental es incognoscible». Si la Relatividad sumió a la comunidad
científica en un torbellino de magnitudes cósmicas, la teoría cuántica la hizo
entrar en un mundo de radicales contradicciones.
§. Freud y la primacía del instinto
Desde que fueron difundidas las teorías de Darwin, una impresión pesimista,
degradante, que afectaba a la dignidad de la condición humana, se instaló en
muchas conciencias. Esta impresión quedaría potenciada con una teoría que no se
refería al origen del hombre, sino a su propia naturaleza. Sigmund Freud
(1856-1939) fue un médico nacido en Freiberg, Moravia, hoy República Checa, que
se estableció en Viena, cada vez más aficionado a la psiquiatría. Su visita al
famoso especialista en enfermedades nerviosas, Jean-Martin Charcot, en París
(1885), decidió su vocación. Exploró los más diversos sistemas curativos de las
anormalidades psíquicas, comenzando por la cocaína, que él consideraba como un
simple estimulante, hasta que se dio cuenta de sus efectos perversos. Luego se
inclinó por la hipnosis, un método entonces de moda, con el que no obtuvo los
resultados que esperaba. Al fin intuyó la práctica de la libre «asociación», el
paciente asocia una palabra, una idea, una imagen con otra, por más que no tengan
relación lógica entre sí, asociación que, según Freud, permite el análisis de
lo inconsciente. Otro medio de rastrear los repliegues del inconsciente es para
Freud el estudio de los sueños, que creyó un elemento revelador de un algo muy
oculto en la personalidad de cada uno. Su primer libro importante, El
lenguaje de los sueños (1900), defiende la importancia de lo
inconsciente como elemento definidor de la persona, mucho más revelador que el
consciente. Finalmente, Freud puso en práctica el psicoanálisis, obteniendo la
total relajación del paciente, y dejando que, por asociación o por instinto,
hablara de sí mismo o de lo que estaba pensando o imaginando. El psicoanálisis
tuvo sus horas de gloria, y aún está de moda en algunos países, especialmente americanos,
por más que muchos psicólogos sigan dudando de su eficacia terapéutica.
Freud separó como nadie había hecho hasta entonces el concepto del consciente y
del inconsciente. Lo más elemental que anida en el hombre es el deseo primario,
anterior a toda reflexión, de felicidad y placer, expresado ante todo por el
apetito sexual. En el inconsciente se encuentran también «asociaciones»,
relaciones irracionales, pero primigenias, que generan curiosos complejos, no
racionalmente explicables, pero existentes, y propios de cada individuo, que
pueden condicionar su conducta y su forma de reaccionar ante los estímulos que
recibe. Al inconsciente, centrado en torno al ello, el objeto
del deseo, se opone el consciente, que, por efecto del raciocinio, o bien de
formas y convicciones aprendidas por contacto con otras personas o mediante la
educación, trata de refrenar sus instintos, y erige un super yo que
trata de sublimar sus vivencias, desviar sus instintos hacia otros centros de
atención como la ciencia, el arte o el deporte, y obrar de acuerdo con una
ética. La obra de Freud tiende a considerar auténtico y natural el mundo del
inconsciente, mientras que el consciente tiene un componente artificioso, que,
además, ejerce una «censura»; y esta censura significa una forma de «represión»
que aparta al sujeto de lo más íntimo y elemental de su ser. Es cierto que la
represión le convierte en un ser correcto, educado y amigable. Pero es producto
de una violencia sobre lo natural. La censura es sin duda necesaria para la humana
convivencia y para el desarrollo de una cultura organizada; pero es artificial,
y algo así como una película, una careta que desfigura lo más íntimo y
profundo, y produce una apariencia falsa, de superficie, de lo que realmente es
cada ser humano. En él late, quiera que no, lo más elemental y primario de su
instinto, lo más brutal, lo más grosero, que puede manifestarse en cualquier
momento, por elevado que sea el nivel cultural de una civilización. Cuando
estalló la primera guerra mundial entre grandes potencias supercivilizadas, en
1914, Freud manifestó que el hecho era la mejor demostración de sus teorías.
La concepción freudiana introdujo nuevos planteamientos, y por más que las
técnicas del psicoanálisis hayan sido siempre discutidas, hasta ahora mismo, y
por más también que se haya tildado a su autor de poco científico, más tendente
al ensayismo que al rigor, muchas de sus intuiciones parecieron convincentes, e
hizo muy pronto grandes adeptos, como también se ganó tenaces enemigos. Su
afición a la polémica, sus afirmaciones dogmáticas y su oposición indignada a
quienes no opinaban como él favorecieron la belicosidad entre admiradores y
detractores que siempre le rodeó y todavía hoy, aunque, mitigada, le sigue
rodeando. Muchas ideas freudianas, brillantes son todas, porque su autor era un
magnífico y sugestivo escritor, dotado de una especial capacidad de persuasión,
son hoy aprovechables, y han servido para nuevos planteamientos en el campo de
la psicología y la psiquiatría. Otras son teorías, ensayo tan sugestivo como
sin fundamento suficiente, y por naturaleza discutible, aparte su pesimismo,
que trata de dejar en primer plano los aspectos más innobles o más «animales»
de la naturaleza humana. No deja de ser curioso que las doctrinas marxistas y
neomarxistas, que pueden parecer de naturaleza radicalmente distinta, hayan
exaltado la figura y la doctrina de Freud, hasta mitificarla. El punto común
reside en la idea de que el hombre no aspira más que a satisfacer sus
necesidades materiales; y, en la demanda de la satisfacción de este deseo, se
encuentra siempre con la oposición de las estructuras establecidas, que ejercen
una «censura» e imponen una «represión». También las distintas ideologías
libertarias y permisivistas encontraron en muchas palabras de Freud un
excelente apoyo. No cabe duda de que los entusiastas freudianos llegaron mucho
más lejos que Freud, y exageraron sus postulados.
Pero siempre quedó la idea de un hombre cuyos instintos son más auténticos y
más determinantes que sus actos racionales, un hombre cuya libertad es coartada
continuamente, y del cual desaparece una distinción clara entre el ser y el
deber ser, entre el instinto y la racionalidad, entre el bien y el mal. Y la de
que ese hombre, en el fondo, no es libre.
§. La «angustia de la ciencia»
El brusco cambio de paradigma que supone la revolución científica de comienzos
del siglo XX representa un tránsito decisivo, en ocasiones dramático, en las
actitudes y en las concepciones de la realidad, que afecta no solo a los
hombres de ciencia, sino por su difusión en el seno de una sociedad cada vez
más culta y desarrollada, a todo el mundo occidental, y originó una crisis de
conciencia de vastas proporciones en la mentalidad de los hombres de Occidente.
Este tránsito se opera en las siguientes direcciones. Se pasa:
1. De la fe indiscutible en la ciencia propia de los tiempos positivistas y
realistas, a la duda dramática en sus principios.
2. De un ambiente de seguridad a otro de incertidumbre.
3. De la afirmación de la razón como fuente de certeza a la conciencia de lo
irracional.
4. Del dogma de un progreso necesario y asegurado a la idea de una decadencia
(el movimiento «decadentista», La Decadencia de Occidente).
5. De la creencia en la correspondencia entre el sujeto cognoscente y el objeto
conocido a la de la incognoscibilidad de las cosas y la soledad del yo.
6. Del orgullo de nuestra civilización a un complejo de inferioridad de
Occidente.
El nuevo panorama, en sus líneas generales, fue visto con desolación por una
generación propensa, por lo demás, al pesimismo. Uno de los grandes
historiadores del primer tercio del siglo XX, Johan Huizinga escribía: «La
ciencia presenta hoy un panorama para cuya comprensión al parecer no está
preparado el organismo humano. Y este panorama, de consiguiente, produce un
efecto de agobiadora angustia, que llega hasta la desesperación». Para Arthur
Koestler, «la relojería mecánica que servía de modelo al mundo del siglo XIX ya
no es más que un montón de chatarra».
Los científicos no presentaban por entonces un panorama más optimista. F. H.
Bradley: «La naturaleza en sí no tiene realidad... El espacio es solo una
relación entre términos que nunca pueden encontrarse». John Wheeler: «Todo lo
que conocemos procede de un océano infinito de energía que tiene la apariencia
de la nada». Niels Bohr, que por un tiempo trató de encontrar una conciliación
entre la física clásica y la moderna, acabó confesando que «nada tiene sentido,
y no tiene sentido tratar de encontrarlo». Y así contestó a un científico que
vino a mostrarle una nueva hipótesis: «Su teoría es insensata, mas no lo
suficiente para ser verdadera». Fue aquella la actitud que Gastón Bachelard
definió como la angustia de la ciencia.
Capítulo 12
Aspectos de la ciencia de hoy
Contenido:
§. El deslumbrante panorama del Cosmos
§. El mundo planetario
§. El mundo estelar
§. La galaxia y las galaxias
§. La expansión del Universo y el «Big Bang»
§. El universo de lo ínfimamente pequeño
§. La desintegración nuclear
§. Algo sobre la energía nuclear
§. Una central nuclear
§. La fusión termonuclear
§. La propulsión por reacción y la conquista del espacio
§. La medicina del siglo XX
§. Los antibióticos Los trasplantes
§. Los misterios de la genética desvelados
§. El imperio de la electrónica
§. La química del silicio
§. Transistores y chips
§. La televisión
§. El asombroso mundo de la informática
En el primer cuarto del siglo XX ocurrió un cambio
del paradigma de la realidad física que resultó, como otros sobrevenidos a lo
largo de la historia, traumático y desconcertante. Como al mismo tiempo se
operó un fenómeno de tránsito a lo irracional en otros muchos campos de la
cultura propia del hombre de Occidente, la nueva concepción del mundo resultó
en alto grado perturbadora. Todo ello quedó potenciado por el desencadenamiento
de la primera guerra mundial (1914-1918), un enfrentamiento brutal entre países
ultracivilizados (y sin un motivo evidente) que ya muchos juzgaban imposible, y
que constituyó la mayor catástrofe bélica que hasta entonces recordaban los
siglos. En 1918-1923 publicó Oswald Spengler La Decadencia de
Occidente, un libro de muy alta difusión en los ambientes cultos y que
tuvo una repercusión muy especial en las conciencias.
No faltan motivos para suponer que el mundo siguió loco. Se habla de «los locos
años veinte» (en otras partes, especialmente en España, por la prosperidad
económica, «los felices», siempre desenfadados); vinieron luego la Gran
Depresión, los totalitarismos y la segunda guerra mundial, más espantosa aún
que la primera, pero que ya no pilló a nadie por sorpresa. Con todo, llegó un
momento en que el pesimismo radical fue dejando de estar de moda. La segunda
mitad del siglo XX, aun con los problemas de la guerra fría, el temor a una
catástrofe nuclear, el surgimiento de nuevas potencias, o de enfermedades
nuevas, no puede calificarse exactamente de angustiada; y sobre todo no parece,
al menos en el campo a que aquí nos hemos venido refiriendo, que pueda seguir
hablándose de una «angustia de la ciencia». Y esto, sin duda por dos razones:
a), el hombre occidental, superado el trauma que significó despertar del sueño
de la cómoda seguridad de la época positivista, quedó curado de espantos, y se
ha ido haciendo a la idea de que el mundo que nos rodea está lleno de
realidades incomprensibles para la lógica humana; pero que esas realidades
existen, pueden formularse, e incluso en muchos casos pueden utilizarse; y b)
porque la entidad profunda del universo no afecta a la concepción del mundo
particular en que nos desenvolvemos y de la vida propia del hombre de la calle,
porque todo puede marchar con independencia de que lo comprendamos a fondo. Al
fin y al cabo, el hombre fue capaz de adaptarse poco a poco si no a la
comprensibilidad, sí a la existencia de los nuevos paradigmas, sin abandonar
por ello la comodidad de los paradigmas desechados, que siguen siendo válidos
en la vida ordinaria. Por otra parte, aunque admitimos los puntos fundamentales
de la nueva faz del mundo físico, tomamos su filosofía con una cierta dosis de
indiferencia, porque a la actitud de angustia existencial de la primera mitad
del siglo XX ha sucedido otra actitud, la posmoderna, que evita
intranquilizarse por lo que no atañe directamente a la vida y a los intereses
de cada uno. Tampoco sabemos muy bien si lo que hemos descubierto es
definitivo, o quedará matizado por nuevos descubrimientos aún por realizar. La
impresión de algunos científicos es la de que nos encontramos en una etapa de
transición. Otros piensan que nos encontramos ante un logro en cierto modo
definitivo: a ello nos referiremos al final. Pero de una forma u otra,
actitudes de «desesperación» como las que hemos advertido en determinados
científicos e intelectuales de hace casi un siglo, no están ahora de moda.
Ahora bien, y esto es lo que ahora mismo debe interesarnos, un hecho está
claro: la ciencia del siglo XX, sirviendo muchas veces a la más sofisticada
tecnología, en otras ocasiones sirviéndose de ella, ha avanzado hasta extremos
sorprendentes, que en otro tiempo hubiéranse considerado milagrosos u obra de
extrañas brujerías. Aunque la ciencia clásica llegó a su ápice en el siglo XIX,
el avance experimentado en la vigésima centuria parece casi sobrehumano. Lo que
el hombre ha llegado a saber no cabe entero en el entendimiento, en la
capacidad del más insigne de los sabios. Leibniz fue un genio del saber
universal: filósofo, jurista, diplomático, calculista, geómetra, físico,
teólogo. Todavía en la época de la Ilustración encontramos hombres de muy
diversos saberes. Los sabios positivistas tendieron a especializarse en una
rama del conocimiento, pero poseían la suficiente cultura como para codearse
con buenos conocedores de otras ramas de la ciencia. En el siglo XX, el volumen
de lo conocido obliga a avanzar en un frente muy reducido de cada sector del
saber: lo que se gana en profundidad es preciso perderlo en extensión. Hemos
llegado a una época de superespecialización. Se trabaja en equipo. Cada
científico no puede saber «todo» lo que saben los otros... ni siquiera sus
compañeros. Y sin embargo, aquí radica el problema, no es posible dominar un
estrecho terreno del saber sin conocer otros muy diversos. El físico ha de
emplear a fondo las matemáticas. El químico ha de tener en cuenta la física de
partículas. El biólogo ha de manejar con soltura la estadística. El cosmólogo
que estudia las más enormes extensiones de lo conocido ha de penetrar en la
realidad de lo más Ínfimamente pequeño para empezar a explicarse algo. De aquí
que para avanzar en la ciencia sea preciso un esfuerzo heroico por dominar la
especialidad sin abandonar conocimientos colaterales que resultan
imprescindibles. Con todo, los logros han alcanzado un nivel abrumador. No
sabemos todavía hasta dónde podrá alcanzar el genio del hombre.
A los protagonistas de la vida ordinaria nos cuesta mucho trabajo meternos en
el meollo del científico y en los inextricables problemas que se encuentran en
la necesidad de resolver. Estamos por lo general mucho más habituados a las
conquistas tecnológicas, sobre todo las más generalizadas en la existencia de
todos los días, que a los hallazgos teóricos. Por escasos que sean nuestros
conocimientos científicos, manejamos con soltura el televisor, la calculadora,
el ordenador, el teléfono móvil o el microondas. No nos interrogamos demasiado
sobre los principios, sino sobre las aplicaciones, a las que sabemos extraer
partido sin particular esfuerzo: si algo se estropea, lo dejamos en manos de
los técnicos, «que son los que entienden». Basta que entiendan unos pocos. Pero
esta actitud, reconozcámoslo también, no quiere decir que «el hombre de la
calle», como suelen llamarle con frecuencia los científicos, se desinterese por
los asuntos cruciales de la ciencia. Hay temas que fascinan a casi todo el
mundo: la conquista del espacio, el descubrimiento de planetas habitables (y la
posibilidad de que existan «extraterrestres»), el «Big Bang», la fisión del átomo,
las nuevas energías, la ingeniería genética. El interés por la ciencia, o por
el progreso en algunos campos de la ciencia es casi tan grande como en los
tiempos del positivismo, y de aquí la publicación de revistas no
especializadas, asequibles a todo el mundo, de libros de vulgarización, o de
artículos científicos en la prensa ordinaria. Quizá este interés del público
haya tenido su parte de culpa en una actitud poco deseable por parte de algunos
científicos: el afán de adelantarse, de dar a conocer su presunto
descubrimiento antes de que su estudio haya quedado constatado, el afán de
sensacionalismo. Pero el interés de la gente por la ciencia está plenamente
justificado. Es bueno que se mantenga, que no decaiga jamás.
Resulta materialmente imposible tocar todos los temas que se refieren a la
ciencia del siglo XX: harían falta para ello muchos libros. Es preciso
limitarse a unos cuantos campos, los que puedan parecemos más representativos
de nuestro tiempo. Con esta limitación podremos trazar cuando menos las líneas
más destacadas del avance del hombre en esa maravillosa aventura comenzada en
los tiempos remotos, que se ha mantenido a lo largo de los siglos y que aún no
sabemos a qué extremos puede llegar, como es la búsqueda de nuevos
conocimientos científicos, y de nuevas aplicaciones de nuestro conocer.
Lo que el hombre del siglo XX ha llegado a saber del Universo que le rodea
depende, más que de la construcción de enormes y fabulosos telescopios, que
también cuenta, de tres factores complementarios:
1. El poder «ver» en todas las frecuencias del espectro. La vista humana, como
ya sabemos, solo puede alcanzar una fracción pequeñísima de ese espectro,
aunque esa fracción nos resulta perfectamente útil para agenciárnoslas en la
vida ordinaria. Hoy disponemos de instrumentos que nos permiten observar en el
infrarrojo cercano, el infrarrojo lejano, las ondas submilimétricas, las
milimétricas, las centimétricas, las de radar, por ejemplo, o las métricas, u
ondas radio. Por otro lado, podemos observar en el ultravioleta cercano, el
lejano, la frecuencia de rayos X o la de rayos gamma. Esta facultad de ver
fuera del visible nos ha descubierto un panorama fascinante.
2. La posibilidad de enviar al espacio sondas de observación. No solo hemos
lanzado naves espaciales, tripuladas o no, que han permitido llegar a otros
mundos y obtener información de ellos, sino que contamos también con sensores
colocados en órbita terrestre, o más lejos, que pueden observar sin las
dificultades que interpone la atmósfera terrestre. Sin estos instrumentos que
trabajan fuera de nuestro planeta no hubiéramos llegado a saber mucho de lo que
hoy conocemos.
3. El estudio de las más diminutas partículas y radiaciones que constituyen la
base de la materia y de la energía. Parece un contrasentido, pero la verdad es
que sin un conocimiento preciso de lo ínfimamente pequeño no hubiéramos podido
saber tantas cosas acerca de lo inmensamente grande; como, viceversa, el
conocimiento de las realidades más profundas del Cosmos nos ha permitido saber
de la existencia de partículas subatómicas que sin ese conocimiento no
hubiéramos llegado tal vez ni a adivinar. Con todos esos medios y un estudio
continuado y tenaz, el hombre ha logrado desentrañar la realidad de un Universo
en verdad fascinante.
A fines del siglo XVIII fue descubierto un séptimo planeta, Urano. A mediados
del XIX, el octavo, Neptuno. En 1930, el noveno, Plutón. Un joven ranchero de
Arizona, aficionado a la astronomía, Clyde Tombaugh, logró emplearse en el
observatorio de Flagstaff, y en varias placas fotográficas diferentes logró
identificar el nuevo planeta que se buscaba en la región de Géminis. Se le
llamó Plutón. Hoy ya no es seguro que los planetas sean nueve, ni que Plutón
sea un planeta. Por de pronto, su hallazgo fue una decepción: no era un
gigante, como los que van de Júpiter a Neptuno, sino un cuerpo helado, más
pequeño que Mercurio, incluso que la luna, que recorre una órbita bastante
excéntrica. A fines del siglo XX y comienzos del XXI se han descubierto
centenares de cuerpos lejanos y helados, de órbita excéntrica, algunos de ellos
más grandes que Plutón. Se les llama «objetos transneptunianos», y a ninguno de
ellos se le ha reconocido la categoría de planeta. En ese caso, y pese a la
tradición que nos han enseñado en el colegio de «los nueve planetas del sistema
solar», resulta que, o admitimos centenares de planetas, o destituimos a Plutón
de esa categoría. No vale la pena hablar aquí de las encendidas polémicas que
con este motivo se han suscitado en el seno de la Unión Astronómica
Internacional [8] . Lo
cierto es que en el futuro se impone una definición de lo que es un planeta, y
una clasificación más coherente de los planetas rocosos (de Mercurio a Marte),
los planetas gaseosos (de Júpiter a Neptuno), los asteroides, los objetos
transneptunianos, y los cometas, muchos de los cuales son más parecidos a los
objetos transneptunianos de lo que hasta hace poco se admitía: sea cual fuere
el concepto de planeta que se haya de adoptar.
Desde 1969, naves espaciales, tripuladas o no, se han posado en la Luna, Venus,
Marte y el satélite de Saturno, Titán; otra ha penetrado, y se ha destruido, en
la atmósfera de Júpiter; otras han recogido muestras de dos cometas y un
asteroide, y varias se han acercado a Mercurio, Júpiter, Saturno, Urano y
Neptuno, aparte de las que están analizando de lejos el sol. Dos naves han
abandonado ya el sistema planetario. Nuestro conocimiento de la realidad física
de los planetas, su composición, su atmósfera, su temperatura, sus formaciones
y paisajes, ha crecido de forma sorprendente, aunque quizás el descubrimiento
más importante ha sido, por valor de contraste, el de la realidad diferencial
de nuestro propio mundo, el planeta Tierra y sus increíbles propiedades, únicas
hasta el momento en todo el Universo conocido, que le hacen susceptible de
albergar vida, y vida inteligente. El milagro de ese «planeta distinto» que es
la Tierra resulta muy difícil de explicar, pero lo cierto es que está ahí, o,
más exactamente, está aquí.
La física estelar ha sido durante la mayor parte del siglo XX el campo
predilecto de la astrofísica. Si en 1900 se conocía la distancia a unas 60
estrellas, hallada por métodos geométricos, a lo largo de la última centuria ha
sido posible calcular la distancia a miles de estrellas por métodos físicos,
por ejemplo la relación masa-luminosidad. Conocida la masa de una estrella,
conocida su luminosidad; y, conocida su luminosidad, conocida su distancia. El
periodo de determinadas estrellas variables, como las cefeidas, permitió más
tarde hallar distancias aún mayores. En general, se determinó el tamaño de
nuestra Galaxia, el sistema al cual pertenece nuestro sol, en un orden de más
de cien mil años-luz, existiendo en ese inmenso conjunto alrededor de
doscientos mil millones de estrellas: unas gigantes, otras relativamente
enanas, unas azules supercalientes, otras rojas relativamente frías. Los tipos
de estrellas quedaron claramente configurados.
Pero incomparablemente más importante fue el conocimiento de la fuente de la
energía estelar. Las estrellas tienen en su superficie una temperatura de miles
de grados, y en su interior deben alcanzar millones de grados. Ninguna
explicación física era suficiente para dar cuenta de tan fabulosa energía. Fue
necesario recurrir a la física de partículas para explicarse lo que sucede en
el corazón de las estrellas. Fueron H. Bethe, C. V. Weiszacker y G. Gamow los
que teorizaron que en una estrella mediana como el sol la energía se produce
mediante un proceso de fusión termonuclear, en el cual el hidrógeno se
transforma en helio mediante la acción catalítica del carbono y el nitrógeno.
Este proceso en cadena desencadena temperaturas del orden de catorce a veinte
millones de grados. El sol es así un horno nuclear capaz de seguir «ardiendo»
por espacio de miles de millones de años. Cuando el hidrógeno se ha agotado, y
en cambio es ya alta la tasa de helio, arranca la fusión termonuclear del
helio, y la temperatura del núcleo puede llegar a más de cien millones de
grados: el sol, o la estrella que llega a ese estadio, se hincha monstruosamente,
hasta transformarse en una gigante roja; por supuesto, planetas como la Tierra
quedarán entonces completamente abrasados. Agotado el helio, el sol, u otra
estrella de su tipo, colapsarán sobre sí mismas, y dejarán en su entorno lo que
se llama una «nebulosa planetaria». Otras estrellas de gran masa tendrán un fin
mucho más dramático: el proceso termonuclear implicará otros elementos cada vez
más pesados, hasta que al final la estrella estallará en una catástrofe
inmensa, en forma de «supernova»: al final quedará una diminuta estrella de
neutrones, superdensa, y una enorme nebulosa en torno.
Al fin fue conocido el secreto de las estrellas. También se pudo teorizar
entonces que las estrellas nacen, evolucionan y mueren: a diferencia de los
seres vivos, cuanto mayor sea su masa, menor es la duración de su vida, ya que
las estrellas gigantes «viven» muy intensamente. Hoy se han comprendido de una
manera bastante satisfactoria los procesos que dan lugar al nacimiento, la
evolución y muerte de una estrella. Ya Kant y Laplace intuyeron que las
estrellas se forman por la contracción de una nebulosa. Solo en el siglo XX fue
posible explicar cómo esta contracción se opera precisamente en las zonas más
frías de esa masa de gases, donde abunda el hidrógeno molecular. Una vez
desencadenado el proceso de colapso de un sector de la nebulosa, este proceso
ya no se detiene. Y ya es sabido que cuando un gas se comprime, se calienta.
Llega así un momento en que en el centro de la masa de gas que se contrae, la
temperatura alcanza millones de grados, y es entonces cuando arrancan las
reacciones nucleares, que mantienen «viva» la estrella durante muchísimo
tiempo. Ya hemos advertido que cuanto más masiva es una estrella, más corta es
su vida y pasa por más vicisitudes, hasta que estalla como una supernova. En
tanto se expande una nube de gases, el núcleo queda reducido a una «estrella de
neutrones», de solo pocos kilómetros de diámetro, pero de una densidad
espeluznante, que gira a una velocidad angular no menos portentosa; imaginemos
un cuerpo de ocho kilómetros de diámetro girando a cien vueltas por segundo:
¡realmente no podemos imaginarlo!, pero la observación nos demuestra que es y
puede ser así. Para estrellas de masa muy grande el desenlace es todavía más
asombroso: lo que se forma no es una estrella de neutrones, sino un agujero
negro, uno de los cuerpos más asombrosos teorizados por la física. La
densidad de un agujero negro tiende a infinito, de suerte que ninguna forma de
materia o de energía puede escapar de allí: ni siquiera la luz, por eso ese
«agujero» se considera negro. En él se rompen todas las leyes de la física,
hasta el espacio mismo queda «roto». Imaginemos un granito de arena que posee
un peso tan grande como toda la masa del Pirineo: nos habremos quedado ridículamente
cortos.
Las nubes formadas por restos de supernovas pueden condensarse a su vez y
formar, al cabo de muchísimo tiempo, una nueva estrella. Muchas estrellas,
entre ellas nuestro sol, son de segunda o tal vez de tercera generación. No
deja de resultar sobrecogedor pensar que el sol, y con él nuestro mundo,
incluso nuestra propia realidad corporal, como materia que es, contiene, por
ejemplo, hierro (en el cuerpo humano, sobre todo en la sangre, hay unos pocos
gramos de hierro). Y el hierro solo puede sintetizarse en una supernova. Pensar
que, en nuestra materialidad, somos «polvo de estrellas» nos obliga a
reflexionar sobre la grandeza de la Creación en su conjunto.
§. La Galaxia y las galaxias
Desde los tiempo de Galileo y de Huygens se sabe que la Vía Láctea, esa cinta
plateada, dotada de una especial suavidad, que se distingue en las noches
oscuras, está formada por miles o millones de estrellas muy lejanas. Puede
parecer una especie de cinturón que rodea a las demás estrellas; pero poco a
poco se fue intuyendo que este efecto es un fenómeno de perspectiva. Ya Kant
intuyó que el Universo tiene forma de disco, y la Vía Láctea no es sino la
proyección de la visual hacia los bordes del disco. Este esquema fue aceptado
por la mayoría de los científicos del siglo XIX, incluso cuando lord Rosse,
trabajando con un enorme telescopio, hacia 1850 descubrió las primeras
«nebulosas espirales». Durante un tiempo aquellos extraños objetos fueron
considerados, efectivamente, como nebulosas, masas de gases, probablemente en
rotación. No fue hasta entrado en el siglo XX cuando se descubrió en ellas la
presencia de innúmeras estrellas, sin duda a distancias incalculables. En 1908
Henrietta Leavit descubrió estrellas variables cefeidas en la Nube de
Magallanes, un conjunto de cientos de millones de estrellas visible desde el
hemisferio sur como una misteriosa nube celeste, que extrañó a los primeros
exploradores de Sudamérica. Las cefeidas son unas estrellas cuya luminosidad es
proporcional a su periodo. Y conocido su periodo, conocida su luminosidad, y
por tanto su distancia. La Nube de Magallanes podía estar a unos 200.000
años-luz, fuera ya del ámbito de la Galaxia. Luego, con gigantescos
telescopios, fue posible encontrar cefeidas en lejanas nebulosas en espiral, y
por tanto calcular su distancia: no se trataba de nebulosas, sino de galaxias
situadas a millones de años-luz de distancia. Se empezó a hablar de «otros
universos».
Y fue así como los científicos, entre ellos Harlow Shapley (1885-1972), se
dieron cuenta de que nuestra Galaxia, o nuestro propio universo, posee, como
otros, una estructura espiral, de varios brazos enroscados. Curiosamente, y
quizá afortunadamente, nuestro sol es una estrella situada en una zona
interbrazos, tranquila, poco propensa a perturbaciones, y que goza, digamos, de
«buena vista» hacia el entorno. Nuestra Galaxia posee un bulbo central formado
por estrellas viejas, y una serie de brazos, de cinco a siete, que se extienden
sobre un espacio de más de cien mil años-luz. En la Galaxia puede haber
doscientos mil millones de estrellas, algunas de ellas con planetas, racimos o
cúmulos estelares, nebulosas que un día pueden generar nuevos soles, u otras
que son remanentes de supernovas que han estallado. La Galaxia, bastante bien
conocida en sus dimensiones y estructura a fines del siglo XX es un conjunto
portentoso de soles, cuerpos oscuros, masas de gases luminescentes, estrellas
de neutrones, agujeros negros, emisores de rayos X o de rayos gamma, todo un
universo cuyo estudio completo llevará tal vez muchos siglos..., pero no es más
que una galaxia.
A millones, cientos de millones o miles de millones de años-luz de distancia
existen otras galaxias, más o menos tan grandes como la nuestra. Desde los años
30 comenzó a construirse el que entonces fue el observatorio más grande del
mundo en Mount Palomar, California, aunque hasta después de la segunda guerra
mundial no llegó a prestar servicios útiles. Astrónomos como Harlow Shapley
(1885-1972) y Edwin Hubble (1889-1953) clasificaron las galaxias. No todas son
espirales. Algunas son elípticas, generalmente las mayores, otras son barradas,
algunas irregulares. Hubble descubrió una realidad portentosa: cuanto más débil
se muestra la luz de una galaxia (y por tanto, lógicamente cuanto más lejana
está), más fuerte es el corrimiento de las rayas espectrales al rojo: esto
significa alejamiento. De aquí se ha colegido el principio de expansión del
Universo. Por otra parte, las galaxias no se distribuyen aleatoriamente por el
espacio: generalmente están agrupadas en cúmulos de galaxias (la nuestra
pertenece a uno de ellos) y los cúmulos se agrupan a su vez en supercúmulos.
Cada uno de ellos puede contener miles de millones de galaxias (y no olvidemos
que cada galaxia puede contener miles de millones de soles). No se sabe si los
supercúmulos son la unidad de agregación más grande del Universo. Se calcula
que el «horizonte cósmico», allí donde puede llegar nuestra capacidad de
mensura, se encuentra más o menos a quince mil millones de años-luz.
§. La expansión del Universo y el «Big Bang»
Ya Humason, por 1930, dedujo el alejamiento de las galaxias valiéndose de
medios ópticos; muy poco después, Hubble se dio cuenta de que este alejamiento
es tanto mayor cuanto más distante es una galaxia; para aquellas que apenas pueden
columbrarse en las placas más sensibles obtenidas con los telescopios gigantes,
la velocidad de recesión es de miles de kilómetros por segundo: el Universo
entero está en expansión, y la tasa de esta expansión aumenta con el espacio.
El hecho está conforme con las teorías de Einstein, de acuerdo con las cuales
el Universo tiene que expandirse o contraerse: ocurre que se expande. En
realidad, quizá no sea lo más correcto afirmar que las galaxias se alejan unas
de otras, sino que es el espacio el que se dilata progresivamente, y por tanto
aumenta la distancia entre sus diversos puntos. Para un observador situado en
nuestra Galaxia, son las demás galaxias las que se alejan; para un observador
situado en otra galaxia es la nuestra la que se aleja, junto con las demás, y
tanto más aprisa cuanto más lejana. Los cosmólogos empezaron a hablar de que el
Universo entero se encuentra en un estado de «explosión».
Esta idea sugirió inmediatamente otra: si pudiéramos volver la película del
tiempo del revés, el espacio se estaría contrayendo, es decir, cabe suponer que
sus dimensiones fueron tanto menores cuanto más lejos en el tiempo pasado. Hace
miles de millones de años, el Universo era menor que ahora. De ahí a llegar a
concebir un «tiempo cero» solo había un paso, aunque ese paso había que darlo.
Fue el teólogo y cosmólogo belga G. Lemaître el que por los años 30 teorizó la
hipótesis del «átomo primitivo», de acuerdo con la cual la Creación fue puntual
e instantánea. Con el tiempo, los cosmólogos fueron erigiendo distintos modelos
teóricos, sin apartarse nunca demasiado de la idea inicial. En 1948 G. Gamow
describió bastante bien lo que puede imaginarse que fue esta «explosión
inicial». Curiosamente, fue un científico contrario a esa teoría, Fred Hoyle,
el que definió burlescamente a esa explosión como «Big Bang». Los sabios, que
tienden a buscar nombres graciosos para expresar lo más sublime, quizá por ley
de compensaciones, aceptaron la expresión, que aún hoy perdura. En 1965 A.
Penzias y R. Wilson descubrieron la radiación de fondo de microondas, que se
consideró el «eco» de la gran explosión. Por los años 70, S. Hawking teorizó el
inicio de un tiempo finito. Por los años 80, el satélite captador de altas
energías COBE pudo obtener imágenes virtuales del fondo de microondas, que se
considera testigo de la Gran Diferenciación posterior al Big Bang.
Las teorías sobre el Big Bang y la ulterior expansión del
Universo (incluyendo lo que se llama «inflación») son demasiado complejas como
para expresarlas aquí. Una vez producida la gran explosión inicial, se estima
que hubo un periodo de tiempo cortísimo, pero decisivo, el tiempo de
Planck, que se estima de 10-35 segundos, del cual no podemos decir
absolutamente nada. A partir de ese momento es posible teorizar la existencia
de una masa enorme de materia-energía, equivalente a toda la masa y toda la
energía del Universo reunidas, a altísima densidad y fabulosa temperatura, en
vertiginosa expansión. En un principio el Universo naciente era absolutamente
simétrico, sin diferenciación alguna; las cuatro grandes fuerzas de la
naturaleza, la gravitatoria, la electromagnética, la nuclear fuerte y la
nuclear débil constituían una única fuerza (teoría de la Gran Unificación);
conforme se expandía aquella realidad primigenia, comenzaron a existir las
primeras partículas y se produjo un fenómeno físicamente muy difícil de
explicar, pero absolutamente necesario para que hoy existan «cosas»: la ruptura
de la simetría; se diferenciaron las partículas, se separaron las fuerzas
fundamentales y sobre todo, se diferenciaron la materia y la energía. A partir
de entonces, y sin que el Universo dejara de expandirse, la materia, empujada
por la energía, se dividió en nubes discretas: es decir, la propia materia se
transformó en una serie de formas distintas; se combinaron los átomos,
aparecieron los primeros elementos (comenzando por el más fundamental, el
hidrógeno), y aquellas nubes derivaron tal vez en los primeros supercúmulos de
galaxias. Hay teorías que suponen que formas pequeñas se agregaron para
constituir otras mayores, y otras pretenden que ocurrió precisamente lo
contrario. De allí derivaron los astros y conjuntos de astros, y al cabo de
mucho tiempo sobrevino la realidad física tal como la conocemos. La edad del
Universo, desde su origen a la actualidad, puede ser similar al horizonte
cósmico, entre doce y quince mil millones de años. El origen y la historia del
Universo es tan impresionante como su propia entidad.
§. El universo de lo ínfimamente pequeño
«La realidad, comentaba Einstein, cuanto mejor la conocemos, más complicada
resulta ser». Si en lo inmensamente grande la Tierra no es el centro de
Universo, si el sol tampoco es el centro del Universo, resulta que tampoco el
conjunto de cientos de miles de millones de soles, la Galaxia, es el centro del
Universo, puesto que existen por lo menos cientos de miles de millones de
galaxias. A todo esto, el Universo no tiene centro. Un desconcierto similar fue
sorprendiendo a los científicos cuando se adentraron en el mundo de lo ínfimamente
pequeño. En la fisicoquímica clásica se pudo dividir la materia en partículas,
moléculas y átomos. Luego resultó que los átomos no son tales, sino que están a
su vez compuestos por «partículas», o más exactamente por partículas
subatómicas. Quizá de forma incongruente, la palabra partícula («partecita»)
fue tomada para designar dos realidades pequeñas distintas, pero una
incomparablemente más pequeña que otra. Hoy ya apenas se emplea esa palabra
para designar la parte más pequeña desde el punto de vista mecánico: el serrín,
la harina; sino que la voz «partícula» está relacionada con el mundo del átomo
y la mecánica cuántica. Hemos llegado al mundo subatómico, tan complejo y tan
difícil de entender como el propio universo enorme. Ahora ya la vieja asignatura
de fisicoquímica suele llamarse física de partículas.
El átomo de hidrógeno, el elemento primario y más abundante en el Universo,
posee un diámetro de 10-10 m, (es decir, un valor que se escribe con un uno
dividido entre un uno seguido de diez ceros). Una gota de agua contiene mil
trillones de átomos. El átomo resulta así tener un tamaño pequeñísimo; pero que
resulta prácticamente nulo si lo comparamos con su masa, que es de 1,7 × 10-27 g.
Esto significa que su densidad es tan increíblemente baja, que el átomo tiene
que ser casi hueco, o, si queremos decirlo de forma más correcta, está casi
vacío, como el inmenso espacio interestelar está casi vacío también. Sería
imposible ponernos a imaginar el tamaño, si es que de tamaño puede siquiera
hablarse, de las partículas subatómicas. Lord Rutherford (1871-1937) formuló el
primer modelo atómico, sobre la base de un núcleo constituido por protones, de
carga positiva, y una serie de electrones de carga negativa, que parecen girar
alrededor del núcleo. Ya en el siglo XX, Rutherford comprendió que el núcleo
era más pesado que lo que podía representar su carga en protones, y fue así
como postuló la existencia de otras partículas en el núcleo, con masa pero sin
carga, que denominó neutrones. Realmente, el neutrón no fue identificado hasta
las experiencias de James Chadwick, en 1932.
Pero ya en 1913 Niels Bohr (1885-1962), que había partido de los modelos de
Rutherford, comprendió la necesidad de recurrir a la mecánica cuántica para
explicar el «movimiento», es decir, los saltos instantáneos e impredecibles, de
los electrones con respecto al núcleo; y más tarde la existencia de «pisos» u
«órbitas» distintas de los electrones, y la posibilidad de que una partícula
«salte» de un «piso» a otro [9] . El
átomo de hidrógeno tiene un electrón, el de helio tiene dos... el de uranio
tiene 92; pero no caben todos en la misma órbita. La primera órbita o capa solo
puede contener dos electrones; en la segunda caben hasta 8; las órbitas
sucesivas pueden contener más, pero de acuerdo con una distribución que aquí
sería enojosa de concretar para los no entendidos. Los elementos más pesados
son aquellos que contienen más electrones, en un número mayor de órbitas o
pisos, hasta que, por la dificultad de mantener una estructura tan compleja, se
hacen inestables. Los cuerpos radiactivos son siempre elementos de escasa
estabilidad.
No todo se queda en protones, electrones y neutrones, aunque son éstas las
partículas más frecuentes. En 1931 Paul Dirac postuló la existencia de una
nueva partícula elemental, el positrón, dotado de la misma masa que el
electrón, pero con carga positiva [10] . Casi
al mismo tiempo Wolfgang Pauli predijo la existencia del neutrino, una
partícula mucho más difícil de detectar, puesto que no tiene masa ni carga. Sin
embargo, en 1967, Raymond Davies llegó a establecer un detector de neutrinos en
el fondo de una mina de Dakota. Hoy existen otros detectores de neutrinos,
siempre enterrados a gran profundidad, como el que se encuentra a 3.000 m. bajo
el Mont Blanc o en Kamiokande, Japón. Y se sabe que hay varias clases de
neutrinos, algunos con alguna masa, aunque mínima: los más pesados son 200.000
veces más ligeros que un electrón. El neutrino carente de masa, como partícula
«libre» que es, puede atravesar la Tierra sin el menor obstáculo. En 1935,
Hideki Yukawa postuló la existencia del mesón, una partícula
mucho más pesada que el electrón, pero de vida muy corta: puede durar no más
que una millonésima de segundo; pero que no deja de tener su importancia. En
1947 se comprobó que puede ser de dos tipos, el pión y el muón. Hoy
se conocen multitud de partículas exóticas, algunas de ellas «predichas», valga
la impropiedad de la palabra, para los primeros instantes de la Creación,
inmediatamente después del Big Bang, y luego desaparecidas, o bien inasequibles
a nuestra experiencia de hoy. En general las partículas subatómicas pertenecen
a dos tipos muy distintos: los hadrones, sometidos a la fuerza
nuclear fuerte, como son el protón, el neutrón, el hiperón, el muón; y los
leptones, sometidos a la fuerza nuclear débil. Sin entrar en honduras,
cualquier persona medianamente culta se da cuenta de que es mucho más fácil
vencer la fuerza débil (en un laboratorio) que la fuerza fuerte (una
apocalíptica reacción nuclear).
El mundo de las partículas subatómicas se ha multiplicado así casi hasta el
infinito, y más si admitimos la existencia de las antipartículas, simétricas de
las que detectamos, como vistas «al otro lado del espejo», que constituirían la
antimateria. Puede existir la antimateria (y no falta, por supuesto, quien la
haya «predicho»), pero no parece que materia y antimateria puedan admitir una
coexistencia física «pacífica». El contacto entre materia y antimateria dejaría
reducido todo a rayos gamma. Y para terminar, ¿cabe afirmar que son las
partículas subatómicas las últimas unidades posibles de la materia? La mecánica
cuántica establece un límite en la energía, que si son ciertas nuestras ideas,
ya no admite divisiones. Y las partículas subatómicas son una suerte de
materia-energía. Con todo, ahí tenemos el quark, una
partícula, si tal puede considerarse, que forma parte del protón y del neutrón.
No sabemos muy bien qué es el «quark», sí que se manifiesta de diversas formas
o «sabores», a los que los científicos, con ese estilo de impenitencia ante lo
misterioso, dan nombres humorísticos.
En 1896 H. Becquerel descubrió unas radiaciones muy intensas que emitían
ciertos cuerpos: hoy llamamos a ese fenómeno radiactividad. Dos años más tarde,
los esposos Pierre y Marie Curie descubrieron el primer elemento radiactivo, el
radio. Los elementos radiactivos son muy pesados y de estructura inestable. Se
van desintegrando poco a poco, hasta transformarse en otros; el último
resultante es el plomo. Algunos tienen realmente una vida muy corta. La mayor
parte de ellos no han llegado siquiera hasta nosotros. Pronto se descubrió que el
radio, cuyas radiaciones son realmente malignas, puede, sin embargo surtir
efectos benéficos cuando se lo emplea para destruir células a su vez malignas,
por ejemplo, para combatir el cáncer. Los Curie siguieron estudiando las
radiaciones, y descubrieron que son de tres clases muy diferentes, que
denominaron alfa, beta y gamma. Hoy se conocen mucho mejor las altísimas
energías de las radiaciones gamma. Más tarde, hacia 1930, los famosos esposos
descubrieron que un elemento estable puede tornarse radiactivo si se le
bombardea con partículas muy aceleradas.
Y he aquí que un viejo sueño de los alquimistas, mantenido a lo largo de muchos
siglos, la transmutación de los cuerpos por obra de la piedra filosofal o de
otros artilugios no menos prodigiosos, un sueño desechado y despreciado por la
ciencia moderna, cobró forma de nuevo, si bien sobre bases incomparablemente
más rigurosas, por los años 30 del siglo XX. El átomo no es, como entendía
Dalton, la esencia perfecta e indivisible de los cuerpos simples; pero sí es
cierto que el átomo de un elemento cualquiera posee un número fijo de protones,
de neutrones, de electrones. Si se cambia el número de protones y neutrones de
un núcleo... ese átomo ya no es de tal elemento, sino de otro. Habremos
conseguido «transmutar», que decían los alquimistas, un elemento químico en
otro elemento químico. Como las partículas de un núcleo atómico están unidas
entre sí por la «fuerza nuclear fuerte», es muy difícil separarlas. Nada más
fácil que separar los electrones que se mueven en torno a un núcleo, pero de
ello no se derivan más que consecuencias bien conocidas. La «esencia» de un
elemento, que hubiera dicho Dalton, está en el núcleo mismo. Pero los Curie
acertaron con el método que permite atacar el núcleo, mediante partículas muy
aceleradas. En un principio, se utilizaron las partículas más manejables, las
«alfa». Pero lo que hacía falta era construir un acelerador de partículas. En
ese campo se ha estado trabajando desde 1930 hasta ahora mismo. En 1932 John
Cockroft y Ernest Walton lograron, mediante un multiplicador voltaico, la
desintegración de átomos de litio en dos partículas alfa. ¡Empezaba a atisbarse
el milagro de la transmutación de los cuerpos! En 1935, Van de Graaf logró un
generador electrostático para acelerar partículas que alcanzaba los cinco
millones de voltios.
Sin embargo, el gran salto se produjo cuando Ernest O. Lawrence diseñó el
ciclotrón, en la universidad de Berkeley. Un ciclotrón es un tubo especial
circular o anular, rodeado de muy potentes electroimanes que aceleran las
partículas que se mueven en él. (Permítasenos una excursión a tiempos
recientes: el ciclotrón derivaría en el sincrotrón, mucho más potente. Por
ejemplo, la Organización Europea de Investigación Nuclear dispone, cerca de
Ginebra, de un acelerador de partículas en forma de un tubo circular de pocos
centímetros de diámetro, que tiene una longitud total de 6,5 kilómetros. Las
partículas, inducidas por centenares de electroimanes, dan unas 140.000 vueltas
al circuito en solo tres segundos, y terminan su desenfrenada carrera de
aceleración con una energía equivalente a quinientos mil millones de voltios).
Disponiendo de grandes energías, no solo se pudo utilizar como «proyectiles» a
los protones, sino también a los evasivos neutrones. En la universidad de
Columbia, Nueva York, Harold Urey descubría un isótopo del hidrógeno, el
deuterio, cuyo poder desintegrador era diez veces más potente que el de los
protones. En 1956 Urey y los suyos lograron utilizar el neutrón. En 1938, Otto
Hahn y Fritz Strassmann consiguieron producir átomos de bario mediante el
bombardeo con neutrones del uranio. ¡Aquí sí que podía hablarse propiamente de
transmutación! El viejo sueño de los alquimistas podía transformar el mundo.
Bien es verdad que podía también destruirlo. En 1939 quedó claro que era
posible la fisión (desintegración) del uranio. Los experimentos de O. Frisch,
P. Joliot (hijo de los Curie), John Wheeler, Enrico Fermi o L. Szilard, dejaron
clara la posibilidad de provocar la desintegración del uranio en un proceso en
cadena, y convertir este proceso en una fuente inmensa de energía. El mismo
Einstein, prudente en un principio ante las posibles consecuencias de avanzar
en tal sentido, declaró en 1939 que «es de esperar que el elemento uranio pueda
convertirse en una nueva y muy importante fuente de energía en el futuro...,
mediante una reacción nuclear en cadena». La gran palabra estaba dicha.
La segunda guerra mundial vino a cambiar las cosas. Era previsible que la
energía nuclear se utilizase al servicio del hombre y representase un paso de
incalculable importancia en el camino del progreso. Pero la contienda entre las
grandes potencias (Alemania y los Estados Unidos contaban con los mejores
físicos del mundo) generó la terrible idea de utilizar la energía nuclear como
arma de destrucción. Llegó un momento en que los alemanes, que ya no veían otro
medio de ganar el conflicto que recurriendo a sus científicos, inventaron los
misiles o cohetes teledirigidos (armas V-i y V-2), pero se estancaron en la
fabricación de la bomba atómica, porque necesitaban obtener «agua pesada» (a
base de deuterio) y estas fábricas, situadas en Noruega, fueron destruidas una
y otra vez por la aviación aliada. Al otro lado del océano, los americanos no
tenían el menor peligro de padecer bombardeos. En 1941 pusieron en marcha el
Proyecto Manhattan, destinado a obtener un isótopo del uranio, el U-235, que es
mucho más fisionable que el 238, y puede producir reacciones en cadena. La
mayor parte del uranio que se encuentra en las minas es de la variedad 238, y
solo una pequeña proporción es de la variedad 235. Para invertir los términos
hace falta un laborioso proceso de «enriquecimiento». Luego, era preciso un
sistema capaz de provocar la fisión inmediata.
En noviembre de 1942 se inauguraba en Nuevo México el laboratorio de Los
Alamos, bajo la dirección de Robert Oppenheimer. El 16 de julio de 1945 se
realizó la primera prueba de un artefacto nuclear en el desierto de Nuevo
México. La explosión fue formidable, aunque solo una pequeña parte del mundo se
enteró. El hombre había conseguido un arma de destrucción masiva fabulosamente
superior a cuantas había ideado a lo largo de la historia. Ya no hacía falta
emplearla contra Alemania, que se había rendido en mayo. Sin embargo, el
presidente Truman, en una decisión que no corresponde juzgar a la ciencia, ni
siquiera a los historiadores de la ciencia, ordenó utilizarla contra Japón, que
aún resistía en una guerra que podía costar todavía muchas vidas. El 6 de
agosto una bomba atómica de uranio, arrojada desde un avión y suspendida de un
paracaídas (para dar tiempo al avión de huir) estallaba sobre la ciudad de
Hiroshima, que quedó arrasada, con un balance de 65.000 víctimas mortales, que
serían luego muchas más por efectos de la radiactividad residual. Dos días más
tarde, una segunda bomba, menos potente, caía quizás innecesariamente sobre el
gran puerto de Nagasaki. No hicieron falta más (bien es verdad que los
americanos tampoco disponían entonces de más bombas). Japón pidió
inmediatamente la paz. La segunda guerra mundial terminó por obra de un logro
impresionante de la ciencia, un logro que, por desgracia, había de marcar por
mucho tiempo la conquista fabulosa de la fisión nuclear.
§. Algo sobre la energía nuclear
Una vez terminada la guerra, el optimismo científico, tal vez en ocasiones una
propaganda interesada en borrar el recuerdo de su mortífero comienzo, originó
un vendaval de loas desatadas a la energía nuclear y sus ilimitadas
posibilidades. El hombre había descubierto la energía por
antonomasia, y el mundo viviría feliz con una fuerza que sustituiría a todas
las demás a bajo coste. La Tierra se cubriría de centrales nucleares, en que
una pequeña cantidad de materia podría convertirse en una cantidad fabulosa de
energía. Esta energía impulsaría las máquinas, produciría luz y calor, movería
los automóviles y los trenes, los aviones y los barcos. La realidad no
respondió a tan lisonjeras esperanzas. Por de pronto, la «guerra fría» que
seguidamente se hizo patente entre el Este y el Oeste, y particularmente entre
los Estados Unidos y la Unión Soviética siguió fomentando la fabricación de
armas nucleares. Los rusos consiguieron construir su primera bomba atómica en
1949, y desde entonces se desató una impresionante carrera de armamentos, en
que la obtención de artefactos nucleares acaparó el interés principal de ambos
virtuales contendientes. En 1952 consiguieron los americanos, y en 1961 los
soviéticos, que a costa de titánicos esfuerzos procuraban no irles a la zaga,
un nuevo tipo de explosivo incomparablemente más potente que el obtenido de la
fisión: el procedente de la fusión termonuclear (a la que
pronto nos referiremos) o bomba de hidrógeno. La carrera de armamentos continuó
de la forma más irracional, diríase que sin sentido, como en una locura
suicida, al punto de que por 1980 ambas superpotencias poseían un potencial
nuclear capaz de destruir tres veces el mundo, por si no bastase con destruirlo
una vez. Se llegó a una situación que Henry Kissinger calificó de MAD. La
palabra «mad» en inglés significa locura, pero Kissinger la usó como acrónimo
de «Mutual Assured Destruction», destrucción recíproca garantizada. Algunos
analistas, como Raymond Aron consideraron que, pese a todo, esta absurda y
costosísima locura no dejó de surtir sus frutos, puesto que el terror a un
desastre atómico evitó muy probablemente la tercera guerra mundial.
No es cuestión de entrar ahora en estas consideraciones; lo cierto es que la
carrera de armamentos nucleares retrasó la utilización pacífica de la energía
atómica, aunque no dejó de marcharse por este camino desde muy pronto (1946).
Por cierto que la primera versión de una caldera de fisión nuclear controlada
se proyectó también para un arma de guerra, aunque nunca llegó a utilizarse
como elemento destructivo: el submarino atómico, capaz de navegar
indefinidamente sumergido, a diferencia de los submarinos convencionales. Solo
llegó a construirse un barco de superficie movido por energía nuclear, el Savannah: pronto
se abandonó este sistema. Solo se construyeron centrales nucleares capaces de
producir energía útil.
§. Una central nuclear
La energía procedente de la fisión nuclear necesita de unas instalaciones muy
complejas y costosas, aunque a la larga resultan rentables. Ante todo, es
preciso obtener el uranio, elemento no muy abundante en la naturaleza,
depurarlo de toda su ganga y prepararlo para su utilización. Luego viene el
proceso de enriquecimiento, pues el uranio que se encuentra en las minas tiene
una baja proporción de U-235, que es el más fácilmente fisionable. Esta
operación, naturalmente, hay que realizarla en laboratorios muy especializados.
a. El U-235 se dispone en forma de «barras de combustible», que son por lo
general láminas planas colocadas a una cierta distancia unas de otras, para
permitir la circulación del fluido, muchas veces simplemente agua, o «agua
pesada», que transporta el calor generado por la fisión. El núcleo es la parte
fundamental del reactor, que se aloja en un recipiente lleno de líquido y
fuertemente protegido del exterior.
b. El «moderador» regula la velocidad de los neutrones que provocan la fisión.
Para que el proceso se desarrolle en cadena y se mantenga indefinidamente, es
necesario que los neutrones disminuyan su velocidad y puedan seguir colisionando
con los núcleos atómicos del uranio.
c. Las «barras de control», hechas de cadmio o boro, capturan los neutrones
sobrantes y evitan una fisión incontrolada.
d. El refrigerante es un fluido, casi siempre agua, que extrae el tremendo
calor generado en el núcleo de la caldera por el proceso de fisión nuclear. El
agua evita una temperatura excesiva y, a su vez recalentada, puede servir como
fuente de calor.
e. La carcasa de protección. Las barras de uranio están protegidas por una caja
que las aísla del medio exterior; pero todo reactor atómico está rodeado
después de un blindaje muy sólido, que evita que las radiaciones salgan al
exterior y puedan dañar a cualquier operario o ser peligrosas para personas
situadas cerca de la central.
Hoy día, las centrales nucleares son muy seguras, y resulta extraordinariamente
difícil que las radiaciones trasciendan al exterior. Las de torio, un derivado
del uranio, lo son todavía más, si bien es preciso obtener previamente torio,
que no se encuentra en la naturaleza, por ser un material radiactivo de corta
vida. Con todo, no puede descartarse un accidente nuclear en una central
antigua o deficientemente construida. En 1971 se produjo una grave avería que
quemó la central de Three Mile Island, en Pensilvania, (USA), aunque sin
provocar víctimas mortales; y en 1986 otra mucho más grave en Chernobyl
(Ucrania, entonces URSS), que provocó unos 30 muertos en las primeras semanas,
y un número no bien determinado de enfermos a largo plazo. Aunque hoy día una
central es muy segura, el temor a lo «nuclear» ha impedido su proliferación
generalizada. Existen unas 450 centrales nucleares en el mundo, y son
abundantes, por ejemplo, en Estados Unidos o en Francia, mientras que en
España, por ejemplo, son pocas y tienden a clausurarse. La rentabilidad de
estas centrales es alta, sin llegar a la prodigiosa capacidad de producir
energía baratísima que en un principio se había vaticinado. Gracias al
aislamiento del material en fisión, no contaminan el ambiente, como otros
combustibles. Tienen en cambio el inconveniente de los residuos que han de ser
retirados en forma de otros materiales radiactivos, algunos de corta vida, pero
otros de larga duración, como esos elementos exóticos que son el curio, el
neptunio o el americio, que pueden durar cientos o miles de años en moderada
actividad. Estos materiales se encierran en contenedores aislantes y se
entierran en excavaciones muy profundas. No es posible asegurar todavía si la
energía nuclear de fisión, una vez garantizada su seguridad absoluta, y
desaparecido el temor de una parte de la sociedad, va a ser la forma más
habitual de energía en el futuro, o si habrá que progresar en el camino de las
energías alternativas.
§. La fusión termonuclear
La fisión es la partición del núcleo de un átomo de un elemento pesado en dos
propios de un elemento más ligero. Su desintegración en cadena puede, como
queda visto, desarrollar una cantidad ingente de energía. La fusión es el
proceso inverso: dos núcleos de un elemento ligero colisionan entre sí para formar
un núcleo de un elemento más pesado: el proceso puede resultar infinitamente
más complejo de como lo estamos enunciando, pero el resultado es la liberación
de una tasa de energía todavía mucho mayor. La fusión es el proceso
termonuclear que mantiene en un estado de desbordamiento fabuloso de energía al
sol o a las demás estrellas. Ya hace tiempo lo descubrieron G. Gamow y otros ,
de modo que, una vez llegada la era nuclear, el hombre, que había sido capaz de
desencadenar el proceso de fisión, sintió motivos para ensayar el de fusión.
Mucho más fácil que una fusión controlada y utilizable es lograr una forma de
fusión no controlada y explosiva, capaz de liberar en el plazo de una fracción
de segundo una tasa de energía inmensa: por eso, y porque la guerra fría movió
a los científicos de las superpotencias a una actividad frenética, en noviembre
de 1952 los norteamericanos lograron hacer estallar una bomba de hidrógeno (el
hidrógeno se transforma en el siguiente elemento más pesado, el helio). En
1960-61 consiguieron lo mismo los soviéticos. La guerra fría y el afán de cada
potencia de presentarse como la más capacitada para destrozar a la otra,
llevaron a estas consecuencias. La ciencia se desarrollaba, por desgracia, en
forma de carrera de armamentos. Es más, los rusos, quizá sin llegar a alcanzar
en ningún momento la técnica más sofisticada, hicieron estallar las bombas más
poderosas que se fabricaron nunca en el mundo: siempre, por supuesto, en
lugares desiertos.
Incomparablemente más difícil es lograr la fusión termonuclear controlada. La
idea consiste en reunir una masa grande de núcleos de hidrógeno, o más bien de
un isótopo más pesado, el deuterio, en un estado de altísima presión y
temperatura, hasta un estado especial llamado «plasma». En ese estado, los
núcleos de hidrógeno colisionan entre sí, formando núcleos de helio y liberando
una energía fabulosa. Esta energía podría ser aprovechada por el hombre con un
rendimiento incomparablemente superior a todas las otras conocidas. ¿Por qué
disponemos de centrales nucleares de fisión, y no de centrales termonucleares
de fusión? Los científicos afirman que ya han dicho sobre este tema la última
palabra: ahora la tienen los ingenieros. La dificultad suprema consiste en
lograr una carcasa o envoltorio capaz de mantener el plasma, que, sometido a
una presión inaudita, genera una temperatura de muchos millones de grados. Se
están proponiendo varias soluciones al problema, y en ello trabajan dos grandes
proyectos: el ITER, de la Unión Europea y Japón, y el NIF en que trabajan los
americanos. De una forma u otra, es muy probable que el hombre consiga fabricar
un día centrales termonucleares, y entonces se habrá resuelto para siempre el
problema de la energía. El hidrógeno es fácil de obtener por descomposición del
agua, y el único residuo que la reacción produce es helio, un gas inerte y nada
peligroso. Con todo, es seguro que habrá que esperar cuando menos a la segunda
mitad del siglo XXI. Entretanto, habrá que seguir pensando en nuevas formas de
energía alternativa.
§. La propulsión por reacción y la conquista del espacio
Otro de los descubrimientos efectuados durante el periodo bélico fue el de los
misiles, o proyectiles teledirigidos. La técnica de los cohetes es en sí muy
antigua, y se basa en el principio de acción-reacción, enunciado por Newton. Si
un gas sale despedido violentamente de un tubo por la acción de un émbolo, una
explosión u otro procedimiento cualquiera, el gas se aleja del tubo, pero a su
vez el tubo es empujado en dirección opuesta por la reacción del gas. El
sistema a reacción permite una velocidad de vuelo muy superior a la de la
propulsión por hélice, que difícilmente puede alcanzar la velocidad del sonido,
y tiene, sobre todo, una ventaja inmensa: es capaz de impulsar un móvil en el
vacío, mientras la hélice necesita «enroscarse» en el aire. Tropieza, en
cambio, con el gravísimo inconveniente de la enorme cantidad de energía que
consume. Los alemanes utilizaron cohetes cargados de explosivos en la fase
final de la guerra mundial. Primero el V-i, parecido a un tosco avión, todavía
con un rudimento de alas; por eso fue llamado indistintamente «avión sin
piloto» o «bomba volante». Luego, el V-2 fue ya un proyectil teledirigido.
También los alemanes utilizaron en la batalla final de Las Ardenas los primeros
aviones a reacción, pero todavía muy rudimentarios y en cantidad insuficiente.
Los americanos alcanzaron poco después la técnica a reacción, y consiguieron
contratar a Wernher von Braun, descubridor de la V-2, que llegó a ser director
de la NASA. La tecnología de los misiles ha avanzado muchísimo desde entonces,
buscando los materiales más resistentes, los combustibles más adecuados,
sistemas de guiado muy precisos, refrigeradores para las toberas, etc. Para la
aviación comercial, y también para gran parte de la militar, se ha sustituido
el cohete de retropropulsión propiamente dicho por una turbina que comprime y
envía a la tobera el gas propelente (turborreactor), procurando un ahorro muy
grande de combustible. Los reactores sin turbina ocasionan un gasto
desproporcionado. De aquí que en el terreno militar existan: a) misiles
balísticos, que son impulsados por reacción solo en un periodo
inicial, hasta que adquieren una trayectoria determinada; a partir de ahí, se
comportan como proyectiles, obedientes a la inercia y a la gravedad. Y
b), misiles de crucero, que mantienen todo el tiempo su
propulsión a reacción, pero solo pueden ser utilizados en trayectos cortos, por
su elevado consumo.
El campo en que ha perdurado la técnica de cohetes (hasta ahora balísticos) sin
alternativa posible, es el de la astronáutica. Una vez que se obtuvieron medios
para construir cohetes de gran potencia, se quiso cumplir uno de los más
fabulosos sueños del hombre, como es el de salir de su planeta natal. Para ello
era preciso superar la velocidad de escape, aquella que es necesaria para
vencer indefinidamente la atracción de la Tierra, que es del orden de II
kilómetros por segundo. Y esta velocidad solo puede lograrla un cohete de gran
potencia y enorme gasto de energía. Este cohete puede liberarse definitivamente
de la atracción terrestre, y lanzar al espacio un pequeño astro artificial,
sometido a las mismas leyes que los astros, o este pequeño astro, impulsado por
el cohete, puede simplemente superar el límite de caída libre, pero quedar
dominado por la atracción de la Tierra, que lo hará girar en su torno como un
satélite. Un satélite artificial requiere menor consumo de energía, y, aunque
no puede continuar su viaje por el espacio, es capaz de prestar servicios inestimables.
Contra todas las previsiones, fueron los rusos los que se adelantaron. El 4 de
octubre de 1957 lanzaron el primer satélite artificial, el Sputnik 1,
una esfera de 60 cm. de diámetro y 84 kilos de peso, que en poco más de dos
horas circundaba la Tierra a varios cientos de kilómetros de altura. Y un mes
más tarde lanzaron, con un efecto propagandístico todavía mayor, el Sputnik II,
tripulado por una pequeña perra, Laika, que sobrevivió en
órbita varios días, demostrando que era posible la vida en la ingravidez. Y
continuaron los éxitos soviéticos: en septiembre de 1959, un misil balístico
ruso, el Lunik I, conseguía hacer impacto en la luna. Y el 12 de abril de 1961,
un aviador soviético, Yuri Gagarin, se convertía en el primer hombre que salía
vivo de este mundo, describiendo una órbita alrededor de la Tierra, para
regresar dos horas después en una cápsula provista de paracaídas.
Con todo, los Estados Unidos poseían más medios y una tecnología cada vez más
sofisticada, capaz de ganar esta otra carrera, la carrera espacial. En 1962,
John Glenn realizó el primer vuelo orbital de la NASA. Siguieron otros, y
pronto surgió la idea de enviar un hombre a la luna. Fue así como se pusieron
en marcha el programa Gemini y el programa Apolo. Las naves Apolo estaban
impulsadas por cohetes de varias fases, comenzando por el gigantesco Saturno V,
y sus módulos tripulados contaban con una pequeña cantidad de energía de
reserva que les permitía ligeras rectificaciones, descender sobre la luna
suavemente, y despegar de ella. ¡Tan importante como llegar a la luna era
regresar a la Tierra! Uno de los más grandes sueños del hombre fue cumplido, no
sin sacrificios. El Apolo I terminó en desastre, y solo el Apolo 7, en 1968,
consiguió que tres hombres diesen la vuelta a la luna, sin posarse en ella,
como en la famosa novela de Julio Verne. El cumplimiento del proyecto tuvo
lugar el 20 de julio de 1969, cuando Neil Armstrong y Buzz Aldrin pusieron por
primera vez pie en el polvoriento suelo de nuestro satélite. «Este es un pequeño
paso para un hombre, pero un salto muy grande para la humanidad», transmitió
Armstrong al hollar las desoladas llanuras del Mare Tranquilitatis. En
total, seis misiones Apolo, con doce seres humanos, alcanzaron la luna entre
1969 y 1972, y trajeron a la Tierra varios centenares de kilos de rocas
lunares. Fue un espectacular logro para el prestigio de los Estados Unidos,
pero también para el progreso de la ciencia. En 1973 el programa Apolo fue
suspendido, por su alto coste y porque los americanos ya habían tomado una
clara delantera.
No por eso cesó la carrera espacial. Los cohetes podían llegar a otros
planetas. Los rusos, equivocadamente, eligieron Venus, símbolo de la paz, pero
que es un verdadero infierno con sus temperaturas de más de 400 grados y sus
lluvias de ácido sulfúrico. Las naves Venera apenas pudieron
subsistir unos minutos, aunque lograron transmitir algunas fotografías de aquel
mundo inhóspito. En cambio, los americanos eligieron Marte, que aunque en
mitología es el símbolo de la guerra, resulta ser un planeta frío y
relativamente pacífico. Las naves Mariner tomaron imágenes del planeta a corta
distancia, y las Viking se posaron sobre su superficie. Seguirían otras muchas.
Hoy ingenios humanos se han posado sobre Venus, Marte y Titán, satélite de
Saturno y han tomado muestras de dos cometas y un asteroide. Todos los grandes
planetas han sido explorados desde cerca, y dos naves, las Voyager han
salido ya del sistema solar. La posibilidad de salir al espacio exterior es uno
de los más grandes logros de la ciencia y la tecnología humanas. Con todo, las
perspectivas no son tan halagüeñas como pudiera pensarse. El hombre puede un
día, antes de que termine el siglo XXI, pisar Marte, no establecerse en él.
Llegar a otro planeta es prácticamente imposible, a no ser que en un momento,
al cabo de cientos o miles de años, se pueda cambiar el clima de Venus. Y
llegar a otros sistemas es empresa en la que no cabe pensar. Aun así, la
llamada «conquista del espacio» resulta ser una de las aventuras más admirables
de la historia.
§. La medicina del siglo XX
Ya sabemos que desde los tiempos más antiguos hubo preocupación por la salud
humana, su conservación y la lucha contra las enfermedades que la ponen en
peligro. Con todo, hemos observado también que a lo largo de la historia, el
éxito no siempre respondió a esta preocupación. La simple experiencia no fue
suficiente para conferir a la medicina un carácter riguroso de ciencia a la
altura de otras de resultados más indiscutibles. En la segunda mitad del siglo XIX,
la medicina experimental y el hallazgo de determinados medios, más que para
combatir la enfermedad, para prevenirla, como la higiene o las vacunas,
comenzaron a ganar batallas, ya que en este tipo de lucha no cabe pensar en
ganar la guerra. La experimentación y el dominio creciente de la química
orgánica permitieron la obtención progresiva de medicamentos específicos. En
1897 se descubrió la aspirina o ácido aceltilsalicílico. Los demás medicamentos
de síntesis fueron obtenidos en el siglo XX, y fue entonces cuando su número
ascendió a muchos miles. El desarrollo de las prácticas terapéuticas y
quirúrgicas, asociado a una tarea cada vez más especializada de investigación,
permitió que en las farmacias del siglo XX, en vez de árnica, tisanas, tintura
de yodo, o fórmulas magistrales que requerían una preparación en la rebotica,
se dispensasen cada vez más medicamentos de síntesis elaborados por
laboratorios especializados: y estas medicinas eran a su vez especializadas (específicas)
en el sentido de que resultaban particularmente indicadas para una determinada
enfermedad o deficiencia.
La medicina progresó también por la especialización de los propios médicos, por
la mejora del utillaje, en especial el de naturaleza quirúrgica, por la
creación de hospitales y clínicas bien dotadas en que era posible trabajar en
conjunto, con la colaboración de personal auxiliar. Florence Nightingale, que
cuidó a los heridos en la guerra de Crimea (1854) fundó en Londres, en 1860, la
primera escuela de enfermería: desde entonces existe oficialmente la profesión.
A ello hay que añadir nuevas medidas higiénicas, asépticas y antisépticas, y
las facilidades para el diagnóstico tendidas por los avances de la ciencia y de
la técnica: rayos X, análisis clínicos, formas de escaneo, radioterapia,
tomografía (especialmente TAC), endoscopias, gammagrafías, resonancias
magnéticas, etc. Tampoco puede olvidarse, sobre todo por lo que se refiere a
los países más desarrollados, la ayuda del estado a la sanidad pública, con la
consiguiente mejora de los medios, y la posibilidad de acceder a los centros de
salud gratuitamente o con poco gasto. Los avances en el siglo XX fueron más
espectaculares que en ningún otro momento anterior de la historia, y
permitieron vencer enfermedades que en principio se consideraron incurables, o
casi desterrar otras que en un tiempo fueron terribles amenazas para la
humanidad. A lo largo del siglo XX, la esperanza media de vida casi se duplicó
en los países desarrollados, y aumentó en la mayor parte del mundo: más que por
una espectacular prolongación de la ancianidad, la proporción de centenarios no
ha aumentado gran cosa en un siglo, por la disminución de la mortalidad en la
edad adulta y especialmente de la mortalidad infantil, y también la mortalidad
postparto. A la mejora de la salud contribuyó también el desarrollo del nivel
de vida, la mejor alimentación (no siempre, por desgracia y por capricho
humano, la más sana), y por la misma facilidad de los medios de transporte, ya
del médico, ya del enfermo, que han permitido una atención más inmediata. Hoy
en los países desarrollados, la mayoría de las muertes por enfermedad no
provienen de males contagiosos, sino de cardiopatías, cáncer, trombosis. Muchas
muertes no sobrevienen por enfermedad, sino por accidentes traumáticos.
No cabe aquí una referencia detallada a todos los avances de la ciencia médica
en el siglo XX. Baste siquiera una alusión a dos de los aspectos más
espectaculares: en el campo de la terapéutica, el empleo de los antibióticos;
en el de la cirugía, la técnica de los trasplantes.
El nombre puede ser poco acertado. «Anti» significa contra, y «bios», vida.
Contra la vida. Contra la vida de algunos de sus individuos más pequeños los
«microbios», habría que entender. Y para la defensa de la vida humana. Ya en el
siglo XIX se emplearon productos desinfectantes de acción local, como el
alcohol o la tintura de yodo. Por lo demás, y como se ha visto en su lugar,
pudieron prepararse vacunas, que no actúan contra los gérmenes, sino que
preparan al organismo para combatirlos. En 1900, el bacteriólogo alemán Rudolf
von Emmerich descubrió un preparado que en un tubo de ensayo podía destruir los
gérmenes del cólera y de la difteria, pero que se mostró ineficaz en el
tratamiento de esas enfermedades aplicado al organismo humano. En 1909, otro
alemán, Paul Ehrlich, encontró un producto que podía atacar de manera selectiva
a los microorganismos infecciosos sin dañar al mismo tiempo los tejidos
humanos, que era realmente lo que se estaba necesitando; pero sus aplicaciones resultaron
limitadas a unas cuantas enfermedades. Bastante más tarde, en 1929, Gerhardt
Domagh, basándose en los estudios de Erlich, empleó un colorante, el prontosil,
que le permitió salvar la vida de su hija, que se estaba muriendo de
septicemia. Poco después empezaron a emplearse con éxito las sulfonamidas, por
simplificación sulfamidas, que fueron propiamente los primeros antibacterianos
que se emplearon de forma generalizada.
Entretanto, se produjo un descubrimiento que, por casual que fuese, iba a cambiar
la historia. En 1928, el médico y microbiólogo escocés Alexander Fleming
(1881-1955), que investigaba sobre diversos gérmenes, observó que un hongo
había invadido una de sus placas de cultivo, en tanto que habían desaparecido
la mayor parte de las bacterias contenidas en ella. Quizá otro científico menos
intuitivo hubiera arrojado a la basura aquel cultivo estropeado. Fleming, que
era muy minucioso, aisló el hongo, que resultó ser el penicillium
notatum, un moho verde que se reproduce por esporas, y repitió el
experimento. En todo caso, se operaba la desaparición o disminución de los
gérmenes. Había descubierto la penicilina, el primero de los antibióticos
propiamente dichos. Sin embargo, Fleming no disponía de medios para obtener la
necesaria concentración del hongo. Hubieron de transcurrir diez años antes de
que el descubrimiento trascendiera lo suficiente, y otros investigadores se
pusieran a la tarea. En 1938, H.W. Fiorey y E.Chain concentraron preparados
de penicillium notatum y comprobaron sus efectos
espectaculares; pero su producción en masa era sumamente laboriosa, porque para
obtener la penicilina suficiente para la curación de un enfermo era necesario
el cultivo de trescientos matraces. Los investigadores emigraron a Estados
Unidos, y encontraron nuevos medios. En 1943 se descubrió una nueva variedad
de penicillium, más fácil de obtener y multiplicar, y
mejoraron por otra parte las técnicas de la elaboración de la penicilina. La
fama del descubrimiento se difundió rápidamente, y en 1945 se concedió a
Fleming, Florey y Chain el Premio Nobel.
Las primeras vidas salvadas por la penicilina fueron de soldados combatientes
en la segunda guerra mundial. En la subsiguiente paz, el uso de los
antibióticos se generalizó. El hombre había encontrado al fin un medio
realmente eficaz, y de resultados sorprendentes, para combatir las bacterias.
Por los años 40 se produjeron penicilina G y penicilina K; en los 50, la
penicilina S y la V. Otra forma de penicilina, la ampicilina, fue obtenida en
1961 por Doyle; y hacia 1965 la amoxicilina, conseguida por Nayler y Smith. Al
fin y al cabo, el descubrimiento consiste en que un ser vivo destruye a otro
ser vivo: los hongos del penicillium destrozan las membranas de los gérmenes, y
éstos revientan.
Entretanto, Selman Waksman (1888-1973) descubrió las posibilidades de otros
hongos del género streptomyces, y obtuvo nuevos antibióticos,
como la estreptomicina, eficaz contra otros gérmenes poco sensibles a las
penicilinas. Hoy se pueden obtener centenares de antibióticos distintos, muchos
de ellos muy específicos y eficaces contra determinados agentes patógenos;
otros lo son en cambio de amplio espectro, válidos para combatir gérmenes muy
distintos, que con frecuencia aparecen cruzados en numerosas enfermedades. Hay
antibióticos obtenidos simplemente por síntesis químicas muy complejas, como la
tirotricina, pero el daño que producen en el organismo aconseja su uso
puramente tópico, en forma de pomadas aplicables exteriormente. La mayoría de
los antibióticos que hoy se emplean proceden de hongos, musgos, algas, etc.,
eso sí, debidamente procesados y combinados mediante métodos químicos muy
sofisticados, o utilizando ya las posibilidades que nos brinda la genética,
modificando la composición de algunas de sus moléculas, que alteran sus
propiedades y mejoran su efectividad.
Así nació la era de los antibióticos, uno de los grandes logros del siglo XX. Y
una de las luchas más titánicas del hombre contra la enfermedad, porque a la
progresiva superación de los biólogos y bioquímicos en la obtención de medios
para combatirla, han respondido inesperadamente los diminutos seres que la
provocan con súbitas mutaciones, en una suerte de increíble capacidad de
supervivencia. Hoy la genética nos explica bastante bien la naturaleza de estas
mutaciones, pero no deja de ser sorprendente que los agentes patógenos posean
tal capacidad de transformarse para mantener su actividad. Empezó a hablarse de
gérmenes o cocos penicilinresistentes, que más tarde se hicieron
estreptomicin-resistentes, y así sucesivamente, hasta exigir de los científicos
una renovación constante de sus preparados. Se dice que el hombre fue cobrando
ventaja hasta los años ochenta del siglo XX. Hoy la lucha sigue con incierta
suerte y hasta parece que a comienzos del siglo XXI lleva ventaja el enemigo,
pero la investigación encuentra siempre nuevos campos en que podrá demostrar su
eficacia frente a enemigos cada vez más sofisticados. Lo cierto es que los
antibióticos no han logrado operar el milagro maravilloso que se imaginaba por
los años cuarenta y cincuenta; pero han salvado muchísimas vidas y las seguirán
salvando en el futuro.
Los antibióticos son eficaces contra todo tipo de bacterias. Pero hay
enfermedades, algunas terribles, que no son provocadas por bacterias, sino por
virus. Los virus son una forma rudimentaria, si se quiere, de vida. Cristalizan
como los minerales. Los únicos rasgos propios de los seres vivos que poseen son
justamente los únicos que necesitan: se nutren y se reproducen. Se nutren a
costa de otros seres vivos, fundamentalmente las células animales. Son muy
voraces. Y cuando encuentran materia orgánica suficiente para su subsistencia,
se multiplican a una velocidad endiablada. Los virus, contra lo que pueda
creerse ingenuamente, son extrañamente débiles y efímeros. Muchos de ellos, si
no encuentran materia a costa de la cual subsistir, permanecen inertes, o bien
mueren, por lo general en pocos minutos. Pero son siempre miles de millones los
que la encuentran. Se transmiten casi siempre a través del aire, englobados en
aerosoles. La respiración humana libera cantidades ingentes de moléculas de
agua, a bordo de las cuales viajan los virus. Si en plazo breve estas moléculas
entran en el sistema respiratorio de otra persona, se produce el contagio.
Pueden transmitirse también a través de la sangre, por ejemplo, por inyecciones
o transfusiones, en ocasiones también por vía sexual. Hoy conocemos muchas
cosas sobre los virus, pero no la forma de combatirlos. La mayoría de los
remedios que empleamos son simplemente sintomáticos, suprimen algunas
manifestaciones externas de la enfermedad, no la enfermedad. Hace cien años, se
pensaba que se había encontrado el remedio contra la gripe: la aspirina.
Realmente, la aspirina favorece la fluidez de la circulación, puede reducir la
fiebre o suprimir el dolor, no cura la enfermedad. La única terapéutica segura
o relativamente segura es la vacuna: recordemos, la transmisión de una tasa no
peligrosa de un virus, que sirve para estimular las defensas del organismo, a
la manera de un ejercicio de entrenamiento; cuando llega la enfermedad, nuestro
organismo está mejor preparado para resistir. Las defensas naturales de nuestro
cuerpo son más eficaces que los medicamentos, todo hay que confesarlo.
Estimulados por un sistema inmunitario admirablemente dispuesto, los leucocitos
rodean y aíslan a sus enemigos: un comportamiento heroico, que, a costa de
sensibles pérdidas propias, impide a las fuentes del mal proliferar, hasta
provocar su derrota. Hoy podemos matar bacterias, aún no hemos aprendido a
matar virus. Lo único que hemos logrado es protegernos de ellos y estimular el
sistema defensivo de nuestro organismo. Existen vacunas contra la gripe, por
más que la variedad de cepas de esta enfermedad tan vulgar como universal hagan
muy difícil predecir cuál será la predominante en la próxima arremetida. Y aún
no hemos conseguido descubrir una vacuna eficaz contra una terrible enfermedad
de fines del siglo XX, el SIDA, que ataca precisamente al mecanismo que podría
combatirlo, el sistema inmunitario. Se dice que a nuevas técnicas, nuevas e
inesperadas enfermedades, o que no estamos preparados para hacer frente a
epidemias de nueva especie. Lo que está claro es que la biología y la ciencia
médica avanzan cada día, y que alguna vez, mañana o pasado mañana, el hombre
habrá conseguido obtener remedios contra enfermedades que hoy se consideran
incurables.
La cirugía del siglo XX, gracias a la alta especialización de los médicos
encargados de practicarla y de los progresos tecnológicos que pusieron a su disposición
medios cada vez más sofisticados, progresó hasta extremos difícilmente
imaginables en las centurias anteriores. Se practicaron con éxito operaciones a
corazón abierto, extracción de tumores, injerto de tejidos y hasta
delicadísimas intervenciones de neurocirujanos en ciertas regiones del cerebro,
o la separación de hermanos siameses. Al mismo tiempo, mejoraron
considerablemente los sistemas de anestesia, hasta permitir operaciones de
larga duración, sin grave riesgo para el enfermo. Si la cirugía fue durante
siglos una rama derivada de la medicina, y no siempre bien valorada, en el
siglo XX se convirtió en una especialidad universalmente reconocida, de suerte
que un cirujano suele hacerse más famoso, o sus éxitos se publican con más
frecuencia en los medios de comunicación que los éxitos de un médico
terapéutico.
No cabe duda que uno de los éxitos más espectaculares de la cirugía
novocentista fue el trasplante de órganos, hasta el punto de que también se ha
querido llamar al XX «el siglo de los trasplantes». La nueva técnica ha
permitido éxitos que alcanzaron la admiración del mundo, si bien parece
evidente que aún queda mucho por avanzar en este camino. Los primeros intentos
se verificaron en la Unión Soviética, tal vez por no existir allí los reparos
que en muchas conciencias del mundo occidental existían ante el hecho sin
precedentes de que un ser humano pudiera subsistir con un órgano procedente de
otro ser humano, aunque este hubiese fallecido. En 1933, el cirujano ucraniano
A. Voronoy trasplantó el riñón de un hombre de 60 años a una joven en estado de
coma urémico. La operación en sí se realizó con éxito, pero la joven falleció a
los tres días. Intentos similares fueron realizados en la Unión Soviética en
los años cuarenta, siempre con resultados fatales.
La idea de practicar un trasplante fue éticamente admitida como lícita en
Occidente a partir de la segunda guerra mundial. En el caso del riñón, era
posible privar de uno de estos dos órganos a una persona viva para trasladarlo
a otra. Sobre todo si el cambio se operaba entre hermanos. La razón no era solo
de disposición por parte del donante, sino por motivos técnicos. En efecto,
pronto se supo que el sistema inmunitario del organismo receptor no
reconoce al órgano que le ha sido trasplantado, y provoca una
situación de «rechazo», que, en tanto no se consiguieron los remedios
adecuados, acababa con la vida del recipiendario. En el caso de parientes (y
sobre todo de hermanos gemelos) el riesgo en este sentido es mínimo. El primer
trasplante de riñón realizado con cierto éxito tuvo lugar en Boston en 1947. A
una joven en coma profundo por uremia se le introdujo un riñón de un hombre que
acababa de morir. El riñón traspasado secretó orina el primer día, reanudando
la eliminación normal, y dejó de funcionar el segundo día, pero en tanto, el
riñón propio, ya estimulado, reanudó su función, de suerte que la joven se
curó, al menos por un tiempo. En 1952, en el hospital Necker de París, se
realizó la primera operación de trasplante entre hermanos; tuvo un éxito
efímero, pero dio una idea que luego se pondría en práctica muchas veces. En
1954 se realizó un trasplante de riñón de un gemelo a otro: esta vez el éxito
fue duradero. La operación siguió revistiendo un riesgo evidente durante los
años 60; más tarde, se ha venido efectuando con resultados cada vez más
exitosos.
En el caso de órganos unitarios, el trasplante entre vivos es imposible, salvo
si se trata del hígado, que se puede seccionar en parte, y tanto en el cuerpo
del donante como del donado, la víscera crece hasta cobrar un tamaño
prácticamente normal. (Lo mismo ocurre con los trasplantes de trozos de
médula.) En los demás casos, es preciso que el donante acepte ofrecer el órgano
en caso de muerte súbita, por accidente o por una enfermedad que no afecte al
órgano a trasplantar. Si se trata de un niño de corta edad, basta el
consentimiento de sus padres. El primer trasplante de hígado fue efectuado por
el doctor Th. Starzl en 1963. A un niño de tres años gravemente enfermo le fue
traspasado el hígado de otro niño muerto de un tumor cerebral. El beneficiado
no lo fue tanto, porque falleció a las cinco horas de la operación. Más éxito
tuvo Starzl meses más tarde cuando consiguió implantar un hígado en un hombre
de 48 años. La operación fue considerada un éxito, porque el receptor murió a
los veintidós días... de una embolia pulmonar. El trasplante de hígado presenta
siempre dificultades, pero se practica cada vez con mejores y más duraderos
resultados, incluso, hoy, ínter vivos, como ya hemos
precisado. Más dificultades ofrece el trasplante de páncreas, que consiguió por
primera vez Richard Lillehier en 1966.
En diciembre de 1967 el mundo se conmovió al conocer la noticia de un
trasplante de corazón. Lo consiguió en la clínica «Groote Schuur» de Ciudad del
Cabo el joven y audaz cirujano Christian Barnard. Era algo que casi nadie
esperaba poder obtener tan pronto. Un hombre de 54 años, Louis Washkansky,
padecía una cardiopatía isquémica en estado terminal. Ningún remedio
convencional hubiera podido ya salvarle. Barnard había estudiado la técnica del
trasplante de corazón, y no deseaba sino ponerla en práctica. Faltaba un
donante. Estaba ingresada en el mismo hospital una joven que había padecido un
accidente de automóvil, y sufría una lesión cerebral irreversible. El cirujano
pidió a sus padres el corazón de la hija. Hubo unos minutos de duda dramática,
hasta que el padre respondió: «si ya no existe esperanza para mi hija, intente
salvar a ese hombre». Con todo, Barnard esperó hasta siete minutos después de
que la joven dejó de respirar. El corazón fue extraído aún caliente, y en una
compleja intervención le fue injertado a Louis. Pronto la víscera implantada
comenzó a latir de nuevo, ya con otro portador. A los diez días, el desahuciado
podía caminar por la habitación. La sensación que despertó la noticia fue
inmensa, y tan grande la admiración del mundo entero por el doctor Barnard como
la simpatía general por el restablecido Louis Washkansky, que demostró ser un
hombre bondadoso y de buen corazón... aunque aquel corazón ya no era el suyo.
El rechazo provocó problemas, y, cuando ya parecía superado, el enfermo
falleció.
La técnica de trasplantes fue mejorando lentamente. No solo por lo que se
refiere a la seguridad de la operación en sí, sino a la prevención del fenómeno
del rechazo, que obligó a provocar modificaciones en la reacción del sistema
inmunitario. Los trasplantes de corazón se sucedieron en años sucesivos, con un
porcentaje cada vez mayor de supervivientes, y con una duración de vida cada
vez más larga. En 1981 se consiguió el primer trasplante simultáneo de pulmón y
corazón, logrado por los doctores Schumway y Reitz. Un trasplante de órganos
nunca fue una pura rutina, aunque se lo siguió utilizando como recurso en que
otro procedimiento no resultaba viable. No parece que la vida de un
trasplantado pueda igualar a la del mismo individuo si la operación no hubiese
sido necesaria; pero esa operación ha salvado, a veces por un tiempo
considerable, numerosas vidas. Se espera que en el futuro mejoren los resultados,
o hasta sea posible vivir con algunos órganos artificiales. Por otra parte, la
técnica de los trasplantes, prohibida por algunas religiones, pero aceptada por
la mayoría, y especialmente por la Iglesia Católica, que fue la primera en
destacar la generosidad que implica por parte del donante, ha contribuido a
fomentar la solidaridad entre los seres humanos.
§. Los misterios de la genética, desvelados
Observa Horace F. Judson, uno de los tratadistas más conocidos en el tema de la
biología molecular, que en el campo de la física la gran revolución se operó a
principios del siglo XX, con Einstein y Planck; mientras en el de la biología
una revolución similar habría de esperar a fines de la centuria. Una de las
causas de este retraso se debe, al parecer, al desconocimiento que se tuvo de
la obra de Gregor Mendel , no descubierta hasta los tiempos de H. De Vries
(1848-1935)7 W. Bateson (1861-1926), y también a la necesidad de nuevos medios
de observación, como el llamado microscopio electrónico y el método de
difracción por rayos X. Archibald E. Garrod (1857-1936) se dio cuenta, en una
serie de trabajos publicados entre 1902 y 1923, de que hay enfermedades o
determinados tipos de trastornos que son hereditarios, y que hay cualidades o
aspectos que permanecen latentes durante generaciones enteras... pero que al
cabo reaparecen entre determinados descendientes. Bateson, inglés como Garrod,
observó que las especies tienden a evolucionar no de una manera continua, sino
a saltos. Fue el primero en emplear la palabra genética. El
norteamericano Thomas Morgan (1866-1945) se especializó en mutaciones. Estudió
la mosca del vinagre, drosophila, que tiene un ciclo vital de solo diez días, y
permite por tanto el estudio de generaciones y generaciones en un breve periodo
de tiempo. De acuerdo con los cruces que estableció, obtuvo moscas de ojos
rojos o de ojos blancos. ¡Repetía los experimentos de Mendel, pero con medios
más sofisticados y con mucha más rapidez! En 1928 publicó Morgan La
teoría de los genes.
Ahora bien, ¿qué son los genes? En esa enrevesadísima investigación radicó la
más ardua labor de los biólogos durante más de medio siglo. Estaba claro que
las células, el más pequeño conjunto funcional de los seres vivos, están
formadas por moléculas orgánicas muy complejas: todas ellas contienen átomos de
carbono, componente fundamental de los seres vivos, además de otros muchos
elementos, entre ellos el oxígeno, el hidrógeno, el nitrógeno, el fósforo, etc.
Pues bien, es frecuente que en una sola molécula haya cientos de átomos de
carbono muy diversamente combinados con otros elementos. Formular de acuerdo
con las notaciones clásicas esta sofisticada forma de química orgánica es
infinitamente complicado. Pero la conciencia de que el estudio de esta forma
complejísima de química puede ayudar a conocer la forma de transmisión de la
vida fomentó el estudio de la biología molecular, en busca del siempre
apasionante conocimiento de la más íntima estructura química de los organismos.
Para Francis Crick, «casi todos los aspectos de la vida, tal cual pueden ser
observados, se organizan a nivel molecular, y si no entendiéramos estas muy
complejas moléculas, nuestra comprensión de la vida como fenómeno bioquímico,
sería muy incompleta». Pues bien, el ya citado Morgan estimó que un gen es
más que una molécula: parece ser un conjunto de moléculas orgánicas con
afinidad química: en definitiva, «una entidad química muy compleja y muy
organizada». Por entonces ya era bien conocida la estructura de las células,
que contribuyó a desentrañar Santiago Ramón y Cajal (1852-1934). En el núcleo
de una célula se forman los cromosomas, que juegan un papel fundamental en la
reproducción de la propia célula, y también, según se supo más tarde, en la
compleja estructura de la transmisión genética de generación en generación. Los
cromosomas son pequeñísimos filamentos muy enmadejados: cada uno de estos
filamentos, debidamente desenrollado, podría tener unos dos metros de longitud;
en cambio su grosor es solo de millonésimas de milímetro.
En el núcleo de una célula existen los llamados ácidos nucleicos, de los que
los más importantes son el ácido ribonucleico (ARN) y el ácido
desoxirribonucleico (ADN), cuyo papel es fundamental en la genética. El ADN es
una suerte de macromolécula portadora del «código» o de la «información»
genética del organismo, y permite que cada ser plasme en sus sucesores los
caracteres típicos de su especie. (Obsérvese cómo se emplea un lenguaje propio
de la informática, que para muchas personas no especializadas en genética puede
distorsionar los conceptos. Quizá un día puedan emplearse otras palabras). En
realidad, el ácido desoxirribonucleico fue descubierto ya en 1868 por el suizo
Friedrich Miescher; pero su función no fue aclarada hasta 1944 por el
canadiense Oswald Avery (1877-1955). Trabajando en Estados Unidos con sus
colegas Mac Leod y McCarthy, creyó deducir que el ADN es el material genético
por excelencia. El descubrimiento encontró opositores: otros daban preferencia
a las proteínas. La cuestión no se aclaró definitivamente hasta que pudo
aplicarse la técnica de la difracción por rayos X. La joven investigadora
británica Rosalind Franklin (1920-1958), muerta a los 38 años, sugirió que la
complicada estructura del ADN tenía dos cadenas distintas, y poco después
Maurice Wilkins, trabajando con modelos en tres dimensiones, halló que las
fibras de ADN obedecían a una estructura que se enroscaba en forma de doble
hélice. El paso fundamental estaba dado, aunque restaba todavía un largo
camino.
Ya en el último tercio del siglo XX, Francis Crick (1916-2004) y James Watson
(1928) precisaron esta estructura, y encontraron que tales cadenas están
formadas fundamentalmente por cuatro compuestos químicos básicos o nucleótidos,
llamados citosina, timina, adenina y guanina, conocidos por sus iniciales, C,
T, A, G. El orden en que se suceden estos principios o «bases» es fundamental
en la organización de la materia viva. Comoquiera que la estructura del ADN se
distribuye en forma de una doble hélice, es preciso hablar de «pares de bases»,
correspondiendo a cada par una distribución perfectamente correspondiente
respecto del otro par. Existen algo así como tres mil millones de pares de
bases, ordenados de tal forma, que la constitución de los organismos vivos es
posible. Se trata, si de esta forma prefiere hablarse, de una «inmensa
casualidad» que hace que cada ladrillo de la vida ocupe precisamente su lugar,
en orden admirable. Fred Hoyle, que además de afamado cosmólogo, se ha ocupado
del origen de la vida, recurre a una socorrida comparación: es tan difícil que
se opere el orden de los pares de bases como que un ejército de simios,
operando sobre un teclado, lleguen a componer las obras completas de
Shakespeare.
El código genético, combinando esas bases de una forma funcional, construye
«frases» como GGCATTAAAGGATCGGTG, que para un ajeno a la cuestión carecen de
sentido, pero que ordenan el material genético capaz de constituir las más
variadas células de los más delicados tejidos. El texto íntegro de las células
humanas está compuesto por unos 3200 millones de «letras». Una «palabra» o una
«frase», permítasenos el empleo de términos metafóricos, es lo que constituye
un gen. Por eso el número de genes es muy inferior al de pares
de bases, contrariamente a lo que se suponía en un principio. El genoma humano
no pasa de 30.000 genes: eso sí, cada uno de ellos es asombrosamente complejo.
Un gen es así un segmento de la secuencia de ADN que actúa como patrón para la
conformación de las células del organismo y de sus distintas funciones. El
conjunto de genes o genoma se puede entender como el libro en que está escrita
toda la información necesaria para la construcción, mantenimiento y
perpetuación de los seres vivos. Solo en los últimos años del siglo XX fue
posible poner en marcha el ambicioso Proyecto Genoma Humano. Para lograrlo,
hubo una verdadera carrera entre el National Human Genomic Research
Institute de los Estados Unidos, dirigido por Francis Collins, y la
también norteamericana empresa privada Celera Genomics, en un
programa dirigido por J. Craig Venter. Fue este segundo proyecto el que se
adelantó, dando a conocer al mundo el modelo concreto de genoma humano el 26 de
junio de 2001. Con todo, las prisas, muy típicas en estos proyectos por llegar
el primero, dieron lugar a ciertas imprecisiones o limitaciones, que se han ido
corrigiendo en años sucesivos.
Hasta aquí, la investigación propiamente dicha, el progreso del saber. Pero
toda investigación aspira a desarrollarse con fines prácticos. Desde los
primeros momentos, y sobre todo desde las ya citadas investigaciones de Garrod,
se supo que hay enfermedades que son hereditarias, y la transmisión de la
tendencia a reproducirse en los descendientes tiene una clara relación con las
leyes de la genética. Si ocurre alguna irregularidad durante la división o
duplicación de los genes, puede producirse un nuevo tipo de gen en el
individuo, y este nuevo tipo puede pasar a las siguientes generaciones. Ha
ocurrido una mutación genética. Unas veces, esta mutación no supone ningún
cambio sensible, pero en ocasiones se produce una variación en el
funcionamiento del gen. Estas variaciones pueden producir enfermedades de
origen genético, como la diabetes, determinados tipos de cáncer, la hemofilia,
etc. El hombre no puede crear vida; puede cambiar aspectos de la vida a base de
otra vida. En el campo de la medicina, puede curar enfermedades, atar
ligamentos, hasta realizar trasplantes. Lo mismo ocurre en el orden genético.
H. Boyer y S. Cohen encontraron un método para reordenar una célula de ADN en
un tubo de ensayo, con el fin de obtener células híbridas. R. D. Hotschkins fue
el primero en emplear el término «ingeniería genética» para designar estas
construcciones. Hoy pueden modificarse genes para curar enfermedades o impedir
su transmisión. Y cabe sustituir un segmento de ADN de una célula por otro: el
organismo que surge de esta sustitución se llama «transgénico». Las técnicas
transgénicas se utilizan sobre todo para mejorar la producción de especies
vegetales, obteniendo como resultado frutos mayores, más abundantes o de
resultados más satisfactorios. Con todo, se mantienen ciertas prevenciones
contra los transgénicos, a veces resultado de intereses económicos que buscan
una mayor productividad, cuyos efectos a la larga, en algunos casos, ya que no
en todos, pudieran resultar indeseables.
Sustituciones del mismo tipo pueden operarse en seres animales, y en el mismo
ser humano. La evitación de enfermedades hereditarias o de malformaciones es en
todo caso un hecho positivo. Llegar más lejos por este camino puede conducir,
según los casos, a avances espectaculares o a una manipulación irresponsable o
de consecuencias peligrosas. El resultado más espectacular hasta el momento de
la manipulación genética es la clonación. En biología, un clon es un organismo
multicelular genéticamente idéntico a otro. Un ejemplo natural de clon es el de
los hermanos gemelos procedentes de un mismo zigoto, o germen resultante de la
unión de un gameto masculino con otro femenino, que naturalmente se duplica
(gemelos univitelinos). Por lo general, la clonación artificial no llega tan
lejos, y se limita a aislar y obtener copias de un gen determinado, o un
fragmento de ADN. Para ello, se aísla este fragmento y se implanta en otro, por
lo general de un microorganismo. La clonación tiene muchas aplicaciones, la
mayor parte de ellas positivas y de resultados deseables. Sin embargo, el hecho
más sensacional en los últimos tiempos no es exactamente una clonación, sino un
proceso relativamente sencillo, pero de insólitas consecuencias, como fue el del
nacimiento de la oveja «Dolly», producto de una fecundación en que se emplearon
tres ovejas: una «donó», a la fuerza, por supuesto, un óvulo, otra el núcleo
portador de la mayor parte del ADN, y otra fue la que quedó embarazada y fue
autora del parto. Dolly no fue una «oveja artificial», como se dijo
pretenciosamente, sino que fue engendrada y desarrollada a través de elementos
ya vivos procedentes de tres «madres» distintas. Los artífices de esta
manipulación fueron los científicos del Instituto Roslin de Edimburgo, Ian
Wilmut y Keith Campbell. Dolly nació, eso sí, fruto de un parto natural, en
1997. En 1999 dio muestras de envejecimiento prematuro, padeció artritis
progresiva y murió a comienzos de 2003. Desde entonces crecieron las críticas
sobre los inconvenientes, peligros e irresponsabilidades de la manipulación
genética.
Las consecuencias a medio o largo plazo de los avances en el campo de la
ingeniería genética son muy difíciles de predecir, y lo mismo pueden conducir a
una vida más feliz, más sana y más respetuosa con las fuentes de la vida misma
que a manipulaciones irresponsables. Existe mucha literatura de ficción sobre
las consecuencias terribles de estas manipulaciones, y hoy por hoy estamos
bastante lejos de semejantes horrores; pero la posibilidad de que, andando el
tiempo, de un modo u otro se produzcan, y no solo por obra de especialistas o
técnicos de buena conciencia, no es una ficción, y resulta necesario prevenirse
contra sus riesgos, que pueden conducir a peligros previsibles, o lo que es
peor, imprevisibles, o atentar contra la dignidad de la naturaleza humana y el
respeto a la misma vida. Por ello es necesario que al progreso de la biología
se corresponda también el progreso de la bioética.
Los espectaculares avances de la ciencia en el campo de la genética nos
impresionan, en ocasiones es posible que nos alarmen si nos ponemos a pensar en
el panorama que puede ofrecernos el futuro a medio o largo plazo. Pero, en
cambio, no sentimos que esos avances se encuentren presentes en nuestra vida
ordinaria. Por el contrario, la electrónica, una de las especialidades
cientificotécnicas que de forma más revolucionaria se han desarrollado en los
tiempos presentes, se ha introducido en nuestra vida ordinaria en todos los
campos posibles. Nos valemos de la electrónica cuando llegamos a nuestra casa y
pulsamos un botón del ascensor dotado de memoria, cuando calentamos el café en
un microondas, cuando hablamos por teléfono, cuando regulamos el termostato de
la calefacción, cuando escuchamos la radio, o ponemos un CD para escuchar
música, cuando seleccionamos un canal de la televisión, cuando manejamos el
ordenador o nos conectamos a internet, cuando hacemos cuentas en una
calculadora o cuando abrimos mediante un mando la puerta de nuestro coche y arrancamos
el motor, sin saber tal vez que es un sistema electrónico el que provoca el
encendido y elige, sin que nosotros intervengamos en ello, el régimen de
revoluciones que más conviene desde el primer momento. Vivimos rodeados de
recursos electrónicos, aunque a veces no seamos del todo conscientes de que es
así.
La electrónica es la rama de la física, y de la ingeniería, que se ocupa de
obtener y utilizar circuitos eléctricos muy sofisticados, y que es capaz de
superar la simplicidad, tan admirada y realmente admirable en el siglo XIX y
comienzos del XX, de las instalaciones eléctricas convencionales. La
electrónica es uno de los protagonistas más importantes y más característicos
de la época final del siglo XX y de comienzos del XXI. Por 1950 empezó a hablarse
de «electricidad de alta precisión», fue entonces cuando se pusieron en marcha
el radar, la frecuencia modulada, las calculadoras eléctricas, la técnica del
guiado a distancia, y esta precisión fue aumentando a lo largo de toda la
segunda mitad de la centuria. Desde el siglo XIX se dibujaban esquemas
eléctricos en que aparecían representados los hilos conductores, las
resistencias, las bobinas, los rectificadores, las válvulas. Cada vez se
hicieron esquemas más complicados, que guiaban la construcción de circuitos
eléctricos también más complejos. Cuando la complejidad alcanzó un grado de
alta tecnología, puede decirse que empezó la electrónica. La electrónica
comenzó a desarrollarse especialmente en los Estados Unidos, en parte como
consecuencia de las investigaciones emprendidas durante la segunda guerra
mundial, y la llamada «guerra fría», también como producto de una mentalidad
industrial apoyada en la alta investigación. Los progresos fueron trascendiendo
al resto del mundo, y hoy día la electrónica puede ser empleada, aunque por
solo unos pocos, hasta en los países menos desarrollados.
§. La química del silicio. Transistores y chips
La química orgánica se basa en un elemento tetravalente, el carbono, cuya
presencia es fundamental para la vida, y todos los progresos en el campo de la
medicina, la farmacia y la biología se basan en ella. Porque su conocimiento
afecta a la vida, el hombre se ha esforzado por avanzar en su conocimiento más
especializado. Solo a fines del siglo XX ha comenzado a utilizarse la
complicada química del carbono para aplicaciones industriales y para la
obtención de materiales de última generación y peculiar utilidad. La química
del silicio, el otro elemento tetravalvente, que permite también obtener
combinaciones de casi infinita variedad, permaneció durante un tiempo más
retrasada, tal vez porque no se encontraba un camino fácil para obtener de ella
resultados rentables. Por otra parte, aunque la mayoría de las rocas y los
suelos de la superficie terrestre son compuestos de silicio, el aislamiento del
silicio puro requiere una buena técnica. Pero la situación cambió. Hoy
utilizamos silicio o compuestos de silicio lo mismo para la protección de naves
espaciales que para componentes muy delicados de automóviles o aviones, para la
fabricación de placas solares o fotovoltaicas, o para trazar circuitos
integrados en transistores o microchips de los más diversos instrumentos que
manejamos. El centro de investigación más sofisticado del mundo se encuentra en
el llamado Silicon Valley, o Valle del Silicio, es un complejo de multitud de
empresas más o menos asociadas, en California. El silicio, del cual se
obtuvieron los primeros instrumentos humanos en la Edad de Piedra, puede volver
a ser la base de los principales instrumentos del futuro.
A la importancia del silicio como material útil es preciso sumar las
posibilidades de la física cuántica. Si en un principio, la física cuántica
sumió a la ciencia en un piélago de nebulosas incertidumbres (vid. págs. 238 y
ss.), llegaría un momento en que se obtendrían de ella asombrosos resultados.
Lo mismo que en el conocimiento del átomo, aunque en el caso anterior quizá con
más utilidad todavía, un descubrimiento que parecía ser extremadamente teórico
ha resultado poseer un caudal increíble de aplicaciones prácticas. La
electrónica no hubiera llegado a donde hoy se encuentra, ni a donde, según las
más razonables conjeturas se encontrará en el futuro, sin un nuevo campo de la
física cuyas posibilidades apenas han comenzado a ser exploradas.
Hay elementos que son buenos conductores de la electricidad, como por lo
general son los metales (muy especialmente el cobre). Otros ofrecen fuerte
resistencia al paso de la corriente, y desde muy pronto se hizo patente la
necesidad de disponer también de «resistencias» Sin resistencias sería
imposible conseguir un circuito eléctrico complejo. Es más, la resistencia de
un cuerpo al paso de la corriente es la mejor forma de aprovechar su energía:
en una lámpara eléctrica, en un horno eléctrico, en una estufa. El silicio es
un «semiconductor» en el sentido de que su conductividad varía según la
temperatura, el campo eléctrico a que está sometido, la intensidad de la
corriente o gracias a pequeñas barreras o superconductores que pueden
introducirse en una lámina que se llena de circuitos. Puede ejercer así el
papel de una resistencia variable con ventaja sobre otros materiales. Así se
consagró el concepto de «semiconductor», un cuerpo o sistema que puede variar o
regular una corriente que pasa a través de él. El sistema fue desarrollado por
tres físicos norteamericanos, John Bardeen, William Shackley y Walter Badstain,
a fines de los años cincuenta y principios de los sesenta; recibió el nombre
de transfer resistor, o resistencia de transferencia. Por
abreviación de las dos palabras inglesas se ha consagrado mundialmente el
nombre de transistor. La mayoría de la gente relaciona esta
palabra con un aparato de radio portátil, y comete con ello una notable
incorrección: sí es algo más correcto hablar de «una radio de transistores»,
puesto que los transistores figuran entre sus componentes fundamentales.
Durante los dos primeros tercios del siglo XX, la mayor parte de los aparatos
de radio funcionaban a base de válvulas catódicas, o válvulas de vacío, que
hacían el papel de rectificadores o amplificadores: eran lo que llamábamos
corrientemente «lámparas de radio». Con aquellos aparatos, generalmente de buen
tamaño, dotados de un complicado esquema y de un buen número de lámparas,
podíamos escuchar, especialmente en onda extracorta, emisoras de todo el mundo.
Eso sí, hasta la aparición de la frecuencia modulada, era difícil evitar
interferencias y ruidos parásitos. Un receptor de transistores como los que hoy
empleamos es alimentado por unas pilas de escaso voltaje, lleva una pequeña
antena incorporada (no como la de nuestros abuelos, que podía medir cien
metros), y tiene, evidentemente, menos alcance (en los modelos comerciales que
se nos ofrecen). Ello queda compensado por el hecho de que hay muchas más
emisoras, y repetidores herzianos que permiten conectar con cadenas de emisoras
muy diversas. Pero lo que hemos de tener en cuenta desde el primer momento es
que el transistor es una lámina o muchas láminas de silicio que forman parte de
complejos circuitos integrados, y que el sistema de transistores se aplica
tanto a nuestro televisor, a nuestro teléfono a nuestro tocadiscos, a nuestro
ordenador como a nuestros aparatos de radio.
En relación con la conductividad modificable de los transistores están los
complicados sistemas eléctricos que son los circuitos impresos y, sobre todo
hoy, los circuitos integrados. Es posible reunir una cantidad muy grande de
conexiones eléctricas, con sus consiguientes elementos modificadores, en un
espacio muy pequeño, gracias a las posibilidades de las placas de silicio. Una
combinación entre transistores, modificadores y resistencias dio lugar a
circuitos integrados muy complejos. El primer circuito integrado fue obtenido
por Jack Kilby en 1958. Desde entonces, no han hecho más que multiplicarse tanto
los circuitos como sus aplicaciones a todas las ramas de la electrónica y a los
instrumentos más variados. Un pequeño circuito integrado, concentrado en una
«pastilla» es lo que se llama chip. Y si todavía es más pequeño, ¡no por eso
menos complejo!, microchip. Una de las ventajas de la microelectrónica es,
ciertamente, su tamaño. Un aparato de radio provisto de válvulas era un mueble;
un aparato de radio hoy (o un teléfono móvil) puede llevarse en el bolsillo. Un
ordenador ocupaba en sus primeros tiempos el tamaño de una habitación, por los
años sesenta o setenta el de un armario. Hoy existen ordenadores menores que
una petaca. Lo mismo puede decirse de cualesquiera instrumentos electrónicos
provistos de transistores, circuitos integrados y microchips. Si hoy padecemos
o no una cierta manía de lo innecesariamente diminuto es cuestión que no hay
por qué discutir aquí; sí cabe admirarse en todo caso del hecho de que sistemas
cada vez más complejos y más perfectos ocupen progresivamente menos espacio.
Para determinadas necesidades, en centros científicos, o, por ejemplo, en la
aviación o en la cirugía, la miniaturización supone una ventaja fundamental.
Otra reducción igualmente asombrosa, pero con toda probabilidad más práctica,
es la posibilidad de realizar funciones muy importantes con un consumo muy bajo
de energía.
La reducción de tamaño y la complejidad tecnológica, aunque parezcan tendencias
en sentido inverso, son producto del mismo orden del progreso humano. Por los
años setenta del siglo XX, un chip incluía media docena de transistores; por
los años noventa, un microchip (mucho más pequeño) estaba compuesto por
millones de transistores. Lo cierto es que la electrónica, a fines del siglo XX
y principios del XXI, ha transformado la vida del hombre y sus posibilidades
como mínimo en un grado comparable al de los grandes inventos «prácticos» de la
segunda mitad del siglo XIX. Y puede decirse que aún estamos comenzando el
camino de la electrónica.
§. La televisión
El descubrimiento de un sistema de captación de imágenes luminosas por un
sensor y su transmisión por medio de ondas herzianas a aparatos capaces de
reproducir esas imágenes sobre una pantalla no es posiblemente la conquista más
meritoria de la electrónica, pero sí ha constituido un fenómeno social de
primer orden, pues que son miles de millones los seres humanos que lo utilizan
y de una forma u otra se dejan seducir y conducir por este medio de
comunicación. Siquiera sea por razón de esta aceptación masiva y del influjo o
formas de vida que de ella puedan derivarse, merece la pena dedicar un breve
apartado a la historia de la televisión.
La idea de transmitir imágenes a distancia, por procedimientos más o memos
similares a los que ya existían para transmitir sonidos, es relativamente
antigua. Si cabe enviar sonidos mediante placas vibratorias, cuyas vibraciones
son reproducidas por otra placa que recibe los mismos impulsos, ¿por qué no era
posible enviar y recibir imágenes mediante vibraciones recibidas de las ondas
luminosas? El problema consistía en que si las vibraciones sonoras pueden ser
reproducidas por una lámina que vibra sesenta, cien, quinientas veces por
segundo, las vibraciones de la luz son del orden de miles de millones por
segundo, y no pueden ser reproducidas por similares procedimientos. Sin
embargo, se intuía la posibilidad de encontrar un cuerpo «fotoeléctrico», capaz
de transformar en señales transmisibles la energía luminosa, y de reproducirlas
también en forma de emisiones de luz; en definitiva, se trataba de buscar un
medio para descomponer una fotografía o imagen en líneas y puntos claros y
oscuros, y al mismo tiempo, lograr una pantalla que pudiese reproducir aquellos
impulsos tal como se habían recibido. Poco a poco se fueron conociendo las
propiedades de un elemento que acusa múltiples sensaciones producidas por la
luz. El selenio, al ser iluminado por una luz de diversas frecuencias, emite
electrones de esas frecuencias que pueden recogerse y transmitirse. Todo
consiste en fabricar un complejo de células de selenio, emitir la señal que
produjesen, y recibirla en una pantalla capaz de reproducir las mismas
frecuencias, y distribuirlas en el mismo orden espacial en que se habían
transmitido. G. Casselli, en 1863, inventó el «pantelégrafo», un aparato todo
lo primitivo que se quiera, pero que le permitió enviar a través de cable
dibujos de París a Marsella. En 1875, el norteamericano Carey proyectó
transmitir imágenes desde un emisor formado por 2.500 células de selenio hasta
una pantalla formada por otras 2.500 lámparas, unidas cada una a sus
respectivas células por medio de 2.500 cables. El proyecto resultó demasiado
complicado y caro, y no consiguió la ayuda necesaria. Con todo, estaban dados
los primeros pasos en la transmisión de imágenes.
Ahora bien: la transmisión telegráfica, y después la telefónica y la
radiofónica son diacrónicas, es decir, permiten emitir y recibir sonidos
sucesivos, como son los de una conversación o una pieza musical. ¿Era posible
pasar de la imagen estática a la imagen en movimiento? Tal posibilidad representaría
el equivalente del paso de la fotografía (1840) al cine (1896). El proceso
también fue, en este caso, muy lento. En 1884 el ingeniero alemán Paul Nipkow
inventó un disco de exploración lumínica (disco de Nipkow). Este disco estaba
perforado por una serie de agujeros dispuestos en forma de espiral. Colocado el
disco delante de una imagen, el ojo no podía ver más que partes muy pequeñas de
la misma; pero si se lo hacía girar con rapidez, era posible ver la imagen
completa. Es preciso recordar, en una observación válida también para el cine,
que el ojo humano no puede retener imágenes que duran, por ejemplo, una
centésima de segundo. Esta limitación tiene, por paradoja, enormes ventajas.
Sustituyendo, por ejemplo, cada fracción de segundo, una imagen por otra muy
parecida (por ejemplo, la de un hombre que adelanta cada vez más un poco más el
pie) podremos obtener la sensación de movimiento: cada imagen
es fija, pero la sucesión muy rápida de imágenes nos hace parecer que el hombre
camina. De aquí los dibujos para niños en libritos cuyas páginas se hacen pasar
velozmente, el zootropo, un juguete muy didáctico en los
laboratorios de física de los colegios, o el cine, en que la «cruz de malta»
del proyector establece un casi imperceptible momento de oscuridad, que se
aprovecha para sustituir una imagen por la siguiente. Si la sustitución se
opera a una frecuencia inferior a 16 imágenes por segundo, observaremos que el
movimiento se opera «a saltos»; una velocidad mayor produce todavía una cierta
sensación de parpadeo (observable en muchas películas antiguas). Ahora bien,
con el disco de Nipkow, si giraba lentamente, no se apreciaba bien la sensación
de movimiento: si lo hacía muy deprisa, apenas podía verse nada. El sistema no
estaba mal pensado; solo que era preciso perfeccionarlo. Y la versión
definitiva no podría llegar hasta la era de la electrónica. El británico John
L. Baird realizó los primeros experimentos en 1926, al transmitir 12 imágenes
por segundo: ¡todavía una velocidad insuficiente, pero estaba en la verdadera
línea! En 1928 consiguió resultados mucho más aceptables. En ese mismo año, un
ruso-americano, Wladimir Sworykin, inventaba el tubo iconoscopio, un elemento
fundamental para la reconstrucción de imágenes. En el iconoscopio, una cámara
proyecta la imagen sobre un mosaico fotoeléctrico revestido
por millares de gotitas microscópicas de cesio, sensibles a la luz. Cada una
recibe la señal luminosa de una parte de la imagen, e irradia a su vez lo que
ha recibido, para su transmisión. Esta señal es captada por un receptor
provisto de tubos que reproducen cada uno de los fragmentos de señal recibidos,
y los proyectan sobre una pantalla.
En 1930, la BBC británica comenzó sus emisiones de televisión. En un principio,
la escasa definición de las imágenes (30 líneas, y con interferencias), pareció
un fracaso, y hasta se pensó en suspender las sesiones: llegó a pensarse que la
televisión tenía un dudoso porvenir (!); pero por los años 30 se perfeccionaron
los sistemas y se vendieron unos 10.000 receptores. Sin embargo, fue el método
electrónico de Sworykin el que se impuso definitivamente, y permitió afinar la
definición. La televisión ya estaba en marcha como sistema audiovisual aceptado
por miles de personas, cuando llegó la guerra mundial (1939-1945), y
desaparecieron casi todas las emisiones dedicadas al público (excepto en USA). Por
1945-55, la televisión llegó a todo el mundo desarrollado, y en la década
siguiente, a todo el resto del planeta. A comienzos del siglo XXI existen
millares de estaciones emisoras y más de mil millones de receptores en toda
clase de domicilios, porque la penuria económica no frena el ansia de poseerlos
antes que otro bien disfrutable. Ya por 1958 «France-Soir» comentaba que en las
chabolas de los alrededores de París, carentes de los servicios más
elementales, no faltaba nunca una antena de televisión.
El fundamento de la televisión moderna es más complejo que el del
cinematógrafo. La sensación de continuidad se consigue con la iluminación de un
determinado número de cuadros por segundo, con los mismos efectos visuales que
en el cine. La imagen se divide en una serie de líneas que son barridas de
izquierda a derecha y de arriba a abajo. Para una mejor adaptación visual del
espectador (aunque el espectador no se fija en nada, como no sea la imagen
completa que cree ver), alternan las líneas pares con las impares. Nunca vemos
todas las líneas a la vez, ni siquiera todos los puntos. Es lo mismo; la retina
los retiene todos como si fueran simultáneos. La calidad de la imagen es tanto
mayor cuanto más alto sea el número de líneas. En Europa se ha adoptado la norma
de emitir, y por tanto recibir, en 625 líneas.
La televisión, como el cine, ha pasado del blanco y negro al color, y ha
adquirido las formas más diversas de difusión de sus emisiones: por
repetidores, por cable, por satélite, la versión digital, que aumenta la
definición. Las pantallas de tubos tienden a sustituirse por pantallas planas
de plasma. Por otra parte, la posibilidad de colocar en órbita satélites
geosincrónicos, que a 36.000 km de la Tierra giran en torno a ésta en 24 horas,
les permite estar siempre encima del mismo continente, de suerte que su señal
pueda ser captada por antenas fijas, sea cual sea la distancia a que se
encuentre la estación emisora. El sistema de televisión no solo es un servicio,
público o privado, de información, distracción, transmisión de actos en
directo, reportajes, espectáculos de todas clases... publicidad, sino que se
emplea también en circuitos cerrados para información o vigilancia. El mundo
está lleno, y probablemente lo estará cada vez más, de cámaras y pantallas que
emiten, reciben y reproducen sin cesar.
El avance de la electrónica, hoy es preciso hablar de microelectrónica, en el
mundo se debe ante todo a las portentosas posibilidades que nos ofrece la
técnica en el campo de los transistores, los circuitos integrados y los chips.
La aplicación de estos métodos, a los que ya nos hemos referido en sus términos
generales, ha enriquecido hasta posibilidades inimaginables a las
comunicaciones, a la industria, a la cibernética o arte de ingeniar
instrumentos que se manejan y controlan por sí solos, a la robótica, o empleo
de máquinas que pueden sustituir, ¡tal vez suplantar!, las funciones del
trabajo humano; y, sobre todo la informática, una ciencia muy compleja que
designa funciones muy diferentes entre sí, como pueden ser la de calcular, la
de almacenar y ordenar datos, la de diseñar modelos, o virtualizar imágenes a
tres dimensiones, o la de procesar cualquier serie de información, incluidos
textos escritos enteramente revisables a voluntad.
Muy probablemente, el campo donde más espectacularmente y con más amplias
aplicaciones se ha desarrollado la electrónica es la informática. Informática,
nombre tomado de dos palabras, «información» y «automática», suele definirse
como la tecnología que se ocupa de obtener y procesar toda clase de información
mediante sistemas automáticos. En general, las funciones más requeridas en este
enorme ámbito son las de cálculo y las de ordenación o procesamiento; más
tarde, por la posibilidad de asociar un instrumento electrónico a una red o
base de datos, también la búsqueda de información en sí. De aquí los nombres
que se han dado a los instrumentos de esta naturaleza. Primero predominó el de
«computador» o «computadora», que alude a su empleo en funciones de cálculo.
Este nombre se ha mantenido en inglés, y, quizá por su influjo, se emplea en la
mayor parte de los países de habla española en América. Después se ha hablado
de «ordenador». En España, por los años ochenta del siglo XX, los centros
científicos preferían el término «computador» para máquinas o programas
orientados a tareas de cálculo; y «ordenador» para los destinados
preferentemente a bases de datos o a tareas de procesamiento. Hoy se prefiere
la palabra «ordenador», con independencia de las casi infinitamente variadas
funciones y aplicaciones que esté preparado para realizar el instrumento,
según, por supuesto, los programas que se introduzcan en él.
Se comenzó, y desde hace muchísimo tiempo, por la computación, es decir, por el
cálculo matemático. El ábaco (vid. p. ej., pág. 25) permitía
realizar operaciones sencillas. John Neper, inventor de los logaritmos fabricó
un aparato con palillos impresos que facilitaba las operaciones de
multiplicación y división; y muy poco después Blas Pascal inventó la primera
calculadora mecánica. Su padre era funcionario de Hacienda, y para él ideó un
aparato de ruedas dentadas en que cada una hacía avanzar un paso a la siguiente
cuando completaba una vuelta. Giraban mediante una manivela, en una dirección
para sumar y en la otra para restar. A fines del XVII, Leibniz (vid. págs. 120
ss.) inventó una máquina que podía multiplicar, dividir y obtener raíces
cuadradas. En 1801 el francés Jacquard inventó el sistema de tarjetas
perforadas, y en 1879 el americano Hollerith lo perfeccionó para trabajos
estadísticos. Las tarjetas perforadas, que permiten advertir concomitancias en
una serie de datos, ahorraban mucho tiempo de búsqueda y clasificación. Las
tarjetas perforadas constituyen el primer sistema de «ordenador» que existió.
En 1900 el mismo Hollerith inventó una máquina que podía clasificar 300
tarjetas por minuto, y en 1924 fundó la primera compañía informática, la
International Business Machines, IBM. Sus aparatos funcionaban por sistemas
puramente mecánicos, pero ya rendían resultados que podían ahorrar muchísimo
tiempo.
La electrónica perfeccionó increíblemente los sistemas, los hizo mucho más
rápidos y les confirió una serie de aplicaciones hasta entonces inimaginables.
Por 1935, el bulgaro-americano John V. Atanassoff obtuvo la primera calculadora
digital, que operaba en sistema binario. Fue el primero en llamar al aparato
«Computer». La guerra mundial, por el interés de los contendientes, aceleró el
proceso, y en 1943 se inició el proyecto ENIAC (Electronic Numerical Integrator
and Computer), cuyos resultados comenzaron a tocarse en 1947. El ENIAC tenía
19.000 válvulas, 1.500 relevadores eléctricos, 7.500 interruptores, más de
100.000 resistencias y 800 kilómetros de cables. Pesaba unas treinta toneladas,
y ocupaba trescientos metros cúbicos. Necesitaba un edificio especial para él.
Eso sí, podía realizar 5.000 sumas por minuto, una velocidad maravillosa para
aquella época. Entretanto, los alemanes, en el bando contrario, habían
inventado la computadora Z 3, ideada por Konrad Zusse; en 1944, la máquina fue
destruida por un bombardeo aliado, pero se conservó el esquema, que permitió,
unido ya a los americanos, mejorar los resultados.
Los transistores y los sistemas de circuitos integrados imprimieron un impulso
definitivo, multiplicaron espectacularmente las aplicaciones de los ordenadores
y disminuyeron drásticamente su tamaño. Las válvulas y sus accesorios fueron
sustituidos por chips y microchips. El ordenador pasó de tener el tamaño de una
casa al tamaño de un armario, luego al de un objeto como una máquina de
escribir... o de una billetera. Lo que antes era preciso depositar en un
decímetro cúbico de ferrita cabía ahora en un chip de pocos milímetros. Por los
años 70 las computadoras podían realizar operaciones muy complejas, hacer
diseños, trazar modelos, ordenar y relacionar datos, controlar otros
instrumentos. En 1971 se creó el primer programa para enviar correo
electrónico. En 1976 se establecieron las compañías Microsoft y Apple. Y en
1980 apareció el ordenador personal, manejable en casa, y Bill Gates inventó el
lenguaje Windows, muy ágil y asequible a cualquier operador. El sistema
operativo Windows, como tal, se desarrolló por Microsoft en 1985. Desde 1984 se
consagraron los sistemas operativos Macintosh, comercializados por Apple. Por los
años 90 se difundió el sistema operativo Linux... etc. Entretanto, se había
encontrado la posibilidad no solo de conectar un ordenador con otro situado a
gran distancia, sino hacerlo a una base de datos, o a una red muy amplia de
información compartible por muchos usuarios. Así nació internet, en principio
red de ordenadores interconectados, luego una red extensísima de fuentes de
información en línea, que permite acceder a miles de millones de «portales» y
páginas distintas. En 1996 se creó Internet 2, que permite una gran velocidad
de conexión y descarga. En 2006 el número de usuarios de internet en todo el
mundo alcanzó los cien millones.
Los ordenadores, como casi todo el mundo sabe, funcionan en sistema binario. Es
el más sencillo, porque solo conoce dos dígitos, pero en cambio necesita muchas
series de dígitos para representar valores o significados. De momento al menos,
es preferible configurar las máquinas en un sistema binario. Un ordenador no
conoce, por tanto, más que dos dígitos, digamos para simbolizarlos, o y i. Cada
dígito es un binary digit, o, como se escribe de forma
resumida, un «bit». Podemos darles un significado determinado, «positivo» y
«negativo», «abierto» y «cerrado», «encendido» y «apagado», «blanco» y «negro»,
según el programa que establezcamos. Si trabajamos con dos bits para conocer el
estado de dos bombillas, podemos representar cuatro combinaciones: oo, las dos
apagadas; io, la primera encendida y la segunda apagada; oi, la primera apagada
y la segunda encendida; ii, las dos encendidas. Se estima que con ocho bits se
puede expresar una construcción mínimamente lógica; este valor de ocho bits se
llama «byte». Un byte admite ya 256 combinaciones de dígitos. En abreviatura se
representan bit como b y byte como B. Un
ordenador funciona con millones o billones de elementos, aunque pertenezcan
todos al simplicísimo sistema binario. Los múltiplos más conocidos son «kilo»,
mil; «mega», un millón; «giga», mil millones; «tera», un billón. Combinando
miles de millones o billones de datos, es posible realizar todas las
operaciones imaginables. Naturalmente, la función que realizan estos datos
depende de los programas o software que se hayan introducido
en el disco duro o hardware, que es el gigantesco almacén que
los contiene y controla todos.
Innecesario parece seguir con la historia cada vez más prodigiosa del
ordenador. Hoy existen máquinas capaces de las más variadas funciones, dotadas
de una capacidad casi ilimitada, que pueden operar a velocidades increíbles. Se
estima que no se logrará jamás una «inteligencia artificial» capaz de
ingeniárselas por sí sola, o de rebelarse contra los propios humanos, como se
ha pretendido dramáticamente en novelas o películas de ficción,: al fin y al
cabo, una máquina es obra de humanos y solo opera en los sistemas previstos y
ordenados por humanos. Su lógica es una lógica programada por seres capaces de
pensar, y de concebir, como aquéllas no conciben, ideas abstractas, con
libertad, con imaginación, y, lo que tal vez es más prodigioso, con intuición.
No podemos exigir abstracción, libertad, imaginación ni intuición a un
ordenador, por mucho que simule tenerlas. Pero su velocidad de respuesta es
incalculablemente superior a la que tiene el hombre, y no sabemos todavía a
dónde puede llegar.
A modo de conclusión
La ciencia progresa, ha progresado siempre. Cabe,
asumida su naturaleza y la propia naturaleza del hombre, que siga progresando
de una manera u otra en el futuro. El hombre es un ser que quiere alcanzar cada
vez objetivos más amplios, y por consiguiente nunca se conforma con lo que ha
logrado saber o con lo que ha podido conseguir. En ocasiones se equivoca, pero
no deja de progresar cuando tras reconocer su equivocación rectifica. Se han
cometido a lo largo de la historia de la ciencia gruesos errores, que en
determinado momento se han corregido. También se dan en ella momentos de
progreso y momentos de estancamiento, pero hay al mismo tiempo una curiosa
sustitución en el protagonismo de los avances más notables. Los chinos o los
caldeos eran los pioneros de la ciencia en el mundo cuando los griegos apenas
habían despertado a la llamada del saber. Luego fueron los griegos los que
alcanzaron nuevas y desconocidas fronteras. La ciencia clásica, tras siglos de
esplendor, se estancó tras la decadencia del imperio romano, pero, a poco de
consagrada esta crisis, los árabes fundieron la aportación de varias culturas,
y se convirtieron los mejores científicos de la Tierra. Decayeron justamente
cuando la ciencia de Occidente tomaba el relevo y llevaría la delantera al
resto del mundo durante siglos. Siempre hubo alguna o algunas culturas
particularmente destacadas en la preocupación por el conocer científico, y
hasta cabe aceptar la sugerencia de que, tomando en cada momento histórico el
grado de desarrollo de la cultura más avanzada, el progreso de la ciencia no se
detuvo nunca.
Los tiempos modernos, por lo menos desde fines del siglo XVII, han
presenciado una espectacular aceleración del saber científico en el ámbito de
Occidente, una aceleración que no se ha detenido todavía, y que ha llevado a la
cultura occidental a ejercer una función de liderazgo que se extiende hasta los
tiempos de la globalización. Aún hoy, la ciencia que desarrollan con éxito
otras culturas es heredera directa en casi todos los casos de la ciencia
occidental. A dónde puede llevarnos este proceso de aceleración cada vez más
espectacular es un extremo que nos atañe muy particularmente, que nos interesa,
nos apasiona y hasta nos preocupa, pero en cuya naturaleza no podemos entrar
cuando nos limitamos a repasar la historia de la ciencia. La historia falta a
su naturaleza cuando se atreve a atisbar el futuro.
La aceleración del progreso científico es uno de los hechos más espectaculares
de los tiempos que vivimos, y no puede por menos de producir una dosis muy
grande de admiración. Este proceso, que en unos casos ha decidido los destinos
del mundo, que en otros ha suscitado, junto con esa admiración, una cierta
alarma e incluso temor (a las formas de energía atómica, a las manipulaciones
sobre la vida, a la «inteligencia artificial», a la degradación del medio
ambiente, al paro originado por la suplantación del trabajo humano por el de
otros ingenios muy eficaces) ha provocado las más inesperadas reacciones en los
analistas y en la misma sociedad. Se ha destacado que el progreso en sí ha de
resultar siempre positivo, pero sería en alto grado deseable un progreso
armónico y equilibrado. Resulta intuible que, incluso sin salir del mundo
científico, el progreso ha sido o está siendo mucho más acelerado en unas áreas
de conocimiento que en otras; y, si salimos de su mundo específico, también
parece cierto que el progreso científico, en general, resulta demasiado grande
comparado con otros ámbitos de progreso en que el desarrollo humano ha
experimentado menos avances, o incluso en determinados valores fundamentales
para el sentido más profundo del ser y el existir humano puede encontrarse en
regresión. Esta desproporción en los distintos componentes del progreso, que ya
preocupaba a Ortega y Gasset, puede representar para un especialista en
«filosofía del progreso» como Robert Nisbet, un «descoyuntamiento», similar al
de un hombre cuyo brazo derecho o cuya oreja izquierda crecen mucho más que los
demás miembros, en tanto los pies o las manos se atrofian o se anquilosan: un
hombre tal acabaría convirtiéndose en un monstruo. No es criticable el progreso
en sí, sino su aceleración en solo unas direcciones determinadas. Quizá en el
futuro se vea clara la necesidad de una armonización de todos los valores que
nos realizan como seres inteligentes y responsables.
El progreso científico ha vivido, en especial a partir del arranque de su
aceleración a fines del siglo XVII, fases iconoclastas. La ciencia antigua se
ha presentado muchas veces como despreciable, equivocada y por lo mismo
absolutamente digna de ser fustigada y desechada. Luego, la iconoclastia se
suaviza, y se reconocen los aciertos de los antiguos, evitando sus errores y
superando sus limitaciones. La geometría no euclidiana no tiene por qué
desterrar a Euclides, cuyos principios siguen siendo perfectamente válidos en
la vida corriente, y constituyen el instrumento habitual de los mismos
científicos. Einstein no ha condenado a Newton, aunque ha modificado sus
conceptos; pero las ecuaciones newtonianas siguen siendo tan útiles como hace
siglos para el cálculo de órbitas o para evaluar la caída de los cuerpos. Lo
nuevo no destruye todo lo antiguo, ni tampoco hubiera podido establecerse sin
el apoyo previo de lo antiguo: precisamente por eso sigue siendo útil y en
muchos casos necesaria la historia de la ciencia.
Para terminar. En algunas ocasiones, el optimismo ambiente, atizado por los
logros espectaculares, hizo pensar que la historia de la ciencia se encontraba
cerca de su final; o, en otras palabras, que el progreso científico poseía una
meta, y esa meta estaba a punto de ser alcanzada. La Ilustración, el
Positivismo, pero también el salto gigante de los últimos años han dado pie a
especulaciones de una u otra naturaleza, pero siempre en un sentido análogo. El
«fin de la historia», como tal también en sentido genérico, como pudieron
concebirla Hegel, Marx o Fukuyama, representaría una época de plenitud, una
especie de paraíso en la tierra, en que ya estarían gozosamente alcanzadas
todas las metas deseables: los historiadores piensan que eso no deja de ser una
bella utopía. En un libro muy leído, o muy comenzado a leer, como que fue
un best seller a fines del siglo XX, el cosmólogo Stephen
Hawking terminaba con una afirmación sorprendente: «si un día logramos una
fórmula capaz de expresar la realidad del Universo, se refería a la Teoría de
la Gran Unificación, habremos conseguido penetrar en la mente de Dios». Un poco
pretenciosa puede parecer esa suposición. El hombre posee una bendita ansia de
saber, y saber cada vez más. Pero, con toda la excelencia que le caracteriza,
es un ser limitado, y no puede aspirar a un saber infinito. Demasiados
desengaños nos ha proporcionado ya la orgullosa seguridad de haber alcanzado un
grado de conocimiento absoluto sin otro medio que la razón, por admirable que
sea esa herramienta concedida al hombre, como para que caigamos de nuevo en la
misma equivocación. El endiosamiento del sabio (y más aún el de quien cree ser
sabio) ha sido siempre peligroso, lo es y lo seguirá siendo.
¿Quiere significar un reconocimiento de esta limitación que habrá de llegar un
momento en que tendremos que renunciar a aumentar nuestros conocimientos?
Todavía no estamos en condiciones de tocar los límites de la ciencia posible,
entendamos la ciencia asequible al hombre. Por un lado, es mucho más todavía,
por increíble que pueda parecemos, lo que resta por conocer que lo que
conocemos; por otro, la capacidad de la inteligencia humana puede potenciarse
más y más en el futuro. Tenemos todavía un amplio camino por delante, tal vez
hasta horizontes que hoy ni siquiera somos capaces de imaginar, como nuestros
antepasados, con poseer una rica imaginación, tampoco imaginaron muchos de los
logros actuales. Mantenemos, por lo menos el mismo grado de curiosidad que los
primeros y sencillos exploradores de la naturaleza, un ansia ilimitada de
conocer realidades nuevas y de resolver misterios; y mantenemos, o debemos
mantener siempre, como nos exige la ética de la ciencia, un incondicional amor
a la verdad, a alcanzar la verdad, en vez de tratar de imponernos a ella.
F I N
Notas:
[1] Los
romanos representaban el 4 como IIII. La forma IV aparece en el Renacimiento.
[2] Es
difícil comprender cómo Schiaparelli, Lowell o Antoniadi lograron «ver» tantos
y tan perfectos canales en Marte. Hoy sabemos muy bien que no existen. Se
trató, sin duda, de confusiones ópticas. La vista tiende a hacernos creer que
son regulares formaciones muy lejanas y confusas que no podemos columbrar con
seguridad. Las letras de un libro, a dos metros de distancia, nos parecen
líneas rectas y continuas.
[3] Escribiendo
números quebrados, podemos decir que Aquiles alcanza a la tortuga en el metro m
+ 1/9. Con esta expresión, no necesitamos infinitos decimales. Dividamos 1
entre 9 y veremos por qué.
[4] Curioso:
el Halley lo descubrió en 1758 un pastor alemán, llamado Palizsch.
[5] Otro
hecho curioso: Urano se distingue, aunque débilmente, a simple vista, en una
noche oscura. Muchos astrónomos, que no disponían de un instrumento tan potente
como el de Herschel, lo catalogaron como una estrella (que, por cierto, no
volvió a verse en el punto que señalaba cada catálogo). Pero algunas culturas
primitivas conocían la existencia de Urano, entre ellos los indígenas de
Tahití, que hasta le habían dado un nombre. Otro hecho anecdótico que tal vez
conviene recordar. Urano fue visto como sospechoso de no ser una estrella por
Le Monnier , que anotó su posición en el papel de un paquetito para empolvar
pelucas. Alguien tiró aquel papel, y Le Monnier se desesperó buscándolo.
Despistes de sabios, que a veces tienen malas consecuencias.
[6] Por si
hace falta recordarlo, desterremos para siempre la idea infantil de que el
hidrógeno «pesa hacia arriba». Tiende a subir en la atmósfera, porque es menos
pesado que el aire; pero en el vacío el hidrógeno pesa, aunque sea el más
ligero de los elementos.
[7] Este
ciclo de ocho en ocho solo es aplicable hasta el calcio. Luego, la periodicidad
es otra. Pero no pretendemos complicar las cosas al lector, y solo llamar la
atención sobre el hecho de una cierta periodicidad.
[8] En
agosto de 2006, una nueva sesión de la Unión Astronómica Internacional renovó
la polémica hasta extremos impensados. En principio se decidió declarar
planetas a Ceres, Caronte (satélite de Plutón,!), Sedna y Xena, con lo que el
número total de planetas ascendería a doce. A última hora, posiblemente con
mejor criterio, se votó la exclusión de Plutón y de todos los demás cuerpos
menores de la lista de planetas propiamente dichos. Aún queda por decidir una
buena clasificación de los cuerpos del sistema solar.
[9] En
física de partículas se pueden formular los fenómenos, y también predecir su
estadística, no los hechos concretos, pero a la hora de su explicación primaria
es preciso operar por analogía, y de ahí la necesidad de emplear tantas
palabras entre comillas.
[10] En el
campo de la física de partículas y otros de la física moderna, hay que
distinguir entre el hecho de «postular» (llegar a la conclusión de que es
necesaria u obvia la existencia de algo) y «descubrir», que es comprobar
experimentalmente su existencia. En ocasiones se emplea, quizá impropiamente el
verbo «predecir». No todo lo predicho o postulado llega a ser comprobado o
descubierto de una manera efectiva, aunque existen motivos para suponer que las
cosas son como las «predicen».

No hay comentarios:
Publicar un comentario