© Libro N° 9921. Una Historia De La Medicina. Mingote, Antonio Y Sánchez Ron, José Manuel. Emancipación.
Mayo 14 de 2022.
Título
original: ©
Una Historia De La Medicina. Antonio
Mingote Y José Manuel Sánchez Ron
Versión Original: © Una Historia De La Medicina. Antonio
Mingote Y José Manuel Sánchez Ron
Circulación conocimiento libre, Diseño y edición
digital de Versión original de textos:
http://www.librosmaravillosos.com/unahistoriadelamedicina/index.html
Licencia Creative Commons:
Emancipación
Obrera utiliza una licencia Creative
Commons, puedes copiar, difundir o remezclar nuestro contenido, con la única
condición de citar la fuente.
La
Biblioteca Emancipación Obrera es un medio de difusión cultural sin fronteras,
no obstante los derechos sobre los contenidos publicados pertenecen a sus
respectivos autores y se basa en la circulación del conocimiento libre. Los
Diseños y edición digital en su mayoría corresponden a Versiones originales de
textos. El uso de los mismos son estrictamente educativos y está prohibida
su comercialización.
Autoría-atribución: Respetar la autoría del texto y el nombre de los autores
No comercial: No se puede utilizar este trabajo con fines
comerciales
No derivados: No se puede alterar, modificar o reconstruir este
texto.
Fondo:
https://img.freepik.com/vector-gratis/fondo-formas-hexagono-abstracto-degradado_23-2149120168.jpg?t=st=1651180656~exp=1651181256~hmac=f9230295c6cb9b5c36b02c1c2348abc274d667a36f7895e7a263b5d847a9cc22&w=740
Portada E.O. de Imagen original:
http://www.librosmaravillosos.com/unahistoriadelamedicina/imagenes/portada.jpg
© Edición, reedición y Colección Biblioteca Emancipación: Guillermo Molina
Miranda
LEAMOS SIN RESERVAS,
ANALICEMOS SIN PEREZA Y SOMETAMOS A CRÍTICA TODA LA CULTURA
Antonio
Mingote
Y
José Manuel Sánchez Ron
Una
Historia De La Medicina
Antonio
Mingote Y José Manuel Sánchez Ron
CONTENIDO
Prólogo y recuerdo de un hombre bueno
1. El nacimiento de la medicina
2. El reino de Hipócrates: la medicina griega
3. De Galeno a Vesalio
4. Epidemias y hospitales
5. La circulación de la sangre
6. Buscando lo inobservable: Hooke, Leeuwenhoek y el microscopio
7. La medicina científica del siglo XIX
8. Virchow y Cajal: la célula y la asistencia sanitaria
9. Anestesia y asepsia
10. Física y medicina
11. ¿Una medicina para el alma? Freud y el psicoanálisis
12. Fleming y los antibióticos
13. Sociedad y salud
14. Trasplantes
15. Técnicas de imagen en la medicina
16. La biomedicina del ADN
17. Nuevos mundos médicos
Bibliografía recomendad
Prólogo y recuerdo de un hombre bueno
Lo normal es que cuando un autor finalice un libro y ya esté dispuesto a
entregarlo a su editorial, la alegría domine sobre cualquier otro sentimiento.
En la presente ocasión, este autor no puede decir lo mismo porque su coautor,
su amigo, Antonio Mingote (1919-2012), ya no está entre nosotros para ver
culminada la empresa que iniciamos juntos hace cerca de tres años. Falleció el
3 de abril de 2012.
Este libro, Una historia de la medicina. De Hipócrates al ADN,
constituye, y estaba pensado como tal, el último de una trilogía, tras ¡Viva
la ciencia! (2008) y El mundo de Ícaro (2010), que
Antonio y yo queríamos completar. Recuerdo muy bien cómo empezó todo. Tuve la
inmensa fortuna de ser su compañero en la Real Academia Española. Todos los
jueves nos reunimos en el edificio de la calle Felipe IV de Madrid y yo observé
que él llegaba siempre un buen rato antes para leer en una de nuestras
magníficas bibliotecas, reposos del alma y alimentos del espíritu, algún libro
poco común (su cultura era inmensa). Uno de esos jueves, después de haberlo
pensado algo, me acerqué a él y le dije: «Antonio, he pensado que tal vez
podríamos escribir un libro juntos. Tú dibujas y yo escribo». Me contestó, no
lo olvidaré nunca: «Para mí sería un honor». El honor era, naturalmente, para
mí.
Y así comenzó la pequeña pero entrañable, para nosotros importante,
historia de nuestra colaboración. Creo, estoy seguro, que él no disfrutó menos
que yo. La ciencia lo entusiasmó, aunque era menos ignorante de ella de lo que
quería aparentar. Era extraordinario ver lo rápido que entendía las ideas para
las ilustraciones que yo le sugería, cómo se informaba él mismo y cómo las daba
forma, enriqueciéndolas en maneras que yo no había imaginado, además de crear,
por supuesto, otras en las que yo no había pensado. Lo pasamos tan bien que
después de nuestros dos libros conjuntos planeamos un tercero.
Desgraciadamente, su salud fue deteriorándose con rapidez. Su cuerpo no le
respondía, no podía seguir el ritmo que su mente, despierta hasta el último
momento, exigía. Pudo hacer algunos dibujos, incluyendo la maravillosa cubierta
que ahora lo abre y adorna, pero no todos los que planeábamos. Era doloroso ver
cómo quería pero no podía y el sufrimiento que ello le producía. En el tintero
de los dibujos que no llegaron a nacer, se halla uno con el que luchó sin
llegar a tener fuerzas (la imaginación y el arte nunca lo abandonaron): una
mezcla de El Bosco y Brueghel el Viejo, que debería mostrar un abigarrado
conjunto de humanos enfermos.
Afortunadamente, la producción artística de Antonio Mingote fue tan
extensa, tan increíblemente amplia, que he podido encontrar muchos dibujos
suyos de temas médicos, unos publicados, aquí y allá, a lo largo de los años, y
otros inéditos, lo que ha hecho posible que nuestra historia de la medicina
—una historia que no pretende, ni pretendió nunca, ser ni siquiera medianamente
completa; simplemente es nuestra pequeña visión de ella— vea finalmente la luz.
En la tarea de encontrar esos dibujos que completasen los que Antonio
hizo para esta obra, su viuda, Isabel Vigiola de Mingote, ha sido fundamental.
Es ejemplar el cuidado, el amor, con el que Isabel cuida su legado, lo mismo
que hizo en vida de su esposo, con su obra y con él. Entre mis satisfacciones
al ver terminada la empresa que Antonio y yo iniciamos juntos, no figura sólo
la de honrar la memoria del amigo, de un hombre bueno, que se fue, también está
la de añadir un granito de arena al deseo de Isabel de que la memoria de
Antonio Mingote continúe acompañando, con renovado vigor, a todos aquellos, una
legión inmensa, que lo admiraron y quisieron.
Quiero agradecer también a María Jesús Domínguez su inestimable ayuda en
la localización de dibujos. Y al Museo de ABC, en especial a su directora,
Inmaculada Corcho, que pusiera a mi disposición los fondos de dibujos que
conserva.
José Manuel Sánchez Ron
24 de junio de 2013
Capítulo 1
El nacimiento de la medicina
Aunque el subtítulo de este libro es «De Hipócrates al ADN», es preciso
decir algo acerca del origen de esa actividad, la medicina, a la que el gran
Hipócrates dedicó sus desvelos. A tal propósito está dedicado el presente
capítulo.
§. Las primeras ciencias
La ciencia y la tecnología son, no cabe duda alguna, los mejores instrumentos
que los seres humanos hemos inventado para conocer la naturaleza, incluyendo
esa parte de ésta que somos nosotros, organismos vivos. Y una pregunta que
podemos hacernos es la de cuáles fueron las primeras ciencias que surgieron. La
respuesta no es difícil: las matemáticas, la astronomía y la medicina.
Contar es una necesidad para prevenir, para estar en mejores condiciones
ante el futuro. Es conveniente, por ejemplo, conocer el consumo para guardar lo
necesario y disponer del resto. No es, por consiguiente, sorprendente que
contar fuese la primera gran invención de la humanidad; al menos y aunque no se
fuese consciente de ello, la primera gran invención de carácter científico,
porque al contar estamos estableciendo sistemas de numeración y eso ya es
matemática. Las muescas que se encuentran en piezas óseas de gran antigüedad
(por ejemplo, las 29 muescas que aparecen en un hueso de una pata de babuino de
unos treinta y siete mil años de antigüedad que se encontró en las montañas de
Lebombo, en la frontera entre Swazilandia y Sudáfrica) no tendrían sentido sin
que el humano que las hizo no albergase la idea mental de una serie numérica.
En formas más complejas, es muy probable que existiera una matemática en el
Neolítico, esto es, entre, aproximadamente, los años 3000 y 2500 a.C., que se
extendió desde Europa Central hasta las islas Británicas, Oriente Próximo, la
India y China.
En cuanto a la astronomía, sabemos muy bien que el cielo, el que se ve
durante el día al igual que el nocturno, atrae irresistiblemente la atención de
los seres humanos. Durante el día, la presencia del Sol no sólo se manifiesta
imperiosamente sino que influye en nuestras vidas de manera determinante:
sin él, fuente de calor y de energía, simplemente no podría existir la
vida. La noche la domina la Luna, a pesar de que se esconde periódicamente, y
esas pequeñas «luces» que finalmente recibieron de los griegos el nombre de
«estrellas». Todos estos cuerpos se observan directamente, sin necesidad de
disponer de ningún recurso (instrumento) suplementario. Su existencia
constituyó, por consiguiente, una experiencia común a los primeros Homo
sapiens. Y al observar esos cuerpos, que se movían, existentes más allá de la
superficie terrestre, terminaron descubriéndose regularidades en sus
movimientos. Han sobrevivido numerosas pruebas que delatan el interés que
nuestros antepasados antiguos mostraron por lo que sucede en los cielos: restos
arqueológicos orientados de manera que señalan hacia los lugares en los que el
Sol se levanta y se pone a mediados del verano y del invierno, tumbas
construidas hacia el año 4.500 a.C., cuya forma alargada se alinea con los
lugares donde se levantan y ponen estrellas brillantes, como Stonehenge, cuya
estructura se adecuaba a posiciones de cuerpos celestes. En el Megalítico,
individuos a los que con justicia podemos llamar astrónomos primitivos,
grabaron en piedra las figuras de algunas constelaciones fáciles de
identificar: la Osa Mayor, la Osa Menor y las Pléyades.
Finalmente, está la medicina. ¿Cómo no iban a interesarse nuestros
antepasados más antiguos en cómo remediar los males que inevitablemente
padecerían en algún momento de sus vidas o verían que otros padecían? Entre
esos «males» estarían heridas de todo tipo (con la consiguiente pérdida de ese
líquido al que se terminaría denominando «sangre»), fracturas de huesos, caries
dentales y enfermedades.
§. La medicina: entre los mitos, la ciencia y la técnica
Que nuestros antepasados lejanos se interesasen por los males que tenían lugar
en sus cuerpos es una cosa, que supieran explicar tales «desarreglos» es otra
muy diferente.
A la vista de lo difícil que es determinar las causas de la mayoría de
los problemas «no mecánicos» (esto es, diferentes a roturas de hueso, heridas o
similares) que afectan a los seres vivos —aún hoy distamos de haber resuelto
esta cuestión por completo—, no nos debe extrañar que las medicinas antiguas,
también denominadas a veces «paleomedicinas», estuvieran basadas en mezclas de
creencias mágicas y religiosas con prácticas empíricas (como, por ejemplo, la
utilización de plantas), carentes de base sistemática, científica.
Una creencia frecuente era la de considerar a los enfermos como víctimas
de un enemigo que lo había hecho objeto de un maleficio mágico o de un demonio
o dios al que el enfermo había irritado. De ahí que entre los primeros
«médicos» se encuentren hechiceros y una variante de éstos, los chamanes.
En cuanto al recurso a creencias religiosas, todavía hoy se dan a veces
tales prácticas. Se puede comprobar esto en, por ejemplo, la religión
cristiana, sin más que leer las Sagradas Escrituras. En los evangelios de
Mateo, Marcos, Juan y Lucas (que era médico), se citan numerosos ejemplos de la
actuación de Cristo como sanador.
La «medicina científica» tardaría mucho tiempo en llegar (hablaremos de
ella más adelante como un producto del siglo XIX).
Ahora bien, la medicina es una ciencia pero también una técnica y, en
este apartado, el técnico, se introdujeron instrumentos o prácticas útiles
mucho antes de que se dispusiese de explicaciones científicas. Prácticas que
requerían de instrumentación adecuada, aunque fuese primitiva, como la
trepanación craneal:
se han encontrado miles de cráneos trepanados tanto en el Paleolítico
japonés como en el Neolítico europeo y, a partir del segundo milenio antes de
nuestra era, son particularmente abundantes en Perú.
§. Origen de las enfermedades
Es interesante detenerse en las enfermedades de las que, naturalmente, volveré
a ocuparme en este libro. Durante aproximadamente cinco o seis millones de
años, los homínidos anteriores a la aparición de los Homo sapiens,
vivieron, como cazadores y recolectores en pequeños grupos de probablemente
entre cincuenta y cien individuos, un tipo de asociación que los Homo
sapiens mantuvieron hasta que se transformaron en
agricultores-ganaderos. Una densidad tan baja de individuos como la que existía
entonces, junto con el que fuesen nómadas que cambiaban con cierta rapidez de
lugar de residencia, significó que se vieron menos afectados por infecciones
bacterianas que dependen del contacto directo entre individuos de la misma
especie. Estos patógenos necesitan de poblaciones grandes y densas para
sobrevivir transmitiéndose, lo que significa que no debieron de existir muchas
de las enfermedades que más adelante afectarían gravemente a los humanos, como
el sarampión, la viruela, la tos ferina o la poliomielitis. Sin embargo, sí se
pudieron dar enfermedades víricas que se caracterizan por mantenerse en estado
latente y manifestarse de manera recurrente, como el herpes simple o el virus
de la varicela. Por otra parte, el no estar atados los homínidos o humanos
primitivos a un entorno geográfico estable durante mucho tiempo evitaba, por
ejemplo, tanto que las aguas se contaminaran como que el almacenamiento de
abundantes desechos se convirtiera en foco de atracción y de diseminación de
insectos transmisores de enfermedades infecciosas.
Las fuentes principales de enfermedades para aquellas colectividades
primitivas debieron de proceder de la ingestión de carne de animales con
microorganismos que éstos soportaban, pero no los homínidos-humanos. Variedades
de este tipo de enfermedades son, por ejemplo, la triquinosis, el tétano o la
esquistosomiasis, una enfermedad debilitante producida por un parásito llamado
trematodo. Y también es posible que se diesen formas de tifus, malaria e
incluso fiebre amarilla, aunque encuentros con estas infecciones debieron de
ser en general fortuitos e individuales. Estos casos son manifestaciones de una
de las formas típicas en las que se contraen enfermedades:
por contacto entre individuos de especies diferentes, lo que se denomina
zoonosis. Y el desarrollo de la ganadería abrió la puerta de par en par a este
tipo de fuente de enfermedades entre los humanos.
§. Pruebas tempranas de prácticas médicas
Existen pruebas del origen temprano de las prácticas que finalmente
configurarían lo que denominamos «medicina». En excavaciones arqueológicas han
aparecido restos humanos de hace miles de años que muestran que se habían
reparado roturas de huesos y curado heridas. Se han encontrado —ya he aludido a
ello— restos de cráneos que muestran que la trepanación (agujeros en el cráneo)
se practicaba hacia el año 5000 a.C. En algunas tumbas u otros lugares
correspondientes al Imperio Antiguo egipcio (siglos XXXI - XXXIII a.C.), han
aparecido inscripciones en las que se especifican los nombres de «jefes de
médicos», «oculistas», «médicos del vientre», «guardianes del ano» o
«dentistas», «intérpretes de los líquidos escondidos en el interior»: se trata,
como vemos, de pruebas de especialidades médicas. En tablillas cuneiformes de
los alrededores del año 3400 a.C. aparecen noticias anatómicas. En un papiro
conocido como Edwin Smith, que data del siglo XVII a.C. aunque es copia de uno
anterior, se encuentran «Instrucciones relativas a una herida abierta en la
cabeza, que penetra en el hueso, fractura el cráneo y deja el cerebro al
descubierto» e «Instrucciones relativas a una rotura en la cámara de la nariz».
Y, en otro, también copia de uno anterior (se supone que de los alrededores del
año 3000 a.C.), el conocido como papiro Ebers, descubierto por un árabe, parece
que en Tebas, en 1862 (es un rollo de 20,23 metros y 108 columnas), se describe
el corazón como el punto en que convergen todos los vasos por los que circulan
los fluidos: sangre, lágrimas, orina y esperma, y se recogen prescripciones
para el tratamiento de una serie de enfermedades: del aparato digestivo, como
la disentería, del urinario (la hematuria), de los ojos (tracoma ocular) o de
la piel. La farmacología egipcia estaba también muy desarrollada y se servía de
productos vegetales, minerales o animales: bebedizos, pomadas y cataplasmas
eran sus remedios habituales. Y el uso de purgantes era muy frecuente.
También se han encontrado en los restos arqueológicos mesopotámicos
pruebas de la presencia de prácticas médicas. En una tablilla babilónica de los
alrededores del año 650 a.C. se describe un comportamiento que debía ser
consecuencia de la epilepsia.
Cuando se leen textos como los que acabo de citar, se comprueba lo
primitivo de aquellos conocimientos y remedios médicos. Sin embargo, esto no
significa que no se estableciese una profesión médica sometida a una serie de
regulaciones. Un ejemplo en este sentido es el Código de Hammurabi (que reinó
entre 1793 y 1750/1743 a.C.), en el que uno de sus apartados, sobre la
«Reglamentación legal de la práctica de los sanadores de rango inferior»,
incluía las siguientes especificaciones:
Si un cirujano practica una operación importante a un ciudadano libre
con una lanceta de bronce y lo salva o si le abre la órbita superocular y salva
su ojo, recibirá diez siclos de plata.
Si el intervenido es hijo de un sirviente, el cirujano recibirá cinco siclos de
plata.
Si se trata del esclavo, su dueño deberá pagar al cirujano dos siclos de plata.
Si un cirujano realiza una operación delicada en un señor libre con una lanceta
de bronce y causa la muerte de dicho señor o abre la órbita de un señor libre y
le destruye el ojo, se condenará al cirujano a cortarle la mano.
Si un cirujano somete a una operación importante al esclavo de un sirviente con
una lanceta de bronce causándole la muerte, restituirá a dicho señor un esclavo
igual al fallecido.
Si le abre la orbita superocular con una lanceta de bronce y destruye su ojo,
estará obligado a pagar la mitad del precio del esclavo.
Si un cirujano ha unido y consolidado un hueso roto a un señor libre o le ha
curado la distensión de un tendón, el paciente dará al cirujano cinco siclos de
plata.
Como queda claro, la profesión de cirujano tenía bastantes riesgos en el
mundo antiguo, en el que, como vemos, las diferencias entre señores y esclavos
estaba bien marcada.
§. Acceder al interior del cuerpo humano
Un problema para que la medicina avanzase fue el de acceder al interior del
cuerpo humano. Las partes exteriores —cabeza, tronco y extremidades—
proporcionaban un conocimiento superficial del cuerpo. Y acceder al interior
del cuerpo humano producía graves daños al sujeto, incluso la muerte,
circunstancia que explica las dificultades que había que vencer para
profundizar en el conocimiento de la estructura interna del cuerpo. Algo se
pudo avanzar debido a los traumatismos producidos por acciones exteriores
violentas, como fractura de los huesos, heridas producidas en el combate, tanto
de los soldados como de los gladiadores, amputaciones accidentales de parte o
de la totalidad de alguna extremidad… Junto a lo que tales traumatismos
permitían observar directamente, estaban los conocimientos que se derivaban de
las acciones destinadas a intentar restaurar los cuerpos a sus estados
originales; la reducción de las fracturas, en especial, ayudó al conocimiento
del esqueleto y de los tendones, mucho más que intervenciones delicadas y, por
tanto, menos frecuentes, como la trepanación o la extirpación de las cataratas.
Asimismo, el embalsamiento de los faraones contribuyó al conocimiento de la
anatomía y a la práctica de la cirugía (sabemos que para esas prácticas en el
tercer milenio a.C. se utilizaron cuchillos de obsidiana en Egipto y América, y
de cobre en Sumeria). Gracias a la cirugía, se obtuvo una primera versión,
parcial, de la composición de los seres humanos. Por otra parte, la extracción
de las vísceras proporcionó un conocimiento de las cavidades del organismo.
La disección de seres humanos, un método que podía ayudar a conocer el
interior del cuerpo se topó a menudo con dificultades y así terminó
constituyendo un arte poco practicado y, en algunas culturas, incluso
prohibido, como en China, donde el cuerpo se consideraba sagrado: Confucio
había dicho:
«Nuestro cuerpo con la piel y el pelo procede de nuestros padres. No
podemos mutilarlos», por eso la disección no se practicó, salvo casos
extraordinarios, como cuando en el siglo XII se diseccionó los cuerpos de 56
bandidos que habían sido ejecutados.
§. Medicinas no occidentales
Como vemos, por constituir una actividad tan necesaria, la medicina se
estableció por todo el mundo: encontramos médicos e ideas sobre las materias
médicas en todas las civilizaciones. He mencionado ejemplos relativos a
Mesopotamia y Egipto, pero también los hay, y abundantes (aunque en Occidente
sepamos menos de ellos), en civilizaciones como la china y la india. Los textos
más antiguos de la medicina india son las colecciones atribuidas a Sushruta y
Charaka, escritas al parecer en el siglo I a.C., que fueron desarrolladas
durante las siguientes ocho centurias. En la última se lee:
Hay tantas clases de vasos en el cuerpo como sustancias diferentes
existen en él. Las sustancias o los procesos no llegan a existir ni desaparecer
sin sus vasos propios … Son extraordinariamente numerosos, por lo que algunos
maestros dicen que son incontables, aunque hay otros que afirman que pueden
contarse. Los vasos llevan la fuerza del aliento vital que está ínsito en el
cuerpo, llevan agua y alimento, quilo y sangre y las transformaciones de esta
última, que son la grasa, el hueso, la médula y el semen. Llevan también orina,
excrementos y sudor.
Y a continuación se enumeraban las «raíces» de las que procedían algunos
vasos; por ejemplo, la raíz que llevaba el «aliento vital» era el corazón; la
de los que llevaban el agua, el paladar, y las que transportaban los alimentos,
el estómago y el costado izquierdo. «La falta de apetito, las náuseas, la
indigestión y los vómitos —se añadía— son síntomas de que estos vasos están
alterados.»
Está claro que los textos Charaka combinaban anatomía con sintomatología
y recetas. La preocupación por la observación, por no construir edificios
conceptuales, teorías médicas, alejadas de la realidad, aparece con gran
claridad y modernidad, podríamos decir también, en algunos textos de la
colección Sushruta. Veamos lo que se decía en uno dedicado a la «Indagación
anatómica con cadáveres humanos»:
La indagación anatómica rigurosa de las partes del cuerpo que se
extienden más allá de la piel no se encuentra en otra parte del saber médico
más que en la doctrina quirúrgica. El cirujano que desee tener un conocimiento
completamente seguro debe preparar con esmero un cadáver y observar
cuidadosamente sus partes, porque mejorará su formación, asociando lo que ve
con sus propios ojos y lo que ha aprendido de la tradición válida a través de
los libros.
Con este fin debe escogerse un cadáver completo en todas sus partes. Tiene que
ser el cuerpo de alguien que no sea demasiado viejo ni haya muerto envenenado
ni a causa de una enfermedad deformante. Tras quitar de entrañas toda la
materia excrementicia, el cadáver debe ser envuelto con juncos, esparto,
hierbas o cáñamo y colocado en una jaula de caña o mimbre. Sujetando
fuertemente esta última en un paraje oculto de un río con fuerte corriente.
Al mismo tiempo, hay que observar ocularmente cada parte del cuerpo, grande o
pequeña, externa o interna, empezando por la piel, una tras otra, a medida que
aparecen.
Eran buenos consejos, aunque a nosotros, entre mil quinientos y dos mil
años después, nos parezcan zafios y primitivos. No se trataba, además,
únicamente de instrucciones de este tipo. La medicina, no lo olvidemos,
pretende, por encima de cualquier otra consideración, resolver problemas que
afectan a los individuos. Quiere comprender, sí, pero para cumplir ese fin. Un
ejemplo de esa dimensión intrínseca de la medicina aparece también en esta
colección, Sushruta, india. Citaré lo que se dice sobre un apartado de la
cirugía reconstructiva, la rinoplastia:
Para fijar una nariz artificial, en primer lugar debe buscarse una hoja
de enredadera suficientemente larga y ancha para cubrir por completo la parte
cercenada. Hay que cortar después de abajo arriba un trozo de carne viva de la
región de la mejilla del mismo tamaño de dicha hoja y, una vez escarificado con
el bisturí, adherirlo rápidamente a la nariz cercenada. Entonces, el impasible
médico ha de sujetarlo firmemente con un vendaje de apariencia decorosa y
perfectamente apropiado para el fin que se emplea. El médico debe asegurarse de
que se haya efectuado una completa adherencia de las partes seccionadas, así
como colocar a continuación dos pequeños tubos en los orificios nasales, para
facilitar la respiración e impedir que la carne adherida descienda. Después hay
que aplicar a esta última una mezcla de polvos de patanka, yashtimadhukam y
rasangadi y envolver la nariz con algodón de karpasa y rociarla varias veces
con aceite refinado de sésamo puro. El enfermo deberá beber manteca desleída y
será untado con aceite y tratado con purgantes después de que haya digerido
totalmente los alimentos que tome, tal y como indican los libros de medicina.
Se estimará que la adherencia ha sido completa cuando la úlcera producida por
la incisión esté perfectamente cicatrizada; en caso de adherencia parcial, se
tiene que repetir la escarificación y el vendaje.
Evidentemente, semejantes indicaciones revelan una larga experiencia de,
podríamos decir, «prueba y error», de prácticas empíricas, un procedimiento
frecuente en la medicina hasta que su base científica se asentó con cierta
firmeza. Notemos la mención de «polvos de patanka, yashtimadhukam y rasangadi»:
estos términos sánscritos designan, respectivamente, las especies
vegetales Caesalpina sapipan L., cuya madera es rica en
tanino, Glycyrrhiza glabra L. o regaliz, y Balsamodendron
myrrha T. Nees, del que se obtiene mirra, mientras que el algodón de karpasa se
refiere al género botánico Gossypium, concretamente a la especie
euroasiática G. herbaceum, de la que se obtiene algodón. Esto nos
lleva a otro apartado de la medicina, al que también aludí: el uso de plantas.
El ya citado papiro Ebers contiene muchas indicaciones de este tipo,
descripciones de fármacos procedentes de plantas con indicaciones terapéuticas,
hasta el punto de ser considerado la primera farmacopea. Se identifican en él
unos ciento sesenta medicamentos de origen vegetal, entre ellos el ricino, del
que se dice:
Ricinua communis L. Lista de las propiedades del ricino: si su corteza
es triturada en el agua y aplicada a una cabeza que sufre, la curará
inmediatamente como si nunca hubiera padecido. Si unas pocas de sus semillas
son masticadas con cerveza por alguien que padezca estreñimiento, evacuará sus
heces. El cabello de una mujer puede hacerse crecer con sus semillas.
Triturarlas y amasarlas con grasa y que la mujer se unte con esta pasta la
cabeza. Su aceite se obtiene de las semillas. Sirve para untar úlceras malolientes,
que quedarán como si nada hubiera ocurrido. Desaparecerán untándolas con este
aceite durante diez días, aplicándolo muy temprano, por la mañana. Es un
verdadero remedio comprobado innumerables veces.
Recordemos que el ricino es un arbusto.
Con respecto a la medicina china, me limitaré a mencionar un método
particularmente conocido en Occidente: la acupuntura, la introducción de agujas
muy finas en puntos específicos del cuerpo. Este tipo de tratamiento se debe
situar en el contexto de una vieja idea china que entiende la salud y la
enfermedad como producto de la relación entre dos principios opuestos, el yang (positivo,
cálido, seco) y el ying (negativo, frío, húmedo). La
acupuntura era una forma de restablecer el equilibrio correcto entre estos dos
principios. Veamos lo que se decía al respecto en un tratado médico chino de
entre los siglos II a.C. y VII d.C., el Nei Jing Su Wen («Canon
de medicina interna»):
La acupuntura se utiliza para suplir lo que falta y para evacuar una
plenitud excesiva … Hay que examinar las tres secciones del cuerpo y las nueves
subdivisiones, para ver si existen alteraciones repentinas e interrupciones
iniciales de su curso. La aguja debe insertarse en el momento de la inspiración
y no debe permitirse que el aliento entre en conflicto con ella. Cuando se pone
la aguja debe estar quieta un momento y el enfermo tiene que respirar
lentamente. No hay que permitir que entren en el cuerpo influencias
perniciosas. Mientras el enfermo esté todavía inspirando, debe girarse un poco
la aguja. Hay que empezar a extraerla en el momento de la expiración, pero sin
brusquedad; debe estar fuera cuando el aliento se haya expirado por completo.
Este procedimiento se llama «drenaje» (de una plétora de yang).
Capítulo 2
El reino de Hipócrates: La medicina griega
A la antigua Grecia le cabe el inmenso honor de haber alumbrado el
auténtico pensamiento racional. Fue en el mundo griego, en efecto, donde la
capacidad humana de pensamiento simbólico se mostró por primera vez con toda su
potencia. Una creación helena particularmente importante fue el de la
filosofía, etimológicamente el «amor a la sabiduría» o, según lo definía el
primer diccionario de la Real Academia Española, el denominado Diccionario
de Autoridades (siglo XVIII), «Ciencia que trata de la esencia, propiedades,
causas y efectos de las cosas naturales». La filosofía era un «arte» en el que
destacaba la «especulación», la capacidad de elaborar sistemas racionales para
explicar observaciones.
Debemos a los griegos tesoros inmensos, como son la historia, la
literatura, obras de arte (esculturas, edificios) maravillosas, la lógica y la
ciencia. Es cierto que textos como la Física de Aristóteles
hace mucho que se han superado y que, salvo los historiadores, se consideran
como manifestaciones de los errores del pasado; y no es menos verdadero que ya
sabemos perfectamente que ideas —que defendieron con energía no sólo Aristóteles
sino también el extraordinario y convincente Platón— como la «teoría de los
cuatro elementos» (fuego aire, agua y tierra), con la que la doctrina china
del yang y el ying comparte algunas ideas, o
la cosmología geocéntrica son radicalmente erróneas, pero todas contribuyeron a
la configuración y desarrollo de la ciencia. Por otra parte, la matemática
contenida en la obra Elementos de Euclides (c. 325-265
a.C.) sigue siendo tan válida como lo era hace alrededor de dos mil quinientos
años.
Asclepios
A la vista de lo anterior, habría sido sorprendente que los griegos no
dejasen también su marca en la medicina. Y la dejaron, aunque podamos encontrar
numerosas pruebas de creencia en que la ayuda de los dioses era necesaria para
sanar a los enfermos, una idea, por cierto, que, como es bien sabido, aún no ha
desaparecido completamente de nuestro mundo. En la Grecia arcaica del siglo
VIII a.C., por ejemplo, se imploraba a Apolo, Artemisa o Atenea, dioses a los
que se adjudicaba la capacidad de sanar. Y el más sabio de los centauros, el
inmortal Quirón, enseñaba medicina y cirugía en el monte Pelión de Tesalia. A
Asclepios (Esculapio para los romanos), una deidad menor, se le atribuían
curaciones milagrosas (aparece incluso en la Ilíada, en los libros
III y IV, en éste en boca del rey Agamenón). Era hijo de Apolo y de la mortal
Corónide, que murió asaetada por su muy celoso marido, quien extrajo el feto
antes de incinerarla, entregándoselo a Quirón para que lo criara y lo educara
en el arte de sanar mediante las palabras, las plantas y el escalpelo.
Pero dejemos a los dioses, que poco legado verdadero nos dejaron, salvo
recuerdos que se plasmaron en patronazgos o festejos, y pasemos a otros
apartados.
§. Doctrinas médicas griegas: Empédocles, Platón y Aristóteles
Si, como he señalado, los griegos se adentraron, creándolo, en los mundos del
pensamiento especulativo, habría sido extraño que no aplicasen tal método a la
medicina, a la curación de enfermedades y el tratamiento de heridas o traumas.
El primer texto médico griego del que se tiene noticia en el que aflora un
cierto sistema especulativo-organizativo es Sobre la naturaleza,
cuyo autor fue Alcmeón de Crotona (c. 500 a.C.), localidad situada en el
sur de la actual Italia. De él sólo se han identificado algunos fragmentos. «Lo
que conserva la salud —se lee en aquella obra— es el equilibrio de las
potencias: de lo húmedo y lo seco, de lo frío y lo caliente, de lo amargo y lo
dulce, etcétera, pero el predominio de una entre ellas es causa de enfermedad;
pues el predominio de cada opuesto provoca la corrupción.» Considerado el
primer anatomista, es posible que la experiencia de Alcmeón se limitase a la
extracción del globo del ojo de un animal y a la observación de los vasos (del
nervio óptico) que apuntan hacia el cerebro.
Sistemas especulativos médicos más desarrollados (lo que no quiere
decir, necesariamente, más precisos) fueron producidos por los filósofos. Que
se ocupasen también ellos de la medicina es algo que podemos entender teniendo
en cuenta la incapacidad de encontrar respuestas satisfactorias a las
cuestiones que surgían en el contexto médico. Entre los ejemplos más notorios
de los filósofos cuyas doctrinas influyeron en la medicina, destacan tres:
Empédocles de Agrigento (c. 495-435 a.C.), Platón (c. 427-347 a.C.)
y Aristóteles (384-322 a.C.). Sanador al mismo tiempo que filósofo, Empédocles
formuló la doctrina según la cual todos los seres naturales están compuestos
por una mezcla en proporciones variables de cuatro elementos de cualidades
opuestas (agua, aire, tierra y fuego), una doctrina que mantuvo su influencia
durante prácticamente dos milenios tanto en la medicina como en la química. Por
su parte, Platón defendió la idea de la existencia de tres sistemas corporales
—corazón, hígado y cerebro— conectados también a los estados mentales, pero sus
aportaciones en el campo de la especulación médica no se pueden comparar a las
de Aristóteles, su discípulo. Uno de los grandes intereses de Aristóteles fue
la observación de los seres vivos, pero el filósofo-científico
que había en él no podía contentarse con enumerar y describir. La abundancia de
datos anatómico-biológicos que aparecen en los textos aristotélicos no debe
llevarnos a pensar que éstos eran su objetivo principal. En este sentido, es
ilustrativo lo que escribió en la primera parte de una de sus obras, Investigación
sobre los animales: «Las indicaciones que preceden [referentes a cuestiones
como diferentes clases de animales, modos de alimentación y reproducción] no
son más que un simple bosquejo, en cierta manera una degustación anticipada de
las materias que vamos a considerar y de sus propiedades. Luego hablaremos de
ello con más detalle a fin de abarcar en primer lugar los caracteres
distintivos y los atributos comunes. Después será preciso intentar descubrir
las causas. Tal es, en efecto, el método natural de la investigación, una vez
se ha adquirido el conocimiento de cada punto concreto». Hay que tener en
cuenta, eso sí, que para Aristóteles el concepto de «causa» era diferente al
nuestro: incluía, por ejemplo, no sólo a la «causa eficiente» sino también a la
«causa final», de ahí que caractericemos al sistema que pretendía descubrir en
el mundo natural como «teleológico» (condicionado por la «meta final»). Eso sí,
negaba que la naturaleza actuase con algún propósito consciente o, si se
prefiere decir así, que existiese una inteligencia divina que controlase «desde
fuera» los cambios de la naturaleza. Si existe una finalidad en los procesos
naturales (biológicos o no), sostenía, ésta es inmanente a los objetos mismos,
a los animales y plantas que viven y crecen: la semilla de una planta crece
hasta convertirse de forma natural en el ejemplar maduro y el niño hace lo
mismo hasta llegar a ser un adulto.
Para Aristóteles, los órganos principales se encontraban en las
cavidades corporales: cefálica (cerebro), torácica (corazón) y abdominal
(hígado). Con respecto a cuál de ellos era el principal, un criterio para
decidir su importancia era el número de conexiones que controlaban. Consideraba
que el corazón era el principal (hizo de él el centro del organismo: el origen
de los nervios, la fuente de todos los movimientos y el centro del pensamiento,
en tanto creía que la función del cerebro era enfriar la sangre: «Y, por
supuesto —escribió—, el cerebro no es responsable de ninguna de las
sensaciones. El asiento y fuente de las sensaciones es la región del corazón»),
pero más tarde Galeno —con el que nos encontraremos en el siguiente capítulo—
se inclinó por el cerebro (la cuestión se planteó con mayor rigor cuando hubo
que decidir el momento de la muerte, que dejó de ser el fin de la respiración,
para ser la falta de pulso; ahora es la muerte cerebral, manifiesta en el
encefalograma plano).
Además de por sus reflexiones filosófico-teóricas en el campo médico,
Aristóteles debe ser recordado por sus aportaciones observacionales al estudio
de la vida. Dentro del Corpus aristotelicum se encuentran una
serie de tratados de zoología y biología que tomados en su conjunto no fueron
igualados ni superados hasta más de un milenio después, con la obra de
naturalistas como Linneo o Darwin. Construidos a partir de la observación y en
bastantes casos de la disección, lo que le permitió describir las cuatro cámaras
del estómago de los rumiantes y la anatomía de los peces, en esos tratados
Aristóteles describió quinientas cuarenta especies animales, en su mayoría
peces, de las que había disecado más de cincuenta. La identificación de las
especies lo llevó a distinguir entre animales con y sin sangre, una división
que correspondía a lo que hoy se hace entre vertebrados e invertebrados.
Distinguió entre los primeros a los vivíparos (mamíferos) y a los ovíparos
(pájaros y peces). La presencia de los mismos órganos en distintas especies fue
la primera clasificación de los animales y se basaba en la función de las
distintas partes del cuerpo. La reproducción le mereció una especial atención,
observó la evolución del huevo mediante la disección en distintos momentos de
su desarrollo: descubrió que los órganos se formaban sucesivamente, en contra
de la tesis de la preformarción de todos. La idea de una organización
progresiva de los seres vivos lo llevó a concebir la idea de una escalera
de la vida, con once niveles. Las plantas ocupaban los niveles inferiores,
los animales procedentes de un huevo ocupaban una posición intermedia y en la
superior se situaban a los producían crías vivas.
Su obra biológica constituyó un cambio cualitativo en el campo de la
morfología, en tanto que sus aportaciones anatómicas condujeron al
establecimiento de la anatomía estructural, la embriología y la morfología
comparada. Todo ello se encuentra en sus libros: Investigación sobre
los animales, el más extenso y seguramente el más antiguo de sus escritos
en este dominio que nos han llegado, Sobre las partes de los animales o Sobre
la generación de los animales.
§. La gran figura de la medicina griega: Hipócrates
La fuente más extensa de saberes médicos que nos ha llegado del mundo griego es
el denominado Corpus hippocraticum («Colección hipocrática»),
un conjunto de 53 tratados atribuidos a Hipócrates de Cos (c. 460-370
a.C.).
Hipócrates
Poco se sabe de la vida de este médico legendario. Aparte de que enseñó
en Cos, y de que probablemente su padre también fue médico, sabemos que viajó
extensamente por Grecia y gozó de una fama excepcional durante su vida, como
muestran las referencias que se hacen a él en escritos de hombres como Platón o
Aristóteles. Parece que contribuyó de manera significativa al conocimiento
médico, aunque es difícil determinar cuáles de los tratados (ninguno de
anatomía) que se incluyen en el Corpus hippocraticum fueron
realmente obra suya (se cree que sólo cinco son suyos). De hecho, es seguro que
en este corpus coexisten obras procedentes de escuelas y
épocas diferentes, en su mayoría probablemente de Cnido y Cos, dos localidades
cercanas de la costa sudoeste de la actual Turquía.
A Hipócrates y a su yerno, Polibio, se les adjudica una doctrina que fue
muy influyente: la doctrina de los cuatro humores. Tal y como aparece en uno de
los tratados hipocráticos (Sobre la naturaleza del hombre), esta teoría
se basaba en caracterizar a los individuos sobre la base de la existencia de
cuatro flujos orgánicos (humores): sangre, flema, bilis negra (melancolía) y
bilis amarilla (cole). La idea era que la influencia dominante de uno de
esos humores era responsable del tipo de personas: sanguíneas, flemáticas,
melancólicas y coléricas. El desequilibrio de los humores (discrasia)
era la causa de la enfermedades y la curación se conseguía tanto mediante la
reducción del principio dominante mediante sangrías y purgas, cuyos efectos
negativos y a veces mortales sufrieron los pacientes durante dos milenios, como
por el refuerzo del principio contrario: contra la fiebre debida a la bilis
amarilla, cálida y seca, se prescribían baños de mar que aumentaban la flema,
húmeda y fría; en el caso de un exceso de flema, el tratamiento consistía en
permanecer en la cama y beber vino. Para las sangrías, una práctica que
sobrevivió hasta el siglo XIX, se utilizaban principalmente dos procedimientos:
flebotomías, extracciones de sangre desde venas periféricas, y sanguijuelas, un
tipo de pequeño invertebrado (estrictamente su nombre es hirudinea)
que chupa sangre.
Beneficios de purgas y sangrías, según Hipócrates
En 1818, un profesor del Real Colegio de Medicina de Madrid, Manuel
Casal y Aguado, publicó un libro titulado Aforismos de Hipócrates,
traducidos, ilustrados y puestos en verso castellano. Entre las numerosas
composiciones versificadas de esta obra, encontramos algunas que se refieren a
los beneficios que según Hipócrates —o al menos así argumentaba Casal— se
obtenían de purgas y sangrías. Aquí van dos ejemplos (números 51 y 36):
Purgar, llenar, calentar
o refrescar de repente
el cuerpo en grado excesivo,
es de peligro evidente,
pues de la naturaleza
es contrario cuanto excede;
pero no lo será aquello
que con método prudente
se ejecuta poco a poco,
pues así es seguro siempre.
Y más si por graduación
se evacua lo que conviene,
se llena lo que conduce,
se calienta lo que debe
y se enfría lo que pide
que se calme y atempere.
Así pues, de esta doctrina
sacamos que si conviene
sangrar, abrir un absceso,
usar la paracentesis
u otra operación,
no se saquen de repente
la sangre, el agua o el pus
sino en repetidas veces,
para que varias se gane
lo que en una ve z se pierde,
que son las fuerzas vitales
tan precisas al paciente.
* * * *
La estrangurria y la disuria
[retención de orina y emisión dolorosa e incompleta de
la misma, respectivamente]
corregirá la sangría.
Abrid las venas internas
si la sangre en demasía
pecase o manifestase
flogosis [inflamación] en la vejiga,
o inflamación en las partes
inmediatas y vecinas,
se funda en el texto. Que se abran
como el aforismo explica
las venas internas o
externas es bobería.
Lo importante es el saber,
que si la indicación insta
para sangrar, la primera
deba ser de la basílica [vena superficial del brazo],
y la otra de la safena [vena larga de las extremidades inferiores],
si es forzoso repetirla.
Una de las características que aparecen en los tratados hipocráticos es
la preocupación por estudiar las enfermedades en relación con el ambiente. En
uno de esos textos se indica lo siguiente:
Todo el que quiera aprender bien el ejercicio de la medicina debe hacer
lo que sigue: primeramente, considerar las estaciones del año y lo que puede
dar de sí cada una, pues no se parecen en nada ni tampoco se parecen sus
mudanzas; después, considerar los vientos, cuáles son los calientes y cuáles
los fríos; primero los que son comunes a todos los países y luego los que son
propios de cada región. Debe considerar también las virtudes de las aguas,
porque así como difieren éstas en el sabor y en el peso, así también difiere
mucho la virtud de cada una. De modo que cuando un médico llega a una ciudad de
la cual no tiene experiencia, debe considerar su situación y en qué disposición
está respecto de los vientos y del oriente del sol.
La idea que subyacía en este enfoque era el de la fuerza curativa de la
naturaleza, que el médico favorecía mediante medicamentos (la «dieta» entendida
en un sentido amplio, como régimen de vida) y, si era necesario, cirugía.
Importante, asimismo, es señalar que Hipócrates (o los autores cuyas
obras le adjudicamos a él) hizo hincapié en rechazar la intervención divina en
la aparición y curación de los enfermos. En aquella época pocos sanadores no
aceptaban la idea de la intervención de algún dios, ya que la mayoría creían en
un mundo organizado según «reglas» establecidas por alguna divinidad. Al igual
que en épocas posteriores, semejante creencia se veía estimulada por los
fracasos de los remedios utilizados. Así, la misteriosa epidemia que afectó a
Atenas y otras zonas de Grecia entre los años 430 y 427 a.C. ayudó a extender
el culto a Asclepios, que terminó superando a Apolo como el dios griego más
importante para la curación.
En lo que se refiere a la anatomía, al tratar de las fracturas
Hipócrates mostraba un buen conocimiento de la inserción de los huesos. De las
partes blandas tenía ideas confusas cuando no equivocadas: no distinguía las
venas de las arterias, creó la voz nervio para referirse al
tendón. Concebía el cerebro como una glándula que producía un fluido viscoso.
Uno de los autores del Corpus hipocrático descubrió las
válvulas del corazón, pero no pudo explicar su función.
Juramento hipocrático
Juro por Apolo médico, por Asclepios, Higia y Panacea, así como por
todos los dioses y diosas, poniéndolos por testigos, dar cumplimiento en la
medida de mis fuerzas y de acuerdo con mi criterio a este juramento y
compromiso:
Tener al que me enseñó este arte en igual estima que a mis progenitores,
compartir con él mi hacienda y tomar a mi cargo sus necesidades si le hiciere
falta; considerar a sus hijos como hermanos míos y enseñarles este arte, si es
que tuvieran necesidad de aprenderlo, de forma gratuita y sin contrato; hacerme
cargo de la preceptiva, la instrucción oral y todas las demás enseñanzas de mis
hijos, de los de mi maestro y de los discípulos que hayan suscrito el
compromiso y estén sometidos por juramento a la ley médica, pero a nadie más.
Haré uso del régimen dietético para ayuda del enfermo, según mi capacidad y
recto entender: del daño y la injusticia le preservaré.
No daré a nadie, aunque me lo pida, ningún fármaco letal, ni haré semejante
sugerencia. Igualmente tampoco proporcionaré a mujer alguna un pesario
abortivo.
En pureza y santidad mantendré mi vida y mi arte.
No haré uso del bisturí ni aun con los que sufren del mal de piedra: dejaré esa
práctica a los que la realizan.
A cualquier casa que entrare acudiré para asistencia del enfermo, fuera de todo
agravio intencionado o corrupción, en especial de prácticas sexuales con las
personas, ya sean hombres o mujeres, esclavos o libres.
Lo que en el tratamiento, o incluso fuera de él, viere u oyere en relación con
la vida de los hombres, aquello que jamás deba trascender, lo callaré
teniéndolo por secreto.
En consecuencia séame dado, si a este juramento fuere fiel y no lo quebrantare,
el gozar de mi vida y de mi arte, siempre celebrado entre todos los hombres.
Mas si lo trasgredo y cometo perjurio, sea de esto lo contrario.
Otro de los rasgos que sobresalen en la medicina hipocrática —uno que
procede sobre todo de la escuela de Cos— es la atención a la historia clínica,
la descripción minuciosa y detallada de lo que acontece al enfermo, un elemento
que desde entonces configura universalmente la práctica médica.
§. Más allá de Hipócrates
Destacar mucho a un personaje, Hipócrates en este caso, tiene ventajas pero
también inconvenientes: el de animar a pensar que poco hubo o se hizo fuera de
él. Y no fue así en la antigua Grecia. Para comprobarlo, basta con referirse a
dos médicos que trabajaron en Alejandría. Al primero, Herófilo (335-280 a.C.),
se le adjudica la descripción de varias zonas del cerebro, el tubo intestinal,
los linfáticos, el hígado, los órganos genitales, el ojo y el sistema vascular;
interpretó, asimismo, las pulsaciones de las arterias como consecuencia de los
latidos del corazón y sostuvo que las arterias eran seis veces más delgadas que
las venas y que tenían una estructura diferente. El segundo fue Erasístrato
(304-250 a.C.), quien distinguió los nervios sensitivos de los motores y
realizó descripciones muy precisas de la estructura del cerebro, la tráquea, el
corazón y el sistema vascular, además de otros logros, como el de relacionar la
ascitis (presencia de líquido en el abdomen) con el endurecimiento hepático
(probable cirrosis). Volveré a hablar de ello en el capítulo 5.
Una de las razones por las que médicos como éstos han pasado
prácticamente desapercibidos es porque sus escritos —si los hubo— se han
perdido y lo que sabemos acerca de ellos es por las referencias que aparecen en
obras posteriores, como las de Galeno. Este tipo de circunstancia no es, por
otra parte, exclusiva de la medicina griega, pues afecta a muchas otras
disciplinas, especialmente a la matemática.
Capítulo 3
De Galeno a Vesalio
§. Galeno, el médico por antonomasia
Cuando contemplamos la medicina antigua desde la ventajosa perspectiva de
nuestros conocimientos actuales, debemos reconocer que los conocimientos
biológicos, químicos y físicos disponibles entonces hacían muy difícil ir más
allá de la «forma», esto es, de la anatomía. Y cuando se habla de esta rama de
la medicina, aunque entretejida con otras consideraciones, hay que dirigirse
hacia Alejandría, la nueva ciudad fundada en el delta del Nilo por Alejandro
Magno (356-323 a.C.), y luego al mundo romano. Fue en ese entorno, todavía
penetrado por la cultura griega, donde vivió un hombre cuyo nombre terminó
asociándose al de «médico»: Galeno de Pérgamo (131-201), una ciudad situada en
el noroeste de Asia Menor que rivalizaba con Alejandría en cultura.
Hijo de un arquitecto y matemático, Galeno recibió una excelente
educación en su ciudad natal, inicialmente en materias como literatura griega,
filosofía y matemáticas, pero parece que cuando tenía diecisiete años su padre
soñó que su hijo debería estudiar medicina y así comenzaron sus estudios
médicos, primero en Pérgamo, después en Corintio, Esmirna y Alejandría. En uno
de sus escritos se refirió a las excelencias de la enseñanza médica en
Alejandría, al mismo tiempo que a las dificultades que se encontraban para
conseguir una buena formación anatómica:
Sea, pues, éste tu trabajo y tu estudio, el de aprender con cuidado
todas las clases de huesos humanos, no sólo a través de la lectura de los
libros sino también por una observación esmerada y realizada con atención. Esto
podrás efectuarlo mucho más fácilmente en Alejandría, donde los médicos exponen
a los discípulos la enseñanza de los huesos ante sus propios ojos. Por tanto,
creo que debes tratar de vivir en Alejandría si no por otra causa, por lo menos
con el fin de aprender. Pero si no puedes hacerlo, limítate a observar los
huesos humanos de la manera de que yo me he valido, pues realicé mi
investigación en algunos sepulcros y monumentos que se habían destruido.
También, un río que pasó por encima de un sepulcro, construido negligentemente
unos meses antes, lo destruyó con toda facilidad y, arrancando, con el ímpetu
de las aguas, un cadáver entero, de carnes ya putrefactas, pero con los huesos
aún estrechamente unidos entre sí, lo arrastró, boca abajo, por la extensión de
un estadio. Después que el río llegó a un lugar navegable y de alta orilla,
allí se detuvo el cadáver y se presentó a nuestros ojos tal como un médico lo
hubiera preparado a propósito para enseñar a los jóvenes. Además, vi el cadáver
desecado de un ladrón, el cual yacía sobre un monte un poco fuera del camino.
Tras ejercer en Pérgamo durante cinco años, en el año 162 viajó a Roma
como médico de los gladiadores. En una primera etapa, estuvo allí hasta 165,
regresando en 168, reclamado por los co-emperadores Marco Aurelio y su hermano
adoptivo Lucio Vero que querían que les protegiese de los efectos de una
epidemia que se propagaba rápidamente (Vero murió, parece que de viruela,
aunque también pudo ser víctima de un envenenamiento). A partir de entonces
Roma fue el hogar de Galeno (aunque no se sabe si murió allí o en Pérgamo),
alcanzando la reputación que lo convirtió en una figura cuasi-mítica de la
historia de la medicina (fue médico de cámara de los emperadores Marco Aurelio,
Cómodo y Septimio Severo). Con Galeno entramos, como vemos, en la medicina
romana, que salvo por él aportó mucho menos al arte de curar que la
civilización griega.
Galeno
Autor prolífico (parece que utilizó veinte escribientes para transcribir
sus palabras), aunque muchas de sus obras se han perdido, la síntesis de la
medicina que elaboró, y que dominó la historia de esta disciplina durante más
de mil quinientos años, estaba basada en la tradición hipocrática, en Platón y
en Aristóteles. En el ámbito experimental, se ocupó de muy diversas cuestiones,
entre ellas las variaciones del pulso, la relación de la pérdida de
sensibilidad y la parálisis con determinados nervios y con la médula espinal, o
la demostración de que la orina llega a la vejiga a través de los uréteres.
Ofreció, asimismo, la primera descripción de las cuatro cámaras del corazón,
aunque cometió el error de suponer que la sangre retornaba por los mismos canales.
Según él, la sangre procedente del hígado y el corazón circulaba por todo el
cuerpo hasta consumirse en la formación de tejidos. La circulación recorría un
camino único, pero la diferencia entre venas y arterias exigía que sus
funciones fuesen distintas, de acuerdo con el principio de que la naturaleza no
hace nada en vano. La solución que propuso suponía que las arterias llevaban
sangre y la fuerza vital (pneuma), en tanto por las venas circulaba la
sangre, y supuso la idea de la comunicación entre ambos circuitos por unos
vasos invisibles (capilares).
En cuanto a sus aportaciones a la anatomía, se esforzó por unirla con la
fisiología, una senda todavía poco frecuentada. A pesar de la firmeza con la
que, en la cita que presentamos antes, se refería a los requisitos para una
buena práctica anatómica, no fue él mismo demasiado exigente en este dominio,
seguramente por las dificultades (a las que también aludía) de encontrar
cadáveres con los que practicar. Sabemos que aunque trabajó ocasionalmente con
algunos cadáveres humanos, las fuentes de sus enseñanzas anatómicas procedieron
casi exclusivamente de otros animales, sobre todo de monos, pero su prestigio
fue tan grande, el poder de sus escritos tan abrumador, que tales defectos
tardarían casi mil quinientos años en ser señalados.
§. La medicina grecorromana
Los contenidos, el conjunto de saberes y prácticas de una disciplina es, por
supuesto, importante, pero para hacerse una idea medianamente de ella es
preciso decir algo más: referirse a la profesión, a su consideración social. En
algunos aspectos, es posible referirse a las medicinas griega y romana de
manera conjunta. Por ejemplo, en ambos casos, con las excepciones que señalaré,
la profesión médica no estaba institucionalizada y en general carecía de
consideración social, pues muy pocos consiguieron reconocimiento: Hipócrates y
Galeno pertenecieron a este reducido grupo. Una de las razones de esto es que
tanto griegos como romanos, las clases altas en especial, desdeñaban los
trabajos manuales y la medicina tenía por naturaleza mucho de manual. De hecho,
dentro de la propia medicina, también encontramos una manifestación de
semejante minusvaloración de «lo manual». Me estoy refiriendo a la separación
que ya desde la Grecia clásica se estableció entre «médicos» y «cirujanos». Hoy,
por supuesto, los cirujanos son unos médicos especialistas muy prestigiosos y
apreciados, pero no fue así durante muchos siglos: se encontraban en una escala
claramente inferior a los médicos, pertenecientes éstos a la en principio más
respetable tradición de los sacerdotes y chamanes. La propia palabra «cirugía»
revela aquella valoración: procede de khéir, «mano», y érgon,
«trabajo». Los cirujanos eran los «técnicos», de formación artesanal, que se
ocupaban de los trabajos sucios, manuales, de recoser heridas, corregir
fracturas, vendar laceraciones, sajar abscesos… Dentro de esta tradición, ya en
épocas posteriores, y hasta aproximadamente el siglo XIX, surgió una curiosa
derivación de aquellos cirujanos: el cirujano-barbero o, acaso mejor, el
barbero-cirujano, que lo mismo cortaba la barba o el pelo que sacaba una muela
o practicaba una operación. En el mismo Don Quijote aparece
(capítulo V de la Primera Parte) uno de estos personajes, el barbero maese
Nicolás, que atendió al hidalgo castellano después de ser molido a palos tras
una de sus hazañas.
Un caso extraordinario fue el de Ambrosio Paré (1510-1590), hijo de una
prostituta francesa, que pasó de aprendiz de barbero-cirujano a cirujano real y
a ser considerado uno de los padres de la cirugía universal, al descubrir la
hemostasia por ligadura (tomar entre pinzas los grandes vasos sangrantes y
aplicar ligadura de los mismos con un hilo). También introdujo este antiguo
barbero-cirujano la cura de heridas con ungüentos suavizantes a base de huevo,
agua de rosas y otros elementos, abandonando la dolorosa práctica de la cura
con aceite hirviendo.
Ambrosio Paré
Volviendo a la medicina grecorromana, naturalmente existieron
particularidades. En Grecia, se dio algún tipo de institucionalización, pero no
una que incluyese sistemas educativos que permitiesen dar continuidad oficial a
la profesión: lo que se dio fue grupos de médicos —escuelas médicas— que
trabajaban en el mismo lugar y que compartían orientaciones teóricas y
prácticas.
Hay pruebas de que en el imperio romano la situación de los médicos fue
con frecuencia peor. En el siglo I, Plinio el Viejo, autor de la enciclopedia
más importante de la Antigüedad, Historia naturalis, a la que
volveré enseguida, afirmaba: «El pueblo romano estuvo más de seiscientos años
no sin medicina sino sin médicos». Sin duda que no fue así —basta con recordar
a Galeno—, pero es verdad que, al igual que los griegos y como ya he señalado,
la clase alta romana sentía aversión por los trabajos manuales y pensaba que la
práctica de la medicina era algo indigno de un hombre instruido.
La medicina en Roma, una ocupación «inferior»
Frecuentemente, tenían como médico particular, «de familia», a un
esclavo, aunque también existían médicos «libres» (libertos) a los que
podían recurrir. Había también médicos esclavos municipales y del estado. Y
muchos, sobre todo en las primeras épocas, eran de origen griego, egipcio o
judío. También como en el caso griego, pocos médicos consiguieron elevar su
posición social: Galeno fue uno de los pocos que lo logró.
Inicialmente, al igual que en Grecia, no existió en Roma ningún tipo de
reglamentación para la práctica médica, esto es, para actuar como médico. Fue
el emperador Severo Alejandro, que gobernó entre 222 y 235, quien promulgó
leyes para regular la enseñanza, la titulación de médico y el ejercicio
profesional. De esta manera, lo que antes se basaba en enseñanzas particulares
que se dispensaban a cambio de unos honorarios, pasó a ser supervisada por una
especie de gremio que disponía de algunos profesores, el denominado Collegium
Archiatri. Paralelamente, la medicina fue aumentando su consideración social y
también diversificándose, esto es, aparecieron «especialistas»: por
ejemplo, ocularii (entre cuyas misiones estaban la de extraer
los cristalinos que se habían vuelto opacos, es decir, las cataratas), auricularii, dentarii,
versiones primeras de lo que luego serían oftalmólogos, otorrinolaringólogos y
odontólogos. Semejante diversificación fue, por cierto, criticada por Galeno,
que la consideraba una amenaza para la unidad de la medicina.
§. Farmacología
En páginas anteriores he mencionado, pero sin apenas detenerme en ello, algunos
remedios medicinales en los que se utilizaban plantas. Como al menos una de las
figuras más importantes en este dominio trabajó en Roma, he demorado hasta
ahora tratar de este punto, que tiene que ver con el más general de los
medicamentos. La farmacología, la disciplina que se ocupa de
elaborar productos que ayuden a combatir las enfermedades, nació a partir de
tratamientos con plantas existentes en la naturaleza.
Sabemos que en Mesopotamia se dispuso de un amplio conjunto de
conocimientos farmacológicos de tipo empírico. Han sobrevivido, en efecto,
numerosas tablillas que contienen listas de repertorios medicinales, que, en
ocasiones, van acompañadas del nombre de la enfermedad para la que se aplicaba.
En general, los medicamentos citados eran de origen vegetal (de ellos se han
identificado hasta doscientos cincuenta diferentes), pero también los había de
procedencia animal o mineral.
Los egipcios también se interesaron por estos medicamentos. El papiro
Hears, por ejemplo, que data del entorno al año 1550 a.C., contiene doscientas
setenta recetas farmacéuticas. En algunos templos de la cultura egipcia se han
descubierto lugares que debieron servir para preparar medicamentos: algunas
paredes de las salas denominadas Is de templos (Edfou, Penderah, Philae) de
Alejandría de la dinastía de los Ptolomeos (que comenzó en 304 a.C.) estaban
repletas de recetas. En recetas como ésas u otras, se habla de procedimientos y
productos que con justicia podríamos denominar químicos, del tipo de pociones,
cocimientos, maceraciones, tisanas, cataplasmas, ungüentos, colirios, pomadas,
fumigaciones o lavatorios.
Teofrasto (c. 371-287 a.C.), el sucesor de Aristóteles en el
Liceo, identificó y clasificó por sus caracteres visibles las plantas que le
proporcionaron las campañas de Alejandro. Su Historia de las plantas,
impresa finalmente en 1644, está compuesta por dos partes: en la primera,
describe los caracteres y la localización de las plantas, que divide en
arboles, matorrales y hierbas; en la segunda, describe sus posibles usos,
médicos entre ellos.
Preparación y aplicación de medicamentos
Mucho más conocida fue una obra —una enciclopedia en realidad— del
romano Cayo Plinio Segundo (23-79), más conocido como Plinio el Viejo. Su
voluminosa Historia naturalis está dividida en 37 libros, en
los que analizaba y, sobre todo, describía, el mundo, los elementos, países,
pueblos, animales, plantas, medicamentos, geología, mineralogía e inventos
varios: esa obra constituía, en suma, una ambiciosa enciclopedia de todos los
conocimientos que había acumulado el mundo clásico.
El interés por la botánica se debía sobre todo a su papel en el
tratamiento de las enfermedades, como atestigua una obra, editada cientos de
veces a lo largo de los siglos (en España el médico segoviano del siglo XVI,
Andrés Laguna, la tradujo al castellano): De materia medica. Su
autor fue un médico griego instalado en Roma que sirvió en las legiones de
Nerón, Pedacio Dioscórides Anazarbeo (c. 40-90). Sus largos viajes con
el ejército —por Grecia, España, norte de África, las Galias y Siria— le dieron
ocasión para reunir una gran cantidad de conocimientos, que reunió en De
materia medica, conocida por muchos como, simplemente, «el Dioscórides»,
básicamente una enciclopedia farmacológica, en la que trataba de las
propiedades medicinales de plantas (de las que describía más de seiscientas),
animales (noventa) y minerales (noventa).
§. La triaca magna
Si se habla de medicamentos antiguos, es obligado mencionar uno, cuya historia
es larga, muy larga: la triaca magna. Los antecedentes de este
«medicamento», al que más bien habría que calificar de panacea universal, se
remontan al siglo II a.C., cuando Nicandro de Colofón tituló dos de sus
escritos Theriaca y Alexifármaca, el primero
dedicado al estudio de los animales venenosos, su mordedura y los remedios más
eficaces, y, el segundo, a los venenos en general y sus antídotos.
Ese interés tenía que ver sobre todo con las serpientes, un ser al que
los seres humanos siempre han temido; sentimos por él algo así como un temor
ancestral. Me viene a la mente en este sentido algo que Charles Darwin escribió
a finales del siglo XIX en su autobiografía:
¿Se puede confiar en la mente humana, que, según creo con absoluta
convicción, se ha desarrollado a partir de otra tan baja como la que posee el
animal más inferior, cuando extrae conclusiones tan grandiosas? ¿No serán,
quizá, éstas el resultado de una conexión entre causa y efecto, que, aunque nos
da la impresión de ser necesaria, depende probablemente de una experiencia
heredada? No debemos pasar por alto la probabilidad de que la introducción
constante de la creencia en Dios en las mentes de los niños produzca ese efecto
tan fuerte y, tal vez, heredado en su cerebro cuando todavía no está plenamente
desarrollado, de modo que deshacerse de su creencia en Dios les resultaría tan
difícil como para un mono desprenderse de su temor y odio instintivos a las serpientes.
«Temor y odio instintivos a las serpientes», decía. Pero continuemos con
la triaca magna.
El deseo de obtener remedios contra envenenamientos animó también a
Mitrídates VI Eupátor (120-63 a.C.), rey del Ponto, quien estableció un
auténtico laboratorio dedicado a preparar venenos y a estudiar sus efectos
sobre seres humanos y animales. Producto de esas actividades, farmacológicas en
última instancia, tempranas, de las que se encuentran continuaciones en
múltiples lugares y épocas, como los imperios bizantino y árabe y, continuando
durante las Edades Media y Moderna, fue la elaboración de un medicamento al que
se denominó triaca magna, que el diccionario de la Real Academia Española
define como «Confección farmacéutica usada de antiguo y compuesta de muchos
ingredientes y principalmente de opio». Como ha explicado el historiador de la
farmacia y de la ciencia en general, Javier Puerto (La triaca magna,
2009), en realidad se trata de «un preparado polifármaco, compuesto por
muchísimos simples, procedentes de los tres reinos biológicos tradicionales:
animal, mineral y vegetal, en donde pueden contemplarse la totalidad de las
características de los medicamentos mágicos». Lo que me interesa destacar aquí
son varios puntos. El primero, que a pesar de que podamos calificarlo de
«medicamento mágico», de dudosos efectos (se trataba sobre todo de un placebo,
de un producto que producía efectos positivos mediante procesos de índole
psicológica), la triaca magna forma parte de la historia de la farmacología. El
segundo punto, que su preparación y su aplicación se mantuvieron mucho tiempo.
Al tratarse de un producto de difícil definición y variada composición, el
prestigio que pudieran alcanzar algunas triacas podía significar una fuente de
enriquecimiento. Ta l fue el caso de la triaca fabricada en Venecia. Así,
recurriendo de nuevo al profesor Puerto:
A partir del Renacimiento … la Triaca veneciana se impuso en toda Europa
… Su preparación la vigilaba el Magistrado de la Sanidad; los simples se
exhibían, durante cuatro días, en vasos bellísimos. Quien quisiera, tenía
derecho a comprobar su autenticidad. Al cuarto día se convocaba al prior y a
los consejeros médicos. Hacían un examen de los simples y se procedía a la
preparación, también a la vista de todos. La República no monopolizó ni la
preparación, ni su posterior comercio, sólo aseguraba la pureza del ritual.
Para ello no autorizaba más que a unas cuantas boticas … Esas farmacias
estampaban bellísimos carteles de propaganda sobre las virtudes del medicamento
… Lo hacían en italiano, pero también en inglés, francés, castellano, griego,
árabe, turco o armenio. Hasta mediados del siglo XIX, el tráfico de la Triaca
fue un puntal de la economía veneciana. En esa época las autoridades sanitarias
se desligaron del ritual de preparación, aunque no lo prohibieron. La farmacia
de La Cabeza de Oro continuó preparándola hasta 1950.
Con respecto a sus propiedades, veamos algunas, de las 51, virtudes que
le adjudicaba Lorenzo Pérez en un texto, Libro de Theriaca,
publicado en 1575:
«alarga la vida, pues las venas se hinchan de sangre; antiveneno;
aprovecha a los asmáticos; aprovecha para echar a la criatura muerta del
cuerpo; cura la disentería, la lientería (si vomitan comida sin cocer), la tos
fresca y antigua, las lombrices; es contraria a la lepra, según Galeno, incluso
la puede sanar; evita el vómito y las diarreas; provoca las purgaciones de las
almorranas; quiebra la piedra en los riñones y la echa fuera».
Aunque es extraordinario que semejante compuesto mantuviese su presencia
durante tanto tiempo, en realidad, no nos debe extrañar: daba esperanzas de
curación que ni la medicina ni otros productos farmacológicos podían ofrecer.
De ahí su larga vida. Murió cuando la medicina se hizo plenamente científica.
§. El camino del islam
Al igual que sucedió en prácticamente todos los ámbitos del saber, los
conocimientos médicos alcanzados en Grecia y Roma se trasladaron al mundo
árabe, donde vivieron largo tiempo experimentando en el tránsito modificaciones
y mejoras, favorecidas por la aparición del islam como poder político y
religioso. La causa de semejante trasvase fue que la parte occidental del
imperio romano, la latina, desapareció como entidad política debido a las
invasiones de los pueblos germánicos, mientras que la parte oriental, la
bizantina, se mantuvo hasta la conquista de Constantinopla (la actual Estambul)
por los turcos en 1543.
Durante la primera etapa de este proceso los textos médicos antiguos
fueron recogidos en Alejandría pasando de allí a Constantinopla. Hunayn Ibn
Ishaq (809-873), un médico y traductor sirio (dirigió la Escuela de Traductores
de Bagdad), seguidor de la doctrina según la cual Cristo poseía dos naturalezas
distintas e independientes, una humana y otra divina (nestorianismo), que
aprendió árabe, persa y griego, fue la figura dominante en la recepción de la
cultura clásica. Tradujo al árabe y al sirio 116 títulos, entre ellos el Timeo de
Platón, la Metafísica de Aristóteles y el Antiguo Testamento y
escribió 26 estudios médicos y una compilación de la mayoría de los escritos de
Galeno, entre ellos siete cuyos originales se perdieron. Su aportación a la
anatomía se encuentra en los Diez tratados de oftalmología, la
primera obra especializada en la materia. Un persa, nacido cerca de lo que hoy
es Teherán, Abû Bakr Muhhamad ibn Zakariya al-Razis, o Rhazes (865-925), el
nombre por el que fue conocido en Europa. Rhazes estudió medicina y alquimia en
Bagdad, la ciudad que al-Mansur, califa abasida, eligió para crear una capital
centralizada y que se convirtió en un gran foco no sólo político sino también
cultural, con una biblioteca que iluminó al mundo intelectual islámico y con
una —ya citada— escuela de traductores o Casa de la Sabiduría. Parece que
Rhazes escribió cerca de dos centenares de libros, la mitad de medicina, de los
cuales muy pocos han sobrevivido (el más famoso es un inventario de medicina en
diez volúmenes: Kitab Al-Mansur, «Libro de al-Mansur»).
Racionalista y critico frente a la religión y ante Galeno, al que dedicó una de
sus obras (Dudas sobre Galeno), rechazó la doctrina de los humores y
distinguió entre la viruela y el sarampión, que describió con detalle en Sobre
las viruelas y el sarampión, un magnífico estudio clínico. Allí escribió
pasajes como el siguiente:
La erupción de viruelas está precedida por fiebre continua, dolor en la
espalda, prurito nasal y ensueños terroríficos. Éstos son los síntomas más
característicos de su próxima aparición, en especial dolor de espalda con
fiebre. El enfermo siente también pinchazos por todo el cuerpo; tensión en la
cara, que a veces desaparece y vuelve; color rojo intenso en ambas mejillas;
los ojos asimismo enrojecidos; pesadez de todo el cuerpo y gran desasosiego,
que se manifiestas con desperezos y bostezos; dolor en la garganta y el pecho,
con ligera dificultad para respirar y tos; inquietud, angustia, náuseas y
ansiedad; calor en todo el cuerpo, color rojo brillante y, especialmente, color
rojo intenso del sudor. Cuando veas estos síntomas o alguno de los peores,
puedes asegurar que está próxima la erupción de una de estas dos enfermedades.
En el sarampión no hay tanto dolor de espalda como en la viruela y en ésta no
existen tantas náuseas y ansiedad como en el sarampión, a no ser que se trate
de viruelas de la peor clase.
Otro de los grandes nombres de la medicina árabe, es Ibn Sinã
(987-1037). Natural de Aflana, actualmente en Uzbekistán, y conocido en Europa
como Avicena, fue un autor prolífico, un filósofo que se ocupó de la medicina.
Su famoso Canon de la medicina, una enciclopedia escrita en árabe,
se convirtió en la principal autoridad en la materia hasta el siglo XVII (fue
utilizado, traducido al latín, como libro de texto en la facultades de medicina
europeas hasta, al menos, 1600). Destacó el papel de la anatomía para la
medicina: «Con respecto a las partes del cuerpo y sus funciones, es necesario
que se consideren a través de la observación y la disección». Amplió, asimismo,
la teoría de los humores para explicar otros caracteres de la personalidad.
Existen muchas otras pruebas de los avances médicos durante la «era
islámica». Así, Ibn al-Quff (1233-1286), el editor de la mayor enciclopedia
quirúrgica del islam, describió la conexión de las arterias y las venas a
través de unos capilares invisibles y explicó la acción de las válvulas
cardíacas en la circulación de la sangre, ideas cuya verificación tendría lugar
con el microscopio. E Ibn al-Nafis (1213-1288), es mi último ejemplo, un médico
sirio nacido en Damasco, sustituyó la versión galénica de la circulación
pulmonar y publicó el primer tratado de oftalmología. Fue el autor de un
monumental Libro comprehensivo del arte de la medicina, pensado
para trescientos volúmenes, de los que escribió ochenta. Las aportaciones
anatómicas, dispersas a lo largo de la obra, restauraron el crédito de las
ideas galénicas de los humores y los temperamentos.
§. Alquimia y medicina
Algunas de las actividades que he tratado hasta el momento —por ejemplo, el uso
de plantas como medicamentos— están relacionadas, de una manera u otra, con lo
que ahora denominamos química. Y en este punto es preciso referirse a una
variante de esa química antigua, la alquimia, que aunque sus orígenes se pueden
rastrear en la Antigüedad (diré algo más sobre esto enseguida), tomó sendas más
firmes posteriormente.
Como tantas otras civilizaciones a lo largo de la historia, la árabe
también terminó cediendo su privilegiada posición, su hegemonía. Poco a poco,
los viejos conocimientos grecorromanos que el islam había cultivado,
enriqueciéndolos, regresaron a Europa. La puerta de entrada fue la península
Ibérica, el Toledo de las tres culturas y las tres lenguas, árabe, hebreo y
latín. El Toledo al que, sobre todo a partir del siglo XI, llegaban eruditos de
todas partes de Europa para acometer la hermosa y gigantesca tarea de verter la
ciencia, la técnica, la medicina y la filosofía del idioma árabe a una lengua,
la latina, que había estado durante siglos al margen de esos temas. Gentes
cuyos nombres revelan, con la claridad del agua más transparente, el carácter
internacional y multicultural de aquella empresa: Platón de Tívoli, Gerardo de
Cremona, Adelardo de Bath, Robert de Chester, Hermann el Dálmata, el judío
converso hispano Mosé Sefardí de Huesca —quien tomó, al ser bautizado, el
nombre de Pedro Alfonso—, Rodolfo de Brujas o Juan de Sevilla.
Avicena
Sería largo detallar todo lo que se recuperó, todo lo que se importó, de
la cultura y la ciencia árabes, pero me detendré ahora en un apartado que tuvo
que ver con la medicina y del que comencé a hablar al comienzo de esta sección,
la alquimia, una disciplina cuyo nombre ya nos muestra su relación con el mundo
árabe: procede de la palabra egipcia keme, que significa «tierra»,
de la que surgió khemia, «transmutación», que se convirtió en el
islam en al-khemia, «transmutación».
El origen de la alquimia estuvo relacionado con la búsqueda de la
inmortalidad que se practicó en China mediante el consumo de drogas, hierbas y
compuestos en el siglo IV a.C. De ahí se terminó pasando a la meditación
interior y al desarrollo de la fuerza propia mediante el ejercicio. La
influencia china se manifestó en la India a partir de los siglos V y VI.
El Rasatrastra describió los 17 procesos a que se sometía el
mercurio para que el consumo del producto final regenerase el cuerpo
volviéndose así resplandeciente e inmortal.
No es, por supuesto, tarea de este libro detenerse en algunos de los
grandes nombres de la historia de la alquimia, nombres como Hermes Trismegisto
(«tres veces grande»), una figura mítica de la Antigüedad, del que derivó el
nombre de «ciencia hermética» dado a la alquimia y también del adjetivo
«hermético» como «oscuro». Lo que me interesa aquí es señalar que medicina y
alquimia mantuvieron algunas relaciones. Una buena prueba de que así fue es
Rhazes, con el que ya nos encontramos. Uno de sus libros se tituló El
secreto de los secretos, donde describió los detalles de las experiencias
que lo habían llevado a descubrir el ácido sulfúrico y procedimientos químicos
como la sublimación y condensación del mercurio, la precipitación del azufre y
del arsénico y la calcinación de los minerales, y a ocuparse también de las
aplicaciones alquímico-químicas en la farmacia.
El legado de los alquimistas, químicos, médicos o artesanos de la
farmacopea árabes fue descomunal. Incluye el descubrimiento del alcohol, de los
ácidos nítrico y sulfúrico (éste fue descrito por un personaje de oscura
procedencia —parece que fue español— que floreció hacia el año 1300, conocido
como Falso Geber), del nitrato de plata y el potasio, la determinación del peso
específico de algunos cuerpos, el desarrollo de las técnicas de sublimación,
cristalización y destilación, y usos industriales como la utilización de tintes
y la fabricación de destilados de plantas, para lo cual introdujeron o
mejoraron numerosos instrumentos (morteros, hornos y crisoles, alambiques,
vasos de cerámica y de vidrio para la decocción, cohabitación, sublimación,
filtración, coagulación). Las aportaciones realizadas en el mundo árabe dejaron
claro que la alquimia englobaba diversos apartados, prácticos al igual que
teóricos, incluyendo en ellos a la medicina. Es dentro de esta tradición, la de
oponerse a la escuela aristotélica (y también a la de Galeno), en la que hay
que enmarcar a uno de los grandes personajes de la historia de la alquimia:
Philippus Te ophrastus Bombastus von Hohenheim (1493-1541), el médico y
alquimista suizo más conocido como Paracelso.
Como médico que era, en la losa de mármol que cubre su tumba en la
iglesia de San Esteban de Salzburgo, se puede leer todavía el siguiente
epitafio:
«Aquí yace Theophrastus Bombastus von Hohenheim. Famoso doctor en
medicina, que curó toda clase de heridas, la lepra, la gota, la hidropesía y
otras varias enfermedades del cuerpo, con ciencia maravillosa». Uno de los
intereses de Paracelso era combatir las enfermedades, una tarea en la que
desempeñaba un papel importan te el arte alquímico; así, en el capítulo tercero
(«Sobre el método de acción de las tres primeras sustancias, el sujeto
intermedio y la alquimia») de su Opus paramirum («Libro paramírico»), se lee:
«Las enfermedades extrañas requerirán que el médico las estudie con métodos
extraños, aplicándoles las concordancias que correspondan, preparando y
separando las cosas visibles y reduciendo sus cuerpos a la última materia con
ayuda del arte espagírico o de la alquimia».
§. Paracelso y la medicina, según Pedro Laín Entralgo
Pedro Laín Entralgo (1908-2001) fue un distinguido historiador de la medicina
español. En uno de sus libros, Historia de la medicina. Medicina
moderna y contemporánea (1954), abordó la cuestión de lo que Paracelso
significó en la historia de la medicina. Por su interés, reproduzco a
continuación algo de lo que escribió allí.
Creo que el haber histórico de Paracelso en la historia de la medicina
puede ser cifrado en cinco puntos:
1.
Su idea
de médico y del oficio de curar. Acaso no haya existido en la historia otro
médico con una idea tan alta y exigente de su vocación y de su quehacer. «Esto
prometo: perfeccionar mi medicina y no ceder mientras Dios dispense su gracia
al oficio; amar a los enfermos. A cualquier enfermo, más que si se tratase de
mi cuerpo; y no ilusionarme, sino saber»…
2.
La
iniciación de una idea activa y dinámica de la enfermedad. En ésta no ve
Paracelso un desequilibrio, ni una deformación de la naturaleza individual sino
un proceso viviente y específico, realizado como flujo de materia y energía;
no páthos, «pasión», sino Wirkung, «acción». De ahí su
ruptura con el viejo humoralismo … y su invención de una patología química y
vitalista, expresiva de la radical actividad del proceso viviente en que la
enfermedad consiste. Ello hace de Paracelso el primer fundador de la iatroquímica
y, por tanto, iniciador de la fisiopatología dinámica o procesal.
3.
Su
vigoroso entusiasmo terapéutico. Paracelso no concibe al médico como patólogo,
sino como terapeuta; y aunque admite, con Hipócrates, la vis medicatrix
naturae, no se siente ante el enfermo mero «servidor de la naturaleza» sino
«colaborador de Dios» en el regimiento de una naturaleza sobre la cual, como
hombre, está. Por eso aspira a una terapéutica verdadera y puramente «causal»,
y no se conforma con un medicación sólo «adyuvante». Por eso, también, pudo
introducir con largueza los remedios minerales, hasta el punto menos que
proscritos, y constituirse en principal fundador de la quimioterapia…
4.
La
energía con que afirmó el primado de la experiencia en la tarea del médico y la
condición fáustica de esa experiencia…
5.
La
proclamación de una medicina plenariamente humana, así porque en ella
interviene todo el ser del hombre, como por el objetivo hacia el cual tiende la
operación del médico…
Sin embargo, todo esto no impedía a Laín reconocer los límites de
Paracelso y su medicina:
«Todo esto —escribía— constituye el oro de la aportación de Paracelso a
la historia de la medicina. Mas ya sabemos que no todo en ella fue oro. Su
virtud quedó muchas veces en pura jactancia; su experiencia, en error grosero;
su ciencia, en elucubración cabalística; sus principios terapéuticos, en
crédula superstición; su medicina antropológica, en mal disfraza hechicería».
Ahora bien, nada de esto nos debe sorprender: la medicina ha tenido que
recorrer —aún lo recorre— un largo camino para alcanzar la plenitud científica.
Es demasiado compleja.
Vemos que Paracelso hacía alquimia sinónimo de «espagiria», un término
muy elocuente: spagyria proviene, en efecto, de las raíces
griegas «sacar, extraer, separar» y «reunir», dos raíces etimológicas en las
que se encuentran los dos conceptos u operaciones fundamentales de la química:
el análisis y la síntesis. Según él, todo se podía explicar en base (mediante
combinaciones y transmutaciones) a tres principios, la tria prima:
sal, azufre y mercurio. En este sentido, contemplaba la enfermedad como una
consecuencia de la acción de estas tres sustancias. De hecho, por mucho que se
moviese con frecuencia en terrenos confusos, sus ideas y trabajos hicieron
mucho por llevar la alquimia a la medicina, en concreto, a la iatroquímica,
química médica. Hasta entonces, la farmacopea había recibido pocos beneficios
de los trabajos de los alquimistas y continuaban dominando las teorías de
Galeno, incluyendo sus recetas sobre la elaboración de medicamentos. Paracelso,
sin embargo, obtuvo algunos preparados durante sus trabajos alquímicos que se
abrieron camino en la medicina.
Paracelso
§. El primer gran anatomista: Vesalio
Muy diferente al estilo paracelsiano, es el del personaje del que me ocuparé
ahora, uno cuya influencia en el devenir de la medicina fue mucho mayor,
incomparablemente mayor, que el de la medicina alquímica: Andreas Vesalio
(1514-1564).
A partir de los siglos XV y XVI, la disección cobró un nuevo impulso,
algo que se puede apreciar incluso en la pintura, donde se convirtió en una
escena frecuente. Un ejemplo sobresaliente en este sentido es La
lección de anatomía (1632) de Rembrandt, donde se ve al doctor
Nicolaes Tulp, un famoso médico de Ámsterdam, explicando la musculatura del
brazo a un grupo de cirujanos. Pero en ningún lugar, la nueva ciencia anatómica
se alió con el arte como en un libro del médico belga Andreas Vesalio, que
estudió en Lovaina, donde publicó una tesis en la que comparaba las terapias
musulmana y galénica (Paraphrasis in nonum librum Rhazac ad regem Almansorem,
1537), así como en París y Padua y fue uno de los médicos de Carlos V y después
también de Felipe II: De humani corporis fabrica, publicado en 1543
(el mismo año en que apareció el De revolutionibus orbium coelestium [«Sobre
las revoluciones de los orbes celestes»] de Nicolás Copérnico). En La
fábrica del cuerpo humano —otro título utilizado en la traducción al español
es La arquitectura del cuerpo humano—, Vesalio realizó un vibrante
llamamiento en defensa de la práctica anatómica, de la disección, como base
imprescindible para la comprensión de la estructura y funciones del cuerpo
humano, haciendo hincapié en las limitaciones de los estudios de Galeno y en la
degradación que la práctica anatómica había experimentado tras él. Es cierto
que la aportación anatómica había experimentado tras él. Es cierto que la
aportación de Vesalio no significó con respecto a la medicina galénica una
revolución tan marcada como lo que sucedió con Copérnico frente a la astronomía
ptolemaica (geocéntrica), pero sus enseñanzas y críticas eran imprescindibles
para que pudiese darse en el futuro una revolución parecida.
Cuáles eran las opiniones de Vesalio es algo que quedaba perfectamente
claro en la «Dedicatoria a Carlos V, el más grande e invicto emperador» que
abría el libro. Cito de ella:
Esta funesta desmembración de las técnicas curativas según las distintas
tendencias ha provocado hasta ahora un naufragio mucho más execrable y una
calamidad mucho más triste en la parte principal de la filosofía natural, a la
que, porque abarca la anatomía humana y debe ser considerada con razón el
fundamento más sólido de toda la ciencia médica y el inicio de su constitución,
Hipócrates y Platón contribuyeron tanto que no dudaron en incluirla entre las
partes principales de la medicina. Al principio sólo los médicos la cultivaron,
poniendo todo su empeño en dominarla; pero luego, comenzó a decaer tristemente
al perder la anatomía, por dejar ellos mismos en manos de otros la actividad
manual. En efecto, mientras los médicos afirmaban que sólo les incumbía la
curación de las afecciones internas, pensando que les bastaba con conocer las
vísceras, se desentendieron de la estructura de los huesos, los músculos, los
nervios, las venas y las arterias que se extienden por los huesos y los
músculos, como si no fuera cosa suya. Además, como se confiaba a los barberos
toda la disección, los médicos no sólo perdieron el conocimiento auténtico de
las vísceras, sino que también desapareció completamente la actividad de la
disección, porque éstos no se ocupaban de hacer disecciones; a su vez, aquellos
en cuyas manos se dejaba esa actividad eran tan ignorantes que no entendían los
escritos de los maestros de disección … ¡Hasta tal punto la vieja medicina se
ha apartado desde hace muchos años del antiguo esplendor!
Por otro lado, esa medicina ya hace algún tiempo que ha empezado a
revivir con todos los estudios en esta época tan próspera … y a levantar cabeza
desde las tinieblas más profundas, de tal manera que parecía que en algunas
escuelas casi se había recuperado sin discusión el antiguo esplendor y que ésta
sólo necesitaba el conocimiento casi extinguido de las partes del cuerpo
humano.
Y en este punto, recordaba su propia experiencia:
Yo mismo, estimulado por el ejemplo de tantos hombres ilustres, pensé
que debía acometer esta tarea en la medida de mis fuerzas y de todas las
maneras posibles … Sin embargo, este intento no hubiera tenido éxito si, cuando
trabajaba como médico en París, no me hubiera dedicado a esta empresa y mis
compañeros y yo no hubiéramos tenido la oportunidad de que unos barberos nos
mostraran someramente algunas vísceras en repetidas disecciones públicas …
Luego, en Lovaina, adonde tuve que volver a causa de la guerra, lo que allí en
dieciocho años los médicos ni siquiera habían soñado respecto a la anatomía y
para congraciarme con aquella escuela y coger más experiencia en un tema por
completo oculto … describí con algo más de diligencia que en París la anatomía
humana, de tal manera que ahora los profesores jóvenes de esa escuela parecen
dedicar una atención grande y seria al conocimiento de la anatomía humana,
comprendiendo bien qué egregio bagaje cultural les proporciona su conocimiento.
Por otro lado, como en Padua, en la escuela más famosa de todo el mundo,
gracias al Senado de Venecia, muy ilustre y generoso en los estudios
científicos, desde hace ya cinco años ocupo el cargo de profesor titular de
anatomía en relación con la medicina quirúrgica, me he esforzado por conocer la
anatomía humana, de tal manera que ahora he practicado con más frecuencia y,
tras desterrar de las escuelas tan ridículo sistema, la he enseñado de modo que
no pudiéramos echar de menos nada de lo que nos legaron los antiguos.
Sin embargo, se enfrentaba a dificultades: la «desidia de los médicos»
había sido tal que no se conservaban las obras de médicos del pasado que se
habían ocupado de la disección, médicos, señalaba, «a los que hasta Galeno cita
en más de veinte ocasiones en el segundo comentario al libro de Hipócrates
titulado La naturaleza humana». Muy diferente sucedía con las ideas
de Galeno y de sus seguidores, que, manifestaba, habían recogido
torpemente la doctrina de Galeno en libros voluminosos, sin apartarse ni
una coma de él … De tal manera han confiado todos en él, que no he encontrado
ni un solo médico que piense que en los libros de anatomía de Galeno se ha
encontrado alguna vez ni el más ligero error y mucho menos que pueda
encontrarse, si bien, aparte de que Galeno rectifica frecuentemente y varias
veces señala los errores de unos libros en otros, al estar más preparado con el
paso del tiempo, diciendo acto seguido lo contrario, ahora nos consta,
basándonos en el renacido arte de la disección, en la lectura atenta de los
libros de Galeno y en muchos lugares de los mismos aceptablemente corregidos,
que él en persona nunca diseccionó un cuerpo humano recién muerto. Sin embargo,
sabemos que, engañado por sus monos (aunque se le presentaron cadáveres humanos
secos y preparados para examinar los huesos), frecuentemente criticaba sin
razón a los médicos antiguos que se habían ejercitado en disecciones humanas.
Puedes incluso encontrar en él muchísimas cosas que ha descubierto de manera
poco ortodoxa en los monos. Además, resulta muy extraño que, a pesar de las
múltiples diferencias existentes entre los órganos del cuerpo humano y los de
los monos, Galeno no haya advertido casi ninguna salvo en los dedos y en la
flexión de la rodilla, observación que sin duda hubiera omitido, lo mismo que
las otras, si no fuera evidente sin necesidad de practicar la disección humana.
Galeno diseccionando monos, no humanos
En más de doscientas ocasiones, advertía, se desviaban las descripciones
de Galeno de «la auténtica descripción de la armonía, del uso y de la función
de las partes del cuerpo humano».
Fue para remedir todas estas limitaciones, para describir las partes del
cuerpo humano, por lo que Vesalio escribió De humani corporis fabrica.
En la primera de las siete partes que lo componen, explicó la naturaleza de los
huesos y de los cartílagos, que, escribía, «como sostienen las partes restantes
y son descritos en función de ellas, deben ser conocidos primero por los
estudiosos de la anatomía». En la segunda parte, trató de los ligamentos, «que
unen entre sí los huesos y los cartílagos» y, después de los músculos, «que son
autores de los movimientos voluntarios». En la tercera, se ocupaba de las venas
«que llevan a los músculos, a los huesos y a las demás partes la sangre
necesaria para su nutrición», y después de las arterias «que moderan la temperatura
del calor natural y del aliento vital». En la cuarta, mostraba las
ramificaciones de los nervios «que llevan el aliento vital a los músculos»,
mientras que la quinta detallaba la estructura de los órganos de la nutrición,
incluyendo además, «a causa de su proximidad, los instrumentos creados por el
Artífice supremo para la propagación de la especie». La sexta parte estaba
dedicada al corazón, «impulsor de la facultad vital, y a las partes que le
sirven». Y, finalmente, la séptima exponía «la armonía de los órganos del
cerebro y de los sentidos». La división en libros responde, por consiguiente, a
un criterio topográfico, de dentro hacia afuera: esqueleto (I), ligamentos y
músculos (II), venas y arterias (III), nervios (IV), en tanto que los tres últimos
describían el contenido de las tres cavidades del cuerpo humano: abdominal,
torácica y cefálica. La división en sistemas se inspiraba en criterios
formales: constructivos los dos primeros, conectivos los
siguientes e impulsivos los tres últimos, de acuerdo con la
concepción galénica.
Vesalio, en resumen, introdujo una importante novedad, que ahora a
nosotros nos puede parecer una trivialidad, pero que entonces no lo fue en
absoluto: en vez de confiar a un matarife, o a un barbero-cirujano, el despiece
del cadáver mientras se leían los párrafos correspondientes de los clásicos,
realizaba personalmente la disección.
Pero el interés de De humani corporis fabrica no reside
únicamente en el ámbito científico, porque es también una obra de arte.
Contiene una colección de más de doscientas láminas anatómicas de impresionante
belleza y realismo, en las que aparecen imágenes del esqueleto y musculatura
humanos.
Algunos sostienen que el artista autor de los grabados fue Jan Stephan
van Calcar (c. 1499-1546/1550), un compatriota de Vesalio y discípulo de
Tiziano (1477-1576). A favor de que Tiziano participase, aunque fuese de forma
indirecta, en la edición de De humani corporis fabrica, está el que
parece que los bloques de madera para las ilustraciones fueron preparados en
Venecia —la ciudad en la que trabajaba y tenía su taller Tiziano— bajo la
supervisión de Vesalio y enviados a Oporinus, el impresor encargado de la
edición, en Basilea. En el mismo sentido, algunos historiadores del arte han
argumentado que uno de los grabados de la obra, uno que aparece en el libro
(parte) V, en el que se muestra la musculatura de un hombre colocado en
posición lateral, está modelado siguiendo un conocido cuadro de Tiziano, Alocución
de Alfonso d’Avalos, marqués del Vasto, que el maestro terminó en 1541. Sin
embargo, otros historiadores del arte mantienen tesis diferentes. Analizando el
único dibujo preliminar que ha sobrevivido de los que se utilizaron para la
composición de De humani corporis fabrica y comparándolo con
el grabado correspondiente que finalmente apareció en el libro, se ha
argumentado que la preparación de los detallados estudios anatómicos y su
subsiguiente transformación en bloques de madera tallados debió de exigir una
colaboración tan estrecha entre Vesalio y el o los artistas encargados de
tallar los bloques que éstos se debieron preparar no en Venecia, donde se
encontraban Tiziano y sus discípulos, sino en Padua, en cuya universidad el
autor de De humani corporis fabrica ocupaba una cátedra desde
el 6 de diciembre de 1537, y que mantuvo hasta 1543. Aunque Padua y Venecia no
están demasiado alejadas, las reglas que regían su cátedra obligaban a Vesalio
a residir en Padua la mayor parte del tiempo y eso habría impedido la
participación de artistas de la escuela de Tiziano.
Capítulo 4
Epidemias y hospitales
En el primer capítulo de este libro ya mencioné, muy brevemente, el
posible origen de algunas enfermedades infecciosas que aquejan a los seres
humanos. En este capítulo me voy a ocupar de las epidemias, es
decir, de aquellas enfermedades que se propagan durante algún tiempo por un
país o región (ahora incluso a escala cuasi-planetaria), afectando
simultáneamente a un gran número de personas. Y dentro de ellas, de las pandemias:
enfermedades epidémicas que se extienden a muchos países o que atacan a casi
todos los individuos de una localidad o región.
La existencia de enfermedades infecciosas no es sino consecuencia de un
hecho común para toda la vida: la necesidad de alimentarse, la búsqueda de
alimento. Ahora bien, decir «vida» es algo muy genérico: hay diferentes tipos
de seres vivos. Están, por ejemplo, los animales y los vegetales; también los
microorganismos. Éstos se encuentran en todas partes: los hay en el aire que
respiramos, en el agua que bebemos, en los alimentos que comemos, incluso en
nuestros propios cuerpos: nuestro intestino inferior, por ejemplo, alberga
poblaciones masivas de bacterias. Que los llevemos con nosotros no significa,
sin embargo, que nos resulten dañinos y, de hecho, incluso pueden ser
beneficiosos, ayudando, por ejemplo, a la digestión o impidiendo que nos
ataquen otros «visitantes» más peligrosos.
La razón por la que nos abordan microparásitos es la ya mencionada:
porque nos quieren para alimentarse (se nutren de tejidos humanos). Algunos de
esos microparásitos —virus o bacterias, por ejemplo— originan enfermedades en
los seres humanos en los que se instalan, enfermedades de las que no nos
podemos recuperar, pudiendo llegar a sucumbir ante ellas, o de las que nuestros
cuerpos se defienden provocando reacciones de inmunización que matan a los
invasores. Es posible, asimismo, que los portadores (nosotros u otros animales)
de esos microparásitos patógenos sirvan de vehículo para transmitirlos a otros
individuos, propiciando de esta manera epidemias, procesos que podemos entender
como si fueran reacciones en cadena.
Estos males han atacado a los seres humanos (y también, por supuesto, a
otros animales) a lo largo de toda la historia de la humanidad. Sabemos, en
efecto, que existen microparásitos que producen enfermedades en los humanos
desde hace mucho tiempo, como es el caso del causante de la malaria,
al que se denomina plasmodio, y que probablemente es el más antiguo
de los parásitos que nos producen enfermedades. La tuberculosis también
puede ser tan antigua como el hombre; el cólera llegó a Europa
de la India en el siglo IV a.C.; la viruela acompañó a Hernán
Cortés (1485-1547) cuando llegó a México; y parece que el tifus se
manifestó con claridad por primera vez en 1546 en América.
Los procesos de transmisión de un individuo a otro de estas enfermedades
son variados. Algunas necesitan de un «vehículo» que porte el parásito de un
infectado a otro huésped potencial. Tal es el caso de la malaria, que se
transmite mediante un mosquito, y también el de la peste bubónica, de la que
trataré enseguida (aquí el vehículo son roedores). La esquistosomiasis es
transmitida por gusanos, caracoles y babosas; la enfermedad del sueño, por la
mosca tse-tsé; el tifus, por pulgas y piojos. Por el contrario, otras
enfermedades humanas pasan directamente de una persona a otra, sin necesidad de
un transmisor. Así ocurre con la tuberculosis, el sarampión, la viruela, la
varicela, la tosferina, las paperas o la gripe.
Las cifras de muertos producidos a lo largo de la historia por estas
infecciones que se convierten en epidemias son terribles, aunque las
estimaciones sean más o menos fiables según la época de la historia en que se
produjeron. La peste bubónica (producida por el bacilo de Yersin (Yersinia
pestis), denominado así en honor de André Yersin (1863-1943), microbiólogo
francés del Instituto Pasteur que logró aislar e identificar la enfermedad en
Hong Kong en el año 1894, es causada por ratas y otros roedores, que la portan
pero no es patógena para ellos, sí para los humanos, a los que afecta desde
antiguo. Se sabe, por ejemplo, de una conocida como «plaga de Justiniano», que
afectó entre los años 541 y 542 al imperio romano, extendiéndose por el norte
de África, Europa y Asia occidental, llegando a matar, parece, a entre el 50 y
el 60 por ciento de la población. Otra fue la llamada «Peste Negra», un tipo de
peste bubónica, que se inició en 1348 y mató a unos veinticinco millones de
personas, entonces más de un tercio de la población mundial. Desaparecieron por
completo miles de aldeas y perdieron alrededor de la mitad de sus habitantes
ciudades como Florencia, Venecia, París y Valencia.
Otras epidemias famosas son las de Milán y Londres en el siglo XVII, la
de Marsella en el XVIII y la de China de 1855. No se conocían entonces las
causas que las producían ni había medios para combatirlas. Evitar las zonas
pantanosas en las que pululaba una vida incomprensible (miasmata) fue el
consejo que daba el militar romano Marco Terencio Varrón (116-27 a.C.).
La Peste Negra de 1348 en el Decamerón de Boccaccio
Giovanni Boccaccio (1313-1375), el inolvidable autor del Decamerón,
se refirió a la Peste Negra de 1348 en la introducción a su obra:
Al cumplirse mil trescientos cuarenta y ocho años de la fructífera
Encarnación del Hijo de Dios, la mortífera pestilencia llegó a la egregia
ciudad de Florencia, la más noble de las italianas … Había comenzado antes en
las partes de Oriente, aniquilando una innumerable cantidad de vidas, y se
había extendido hacia Occidente de un lugar a otro, sin detenerse en ninguno.
En ella de nada servían la prudencia ni la previsión humanas; aunque la ciudad
fue limpiada de muchas inmundicias por encargados de esta tarea, se prohibió
entrar a cualquier enfermo, se dieron muchos consejos para la conservación de
la salud e incluso las personas devotas hicieron humildes súplicas a Dios, no
una vez sino muchas, en procesiones y de otras formas, en la primavera de dicho
año comenzó a manifestar sus dolorosos efectos de forma horrible y
sorprendente…
Al principio, a los hombres y mujeres les aparecían en la ingle o bajo el
sobaco ciertas hinchazones, algunas de las cuales, crecían más o menos como una
manzana corriente y otras, como un huevo, que la gente llamaba «bubones». En
poco tiempo, dicho bubón mortífero comenzó a extenderse desde esas dos partes
del cuerpo y a aparecer en cualquiera otra sin distinción; después la cualidad
de la enfermedad comenzó a transformarse en numerosas manchas negras o lívidas,
que aparecían en los brazos, las piernas y en el resto del cuerpo, siendo
algunas grandes y difusas y otras, pequeñas y espesas. El bubón había sido al
principio y continuaba siendo indicio ciertísimo de muerte futura, que sufrían
todos los que la tenían. Para la curación de esta enfermedad no parecía servir
o hacer provecho ni el consejo ni la virtud de ninguna medicina…
Esta pestilencia adquirió mayor fuerza porque de los enfermos que la padecían
pasaba a los sanos al estar juntos, de forma semejante a lo que hace el fuego
con las cosas secas o grasientas cuando se acercan mucho. Más tarde empeoró
todavía más, ya que no solamente hablar o tratar con enfermos transmitía a los
sanos la enfermedad y, por lo general, con la misma muerte sino que incluso
tocar las ropas o cualquiera otra cosa que hubieran tocado o utilizado parecía
transmitirla…
De estos sucesos y de otros parecidos o más graves procedían los diversos
miedos e imaginaciones de los que quedaban vivos, casi todos los cuales tenían
un objetivo bastante cruel, que era esquivar a los enfermos y huir de ellos y
de sus cosas, creyendo que así cada cual conseguía conservar la propia salud.
Había algunos que pensaban que vivir moderadamente y evitar todo lo superfluo
era muy importante para resistir tan fatal trastorno; se reunían y vivían
separados de los demás, recluidos y escondidos en casas donde no había enfermos
y, para vivir mejor, consumían de forma muy moderada alimentos delicados y
buenos vinos, huían de la lujuria, no hablaban con nadie, ni querían recibir
noticia alguna del exterior sobre la muerte y los enfermos, entreteniéndose con
músicas o diversiones a su alcance. Otros, por el contrario, afirmaban que la
más segura medicina para tanto mal consistía en beber mucho, andar cantando y
solazándose, satisfacer los apetitos todo lo posible en cualquier cosa y reírse
y burlarse de lo que pasaba; y tal como lo decían lo ponían en práctica en
cuanto les era factible, merodeando de día y noche de una taberna a otra, bebiendo
sin prudencia ni medida y, todavía más, haciendo en casas ajenas solamente
aquello que les apetecía o les causaba placer … Muchos otros seguían una vía
media entre las dos citadas, no encerrándose en sus viviendas, como los
primeros, ni excediéndose en la bebida y otros desenfrenos como los segundos,
sino usando las cosas de modo suficiente según su apetito, y, sin recluirse,
paseaban llevando en las manos flores, hierbas aromáticas y diversas especias,
que olían a menudo, creyendo era óptimo confortar el cerebro con dichos aromas,
ya que el aire apestaba, penetrado del hedor de los cadáveres, la enfermedad y
las medicinas … Era tan grande el espanto que esta tribulación había producido
en el pecho de los hombres y mujeres, que un hermano abandonaba al otro, el tío
al sobrino, la hermana al hermano, a menudo la esposa al marido y, lo peor y
casi increíble, los padres y madres rehuían visitar y atender a los hijos, como
si no fueran suyos.
§. ¿Por qué las epidemias?
Como se ve en la cita de Boccaccio, el temor y el desconcierto eran terribles.
No se sabía a qué se podían deber las terribles plagas que atacaban a los seres
humanos (habría que esperar hasta el siglo XIX, a la teoría microbiana de la
enfermedad desarrollada por Pasteur y Koch, para comprender tales causas).
«Preguntad a los médicos y constataréis su estupor», escribió Petrarca al
perder a un familiar. Una «explicación» no infrecuente era la de que
constituían «castigos divinos»: a menudo se describía la peste como una lluvia
de flechas que se abatían sobre los hombres, lanzadas por un dios (o por un
demonio) para hacerles pagar sus pecados, o como un fuego que consumía todo.
Disponemos de abundantes cuadros que ilustraban tales visiones o que,
simplemente, ofrecían imágenes de sus terribles efectos (piénsese, por ejemplo,
en El triunfo de la muerte, pintado en 1562 por Brueghel el Viejo).
Protegiéndose de las epidemias
Resignados a su ignorancia, los médicos trataban de cumplir con sus
deberes asistenciales, pero procurando no verse afectados por la enfermedad. A
mediados del siglo XVII, el médico, matemático y teólogo danés Thomas Bartholin
recomendaba a sus colegas que no llevaran barba ni el pelo largos, que se
pusieran anteojos (gafas) y un espolón, pico largo, repleto de lo que
consideraban antídotos y productos olorosos para proteger la nariz del «aire
corrupto». La ropa, añadía, debía estar hecha con «lino comprimido», no con
paño ni lana, tejidos en los que se podían agarrar los «microbios». Llevaban,
además, un palo largo para evitar entrar en contacto con el «apestado».
§. Epidemias en la colonización española de América
He mencionado, hace un momento, la viruela como una enfermedad infecciosa que
llevó Hernán Cortés a América desde España. El efecto que enfermedades llevadas
por los españoles —que ya estaban inmunizados al haber estado expuestos a ellas
desde su infancia— al Nuevo Mundo y las consecuencias que pudieron tener en la
conquista de imperios como el azteca, constituyen un tema clásico de la
historiografía. La cuestión surge de manera casi inevitable como ayuda para
poder entender cómo un puñado de españoles fueron capaces de dominar a
poblaciones muchísimo más numerosas y con un importante grado de desarrollo.
Parece que los encuentros de los amerindios con enfermedades
epidemiológicas antes de la llegada de Colón no fueron importantes. Los
amerindios no eran portadores de infecciones graves transmisibles a los
europeos, con una excepción: la sífilis (infección de transmisión sexual
crónica producida por la bacteria espiroqueta Treponema pallidum,
subespecie pallidum), que, aunque no exista consenso generalizado,
parece existió en las civilizaciones precolombinas y fue exportada desde allí a
Europa. Una posible explicación de la carencia de enfermedades epidemiológicas
en América es, como argumentó William McNeill (Plagas y pueblos, 1976),
que los animales domésticos que existían allí no eran portadores de infecciones
del tipo de las que hacen posible la transmisión de su parasitismo a grandes
poblaciones humanas, entre otras razones porque el número de animales que
formaban rebaños domesticados era mucho más pequeño que en Europa y más
dispersos geográficamente.
Según algunas estimaciones, la población amerindia anterior a la
conquista española era de unos cien millones de personas, de los que entre
veinticinco y treinta corresponderían a México. Hacia 1568, cuando no habían
transcurrido cincuenta años desde que el pequeño ejército de Hernán Cortés
conquistara el imperio azteca, esa población se había reducido a unos tres
millones. La disminución de población continuó, aunque a un ritmo menor,
durante el siguiente medio siglo, alcanzando el umbral de 1,6 millones de
habitantes en México en 1620.
La primera epidemia de la que se tiene noticia en el Nuevo Mundo fue una
de gripe porcina (los cerdos, introducidos en América por Cristóbal Colón, que
los llevó allí en su segundo viaje, el de 1493), que en 1543 diezmó la
población de La Española, la isla situada entre Cuba y Puerto Rico que en la
actualidad alberga a la República Dominicana y Haití, cuya población antes del
contacto se estima entre quinientos mil y setecientos cincuenta mil. Más grave
y, como veremos enseguida, de tremendas consecuencias políticas fue la de
viruela, que en 1518 se manifestó también en La Española. Sobrevivieron,
parece, únicamente un millar de indígenas. Y desde allí, la viruela, también
importada por los españoles, viajó a México, adonde llegó en 1520, precisamente
en el momento en que Hernán Cortés se estaba enfrentando a las huestes de
Moctezuma, en condiciones de desventaja, debido sobre todo a la enorme
diferencia en el número de los dos ejércitos (recordemos que Cortés había
desembarcado en 1519 en el puerto de Veracruz con quinientos cincuenta hombres
y, aunque más tarde recibió refuerzos, no fue en grandes números). Veamos lo
que McNeill escribió al respecto en el libro antes citado:
Claramente, si la viruela no hubiera estallado en el momento en que lo
hizo, no se habría producido la victoria española en México. Lo mismo ocurrió
con la expedición filibustera de Pizarro a Perú. Porque la epidemia de viruela
no confinó sus estragos al territorio azteca sino que se expandió a Guatemala,
donde apareció en 1520, y continuó hacia el sur, penetrando en los dominios
incas en 1525 o 1526. Las consecuencias fueron tan drásticas como entre los
aztecas. El rey inca murió de la enfermedad, mientras estaba fuera de la
capital, realizando una campaña militar en el norte. También murió el heredero
designado, sin dejar un sucesor legítimo. A eso siguió la guerra civil y fue
durante esa quiebra de la estructura política inca cuando Pizarro y su puñado de
matones se abrieron camino hasta Cuzco y saquearon sus tesoros. No encontraron
ninguna seria resistencia militar.
Y no fue la de la viruela la única enfermedad infecciosa que llevaron
los españoles. El sarampión se extendió por México y Perú en 1530-1531. En
1533, Francisco de Castañeda escribía al emperador Carlos V informándole que
una epidemia de sarampión había ocasionado seis mil muertes entre los indios, y
añadía: «Los indios desta provincia se acaban, y si no se remedian con
brevedad, no hay indios para cuatro años; según los indios dicen, cada año en
esta provincia les daban muy grandes enfermedades y pestilencias». Pero no es
preciso ofrecer más detalles. Queda clara la incidencia decisiva que pueden
llegar a tener las epidemias en la historia política de la humanidad.
§. La gran peste inglesa de 1665
Otro ejemplo histórico de gran epidemia es la peste que asoló Inglaterra en
1665 y 1666 que llegó a matar a cerca de cien mil personas. Uno de los lugares
que más afectó fue a la capital, Londres, adonde llegó a mediados de julio de
1665 (mató a aproximadamente el quinto de la población). Como la Peste Negra,
la infección fue debido a la peste bubónica y parece que llegó de Holanda, en
las pulgas de ratas de los barcos. El famoso escritor inglés Daniel Defoe (c.
1659-1731) escribió un libro sobre aquella peste, que él mismo conoció, aunque
fuese en su infancia, Diario del año de la peste (1722), que
comenzaba refiriéndose a ese origen.
Fue hacia principios de septiembre de 1664 cuando yo, al igual que el
resto de mis vecinos, supe incidentalmente que la peste había vuelto a invadir
Holanda, pues ya había azotado violentamente aquel país, sobre todo Ámsterdam y
Róterdam, en el año 1663, cuando, decían, había sido introducida, según unos de
Italia, según otros de Oriente, con unas mercaderías que transportaba su flota
de Turquía; otros decían que había venido de Candía; otros de Chipre. Pero poco
importaba de donde viniese; lo cierto es que todos estaban de acuerdo en que
ahora había vuelto a invadir Holanda.
Los historiadores de la ciencia saben bien de la existencia de esta
plaga porque afectó a una de las grandes figuras de toda la historia de la
ciencia, quizá la más importante: Isaac Newton (1642-1727). En el verano de
1665, muy poco después de que Newton se hubiese graduado allí, la Universidad
de Cambridge —a la que el gran físico y matemático continuaría estando
vinculado durante la mayor parte de su vida, como catedrático— cerró durante
dos años para evitar que la peste diezmase a profesores y estudiantes. Newton
se trasladó entonces a la casa materna, Woolsthorpe, en Lincolnshire. Allí,
especialmente durante 1666 (conocido como su annus mirabilis),
efectuó avances considerables, históricos, tanto en la física del movimiento y
la gravitación, como en las matemáticas.
Una pregunta interesante es la de cómo se organizaban las autoridades de
las poblaciones para combatir aquellas terribles epidemias en una época en la
que sus causas eran desconocidas. El libro de Defoe nos ayuda en este sentido,
ya que reproduce algunas de las ordenanzas que se dictaron en Londres. Eran las
siguientes.
Ordenanzas concernientes a la epidemia de peste, redactadas y
promulgadas por el lord alcalde y los regidores de la ciudad de Londres, 1665
Considerando que durante el reinado de nuestro difunto soberano, el rey
Jacobo, de feliz memoria, se promulgó una ley sobre los auxilios caritativos y
las disposiciones a tomar referentes a las personas contaminadas de peste, por
la cual se autorizaba a los jueces de paz, gobernadores y demás altos cargos, a
nombrar dentro de sus respectivas jurisdicciones inspectores, inquiridoras,
guardianes, vigilantes y sepultureros, para las personas y lugares contaminados
y tomarles juramento para mejor ejercicio de sus funciones. Y como los mismos
estatutos autorizan a tomar otras disposiciones complementarias, según lo
exijan las circunstancias que pudieran presentarse, consideramos, después de
haber celebrado las pertinentes deliberaciones, que es de todo punto necesario,
para prevenir y evitar que el mal se extienda (si así place a Dios
Todopoderoso), que sean nombrados los oficiales siguientes y que se cumplan las
ordenanzas que se dictan a continuación.
Los oficiales en cuestión eran: «inspectores en cada parroquia»,
«guardianes» (dos para cada casa contaminada), «inquiridoras» (mujeres «de
mejor reputación y de mayor honradez», para informarse sobre las causas de la
muerte de las personas, cuyos cadáveres debían inspeccionar), «cirujanos» y
«asistentas de enfermos». De éstas, se decía que «en caso de que abandonasen
una casa contaminada antes de los veintiséis días siguientes al de la muerte de
una persona apestada, la casa a la que la susodicha asistenta de enfermos se
haya trasladado será clausurada hasta que expire ese plazo de veintiocho días».
En un libro como el presente, merece la pena reproducir lo que se decía
sobre los cirujanos:
Dado que hasta ahora los numerosos errores y declaraciones equivocadas
que ha habido del mal, han contribuido en gran modo a la extensión de la
epidemia, se ordena que, para ayudar a las inquiridoras, se elijan y sean
nombrados cirujanos capacitados y de buen criterio, independientemente de
aquellos que ya forman parte del hospital de apestados, y que la ciudad y las
liberties se dividan según el modo más conveniente, y que cada uno de estos
cirujanos tome a su cargo una de estas demarcaciones; y los susodichos
cirujanos, en cada demarcación, deben colaborar con las inquiridoras en el
reconocimiento de los cadáveres, a fin de que los informes que se den del mal
sean fidedignos.
Los susodichos cirujanos deberán visitar y reconocer a las personas que les
manden llamar, o que sean nombradas y designadas por los inspectores de cada
parroquia, debiéndose informar por sí mismos del mal que aqueja a dichas
personas.
Dado que los susodichos cirujanos no podrán dedicarse a ninguna otra actividad,
y que se dedicarán exclusivamente a atender a los afectados por la epidemia, se
ordena que cada uno de los susodichos cirujanos perciban doce peniques por cada
persona que reconozcan, dinero que deberá pagar el enfermo, si tiene medios, y
de lo contrario pagará la parroquia.
Luego venían las «Ordenanzas concernientes a las casas contaminadas y a
las personas afectadas por la peste», que resumo a continuación:
Notificación del mal
En toda casa en la que alguien se queje de manchas, rojeces o hinchazón en
cualquier parte del cuerpo o caiga gravemente enfermo sin que aparentemente se
adviertan señales de que ello es debido a algún otro mal, el dueño de la casa
dará aviso al inspector de salud en el plazo de dos horas, a partir del momento
en que se han manifestado los susodichos síntomas.
Reclusión de enfermos
Tan pronto como cualquier persona sea declarada contaminada de peste, sea por
un inspector, una inquiridora o un cirujano, a partir de aquella misma noche
quedará recluida en su casa; y en este caso, aunque más tarde la susodicha
persona no muera, la casa que ha habitado quedará clausurada por un mes,
después de que los demás miembros de la familia hayan usado todas las medidas
preventivas que se consideren necesarias.
Desinfección de los efectos domésticos
Por lo que respecta a la desinfección de los efectos domésticos, las camas,
junto con toda su ropa y las colgaduras de las alcobas, deberán ser
desinfectadas por medio del fuego y de los perfumes que se usan en tales casos
dentro de la casa contaminada, antes de que puedan volverse a utilizar. Los
inspectores serán responsables del cumplimiento de estas medidas.
Clausura de la casa
En caso de que alguien haya visitado a una persona que se sabe se halla enferma
de la peste, o haya entrado voluntariamente en una casa notoriamente
contaminada, sin estar autorizado para ello, la casa donde dicha persona habite
quedará clausurada durante todo el tiempo que determine el inspector.
Prohibición de mudarse de casas contaminadas
Nadie podrá mudarse de la casa donde ha caído enfermo de peste y trasladarse a
otra de la ciudad (si no es al hospital de apestados, a una tienda de campaña o
a alguna otra casa que el propietario de la casa contaminada poseyera y
habitara con su propia servidumbre); y se darán garantías a la parroquia en
donde se haga el traslado, que las susodichas personas enfermas serán objeto de
todas las atenciones y cuidados, y que se cumplirán todos los requisitos que se
han indicado antes, sin que la parroquia en donde tenga lugar este traslado
tenga que correr con ningún gasto, y el traslado se hará de noche…
Entierro de los muertos
El entierro de los muertos que cause esta epidemia se hará a las horas más
convenientes, siempre antes de la salida del sol, o después de la puesta, de
acuerdo con los capilleros o los alguaciles, y no de otro modo; y no se
permitirá a ningún vecino o amigo acompañar el cuerpo a la iglesia, ni entrar
en la casa contaminada, bajo pena de que se le clausure su casa o de ser
encarcelado.
Ningún cadáver de apestado podrá ser enterrado ni permanecer en la iglesia,
cuando en ésta haya servicios religiosos, plegarias públicas o sermones. Y
cuando se celebre un entierro en alguna iglesia o cementerio no se permitirá a
ningún niño que se acerque al cadáver, féretro o tumba. Y todas las tumbas
deberán tener una profundidad mínima de seis pies.
Además, toda aglomeración de gente en los otros entierros queda prohibida
mientras dure la actual epidemia.
A continuación venían ordenanzas sobre «prohibición de disponer de los
efectos domésticos de las casas contaminadas», «prohibición de sacar a ninguna
persona de una casa contaminada», «señales que debe haber en todas las casas
contaminadas» (una cruz roja de un pie de longitud en medio de la puerta y un
letrero que diga «Señor, ten piedad de nosotros»), «vigilancia de las casas
contaminadas», «habitantes de las casas» y «coches de alquiler». Había,
asimismo, ordenanzas para la «limpieza y mantenimiento del decoro de las
calles» y «concernientes a personas de vida irregular y a lugares de
esparcimiento» (afectaban a «mendigos», «espectáculos», «prohibición de
banquetes», «despachos de bebidas»).
Vemos que estas ordenanzas eran, en general, razonables medidas,
podríamos decir profilácticas, pero estaba el gran problema de, como decía
antes, que las causas de la plaga eran desconocidas. Y lo serían, como también
he señalado, básicamente hasta el siglo XIX. En semejante situación, no es
sorprendente que las personas se aferrasen a todo tipo de explicaciones,
auxilios o consuelos. También Defoe se refería a esta circunstancia, aunque de
una forma un tanto curiosa:
Hay algo que no puedo omitir aquí, y que me pareció verdaderamente
extraordinario, y que por lo menos parecía ser una notable manifestación de la
justicia divina. Me refiero a que todos los adivinos, astrólogos, profetas y
los que llaman magos, hechiceros y demás gente de su ralea; los que hacían
horóscopos, los visionarios y demás hombres de esta suerte, habían
desaparecido, se habían esfumado. Y no quedaba ni uno solo. Yo estoy plenamente
convencido de que muchos de ellos se habían arriesgado a quedarse en la ciudad
esperando poder obtener grandes ganancias y habían muerto víctimas de la
epidemia. Y la verdad es que sus ganancias fueron muy importantes durante algún
tiempo, gracias a la locura y a la necedad de las gentes. Pero ahora habían
sido reducidos al silencio; muchos de ellos fueron a su última morada sin haber
sabido predecir su propio destino ni descifrar su propio horóscopo.
§. Nuevas construcciones y materiales, menos riesgos
Como he señalado, la plaga de 1665 se propagaba a través de las pulgas que
llevaban las ratas. Los techos de paja, que abundaban entonces, favorecían el
contagio a los humanos; simplemente esos techos constituían buenos refugios
para las ratas y porque era fácil que una pulga cayera del techo a alguien que
estuviera debajo. La sustitución de los techos de paja por los de tejas evitó
este peligro. Otra consecuencia beneficiosa para la salud pública derivada de
los cambios arquitectónicos provino de, en buena parte de Europa occidental, la
escasez de madera, que llevó a construir las viviendas con piedras y ladrillos
y ello tendió a dificultar los contactos entre roedores y personas dentro de
una misma casa. Es cierto que en principio estos cambios se producían
lentamente, pero en Londres una dramática circunstancia obligó a cambios
rápidos. Un gran incendio asoló Londres en 1666. La magnitud del incendio, el
número de edificaciones que quedaron destruidas, hizo que se introdujeran
nuevas normas de edificación que obligaban a utilizar materiales
incombustibles, como los ladrillos o la piedra, siendo desterrados de las
construcciones las hasta entonces dominantes vigas de madera y los techos de
paja.
La medicina en el Quijote y la práctica médica en
tiempos de Cervantes
La mención de Daniel Defoe y el libro que escribió sobre la epidemia de
1665-1666, me lleva a mencionar que la medicina ha sido un tema frecuente en
obras literarias. Recordemos, por ejemplo, novelas contemporáneas como La
montaña mágica (1924), de Thomas Mann, Dr. Arrowsmith (1925),
de Sinclair Lewis, o La historia de San Michele (1929), de
Axel Munthe. Y aunque no sea, en modo alguno, su tema central, la medicina
también aparece —en general no muy bien considerada— con cierta frecuencia en
la «primera novela», en Don Quijote de la Mancha (primera
parte 1605, segunda parte 1615), el libro inmortal de Miguel de Cervantes. Así,
en el capítulo LXXI de la segunda parte (todos los que utilizaré son de esta
parte), decía Sancho Panza a don Quijote:
—En verdad, señor, que soy el más desgraciado médico que se debe hallar
en el mundo, en el cual hay físicos [médicos] que con matar al enfermo que
curan, quieren ser pagados de su trabajo que no es otro sino firmar una
cedulilla de algunas medicinas.
En otro capítulo, el XLVII, en el que Sancho es gobernador de la ínsula
Barataria, en cierto momento púsose al lado del antes escudero, «un personaje,
que después mostró ser médico». Y cuando el glotón Sancho intentó disponer de
un plato de perdices, «bien sazonadas», que a su parecer no le harían ningún
daño, el médico le respondía: «Ésas no comerá el señor gobernador en tanto que
yo tuviere vida».
—Pues, ¿por qué? —dijo Sancho.
Y el médico respondió:
—Porque nuestro maestro Hipócrates, norte y luz de la medicina, en un aforismo
suyo, dice: Omnis saturatio mala, perdices autem pessima. Quiere decir: «Toda
hartazga es mala; pero la de las perdices, malísima».
El aforismo en cuestión, nada tenía que ver, por supuesto, con
Hipócrates. Se trataba de un aforismo latino, en el que Cervantes
sustituye panis por per dices, aunque lo correcto
sería haber escrito «perdicis».
En este mismo capítulo hay otra referencia médica. Un labrador, natural
de Miguel Turra, se presenta ante Sancho el gobernador y le dice: «Soy viudo,
porque se murió mi mujer, o, por mejor decir, me la mató un mal médico, que la
purgó estando preñada», palabras que parecen aludir a un caso real, el de la
reina Isabel de Valois, la tercera esposa de Felipe II, cuyo fallecimiento
suele atribuirse al mal tratamiento que le dieron sus médicos, que incluso
llegaron a sangrarla. Parece que sufría una pielonefritis gravídica,
pero los médicos pensaron que tenía tuberculosis. Cuando se dieron cuenta de
que estaba embarazada, intentaron cuidarla para que no abortase, dándole toda
clase de hierbas, e incluso rodeándola de amuletos.
Otra referencia interesante ocurre cuando en el capítulo XXXV quien se
dice ser el mago Merlín califica la naturaleza de Sancho de la manera
siguiente: «Sé que sois de complexión sanguínea, y no os podrá hacer daño
sacaros un poco de sangre».
Mi último ejemplo aparece en el capítulo LX, cuando don Quijote dice al
bandolero catalán Roque Guinart: «Señor Roque, el principio de la salud está en
conocer la enfermedad y en querer tomar el enfermo las medicinas que el médico
le ordena: vuestra merced está enfermo, conoce su dolencia, y el cielo, o Dios,
por mejor decir, que es nuestro médico, le aplicará las medicinas que le sanen,
las cuales suelen sanar poco a poco, y no de repente y por milagro».
La presencia de la medicina en el libro de Cervantes no es, en realidad,
sorprendente, pues muchos son los accidentes posibles —desde traumatismos hasta
desarreglos intestinales— que pueden acechar a un caballero andante. Esto me
lleva a la situación de la medicina en la España de la época de Cervantes.
Citaré en este sentido lo que Pedro García Barreno escribió en un libro
colectivo que yo mismo dirigí, La ciencia y el Quijote (2005):
Quienes en España, durante el siglo XVII, cumplieron cometidos curadores
componen un abigarrado conjunto de profesionales, universitarios los menos y
empíricos hábiles en el ejercicio de concretas prácticas terapéuticas la
mayoría; estos últimos facilitados por la escasez de médicos profesionales
titulados quienes, en la mayoría de los casos, estaban vinculados al servicio
de la Corte, de grandes señores y prelados, de cabildos y concejos. Los
habitantes de los núcleos urbanos y la casi totalidad de la población rural no
debieron disponer de asistencia médica profesional. Algo similar ocurría con
los cirujanos … Con los cirujanos colaboraban un nutrido y dispar grupo de
profesionales carentes de formación reglada: los algebristas o sanadores de
huesos (empíricos especializados en fracturas y dislocaciones); hernistas o
sacapotras especializados en la reparación de hernias inguinales; lito-tomistas
o sacadores de piedras enclavadas en la uretra y solucionadores de los
problemas ocasionados por las carnosidades uretrales provocadas por la sífilis;
sacamuelas; barberos sangradores; parteras, y personajes varios que añadían a
su oficio sanador ingredientes mágicos y recursos supersticiosos e invocaciones
demoníacas o milagreras.
§. La gripe
No he dicho nada aún de una enfermedad infecciosa de la que prácticamente todo
el mundo tiene noticia: la gripe. Identificada desde la Antigüedad (Hipócrates
ya se refirió a ella), la gripe se manifiesta anualmente y causa además
numerosas pandemias. Desde 1510 se han descrito unas 31 pandemias, la más
conocida y mortífera, la denominada «gripe española» de 1918-1919, que mató
entre cincuenta y cien millones de personas (el apelativo «española» es
completamente injusto: se detectó por primera vez en el estado estadounidense
de Texas, desde donde se expandió por todo el mundo; parece que se la denominó
«española» porque fue en España, que era un país neutral entonces, durante los
años de la primera guerra mundial, donde la prensa dio mayor noticia de ella,
mientras que en otros lugares la información se censuró). La gripe, que afecta
a aves y animales, la produce un tipo de virus de la familia de los Orthomyxoviridae.
En los seres humanos afecta a las vías respiratorias (puede confundirse al
principio con un simple resfriado) y con frecuencia va acompañada de dolor de
garganta, debilidad, dolores musculares, estomacal, articulares y de cabeza,
con tos, malestar general y fiebre. En los casos más graves puede complicarse
con una neumonía, trastorno muy peligroso, mortal en ocasiones, especialmente
en ancianos.
En los últimos años se han hecho famosas gripe como la aviaria (o
aviar), una enfermedad infecciosa que afecta a las aves, pero que puede —y de
ahí su peligro para nosotros— infectar a otras especies, los seres humanos y
los cerdos entre ellas. Fue identificada por primera vez en Italia a principios
del siglo XX y hasta la fecha se ha manifestado en diversas partes del mundo.
Un caso que provocó alarma mundial es el de la producida por el virus H5N1:
comenzó en Hong Kong en 1997 y se caracterizó por su alta tasa de mortalidad
(hasta un 33 por ciento) y de incidencia de neumonía (61 por ciento). En una
era donde la movilidad mundial no conoce fronteras, se temió que se extendiese
por todo el mundo, algo que, afortunadamente no sucedió.
§. Hospitales y enseñanza médica
Las consideraciones y ejemplos precedentes nos conducen, de manera natural, a
preguntarnos por los medios de atender a los enfermos. Se trata de una cuestión
compleja, que se extiende, en formas diversas, a lo largo de toda la historia.
En este capítulo me limitaré a unas pocas explicaciones.
A pesar de todos los avances médicos que se lograron en la antigua
Grecia, allí no existieron hospitales. Los enfermos o heridos eran tratados en
sus casas o llevados a los templos para recibir los supuestos beneficios de los
dioses, Asclepios en particular. El imperio romano siguió pautas similares,
aunque sí se establecieron hospitales militares, en los que se ofrecía una
primera asistencia y un período de convalecencia, aunque nunca se incluyó un
tratamiento prolongado con cuidados de enfermería, ya que su principal misión
era devolver cuanto antes al ejército a aquellos soldados capaces de reanudar
el combate.
Don Quijote enfermo
No existe prueba de la existencia de edificios dedicados a la atención
médica hasta bien entrada la era cristiana. El que Cristo hubiese distinguido
con su atención a los enfermos y necesitados —a menudo, cierto es, mediante
procedimientos ni científicos ni médicos como son los milagros que se le
adjudicaban—, encajaba bien con extender esa atención utilizando mecanismos más
terrenales. No mucho después de que Constantino hiciese del cristianismo la
religión oficial del imperio romano en el año 337, comenzaron a surgir
hospitales. Uno, parece que el primero, fue fundado en Roma en 390 por Fabiola,
una rica romana que se convirtió al cristianismo y que dedicó el resto de su
vida (murió en 399) a ocuparse de los pobres y enfermos. En el siglo VII ya
existían en Constantinopla (entonces capital del imperio romano) hospitales
bien consolidados en los que se atendía a hombres y mujeres en instalaciones
separadas y que contaban con salas especiales para cirugía y cuidado de los
ojos. Una iniciativa interesante, que en el futuro pasaría a formar parte de
los grandes hospitales, es la que encontramos en la carta fundacional del
hospital Pantokrator de Constantinopla, fundado en 1136, en la que se
establecía que dentro del centro se ofrecerían enseñanzas médicas. Relevante
es, asimismo, señalar que el Pantokrator formaba parte de un complejo
religioso, que incluía un monasterio, una casa para ancianos (gerokomeion,
de donde procede el término «geriátrico», hospital o clínica donde se trata a
los ancianos) y, alejada siete kilómetros, una leprosería.
Mención especial se debe a la escuela médica de Salerno, ciudad situada
en el sur de Italia. A finales del siglo VII, los monjes benedictinos fundaron
allí un monasterio. Como en otras de estas instituciones, los monjes crearon un
hospital asociado al monasterio; con el tiempo, aquel hospital se emancipó de
la tutela eclesiástica, favoreciendo una diferenciación entre monjes enfermeros
y laicos médicos, lo que a su vez condujo al establecimiento de una comunidad
médica, de estilo gremial, la primera de este tipo en la Europa medieval. Se
trataba de una comunidad que no desdeñó en absoluto la experimentación y las
demostraciones prácticas de anatomía animal y que también se preocupó por la
enseñanza de su disciplina. Consecuentemente, abrieron sus puertas a alumnos
procedentes de toda Europa, con un programa que terminaba en un examen. La
Escuela de Salerno fue así pionera en lo que más tarde serían las facultades
universitarias de medicina.
La figura más importante de la Escuela de Salerno, que floreció sobre
todo entre los siglos XI y XIII, fue Constantino el Africano (segunda mitad del
siglo XI), llamado así porque era oriundo del norte de África. Dominaba el
árabe y el latín, lo que le permitió traducir del primero al segundo obras de
Galeno y de médicos árabes anteriores a Avicena. De hecho, uno de los rasgos
sobresalientes de esta escuela es que en ella confluyeron las medicinas griega,
judía, árabe y monástica. En los textos salertianos encontramos desde fórmulas
magistrales de medicamentos hasta recomendaciones para combatir la migraña, el
insomnio y, en general, mantener la salud mediante una vida sana.
En la Europa cristiana, la creación de hospitales prosperó a partir del
siglo XII. El ya mencionado ideal de cuidar de los enfermos como un acto de
caridad cristiana tuvo mucho que ver con ello (recordemos la relación que
existe entre los términos «hospital» y «hospitalidad»). Coherente con esto es
que con frecuencia esos hospitales se establecieron —como en los casos que
acabo de mencionar— bajo la protección y reglas de órdenes religiosas. Sin que
esto signifique que no se deba reconocer el mérito de aquellas humanitarias
actuaciones, es preciso mencionar que con frecuencia a los monjes les era más
importante que los enfermos muriesen en estado de gracia, después de haber
recibido los sacramentos, que asegurarse que dispusieran de tratamientos
médicos todo lo prolongados que hiciera falta. Por otra parte, muchos de
aquellos hospitales tuvieron una vida efímera, algo que no sucedió con aquellos
que se establecieron en las grandes ciudades. El Hôtel Dieu («Casa de Dios») de
París, el más antiguo de esa ciudad, regido por las hermanas agustinas, fue
fundado en 651, continúa existiendo hoy, lo que mismo que otros dos hospitales
medievales: el hospital del Santo Espíritu de Roma y el Hôtel Dieu de Lyon
(como vemos, se trataba también de centros nacidos al abrigo de órdenes
religiosas). Da idea de la extensión de este tipo de centro médico el que a
finales del siglo XIV había cerca de cuatrocientos hospitales en Inglaterra y,
en el siglo XV, 33 en Florencia.
La escuela de Salerno
Otro elemento que hay que tener en cuenta a la hora de reconstruir la
historia de los hospitales europeos, las razones de por qué surgieron cuando lo
hicieron, es el de la situación sanitaria. Ese «otro elemento» es el de las
peores enfermedades infecciosas que asolaron el continente europeo. La lepra,
un mal del que se sabe ha acompañado a la humanidad desde hace al menos cuatro
mil años (lo produce la bacteria Mycobacterium leprae, identificada
en 1874 por el médico noruego Gerhard A. Hansen, por lo que es denominado
«bacilo de Hansen»), figura entre esas enfermedades infecciosas. En los siglos
XII y XIII se crearon cientos de asilos de leprosos (leproserías): hacia 1225
existían cerca de diecinueve mil en Europa. Al ir declinando la lepra,
edificios que se dedicaban a sus enfermos pasaron a ocuparse a otros menesteres
médicos: para, por ejemplo, personas de las que se sospechaba transportaban
enfermedades infecciosas, para enfermos mentales e incluso para indigentes.
Así, el Hôpital des Petites Maisons, cercano al monasterio de Germain
des Près, en las afueras de París, comenzó como una leprosería y pasó más tarde
a ser utilizado para sifilíticos indigentes y peregrinos con trastornos
mentales. Cuando la peste bubónica, la Peste Negra, golpeó Europa en el siglo
XIV, las leproserías fueron requisadas. A finales de aquella centuria,
comenzaron a construirse lazaretos (en honor de san Lázaro,
del que en el Evangelio de san Juan se dice que fue resucitado por Jesús; los
cristianos designaron a la lepra con el nombre de mal de San Lázaro,
en la creencia de que Lázaro había fallecido a causa de este mal).
Unas palabras ahora acerca de la enseñanza de la medicina, pero no del
tipo de educación al que ocasionalmente me he referido, sino una que se
considerase «oficial». Y aquí la institución fundamental es la universidad, una
creación de la Alta Edad Media. Lo normal al principio fue que las
universidades contasen entre sus enseñanzas con al menos dos de las tres
facultades superiores: derecho, teología y medicina. Con respecto a la última,
una de las más antiguas y notables fue la Universitas Medicorum de
Montpellier, que recibió sus primeros estatutos de Honorio III en 1220. La
constitución Quia Sapientia (1289) de Nicolás IV completó su
perfil al añadir las otras tres facultades (teología, derecho y artes
liberales). En 1340, se introdujo la práctica de la disección, una disección
cada dos años, y, en 1376, un decreto real amplió esta práctica al entregar los
cuerpos de los que habían sido ejecutados, mientras que en París no se realizó
ninguna en todo el siglo. La enseñanza de la anatomía fue decisiva para el
prestigio de Montpellier, que en 1558 fue dotada de un anfiteatro anatómico y
de un jardín botánico. Otra Facultad de Medicina importante fue la de Bolonia,
establecida en 1219.
Eso sí, la dependencia de los textos clásicos fue prácticamente absoluta
en la universidad medieval, pues la aportación de los maestros y doctores se
limitó al comentario puntual de lo que decían. Las fuentes eran limitadas: la
lógica de Aristóteles para las artes liberales, Hipócrates y Galeno para los
médicos.
§. Enfermedades infecciosas emergentes: el Ébola y el SIDA
Junto a las enfermedades infecciosas, digamos «clásicas», de las que me he
ocupado en las secciones precedentes, que han acompañado a los seres humanos
desde hace mucho tiempo, el siglo XX asistió a la aparición de otras nuevas.
Una de estas enfermedades emergentes es la causada por el virus Ébola, nombre
tomado del río Ébola de la República Democrática del Congo (antes Zaire), donde
fue identificado por primera vez en 1976, en la ciudad de Yambuku. Se trata de
un mal terrible (su tasa de mortalidad es, de media, del 83 por ciento), una
enfermedad altamente infecciosa que afecta tanto a animales como a seres
humanos, aunque, afortunadamente, no se han dado muchos casos de ella: los
brotes que ocurrieron en el Congo y en Sudán en 1976 y 1979 no llegaron a mil
casos. Probablemente, considerando el número total de víctimas, su exagerada
fama se deba mucho a la película Outbreak («Estallido»)
dirigida por Wolfgang Petersen y protagonizada por Dustin Hoffman, estrenada en
1995.
Otra enfermedad emergente infectocontagiosa, muy conocida, es la debida
a un virus que afecta al sistema inmunológico, desorganizándolo completamente:
el virus de la inmunodeficiencia humana (VIH), causante del SIDA (síndrome de
inmunodeficiencia adquirida), cuya existencia comenzó a ponerse de manifiesto
en 1981, como una condición que subyacía en un conjunto de diversas
enfermedades, en particular en un tipo de neumonía que afectaba a ciertos
grupos demográficos (en Estados Unidos, sobre todo a varones homosexuales).
Pero no fue hasta 1983 cuando un equipo del Instituto Pasteur de París,
dirigido por Luc Montagnier (n. 1932), descubrió que se trataba de algo nuevo,
de la existencia de un virus con una estructura cambiante y compleja, que se
transmite sobre todo a través de las relaciones sexuales en las que no se
utilizan ninguna protección o por transfusiones de sangre infectada (también
por utilizar jeringuillas contaminadas). Los trabajos de Montagnier —que obtuvo
en 2008, compartido con Harald zur Hausen y Françoise Barré-Sinoussi, el premio
Nobel de Medicina— fueron confirmados el año siguiente por el estadounidense
Robert Gallo (n. 1937), quien intentó reclamar una parte de la prioridad del
descubrimiento, aunque finalmente quedó demostrado que sólo había descrito el
virus tras haber recibido muestras de los franceses.
Intensas campañas publicitarias explicando los procedimientos para
prevenir la transmisión de la enfermedad y su desarrollo durante la década de
1990, de varios medicamentos que logran evitar la decadencia física y,
finalmente, la muerte de los infectados, han logrado que disminuya la
incidencia del SIDA en los países desarrollados: en Estados Unidos, decayó,
entre 1993 y 1997, casi un 50 por ciento, afectando a unas veintidós personas
de cada cien mil. Sin embargo, aún dista mucho de estar erradicada y, lamentablemente,
sigue aumentando en los países con escasos recursos: según la Organización
Mundial de la Salud, en diciembre de 2006 había en el mundo 39,5 millones de
personas infectadas por el VIH, de las cuales 24,7 millones vivían en el África
subsahariana, donde los mecanismos para informar a la población sobre cómo
evitar la enfermedad son escasos o rudimentarios y donde sus creencias
dificultan las medidas de prevención, además de que su pobreza hace que sea
extremadamente difícil acceder a los costosos medicamentos ya disponibles.
Siendo como es la cifra anterior muy importante, es necesario indicar que al
terminar el siglo XX, los veinticuatro millones de casos de SIDA en África
estaban muy lejos de los 171 millones de enfermos de tuberculosis y los más de
trescientos de paludismo.
Capítulo 5
La circulación de la sangre
§. La sangre
Si hay algo del interior de nuestros cuerpos con lo que estamos familiarizados
es, muy probablemente, la sangre, ese fluido de una cierta viscosidad que brota
a la mínima herida. Hipócrates, recordemos, incluyó a la sangre entre los
humores, concibiéndola como un fluido homogéneo, idea que no encontró
alternativa hasta que en 1658, un joven microscopista holandés, Jan Swammerdan
(1637-1680), descubrió los glóbulos rojos, que otro gran microscopista, del que
trataré en el capítulo siguiente, Antoon van Leeuwenhoek describió en 1674,
estimando su tamaño en 1/250.000 de un grano de arena. Como señalé en el
capítulo 2, Aristóteles consideraba al corazón —del que hoy sabemos es una
bomba de cuatro cavidades, separadas por músculos cardíacos, que se contraen y
distienden durante el ciclo cardíaco—, la «central» por la que pasa toda la
sangre, como el órgano más importante del organismo humano, una idea, por
supuesto, que no nos debe extrañar (en las primeras líneas de un libro, Motu
cordis, del que me ocuparé enseguida, su autor, Harvey, escribía, casi dos
mil años después de Aristóteles: «El corazón de los animales es el fundamento
de la vida, el principio de todas las cosas, el sol del microcosmos; de él
depende todo crecimiento y emana todo vigor y fuerza»). Mientras que la
composición de la sangre tuvo que esperar al desarrollo de la química, la
circulación de ésta atrajo pronto el interés de los observadores, que, no en
vano, hay que insistir en este punto, ocupaba un lugar central como uno de los
cuatro humores médicos. Herófilo, del que ya traté en el capítulo
2, distinguió las venas y las arterias y mediante una clepsidra consiguió medir
los pulsos de la sangre en las arterias. El movimiento de la sangre le llevó a
la observación del cerebro, que aisló del cerebelo y, en contra de Aristóteles,
vio en él la sede del ánima de los seres humanos. Erasístrato —también hablé de
él en el capítulo 2— descubrió que las arterias eran vasos y rechazó la opinión
de Aristóteles al atribuir al cerebro las funciones mentales y el origen de los
movimientos. Concibió el cuerpo humano como compuesto de distintos sistemas, se
interesó por las funciones biológicas, en especial la respiración, y rechazó la
doctrina de los humores. Tras él se inicio el declive de la disección y los
romanos prohibieron su práctica en 150 a.C.
Por su parte, el gran Galeno creía —ya traté de estas cuestiones en el
capítulo 3, pero es conveniente volver a ellas— que la sangre era producida en
el hígado distribuyéndose por las arterias y venas, en una especie de
movimiento de marea, hacia los órganos a los que llevaba el alimento necesario
para que funcionasen y donde era consumida. Argumentó, en concreto, que la
parte de la sangre que se dirigía desde el hígado hacia el ventrículo derecho
del corazón se dividía en dos cauces: uno que pasaba por la arteria pulmonar
hacia los pulmones y otro que atravesaba el septo (o septum, la
pared o tabique que divide una cavidad o estructura en otras más pequeñas) del
corazón a través de los «poros interseptales» invisibles entrando en la parte
izquierda, donde se mezclaba con el aire (pneuma) calentándose y creando
un «espíritu vital» que después se distribuía por todo el cuerpo. Consecuencia
de sus ideas era que el sistema venoso estaba separado del arterial, excepto en
los poros del septo que separaban las dos mitades del corazón
La caracterización realizada por Galeno de la circulación sanguínea no
fue cuestionada, por lo que sabemos, hasta que lo hizo en el siglo XIII Ibn
al-Nafis, con quien ya nos encontramos en el capítulo 3, en una obra
titulada Comentario de la Anatomía del Canon de Avicena, en la que
escribió que «la sangre de la cámara derecha del corazón debe llegar a la
cámara izquierda pero no hay una vía directa entre ambas. El grueso septo
cardíaco no está perforado y no tiene poros visibles como alguna gente piensa
ni invisibles como pensaba Galeno. La sangre de la cámara derecha fluye a
través de la vena arteriosa [arteria pulmonar] hasta los pulmones, donde se
distribuye a través de su parénquima, se mezcla con el aire, pasa a la arteria
venosa [vena pulmonar] y alcanza la cámara izquierda del corazón y allí forma
el espíritu vital».
Miguel Servet
§. Miguel Servet
Pero la noticia de los trabajos de al-Nafis parece haberse perdido, aunque
puede (algunos así lo sostienen) que Servet hubiese accedido a una traducción
de su libro. Me estoy refiriendo al teólogo y médico español Miguel Servet
(1511-1553), al que se le adjudica, más que a al-Nafis, el descubrimiento de
que existía una «circulación menor» de la sangre a través de los pulmones; es
decir, que la sangre no podía, como sostenía Galeno, pasar del ventrículo
derecho al izquierdo, sino que debía ir de alguna otra manera (la circulación
menor, o pulmonar, de la sangre es la parte del sistema circulatorio que
transporta sangre desoxigenada desde el corazón hasta los pulmones, regresando
luego oxigenada al corazón). Aunque se basó en consideraciones anatómicas (como
la estructura del tabique pulmonar), para Servet la sangre tenía un interés
especial, que iba más allá de «lo puramente material»: creía que era la sede
del alma, insuflada a los seres humanos por Dios.
Servet, quemado en Ginebra
Esta mezcla de teología con ciencia, que difundió en un libro de
contenido fundamentalmente teológico, Christianismi restitutio, le
costó la vida: fue condenado por Calvino a ser quemado vivo —lo que ocurrió en
Ginebra, el 27 de octubre de 1553— por sus ideas heréticas (de su libro sólo se
salvaron tres ejemplares).
Aunque las tesis sobre la circulación pulmonar de Servet fueron
reiteradas (no se sabe si conociendo el libro de éste) por otros, como el
anatomista italiano Realdo Colombo (c. 1516-1559), sucesor de Vesalio en
la cátedra de Padua, y por el español Juan Valverde de Amusco (c.
1520-1619), discípulo de Colombo, en un libro que tuvo una gran difusión, Historia
de la composición del cuerpo humano (1556), una obra claramente
influida por La fábrica del cuerpo humano de Vesalio, las
tesis galénicas continuaron siendo las utilizadas mayoritariamente.
§. William Harvey
Fue el médico inglés William Harvey (1578-1657), otro de los protagonistas de
la revolución científica, quien más se distinguió en el estudio de la
circulación de la sangre, dando de esta manera el que probablemente fue el
mayor impulso que experimentó la fisiología hasta el siglo XIX.
Como tantos otros, Harvey estudió medicina en Italia, en la Universidad
de Padua, donde se doctoró en 1602, tras haber seguido las enseñanzas de un
notable anatomista, Girolamo Fabrizzi d’Aquapendente (1537-1616), autor de un
texto (De motu local animalium, 1618) en el que estudiaba los
movimientos de las fibras que forman los diferentes órganos. De regreso a
Inglaterra, destacó lo suficiente como para llegar a ser médico de cámara del
rey Carlos I. En 1615, el Colegio de Médicos de Londres le encargó que dictase
un curso sobre anatomía (las Lumelian Lectures), que constituyó el
germen del que brotaría trece años más tarde su gran libro: Exercitatio
anatomica de motu cordis et sanguinis in animalibus («Una disquisición
anatómica relativa al movimiento del corazón y la sangre en los animales»,
1628). De motu cordis, como es habitualmente denominado, es un
texto fundacional de la fisiología moderna. En él, mediante una serie de
disecciones y experimentos, Harvey describió el corazón como un músculo que se
contrae y dilata, explicando la circulación de la sangre como el resultado del
impulso recibido por la dilatación de las arterias cuando se contrae el
corazón. Demostró, asimismo, que las válvulas del corazón, de las arterias y de
las venas, están dispuestas en un solo sentido, y que el corazón, durante la
sístole, se contrae como si fuese una bomba muscular que expele sangre. También
observó que el ventrículo derecho sirve a las necesidades de flujo sanguíneo de
los pulmones, mientras que el izquierdo atiende a las del sistema arterial,
comprobando que la sangre circula a través de las venas en dirección al
corazón. Con tales resultados, unidos al cálculo de la cantidad de sangre
bombeada, concluía que la sangre, efectivamente, circulaba, aunque al no
disponer de microscopios no consiguió demostrar cómo procedía el trasvase de la
sangre arterial al sistema venoso.
William Harvey, intentando convencer de sus ideas
Para llegar a este resultado, fue esencial que Harvey participara del
nuevo espíritu científico cuyo principal representante fue Galileo, un espíritu
que buscaba cuantificar los fenómenos. Como acabamos de decir, Harvey calculó
la cantidad de sangre bombeada en la acción cardíaca: peso de la sangre,
pulsaciones por minuto y volumen por hora. El resultado que obtuvo era
paradójico: «de una manera continua e ininterrumpida el pulso del corazón
transmite la sangre de la vena cava a las arterias, en tan gran cantidad que no
puede ser suministrada por los alimentos ingeridos», escribía en el capítulo IX
(«La existencia de la circulación de la sangre se deduce de la demostración de
una primera tesis») de De motu cordis. Era, por consiguiente,
necesario concluir la existencia de una cantidad menor, que circulaba por
todo el cuerpo: «Creo —señalaba— que será manifiesto que la sangre efectúa un
rodeo, una vuelta, siendo impulsada del corazón a las extremidades y regresando
de las extremidades al corazón, y que así lleva a cabo una especie de
movimiento circular». Como no utilizaba el microscopio, no pudo establecer la
conexión entre arterias y venas, que encontró Marcello Malpighi, de quien me
ocuparé en otro capítulo, el de la célula.
§. La primera transfusión de sangre
Hoy todos sabemos de las transfusiones de sangre, y de cómo hacerlo con
seguridad, teniendo mucho cuidado en cuál es el tipo de sangre («grupos
sanguíneos») de la persona a la que se le realiza la transfusión. Pero no
siempre fue así, a pesar de que las primeras experiencias de transfusiones de
sangre datan de hace siglos.
La creencia de que tomando sangre de otra persona se podía recuperar la
juventud es muy antigua. En 1492, cuando el papa Inocencio VIII se encontraba
muy débil (en coma, seguramente), se le suministró la sangre de tres jóvenes,
que murieron. No se sabe cómo se le administró aquella sangre, pero
probablemente fue por la boca.
Tras el descubrimiento de Harvey de la circulación de la sangre, se
suscitó la posibilidad —y el efecto que produciría— de transferir directamente
sangre de un donante a un receptor, posibilidad que fue investigada en Francia
e Inglaterra.
La primera transfusión
Por lo que sabemos, la primera transfusión a un humano realizada en
Inglaterra tuvo lugar el 23 de noviembre de 1667, bajo el patrocinio de la
Royal Society, la sociedad científica (que todavía existe) fundada en 1660. Fue
esta institución la que intentó encontrar algún «loco del hospital de Bedlam»
para llevar a cabo el experimento, pero el director de ese centro se negó. La
elección recayó entonces en Arthur Coga, un «imprevisible y extravagante»
licenciado en teología de la Universidad de Cambridge, al que, siendo
indigente, se persuadió para que se presentase voluntario, a cambio del pago de
una guinea.
La transfusión la realizaron dos médicos, miembros de la Royal Society:
Richard Lower y Edmund King. De los dos, fue Lower el más activo en estas
investigaciones (King era médico del rey Carlos II). Considerado el fisiólogo
británico más importante, después de Harvey (de quien fue el más brillante
seguidor) del siglo XVII, Lower había llevado a cabo con éxito, en febrero de
1665 y en Oxford, el primer experimento de transfusión de sangre entre dos
perros, experimento que apareció descrito en la revista patrocinada por la
Royal Society, Philosophical Transactions, en diciembre de 1666.
También apareció en esta revista (en el número 30, correspondiente al 9
de diciembre de 1667) la descripción de la transfusión de sangre a un hombre,
efectuada en noviembre de 1667. Esa descripción era de carácter eminentemente
empírico, descriptivo. Pertenece, no hay que olvidarlo, a una época en la que
una de las tareas más importantes era, simplemente, registrar lo que se
observaba en la naturaleza y explorar lo que sucedía cuando se manipulaba esa
naturaleza o los entes, orgánicos al igual que inorgánicos, que existían en
ella. Sistemas teóricos, como el que presentó Isaac Newton en su gran libro de
1687, Philosophiae naturalis principia mathematica, eran todavía
muy raros. Representa, sin embargo, un momento máximo de atrevimiento y deseos
de explorar la naturaleza, de hacer avanzar la ciencia.
En el cuadro adjunto, reproduzco la noticia que se dio en Philosophical
Transactions.
«Una descripción del experimento de transfusión práctica en un hombre en
Londres»
Philosophical Magazine (1666)
Esta [transfusión] fue realizada el 23 de noviembre de 1667, sobre un
tal Mr. Arthur Coga, en Arundel House, en presencia de muchas personas
consideradas e inteligentes, a cargo de esos dos conocedores y diestros médicos
anatomistas, Dr. Richard Lower y Dr. Edmund King, el segundo de los cuales
comunicó su desarrollo, en la forma que sigue.
El experimento de transfusión de sangre a una vena humana se llevó a cabo por
nosotros de la manera siguiente. Habiendo preparado la arteria carótida en una
oveja joven, insertamos un tubo de plata en los tubitos para que la sangre
corriese a través de él hacia una escudilla, y en el tiempo de casi un minuto,
alrededor de 12 onzas [1 onza = 28,35 gramos] de la sangre de la oveja pasaron
a través del tubo al recipiente, lo que nos iba a dar idea de la cantidad de
sangre que debíamos pasar al hombre. Hecho esto, cuando fuimos a preparar la
vena en el brazo del hombre, la vena parecía demasiado pequeña para el tubo que
queríamos introducir en él, lo que nos obligó a emplear otro, alrededor de un
tercio menor, en el extremo pequeño. A continuación realizamos una incisión en
la vena, según el método publicado con anterioridad (en el número 28 [Philosophical
Transactions]), que obedecimos sin ninguna alteración, salvo en la forma de
uno de nuestros tubos, que encontramos más conveniente para nuestro propósito.
Y, después de haber abierto la vena en el brazo del hombre … dejamos que
saliesen unas 6 o 7 onzas de sangre. En ese momento pusimos nuestro tubo de
plata en dicha incisión, e insertamos tubitos entre los dos tubos ya
introducidos en los dos seres, para transportar la sangre arterial de la oveja
a la vena del hombre. Pero pasó un minuto antes de que pasase a través de los
tubos y tubitos al brazo; y entonces corrió libremente por la vena del hombre
por espacio de dos minutos al menos; de forma que pudimos sentir un pulso en
dicha vena justo más allá del final del tubo de plata; aunque el paciente dijo
que no había sentido la sangre caliente … lo que muy bien puede imputarse a la
longitud de los tubos, a través de los cuales pasó la sangre, perdiendo así
mucho de su calor, para llegar a una temperatura muy agradable a la sangre
venosa. Con relación a la sangre que recibió la vena del hombre, juzgamos que
fue de unas 9 o 10 onzas…
Después de esta operación, al igual que durante ella, el hombre se encontró muy
bien, y ha suministrado su propia versión con su misma mano, insistiendo más en
los beneficios que, según piensa, ha recibido de ella, de lo que nosotros
creemos adecuado por el momento. Nos urgió a que repitiésemos el experimento
con él tres o cuatro días después, pero se pensó que era más conveniente
demorarlo algo más. Y la vez siguiente esperamos ser más exactos, especialmente
pesando al animal que suministra la sangre, antes y después de la operación,
para poseer una idea más justa de la cantidad de sangre que habrá perdido.
Finalmente, se le realizó una nueva transfusión —esta vez de 14 onzas de
sangre de oveja— el 12 de diciembre de 1667. De nuevo, el individuo sobrevivió,
aparentemente sin daño. Sin embargo, en 1668 un paciente del pionero francés en
transfusiones, Jean Denis, que enseñaba medicina en Montpellier, murió tras una
transfusión y este hecho puso fin a tales experimentos con seres humanos, hasta
que el descubrimiento de los anticuerpos y antígenos hizo que tal práctica
fuese más segura: en 1901, el médico austríaco, instalado posteriormente en
Estados Unidos, Karl Landsteiner (1868-1943), identificó los tres tipos
sanguíneos, A, B y O, y otros tres en 1930, M, N y P. En 1905, George
Washington Crile (1864-1943) realizó la primera transfusión de sangre directa,
aunque la práctica no se generalizó hasta la primera guerra mundial. El primer
banco de sangre se creó en Leningrado en 1932.
Capítulo 6
Buscando lo inobservable: Hooke, Leeuwenhoek y el microscopio
En los capítulos anteriores han aparecido varias menciones a un
instrumento esencial en la historia de la medicina. Sin él no habría sido
posible estudiar la composición de los tejidos de los cuerpos animales o
vegetales, ni las más básicas células, los «átomos de la vida», de los que
tales tejidos están, en última instancia, formados. Tampoco se podrían haber
observados los «cuerpos» (bacilos, virus, etcétera) que atacan a los humanos,
produciéndoles enfermedades. Es el momento, por consiguiente, de detenerse en
este instrumento que no se sabe realmente dónde ni quién inventó, pero sí
cuándo. Casi con seguridad, en la segunda década del siglo XVII. El diplomático
Constantijn Huygens, padre del célebre físico Christiaan Huygens, afirmó que
había visto un instrumento, unas lentes capaces de observar objetos
microscópicos, en una visita que realizó a Londres en 1621.
§. El microscopio
La representación gráfica más antigua que se conoce de un microscopio es un
dibujo de Isaac Beeckman de 1631. El nombre, microscopium, fue
acuñado en 1625 por miembros de una de las primeras corporaciones científicas,
la Accademia dei Lincei. Los principios que lo inspiraban eran los mismos que
los del telescopio, la ampliación de la imagen, aunque ahora se trataba de
observar las cosas más pequeñas y la combinación de lentes requería también de
una fuente luminosa sobre la preparación.
No sorprendentemente, el primer científico conocido que realizó
observaciones biológicas con un microscopio fue Galileo Galilei (1564-1642),
que fue uno de los primeros en recurrir al telescopio para observar los cielos.
Lo que observó Galileo con lo que denominó occhialino («pequeño
anteojo») fueron algunos insectos. Pero Galileo apenas continuó por esta senda,
algo que sí hizo Marcello Malpighi (1628-1694), catedrático de la Universidad
de Bolonia considerado el fundador de la investigación textural con el
microscopio. Entre sus aportaciones (utilizando la luz solar para iluminar la
muestra), sobresale una que llevó a cabo observando un fino corte del tejido
pulmonar de una rana y encontrando que había sangre en el interior de unos
finos tubos (presentó este resultado en un libro que publicó en 1661, De
pulmonis); había descubierto los capilares y comprobado la
exactitud de la hipótesis de Harvey de la existencia de una comunicación entre
el sistema arterial y el venoso y completado el diseño del circuito sanguíneo.
Describió con detalle la preparación de las muestras para su observación: las
inyecciones de mercurio y de cera, los métodos para teñir con tinta y otros
líquidos y los medios de iluminarlas. Fue el primer observador sistemático de
la naturaleza: descubrió la red de capilares, estudió el desarrollo de los
pollos desde el huevo, introdujo la anatomía comparada, y fue el primero en
estudiar los tejidos.
§. Robert Hooke
Un nombre que no puede faltar cuando se habla del microscopio es el de Robert
Hooke (1635-1703), un distinguido y polifacético científico inglés, coetáneo de
Newton, con quien tuvo más de un desencuentro. Hooke, que completó el
microscopio con la luz de una llama frente a una lente amplificadora en cuyo
foco se situaba la preparación, publicó en 1665 un libro que se convirtió en un
gran clásico de la microscopía: Micrographia («Micrografía»),
significativamente subtitulado O algunas descripciones fisiológicas de
los cuerpos diminutos realizadas mediante cristales de aumento con
observaciones y disquisiciones sobre ellas. Aunque sus elaboradas imágenes
(cada una acompañada de comentarios) no respondían a un programa específico,
sabía muy bien que estaba penetrando en un territorio inexplorado que guardaba
todo tipo de sorpresas. «No parece improbable —manifestaba en el prefacio— que
mediante la ayuda de estos medios llegue a descubrirse más plenamente la sutil
composición de los cuerpos, la estructura de sus partes, las varias texturas de
su materia, los instrumentos y modos de sus movimientos internos y todas las
demás posibles constituciones de las cosas, todo lo cual los antiguos
peripatéticos se conformaban con abordar mediante dos palabras generales e
inútiles (si no se explican más), como son materia y forma.»
El telescopio
Como el microscopio es posterior, y deudor, del telescopio, conviene
tener una idea de la aparición de éste.
La observación telescópica —al igual que la microscópica— es un apartado de la
óptica, la disciplina que se ocupa de la luz, un asunto relacionado también con
la medicina, no en vano vemos a través de los ojos.
La invención del telescopio no fue consecuencia de la imaginación de los
grandes teóricos sino de artesanos como el holandés Hans Lipperhey (1570-1619),
de Middelburg, que llegó a solicitar una patente, acción que provocó que otros
dos holandeses, fabricantes de lentes (el nombre procede del latín lens,
lenteja, por la forma biconvexa de las lentes más comunes), Jacob Metius (c.
1571-1630), de Alcmaar, y Zacharias Jansen (1588-1638), de Middelburg,
reclamaran la paternidad de la invención (el 2 de octubre de 1608; la cuestión
de patentar el telescopio fue debatida en el Parlamento, que finalmente decidió
no adjudicar la patente a nadie, entre otras razones porque creían que
semejante arte no podía permanecer en secreto).
Hay otros nombres que se deberían citar si se pretendiese construir una
historia medianamente completa del origen del telescopio, pero como ésta no es
mi intención aquí, pasaré directamente a Galileo.
A comienzos del verano de 1609, Galileo supo mientras se hallaba en Venecia que
en Holanda se había construido un anteojo con el que se veían más cerca los
objetos alejados. He aquí como explicó en un libro que volveré a citar
enseguida (Sidereus nuncius) cómo había llegado a construir el catalejo:
Hace ya alrededor de diez meses me llegó un rumor de que un cierto neerlandés
había fabricado un anteojo, merced al cual los objetos visibles, aunque muy
alejados del ojo del espectador, se veían nítidamente como si estuviesen cerca.
Además, algunas experiencias de este efecto, ciertamente admirable, andaban de
boca en boca, y mientras unos las creían, otros las negaban. Pocos días
después, esa misma noticia la confirmó, por medio de una carta desde París, el
noble galo Jacques Badovere [(1570-1610?), se trata de un discípulo de Galileo
en Padua en 1598], lo que fue, al fin, la causa de que me implicase por entero
en la busca de las razones, y también de idear los medios, por los cuales se
llega a inventar un instrumento semejante, lo que conseguí poco después
sustentándome en la teoría de las refracciones. En primer lugar, procuré un
tubo de plomo y en sus extremidades adapté dos lentes, ambas con una parte
plana, pero, por la otra una era esférica convexa y la otra, a su vez, cóncava.
Luego, acercando el ojo a la parte cóncava vi los objetos bastante grandes y
cercanos, pues aparecían tres veces más próximos y nueve veces más grandes que
cuando se miran únicamente de forma natural. Enseguida, me esforcé en hacer
otro más exacto, que representaba los objetos más de sesenta veces más grandes.
Al fin, sin ahorrar ningún esfuerzo ni coste, sucedió que fui capaz de
construirme un instrumento tan excelente, que las cosas vistas por medio de él
aparecen casi mil veces mayores, y más de treinta veces más próximas que si se
mirasen sólo con las facultades naturales.
Galileo y el telescopio
Estaría de más exponer en qué medida y qué grande sería la utilidad de
este instrumento, tanto en las necesidades terrestres como en las marítimas.
Pero decidí olvidar las cosas terrenales y me dediqué a la observación de las
celestes.
Y, en efecto, esto es lo que hizo, en observaciones que realizó en 1609 y 1610.
Con lo que vio escribió un libro, Sidereus nuncius («Noticiero
sideral»), publicado en 1610, que contribuyó decisivamente a socavar el aún
vigente modelo geocéntrico de los antiguos (la Tierra está en el centro del
Universo y alrededor de ella giran los demás planetas del sistema solar,
incluyendo el Sol, y también las estrellas fijas), y a promover la visión
contraria, heliocéntrica (es el Sol el que está en el centro del Universo).
En la Micrografía aparecen estudios micrográficos muy
variados; por ejemplo, la punta de una «agujita aguda», el filo de una navaja,
el «tafetán o seda en relieve», «figuras de seis brazos formadas en la
superficie de la orina por congelación», el moho azul, el musgo, el aguijón de
una abeja, las plumas del pavo real, las patas, alas y ojos de las moscas, la
tarántula, la hormiga, la pulga o la «estructura o textura del corcho y de las
celdas y poros de algunos otros cuerpos esponjosos semejantes». Este último
caso, el del corcho, le daba oportunidad de entrar en el campo de la fisiología
vegetal: «Nuestro microscopio —escribía— nos informa que la sustancia del
corcho está totalmente llena de aire y que dicho aire está perfectamente
encerrado en cajitas o celdas separadas las unas de las otras». Este resultado
le llevaba a preguntarse si se podrían descubrir estructuras similares en otros
cuerpos y así dar con «la causa de la elasticidad y rigidez de algunos». Fiel a
la idea de que era necesario descubrir observando más que pensando o
imaginando, Hooke señalaba que «hasta tanto nuestro microscopio o algún otro
medio nos permita descubrir la verdadera estructura y textura de todos los
tipos de cuerpos, hemos de andar a tientas en la oscuridad, conjeturando tan
sólo las verdaderas razones de las cosas mediante símiles y comparaciones». Al
decir esto, estaba anunciando un programa que conduciría, en el siglo XIX,
cuando se dispuso de mejores microscopios, a la identificación definitiva de la
estructura celular en los seres vivos (animales o vegetales). De hecho, Hooke
utilizó un microscopio más avanzado que el inicial (o simple), el
denominado compuesto. El primero estaba formado por una lente
convergente de foco corto, con la cual se observaban objetos situados entre la
lente y su foco principal, mientras que el segundo estaba compuesto por dos
vidrios lenticulares convergentes fijos en un mismo tubo de manera que
coincidiesen sus ejes —uno de foco corto, llamado «objetivo», porque daba
frente al objeto, y el otro, menos convergente, denominado «ocular», porque se
encontraba cerca del ojo del observador.
§. Antoon van Leeuwenhoek
Junto a Hooke, e independiente de él, el otro gran protagonista de los primeros
momentos de la historia del microscopio fue un holandés, Antoon van Leeuwenhoek
(1632-1723). Natural de Delf, Leeuwenhoek carecía de educación científica. Su
primer trabajo fue de aprendiz de tejidos en Ámsterdam. Con esa formación,
regresó a su ciudad natal, donde abrió una pequeña tienda, trabajando también
como ujier de la cámara de concejales de la ciudad, lo que entonces significaba
ser una especie de portero de las oficinas municipales. Desde sus tiempos de
aprendiz, se aficionó a examinar con una lupa la trama de los tejidos con los
que trabajaba, un interés que le terminó llevando a los microscopios,
ciertamente más eficaces para observar estructuras pequeñas que las lupas.
Mostrando una gran habilidad manual y técnica, Leeuwenhoek se dedicó a
construir microscopios durante cerca de medio siglo, lo que significaba tallar
él mismo las lentes de éstos. Se estima en alrededor de quinientos los que
salieron de sus manos, artificios con una sola lente y de gran sencillez que
producían hasta trescientos aumentos, mucho más que los de Hooke. Es importante
señalar que carecía de un programa de investigación definido: Hooke era, sobre
todo, un curioso que observaba con sus microscopios todo lo que caía en sus
manos, animado por el deseo de sobrepasar los límites entonces conocidos de lo
visible. Estudió desde el ojo compuesto de los insectos, hasta la tela de la
red construida por una araña, pasando por la estructura del cristalino del ojo,
los cabellos humanos, la composición de la epidermis y de los huesos. A partir
de 1673 comunicó sus observaciones a la Royal Society de Londres, que las
tradujo para publicarlas y terminó admitiéndolo entre sus miembros el 29 de
enero de 1680, el fellow número 362 de la historia de la
corporación. La observación de una gota de agua de lluvia le descubrió la
presencia de unos seres minúsculos que se movían (la asociación del movimiento
con la vida le llevó a identificarlos como animáculos, o
«animalillos»). Entre sus descubrimientos se hallan la identificación de las
bacterias, que observó (en 1683) en sus propios esputos y sarro dental, la
forma y tamaño de los hematíes o glóbulos rojos de la sangre y la textura de la
pared de los vasos sanguíneos, del corazón, de los músculos, de la sustancia
blanca del encéfalo y de la médula espinal.
Antoon van Leeuwenhoek
La finura de sus cortes era tal que al someter uno de ellos al
microscopio electrónico, se vieron con toda claridad las paredes de las
células.
No tuvo discípulos, ni descubrió sus procedimientos y la observación
microscópica no encontró instrumentos mejores hasta la aparición en la década
de 1820 de los microscopios acromáticos, que eliminaron la aberración esférica
y los halos.
Leeuwenhoek y la primera descripción de las bacterias
El 1695, Leeuwenhoek publicó un trabajo (Arcana naturae detecta) en
el que se encuentra la primera descripción de las bacterias. Esto es lo que
escribió:
Le envié hace algún tiempo mis observaciones acerca de los esputos, que
he visto después impresas en las Lectures and Collections publicadas por Robert
Hooke, secretario de la Royal Society, el año 1678. Desde entonces he realizado
nuevas indagaciones en mis esputos, con la idea de que si existen animalillos
en el cuerpo acabarán por aparecer tarde o temprano en los conductos salivares.
No obstante, en las observaciones que he practicado con tal fin, no he podido
descubrir animalillos en ellos, ni añadir nada nuevo a lo que ya tengo escrito.
Por la mañana acostumbro a frotarme los dientes con sal y a enjuagarme después
la boca con agua. A menudo, después de comer, me limpio los molares con un
mondadientes y me los froto enérgicamente con un trozo de tela. Por ello mis
incisivos y mis molares están limpios y blancos, mientras que los han perdido
la mayor parte de las personas de mi edad (cincuenta y un años), y mis encías
nunca sangran a pesar de lo fuerte que es la sal con que me las froto. No
obstante, mis dientes no están tan limpios que no encuentre introducida entre
algunos de ellos, siempre que los miro con una lente de aumento, un poco de
materia blanca, tan espesa como si fuera pasta. Al examinarla, pensé, aunque no
podía ver nada que se moviera, que quizá contenía animalillos vivos. La mezclé,
por lo tanto, en diversas ocasiones con agua limpia de lluvia que no tenía
animalillos, y también con mis propios esputos, después de haber eliminado las
burbujas de aire para evitar que produjeran cualquier movimiento en ellos.
Observé entonces casi siempre, con gran asombro, que en la citada materia
existían numerosos animalillos vivos dotados de movimientos muy bonitos. Se
movían muy rápidamente, atravesando el agua (o los esputos) de manera parecida
a un esturión … Casi siempre eran escasos.
Por su forma, Leeuwenhoek distinguió tres tipos de «animalillos» (animáculos).
Los más numerosos «a veces aparentaban ser oblongos, mientras otros parecían
perfectamente redondos». Eran tan pequeños que no pudo verlos todos bien.
«Avanzaban de modo tan veloz y tan unidos que semejaban un gran enjambre de
mosquitos o de moscas revoloteando confusamente. Estimo que había varios miles
de ellos en una gota de agua o de esputos (mezclada con la materia antes
citada) del tamaño de un grano de arena, a pesar de que había partes de agua o
esputos y una de materia que había tomado de entre mis incisivos o mis
molares.»
§. El termómetro y otros instrumentos en medicina
Haber tratado de los microscopios como un instrumento extremadamente útil para
la medicina, me lleva, para cerrar el presente capítulo, a la cuestión más
general del papel de los instrumentos en la medicina, indispensables para ir
más allá de la mera detección de la enfermedad, del diagnóstico del fallo
orgánico.
Dejando de lado otros instrumentos más primitivos, el primero de
aquellos que han sobrevivido en nuestro tiempo es el termómetro, el
instrumento que sirve para medir la temperatura. La historia de la termometría
comenzó, que sepamos, con la Pneumática de Herón de Alejandría
(siglo I a.C.), donde se mencionaban aparatos, que carecían de escala, que se
utilizaban para demostrar la dilatación de un gas en el interior de un bulbo de
vidrio cuando éste era calentado. Más de un milenio y medio después, en 1597, Galileo
diseñó un aparato que consistía en un bulbo lleno de aire, prolongado en un
tubo fino, cuyo extremo abierto era introducido en un recipiente con agua.
Cuando aumentaba la temperatura, el aire del bulbo se dilataba, haciendo que el
nivel del agua del tubo ascendiese. Aunque existía el problema de que ese
aumento de nivel dependía también de la presión atmosférica, está claro que el
instrumento de Galileo era un tipo de termómetro.
De diseño parecido al de Galileo, es el termoscopio que fabricó en 1612
un contemporáneo y conocido suyo, Santorio Santorio (1561-1636), profesor de
Medicina en Padua: incluía una escala que tenía como puntos extremos la
temperatura de la nieve y la de la llama de una vela.
Es interesante señalar que aunque Santorio creía que salud y enfermedad
dependían del equilibrio de los cuatro humores clásicos, fue más allá,
insistiendo en que ese equilibro debía ser medido (era, en este sentido, un
hijo de la cultura científica que introdujo sobre todo Galileo). Para ello, se
esforzó en tomar el mayor número posible de medidas cuantitativas relativas a
la «situación» del cuerpo humano, la temperatura entre ellas. «Uno debe creer,
primero, en sus propios sentidos y experiencia; luego en el razonamiento, y
sólo en tercer lugar en la autoridad de Hipócrates, de Galeno, de Aristóteles y
de otros excelentes filósofos», escribió en uno de sus libros, Methodi
vitandorum errorum omnium qui in arte medica contingumt (1603).
Siguiendo estametodología demostró que no es cierto, como se creía entonces,
que el cuerpo humano está más frío por la noche que por el día.
Los primeros termómetros que utilizaron líquidos en lugar de un gas, se
construyeron hacia 1641: consistían de un bulbo lleno de agua o alcohol diluido
coloreados con el que se comunicaba un tubo de vidrio fino con muescas, sellado
en el extremo para evitar la influencia de la presión atmosférica. En el siglo
XVII, Christiaan Huygens, por ejemplo, eligió como punto de referencia el grado
de calor del agua en ebullición, mientras que Newton describió una escala
termométrica dividida en doce grados, el punto inferior correspondiendo a la
congelación del agua y el superior al grado de calor de una persona sana. Pero
los termómetros que se impusieron llegaron a principios del siglo XVIII: el del
alemán Daniel Gabriel Fahrenheit (1686-1736), el del francés René-Antoine de
Réaumur (1683-1757) y el del físico y astrónomo sueco Aders Celsius
(1701-1744). Fahrenheit utilizó primero un termómetro de alcohol, que en 1714
sustituyó por uno que utilizaba mercurio, en el que introdujo su luego famosa
«escala de grados Fahrenheit», que se determinó considerando las propiedades de
dilatación del mercurio y tomando cuatro puntos fijos: la del invierno,
particularmente frío, de 1709, que imitó utilizando una mezcla de hielo, sal
común y cloruro amónico; la del hielo fundente, la del cuerpo humano y la de la
ebullición del agua. Por su parte, Réaumur empleó alcohol y tomó como puntos
fijos el de la congelación del agua y el que correspondía a la temperatura que
podía soportar su termómetro sumergido en agua hirviendo sin que llegase a
hervir él mismo. La novedad que introdujo, en 1742, Celsius, fue tomar como
puntos de referencia en un termómetro de mercurio la temperatura de congelación
y de ebullición del agua. A la primera le asignó el valor 100 y a la segunda el
0, esto es, la temperatura más elevada correspondía a la situación de «menos
calor», mientras que la más baja a la de «más calor». Fue un compatriota suyo,
el gran botánico Carl Linneo (1707-1778), quien dos años después invirtió esta
escala, quedando tal y como la utilizamos aún. Se trata, por supuesto, de la
escala de grados centígrados o Celsius (ºC).
Fue el médico y patólogo alemán, formado en Berlín, Viena, Breslau y
París, Ludwig Traube (1818-1876), quien introdujo el termómetro en la práctica
clínica hacia 1850. Traube sostenía —como explicó en un libro que publicó en
1863, Fieberlehre— que la fiebre era en realidad
una alteración funcional que se debía entender como una disminución de la
pérdida de calor y no como un exceso de su producción; la cuantificación
mediante el termómetro de la temperatura corporal constituía
un elemento muy importante para deducir el estado del paciente. Dos años
después, 1865, de la aparición de su libro, el uso del termómetro fue
introducido en el hospital de Nueva York, y otros dos años después Thomas
Clifford Allbutt (1836-1925), Regius Professor de Medicina en
Cambridge hacía lo propio en Inglaterra. En la década de 1880 el termómetro se
había convertido en parte habitual del equipo de un médico, debido a su
utilidad para medir la fiebre. Aunque la temperatura del cuerpo humano depende
del lugar donde se mide, el valor medio comúnmente aceptado es de 37 ºC (debajo
de la lengua es algo menor, 36,8º).
Aproximadamente al mismo tiempo que Traube introducía el termómetro en
la medicina, otro médico alemán, Hermann von Helmholtz, inventaba mientras
enseñaba en la Facultad de Medicina de Königsberg un instrumento que resultó
vital para una de las ramas de la medicina, la oftalmología. Pero de Helmholtz
y del oftalmoscopio me ocuparé en el capítulo siguiente.
Aunque no sea propiamente un instrumento, tal y como entendemos éstos
(su mecanismo se basó inicialmente en golpes en el pecho, método luego ayudado
por otros aparatos), una gran novedad en la detección de trastornos internos
fue la que introdujo el austríaco Joseph Leopold Auenbrugger (1722-1809):
la percusión torácica (en realidad, desde la Antigüedad, los
médicos habían escuchado los sonidos que se producen en el interior del pecho,
pero no asignaron a este método valor como indicador de enfermedades). El lugar
en el que Auenbrugger dio a conocer el nuevo método fue en un libro que publicó
en 1761, Inventum novum ex percussione thoracis humani ut signo
abstrusos interni pectoris morbos detegendi («Nueva invención para
diagnosticar enfermedades ocultas del interior del pecho mediante la percusión
del tórax humano como signo»), en el que escribía: «Al percutir el tórax de una
persona sana se produce un sonido … En estado de salud, las vísceras que
contiene están adaptadas a sus respectivas funciones. El sonido provocado de
esta forma en el tórax sano es semejante al ruido amortiguado de un tambor
cubierto con un paño grueso u otra envoltura … El sonido patológico aparece en
enfermedades agudas y crónicas; siempre acompaña a un derrame copioso de
líquido en la cavidad torácica. Hay que admitir que cuando disminuye el volumen
del aire contenido en el tórax lo hace también el sonido natural de esta
cavidad».
A pesar de lo familiar que nos resulta el método de Auenbrugger, que
continúa utilizándose en la actualidad, no se generalizó hasta comienzos del
siglo XIX. El principal responsable de su recuperación fue el cirujano y
profesor de Clínica Médica en el hospital parisino de La Charité (fue también
médico de cámara de Napoleón) Jean Nicolas Corvisart (1755-1821), que no sólo
publicó en 1808 una traducción al francés del Inventum novum, que
acompañó con extensas notas y comentarios, sino que se ocupó de difundirlo y
destacar sus méritos. Un discípulo de Corvisart, René Théophile Héophile
Hacinthe Laennec (1781-1826), otro de los grandes nombres de la historia de la
medicina, avanzó en las ideas de Auenbrugger introduciendo la auscultación del
tórax. En el que fue su libro más influyente, De l’auscultation
médiate, ou traité du diagnostic des maladies des poumons et du coeur, fondé
principalement sur ce nouveau moyen d’exploration («Sobre la
auscultación mediata, o tratado del diagnóstico de enfermedades, de los pulmones
y del corazón, fundado principalmente sobre este nuevo método de exploración»,
1819), explicó cómo había llegado a él:
En 1816 fui consultado por una joven que presentaba síntomas generales
de enfermedad del corazón, y en la cual la aplicación de la mano y la percusión
daban poco resultado a causa de su leve obesidad. Como la edad y el sexo de la
enferma me vedaban el recurso a la auscultación inmediata, vino a mi memoria un
fenómeno acústico muy común: si se aplica la oreja a la extremidad de una viga,
se oye muy claramente un golpe de alfiler dado en el otro cabo. Imaginé que
podía sacar partido, en el caso de que se trataba, de esta propiedad de los
cuerpos. Tomé un cuaderno de papel, formé con él un rollo fuertemente apretado,
del cual apliqué un extremo a la región precordial. Poniendo la oreja en el
otro extremo, quedé tan sorprendido como satisfecho, oyendo los latidos del
corazón de una manera mucho más clara y distinta que cuantas veces había
aplicado mi oído directamente.
Una vez utilizado este recurso de urgencia, Laennec sustituyó el rollo
de papel por un cilindro de madera con un conducto interno y una pieza en forma
de embudo, un instrumento —éste ya sí lo era plenamente— que bautizó con el
nombre de estetoscopio (de las raíces griegas esteto,
«pecho», y escop, «ver») y que constituyó la mayor innovación
diagnóstica hasta el descubrimiento de los rayos X, de los que me ocuparé más
adelante.
Continuando con la cuantificación de los procesos orgánicos vitales, hay
que recordar al médico italiano Scipione Riva-Rozzi (1863-1937), quien en 1896
inventó un sencillo instrumento (tensiómetro) para estudiar el
funcionamiento del corazón: midió la presión de la sangre utilizando una banda
de goma rellena de aire, que rodeaba, apretándolo, un brazo. De esta manera
bloqueaba al principio la circulación de la sangre por la arteria braquial,
liberándola lentamente a continuación.
El estetoscopio
Aunque se dispuso del tensiómetro antes de que terminase el siglo XIX,
la medida de la tensión arterial no comenzó a convertirse en un procedimiento
habitual para los médicos hasta aproximadamente tres lustros después. No fue
hasta 1912, por ejemplo, cuando los médicos del Hospital General Massachusetts
de Boston comenzó a registrar la tensión arterial de los pacientes que admitía.
Fue a partir de entonces cuando empezaron a advertirse riesgos para la salud
como la hipertensión (tensión alta).
La medida de la tensión arterial aporta datos relevantes acerca del
funcionamiento del corazón, pero tiene sus límites, que sobrepasó un nuevo
instrumento, introducido por un fisiólogo holandés, Willem Einthoven
(1860-1927), quien construyó en 1901 (publicó los detalles en 1903) un
sofisticado aparato para representar la traza de la corriente eléctrica que
cruza el corazón en cada latido (electrocardiógrafo). Básicamente, lo
que hizo fue unir un galvanómetro (para medir la corriente eléctrica) a un
aparato que proyectaba una traza de sus medidas en una placa fotográfica,
creando así una imagen de la onda eléctrica producida en el corazón. Fue una
buena idea, destinada a afincarse sólidamente en la práctica médica, aunque los
primeros modelos de electrocardiógrafos (por ejemplo, el que construyó en 1912
el cardiólogo galés Thomas Lewis) exigían que el paciente colocase sus manos y
sus pies en cuatro cubos llenos de agua.
Capítulo 7
La medicina científica del siglo XIX
Hooke y Leeuwenhoek murieron en el siglo XVIII, el siglo de la
Ilustración. Ahora voy a pasar al siglo XIX. Obviamente, no se puede decir que
no se produjesen avances en el ámbito de la medicina entre el siglo XVIII y el
XIX (de hecho menciono algunos nombres de ese período), pero en una historia
como la presente, el siglo XIX destaca porque representa uno de los grandes
momentos de la medicina, uno en el que se produjo un salto fundamental,
cualitativo y cuantitativo, en los conocimientos médicos. Fue entonces, como
veremos, cuando la medicina se hizo plenamente científica.
§. La fisiología decimonónica
A comienzos del siglo XIX, la fisiología —la rama de la medicina que trata de
explicar los procesos vitales entendiéndolos como procesos físico-químicos— no
existía realmente como disciplina independiente, aunque con razón podamos
considera a, por ejemplo, Harvey como un fisiólogo. La fisiología se encontraba
entonces firmemente unida a la anatomía, lo que implicaba que las funciones
vitales no eran explicadas, si acaso localizadas. «La anatomía descriptiva
—escribió Claude Bernard, de quien diré más en este mismo capítulo, en su
última obra, Leçons sur les phénomènes de la vie communs aux animaux et
aux végétaux («Lecciones sobre los fenómenos de la vida comunes a los
animales y a los vegetales», 1878), publicada póstumamente— es a la fisiología
lo que la geografía a la historia y, al igual que no es suficiente conocer la
topografía de un país para comprender su historia, tampoco es suficiente
conocer la anatomía de los órganos para comprender sus funciones.» Antes, en
1816, el médico francés François Magendie, uno de los que más hizo para cambiar
la situación en que se encontraba la fisiología (fue uno de los primeros
defensores radicales de la investigación empírica y experimental para
comprender el funcionamiento orgánico: un «trapero de datos» se definía a sí
mismo), señalaba en su Précis élémentaire de physiologie («Compendio
elemental de fisiología») el retraso en que se encontraba su disciplina:
Las ciencias naturales han tenido, igualmente que la historia, sus
tiempos. La astronomía ha empezado por la astrología; la química hace poco no
era más que un conjunto pomposo de sistemas absurdos, y la fisiología un largo
y fastidioso romance; la medicina, un cúmulo de preocupaciones hijas de la
ignorancia y el temor de la muerte, etcétera.
Tal fue el estado de las ciencias naturales hasta el siglo XVII. Entonces
apareció Galileo y los sabios pudieron aprender que para conocer la naturaleza
no se trataba de forjarla ni de creer lo que habían dicho los autores antiguos
sino que era menester observarla y preguntarle además por medio de
experimentos.
Esta fecunda filosofía fue la de Descartes y Newton, la propia que les inspiró
constantemente en sus inmortales tareas. La misma que poseyeron todos los
hombres de ingenio que en el siglo último redujeron la química y la física a la
experiencia…
Ojalá pudiera decir que la fisiología, esta rama tan importante de nuestros
conocimientos, ha tomado el mismo vuelo y sufrido la misma transformación que
las ciencias físicas, pero, por desgracia, no es así. La fisiología, para
muchos, y aun en casos todas las obras de este dominio, aparece tal cual era en
el siglo de Galileo, un juego de imaginación; tiene sus diferentes creencias y
sus opuestas sectas; invoca la autoridad de los autores antiguos, los cita como
infalibles y pudiera llamarse un cuadro teológico caprichosamente lleno de
expresiones científicas.
Por entonces, sin embargo, ya habían comenzado a fructificar algunas
semillas plantadas antes. Una de esas semillas, la más importante para la
cuestión que me ocupa, fueron las ideas sobre la respiración que el químico
Antoine-Laurent de Lavoisier (1743-1794) presentó en un trabajo que publicó en
1777 bajo el título «Experiencias sobre la respiración de los animales y sobre
los cambios que sufre el aire al pasar por los pulmones». La respiración,
sostenía Lavoisier (que en 1780 desarrolló sus ideas en otro trabajo, éste en
colaboración con otro de los grandes científicos de la Ilustración, Laplace),
es una forma de combustión en la que carbono (procedente, por ejemplo, de los
alimentos) y oxígeno se oxidan (o, en otras palabras, el oxígeno quema al
carbono) convirtiéndose en dióxido de carbono y agua, desprendiendo calor, el
mismo calor que, argumentaba, se produce en animales de sangre caliente. La
respiración, en definitiva, pasaba a ser considerada una forma lenta de
oxidación, en la que el oxígeno del aire desempeña el papel principal, y no
otros gases que se encuentran también en el aire, como el nitrógeno, que se
exhalan, inalterados, durante la respiración. (Lavoisier y Laplace demostraron
la equivalencia de ambos procesos —respiración y oxidación— a través de medidas
calorimétricas al igual que recogiendo y analizando los gases que intervienen
en la respira c ión, y también, en 1783, utilizando un conejillo de Indias, de
ahí la expresión «hacer de conejillo de Indias».)
§. El vitalismo
A pesar de lo que significaban aproximaciones como las de Lavoisier y Laplace,
cuando comenzaba el siglo XIX todavía predominaba la creencia de que en la
vida, en los procesos que la sustentan, intervienen fuerzas no reducibles a las
físico-químicas. Es lo que se denominaba vitalismo. El gran
fisiólogo, físico y matemático Hermann von Helmholtz (1821-1894) recordaba en
uno de sus artículos:
Todavía a comienzos de este siglo [el XIX] los fisiólogos creían que era
el principio vital el que producía los procesos de la vida, y que se rebajaba
la dignidad y naturaleza de ésta si alguien expresaba la creencia de que la
sangre era conducida a través de las arterias por la acción mecánica del
corazón, o que la respiración tenía lugar siguiendo las leyes habituales de la
difusión de los gases. Por el contrario, la generación actual trabaja duramente
para encontrar las causas reales de los procesos que tienen lugar en un cuerpo
vivo. No suponen que exista ninguna diferencia entre las acciones químicas y
las mecánicas en el cuerpo vivo y fuera de él.
Esa generación —generaciones, realmente— a la que se refería Helmholtz
trabajó duramente, cierto es, y lo hizo utilizando con profusión escenarios que
no siempre coincidían con los que sus predecesores habían preferido. Y es que
el vitalismo fue finalmente abandonado cuando la investigación experimental de
laboratorio pasó a ser una fuente primordial de la medicina. Así, gracias a la
química resultante de la revolución que había encabezado Lavoisier, se pudo
acometer el análisis de la composición tanto de sustancias inorgánicas como de
origen biológico y así se comprobó que las primeras contenían elementos que
aparecían también en las segundas, por lo que llegó a aceptarse de modo casi
general que no existía diferencia entre ambas desde el punto de vista químico.
Un hito en este sentido fue la obtención de la urea, en 1828, a partir del
cianato amónico, una sustancia inorgánica, por el alemán Friedrich Wöhler
(1800-1882), que había estudiado medicina en las universidades de Marburgo y
Heidelberg y química en Estocolmo, donde fue ayudante de Berzelius, uno de los
padres de la química moderna.
Quienes combatían los principios vitalistas, buscaban dar a la medicina
una base científica, demostrando, entre otras cosas, que las enfermedades no
eran nada más que desviaciones de los procesos fisiológicos normales.
Convencidos de que tales procesos obedecían a leyes deterministas de la
naturaleza, argumentaban que la medicina, la verdadera medicina, esto es,
la medicina científica, debería encaminarse a determinar cómo se
comportaban los cuerpos, sujetos a tales leyes, bajo condiciones alteradas.
Así, en sus declaraciones programáticas, estos científicos (médicos, en
general, pero no sólo médicos) hacían hincapié en la utilización de
experimentos fisiológicos, anatomía patológica, microscopía, química, física y,
por supuesto, observaciones clínicas, como las herramientas básicas para
analizar las funciones corporales y la aparición de enfermedades. Y para ello
necesitaban instrumentos refinados. Es ilustrativo el caso de Emil du
Bois-Reymond (1818-1896), quien se distinguió por sus trabajos en electrofisiología.
A lo largo de su carrera, Du Bois-Reymond concentró sus investigaciones en el
desarrollo de dos tipos de instrumentos: electrodos para la conducción de
corrientes bioeléctricas débiles sin distorsión y aparatos para detectar y
amplificar estas corrientes. Esta línea de investigación, en la que medicina,
fisiología, química y física se enriquecían mutuamente, terminó conduciendo a
la enunciación de uno de los instrumentos más fecundos para la ciencia de los
siglos XIX y XX, el principio de conservación de la energía, formulado en su
forma más general por Helmholtz en 1847.
§. Hermann von Helmholtz: de la fisiología a la física
El ejemplo de Helmholtz es especialmente significativo. Nacido en Potsdam, en
1838 se trasladó a Berlín para iniciar sus estudios médicos en el Instituto
Real Médico-Quirúrgico Federico-Guillermo, una escuela de medicina destinada a
formar médicos militares. Helmholtz eligió esta escuela porque su familia no
poseía medios suficientes y en el Instituto Federico-Guillermo los estudiantes
no tenían que pagar (de hecho recibían un estipendio), a cambio de comprometerse
a dedicar los ocho años siguientes a su licenciatura al servicio del ejército
prusiano.
Una vez finalizados sus estudios, en octubre de 1843, Helmholtz fue
nombrado oficial médico y destinado al hospital militar de Potsdam. Allí
permaneció cinco años. Como sus obligaciones médicas no eran excesivas, pudo
compatibilizarlas con la investigación y montó un pequeño laboratorio en un
barracón, en el que se dedicó a estudiar la producción de calor durante la
contracción muscular y así descubrió que la explicación del calor animal en
función de transformaciones químicas en los músculos encajaba perfectamente con
los propósitos de una física que no fuese ajena a los fenómenos orgánicos.
Demostró entonces que el calor no era transportado a los músculos a través de
los nervios o de la sangre sino que era producido por los propios tejidos.
Cuantificando estos hechos fisiológicos, dedujo un equivalente mecánico del
calor que incorporó en su gran memoria de 1847, Über die Erhaltung der
Kraft («Sobre la conservación de la fuerza»), un trabajo que le ayudó,
de la mano del influyente geógrafo y naturalista Alexander von Humboldt, a
obtener permiso para abandonar (en 1848) el ejército y aceptar la oferta de
enseñar anatomía en la Academia de Bellas Artes de Berlín. Allí estuvo sólo un
año y a continuación pasó a la Universidad de Königsberg como profesor asociado
(catedrático desde 1851) de fisiología, donde permaneció seis años, durante los
cuales continuó sus investigaciones en fisiología de los nervios (midiendo, por
ejemplo, la velocidad de los impulsos nerviosos), entrando, asimismo, en la
óptica y acústica fisiológica, áreas en las que siguió interesándose los
siguientes veinte años. Preparando una de sus clases, se dio cuenta de que las
sencillas leyes de la óptica geométrica le permitían construir un instrumento
de gran importancia potencial para la comunidad médica: el oftalmoscopio.
Mientras preparaba su clase, Helmholtz se preguntó cómo producían una
imagen los rayos de luz reflejados, de esta manera comenzó a estudiar las
trayectorias de los rayos y descubrió que éstos seguían caminos idénticos tanto
al entrar como al salir del ojo. Una vez interesado en el problema, tardó
únicamente ocho días en resolverlo y en inventar un instrumento que le permitía
ver la retina de un ojo vivo.
La invención del oftalmoscopio
En diciembre de 1850, Helmholtz escribió a su padre expresando su
sorpresa porque nadie antes que él hubiese dado con la idea del oftalmoscopio,
que, añadía, solamente necesitaba de sencillas leyes de óptica geométrica. Sin
embargo, subestimaba el conocimiento matemático que se necesitaba para
comprender la óptica geométrica en la que se basaba el oftalmoscopio, así como
el valor de su formación pluridisciplinar, algo que queda patente en lo que
escribió en su autobiografía:
Conocía bien, de mis estudios médicos, las dificultades que tenían los
oftalmólogos con los problemas entonces agrupados bajo el nombre de
«amaurosis», e inmediatamente me puse a construir el instrumento utilizando
lentes de gafas y láminas de vidrio de las empleadas como portamuestras en los
trabajos con microscopio. Al principio era difícil de usar y, si no hubiese
tenido la firme convicción teórica de que tenía que funcionar, no habría
perseverado. Al cabo de una semana, sin embargo, tuve el gran placer de ser el
primer hombre en contemplar claramente una retina humana en un ser vivo.
La construcción del oftalmoscopio tuvo un efecto decisivo en mi posición a los
ojos del mundo. Desde aquel momento conté con el reconocimiento inmediato de
las autoridades y de mis colegas, así como con un fuerte deseo por satisfacer
mis deseos. Fui de esta manera capaz de seguir mucho más libremente los
impulsos de mis ansias de conocimiento. Debo decir, no obstante, que yo
atribuyo mi éxito en gran medida al hecho de que, poseyendo algún entendimiento
geométrico y equipado con un conocimiento de física, tuve la buena fortuna de
ser lanzado a la medicina, en donde encontré en la fisiología un territorio
virgen de gran fertilidad. Además, mi conocimiento de los procesos vitales me
llevó a preguntas y puntos de vista que habitualmente son extraños a los
matemáticos puros y a los físicos. Hasta entonces solamente había podido
comparar mi habilidad matemática con la de mis compañeros de estudios y colegas
médicos; el que en general yo fuese superior a ellos en este aspecto quizá no
quería decir mucho. Además, las matemáticas fueron consideradas siempre en la
escuela como un tema de importancia secundaria.
Con semejantes logros, en los que física y medicina se beneficiaban
mutuamente, no es sorprendente, aunque sí muy poco frecuente, si no único, que
Helmholtz terminase su carrera académica como catedrático de Física en la
Universidad de Berlín, adonde llegó en 1871.
Pero dejemos la fisiología, para pasar a Louis Pasteur, con quien la
medicina dio algunos pasos gigantescos.
§. Louis Pasteur y la teoría microbiana de la enfermedad
Natural de Dole, en el denominado Franco Condado, hijo de un curtidor, Louis
Pasteur (1822-1895) estudió en la sección científica de la École Normale
Supérieure y allí terminó sus estudios en 1845. Dos años más tarde, logró el
grado de doctor por la Universidad de París, con una tesis dividida en dos
partes, una de química y otra de física, la primera titulada «Estudio
de fenómenos relativos a la polarización rotatoria de los líquidos» y
la segunda «Aplicación de la polarización rotatoria a la solución de
diversas cuestiones de química». Lejos de ser un trabajo correcto pero más
o menos intrascendente, los contenidos de su tesis, sobre todo los de la
segunda parte, pertenecientes al campo de la cristalografía y la simetría
molecular, resultaron tan importantes que dieron origen a una nueva rama de la
ciencia: la estereoquímica, que estudia las formas tridimensionales
alternativas de las moléculas. Con anterioridad a la tesis de Pasteur, se sabía
de la existencia de dos formas de ácido tartárico, una que hacía girar el plano
de la luz polarizada hacia la derecha, y otra que no lo hacía girar en
absoluto. Pasteur fue capaz de aislar un ácido tartárico desconocido entonces,
que hacía girar la luz polarizada hacia la izquierda y no hacia la derecha, y
demostrar que el ácido tartárico que no hacía girar el plano de polarización de
la luz estaba compuesto de dos cristales diferentes, uno el que producía giros
hacia la derecha y otro hacia la izquierda: al coexistir cristales que giraban
en sentidos opuestos, el resultado era que se neutralizaban entre sí.
Comenzó así un período de la vida (1847-1857) dominado por este tipo de
investigaciones, un período en el que se fue estableciendo profesionalmente. En
septiembre de 1848, fue designado profesor de Física en el Liceo de Dijon, pero
permaneció poco tiempo en aquel puesto, ya que en diciembre del mismo año fue
nombrado profesor suplente de química de la Facultad de Ciencias de la
Universidad de Estrasburgo, donde pasó a catedrático titular en 1852. En 1854
se trasladó a la Universidad de Lille, la ciudad de mayor actividad industrial
del norte de Francia, como decano y profesor de Química de la nueva Facultad de
Ciencias. En 1856, la Royal Society londinense le otorgó la prestigiosa medalla
Rumford por sus estudios de cristalografía, un reconocimiento que seguramente
lo ayudó a acceder, el año siguiente, en París, como administrador y director
de la rama de ciencias de su antigua alma máter, la École Normale Supérieure.
Instalado en la capital, el centro neurálgico de la vida francesa
—incluida la científica—, los intereses profesionales de Pasteur pasaron al
dominio de la fermentación y generación espontánea, al que estuvo dedicado
plenamente hasta 1865. Después vendrían otras etapas de su vida científica,
protagonizadas por investigaciones en enfermedades del gusano de seda
(1865-1870), estudios sobre la cerveza (1871-1876) y enfermedades infecciosas
(1876-1895). También se debe mencionar que en 1867 tomó posesión de la cátedra
de Química Orgánica de la Sorbona.
Aun sin detallar las motivaciones y resultados del conjunto de la obra
pasteuriana, hay dos hechos que deben resaltarse: a) fue un químico y físico
que terminó ocupándose de problemas médicos, y (b) no eludió las
investigaciones aplicadas. En realidad, ambos aspectos de su carrera están
íntimamente relacionados: por un lado, estaban sus conocimientos químicos y
físicos y, por otro, no era ajeno al mundo que lo rodeaba, al mundo, por
ejemplo, de la industria de la seda o de la cerveza, el mundo agrícola o el de
las enfermedades (si como muestra sirve un botón, he aquí el título de uno de
sus trabajos, y no menor: Estudios sobre el vino: sus enfermedades,
causas que las provocan, procedimientos nuevos para conservarlo y para
envejecerlo, 1866). Ambos rasgos le fueron llevando, en una secuencia que a
veces uno está tentado en considerar inevitable, de un tema de investigación a
otro.
Así, sus estudios sobre disimetría molecular lo condujeron a ocuparse
del alcohol amílico, activo también ópticamente. Ahora bien, resulta que el
alcohol amílico desempeña un papel importan te en la fermentación láctica (la
fermentación tiene una larga historia, pues fue utilizada para la producción de
bebidas en Babilonia en el año 5000 a.C.). Se abría de esta manera la puerta a
las investigaciones de Pasteur sobre fermentación, un hecho éste que él mismo
reconoció y explicó en la sección inicial de su primer artículo en este campo
(«Memoria sobre la fermentación llamada láctica», 1857), que habitualmente se
considera el inicio de la bacteriología como ciencia: «Creo que es mi deber
indicar con algunas palabras cómo me he visto conducido a ocuparme en investigaciones
sobre las fermentaciones. Habiendo aplicado hasta el presente todos mis
esfuerzos a tratar de descubrir los vínculos que existen entre las propiedades
químicas, ópticas y cristalográficas de ciertos cuerpos con el fin de aclarar
su constitución molecular, quizá pueda asombrar verme abordar un tema de
química fisiológica, muy alejado en apariencia de mis primeros trabajos. Sin
embargo, están relacionados de forma muy directa».
En sus investigaciones sobre la fermentación, Pasteur demostró que ésta
era resultado de la acción de organismos vivos microscópicos; que no se
producía cuando se excluían o aniquilaban (sometiéndolos, por ejemplo, a la
acción del calor, la forma más primitiva de un proceso que, tras ser
perfeccionado, recibió en honor suyo el nombre de pasteurización).
Al llegar a semejantes conclusiones, Pasteur se había adentrado, lo quisiese o
no, en una cuestión tan básica como de larga historia: la de si era posible la
generación espontánea, esto es, si seres vivos pueden surgir de sustancias
inanimadas.
En muchas civilizaciones antiguas se creyó que la vida aparecía de
manera espontánea a partir de materia inanimada. Observaciones diarias parecían
confirmar tal idea: se veía aparecer gusanos de la descomposición de materiales
orgánicos, y moscas de trozos de carne expuestos al sol. Sin embargo, en la
segunda mitad del siglo XVII, Francesco Redi (1626-1698) observó que en un
frasco abierto el pescado putrefacto generaba, al cabo de un tiempo, moscas,
mientras que no ocurría lo mismo en un jarro idéntico pero cerrado. De este
experimento —que detalló en Esperienze intorno alla generazione degli’
insetti (1668)— extrajo la consecuencia de que las moscas no surgían
del pescado sino de huevos. Sin embargo, su meticulosidad científica no fue lo
suficientemente poderosa como para impedir el paso a especulaciones religiosas
que utilizaron sus descubrimientos para señalar que aunque era cierto que la
vida no surgía espontánea m ente sino sólo de vida preexistente, la cadena de
progenitores biológicos que esta idea requería debía tener un punto de partida:
en el comienzo, Dios había creado todos los animales y plantas que existen.
En las décadas, y casi dos siglos, que siguieron al descubrimiento de
Redi, la invención y utilización del microscopio sirvió para observar
microorganismos de todo tipo (recordemos, por ejemplo, los trabajos de
Leeuwenhoek); estas observaciones revivieron entre muchos la creencia en la
generación espontánea de la vida. En el curso de sus investigaciones sobre la
fermentación, Pasteur puso punto final de manera definitiva a esta cuestión. El
lugar en el que con más rotundidad y claridad expresó sus puntos de vista es en
un artículo publicado en 1862: «Memoria sobre los corpúsculos organizados que
existen en la atmósfera. Examen de la doctrina de las generaciones
espontáneas», en el que presentó los resultados a que había llegado con
experimentos no demasiado diferentes de los de Redi. En primer lugar, demostró
que hay microorganismos que viven en el aire que nos rodea y que pueden
contaminar incluso el cultivo más estéril. A continuación, mostró que si un
caldo de cultivo estéril era introducido en un recipiente sellado al vacío, en
el que no podía penetrar el aire, no surgía en él ningún microorganismo. «No,
no hay ninguna circunstancia hoy conocida —manifestaba orgullosamente en una
conferencia que pronunció en la Sorbona en 1864 («La generación espontánea»)—
en la que se pueda afirmar que seres microscópicos han venido al mundo sin
gérmenes, sin padres semejantes a ellos. Los que lo pretenden han sido juguetes
de ilusiones, de experiencias mal hechas, plagadas de errores que no han sabido
percibir o que no han sabido evitar.»
Establecido este punto, era razonable pensar en aplicar el nuevo
planteamiento al origen de enfermedades. Semejante convicción fue la que llevó
finalmente a Pasteur a la investigación médica, que inició con el estudio del
ántrax o carbunco (inflamación de origen bacteriano con abundante producción de
pus) en 1877, cuya causa asoció también con un microorganismo, la «bacteridia».
En una conferencia que leyó ante la Academia de Medicina de París en 1978, «La
teoría de los gérmenes y sus aplicaciones a la medicina y la cirugía», Pasteur
explicó con claridad el origen y naturaleza de sus intereses médicos, al igual
que algunos de los problemas con los que se encontraba:
Todas las ciencias ganan si se prestan un apoyo mutuo. Cuando después de
mis primeras comunicaciones sobre las fermentaciones en 1857-1858 puede
admitirse que los fermentos propiamente dichos son seres vivos, que en la
superficie de todos los objetos, en la atmósfera y las aguas abundan gérmenes
de organismos microscópicos, que la hipótesis de una generación espontánea es
una quimera, que el vino, la cerveza, el vinagre, la sangre, la orina y todos
los líquidos del organismo no sufren ninguna de sus alteraciones comunes en
contacto con el aire puro, la medicina y la cirugía han dirigido sus ojos a
estas novedades tan evidentes. Un médico francés, el doctor [Casimir Joseph]
Davaine, hizo la primera aplicación con éxito de estos principios a la medicina
en 1863.
Nuestras investigaciones durante el último año han avanzado mucho menos en la
etiología de la enfermedad pútrida o septicemia que en la del carbunco.
Creíamos que la septicemia dependía de la presencia y multiplicación de un
organismo microscópico, pero no ha podido demostrarse rigurosamente esta
importante conclusión. Para afirmar de modo experimental que un organismo
microscópico es en realidad el agente de la enfermedad y el contagio, no veo
otro medio, en el estado actual de la ciencia, que el de someter al microbio (nueva
y feliz expresión propuesta por Sédillot [1878]) al método de los cultivos
fuera del organismo.
§. Robert Koch
En este punto entra en escena Robert Koch (1843-1910), que, entre otras
virtudes, se distinguió en el problema con el que Pasteur terminaba la anterior
cita: el de desarrollar técnicas para estudiar microbios en cultivos.
Koch comenzó a estudiar ciencias naturales en la Universidad de Gotinga,
donde fue discípulo de Jakob Henle, y se doctoró en 1866. A continuación fue
médico militar en la guerra franco-prusiana (1870) y, a partir de 1872, trabajó
como médico rural en Wollstein. Con cuarenta años de edad sus intereses
experimentaron un fuerte cambio: comenzó a ocuparse del ántrax, desarrollando
nuevas técnicas para el estudio de cultivos y describiendo su etiología y
patología en 1876, esto es, antes que Pasteur.
En 1879, publicaba uno de sus trabajos fundamentales, «La etiología de
las enfermedades traumáticas infecciosas», en el que se encuentran los
postulados de su nombre que explican cómo probar que una bacteria determinada
produce una condición especifica:
1.
el agente
patógeno debe estar presente en cada caso de la enfermedad;
2.
el agente
debe ser aislado del cuerpo en un cultivo puro a partir de las lesiones de la
enfermedad;
3.
el agente
debe producir la enfermedad en un animal susceptible de ser inoculado, y
4.
el agente
podrá aislarse de nuevo a partir de las lesiones de los animales usados en el
experimento.
Robert Koch
Tras estas aportaciones fue designado por la Oficina Imperial de la
Salud de Berlín para asesorar en cuestiones de salud e higiene públicas. En
1882, después de haber desarrollado métodos sencillos y originales para crecer
y examinar cultivos bacterianos, anunciaba en la Sociedad de Fisiología de
Berlín su descubrimiento del bacilo de la tuberculosis, una enfermedad —cuya
primera denominación fue «tisis», «consunción» después— responsable entonces de
la muerte de millones de personas cada año (sólo en Prusia la mortalidad
ascendía en 1882 a trescientos por cada cien mil habitantes). Un año más tarde,
al sumarse a una expedición francesa a Alejandría, consiguió aislar el bacilo
del cólera (o vibrión colérico). En 1890, el X Congreso Internacional de
Medicina se celebró en Berlín y Koch, presionado por el gobierno, anunció el
descubrimiento de la tuberculina, una sustancia que inhibía el
desarrollo del bacilo, no una vacuna (trataré enseguida de las vacunas). Su
principal virtud era la capacidad de distinguir a los afectados por la
enfermedad de los sanos. La vacuna más eficiente, aún en uso, sería descubierta
en 1923 por Albert Calmette y Camille Guérin. El nombramiento de Koch como
profesor de Higiene en Berlín (1885) fue decisivo para la salud de la ciudad gracias
a las medidas higiénicas que introdujo.
En 1883, y hasta 1907, Koch realizó diversos viajes por África, la India
y Nueva Guinea para estudiar las enfermedades infecciosas que se daban allí.
Consecuencia o tal vez origen de iniciativas como ésta, es que a lo largo del
siglo XIX la medicina amplió las fronteras nacionales, haciéndose más
internacional y «global». La Cruz Roja fue fundada por la Convención de Ginebra
en 1864, el Primer Congreso Internacional de Medicina tuvo lugar en París en
1867 y la especialización en las enfermedades tropicales se inició en la década
de 1870, favorecida, no hay que olvidarlo, por el colonialismo decimonónico. La
malaria, de la que ya hablé, tenía mayor incidencia en la India y África, el
cólera se extendió a partir de la India, y la fiebre amarilla adquirió proporciones
inquietantes con la guerra hispano-americana.
En sus trabajos, Koch empleó técnicas de observación avanzadas. Utilizó
una placa como soporte de una base orgánica: finas rodajas de patata sobre las
que disponía las células de la especie deseada, que al reproducirse daban lugar
a cultivos, visibles a simple vista, compuestos por millones de individuos.
Utilizó placas de cristal recubiertas con una emulsión y, más adelante,
gelatina y agar (un polímero de galactosa), que aportaban nutrientes al
cultivo. Naturalmente, fueron también muy importantes para él los microscopios,
beneficiándose de los avances realizados en este campo por Ernst Abbe
(1840-1905), quien al distinguir entre ampliación y resolución descubrió
que el aumento de la primera no producía necesariamente la mejora de la
segunda. Orientó entonces su trabajo en mejorar la segunda, advirtiendo que
para conseguir mayor resolución había que incluir la luz refractada en la
observación. Llegó a la conclusión de que con la inmersión de las lentes en
aceite se conseguía que el índice de refracción fuese igual en ambos medios,
diseñando al mismo tiempo un condensador para que un cono de luz ocupase toda
la apertura del objetivo, un artificio especialmente eficiente para observar
las muestras tintadas. En 1879, Abbe preparó la primera descripción del nuevo
microscopio después de recibir la visita de Koch a la fabrica Zeiss. De hecho,
la comunidad de intereses contribuyó a la fama de ambos. Fue provisto con el
nuevo instrumento, cuando Koch aisló en 1882 el bacilo de la tuberculosis.
§. La vacunación
Gracias a las investigaciones de Pasteur y de Koch, y de los que vinieron tras
ellos, se llegó a conocer con gran precisión científica la relación causal
entre microorganismos y enfermedades infecciosas. Surgió así un modo nuevo de
concebir la enfermedad: la teoría microbiana de algunas enfermedades.
Estrechamente asociada a esta visión se encuentra el desarrollo decimonónico de
vacunas. Desde tiempos remotos, los turcos «vacunaban» contra la viruela
tomando muestras del contenido de las pústulas de los casos moderados de
viruela e inoculándolas a personas sanas (la palabra «vacunación» deriva del
latín vaccinae, que quiere decir «de la vaca», y parece que fue
Pasteur el primero en emplearla en 1880). La arriesgada práctica llegó a oídos
de la esposa del embajador de Inglaterra en Constantinopla, lady Mary Wortley
Montagu (1689-1762), quien en 1718 la difundió, a través de sus contactos
políticos y médicos, en Gran Bretaña, aunque no era infrecuente que algunas de
las personas con las que se utilizaba muriesen. Sería otro inglés, Edward
Jenner (1749-1823), el responsable de la introducción, en 1798, de la
vacunación contra la viruela a gran escala en Inglaterra.
En 1880, tras aislar el microbio responsable del cólera de las gallinas
(un mal que podía matar hasta el 90 por ciento de las gallinas de un corral),
Pasteur consiguió disminuir su virulencia siguiendo la técnica de Jenner, esto
es, inyectando en las gallinas microbios debilitados. Estimulado por los
resultados favorables que obtenía, aplicó el principio de la debilitación de
los gérmenes para preparar vacunas contra la rabia, enfermedad infecciosa
mortal, que afecta a los perros (que enloquecen produciéndoles horror el agua,
por lo que también se denomina hidrofobia), pero que también pueden contraer
—mediante mordeduras de éstos— las personas. Sus primeros estudios en este
campo comenzaron en diciembre de 1880, cuando un veterinario le llevó dos
perros rabiosos y le pidió su opinión. Sólo había experimentado con perros
cuando, en 1885, le llevaron un niño de nueve años, Joseph Meister (1876-1940),
que había sido mordido por un perro rabioso. A pesar de no ser médico, Pasteur
aceptó el desafío y experimentó la vacuna en el niño con éxito (merece la pena
recordar que de adulto, Meister trabajó en el Instituto Pasteur y que se
suicidó, dándose un tiro, durante la ocupación alemana de París). Había nacido
la vacunación moderna; la única gran modificación que se produciría
posteriormente fue la introducción de vacunas obtenidas por ingeniería
genética, que se iniciaron en 1983 y cuyo primer producto comercializado fue la
vacuna contra la hepatitis B, en 1986.
Louis Pasteur
El éxito obtenido con Meister atrajo al laboratorio de Pasteur a
personas no sólo de Francia sino también de otras partes del mundo (sobre todo
de Europa). La difusión del método de Pasteur fue tal que en 1907 al menos 51
institutos, distribuidos por Europa, Asia, América y África, utilizaban ya
vacunas contra la rabia. En Rusia, que seguía a Francia y Argelia en número de
personas tratadas en el laboratorio de Pasteur, éste fue considerado un héroe
después de que las autoridades de ese país le enviasen a 19 rusos procedentes
de Smolensk que habían sido mordidos por un lobo rabioso y que con el
tratamiento que recibieron en París 16 salvasen la vida. En Francia, se
promovió una suscripción pública para la construcción de un instituto que,
dirigido por Pasteur, continuase los trabajos de búsqueda y desarrollo de
nuevas vacunas. Superados los dos millones de francos (cien mil donados por el
príncipe zarista Alejandro III), en noviembre de 1888 se inauguró en París el
que hasta la fecha se denomina Instituto Pasteur, y en el que, por cierto, se
encuentra la tumba del gran científico, ya que su familia quiso que sus restos
reposasen allí y no en el Panteón, como les ofreció el gobierno francés. El
propio Pasteur contribuyó al bienestar futuro del centro, al establecer que los
derechos por las ventas en Francia de las vacunas descubiertas en el
laboratorio fuesen a parar al Instituto. Pronto éste se convirtió en uno de los
centros de referencia mundial en la investigación biomédica, una posición que,
aunque algo disminuida, no ha abandonado completamente.
Tanto éxito tuvo el instituto que pronto se vio superado. Émile Roux,
director del centro entre 1904 y 1918 recordó:
Los pedidos llegaron pronto al Instituto Pasteur, cartas y despachos se
apilaban sobre las mesas, los solicitantes se apiñaban a las puertas, médicos y
bacteriólogos de todos los países venían a aprender la preparación del suero.
¿Cómo satisfacer todas las solicitudes? ¿Cómo comprar, alojar, alimentar e
inmunizar a toda la caballería cuya sangre proporcionaría el remedio? [Se
utilizaba la sangre de caballos inmunizados contra la difteria para extraer
suero antidiftérico.] Todo el activo del Instituto Pasteur habría sido
insuficiente. La generosidad pública vino en nuestra ayuda. La ciudad de París
y la Escuela de Alfort pusieron caballerizas a nuestra disposición; diversos
particulares nos ofrecieron caballos; el estado, la ciudad de París, el
departamento del Sena y otras entidades aportaron subvenciones, y Le
Figaro abrió una suscripción que reunió un millón. Gracias a estos
recursos y a la dedicación incansable de mis colegas del Instituto Pasteur, en
pocos meses se organizó un gran servicio seroterapéutico en Garches, en una
propiedad del estado y pronto ningún diftérico carecía del precioso
medicamento.
El primer Instituto Pasteur fuera de Francia se creó en Saigón en 1889,
mientras que en 1893 se establecieron dos más, uno en Túnez y otro en Nha Trang
(Vietnam). Y más tarde llegarían muchos otros, los primeros los de Argel
(1910), Atenas (1920), Teherán (1921), Dakar (Senegal, 1924) y Casablanca
(1928).
§. Claude Bernard y la medicina científica
En la actualidad, el nombre de Claude Bernard (1813-1878) no representa mucho,
o nada en absoluto, para la mayor parte de las personas. Sin embargo, fue un
fisiólogo decimonónico muy destacado y —es por esto por lo que lo incluyo aquí
— algo así como el «ideólogo» del tipo de medicina que caracterizó al siglo
XIX, la medicina que Pasteur practicó.
Especialmente dotado para la vivisección, se apoyó en ella en muchos de
sus numerosos y variados descubrimientos, entre los que se cuentan la detección
de la presencia en el proceso digestivo de una enzima del jugo gástrico, el
descubrimiento del control nervioso de la secreción gástrica y su localización
o el papel de la bilis y del jugo pancreático en la digestión de las grasas.
Pero, como decía, no es por contribuciones como éstas por lo que me detengo en
él sino por un libro que publicó en 1865: Introduction à l’étude de la
médicine expérimentale («Introducción al estudio de la medicina
experimental»).
Consciente de la necesidad de sistematizar los procedimientos
experimentales que, con una base físico-química, se empleaban con creciente
intensidad en la medicina, hasta hacía poco mediatiza da por la creencia en la
existencia de una fuerza vital, Bernard deseaba escribir una obra ambiciosa y
extensa que abarcase los principios de la medicina experimental. De hecho,
la Introducción al estudio de la medicina experimental no era
sino algo así como el prefacio de aquella obra, de unos Principes de
médecine expérimentale que permanecieron inacabados y que serían
publicados, incompletos, póstumamente en 1947.
Un prefacio únicamente, pero un prefacio que se convirtió en un clásico
de la ciencia, que todavía hoy puede —que debería— ser leído con provecho. De
él dijo en 1913 el filósofo Henri Bergson: «Es para nosotros algo así como lo
que fue para los siglos XVII y XVIII el Discurso del método»,
mientras que Pasteur lo había calificado en 1866 de «monumento en honor del
método que ha constituido las ciencias físicas y químicas desde Galileo y
Newton, y que Claude Bernard se esfuerza por introducir en la fisiología y en
la patología. No se ha escrito nada más luminoso, más completo, más profundo
sobre los verdaderos principios del difícil arte de la experimentación …
La influencia que ejercerá sobre las ciencias médicas, sobre su
enseñanza, su progreso, incluso sobre su lenguaje, será inmensa».
Resumir el contenido de la Introducción sería una tarea
demasiado extensa. Me limitaré a unos breves comentarios, referentes al método
que propugnaba y no a los ejemplos concretos a los que recurría para
ilustrarlo, aun a sabiendas que de esta manera se pierde mucho de la enorme
riqueza de esta obra. Tenemos, ante todo, que la visión que Bernard propugnaba
era respetuosa con la estructura tradicional de los saberes médicos, aunque él
le diese nueva vida: «Para abrazar el problema médico por completo —escribía—,
la medicina experimental debe abrazar tres partes fundamentales: la fisiología,
la patología y la terapéutica. El conocimiento de las causas de los fenómenos
de la vida en el estado normal, la fisiología, nos enseñará a
sostener las condiciones normales de la vida, es decir, a conservar la
salud. El conocimiento de las enfermedades y de las causas que las
determinan, la patología, nos conducirá por una parte a precaver el
desarrollo de estas condiciones morbosas, y por otra a combatir los efectos por
medio de los agentes medicamentosos, es decir, a curar las enfermedades».
Según sus palabras, en «el período empírico de la medicina … que sin duda
durará aún largo tiempo», fisiología, patología y terapéutica habían podido
marchar por separado, pero, continuaba, «en la concepción de la medicina
científica esto no puede tener lugar: su base debe ser la fisiología. No
estableciéndose la ciencia sino por vía de comparación, no podía obtenerse el
conocimiento del estado patológico o anormal sin el conocimiento del estado
normal, así como la acción terapéutica sobre el organismo de los agentes
anormales o medicamentosos no podría comprenderse sin el estudio previo de la
acción fisiológica de los agentes normales que mantienen los fenómenos de la
vida».
¿Y qué entendía él por la «medicina científica» que mencionaba?:
La medicina científica debe constituirse, como las demás ciencias, por
la vía experimental; es decir, por la aplicación inmediata y rigurosa del
razonamiento a los hechos que la observación y la experimentación nos
suministran. El método experimental, considerado en sí mismo, no es más que
un razonamiento por medio del que sometemos metódicamente
nuestras ideas a la experiencia de los hechos.
El razonamiento siempre es el mismo, así en las ciencias que estudian
los seres vivientes como en las que se ocupan de los cuerpos brutos. Pero en
cada género de ciencia varían los fenómenos y presentan una complejidad y
dificultades de investigación que les son propias. Ésta es la razón del por qué
los principios de la experimentación … son incomparablemente más difíciles de
aplicar a la medicina y a los fenómenos de los cuerpos vivientes, que a la
física y a los fenómenos de los cuerpos brutos.
§. La fisiología y la medicina experimental, según Bernardo Houssay
El médico y fisiólogo argentino Bernardo Alberto Houssay (1887-1971) es uno de
los pocos hispanohablantes que recibió el premio Nobel de Medicina (lo obtuvo
en 1947). Una de sus conferencias —la pronunció en 1941, primero en Rosario de
Santa Fe y luego en Córdoba (Argentina)— estuvo dedicada a Claude Bernard (se
tituló «Claude Bernard y el método experimental») y en ella encontramos una
sección que explica con gran claridad lo que significa para la medicina la
fisiología:
La fisiología estudia los fenómenos propios de los seres vivientes y
determina las condiciones materiales de su manifestación. La anatomía sola ha
sido impotente para revelar la función de los órganos (músculos, sistema
nervioso, tiroides, suprarrenales). Desde que Claude Bernard sostuvo estos
principios, la fisiología obtuvo pronto su autonomía e independencia,
separándose de la anatomía, con la cual se enseñaba.
El mismo determinismo físico-químico de los fenómenos vitales se observa
en el hombre, los animales y los vegetales. Por tanto, los conocimientos pueden
obtenerse en todos ellos por el empleo del método experimental. Un conocimiento
será tanto mejor cuanto mayor sea el número de especies en que se determine.
Claude Bernard estableció las bases de la fisiología general que estudia
los fenómenos comunes a todos los seres vivientes. Demostró que no es sólo una
ciencia de observación sino que es una ciencia experimental.
Desde los estudios de Claude Bernard, los métodos de la fisiología han
penetrado en casi todas las ciencias biológicas: zoología, botánica y biología
general, anatomía normal y patológica, etcétera. Sólo en los países aún
atrasados los naturalistas se contentan todavía con las descripciones
morfológicas.
Las tendencias fisiológicas han invadido todas las ciencias de la vida.
Las mismas leyes generales rigen a los fenómenos fisiológicos normales y
patológicos. En realidad, las enfermedades son sólo desviaciones de las
funciones normales. Por tal razón, la fisiología se ha convertido hoy en la
base principal de la medicina preventiva, de la medicina curativa y de la
higiene.
En 1847, Claude Bernard pudo decir en el Collège de France: «La medicina
científica que tendré por misión enseñar, no existe». Pero desde entonces, y en
gran parte gracias a él, la medicina ha progresado en sus tres ramas
fundamentales: fisiología, patología y terapéutica. Como lo previó Claude
Bernard, la base de la medicina científica es la fisiología; los más instruidos
lo saben y comprenden, y los demás lo practican sin saberlo. Los principales
adelantos médicos se deben al método experimental, o sea, a la aplicación
rigurosa del razonamiento a los hechos que la observación y la experimentación
nos suministran.
Claude Bernard demostró su constante preocupación por la medicina
científica, como se comprueba en sus libros sobre la medicina y la patología
experimental, la diabetes, el sistema nervioso, los líquidos del organismo, las
sustancias tóxicas y medicamentosas y la anestesia. De él se dijo con toda
razón: «In ne fait pas de la médicine, il fait la médicine», es decir,
«No ejerce la medicina, crea la medicina».
Capítulo 8
Virchow y Cajal: la célula y la asistencia sanitaria
§. Rudolf Virchow, el patriarca de la célula
Al igual que los antiguos atomistas griegos imaginaron que la materia estaba
formada por unidades, a las que llamaron átomos, idea que
únicamente comenzó a hacerse tangible, esto es, a sustanciarse científicamente,
a partir del siglo XIX gracias a contribuciones como la de John Dalton
(1766-1844), manifestadas en un libro titulado A New System of Chemical
Philosophy («Un nuevo sistema de filosofía química», 1808-1827), la
biología decimonónica consiguió establecer el estudio de la vida en unas
«unidades», unos «átomos» llamados «células».
Para conseguir esto fue esencial disponer de mejores microscopios que
aquellos de los que dispusieron, allá en el siglo XVII y comienzos del XVIII,
Hooke, Leeuwenhoek y Malpighi, de los que ya hablé. Los pioneros en la nueva
exploración microscópica llegaron en el siglo XIX. El primero que hay que
mencionar en este sentido es Theodor Schwann (1810-1882), que en una monografía
significativamente titulada Mikroskopische untersuchungen über die
übereinstim mung in der struktur und dem wachsthum der thiere und pflanzen («Investigaciones
microscópicas sobre la coincidencia de los animales y las plantas en la
estructura y el crecimiento»), de 1839, y apoyándose en trabajos anteriores de
botánicos, zoólogos y médicos, sostenía que la célula es la unidad elemental de
la estructura y de la formación de todos los seres vivos. Sin embargo, las
ideas de Schwann sobre la célula adolecían de graves limitaciones.
La gran figura en lo que podemos denominar «la teoría celular» fue un
patólogo alemán, Rudolf Virchow (1821-1902). Aunque sólo fuese por otros de sus
descubrimientos (la leucemia, la mielina, sus estudios experimenta les sobre la
trombosis, flebitis o triquinosis, entre otros muchos), ya merecería ser
recordado; en su tiempo fue considerado algo así como un «papa» de la medicina.
Como patólogo, para averiguar dónde residían los problemas, los males,
en los tejidos de los órganos de los enfermos, Virchow basó sus trabajos en el
microscopio, que en el siglo XIX abrió nuevas puertas a la observación, gracias
a los avances técnicos que experimentó (la introducción, por ejemplo, de los
microscopios de lentes acromáticas). Y fue mucho más lejos que Schwann,
constituyéndose en el auténtico «padre» de la teoría celular. El lugar en el
que presentó de manera completa sus ideas y resultados es uno de los grandes
libros del siglo XIX: Die Cellularpathologie in ihrer begründung auf
physiologische und pathologische gewebelehre («La patología celular
basada en la histología fisiológica y patológica») de 1858, un clásico de la
literatura médica y, en general, científica. Nadie antes que Virchow había
defendido con tanta fuerza, y apoyándose en todo tipo de hechos, el papel
central de la unidad celular en la vida. «Al igual que un árbol constituye una
masa dispuesta de una manera definida —escribió allí— en la que, en todas sus
distintas partes, en las hojas al igual que en las raíces, en el tronco al
igual que en los brotes, se descubre que las células son los elementos últimos,
así ocurre con todas las formas de vida animal. Todo animal se presenta
como una suma de unidades vitales, cada una de ellas manifestando todas las
características de la vida. Las características y unidad de la vida no se
pueden limitar a ningún lugar particular de un organismo altamente organizado
(por ejemplo, el cerebro del hombre), sino que se encuentran solamente en la
definida, constantemente recurrente estructura, que todo elemento individual
manifiesta.» Las células podían aparecer en muy diversas formas, según los
tejidos en los que se encontrasen, pero ello no alteraba, sino, todo lo
contrario, reforzaba el papel central que desempeñaba: «Para nosotros —leemos
también en la Patología celular— es esencial saber que en los más
variados tejidos estos constituyentes, que, de alguna manera, representan la
célula en su forma abstracta, el núcleo y la membrana, se repiten con gran
constancia, y que mediante su combinación se obtiene un elemento simple, que, a
través de una serie completa de vegetales vivos y formas animales, por muy
diferentes que éstos sean externamente, por mucho que cambie su composición
interna, se nos presenta con una estructura de forma peculiar, como una base
definida para todos los fenómenos de la vida». Por último, hay que señalar que,
como patólogo, Virchow no podía dejar de destacar el valor que la célula tenía
para el análisis de enfermedades: «Considero necesario relacionar hechos
patológicos con su origen en elementos histológicos conocidos».
§. Virchow y la salud pública
Además de un gran científico, Virchow fue también un hombre profundamente
preocupado —un activista, de hecho— por la situación de la salud pública, en
general, y de los hospitales y médicos, en particular. Especialmente
importantes en este sentido es una serie de artículos sobre las reformas
médicas en la salud pública que publicó en 1848 en una revista semanal que él
mismo fundó junto al psiquiatra R. Leubuscher: Die Medizinische Reform,
que se convirtió en el portavoz de un movimiento nacional de reforma médica que
intentaba que se produjese un progreso administrativo que se correspondiese
con, y pudiese explotar, los avances científicos. Allí, en el número 5 de esta
publicación (4 de agosto), manifestaba: «No basta con que el gobierno
salvaguarde los meros medios de existencia de sus ciudadanos; esto es, que
ayude a todos aquellos cuya capacidad de trabajo no es suficiente para ganarse
la vida. El estado debe hacer más. Debe ayudar a todos a que vivan una vida
sana. Esto se deriva directamente de la concepción del estado como la unidad
moral de todos los individuos que lo componen, y de la obligación de la
solidaridad universal».
En el número 9 (1 de septiembre) defendió ideas que le honran y que
muestran lo poco humanitaria que era la época en que lo escribió: «En lo que se
refiere a la frase “para cada uno según sus necesidades”, en ningún lugar se
aplica con mayor claridad y rotundidad que en la atención que se brinda en la
salud pública, de la que constituye uno de sus principios básicos. La admisión
en un hospital debe estar abierta a todo paciente que lo necesite,
independiente si es judío o ateo. Si alguien solicita la admisión, el único
criterio debe ser si está enfermo y qué circunstancias justifican su admisión
en un hospital. Hasta ahora, sin embargo, era lo contrario: la primera pregunta
era si la persona podía pagar o si alguna otra persona era responsable de pagar
por él».
La frase «para cada uno según sus necesidades» es, como se sabe, de Karl
Marx, que la utilizó en su Crítica del Programa de Gotha (expuesta
en una carta a W. Bracke, del 5 de mayo de 1875). No es que Virchow fuese
marxista sino, simplemente, que la política formaba parte de sus intereses y
preocupaciones. De hecho, para él política y ciencia estaban unidas
íntimamente, reforzándose mutuamente sus opiniones políticas y biológicas.
Sostenía que la política debía imitar las lecciones que se extraían de la patología
celular, ciencia que demostraba que el cuerpo era un estado libre de individuos
iguales, una federación de células, un estado celular democrático, una sociedad
formada por iguales, mientras que una sociedad no democrática, oligárquica de
tejidos, conducía a un estado patológico, de todo lo cual extraía la conclusión
que las sociedades humanas debían imitar a las celulares adoptando patrones
democráticos. Continuamente establecía paralelismos entre los fenómenos
políticos y biológicos. Visto retrospectivamente, lo menos que se puede decir
de él es que era ingenuo, pero si lo consideramos desde el punto de vista,
sincrónico, de la situación e ideas de su tiempo, la imagen que se obtiene de
él es la de un científico comprometido con su época, una época plena de
injusticias, algunas de las cuales —especialmente en el ámbito de la salud
pública— podían ya ser resueltas gracias al progreso científico. No fue el
único médico de su tiempo es interesarse seriamente por la política, aunque
seguramente sí uno de los pocos que no abandonó durante toda su vida estos
intereses. Fue, en este sentido, coherente con lo que entendía era la medicina:
«Si la medicina pretende cumplir su gran fin —escribió en cierta ocasión—,
entonces debe entrar en la política y en la vida social».
Recordaré finalmente otro de estos artículos del Medizinische
Reform (número 18, 3 de noviembre de 1848), esta vez sobre «los
médicos de la caridad». En él, Virchow entraba aún más de lleno en el terreno
de la política:
El cuidado de la salud para los indigentes o, en otras palabras, el
tratamiento médico de los pacientes pobres, tal y como se ha practicado hasta
ahora implica dos grandes errores: uno contra los pacientes y el otro contra el
médico.
El indigente estaba obligado a aceptar el tratamiento por parte de ciertos
médicos que se le asignaban desde arriba y no tenían otra opción que bien
permanecer sin recibir tratamiento o consultar con el médico aprobado por las
autoridades. El médico, debido a una ilimitada competición, estaba obligado a
aceptar una posición que le impedía recibir un pago conmensurado con sus
esfuerzos.
Y a pesar de todo, los pacientes que tenían a su disposición tales médicos
asignados y los médicos que habían sido capaces de obtener tal poco grata
posición tenían que estar agradecidos, ya que existían amplias zonas de
territorio en el que los pacientes buscaban en vano un médico y numerosos
médicos agotados por años de vana lucha contra el nepotismo de todo tipo en su
fútil busca de incluso un puesto tan mendicante.
Estas condiciones conducían inevitablemente al resentimiento tanto de los
pobres como de los médicos; ambos se fueron convenciendo gradualmente de que
eran víctimas de falsos principios sociales.
De esta manera, la sociedad creó sus propios enemigos. El proletariado
se hizo día a día más inquieto; ideas equivocadas del bienestar público y de la
dignidad humana comenzaron a afincarse en ellos y fueron explotados para
favorecer una agitación en una escala cada vez mayor, una agitación que amenaza
la civilización europea. Pero ¿quién se sorprenderá de que la democracia y el
socialismo no encuentren en ninguna parte más seguidores que entre los médicos,
o que, en la extrema izquierda, sean los médicos los que con frecuencia
encabecen el movimiento? La medicina es una ciencia social y la política nada
más que medicina en gran escala.
§. La asistencia médica
El siglo XIX, tan prolijo en avances médicos, hizo honor también a las
preocupaciones que manifestaba Virchow, las de hacer que la medicina llegase a
cuantos más mejor y en las condiciones más óptimas posibles. Fue en Alemania,
en la nación de Virchow, donde se introdujo el primer sistema moderno de
seguridad social. El responsable fue un político cuyo nombre no falta en
ninguno de los textos que se ocupan de la historia europea del siglo XIX: el
canciller prusiano Otto von Bismarck (1815-1898).
En 1884, Bismarck consiguió que el Parlamento alemán (recordemos que
Alemania, hasta entonces un conglomerado de estados, se unificó en 1871)
aprobase una serie de leyes —menos ambiciosas que las que él deseaba— bajo las
cuales se estableció el primer sistema moderno de seguridad social. Antes lo
que existía eran «asociaciones obreras de socorros mutuos», organizadas sobre
una inscripción voluntaria. Tales sociedades tenían antecedentes en las friendly
societies (literalmente, «sociedades de amigos») inglesas, que habían
comenzado a aparecer en el siglo XVIII y que se extendieron a otros países,
España entre ellos, en el siglo XIX. Esas «sociedades de amigos» eran
asociaciones vinculadas habitualmente a corporaciones gremiales que tomaban
medidas para ayudar a sus miembros en caso de necesidad. En 1801 existían más
de siete mil en Inglaterra y Gales, con un total de cerca de setecientos mil
miembros, un número que en 1874 había ascendido a, aproximadamente, cuatro
millones
En Alemania, la pertenencia a las asociaciones de socorros mutuos se
hizo obligatoria en Prusia —el principal estado de lo que sería la nación
alemana— para los obreros, bajo la denominación de krankenkassen («cajas
de enfermos»), en 1854: las cuotas de pertenencia se deducían porcentualmente
de los salarios, añadiendo los patronos una cantidad equivalente. Y la
iniciativa se copió en otros estados.
Lo que hizo Bismarck fue conservar las krankenkassen, pero
reservando al estado su supervisión y extendiendo la obligatoriedad de
pertenecer a alguna de ellas. Estableció, además, un subsidio estatal
equivalente al 25 por ciento de los gastos. Básicamente, este sistema se
mantendría en Alemania hasta la actualidad.
En España, la asistencia médica tuvo muchas limitaciones durante el
siglo XIX, reinando todavía la beneficencia (véase, en este sentido, el texto
que reproduzco de Concepción Arenal). Aunque en 1883 se estableció una Comisión
de Reformas Sociales, encargada de estudiar la mejora de la asistencia a los
obreros, no fue hasta 1900 cuando se creó el primer seguro social, una ley de
accidentes de trabajo.
Es por esto por lo que se puede considerar que 1900 es el año en el que
comienza la historia de la Seguridad Social en España. Un lustro más tarde,
1905, se fundó el Instituto de Reformas Sociales y, en 1908, el Instituto
Nacional de Previsión; en 1919, el Retiro Obrero y, en 1929, el Seguro de
Maternidad.
Concepción Arenal y la asistencia hospitalaria en España en el siglo XIX
Pocas personas, si es que alguna, igualaron en España a la escritora y
activista social gallega Concepción Arenal (1820-1893) en lo que se refiere a
preocupación por la situación de la asistencia social en el siglo XIX. Muestra
de ello es el libro La beneficencia, la filantropía y la caridad (1861),
obra premiada por la Academia de Ciencias Morales y Políticas, en la que
explicaba algunos aspectos de la situación en que se encontraban los enfermos
dentro de los hospitales, y del que he extraído un pasaje pertinente. Merece la
pena recordar antes que en 1863 Arenal se convirtió en la primera mujer que
recibió el título de visitadora de cárceles de mujeres, cargo que ostentó hasta
1865. En 1868, fue nombrada inspectora de casas de corrección de mujeres.
Salvas algunas excepciones, debidas a individuales esfuerzos, el estado
de nuestros establecimientos de Beneficencia deja mucho que desear. Ni el
local, ni las camas, ni la alimentación, ni el vestido son los que ser
debieran.
Los locales, obra del acaso las más de las veces, o de la ignorancia, no suelen
tener ninguna de las condiciones que la higiene prescribe, sobre todo cuando se
trata de la fatal aglomeración de personas que en ellos se verifica.
Las camas no suelen tener ni la limpieza ni la comodidad y extensión que
debieran; tampoco suelen estar aisladas entre sí, de modo que el enfermo
presencia escenas de agonía y de muerte que deben agravar su estado.
El alimento, en la mayor parte de los casos, ni es de buena calidad, ni está
preparado con el debido esmero; tanto, que a veces se resiste al hambre más
voraz. A lo primero contribuye mucho el fatal sistema de abastecer los
establecimientos benéficos por medio de contratas, cuyas condiciones no suelen
cumplirse con exactitud; lo segundo es consecuencia de la falta de vigilancia y
de que son muchos los establecimientos que no están asistidos por las Hijas de
la Caridad.
Si el enfermo entra en convalecencia, su suerte es poco menos triste que cuando
estaba en la cama. La falta de locales separados para los convalecientes es uno
de los grandes males que hay que deplorar, A ella se deben esas convalecencias,
larga y penosa prolongación de la enfermedad; las recaídas y el lastimoso
estado en que dejan el hospital los pobres que no tienen otro recurso que su trabajo.
Si se pregunta a los que salen de los hospitales mejor asistidos, es frecuente
oírles decir: «Las medicinas, bien, pero los alimentos, mal…».
La ración que se da en la mayor parte de los hospitales al convaleciente es
escasa y de mala calidad; esta circunstancia retarda el restablecimiento y
muchas veces predispone para la recaída, como lo hemos visto más de una vez.
§. Especialidades médicas
El establecimiento de modernos hospitales, más el gran desarrollo que
experimentó a partir del siglo XIX la medicina, sin olvidar el efecto de la
creación de sistemas de seguridad social que llegaban a prácticamente todas las
capas de la sociedad, tuvo efectos muy variados y, por supuesto, beneficiosos.
Uno de ellos fue el establecer en base firme el «especialismo médico» o,
expresado de la forma más habitual, las especialidades médicas.
El otorrinolaringólogo
Evidentemente, esas especialidades no aparecieron entonces: sin ir más
lejos, la anatomía humana, los tipos de alteraciones o de enfermedades que
pueden afectar a cuerpo humano, son tan diversos que, inevitablemente,
terminaron apareciendo «especialistas», esto es, la medicina se dividió en
«especialidades»; durante el Renacimiento, por ejemplo, surgieron dos
especialidades quirúrgicas: la obstetricia y la oftalmología.
La primera —tan antigua como la humanidad, no en vano se ocupa de lo que
hace posible la continuación de la especie: ayudar a traer nuevos seres al
mundo— estuvo en manos de comadronas y cirujanos hasta el siglo XVII. Y aunque
no fuesen universitarios los especialistas, ello no impidió que se introdujeran
importantes novedades: como la invención del fórceps, o la introducción de las
cesáreas, reacción ante la observación de las estrecheces pélvicas.
El dermatólogo
Representativo de la fuerza con que surgió el especialismo moderno, es
lo que escribió en 1841 el médico alemán Carl August Wunderlich (1815-1877),
que se distinguió sobre todo por sus contribuciones a la termometría moderna:
El especialismo es en Francia un hecho peculiar, que también aparece en
Alemania, aunque sólo de forma restringida. Antes únicamente había dentistas,
oculistas y hernistas, que ocupaban una posición marginal y eran mal
considerados. Ahora la especialidad da prestigio y es una condición necesaria
para los que quieren enriquecerse pronto y ser célebres. Significa dinero y
fama. Pensar en una especialidad es la principal preocupación del joven médico
parisino, llamarse «especialista» ha llegado a ser motivo de orgullo. Cada
órgano tiene su sacerdote propio y se han instalado clínicas independientes y
especializadas.
Como apunté, el especialismo no puede separarse del extraordinario
avance que se ha producido en la medicina desde finales del siglo XIX. La
especialización es, entre otras cosas, una respuesta más o menos pasiva,
inevitable, al crecimiento cuantitativo y cualitativo del conocimiento médico.
Un magnífico ejemplo en este sentido es el de la cardiología.
Esta especialidad fue creada por un reducido grupo de clínicos (médicos
que tratan y diagnostican a los pacientes; la clínica —del
griego kliní, «lecho» o «cama»— es el diagnóstico realizado al pie
de la cama del enfermo a través del relato de su sintomatología y de los signos
obtenidos en la exploración física) que desarrollaron nuevos conceptos sobre
las enfermedades cardíacas.
El dentista
Hacia 1900, estas enfermedades se consideraban únicamente en términos de
defectos en la estructura del corazón, como, por ejemplo, válvulas deformes. En
consecuencia, tanto el corazón como el pecho se investigaban con métodos
similares: auscultando (con un estetoscopio, del que ya hablé), dando golpes en
el pecho (percusión) y, crecientemente, con radiografías que podían mostrar
cambios en la disposición de las partes. Consecuentemente, los médicos que se
ocupaban de los trastornos cardíacos no eran especialistas sino generalistas.
El puericultor
Poco a poco, durante las primeras décadas del siglo XX, la situación
cambió, gracias sobre todo a las investigaciones de un pequeño grupo de
clínicos, con frecuencia con conexiones con la universidad, que redefinieron el
concepto del corazón y de sus enfermedades, utilizando para ello los resultados
obtenidos en laboratorios de fisiología experimental, no analizando los
cadáveres en las salas post mórtem de los hospitales. Los músculos del corazón,
explicaron estos médicos, tienen sus propias características, en base a las
cuales, y no sólo considerando su estructura, se puede comprender su
funcionamiento normal o anormal.
Para profundizar, fue necesario —casi siempre lo es— desarrollar nuevos
instrumentos, como el electrocardiógrafo (que ya introduje en el capítulo 6) y
el electrocardiograma, modificación de otros ya utilizados en los laboratorios
de fisiología. Así surgió la cardiología como especialidad (algo parecido se
puede decir de la aparición de nuevas especialidades, por ejemplo, la gastroenterología,
que se ocupa de las enfermedades del aparato digestivo).
§. El sistema celular nervioso: Santiago Ramón y Cajal y la neurona
Antes de cerrar el presente capítulo voy a volver a la célula, con la que lo
comencé. Un avance de extraordinaria importancia realizado dentro del ámbito de
la teoría celular fue la identifica c ión de la neurona como unidad, como el
tipo de célula, del sistema nervioso, logro debido a Santiago Ramón y Cajal
(1852-1934), el científico de talla más universal que ha producido hasta la
fecha España, un auténtico gigante de la ciencia de todos los tiempos. Y no es
éste un juicio chauvinista. En una carta que escribió a Cajal el 23 de marzo de
1921, Cornelius Ubbo Ariëns Kappers, director del Instituto de Neurología de la
Real Academia Holandesa de Ciencias y catedrático de Neuroanatomía Comparada de
la Universidad de Ámsterdam, expresaba con nitidez lo que sus contemporáneos
pensaban de él:
Le estoy agradecido … por haberme enviado la admirable colección de sus
Trabajos.
No, no me falta ningún volumen y estoy muy orgulloso de que mi Instituto los
haya recibido de usted mismo, el más grande neurólogo que ha existido y que
probablemente jamás existirá.
Cuando se repasa la Patología celular de Virchow, se
encuentra, por supuesto, un capítulo (el XII) dedicado al sistema nervioso,
pero el detalle de su estructura se le escapó, como a tantos otros, al patólogo
de Berlín. Mejor suerte tuvo Cajal, tan genial como tenaz, que nos aportó el que
todavía es modelo vigente de la estructura del sistema nervioso y los
mecanismos básicos de su funcionamiento; en concreto la identificación de la
neurona, la célula nerviosa que transmite informa c ión rápidamente entre partes
diferentes del cerebro (estrictamente, una neurona consiste de un cuerpo
celular con el núcleo y prolongaciones llamadas dentritas que reciben los
mensajes; una extensión de la célula, el axón, conecta una célula a las
dentritas de otra; cuando una neurona es estimulada, ondas de iones de sodio y
de potasio transportan un impulso eléctrico a través del axón).
Fue Cajal un hombre extraordinario, que buscó siempre elevarse por
encima de las miserias y limitaciones que lo rodearon. «Estoy asqueado de la
vida vulgar. Me devora la sed insaciable de libertad y de emociones novísimas»,
manifestaba —lo recordó en el capítulo XXII de la primera parte de su
autobiografía (Mi infancia y juventud, 1901)— a uno de sus compañeros de
la carrera de medicina dos años antes de convertir se en médico militar en Cuba
(ingresó en el Cuerpo de Sanidad Militar el 31 de agosto de 1873).
Santiago Ramón y Cajal
Una frase ésta que ayuda a comprender lo que fue su vida; sus aventuras
de niño, su constante rebelión ante los deseos e imposiciones paternas, la
vehemencia con la que se dedicó, en algunas épocas de su vida, a la gimnasia, a
la pintura, al ajedrez o a la fotografía. Y, por supuesto, a la investigación
científica, fuente permanente —si se dispone de la energía y originalidad
suficientes— de novedad, de «emociones novísimas». En pocos lugares, en pocas
profesiones y actividades que no fueran la ciencia, si es que en alguna, podría
haber encontrado Cajal, en la España que le tocó vivir, la oportunidad de
satisfacer su ansia de nuevas emociones.
Pero el genio necesita hacerse, disponer de una serie de elementos. Así,
es muy difícil, si no imposible, abrirse camino sin algún maestro, por modesto
que éste sea. En el caso de Cajal, esos maestros fueron Aureliano Maestre de
San Juan (1828-1890), que le inició en los estudios micrográficos, y Luis
Simarro (1851-1921), que le enseñó el método de la impregnación
cromo-argéntica, necesario para distinguir las neuronas de su entorno
biológico. El que existiesen esos maestros, el que hubiese una tradición en una
nación científicamente subdesarrollada como lo era entonces España, tiene que
ver con la naturaleza de las ciencias biomédicas: un país puede vivir —mal— al
margen de la física, de la matemática o la química, pero no de la medicina.
Asimismo, en una ciencia experimental como es la medicina, se necesitan
—ya nos ha aparecido más de una vez este punto— instrumentos. En el caso de la
estructura celular, microscopios poderosos, para intentar ver lo que otros no
habían visto. Cajal fue pronto consciente de este problema: en una carta que
escribió el 1 de enero de 1885 al jesuita Antonio Vicente Dolz, uno de sus
primeros discípulos en Valencia, que entonces se encontraba en Lovaina,
ampliando estudios junto al citólogo Baptiste Carnoy, se refería al problema,
que era también uno de los grandes problemas de la ciencia española:
¡Ah! ¿Quién tuviera esos magníficos objetivos a que Flemming,
Strasburger y Carnoy deben sus descubrimientos! ¿Quién pudiera poseer un
Seibert 1/6 o un Zeiss 1/18? Aquí desgraciadamente las facultades no tienen
material y, aunque yo me empeñara en pedir uno de esos objetivos, no me lo
permitiría el decano por falta de fondos. Mucho envidio más aún esa riqueza de
medios técnicos de que ustedes gozan, con la que se hace cuanto se quiere. Yo
tengo que resignarme con un objetivo 8 de inmersión Verick y éste gracias a que
es de mi propiedad [se lo había comprado en 1877], que por la facultad no
tendría más que un 5 o 6 Nachet.
Aquel mismo año, Cajal se libró de semejante desventaja, ya que la
Diputación de Zaragoza le regaló un Zeiss por el informe que preparó sobre la
epidemia de cólera y la vacunación de Jaime Ferrán. En Historia de mi
labor científica, la segunda parte de su autobiografía, escribió:
Al recibir aquel impensado obsequio, no cabía en mí de satisfacción y
alegría, gracias a tan espiritual agasajo, la culta corporación aragonesa
cooperó eficacísimamente a mi futura labor científica, pues me equiparó
técnicamente con los micrógrafos extranjeros mejor instalados, permitiéndome
abordar, sin recelos y con la debida eficiencia, los delicados problemas de la
estructura de las células y del mecanismo de su multiplicación.
El mismo hecho que dio origen a aquel regalo, es propicio para otra
consideración. La de que Cajal, el científico hispano por antonomasia, el
descubridor de nuevos mundos naturales, en principio alejados de las
aplicaciones prácticas, no fue ajeno al mundo más cotidiano, aquel mundo en el
que se mueven, nos movemos, los humanos. Cuando pudo o se le requirió, puso su
saber científico a disposición de aquel mundo. Por otra parte, está claro que
los instrumentos no hablan por sí solos: el científico es algo más que el
notario de un instrumento. Sin olvidar que, como dijo un filósofo: «Hay más de
lo que ve el ojo». Aplicado esto al caso de los descubrimientos, quiere decir
que no eran tan fáciles de «ver» por otros y, en consecuencia, de aceptar, por
mucho que su entrada oficial en el mundo científico internacional viniese de la
mano del gran Rudolf Albert von Kölliker (1817-1905), catedrático de Anatomía
Humana y director de los Instituto Anatómicos de la Universidad de Wurzburgo,
quien reconoció el valor de los trabajos cajalianos en el Congreso Anatómico
celebrado en Berlín en octubre de 1889.
El propio Cajal se daba perfecta cuenta de la dificultad asociada a sus
trabajos (por eso eran tan importantes y novedosos). A Gustaf Retzius
(1842-1919), el eminente investigador sueco, que renunció a la cátedra de
Anatomía del Karolinska Institutet para dedicarse exclusivamente a la
investigación, le confesaba el 28 de enero de 1900:
La estructura cerebral humana es de una complicación enorme, mucho más
grande de lo que el examen del cerebro de los mamíferos nos había hecho
presumir. Y lo más grave de todo es que el cerebro adulto no permite teñir
ninguna arborización nerviosa terminal (el cromato de plata o el método de Cox
sólo impregnan dentritas y axones, no ramas nerviosas terminales). Aun en el
niño de un mes es raro hallar arborizaciones procedentes de fibras de la
sustancia blanca. No hay, pues, más remedio que combinar los resultados
obtenidos en fetos (donde se ven particularmente los plexos sensoriales) con
los logrados en el niño y en el adulto, aunque se corre el riesgo de tomar por
definitivas no pocas disposiciones que deben cambiar mucho con la salud.
§. Proyecto del Mapa de la Actividad Cerebral
Uno de los grandes retos pendientes para la ciencia es el de comprender cómo
funciona el cerebro, qué son los pensamientos, cómo tenemos consciencia de
nosotros mismos, esto es, cómo es posible que un órgano, el cerebro, tenga
conciencia de sí mismo. Por supuesto, se ha avanzado bastante en el
conocimiento del funcionamiento del cerebro: ya sabemos mucho sobre qué
regiones de él se activan cuando realizamos una u otra actividad, desde las
musicales, a las lectoras, pasando por las matemáticas, emotivas y un sinnúmero
de otras, pero entender el cerebro y sus productos, el pensamiento, de manera
global es algo que aún no hemos conseguido. Es ésta una tarea especialmente
complicada, ya que un cerebro típico contiene unos cien mil millones de
neuronas, cada una de las cuales puede establecer cerca de mil conexiones con
otras neuronas, lo que significa un total de cien billones de conexiones
posibles.
Recientemente, se ha dado un paso importante para intentar alcanzar esa
meta. Lo anunció el presidente de Estados Unidos, Barack Obama, durante el
discurso del estado de la Unión que pronunció el 12 de febrero de 2013. Hizo
público entonces la próxima puesta en marcha de un proyecto para establecer un
mapa de la actividad cerebral (Brain Activity Map Project), con el
propósito de estudiar todas las señales enviadas por las neuronas y determinar
cómo los flujos producidos por esas señales a través de redes neuronales se
convierten en pensamientos, sentimientos y acciones. Al defender el proyecto,
que presentó de forma oficial en abril del mismo año, Obama hizo hincapié en
que con este proyecto se espera abrir el camino para desarrollar tecnologías
esenciales que permitan comprender enfermedades como el alzheimer y el
párkinson, al igual que para encontrar nuevas terapias para diversas
enfermedades mentales. Además, señaló, «el proyecto alberga el potencial de
ayudar en el avance de la inteligencia artificial».
En el plano científico, el llamamiento a favor de semejante proyecto
apareció en 2012 en la revista Neuron, en un artículo titulado «El
Proyecto del Mapa de la Actividad Cerebral y el desafío de la conectómica
funcional» y firmado por seis científicos: A. Paul Alivisatos, Miyoung Chun,
George M. Church, Ralph J. Greenspan, Michael L. Roukes y Rafael Yuste, que es
quien más ha impulsado la idea. Una simple mirada a los lugares de trabajo de
estos autores revela lo interdisciplinar del proyecto: División de Ciencia de
Materiales y Departamento de Química de Berkeley (Alivisatos), Departamento de
Genética de Harvard (Church), Instituto Kavli del Cerebro y de la Mente
(Greenspan), Instituto Kevin de Nanociencia y Departamento de Física del
California Institute of Technology (Roukes) y Departamento de Ciencias
Biológicas de Columbia (Yuste).
Este proyecto, que sigue la pauta de otro, el Proyecto Genoma Humano,
del que trataré en el capítulo 16, durará años y aunque las cosas le vayan mal,
los resultados que se obtengan de él marcarán una época, y de él sin duda se
derivarán importantes beneficios para la medicina, en particular para combatir
males como los citados alzheimer y párkinson, verdaderas plagas que asolan
crecientemente a la humanidad, como consecuencia de la ampliación de la
esperanza de vida.
Capítulo 9
Anestesia y asepsia
§. La anestesia
Aportaciones como las de la fisiología decimonónica o las de Pasteur, Koch,
Virchow o Cajal, dieron lugar a una imagen más correcta del cuerpo humano, de
la vida, en general, pero el siglo XIX debe ser recordado también por otro tipo
de avances, extremadamente importantes.
Por una parte, están los logros realizados en la mejora de la salud
pública, muchos de los cuales se debieron a reformas en las condiciones de vida
(como el control de la calidad del agua y los alimentos, sistemas de
alcantarillado o limpieza de letrinas, calles y acequias). Sin embargo, otros
se produjeron dentro de la propia medicina, pero de la «medicina no
científica», podríamos decir.
Fueron avances como los llevados a cabo por el dentista estadounidense
Horace Wells (1815-1848), que en diciembre de 1844 utilizó éter, esto es, óxido
nitroso (entonces denominado «gas hilarante», por los efectos estimulantes que
producía), como anestésico para extraerse él mismo una de sus muelas, o el
debido a John Collins Warren (1778-1856), ayudado como anestesista por el
dentista William Thomas Morton (1819-1868), que el 16 de octubre de 1846, en el
Hospital General de Massachusetts de Boston, realizó la primera operación con
éter, tras la cual pronunció una frase célebre: «Señores, esto no es
superchería».
En un libro que publicó en 1850, On the Physiological Effects of
Sulphuric Ether, and its Superiority to Chloroform («Sobre los efectos
fisiológicos del éter sulfúrico, y su superioridad con respecto al
cloroformo»), Morton relató sus experiencias. Merece la pena citar algo de lo
que escribió allí:
Hace ahora casi cuatro años de la primera demostración, realizada por
mí, de que la inhalación de éter sulfúrico posee la notable propiedad de
eliminar el dolor durante las operaciones quirúrgicas y odontológicas y de que
se realiza sin ningún riesgo para la vida. El empleo de este agente ha de ser
considerado en la actualidad como un preliminar obligado en todas las
operaciones o estados orgánicos en los que el dolor constituye un elemento
importante. Después de realizar el primer experimento en mí mismo a mediados de
septiembre de 1846, esperaba con impaciencia algún enfermo con el que poder
hacer un ensayo más amplio. Una tarde vino un hombre, residente en Boston y
cuyo certificado conservo, que padecía un gran dolor y deseaba que le
practicara una extracción dentaria. Tenía mucho miedo a la operación y me
preguntó si podía ser mesmerizado [hipnotizado]. Le dije que tenía algo mejor
y, empapado mi pañuelo, se lo di a inhalar. Quedó inconsciente casi de
inmediato. Estaba oscuro y el Dr. Hayden mantuvo una lámpara mientras yo le
extraía una muela bicúspide firmemente arraigada. El pulso se alteró
ligeramente y no hubo relajación muscular. El paciente se recobró en un minuto
sin saber nada de lo que se le había hecho. Sucedió esto el 30 de septiembre de
1846 y lo considero la primera demostración científica del nuevo hecho.
No mucho tiempo después, el 19 de enero de 1847, el doctor James Young
Simpson (1811-1870) utilizó, en Edimburgo, por primera vez cloroformo para
aliviar los dolores de un parto. Un año después, Ignaz Semmelweis (1818-1865)
descubrió una de las causas de infección de heridas en la suciedad de las manos
de los médicos, introduciendo medidas antisépticas (como el lavado de manos).
§. Asepsia
Todo esto estuvo muy bien, fue, de hecho, una bendición. Pero no era
suficiente: las muertes en los quirófanos continuaban proliferando y esto
ocurría porque se desconocía a qué se debían las consecuencias beneficiosas de
aquellas medidas antisépticas. Persistía un grave problema tanto sanitario como
científico. Y es que ni la ciencia puede avanzar de forma permanente
—seguramente, a partir de un cierto estadio, ni siquiera durante demasiado
tiempo— mediante el simple procedimiento de «prueba y error», como si los
objetos de su interés fuesen misteriosas cajas negras, ni la medicina progresa
realmente en manos de entusiastas y aventureros desprovistos de conocimientos
científicos, ajenos a la medicina como ciencia experimental que defendía Bernard.
Y en este punto es obligado referirse al médico inglés Joseph Lister
(1827-1912).
Conocedor de los estudios que Pasteur llevó a cabo durante la primera
mitad de la década de 1860 sobre la fermentación y de su descubrimiento de que
el aire puede transportar bacterias que producen infecciones en heridas, pero
no disponibles todavía los de Koch sobre el papel de las bacterias como fuente
de infección en las heridas, Lister convirtió la gangrena de los miembros en el
primer ejemplo de fermentación patológica en el hombre, estableciendo así un
vínculo entre la putrefacción de la carne necrosada y los gérmenes externos
descubiertos por el francés. Provisto de ese poderoso y liberador instrumento
que es siempre el conocimiento, Lister encontró un eficaz remedio contra la
gangrena: experimentó con éxito con ácido fénico, pulverizándolo en la sala de
operaciones y aplicando curas de pomada fenicada, con el fin de destruir los
microorganismos que infectaban el campo operatorio (su primer gran logro tuvo
lugar en agosto de 1865, en la operación de una fractura compuesta). Poco
después, en 1866, Ernst von Bergmann (1836-1907) empleó por primera vez la
técnica de Lister, esterilizando por vapor los guantes y ropas del cirujano al
igual que de las de sus ayudantes e instrumentos empleados.
El dominio de Lister fue sobre todo el hospital, y no el del laboratorio
científico propiamente dicho (sus aportaciones a la naturaleza de los procesos
contagiosos no fueron, desde el punto de vista de la ciencia básica —en la
medida en que tenga sentido aquí este término—, grandes). Aun así, cuando se
leen algunos de sus escritos, queda claro que el lenguaje, preocupaciones y
estudios de Lister distan de los procedimientos seguidos por los Wells, Morton,
Simpson y compañía. «En el curso de una amplia investigación acerca de la
inflamación y de los estados normales y patológicos de la sangre con ella
relacionados —podemos leer justo al comienzo de uno de esos escritos (On the
Antiseptic Principle of the Practice of Surgery [«Sobre el principio
antiséptico de la práctica de la cirugía»], 1867)—, llegué, hace varios años, a
la conclusión de que la causa fundamental de la supuración de las heridas es la
descomposición producida por la influencia de la atmósfera en la sangre o suero
que retiene, y en el caso de las heridas contusas, en las porciones de tejido
destruidas por la agresión.» Y más adelante, en una frase que difícilmente
habría sido escrita antes de que se hubiesen desarrollado las técnicas de
análisis microscópico y las ideas que surgieron de ellas: «El primer objetivo
del tratamiento ha de ser la destrucción de todos los gérmenes sépticos que
hayan podido penetrar en la herida, tanto en el momento del accidente como
durante el tiempo transcurrido desde entonces».
Pero, fuesen o no importantes sus aportaciones, le consideremos o no un
científico, sería imposible minimizar su contribución, al igual de sus
precursores que he mencionado. Baste recordar que antes de ellos, entrar en un
quirófano era en un importante porcentaje de casos casi despedirse de la vida.
Tras aquellos pioneros, dentistas o cirujanos, la mortalidad operatoria, que
antes de ellos se cifraba en torno al 50 por ciento, descendió a un 6 por
ciento, mucho para nuestros estándares actuales, prácticamente nada para lo que
nuestros antepasados estaban acostumbrados, sin olvidar que los que sobrevivían
habían tenido que soportar horribles carnicerías, con dolores terribles, a las
que los anestésicos pusieron también fin.
Capítulo 10
Física y medicina
En el capítulo 7, a propósito de la fisiología decimonónica,
especialmente de Hermann von Helmholtz, nos apareció la cuestión de la relación
entre medicina y física, una conexión no sorprendente ya que la medicina —que
es ciencia, técnica y arte— es una disciplina plural, que necesita el recurso
de otras materias. En este capítulo me ocuparé de algunas de esas relaciones,
una de ellas, los rayos X, particularmente importante, en tanto que abrió
posibilidades antes inimaginadas a la medicina: la de observar el interior del
cuerpo humano sin actuar sobre él mediante incisiones.
§. Galvani, Volta y la pila eléctrica
Un momento de importancia transcendental en la historia tanto en el campo de la
electricidad como del magnetismo, aunque aparentemente se pensó que afectaba
sólo al primero, se produjo en 1800, cuando el físico italiano Alessandro Volta
(1747-1827) presentó un aparato que producía corriente eléctrica de manera
continua y no mediante descargas como con la botella de Leiden o con las
máquinas electrostáticas propias del siglo XVIII. Pero antes de hablar de
Volta, es preciso hacerlo de otro científico, no de un físico sino de un médico
—por eso trato de esta cuestión—, Luigi Galvani (1737-1798).
Galvani desarrolló la mayor parte de su carrera ejerciendo de profesor
de Anatomía en la Universidad de Bolonia, la misma donde había estudiado. Si su
nombre ha pasado a los anales de la historia de la ciencia, incluso a los del
lenguaje común a través del, ya apenas utilizado, término galvanismo,
es gracias a unos experimentos sobre contracciones musculares que realizó
utilizando ranas. No fue él, sin embargo, el primero que se interesó por el
tema de las contracciones musculares: con anterioridad la introducción de la
botella de Leiden produjo descargas eléctricas más poderosas que facilitaron
demostraciones —entretenimientos en los salones ilustrados con frecuencia— en
las que esas descargas se empleaban precisamente para producir contracciones
musculares. De hecho, siete años antes de que Galvani publicase el libro en el
que presentó sus resultados, esto es, en 1784, un autor de la revista Journal
de Médecine afirmaba que la estimulación eléctrica de nervios y
músculos era «demasiado conocida como para dar cuenta de ella aquí».
En 1786, mientras estudiaba la influencia de la electricidad en la
irritabilidad de los nervios de animales, Galvani observó que cuando los
nervios lumbares de una rana muerta se comunicaban con los músculos crurales
por medio de un circuito metálico, éstos se contraían violentamente. Sabedor al
menos desde 1780 de que la electricidad de las máquinas eléctricas producía
conmociones análogas sobre ranas muertas, Galvani atribuyó el fenómeno que
observó en 1786 a la existencia de una electricidad inherente a la vida,
una electricidad animal que en su opinión era «producida por
la actividad del cerebro, y extraída muy probablemente de la sangre» y
transmitida a los músculos a través de un fluido eléctrico, como manifestó en
un libro (escrito en latín y publicado en 1791) en el que Galvani dio a conocer
sus resultados y propuestas: Viribus electricitatis in motu musculari («Comentario
sobre los efectos de la electricidad en el movimiento muscular»).
Volta y la pila eléctrica
Las tesis de Galvani fueron criticadas por Volta, un profesor de Física
de la Universidad de Pavía, que advirtió que las contracciones musculares eran
más mucho más enérgicas cuando el vínculo entre las dos partes de la rana
estaba formado por dos metales unidos. Dedujo, en consecuencia, que la
electricidad se producía en el contacto entre ambos metales y que las partes
animales no desempeñaban más papel que el de conductores, sirviendo al mismo
tiempo como detectores de electricidad, una especie de electroscopios, muy
sensibles.
En base a esta idea, Volta construyó un «generador de electricidad»
completamente diferente a la botella de Leiden; se componía de una serie de
discos apilados unos sobre otros en el orden siguiente: un disco de cobre, otro
de zinc, una rodaja de paño empapada en agua acidulada, luego un disco de
cobre, otro de zinc, una nueva rodaja de paño y así sucesivamente en el mismo
orden, cuidando de sostener los discos mediante tres cilindros aislantes de
vidrio. Se trataba de un instrumento revolucionario, ya que producía corriente
eléctrica de manera continua, no mediante descargas, y ello abría de par en par
las puertas al estudio de los fenómenos eléctricos. En más de un sentido se
puede y debe decir que la ciencia del siglo XIX, uno de cuyos pivotes fue la física
de la electricidad y el magnetismo, comenzó —o se hizo posible— con la batería
de Volta, el primer generador electroquímico. Sin la pila (o batería) de Volta,
el danés Hans Christian Oersted (1777-1851) no habría descubierto en 1820 que
la electricidad afecta al magnetismo, abriendo así el camino que seguirían,
entre otros, Michael Faraday (1791-1867) y James Clerk Maxwell (1831-1879),
para producir la electrodinámica, que mostraba la profunda unidad entre
electricidad y magnetismo. Gracias a semejantes aportaciones, fue posible
establecer comunicaciones electromagnéticas entre cualquier punto de la Tierra,
además de desarrollar todo tipo de nuevas tecnologías. El mundo, en definitiva,
cambió.
§. Los rayos X
Los rayos X fueron observados por primera vez el 8 de noviembre de 1895 por un
físico alemán, Wilhelm Konrad Röntgen (1845-1923). Fue mientras ocupaba la
cátedra de Física Experimental de la Universidad de Wurzburgo cuando logró
pasar a la historia. En el curso de investigaciones que estaba realizando sobre
un tipo de radiación llamada «rayos catódicos», el 8 de noviembre de 1895
Röntgen encontró una nueva —y misteriosa, pues podía atravesar cuerpos opacos—
radiación, a la que bautizó como «rayos X», ya que ignoraba su naturaleza. El
28 de diciembre presentaba el manuscrito de la primera de las tres
comunicaciones que preparó a la Sociedad Física y Médica de Wurzburgo: «Sobre
un nuevo tipo de rayos».
El 1 de enero de 1896 ya disponía de separatas, que envió, junto a
copias de sus famosas fotografías, en especial, la fotografía de la mano de su
esposa (tomada el 22 de diciembre), a los principales científicos europeos. En
una entrevista que concedió a un periodista, Röntgen dio algunos datos
relacionados con su descubrimiento, que merece la pena reproducir:
Desde hace ya bastante tiempo venía interesándome por los rayos
catódicos, en la forma en que habían sido estudiados por Hertz y especialmente
por Lenard: en un tubo de vacío. Con gran interés había seguido sus
experimentos, así como los de otros físicos y me había propuesto realizar yo
mismo algunos ensayos al respecto en cuanto tuviera tiempo. A fines del mes de
octubre de 1895 lo conseguí. No hacía mucho que había comenzado con mis
ensayos, cuando observé algo nuevo. Trabajaba con un tubo de Hittorf-Crook
envuelto completamente en un papel negro. Sobre la mesa, al lado, estaba
colocado un pedazo de papel indicador de platinocianuro de bario. Hice pasar a
través del tubo una corriente y noté una curiosa línea transversal sobre el
papel…
El efecto era tal que, con arreglo a las ideas de entonces, solamente podía
resultar de la radiación de la luz. Pero era totalmente imposible que la luz
proviniera de la lámpara, puesto que, indudablemente, el papel que la envolvía
no dejaba pasar luz alguna, ni siquiera la de una lámpara de arco.
Habida cuenta de las propiedades de los rayos X, no debería sorprender a
nadie que la nueva radiación atrajese inmediatamente la atención de los
médicos. Tres meses después del descubrimiento de Röntgen, el 7 de febrero de
1896, en Montreal, John Cox realizaba la primera publicación de una aplicación
médica: la localización de una bala en la pierna de un paciente, que no había
podido ser identificada quirúrgicamente. Un año después, en 1897, se fundaba en
Londres una Roentgen Society, con una revista, Transactions of the
Roentgen Society, que en 1904 adoptó el nombre de The Journal of
the Roentgen Society, que en 1928 se integró en una nueva
publicación, The British Journal of Radiology, órgano del Instituto
Británico de Radiología, organización que muestra que el proceso de
institucionalización de estas disciplinas físico-médicas estaba en marcha (en
1963 se creaba la Organización Internacional de Físicos Médicos).
El que se descubriese una radiación que permitía observar el interior de
un cuerpo significó una de las mayores contribuciones de todos los tiempos a la
medicina, pero hubo que perfeccionar la técnica ya que la baja sensibilidad de
las películas fotográficas de que se disponía en los primeros tiempos de la
introducción de los rayos X en medicina hizo que se llegasen a necesitar hasta
más de diez minutos de irradiación. Y para mejorarla se necesitaron
profesionales de otras disciplinas, de físicos e ingenieros especialmente.
Volveré a estas cuestiones en el capítulo 15.
Los rayos X abrieron el reino de las imágenes en la medicina, un reino
que cada vez tuvo más ciudadanos, nacidos en uno de sus feudos, el de la
física. La radiología dental fue una de las primeras disciplinas médicas que
introdujo de manera sistemática los rayos X en sus prácticas. Importante en
este sentido fue el artículo que William Morton leyó el 24 de abril de 1896 en
la Sociedad Odontológica de Nueva York, en el que mostró radiografías en las
que se veían las raíces, rellenos y cámaras dentales, localizándose fácilmente
las infecciones.
Naturalmente, usos específicos de los rayos X imponían condiciones a los
aparatos que los producían, tarea en la que se necesitaban profesionales y
empresas, como Newton & Wright, LT D, de Londres, que producía equipos de
rayos X para usos dentales, utilizando, entre otros, los tubos diseñados por
William Coolidge en los laboratorios de investigación de General Electric en
Schenectady (Nueva York), que dio a conocer en un artículo que publicó en
diciembre de 1913 en Physical Review. De esta manera, la difusión
de la utilización de las técnicas radiológicas condujo también al desarrollo de
la protección radiológica.
Parece que el primer tratamiento de un cáncer que tuvo éxito utilizando
rayos X se llevó a cabo en 1899, cuando una mujer con una lesión cutánea nasal
fue tratada por Thor Stenbeck en Estocolmo. La literatura médica de comienzos
del siglo XX contiene muchas historias clínicas similares de tratamientos que
tuvieron éxito, pero siempre de tumores superficiales. El problema era el
escaso poder de penetración de los haces de rayos X de que se disponía, un
problema que únicamente se podía resolver mediante desarrollos técnicos.
Desarrollos como los generadores electrostáticos construidos en Estados Unidos
a partir de 1928 por Robert van de Graaff. Estos gigantes pronto alcanzaron los
80 kV de potencia y en 1931 se llegó a los 750 kV; por otra parte, utilizando dos
esferas, se podía conseguir una diferencia de potencial de 1,5 MV (1 MV=1.000
kV; 1 kV=1.000 voltios). En 1937 ya existían generadores de Van de Graaff de
cerca de cinco metros de altura, que alcanzaban los cinco millones de voltios
(MV). El primer acelerador de Van de Graaff para usos clínicos (generaba rayos
X de entre 1 y 2 MV) se instaló en 1937 en el Huntington Memorial Hospital de
Boston.
§. La radiactividad y la medicina
Las noticias del descubrimiento de los rayos X circularon con rapidez por todo
el mundo, científico al igual que social. Las evidentes aplicaciones médicas de
la nueva radiación contribuyeron mucho a la popularidad que enseguida
adquirieron (antes de un año algunos hospitales ofrecieron servicios de
radiología). Así, en un libro que publicó en 1911 (The Progress of Physics
During 33 Years, 1875-1908), Arthur Schuster, director del Laboratorio de
Física de la Universidad de Manchester:
Se puede imaginar el interés que suscitó en el mundo científico el
descubrimiento y la sensación que creó en todas partes; pocos fueron los
laboratorios en los que no se intentó enseguida repetir el experimento… Casi
inmediatamente, la posibilidad de aplicaciones prácticas atrajo al público y
muy especialmente a la profesión médica. Estaba claro que se tenía un método de
gran utilidad para el diagnóstico de fracturas complicadas, o para localizar
cuerpos extraños. Para mí, esto tuvo una consecuencia desafortunada. Mi
laboratorio se vio inundado por médicos que traían a sus pacientes de los que
se sospechaba que tenían agujas en distintas partes de sus cuerpos y, durante
una semana, tuve que emplear la mayor parte de tres mañanas en localizar una
aguja en el pie de una bailarina de ballet.
El 5 de marzo, la agencia de noticias Wiener Presse transmitía
la historia del descubrimiento y el día 6 la información circulaba por todo el
mundo. El corresponsal del London Daily Chronicle en Viena,
por ejemplo, enviaba a su redacción el siguiente texto: «Los rumores de una
alarma de guerra no deben distraer la atención del maravilloso triunfo de la
ciencia que acaba de comunicarse en Viena. Se anuncia que el profesor Röntgen
de la Universidad de Wurzburgo ha descubierto una luz que, al efectuar una fotografía,
atraviesa la carne, el vestido y otras sustancias orgánicas». Hasta el propio
káiser Guillermo II le solicitó una demostración en la corte, que Röntgen
efectuó el día 13 de ese mes.
En Francia la noticia también se conoció pronto, en los periódicos al
igual que en instituciones como la prestigiosa Académie des Sciences, que
dedicó su reunión del 20 de enero de 1896 a estudiar el tema. En esta sesión,
dos médicos, Oudin y Barthélemy, presentaron una fotografía que habían tomado
de los huesos de una mano utilizando rayos X. El principal detalle en el que se
hizo hincapié en aquella reunión es que los rayos X parecían estar asociados,
de alguna manera, a sustancias fosforescentes (aquellas sustancias que radian,
que brillan, cuando son iluminadas).
Uno de los que asistieron a la sesión de la Académie des Sciences del 20
de enero fue Henri Becquerel (1852-1908), el tercero de una familia de físicos.
Miembro de la academia desde 1889, al igual que lo habían sido su padre y su
abuelo, Becquerel era entonces catedrático de Física en el Museo de Historia
Natural de París. Interesado por las noticias que se comunicaron allí sobre los
hallazgos de Röntgen y disponiendo como disponía en el museo de sales de uranio
(su padre, Edmond Becquerel, había trabajado con varios compuestos de uranio,
como el nitrato y el silicato de uranio, el sulfato doble de uranio y potasio o
el fluoruro doble de uranio y potasio) que mostraban propiedades
fosforescentes, recurrió a ellas para ver si producían rayos X. El 24 de febrero,
es decir poco más de un mes después de la reunión de la academia, y casi cuatro
del descubrimiento de Röntgen, Becquerel presentaba su primera comunicación a
la Académie des Sciences: «Sobre las radiaciones emitidas por fosforescencia».
En ella sostenía que los rayos emitidos por el sulfato doble de uranio y
potasio, una sustancia fosforescente, impresionaban, a través de una espesa
envoltura de papel, una placa fotográfica. Parecía, efectivamente, que la
fosforescencia iba acompañada de rayos X. Sin embargo, una semana más tarde, el
2 de marzo, la Académie des Sciences recibía otra comunicación de Becquerel,
esta vez con un contenido mucho más sorprendente. El día 26 de febrero se había
visto obligado a interrumpir sus experiencias con las sales de uranio debido a
que estaba nublado y no salió el Sol. Como tenía la placa fotográfica protegida
por una envoltura y la sal de uranio preparada, las guardó en un cajón,
esperando que el día siguiente saliese el Sol y pudiese exponer la sal a su
luz. Como el tiempo no cambió en varios días, el 1 de marzo Becquerel optó por
revelar la placa fotográfica, esperando encontrar imágenes débiles.
Sorprendentemente, encontró siluetas muy fuertes. Sin la intervención de la luz
solar, sin ninguna fosforescencia visible, el compuesto de uranio había emitido
una radiación capaz de impresionar la placa. Por qué era algo que Becquerel
desconocía, pero había descubierto la radiactividad, esto es, la capacidad que
tienen algunos elementos químicos (como el uranio) de emitir radiaciones, de
manera continua, aparentemente sin límite.
A pesar de lo que estemos tentados de pensar, más de un siglo después,
en su momento el descubrimiento de Becquerel no atrajo excesiva atención; los
rayos X seguían en la cresta de la ola de la popularidad. La persona
responsable de que todo esto cambiase fue una mujer de origen polaco, Marie
Sklodowska-Curie (1867-1934). Junto a su esposo, Pierre Curie (1859-1906),
entonces profesor de Física en la École Municipale de Physique et de Chimie
Industrielles de la ciudad de París, encontró en 1898 dos nuevos elementos
radiactivos, más radiactivos que el uranio, el polonio y el radio, este último
particularmente poderoso en lo que se refiere a sus propiedades radiactivas.
Los efectos biológicos del radio fueron observados muy pronto, al menos
en 1900, en Alemania, por, de manera independiente, Friedrich Giesel y
Friedrich Walkoff, que se expusieron ellos mismos a radiación del radio. Si
tenemos en cuenta la relación que los orígenes de la radiactividad tuvieron con
los rayos X y el interés y la profusión con que estos rayos fueron estudiados y
utilizados por médicos de todos los países, no resulta extraño que la
radiactividad recibiera también rápidamente atención en el mundo médico. Pierre
Curie se interesó enseguida por los resultados de Giesel y Walkoff y, en 1901,
publicaba un artículo conjunto con Henri Becquerel sobre «La acción fisiológica
de los rayos del radio». Merece la pena reproducir algunos pasajes de este trabajo:
«Los rayos del radio actúan enérgicamente sobre la piel —señalaban Curie y
Becquerel—, el efecto producido es análogo al que resulta de la acción de rayos
de Röntgen». E inmediatamente reconocían su deuda con los dos científicos
alemanes: «Se debe a los señores Walkoff y Giesel las primeras observaciones de
esta acción». «El señor Giesel —continuaban— ha colocado sobre su brazo,
durante unas horas, bromuro de bario radiactivo rodeado de una hoja de
celuloide. Los rayos que actúan a través del celuloide han provocado sobre la
piel un ligero enrojecimiento. Dos o tres semanas más tarde, el enrojecimiento
aumentó, produciéndose una inflamación y terminando por caerse la piel.» Y en
este punto hacían referencia a sus propias experiencias:
El señor Curie ha reproducido sobre él mismo la experiencia del señor
Giesel, haciendo actuar sobre su brazo, a través de una hoja delgada de
gutapercha, y durante diez horas, cloruro de bario radiactivo, de actividad
relativamente débil (la actividad era cinco mil veces la del uranio metálico).
Tras la acción de los rayos, la piel se ha enrojecido sobre una superficie de
seis centímetros cuadrados; la apariencia es la de una quemadura, pero la piel
apenas duele. Al cabo de unos días, el enrojecimiento, sin extenderse, aumenta
de intensidad; a los veinte días, se forman costras, después una llaga que se
ha curado utilizando apósitos; a los cuarenta días, la epidermis comenzó a
regenerarse por los bordes, llegando al centro, y cincuenta y dos días después
de la acción de los rayos, queda todavía una especie de llaga, que toma un
aspecto grisáceo, indicando una mortificación más profunda.
Hacia 1904, la atención que la clase médica gala —y de la mayoría de los
países en los que la ciencia era objeto de alguna atención— prestaba a la
radiactividad como posible instrumento terapéutico iba en aumento.
En la Facultad de Medicina de París, A. Darier dictó un curso sobre «Las
aplicaciones médicas del radio», en el que señalaba: «Me puse inmediatamente a
estudiarlo [el radio] y tuve mucha suerte en encontrarme con un caso que me
mostró el poder analgésico tan marcado de las sustancias radiactivas. Tenía en
tratamiento desde hacía quince años a un paciente afectado de un cáncer de
párpado que, a pesar de todas las operaciones y de todos los tratamientos,
había terminado por destruir completamente el ojo y toda la cavidad orbital.
Esta enfermedad le acarreaba grandes sufrimientos durante el día y la noche,
que nada podía calmar». Tuvo entonces Darier la idea de aplicar (según él fue
el primero en dar tal paso) «sobre la superficie ulcerada una capa de polvo ligeramente
radiactivo, y grande fue mi sorpresa cuando me enteré, al día siguiente, que el
enfermo había pasado un noche excelente y que había podido comer y beber sin
sufrir atrozmente como antes». Al cabo de tres semanas, en las que Darier
continuó aplicando dosis de radio cada vez más fuertes, a pesar de que los
dolores antiguos volvieron y, además, la enfermedad había seguido su curso
progresivo, continuó con tratamientos similares en otros casos, llegando
finalmente a la conclusión de que el radio tenía efectos analgésicos y que ante
él se abría un nuevo mundo médico por explorar. De hecho, prometía que a lo
largo de su curso abordaría cuestiones como inhalaciones radiactivas en ciertas
afecciones de laringe y de pulmón, inyecciones subcutáneas o intravenosas de
soluciones radiactivas o de la absorción de polvos radiactivos. Posibilidades
cuyo sólo pensamiento ahora, más de un siglo después, nos hacen temblar.
En cualquier caso, lo que está claro es que Darier no fue el único, ni
seguramente tampoco el primero en adentrarse en el universo del tratamiento de
enfermedades, cánceres en particular, empleando sustancias radiactivas. Las
páginas de los primeros tomos de una revista que se fundó dedicada
exclusivamente a la radiactividad, Le Radium, están llenas de
informaciones —y de fotografías— en semejante dirección. Estudios sobre, por
ejemplo, «Un caso de epitelioma vegetativo de la región temporo-maxilar curado
por la radioterapia», «Acción del radio sobre algunos tumores particulares:
tratamiento de un cáncer epitelial de oreja» (firmado por Robert Abbe, un
médico del Hospital Saint-Luke de Nueva York), «Acción del radio sobre el
sistema nervioso central» (H. Obersteiner, Viena), «Las sales del radio en el
cáncer», «Ensayos terapéuticos con el radio y algunas sustancias
fluorescentes». Incluso se pueden encontrar noticias sobre «La generación
espontánea bajo la influencia del radio», en la que se informaba que un investigador
del Laboratorio Cavendish de Cambridge, Burke, pretendía haber demostrado la
posibilidad de engendrar artificialmente vida, tras exponer a la acción del
radio una solución de gelatina de vaca. No obstante, en general era la
utilización del radio para combatir cánceres la que acaparaba una gran parte de
la información y análisis médicos aparecidos en la revista francesa.
No es extraño, en semejante atmósfera, que también se ofreciesen, en
anuncios, productos radiactivos con supuestas ventajas médicas. Así, el
Laboratoire Pharmaceutiqe du Radium del Dr. A. Jabon, de París, anunciaba la
preparación de medicamentos radiactivos, como quininas, mercurio, vaselina,
lanolina, glicerina o pomada radiactivadas. «Todos nuestros productos
radiactivados —se manifestaba— contienen radio; conservan indefinidamente sus
PROPIEDADES RADIACTIVAS y difieren esencialmente de sustancias RADIACTIVADAS
que pierden rápidamente su actividad.»
Como no podía ser menos, comenzaron a proliferar los libros dedicados a
los aspectos médico-terapéuticos del radio. Libros como, por citar un ejemplo,
el de Dawson Turner, lecturer de Física Médica en el Surgeons’
Hall de Edimburgo y fellow (miembro) de la Royal Society de
Edimburgo, Radium, its Physics and Therapeutics (1911), en el
que se pasaba revista a una larga serie de tratamientos e historiales concretos
en los que se había aplicado radio, en males como neuralgias, reumatismos
gonorreicos, glándulas turberculosas, linfomas, artritis reumáticas, úlceras en
corneas o afecciones catarrales.
Aunque no todas las enfermedades a las que se aplicaba o intentaba
aplicar sustancias radiactivas (el radio especialmente) eran cánceres, era este
mal el que protagonizaba, y protagonizaría con intensidad creciente en el
futuro, la «terapia médica radiactiva». Se trataba de aplicar sustancias que
contuviesen radio sobre superficies con tumores malignos o benignos, con el
propósito de disminuir su tamaño o eliminarlos completamente, en base a la
capacidad energético-destructiva de esas sustancias. Y, efectivamente, desde el
principio la utilización del radio mejoró sustancialmente la calidad de vida de
muchos pacientes, como atestiguan las muchas fotografías que ilustraban los
artículos y libros a los que me acabo de referir, estableciéndose de esta
manera una nueva disciplina médica, la radioterapia.
La popularidad del radio como panacea cuasiuniversal continuó durante
las tres primeras décadas del siglo XX. Entre los «milagros» que se adjudicaba
al radio, se encontraban cremas faciales que contenían radio y que prometían
rejuvenecer el cutis o baños de radio que devolverían el vigor perdido. Pero
semejantes promesas terminaron por conducir a grandes desencantos y
acusaciones. En Estados Unidos, un suceso contribuyó notablemente a ello. En
1925, un tal William Bailey, que utilizaba fraudulentamente el título de
«Doctor», patentó y promovió un producto llamado «Radithor», que estaba
compuesto de agua mezclada con radio, estrictamente, una solución que contenía
dos isótopos del radio, el Ra-226 y el Ra-228 (más tarde denominado mesotorio),
que pretendía curar «la dispepsia, la presión arterial elevada, la impotencia y
más de otras ciento cincuenta enfermedades endocrinológicas». Fuesen cuales
fuesen sus virtudes, lo cierto es que el Radithor era letal en grandes
cantidades, como se demostró algún tiempo después, cuando un millonario (y
campeón de golf aficionado) de nombre Eben Byers comenzó a tomarlo en 1927,
bajo la recomendación de un médico, para tratar un dolor crónico en uno de sus
brazos. Inicialmente, Byers manifestó que se sentía rejuvenecido, pero en 1932,
después de haber consumido entre mil y mil quinientas botellas de Radithor,
Byers falleció, víctima de una anemia severa, pérdida de peso, destrucción
masiva de los huesos de su mandíbula, cráneo y en general esqueleto y
disfunciones en el riñón. La tragedia fue aireada por la prensa y la Food and
Drug Administration (agencia encargada de asuntos alimenticios y medicinales)
comenzó a tomar cartas en el asunto.
De hecho, se podía y debía haber actuado antes. En efecto, durante la
primera guerra mundial, el radio fue utilizado extensivamente en pinturas para
esferas luminosas de relojes e instrumentos militares. La técnica empleada
(desarrollada por primera vez en Alemania en 1908) era la siguiente: se
utilizaban cristales de sulfuro de zinc mezclados con sales de radio; las
partículas alfa que emiten estas últimas en sus desintegraciones radiactivas
chocan con las moléculas de los cristales de sulfuro de zinc, produciendo
emisión de luz. Era esta luminosidad la que permitía «ver en la oscuridad».
En Estados Unidos, esta técnica fue introducida en 1913 y, cuando la
nación entró, en 1917, en la primera guerra mundial se empleó de manera
generalizada. Una de las principales factorías que suministraban estos
materiales se encontraba en Orange, Nueva Jersey. Tenía cientos de empleados,
la mayoría mujeres muy jóvenes, que habitualmente mojaban en sus labios los
pinceles que empleaban para pintar con la mezcla radiactiva. En consecuencia,
sin darse cuenta, ingirieron cantidades pequeñas pero significativas de radio.
Entre 1922 y 1924, nueve de aquellas mujeres murieron, después de habérseles
diagnosticado lesiones como necrosis de la mandíbula y anemia. Las
investigaciones que se emprendieron ya señalaron la ingestión de sustancias
radiactivas como la causa más probable de las muertes. Y todo esto había
ocurrido antes del fallecimiento de Eben Byers.
La época dorada del radio como panacea médica fue, de esta manera,
terminando. Incluso en lo que se refiere a tratamientos más razonables. Hoy
sabemos, por ejemplo, que la radiación que penetra en los tejidos de personas
sometidas a tratamientos con radiactividad es principalmente la de los rayos
gamma que emiten sustancias radiactivas. Por eso, cuando se dispuso de otros
elementos radiactivos, menos dañinos en general que el radio, pero que también
emitían rayos gamma, como el cesio-137 (que se obtiene a partir de ciertas
reacciones nucleares), el empleo del radio para el tratamiento del cáncer
disminuyó drásticamente, hasta su práctica desaparición. Volveré a estas
cuestiones en el capítulo 15.
Me he detenido en los anteriores ejemplos porque sirven para que
comprendamos que es peligroso utilizar, sin más, sin experimentar
cuidadosamente antes, nuevos descubrimientos científicos en el ámbito médico.
Aun así, las posibilidades que se atisbaban para la radiactividad produjeron al
menos una buena consecuencia: la creación, en París, de un instituto dedicado
específicamente a la radiactividad y la medicina.
El establecimiento de este centro tuvo sus orígenes en el Instituto
Pasteur. En 1907, éste recibió un importante legado, treinta millones de
francos-oro del industrial Daniel Iffla Osiris. Inmediatamente, en 1908, el
doctor Émile Roux, director del Instituto Pasteur, planteó a la junta directiva
del instituto el que se ofreciese a Marie Curie el laboratorio bien equipado
que ella y su marido siempre habían deseado; al fin y al cabo, el radio parecía
ser muy útil para combatir el cáncer. Esta oferta determinó al presidente de la
junta de gobierno de la Universidad de París, Louis Liard, vicerrector de la
propia universidad, a proponer en diciembre de 1909 a Roux que el proyecto
fuese común para las dos instituciones, un proyecto que él expresaba en los
términos siguientes: construir juntos un laboratorio destinado a la
«investigación de fenómenos radiactivos y al estudio de las aplicaciones de
estos fenómenos a la enfermedad».
Las autoridades de la Sorbona argumentaban que la universidad tenía
desde hacía tiempo la idea de ofrecer a los Curie un laboratorio bien dotado,
pero que había sido imposible hasta entonces. Lo que está, desde luego, claro
es que al saber de la oferta a Marie del Instituto Pasteur, la universidad
sintió el temor a perderla y actuó, por primera vez, en consecuencia. Por su
parte, el Instituto Pasteur recibió bien la propuesta, pero modificó un tanto
la idea, en el sentido de que fuese más de uno el laboratorio creado.
Finalmente, se llegó a la decisión de crear un Instituto del Radio con dos
laboratorios, uno, dedicado a la investigación física, que dirigiría Marie
Curie, estaría asociado a su cátedra en la Sorbona y, consecuentemente,
dependería de la Facultad de Ciencias, y otro que se ocuparía de la
investigación biológica y médica, que controlaría el Instituto Pasteur, y que
también estaría asociado a una cátedra universitaria. Según el acuerdo, cada
institución aportaría una cantidad económica determinada: doscientos mil
francos la universidad, que también suministraría el terreno (el lugar que se
fijó fue en una esquina de la rue Ulm y la rue Pierre
Curie, sobre unos terrenos que la universidad acababa de adquirir), y
cuatrocientos mil francos el Instituto Pasteur. Los dos departamentos se
edificarían uno al lado del otro.
La construcción del laboratorio destinado a la investigación biológica y
médica del Instituto del Radio, o «Pabellón Pasteur», comenzó en 1911,
terminando justo antes del inicio de la primera guerra mundial. Antes, el 1 de
octubre de 1913, se nombró director a Claudius Regaud, un médico de Lyon que
había trabajado en rayos X y que era autor de importantes trabajos sobre el
efecto de los rayos X y el radio en tejidos vivos.
En cuanto al «Pabellón Curie», o «Departamento de Física General y
Radiactividad», la construcción comenzó en 1912 y no estaba totalmente
terminado cuando se inició la guerra. Sin embargo, no tuvo Marie que esperar al
término de la contienda para instalarse en su nuevo laboratorio: el traslado
tuvo lugar en 1915. Aquellos laboratorios sobreviven hoy en el Instituto Curie,
uno de los centros europeos más importantes en la investigación del cáncer. Sus
tareas se dedican sobre todo a: (1) comprender los mecanismos y desarrollo del
cáncer; (2) desarrollar técnicas de diagnóstico y terapias innovadoras; y (3)
facilitar el paso de los conocimientos básicos a las aplicaciones médicas (lo
que se conoce como medicina traslacional).
Capítulo 11
¿Una medicina para el alma? Freud y el psicoanálisis
Dudo que haya existido alguna persona que no haya soñado, que no haya
experimentado esa manifestación de un mundo interior, fuera del dominio de los
procesos físicos y fisiológicos de los que tenemos consciencia, que son los
sueños. Un mundo, por consiguiente, subconsciente. Y no se trata
sólo de sueños, porque también están comportamientos que no sabemos explicar
por causas fisiológicas, del tipo de fobias o filias desmesuradas o
desequilibrios mentales.
Conocidos como eran, los trastornos del comportamiento se explicaban en
el pasado de diversas maneras. En Grecia, por ejemplo, al desequilibrio de los
«humores»: el exceso de bilis amarilla se manifestaba en las manías y el de la
negra conducía, como expliqué en el capítulo 2, a la depresión (melancolía).
En diferentes creencias religiosas se sostenía que las alteraciones de conducta
se debían a la presencia de malos espíritus (demonios) y se utilizaban
procedimientos como el exorcismo para expulsarlos. A falta de medios más
eficaces, musulmanes y cristianos acudieron a la reclusión en hospitales y, en
caso de necesidad, al aislamiento y los grilletes. Y en el siglo XVIIII fue
frecuente recurrir a administrar belladona, acónito y opio. A comienzos de la
siguiente centuria las cosas empezaron a cambiar algo, como manifiesta el
título de un libro escrito por Philipp Pinel (1745-1826), médico de la
Salpêtrière, un hospital de París construido en el siglo XVII: Traité
medico-philosophique sur l’aliênation mentale ou la manie («Tratado
médico-filosófico sobre la alienación mental o la manía»), en el que se definía
la enfermedad mental como aquella enfermedad que no se podía explicar por una
causa orgánica. Algo más tarde, en 1808, un médico alemán, Johann Christian
Reil (1759-1813), creó la palabra psiquiatría para describir
la especialidad que se debía ocupar de esos males.
La construcción científica de las enfermedades mentales no comenzó hasta
fines del siglo XIX. Dos médicos destacan en esa construcción: Emil Kraepelin
(1856-1926) y Sigmund Freud (1856-1939). No fueron, sin embargo, sus
respectivas orientaciones las mismas: Kraepelin se movió en el dominio de la
psiquiatría y Freud en el del psicoanálisis, que él mismo creó. Pero aun
reconociendo la importancia de la psiquiatría, disciplina que se caracteriza
sobre todo por buscar la causa orgánica de la enfermedad mental, y que más que
curación persigue limitar mediante fármacos los efectos de la enfermedad, no me
detendré aquí en ella. Así que pasaré directamente al psicoanálisis.
§. De Charcot y la hipnosis a Freud y el psicoanálisis
Un paciente común es capaz de describir los síntomas de su enfermedad, pero el
enfermo mental puede ser incapaz de hacerlo y, cuando lo hace, acostumbra
ocultar información fundamental. A la vista de tal situación, una vía que se
descubrió para intentar desvelar y combatir los efectos de ese mundo oculto fue
la hipnosis. El gran defensor y especialista de este método fue Jean-Martin
Charcot (1825-1893), profesor de la Universidad de París, que en 1862 se hizo
cargo del servicio neurológico del Hospital de la Salpêtrière. En sus Leçons
sur les maladies du système nerveux («Lecciones sobre las enfermedades
del sistema nervioso», 1882) explicó que los síntomas histéricos se debían a
un shock traumático que provocaba la disociación de la
consciencia y cuyo recuerdo permanecía inconsciente o subconsciente.
Como había llegado a la conclusión de que los trastornos de conducta no
eran enfermedades orgánicas sino puros trastornos mentales y que la única
posibilidad para diagnosticarlas dependía de que el paciente describiese los
síntomas, Freud, que había estudiado medicina en la Universidad de Viena (donde
se licenció en 1881), pensó que la hipnosis abría un posible camino de
actuación y por ello se trasladó a París para asistir a las clases y sesiones
clínicas de Charcot durante el curso 1885-1886. Inmediatamente después de
regresar a Viena, completada esa formación, abrió una consulta y se asoció a
otro médico interesado en esos temas, Joseph Breuer (1842-1925). Y pronto se
interesó por la histeria, utilizando durante los diez años siguientes la
hipnosis como vía de acceso a la mente de los pacientes. En estado hipnótico,
preguntaba al paciente sobre las causas de sus síntomas, para provocar así una
descarga emocional, algo que les descubría la existencia de traumas psíquicos
anteriores, rechazados por la conciencia. Al describir al paciente el origen
del mal cesaban los síntomas. Es lo que Ana O. (su nombre real era Bertha
Pappenheim), la primera de las pacientes de Freud, denominó «curación por la
palabra», que caracterizaría al psicoanálisis. En 1895, Freud y Breuer
publicaron Studien über Hysterie («Estudios sobre la
histeria»), una obra compartida más que una colaboración, cuyo núcleo está
formado por cuatro historias clínicas, que completaron con un par de capítulos
comunes. De esa época es la «teoría del rechazo», según la cual la
manifestación de un deseo inconveniente provoca el rechazo de la conciencia y
el desplazamiento del deseo más allá de la conciencia. El deseo frustrado se
manifiesta, sostenían, en forma de síntomas que enmascaran la realidad de la
existencia de un trauma psíquico.
A partir de esta fecha se produjo un rápido alejamiento entre ambos
debido a la reticencia de Breuer ante la importancia que la sexualidad tenía
para Freud, quien utilizó sus sueños para autoanalizase, al tiempo que
sustituía la hipnosis por la libre asociación de ideas. El psicoanálisis,
nombre que Freud introdujo, comenzó entonces a desarrollar una serie de
procedimientos que terminarían asociándose en la imagen que la sociedad adoptó
de él: el paciente se tiende en un sofá y cuenta cuanto se le ocurre y el
psicoanalista se sienta detrás para no interferir con su presencia el curso del
relato, salvo en momentos concretos, en los que se le requiere más información.
Los sueños representaban para Freud el gran protagonista o, al menos, la
«válvula de escape» de la vida interior de una persona. Lo veía como el
guardián del que duerme, como un mecanismo de protección contra los estímulos
interiores, mediante la transformación del deseo en imágenes asumibles.
Pensaba, además, que los sueños «camuflaban» la verdad y procedió a establecer
algo así como un diccionario para entender el vocabulario del inconsciente: los
troncos de los arboles, las armas largas, los cohetes ocultaban, según él, el
falo; las cajas y todas las cosas huecas, los órganos sexuales femeninos; subir
una escalera enmascaraba el coito. El examen último de todas las imágenes
conducía a la interpretación, la tarea del psicoanalista, esto es, a la
descripción de lo que los sueños ocultan. Otras manifestaciones de la conducta,
como los actos fallidos o los olvidos, fueron recuperados como fuentes de
información, como expuso en un libro publicado en 1901, Zur
Psychopathologie des Alltagsleben («Psicopatología de la vida
cotidiana», 1901). La eficacia del psicoanálisis consistía en que la
explicación del trauma original solía ir acompañada de la desaparición de los
síntomas o de parte de ellos.
Antes de la aparición de Psicopatología de la vida cotidiana,
Freud publicó el que generalmente se considera su gran libro, en 1900: Die
Traumdeutung («La interpretación de los sueños», 1900), con la que
quedó establecido definitivamente el psicoanálisis. En realidad, este libro se
publicó en octubre de 1899, pero la editorial consideró que resultaría más
atractivo si aparecía datado en 1900, un número redondo. Sin embargo, pasó
prácticamente inadvertido: se imprimieron seiscientos ejemplares de los que se vendieron
123 en las primeras seis semanas y 228 en los años siguientes, un detalle que
habla por sí solo sobre las dificultades iniciales que tuvo el psicoanálisis
para su difusión. Dificultades que también tienen que ver con el hecho de que
la consulta privada, el terreno en el que se movía Freud, no proporcionaba
discípulos como los que rodeaban a un jefe de servicio o a un catedrático en la
Facultad de Medicina. A esto se debe que Freud no formara personalmente a sus
discípulos. Tuvo que acudir a la imprenta para difundir sus doctrinas, aunque,
como acabamos de ver, los primeros resultados fueron decepcionantes.
Tenemos que tener también en cuenta que algunas, si no muchas, de sus
ideas no resultaban simpáticas. Esto es lo que sucedía con el importante papel
que asignaba en su sistema a la sexualidad infantil: la atracción por la madre
y el alejamiento y temor del padre, que siguiendo la tragedia de
Sófocles, Edipo rey, denominó «complejo de Edipo».
Fue sobre todo a partir de 1902 cuando su influencia se extendió,
apareciendo discípulos. En 1908, se constituyó la Sociedad Psicoanalítica de
Viena y se reunió el Primer Congreso Internacional. En 1909, Freud se desplazó
con alguno de sus colegas a Estados Unidos, donde el psicoanálisis había
conocido un notable desarrollo. La teoría de la sexualidad infantil fue el tema
preferente de sus publicaciones de 1905 a 1913. Fue entonces cuando introdujo
el concepto de pulsión para designar la fuerza psíquica destinada
a realizar un fin y distinguió entre la atracción sexual y la tendencia a la
autoconservación (pulsión del Yo). Sin embargo, la difusión del
psicoanálisis provocó duras polémicas, así como la ruptura con algunos de los
primeros y más notables seguidores de Freud, como Alfred Adler (1870-1937) y
Carl Jung (1875-1961). La primera guerra mundial tuvo un gran impacto sobre el
desarrollo del psicoanálisis, al mismo tiempo que Freud se ocupó de divulgar la
doctrina mediante artículos sobre puntos fundamentales: el inconsciente, el
rechazo, las pulsiones y conferencias que fueron publicadas como una Introducción
al psicoanálisis.
A partir de 1920, Freud —que permaneció siendo un convencido
materialista y determinista toda su vida— formuló una nueva teoría de las
pulsiones al contraponer la pulsión de la vida (eros) y la de la muerte
(tánatos) en Más allá del principio del placer (1920) y
redefinió en 1923 el sistema psíquico con tres conceptos: el Ello (Id),
el Yo (Ego) y el Superyó (Superego),
con los que distinguió tres componentes estructurales en la personalidad del
individuo. El Ello es la parte de la mente en donde se
localiza tanto el instinto sexual como la censura de los recuerdos, el
principio de realidad. El Yo, en su mayor parte consciente, busca
evitar las tensiones con el mundo mediante el uso de mecanismos de defensa que
se encuentran en la parte inconsciente. El Superyó, que se forma
desde el nacimiento hasta los cinco años, es el conjunto de normas sociales que
se interioriza a partir del momento en que supera el complejo de Edipo, para
escapar al complejo de castración. La relación armónica de los tres elementos
caracteriza la normalidad del individuo, en tanto que la insatisfacción de los
impulsos del Ello y la trasgresión de los normas del Superego
provocan la represión del Ego que busca conciliar los términos del conflicto.
El impulso frustrado sobrevive en el inconsciente y se manifiesta a través de
los sueños, los actos fallidos y las enfermedades mentales. Las neurosis afectan
a la percepción del propio sujeto y al nivel de insatisfacción que obtiene. La
normalidad incluye una cierta insatisfacción. Las psicosis son más graves y
afectan seriamente a las relaciones con el medio.
§. Carácter científico de la obra de Freud
La línea de demarcación que va del «antes» al «después» de Freud es la misma
que separa dos maneras radicalmente diferentes de comprendernos a nosotros
mismos. Nunca, en efecto, volveremos a contemplar, después de Freud, nuestras
pasiones, fobias, filias o, simple mente, inclinaciones, como producto del
momento, de la circunstancia imprevisible, como resultado de situaciones o
historias perfectamente comprensibles o, por el contrario,
desesperanzadoramente inexplicables.
Freud cambió todo esto. Abrió un nuevo mundo, centrado en nosotros
mismos, en nuestra hasta entonces insondable naturaleza. Introdujo innovaciones
radicales, como el reconocimiento del inconsciente y la influencia que fuerzas
psicológicas fuera de nuestro control racional ejercen sobre nuestro
comportamiento, deseos, fantasías y motivaciones. No obstante, con relativa
frecuencia se le ha negado la categoría de científico y a su
obra psicoanalítica de ciencia. Ciertamente, existen diferencias
notables entre los métodos utilizados en el psicoanálisis y los propios de las
ciencias más establecidas, más tradicionales, como la física, la química o la
matemática, pero, en última instancia, ¿qué es la ciencia sino exploración
sistemática, haciendo uso de hipótesis, de «fuerzas» que, de una u otra manera,
nos afectan? No hay duda de que el edificio freudiano debe de ser revisado
drásticamente, eliminando en particular las ligaduras que la fuerte
personalidad y poder creativo de Freud han impuesto a la mayoría de sus seguidores
(sin olvidar que él mismo, como se ha ido comprobando en los últimos tiempos,
efectuó numerosas trampas en algunas de sus investigaciones), pero la esencia
de su visión, la idea de que existen, de que es necesario describir —y, en
ocasiones, actuar sobre ellos— mundos individuales y colectivos inconscientes
que afectan profundamente a nuestras vidas, percepciones y culturas, es algo
que difícilmente perderemos.
Capítulo 12
Fleming y los antibióticos
§. Alexander Fleming y el descubrimiento de la penicilina
Uno de los descubrimientos médicos que más vidas han salvado es el de la
penicilina, el primer antibiótico, entendiendo por «antibiótico» «una sustancia
química producida por un ser vivo o fabricada por síntesis, capaz de paralizar
el desarrollo de ciertos microorganismos patógenos, por su acción
bacteriostática, o de causar la muerte de ellos, por su acción bactericida». Su
hallazgo se produjo en 1928 y tuvo por responsable al médico escocés Alexander
Fleming (1881-1955), que entonces trabajaba en el Departamento de Inoculación
del St. Mary’s Hospital de Londres.
La historia de este descubrimiento se ha contando miles de veces,
haciendo hincapié en su carácter fortuito, aunque es necesario poner límites a
este adjetivo ya que Fleming estaba inmerso en un programa específico de
investigación destinado a tratar de combatir los efectos de heridas que
producían infecciones, con efectos en ocasiones terribles (gangrenas), como
había sucedido durante la primera guerra mundial. Un primer fruto de sus
intereses se produjo en 1922, cuando descubrió la lisozima, un compuesto (mucopéptido)
presente en las lágrimas, la saliva, la clara de huevo y otros humores
animales. Fleming observó que mucosidades producidas por un estornudo destruían
cultivos bacterianos de varios tipos, el Micrococcus, un tipo de
bacteria que puede producir, por ejemplo, infecciones pulmonares.
Seis años después, en septiembre de 1928, observó que la contaminación
fortuita de un cultivo de estafilococos en una placa de Petri (el «lugar» donde
se estudian cultivos bacterianos) era destruido por un hongo bastante común,
llamado Penicillium notatum, originado por la descomposición de
ciertas sustancias. Había descubierto, sin proponérselo, la penicilina,
que presentó públicamente en un artículo publicado en la revista British
Journal of Experimental Pathology (1929), bajo el título «Sobre la
acción antibacteriana de cultivos de Penicillium, con mención
especial de su utilización en el aislamiento de B. Influenzae». Al
final de este artículo escribía:
Con respecto a infecciones producidas por microbios, la penicilina
parece tener algunas ventajas sobre los bien conocidos antisépticos químicos …
Además de su posible uso en el tratamiento de infecciones bacterianas, la
penicilina es ciertamente útil para el bacteriólogo por su capacidad de inhibir
microbios no deseados en cultivos, de forma que es posible aislar fácilmente
las bacterias insensibles a la penicilina.
Una cosa era descubrir el efecto antibacteriano de la penicilina y otra
ser capaces de extraerla del moho en cantidades suficientes para utilizarla
masivamente. El propio Fleming se dio perfecta cuenta de esto, como manifestó
posteriormente: «Pude seguir investigando por mí mismo hasta un punto en que me
vi obligado a detenerme.
Alexander Fleming
Se necesitaba un procedimiento químico muy complejo para concentrar la
penicilina y yo era solamente un bacteriólogo, no un químico. Si hubiera
contado con un equipo de químicos con suficiente experiencia, habríamos podido
usar la penicilina diez años antes».
Además de esas dificultades de producción, inicialmente Fleming pensó
que la acción antibacteriana de la penicilina se limitaba a un lavado o pomada
aplicada externamente, no internamente, al paciente. El que pudiesen existir
fármacos antibacterianos era demasiado novedoso y tardó algo en ser asimilado.
§. La producción de la penicilina
El problema que Fleming no pudo resolver, se solucionaría con el estímulo de
una nueva catástrofe mundial, la segunda guerra mundial. Citaré en este sentido
lo que escribió en 1954 (en un libro titulado La ciencia en nuestro
tiempo) el distinguido cristalógrafo John D. Bernal:
En el momento en que se había probado el valor clínico del producto [la
penicilina], se desencadenó la guerra y, por tanto, las etapas subsiguientes de
su purificación y su preparación en gran escala se realizaron a una velocidad
que jamás se hubiera logrado en época de paz. El esfuerzo conjugado que
entonces se hizo —en los campos de la química, la biología y la medicina— fue
comparable al que posteriormente se dedicó al desarrollo de la bomba atómica.
El trabajo se efectuó apresurada mente, posiblemente empleando más trabajadores
científicos que los que hubieran sido estrictamente indispensables. Pero lo
importante es que se hizo. Si se hubiera ejecutado con menos premura, se
habrían ahorrado muchas horas de trabajo, pero hubieran muerto millares de seres
humanos. Es más, si no hubiese sido por la guerra, tal vez no se hubiera
proseguido al estudio de la penicilina; ya que al principio no parecía
especialmente prometedora, y, por tanto, en otras condiciones hubiera sido
difícil obtener fondos suficientes para avanzar hasta el punto de poder probar
su valor.
Los responsables de tal logro fueron varios investigadores de la Dunn
School de Patología de Oxford, entre los que destacaban el patólogo australiano
Howard Walter Florey (1898-1968), que dirigía el grupo, y el joven bioquímico
Ernst Chain (1906-1979), un refugiado de la Alemania nazi. El 24 de agosto de
1940, los dos firmaban, junto con otros colaboradores, un artículo publicado en
la revista Lancet titulado «Penicilina como un agente
químico-terapéutico». En él demostraban que la penicilina era, con mucho, el
agente químico-terapéutico más efectivo producido hasta entonces. Naturalmente,
el siguiente paso fue probar con los humanos, pero ésta era una tarea
complicada de llevar adelante, dadas las dificultades existentes para obtener
penicilina suficiente. Un paso significativo tuvo lugar en enero de 1942,
cuando Florey administró de forma intravenosa penicilina, preparada con la
ayuda de Imperial Chemical Industries, a quince pacientes, y localmente a 172.
Midiendo los niveles de penicilina en la sangre y estudiando los efectos
clínicos, estableció las dosis adecuadas para diversos tratamientos. Aun así,
en medio de la segunda guerra mundial, con evidencias firmes, pero no demasiado
abundantes, no existía en Gran Bretaña ninguna compañía farmacéutica capaz o
dispuesta a dedicar los recursos suficientes para producir cantidades industria
l es de penicilina. Por este motivo, Florey solicitó la ayuda de la Fundación
Rockefeller, de Nueva York, que de hecho ya apoyaba sus investigaciones. Con su
colaboración y la del destacado farmacólogo estadounidense A. N. Richards, que
ya había trabajado con Florey en Inglaterra, consiguió que algunas compañías
farmacéutica (Merck, Pfizer y Squibb) arriesgasen los recursos necesarios. En
1944 ya se dispuso de cantidades suficientes de penicilina para tratar a
heridos de guerra en África del norte y Europa, al igual que infecciones graves
de civiles. En 1945, Fleming, Florey y Chain recibían el premio Nobel de
Medicina.
§. Nuevos antibióticos
El entusiasmo que generó el nuevo fármaco es comprensible. La ciencia que
subyacía en su descubrimiento y desarrollo no era especialmente novedosa, pero
los resultados que el nuevo instrumento médico, la nueva medicina, suministraba
eran espectaculares (contraindicaciones, como la sensibilización ante la
penicilina, no serían descubiertas hasta mucho después). No es, en
consecuencia, sorprendente que se buscasen otros medicamentos que cumplieran
funciones parecidas. Éstos no tardaron en llegar: el primero, en 1944, fue la
estreptomicina, descubierta por Albert Schatz (1922-2005), con el estímulo de
su jefe, el microbiólogo estadounidense de origen ruso Selman Waksman
(1888-1973) —quien, por cierto, acuñó el término antibiótico— en la
Universidad de Rutgers. Entre las virtudes de la estreptomicina se encontraba
la de ser efectiva en el tratamiento de la tuberculosis y otras infecciones
bacterianas que la penicilina no curaba.
Este descubrimiento tiene su lado oscuro: durante mucho tiempo se
adjudicó todo el mérito a Waksman. Aunque el anuncio se hizo en un artículo que
tuvo como primer firmante a Schatz (los dos restantes fueron, en este orden,
Elizabeth Bugie y Waksman), el premio Nobel de Medicina en 1952 fue adjudicado
a Waksman, «por su descubrimiento de la estreptomicina, el primer antibiótico
eficaz contra la tuberculosis». La explicación se halla en las maniobras de
Waksman, que aprovechó su posición de superioridad para oscurecer el logro de
su colaborador, el verdadero autor del descubrimiento. Es cierto, eso sí, que
Waksman fue el principal responsable del desarrollo y comercialización de la
estreptomicina, al inducir a varias firmas farmacéuticas a que la produjeran,
ya que la demanda pronto superó las posibilidades de una sola compañía. Gracias
a los royalties, en una industria que generaba cincuenta millones
de dólares anuales, la Universidad de Rutgers recibió millones de dólares. El
propio Waksman donó parte de sus derechos para el establecimiento de un
instituto de microbiología allí.
Más tarde llegaron otros antibióticos, como la aureomicina, desarrollada
por los Laboratorios Lederle en 1948, el cloranfenicol (Parke-Davis, 1949), el
primer antibiótico completamente sintético, capaz de luchar contra la fiebre
tifoidea, o la terramicina (Pfizer, 1950).
De esta manera, se abrió un mundo nuevo, una, podríamos decir, era en la
que los antibióticos constituyeron un medicamento esencial. Un mundo médico del
que se beneficiarían a lo largo de la segunda mitad del siglo XX cientos de
millones de personas, muchas de las cuales seguramente habrían muerto sin el
auxilio que recibieron de esos antibióticos. ¿Habría llegado la población
mundial a los seis mil millones si no se hubieran conocido los antibióticos? De
hecho, uno de los grandes peligros que acechan al mundo actual es que los
antibióticos dejen de ser eficaces, al inmunizarse contra ellos los agentes
productores de las infecciones que combaten. Esto es algo que está sucediendo,
en el caso, por ejemplo, de la tuberculosis, al no completar los pacientes los
tratamientos con antibióticos cuando empiezan a mejorar, facilitando de esta
manera que los agentes en cuestión desarrollen defensas contra ellos.
Capítulo 13
Sociedad y salud
La salud, que una persona, su cuerpo, esté libre de enfermedades o
desarreglos, depende de muchos factores. Podemos sufrir heridas y roturas de
huesos de manera accidental, acaso hayamos recibido herencias genéticas que nos
terminen provocando, más pronto o más tarde, algún tipo de desarreglo o es
posible que la edad, el paso de los años, sea la causa de los deterioros que
experimentamos. Como hemos visto, algunos males también nos llegan del
exterior, de infecciones que nos transmiten otras personas, animales o
insectos. Pero tales factores no son los únicos: también está el medio en el
que vivimos, el aire, por ejemplo, que respiramos y los alimentos que tomamos.
Y esto, medio ambiente y alimentación, ha variado con el tiempo.
Ya me referí en el capítulo 1 a lo que significó el contacto permanente
con animales que trajo consigo la introducción de la ganadería: bacterias
inocuas para ciertos animales, pero patógenas para los humanos. La limpieza
corporal, la higiene, una práctica que ha dependido siempre de elementos tales
como situación económica de los individuos, culturas y tecnologías (por
ejemplo, disponibilidad de agua corriente, sistemas de alcantarillado y de
evacuación de excrementos), ha constituido otro de los elementos esenciales que
ha condicionado la situación de la salud pública. La pureza o contaminación de
la atmósfera afecta, asimismo, a las personas. Recordaré en este sentido lo que
para algunos lugares, ciudades como, por ejemplo, Manchester o Londres significó
durante el siglo XIX la denominada revolución industrial: la combustión de
carbón producida por las nuevas máquinas de «fuego», como se las llamó al
principio, o empleada para calentar las casas, emponzoñó la atmósfera en tal
grado que originó todos tipo de afecciones respiratorias. Hijo de aquella
revolución fue el desarrollo de la locomoción, primero con ferrocarriles
movidos también por calderas de carbón, pero luego, gracias al motor de
combustión interna, los automóviles, propulsados por derivados del petróleo.
Nadie ignora en la actualidad cuánto han contaminado, de diversos productos
químicos, los coches el aire que respiramos, provocando, además de los
problemas respiratorios que acabo de mencionar, otros que se expanden como una
nueva plaga: las alergias, hipersensibilidades a ciertas sustancias. No es
exagerado decir que en muchas ciudades, el aire limpio es un bien escaso.
La alimentación es, como decía, otro de los grandes responsables de
enfermedades. Una dieta equilibrada constituye uno de los medicamentos más
poderosos. Esto, que se sabía o sospechaba empíricamente desde antiguo, como
evidencia, por ejemplo, el caso del escorbuto, enfermedad que era común en los
marineros que realizaban grandes travesías, como las que comenzaron a
realizarse a partir de, sobre todo, finales del siglo XV (en su viaje de 1498,
Vasco de Gama perdió a cincuenta y cinco marineros por esta enfermedad y en
1558, sir Francis Drake perdió a seiscientos de sus dos mil trescientos
marineros por el mismo motivo). Sin saber cuál era su causa, se encontró que se
remediaba con frutos, limones y naranjas en particular. Hoy sabemos que el
escorbuto es una avitaminosis producida por carencia de vitamina C (ácido
ascórbico).
§. Vitaminas
Acabo de mencionar una palabra clave, vitamina (del
latín, vita, «vida», e ina, «sustancia»), nombre
propuesto en 1912 por el bioquímico Casimir Funk. Debo decir algo de su
historia.
En 1881, el ruso Nikolai Ivanovich Lunik (1854-1937) llevó a cabo un
experimento extremadamente interesante: alimentó ratones con todos los
compuestos entonces conocidos de la leche, pero no sobrevivían; sí, cuando
añadía a su dieta un poco de leche verdadera. La conclusión era inevitable:
faltaba algo imprescindible para la vida. Otro paso en la dirección al
descubrimiento de las vitaminas fue el que dio el holandés Christiaan Eijkman
(1858-1930), que descubrió en 1897, trabajando en Java, que el beriberi, una
enfermedad microbiana, aparecía en pollos cuando éstos eran alimentados con
arroz desprovisto de cáscara: se curaba cuando tomaban arroz con cáscara.
Aunque él falló en su interpretación, un ayudante suyo en la Universidad de
Utrecht (donde se instaló en 1898), Gerrit Grijns (1865-1944), corrigió en 1901
su error, señalando que era la ausencia de un factor alimenticio, desconocido,
que actuaba en dosis muy pequeñas, el responsable de la enfermedad. Ese «factor
alimenticio» es lo que terminó denominándose vitamina B1, también conocida como
tiamina, identificada en forma pura en un laboratorio por el químico de origen
polaco Casimir Funk (1884-1967) en 1926.
Direcciones y consecuencias parecidas tomaron los trabajos de los
médicos noruegos Axel Holst (1860-1931) y Theodor Frölich (1870-1947), que
consiguieron reducir el escorbuto en conejillos de Indias, alimentándoles con
avena seca y privándoles de verduras, una dieta que provocaba el mal. Pero la
gran figura de las vitaminas fue el bioquímico inglés Frederick Gowland Hopkins
(1861-1947), quien repitió, controlando los resultados cuidadosamente, los
trabajos de Lunik. Después de sus investigaciones, ya no pudo caber duda de que
existían «factores alimenticios accesorios», como los denominó Hopkins, de los
que dependía el desarrollo animal normal. Entre 1909 y 1913, Elmer Verner
McCollum (1879-1967) demostró que ciertas grasas contenían un ingrediente
esencial para el crecimiento normal, un resultado que condujo al descubrimiento
de las vitaminas A (importante para el crecimiento y el desarrollo, para el
mantenimiento del sistema inmunológico y para la vista) y D (responsable de la
absorción intestinal del calcio). En 1928, Albert Szent-Györgyi (1893-1986)
aisló la vitamina C, a partir de las glándulas suprarrenales.
La importancia de las vitaminas se vio reforzada cuando en 1914, Joseph
Goldberger (1874-1929), un médico epidemiólogo de origen polaco que trabajaba
para el Servicio de Salud Pública de Estados Unidos, concluyó que la pelagra no
era una enfermedad infecciosa sino que se debía a una alimentación defectuosa.
§. Cánceres
Llego ahora a uno de los males más temidos por la humanidad, uno que mata cada
año a millones de personas. El cáncer o, mejor, los cánceres. Una enfermedad
que reúne algunas de las características que pueden producir situaciones que
acabo de tratar: condiciones de vida o herencia.
El cáncer es un conjunto de enfermedades caracterizadas por una
proliferación anormal de células. Existen más de cien tipos de cánceres,
algunos comunes, como el de pulmón, otros raros, como el mesotelioma abdominal,
asociado por lo general a la exposición al asbesto. Más específicamente:
crecimiento celular excesivo e incoordinado, que no está sujeto a los controles
normales del organismo y que además tiene capacidad de invasión, destrucción de
estructuras vecinas y diseminación (se podría añadir que normal mente acarrea
la muerte al individuo si se deja evolucionar libremente). La proliferación
celular local da origen a un tumor.
Galeno describió una de estas patologías como «un tumor que se extiende
por los dos lados mediante prolongaciones anormales que invaden los tejidos
adyacentes. Esto se parece a las patas de un cangrejo, que también están en la
cabeza y en todo el cuerpo del animal». Por eso se terminó imponiendo la
palabra «cáncer», que en griego significa «cangrejo».
Si el problema con los cánceres es el de por qué las células se
multiplican desmesuradamente, entonces es obvio que la primera pregunta que hay
que plantearse es la siguiente: ¿cómo sabe la célula cuando ha crecido lo
suficiente para decidir si se divide?
La división celular, como cualquier otro proceso biológico, está bajo
control genético. Genes determinados regulan la mitosis (división) celular, y
lo pueden hacer en respuesta a señales intracelulares, intercelulares y
ambientales. Aunque se ha avanzado notablemente en este problema, incluso en el
caso de Escherichia coli, el organismo celular mejor estudiado,
sigue sin conocerse realmente el mecanismo molecular por el que la célula
decide cuándo debe iniciar su mitosis. Se sabe, sin embargo, que en las células
tumorales se produce una doble regulación: existen promotores de la
proliferación celular (oncogenes) e inhibidores (antioncogenes).
Tan malo puede ser la presencia de los primeros como la ausencia de los
segundos. Se han identificado ya muchos oncogenes y, aunque no son menos los
antioncogenes conocidos, estas cifras muestran con claridad la gran complejidad
de los mecanismos que controlan el crecimiento y la división celular.
La notoriedad del cáncer es tal que son inmensos los recursos que se
emplean en investigaciones cuyo fin es encontrar remedio para él, o para ellos.
Uno de los programas más ambiciosos se planteó en 1971. El 23 de diciembre de
aquel año, el presidente de Estados Unidos, Richard Nixon, anunciaba el
establecimiento de un proyecto que terminaría con el mal. La victoria, señaló,
llegaría en 1976, aniversario del bicentenario de la independencia de Estados
Unidos. Si John Kennedy había sido capaz de culminar su deseo de llevar un
hombre a la Luna, ¿por qué iba a ser diferente con el cáncer? Sidney Farber, un
notable cancerólogo, declaraba: «Estamos llegando al objetivo. Lo que
necesitamos es energía y créditos idénticos a los que han permitido enviar al
hombre a la Luna».
Desgraciadamente, Nixon y todos los que pensaban como él se equivocaron.
Roswell Park, un médico de Nueva York, señalaba en 1899 que el cáncer era «la
única enfermedad que aumenta constantemente». Aquel año, el cáncer se cobró
treinta mil vidas de ciudadanos de su país. En 1994, el cáncer se cobraba
quince veces más: 538.000, según las previsiones de la Sociedad Americana del
Cáncer. Cálculos de la Organización Mundial de la Salud indican que en los
países desarrollados una de cada cinco personas muere de cáncer. Cada año se
diagnostican más de siete millones nuevos de cáncer en el mundo y cuatro
millones mueren de esta enfermedad, aunque es cierto que desde 2000 se ha
experimentado un cierto descenso de la mortalidad, consecuencia de mejores
métodos de tratamiento y prevención.
La tragedia que es el cáncer es todavía mayor por el hecho de que
bastantes de sus causas no genéticas son conocidas, y lo han sido desde hace
tiempo. Existen cánceres originados por productos químicos en el aire que
respiramos, en el agua que bebemos y en los alimentos que comemos. Muchos
cánceres lo producen las malas costumbres o las malas condiciones de trabajo.
También, por supuesto, la herencia genética que uno ha tenido la desgracia de
recibir, aunque éstos probablemente son la minoría.
A finales del siglo XX, la Organización Mundial de la Salud estimaba que
alrededor de la mitad de todos los cánceres se producían en un quinto de la
población mundial, el que correspondía a las naciones más industrializadas. Sin
embargo, incluso dentro de esas naciones más industrializadas, varían mucho los
tipos de cáncer. Recurriendo de nuevo a datos de finales del siglo pasado,
tenemos que el principal cáncer de Estados Unidos (para hombres y desde la
década de 1980 para mujeres también) es el cáncer de pulmón; en Japón es el
cáncer de estómago. El cáncer de boca es casi diez veces más frecuente entre
los hombres franceses que entre los israelitas; las mujeres de Inglaterra y
Gales tienen más de cinco veces más probabilidad de morir de cáncer de pecho que
las mujeres de Japón. Checoslovaquia tiene el mayor índice mundial del mundo de
muertes producidas por cáncer de colon (41 por cien mil), pero su índice de
cáncer de pecho es sólo un tercio del de Estados Unidos. Queensland, en
Australia, es la capital mundial del cáncer de piel, por la desgraciada
circunstancia de la emigración de británicos de piel clara a una región de
intenso y prácticamente permanente sol. En Estados Unidos los negros sufren
proporciones significativamente más altas de muerte que los blancos por
prácticamente todo tipo de cáncer (el cáncer de piel es la única excepción
notable), aunque algunos estudios han demostrado que es la pobreza más que la
raza la que se encuentra en la base de la diferencia. «La pobreza —se ha dicho
con razón— es un cancerígeno.»
Ocupación, dieta y estilo de vida están unidos a la enfermedad. Los que
trabajan con asbestos sufren cáncer de pulmón; los que trabajan con tintes,
cáncer de vejiga y de estómago. El cáncer de hígado puede ser producido por la
exposición al cloruro de vinilo, el cáncer de pulmón por trabajar con arsénico,
uranio o berilio. El cáncer de intestino es raro en países en los que la carne
no es parte regular de la dieta y en los que se consumen grandes cantidades de
fibras. Los mormones, cuyas creencias religiosas les prohíben fumar o beber
alcohol, café o té, tienen proporciones de muerte por cáncer 20 por ciento
menores que los no mormones. En China, se han encontrado correlaciones entre el
riesgo que corren las mujeres de padecer cáncer de pulmón y los combustibles
que utilizan para cocinar, la frecuencia con que cocinan con aceite e incluso
los diferentes tipos de aceite que utilizan.
Se sabe también que no hay mayor causa del cáncer que el tabaco. A
mediados de la década de 1980 se estimó que sólo los cigarrillos eran culpables
de entre trescientas mil y cuatrocientas mil vidas de norteamericanos cada año.
Los fumadores de dos cajetillas diarias de tabaco aumentan su riesgo de sufrir
cáncer de pulmón por un factor de veinte y disminuyen su expectativa de vida en
unos ocho años. Y no sólo sufren los fumadores: la Agencia de Protección del
Medio Ambiente estimaba que más de tres mil no fumadores morían cada año en
Estados Unidos por tabaco de «segunda mano» o «medio ambiental». Un informe de
1991 de la revista oficial de la Asociación Americana del Corazón situaba la
cifra en cincuenta mil. De ahí que, afortunadamente, se hayan introducido en
muchos países severas restricciones a fumar en lugares públicos.
El cáncer, en otras palabras, no es sólo una constante de la condición
humana, también es un producto de las sustancias a las que nos vemos expuestos
en nuestras casas o en el trabajo, al igual que de los estilos de vida que
llevamos. El cáncer es también una enfermedad histórica, en tanto que sus
esquemas de incidencia han cambiado a lo largo del tiempo. En 1900, el cáncer
de pulmón era una enfermedad muy rara; hoy es una de las principales causas de
muerte en las naciones industrializadas.
Desde esta perspectiva, no es demasiado extraño que por el momento la
batalla contra el cáncer, en la que se han empleado inmensos recursos humanos y
económicos, se haya perdido durante mucho tiempo, aunque es cierto que se han
producido, y continúan produciendo, éxitos notables. En la infancia, la
quimioterapia ha modificado el pronóstico de leucemia aguda o el de cáncer de
riñón. En 1960, con una amputación se curaba a menos del 20 por ciento de los
niños afectados de osteosarcoma, un cáncer de huesos. Gracias a la
quimioterapia, más del 60 por ciento se salvan sin amputación. El tratamiento
del cáncer en el adolescente y el joven también ha avanzado. (La enfermedad de
Hodgkin, por ejemplo, un cáncer del sistema ganglionar, hasta hace poco fatal o
casi, se cura en más del 85 por ciento de los casos.)
Hemos aumentado nuestros esfuerzos científicos, pero nos falta aún
bastante en combatir las fuentes no genéticas de las que surge la enfermedad. Y
es que el concepto de enfermedad es algo más que la identificación de un
«germen». No existe semejante cosa —ni, probablemente, siquiera un gen—
para los cánceres. Deberíamos recordar, por ejemplo, la experiencia del siglo
pasado. Aunque los antibióticos y vacunas desarrollados entonces para
enfermedades contagiosas como el cólera o la tuberculosis salvaron millones de
vidas, a la larga aquellas enfermedades fueron dominadas mediante otro tipo de
medidas: mejor alimentación, menos horas de trabajo y, sobre todo, mejores
condiciones de vida, en particular de salubridad. Koch probablemente salvó
menos vidas de víctimas del cólera que activistas como John Snow (1813-1858),
que eliminó el mango de la bomba de agua pública de Broad Street en Londres en
1854, con lo que redujo drásticamente la epidemia de cólera que asolaba a la
ciudad. Los médicos que asistían a las madres durante el parto lograron poner
fin a una larga era de fiebre posparto simplemente lavándose las manos.
La prevención, en lugar de la cura, es un magnífico remedio, acaso el
mejor, para muchos trastornos.
§. Esperanza de vida
Para completar este capítulo diré algo sobre la esperanza de vida (tiempo medio
que le queda por vivir a un individuo de una población biológica determinada),
un índice estrechamente ligado a la medicina y, como estoy diciendo, a las
condiciones de vida.
Desde el siglo XIX la medicina ha experimentado grandes avances, que se
han traducido en aumentos significativos de la esperanza de vida. Hace ya más
de medio siglo, Pedro Laín Entralgo señalaba (Historia de la medicina,
1954) lo que habían significado los avances médicos para las expectativas de
vida de la humanidad: «Nada más elocuente que las cifras estadísticas para
advertir la magnitud del cambio operado. Hace doscientos años, morían
anualmente de 45 a 50 personas por cada mil habitantes; hoy, en los países
cultos, la cifra de los que mueren se halla entre 8 y 15. Con otras palabras:
si bajo Felipe IV hubiese tenido Madrid la población actual, habrían muerto
anualmente más de setenta mil; hoy, en cambio, no llegan a veinte mil. La
mortalidad infantil, que en Nueva York alcanzaba en 1870 la espantosa cifra de
385,5 por 1.000, ha ido descendiendo a 213,6 en 1900, a 98,8 en 1915 y a 35,0
en 1940. Como consecuencia, la vida media de la población ha experimentado un
considerable aumento: treinta y nueve años en 1870, cuarenta y nueve en 1900,
más de sesenta en la actualidad». Y si la esperanza de vida media al nacer era
de sesenta años en la década de 1950, cuando las condiciones sociales y médicas
eran en general peores que las existentes en la actualidad, entrados ya en el
siglo XXI, no sorprenderá que esta cifra haya continuado elevándose.
Limitándonos al caso de la Unión Europea, tenemos que en 1980 la esperanza de
vida rondaba los setenta años (71,2 en Dinamarca, 72,5 en España, 70,2 en
Francia, 70,6 en Italia, 67,7 en Portugal y 70,2 en el Reino Unido), mientras
que en 1998 las cifras para estos mismos países eran de: 78,8 en Dinamarca,
82,2 en España, 82,3 en Francia, 81,8 en Italia, 78,9 en Portugal y 79,7 en el
Reino Unido; es decir, una esperanza de vida de entorno a ochenta años; un
incremento de veinte años en medio siglo.
Manifestación de este hecho, es el aumento radical que ha experimentado
la población mundial, que pasó de 1.650 millones en 1900 a 2.519 en 1950 y a
siete mil millones en 2010, un crecimiento cuyas consecuencias para el futuro
son difíciles de pronosticar pero sin duda peligrosas, como pone de manifiesto,
por ejemplo, la contaminación que sufre nuestro planeta.
Por supuesto, no podemos, ni debemos, olvidarnos que la distribución de
la riqueza y de los medios para alimentarse, alojarse y combatir las
enfermedades dista de ser uniforme: existen en el mundo enormes bolsas de
miseria, en las que se mantienen, cuando no prosperan, las enfermedades, la
malnutrición y el desamparo. En lo que se refiere a las enfermedades, esas
áreas son especialmente vulnerables a enfermedades infecciosas conocidas de
antiguo, como pueden ser la malaria, el dengue, el paludismo o el tifus. La
malaria, por ejemplo, es actualmente la primera enfermedad mundial de las
denominadas «enfermedades debilitantes», causando entre cuatrocientos y
novecientos millones de casos de fiebre y aproximadamente de dos a tres
millones de muertes anuales; de hecho, si continúa su progresión actual (y aún
no existen vacunas completamente satisfactorias), su incidencia puede doblarse
en los próximos veinte años. En cuanto al dengue, cuyas primeras epidemias
aparecieron casi simultáneamente en Asia, África y América del Norte en 1781,
ha pasado a ser a comienzos del siglo XXI, después de la malaria, la segunda
enfermedad más común de las transmitidas por mosquitos y que afectan a los
humanos, con alrededor de cuarenta millones de casos de dengue cada año.
Los (malos) hábitos de vida se manifiestan con claridad en muchas de las
enfermedades no transmisibles, que, contrariamente a lo que se suele pensar, no
afectan sólo a los países desarrollados: un informe del Banco Mundial señalaba
que el 80 por ciento de las muertes por enfermedades de este tipo registradas
en 2005 tuvo lugar en países de renta baja o media, donde vive la mayor parte
de la población mundial. La ingestión excesiva de calorías y grasas y la escasa
actividad física, que conducen a la obesidad, son responsables de las
enfermedades cardiovasculares, la principal causa de muerte en el mundo, con en
torno al 30 por ciento del total (el 13 por ciento corresponde a tumores
malignos, esto es, cánceres, el 7 por ciento a enfermedades respiratorias, el 5
al SIDA, el 2,5 a la tuberculosis, el 2 a la diabetes y el 1,5 a la malaria).
Se estima que el 80 por ciento de las enfermedades coronarias, los accidentes
cerebrovasculares y la diabetes tipo II se podrían evitar si se modificasen los
hábitos de vida.
Capítulo 14
Trasplantes
Cuando se contempla en perspectiva la medicina del siglo XX, es
imposible no advertir que uno de sus desarrollos más llamativos fue el de los
trasplantes de órganos a seres humanos. La conveniencia, cuando no la absoluta
necesidad, de este tipo de acción invasiva no constituye un descubrimiento de
esa centuria (existen ejemplos de trasplantes o injertos de piel realizados en
el siglo XVIII), pero sí fue entonces cuando las técnicas médicas permitieron
que llegasen a tener éxito. Fue necesario, por ejemplo, que se estableciese
sobre bases científicas sólidas la inmunología, un apartado de la medicina en
el que fueron esenciales los trabajos sobre grupos sanguíneos realizados en
1901 por Karl Landsteiner, mencionados en el capítulo 5, que abrieron las
puertas a transfusiones sanguíneas más fiables; los de 1943 de Peter Medewar
(1915-1987), sobre los mecanismos inmunológicos mediante los cuales el
organismo receptor destruye el tejido injertado; o los de Jean Dausset
(1916-2009) sobre la histocompatibilidad humana. Y también, como veremos,
disponer de inmunosupresores. Se necesitó, en definitiva, que cirugía e
inmunología se diesen la mano.
El primer intento de trasplante de órganos de un donante humano muerto
fue el realizado el 3 de abril de 1933 por un cirujano ucraniano, Yu Voronoy
(1896-1961), que trasplantó el riñón de un cadáver a una joven aquejada de
insuficiencia renal. El intento, no obstante, fracasó ya que la receptora
falleció el día siguiente al rechazar su cuerpo el nuevo órgano. Fue el primero
de muchos intentos de instalar con éxito un riñón de una persona fallecida en
otra viva. Finalmente, el 23 de diciembre de 1954 Joseph Murray (1919-2012),
del Hospital Peter Bent Brigham de Boston, trasplantó un riñón entre dos
personas vivas: de un gemelo a su hermano. Fue un éxito total y duradero. No
tardarían demasiado en convertirse en operaciones rutinarias.
En la década de 1960 se iniciaron los trasplantes pulmonares. En junio
de 1963, en Jackson (Estados Unidos), James Hardy (1918-2003) trasplantó los
pulmones de una persona fallecida a un paciente que sufría de cáncer pulmonar,
pero éste sobrevivió solamente dieciocho días, debido a un fallo de los
riñones. Aquel mismo año, Thomas Starzl intentó, en Denver, un trasplante de
hígado, pero no tuvo éxito. Éste llegaría en 1967 (Richard Lillehei y William
Kelly, Minnesota).
§. Trasplantes de corazón
Con ser importantes los anteriores tipos de trasplantes, ninguno podía competir
con los de corazón, el órgano central del cuerpo humano. Para llegar a esa meta
fueron muy importantes las técnicas (como, por ejemplo, las de hipotermia) que
introdujeron en la Universidad de Stanford (Estados Unidos), Norman Shumway
(1923-2006) y Richard R. Lower (1929-2008); en 1959, este último trasplantó
parte de un corazón de un perro a otro perro, que vivió ocho días. No eran los
únicos estos dos médicos los que se encontraban en Estados Unidos muy próximos
a efectuar un trasplante de corazón entre humanos: Lower, Shumway y Adrian
Kantrowitz (1918-2008) —que nos volverá a aparecer en este mismo capítulo—
estaban realizando, compitiendo entre sí, preparaciones para hacer semejante
trasplante, pero no se ponían de acuerdo acerca de la cuestión «muerte cardíaca
versus muerte cerebral». Y en 1964, James Hardy, el pionero de trasplantes de
pulmones, intentó realizar uno de corazón, pero el fallo prematuro del corazón
del receptor le sorprendió sin disponer de un corazón de donante; en su lugar,
utilizó el de un chimpancé que falló rápidamente.
A todos ellos se les adelantó un cirujano surafricano, Christiaan
Barnard (1922-2001), del Hospital Groote Schuur, en Ciudad del Cabo.
El 3 de diciembre de 1967, Barnard trasplantó un corazón procedente de
una mujer de veinticuatro años, fallecida en un accidente de circulación, a un
inmigrante lituano de cincuenta y cinco años, Louis Washkansky, que había
sufrido una serie de infartos durante los siete años precedentes y cuyo corazón
estaba en tal estado que los cardiólogos estimaban que moriría en unas pocas
semanas. Algunos —no el autor de este libro— consideran este hecho como el
acontecimiento más importante en la historia de la medicina.
Washkansky sobrevivió trece días, falleciendo de neumonía: su sistema
inmunológico, suprimido con medicamentos y radiaciones para que no atacase a su
nuevo corazón, había sido incapaz de luchar contra la infección; sin embargo,
un estudio post mórtem reveló que el corazón mantuvo su función normal hasta el
último momento, no encontrándose signos de rechazo del órgano. El 2 de enero
del año siguiente, Barnard realizó un nuevo trasplante de corazón, a un
dentista de cincuenta y ocho años, Philip Blaiberg, con mayor éxito, ya que el
paciente sobrevivió 594 días, hasta que, de nuevo, su organismo rechazó el
corazón trasplantado. Pronto, los trasplantes de corazón se extendieron por
todo el mundo: en los cuatro años siguientes, 56 equipos de cirujanos llevaron a
cabo un total de ciento ochenta trasplantes (cien de ellos el primer año). No
obstante, muchos hospitales abandonaron pronto la práctica, debido a los
problemas de rechazo inmunológico que producían los órganos recibidos.
La solución a este problema llegó en 1972, cuando un investigador del
Laboratorio Sandoz de Basilea (Suiza), Jean Borel (n. 1933), descubrió en las
altiplanicies de Noruega un antibiótico, la ciclosporina, que aisló de un hongo
denominado Tolypocladium inflatum que posee una potente acción
inmunosupresora, pudiendo anular la respuesta defensiva del organismo que causa
el rechazo del corazón trasplantado. Definitivamente, se había abierto una
nueva puerta médica, una puerta a la esperanza, a la supervivencia.
§. Marcapasos y corazones artificiales
Ahora bien, por mucho que sea el éxito alcanzado en la realización de
trasplantes de corazón, es evidente que se trata de una práctica que no puede
ser muy frecuente al necesitar de donantes. Y si tenemos en cuenta que una de
las enfermedades que, como ya indiqué, más han aumentado, al menos en los
países desarrollados, los países de la abundancia, han sido las
cardiovasculares (en Estados Unidos representaban en 1990 el 46,2 por ciento
del total de muertes, mientras que en España la cifra era de 40,7 por ciento y
en Perú —no uno de los países de «la abundancia»— el 11,9 por ciento), entonces
se hace evidente la necesidad de contar con métodos alternativos y también
paliativos.
Un primer paso importante en la lucha contra los infartos, el problema
cardiovascular más grave (o más frecuente), fue la introducción de los
marcapasos, dispositivos alimentados por baterías que emiten pulsos eléctricos
que hacen latir al corazón a un ritmo regular y constante. En 1952, Paul
Maurice Zoll (1911-1999), un cardiólogo de Boston, presentó públicamente (en un
artículo que publicó en la revista New England Journal of Medicine)
un aparato que combinaba el control del electrocardiograma del enfermo y un
generador de pulsos, y que fabricó en Estados Unidos la empresa Electrodyne. El
mismo año que lo presentó, logró que volviesen a funcionar los corazones de dos
pacientes: uno vivió veinte minutos y el otro, once meses. No obstante, el
aparato de Zoll era muy molesto: se pegaba al pecho y funcionaba emitiendo
pulsos a través de los músculos pectorales, con el resultado de que se
producían quemaduras en la piel del paciente después de uno o dos días.
Con la invención (1947) del transistor fue posible construir marcapasos
más pequeños y, por tanto, que se pudieran implantar. En 1957, el ingeniero
Earl Bakken (n. 1924), de la empresa Medtronic (Minneapolis, Estados Unidos),
avanzó en esta dirección fabricando un marcapasos con pilas de mercurio, y el 8
de octubre de 1958 un equipo sueco dirigido por el cirujano cardiovascular Åke
Senning (1915-2000), realizó el primer implante de un marcapasos a un ser
humano, a Arne Larsson, de cuarenta y tres años, utilizando el dispositivo
diseñado por el ingeniero Rune Elmquist (1906-1996). Es importante señalar no
sólo que el aparato falló a las tres horas de su implantación, siendo
sustituido por otro que duró dos días (Larsson falleció en 2001 tras haber
necesitado 22 marcapasos distintos a lo largo de su vida), sino también que no
se trataba de un marcapasos completamente interno, al depender de fuentes
externas, con lo que el receptor del aparato tenía cables que atravesaban su
piel; de hecho, durante algún tiempo los pacientes continuaron llevando
elementos externos sujetos al cinturón, con baterías de mercurio de duración
muy limitada.
Pero el extraordinario progreso tecnológico que se produjo a lo largo de
la segunda mitad del siglo XX condujo al diseño y fabricación de marcapasos con
tamaño y peso mucho más reducido, que se implantan debajo de la piel del tórax,
introduciendo el cable conductor hasta la punta del corazón, a través de la
vena central.
El primer marcapasos de implantación totalmente interna se utilizó en
1960: contenía una batería de mercurio con carga útil de un año de duración; la
sustitución de las baterías de mercurio por otras fabricadas con litio,
permitió que el marcapasos pudiera funcionar normalmente de ocho a diez años.
Otro avance importante fue el desfibrilador automático implantable, un
aparato que se introduce debajo de la piel del tórax o del abdomen del paciente
y cuyos cables se conectan al corazón. Se trata de un dispositivo electrónico
duración; la sustitución de las baterías de mercurio por otras fabricadas con
litio, permitió que el marcapasos pudiera funcionar normalmente de ocho a diez
años. que vigila constantemente el ritmo cardíaco del sujeto que lo porta y que
al detectar una arritmia ventricular grave o una parada cardíaca efectúa una
descarga eléctrica de bajo voltaje para restaurar el ritmo cardíaco normal. Si
esta primera descarga no logra corregir el problema, realiza otra pero esta vez
de alto voltaje, para poner el corazón de nuevo a funcionar. Desde que el
doctor Michel Mirowski (1924-1990), un nativo de Polonia que terminó trabajando
en el Instituto Sinaí de Baltimore (Estados Unidos), implantase en 1980 el
primer desfibrilador automático, el número de estos implantes ha aumentado
exponencialmente en todo el mundo (según un estudio publicado en New
England Journal of Medicine el desfibrilador automático implantable
reduce el riesgo de muerte súbita en un 23 por ciento).
Pero puede suceder que ninguno de estos remedios paliativos sea
suficiente, que el corazón de una persona no tenga arreglo, que se obstine en
dejar de funcionar, que no exista donante y que se necesite un sustituto,
un corazón artificial. En 1937, el ruso Vladimir Demikhov
(1916-1998) diseñó el primero de estos corazones, que utilizó experimentalmente
en perros. En la década de 1960, Adrian Kantrowitz, con el que ya nos
encontramos, inventó un sistema de asistencia cardíaca —denominado «contracción
aórtica»— que implantó con éxito en varios pacientes, en el Maimonides Medical
Center de Nueva York. Aunque continúa siendo utilizado extensamente para
mejorar la fuerza contráctil del corazón, tiene el inconveniente de ser eficaz
solamente durante unos días. Pero el camino hacia un verdadero corazón
artificial implantable en humanos está siendo largo y difícil. Entre los que
han transitado este camino mencionaré a Michael DeBakey (1908-2008), quien en
1963 implantó, en el Hospital Metodista de Houston de Texas (Estados Unidos),
un dispositivo de asistencia ventricular izquierda (corazón artificial parcial)
en un paciente de cuarenta y dos años con insuficiencia cardíaca terminal.
Funcionó hasta el fallecimiento del enfermo por daño cerebral. Sería Denton
Cooley (n. 1920) quien realizó el primer implante mundial de un corazón
artificial completo en el Texas Heart Institute de Houston el 4 de abril de
1969. Funcionó perfectamente durante 64 horas, hasta que el enfermo recibió un
corazón humano.
Luego llegaron más modelos, cada uno mejor que el anterior; sin embargo
no fue hasta 2006 cuando se autorizó oficialmente en Estados Unidos y Europa la
implantación de un corazón artificial total, en pacientes con fallo
irreversible del corazón. El modelo aceptado internacionalmente —al menos lo
era hasta no hace mucho— es el AbioCor® (Abiomed Inc., Estados Unidos), cuyo
uso, de acuerdo con las regulaciones oficiales, únicamente está permitido para
pacientes con insuficiencia cardíaca terminal, con expectativa de vida menor de
un mes. A diferencia de modelos anteriores, no tiene consola externa, ni cables
o cánulas a través de la piel del enfermo, y la batería interna que lo mantiene
se recarga constantemente a través de una fuente de energía mediante un mecanismo
que evita la necesidad de cables externos, que son fuentes de molestias e
infección.
Capítulo 15
Técnicas de imagen en la medicina
Las técnicas de imagen en la medicina ya nos han aparecido. Fue en el
capítulo 10, al ocuparme de los rayos X. Vimos allí cómo este descubrimiento de
la física representó uno de los grandes logros de la medicina del siglo XX.
Casi medio siglo después del descubrimiento de Röntgen, el físico
estadounidense experto en rayos X Arthur Holly Compton (1892-1962; su nombre se
ha inmortalizado en la física bajo el epígrafe de «efecto Compton») señalaba su
trascendencia en un artículo que publicó en 1945 en la revista Radiology:
Si la ciencia es la gran búsqueda intelectual del mundo moderno, el
descubrimiento [de los rayos X] constituye uno de los mayores logros de la
época. Existen, no obstante, quienes quieren medir la importancia en dólares, o
en la forja del destino nacional, o en términos de la vida humana. Incluso en
términos tan prácticos, el descubrimiento de los rayos X debería ser reconocido
con un acontecimiento extraordinario en la historia del hombre.
En lo que se refiere a la vida humana, deberíamos recordar que el efecto
directo de la utilización de los rayos X y del radio en diagnóstico y terapia
ha salvado un número de vidas que es comparable con el número de soldados
muertos en una guerra mundial.
Ahora bien, cuando Compton escribía estas líneas ya era notorio que
existían problemas con la técnica: como indiqué en el capítulo 10, la baja
sensibilidad de las películas fotográficas de que se disponía en los primeros
tiempos de la introducción de los rayos X en medicina hizo que se llegasen a
necesitar hasta más de diez minutos de irradiación (es fácil imaginar lo que
esto significaba; en la actualidad, con las nuevas películas las exposiciones
son de unos pocos milisegundos). Pero con el paso del tiempo se introdujeron
mejoras que redujeron el riesgo. Importante en este sentido fue la
introducción, en 1955, del intensificador de imágenes, que permitía sustituir
la placa fotográfica por un dispositivo electrónico de menor resolución, además
su rápida respuesta facilitaba la observación de imágenes en movimiento; por
otra parte, abría la puerta a la radiología digital, en la que la placa
fotográfica es sustituida por un detector electrónico conectado a un ordenador.
§. Tomografía axial computerizada
Una hija, por lo menos pariente próximo, de la anterior técnica es la
tomografía axial computerizada (TAC), en la que un tubo emisor de rayos X y un
detector giran describiendo un círculo alrededor del paciente. Con la
información recogida, un ordenador reconstruye los cortes tomográficos de la
zona del cuerpo que se desea analizar.
Los creadores de esta técnica —por la que recibieron el premio Nobel de
Medicina en 1979— fueron un físico y un ingeniero electrónico, Allan Cormack
(1924-1988) y Godfrey Hounsfield (1914-2004). Precisamente en su discurso en la
entrega del Nobel, Cormack explicó cómo llegó a interesarse por el problema del
que surgió la tomografía axial computerizada; es interesante citar lo que dijo
en aquella ocasión:
En 1955, yo era lecturer de Física en la Universidad de Cape Town
(Suráfrica) cuando el físico del Hospital Groote Schuur dimitió. La ley
surafricana exige que un físico propiamente cualificado supervise la
utilización de los isótopos radiactivos y como yo era el único físico nuclear
en Ciudad del Cabo me pidieron que pasase un día y medio a la semana en el
hospital vigilando el empleo de isótopos, algo que hice durante la primera
mitad de 1956. Me ubicaron en el Departamento de Radiología bajo la dirección
del doctor J. Muir Grieve y en el curso de mi trabajo observé la planificación
de los tratamientos de radioterapia. Una mujer superponía tablas de dosis de
isótopos y producía contornos de dosis que el médico examinaba y ajustaba, un
proceso que se repetía hasta que se encontraba una distribución de dosis
satisfactoria. Las tablas de dosis de isótopos eran para materiales homogéneos
y se me ocurrió que, como el cuerpo humano no lo es, los resultados se verían
deformados por las inhomogeneidades, un hecho del que, por supuesto, los
médicos eran muy conscientes. Pensé que para mejorar la planificación del
tratamiento tendría que conocerse la distribución del coeficiente de atenuación
de los tejidos del cuerpo [la cuantía de la disminución de intensidad del haz
de radiación que se produce al atravesar el cuerpo] y que esta distribución
tendría que encontrarse realizando medidas externas al cuerpo. Pronto se me
ocurrió que esta información sería útil para los diagnósticos y que
constituiría una tomograma o series de tomogramas, aunque no aprendí la palabra
«tomograma» hasta muchos años después.
Cormack también pensó que si se obtenía el suficiente número de
proyecciones con ángulos diferentes, podría lograrse la información necesaria
para determinar de manera cuantitativa la estructura interna del organismo y
más tarde reconstruir las imágenes de forma que tuvieran utilidad diagnóstica.
Aquel mismo año se trasladó a la Universidad de Harvard, en donde se ocupó de
desarrollar una teoría matemática para la reconstrucción de las imágenes,
teoría que sometió a pruebas mediante una simulación en el laboratorio el año
siguiente, cuando regreso a Ciudad del Cabo. Prosiguió allí con la elaboración
de su modelo matemático y realizando experimentos de prueba (siempre con
fuentes radiactivas), publicando finalmente sus resultados en 1963, pero éstos
no atrajeron la atención necesaria.
Diez años después de que Cormack se introdujese en estos dominios,
Godfrey Hounsfield, del Departamento de Sistemas Médicos de los Laboratorios
Centrales de Investigación de EMI (Electrical and Musical Industries), en
Londres, comenzó investigaciones parecidas, pero utilizando una fuente de rayos
X. Y, además, fue más allá que Cormack, construyendo una máquina real. Primero
probó con un cerebro humano conservado en el museo de un hospital cercano, y
luego, en 1972, con un paciente, una mujer de la que se sospechaba que padecía
una lesión cerebral. La imagen obtenida reveló un quiste circular en el
cerebro. Nacía así la tomografía axial computerizada, un notable ejemplo de los
grandes beneficios que se obtienen cuando se producen alianzas entre física,
ingeniería y medicina, por mucho que éstas sean tan casuales y temporales como
la que se produjo en el caso de Cormack. Ocho años después, el mismo año en que
Hounsfield y Cormack recibieron el premio Nobel de Medicina, el nuevo sistema
se aplicaba en alrededor de mil hospitales del mundo.
§. Tomografía de emisión de positrones
Otra técnica de imagen de diagnóstico médico desarrollada en la década de 1970
es la tomografía de emisión de positrones (PET; de Positron Emission
Tomography ), que utiliza las propiedades de los positrones (la
antipartícula del electrón) que son producidos en un ciclotrón: tras recorrer
una corta distancia, el positrón choca con un electrón del cuerpo del paciente,
momento en que tiene lugar la aniquilación de ambos (como ocurre cuando una
partícula y su antipartícula chocan). La energía producida en el proceso de
aniquilación se disipa en forma de dos fotones que se mueven en direcciones
opuestas y que son detectados mediante un par de sensores, procesándose
posteriormente la información recibida, lo que permite detectar cambios en la
concentración de los tejidos que contenían los electrones iniciales. Como ha
escrito el doctor Pedro García Barreno (Medicina virtual, 1997): «La PET
ha supuesto una herramienta insustituible para estudiar los mecanismos de las
reacciones químicas in vivo y las bases moleculares de la
adicción a las drogas y del síndrome de abstinencia, del envejecimiento, de
diferentes trastornos neurológicos y enfermedades mentales. Al contrario que
las imágenes proporcionadas por la Tomografía Computarizada y la Resonancia
Magnética, eminentemente estructurales, las imágenes por PET muestran la
bioquímica y la fisiología». En este sentido, un acontecimiento relevante tuvo
lugar en 1973, cuando la PET se utilizó para mostrar la actividad metabólica
cerebral: nacía así una nueva neurología.
§. Medicina nuclear
La mención de los positrones y de los ciclotrones donde se producen, nos lleva
a otro apartado de la medicina del siglo XX: el de la medicina nuclear.
Esta disciplina es heredera de la radiactividad, que ya nos ha aparecido
en este libro. Mencioné entonces, pero muy brevemente, que cuando se
descubrieron otros elementos radiactivos que también emiten rayos gamma pero
que son menos dañinos para los tejidos humanos que el radio, el empleo de éste
para el tratamiento de cánceres disminuyó drásticamente, hasta su práctica
desaparición. Ahora es el momento de continuar esa historia.
Lo primero es introducir a los «radioisótopos», variedades de elementos
químicos —isótopos (elementos que ocupan el mismo lugar en la tabla periódica
de los elementos, lo que significa que son el mismo elemento, pero que se
diferencian en el número de neutrones que albergan en sus núcleos)—
radiactivos. Un acontecimiento importante fue el descubrimiento de
radioisótopos con aplicaciones médicas, una circunstancia de la que se
aprovecharon algunos físicos nucleares, como Ernest Lawrence (1901-1958), el «padre»
de los ciclotrones, los primeros aceleradores de partículas. En su búsqueda de
financiación para los cada vez más grandes —y, por consiguiente, más costosos—
ciclotrones que quería construir en la Universidad de Berkeley (Estados
Unidos), Lawrence recurrió a diversas instituciones, entre ellas a la Fundación
Rockefeller. Ahora bien, ésta estaba interesada principalmente en ayudar a las
investigaciones médicas, no viendo con particular interés la física de altas
energías, y así rechazó al menos seis solicitudes de Lawrence. Únicamente fue
en abril de 1940 cuando aceptó donar 1,4 millones de dólares para la
construcción de un ciclotrón mayor que los entonces disponibles.
Lo que hizo cambiar de opinión a la Fundación fueron las aplicaciones
biomédicas de los ciclotrones; esto es, que fuesen capaces de producir
elementos químicos radiactivos útiles en medicina. De hecho, Lawrence advirtió
pronto que su máquina tenía aplicaciones médicas y que éstas podían serle de
utilidad (intentó patentar algunos radioelementos con aplicaciones médicas,
para así obtener con su venta fondos para su laboratorio). En un informe que
preparó en 1934, señalaba que el sodio-24, que era capaz de producir con cierta
facilidad en Berkeley, podía tener importantes aplicaciones comerciales. En
efecto, este elemento se incorpora a determinadas moléculas del organismo y
recorre el cuerpo humano como el sodio ordinario, pero su vida media, quince
horas, era adecuada para realizar estudios sobre la circulación de la sangre:
una vez ingeridas cantidades muy pequeñas del mismo, se comprobaba con un
contador Geiger que esta sustancia radiactiva llegaba a, por ejemplo, una mano
en pocos minutos. Aunque también fue utilizado para diagnosticar algunos
desórdenes vasculares, el sodio-24 no hizo, sin embargo, honor a las esperanzas
que Lawrence había depositado en él (con sodio-24 se quiere decir el isótopo
del sodio de peso atómico 24); otros radioelementos generados en el ciclotrón
sí lo harían: el fósforo-32 ha sido utilizado con éxito en, por ejemplo, el
tratamiento de la leucemia y en la enfermedad de Hodgkin; el yodo-131, para
combatir problemas de tiroides, localizar tumores cerebrales, estudiar los
riñones, el hígado y los pulmones; el cobalto-60, en la quimioterapia del
cáncer y en estudios de anemia perniciosa, y el tecnecio-99, para explorar el
cerebro, tiroides, riñones, hígado y bazo.
Un nuevo paso en la dirección de acercar la física y química nucleares a
la medicina, lo dio el presidente de Estados Unidos, Dwight David Eisenhower.
El mismo año, 1953, en que fue elegido para la Presidencia de Estados Unidos,
más concretamente el 8 de diciembre de aquel año, presentó ante la Asamblea
General de la Organización de Naciones Unidas (ONU) el «Programa Átomos para la
Paz», en el que no olvidó referirse a la necesidad de movilizar expertos «para
aplicar la energía atómica a las necesidades de la agricultura, medicina y
otras actividades pacíficas». Así, durante la Primera Conferencia Internacional
sobre los Usos Pacíficos de la Energía Nuclear, celebrada en Ginebra en 1955
los temas biológicos y médicos fueron objetos de diez sesiones. En el ámbito
terapéutico se presentaron 27 comunicaciones sobre tratamiento con yodo
radiactivo y fósforo-32, mientras que en el del diagnóstico se leyeron 54
comunicaciones, una buena parte de ellas sobre el desarrollo de nuevos aparatos
de registro. Entre los participantes se encontraba Hal O. Anger, quien estaba
culminando entonces su prototipo de cámara de rayos gamma, que culminó en 1956.
La cámara en cuestión funcionaba como una cámara fotográfica que en vez de
detectar luz visible registraba radiación gamma, obteniendo imágenes que
reflejaban la distribución del trazador (el isótopo radiactivo que se incorpora
inocuamente a las rutas metabólicas del organismo).
§. Resonancia magnética nuclear
Una manifestación posterior de las posibilidades médicas de la física nuclear,
es otra técnica de imagen, diferente de las anteriores, que se suma a los TAC y
PET; una técnica basada en la resonancia magnética nuclear, un fenómeno
identificado en 1946, de manera independiente, por dos grupos dirigidos,
respectivamente, por los físicos estadounidenses Felix Bloch (1905-1983), de la
Universidad de Stanford, y Edward Purcell (1912-1997), de la Universidad de
Harvard (por ello recibieron el premio Nobel de Física en 1952) y llevada a la
medicina en la década de 1970. El responsable de este nuevo desarrollo fue un
médico especializado en cáncer y con experiencia en física: Raymond Damadian
(n. 1937). Desde el punto de vista físico, el fenómeno se basa en el hecho de
que algunos núcleos atómicos, y en particular el del hidrógeno, cuyo núcleo
está constituido por un único protón, se comportan como minúsculos imanes
(nanoimanes) cuando se aplica un campo magnético de suficiente intensidad,
alineándose los núcleos en cuestión en la dirección del campo. Si entonces el
escáner aplica una señal de radiofrecuencia, se perturba esa configuración, que
se recupera cuando cesa la señal. Durante el tiempo que tardan los núcleos en
retornar a su configuración de alineación, emiten unas señales que detecta un
sensor, que las envía a un ordenador, en el que mediante técnicas matemáticas,
son convertidas en imágenes que revelan la distribución del hidrógeno en el
organismo. Y como el hidrógeno es, al formar parte del agua, el componente más
abundante en el cuerpo humano y la señal emitida depende de la combinación
química de las moléculas del agua, resulta que se puede obtener imágenes de
cualquier tejido del cuerpo y discriminar entre sanos y patológicos.
La idea de Damadian fue suponer que los átomos de hidrógeno de tejidos
cancerosos reaccionaban de forma diferente en la resonancia magnética nuclear
que los de los tejidos normales. Comenzó a trabajar en esta idea en 1971,
desarrollando un mecanismo para hacerla operativa, y el 17 de marzo de 1972
solicitaba una patente para «Detectar tejidos cancerosos en células
corporales». La realización práctica llegó el 3 de julio de 1977, con una
máquina bautizada como Indomitable («Indomable»), con la que
tomó la primera imagen topográfica, de un colega, Lawrence Minkoff (en 1978
Damadian fundó una compañía, FONAR, para comercializar su invento). Sin
embargo, la técnica era aún algo primitiva: necesitaba cuatro horas para
reconstruir las imágenes línea a línea. Desarrollos posteriores han resuelto
este y otros problemas (actualmente las imágenes se realizan en segundos)
haciendo de la resonancia magnética nuclear (RMN) una técnica médica con
múltiples aplicaciones ya que, a diferencia de, por ejemplo, las radiografías
que muestran sustancias sólidas como huesos, permite producir imágenes, de gran
contraste, de los tejidos blandos del cuerpo, logrando el seccionado de éste en
láminas y generando imágenes a distintas profundidades. Asimismo, sirve para
estudiar la bioquímica del cuerpo humano in vivo.
§. Ecografías
Las técnicas de diagnóstico por imagen no están basadas únicamente en el uso de
las radiaciones. También está la ecografía, una técnica que se
desarrolló a partir del sónar, un aparato militar diseñado para la guerra
submarina, en cuyo desarrollo se comenzó a trabajar durante la primera guerra
mundial, aunque fue durante la segunda cuando se perfeccionó. Utiliza
ultrasonidos, ondas menos problemáticas que las radiaciones ionizantes al no
afectar a los átomos y moléculas de los tejidos. Estas ondas pueden viajar a
través de los tejidos biológicos, reflejándose cada vez que encuentran una
nueva superficie, lo que sucede cuando pasan por diferentes tipos de tejidos.
Cuando se reciben en el detector, las ondas reflejadas se amplifican para poder
ser escuchadas, o bien se convierten en señales que pueden ser procesadas con
la ayuda de un ordenador para proporcionar datos específicos sobre la forma y
posición de los tejidos. En las primeras máquinas de ultrasonidos el paciente
tenía que sumergirse en una bañera, pero en 1957 se diseñó un escáner de
contacto muy parecido a los, más o menos, definitivos, que entraron en servicio
hacia 1980, utilizándose preferentemente en las exploraciones durante el
embarazo, aunque también se emplea como técnica exploratoria no invasiva en
exámenes de, por ejemplo, mama o próstata.
Capítulo 16
La biomedicina del ADN
En el capítulo 8 traté de la célula, pero no me detuve demasiado en este
«átomo de la vida». Ahora es el momento de decir algo más, en particular de
cómo, y en cuál de sus partes, se gobierna el proceso de la herencia, el que la
descendencia comparta con sus progenitores muchos rasgos; sin ir más lejos uno
primario, el de pertenecer a la misma especie.
§. Charles Darwin y el problema de la herencia
El estudio de la naturaleza de la vida se limitó durante siglos —milenios, de
hecho— a la estructura más visible. En primer lugar, a la anatomía, lo que
implicaba la disección, y a la clasificación de especies (taxonomía), buscando
encontrar caracteres comunes a grupos. Con estos conocimientos, fue posible
descubrir las relaciones entre diferentes especies, punto en el que es obligado
mencionar al gran naturalista inglés Charles Darwin (1809-1882), el autor de
uno de esos libros que «hacen historia», que pasan a formar parte del
patrimonio universal de la humanidad: On the Origin of Species by means
of Natural Selection, or the Preserva tion of Favoured Races in the Struggle
for Life («Sobre el origen de las especies por medio de selección
natural, o la preservación de especies favorecidas en la lucha por la vida»,
1859). mencionar al gran naturalista inglés Charles Darwin (1809-1882), el
autor de uno de esos libros que «hacen historia», que pasan a formar parte
del On the Origin of Species by means of Natural Selection, or the
Preserva tion of Favoured Races in the Struggle for.
Darwin nos enseñó que toda la vida que existe sobre la Tierra está
emparentada entre sí, que las formas más primitivas han ido cambiando y dando
origen a otras más complejas, que a su vez han evolucionado,
produciendo nuevas especies a partir de otras anteriores.
Es como un árbol, el árbol de la vida, en donde de un tronco común van
surgiendo ramas, de las que brotan otras ramas, en un proceso dirigido por la
lucha por los recursos. Ahora bien, Darwin desconocía por completo cómo podían
surgir esas variaciones y, sobre todo, cómo una vez aparecidas eran
transmitidas a la descendencia. Aunque nunca resolvió este problema, propuso
una teoría al respecto, que explicó en otro de sus libros, La variación
de los animales y las plantas bajo domesticación (1868). En el capítulo
27 (el penúltimo) de este libro, Darwin presentó la teoría que propuso, la de
la pangénesis.
Uno desearía explicarse, aunque fuera de manera imperfecta, cómo es
posible que un carácter que poseyó algún remoto antecesor reaparezca de repente
en la descendencia; cómo los efectos del uso que aumenta o reduce un miembro
pueden ser transmitidos al niño; cómo el elemento sexual masculino puede actuar
no sólo en el óvulo, sino ocasionalmente en la forma materna; cómo se puede
producir un híbrido por la unión de tejido celular de dos plantas
independientemente de los órganos de gemación; cómo un miembro puede
reproducirse en la línea exacta de la amputación sin añadir poco o mucho; cómo
el mismo organismo puede ser producido por procesos tan diferentes como la
gemación y generación seminal, y, por último, cómo en dos formas allegadas, una
atraviesa durante su desarrollo una metamorfosis muy compleja y otra no lo hace
así, aunque al llegar a la madurez ambas son similares en cada detalle de
estructura. Sé que mi opinión es sólo una hipótesis provisional o especulación,
pero hasta que se desarrolle otra mejor puede servir para unir una multitud de
hechos que hasta el presente permanecen desvinculados por alguna causa eficaz.
Básicamente, su teoría era que «todas las unidades del cuerpo, tienen
juntas el poder … de crecer por autodivisión, de expeler átomos independientes
y diminutos de sus contenidos, que son las gémulas. Éstas se multiplican y
agregan en las yemas y en los elementos sexuales; su desarrollo depende de su
unión con otras células o unidades nacientes; y son capaces de transmitirse en
un estado latente a las sucesivas generaciones». Más concretamente, el
«desarrollo de cada ser, incluyendo todas las formas de metamorfosis y
metagénesis depende de la presencia de gémulas expelidas en cada período de la
vida, y en su desarrollo, en un período correspondiente, en unión con células
precedentes … El niño, estructuralmente hablando, no crece hasta hacerse
hombre, sino que contiene gérmenes que lenta y sucesivamente se desarrollan y
forman el hombre. En el niño como en el adulto, cada parte genera la misma
parte. La herencia puede ser vista como una forma simple de crecimiento, como
la autodivisión de una planta unicelular de inferior organización … Cada animal
y planta puede compararse a un lecho de mantillo lleno de semillas, algunas de
las cuales germinan pronto, algunas se mantienen por un período, mientras otras
perecen».
Hoy sabemos que estas ideas, bastante oscuras (por eso también las he
citado, para mostrar lo difícil que es avanzar en el conocimiento), eran
profundamente erróneas. La pieza de que carecía Darwin era, por supuesto, la
genética. Y en este punto hay que hacer referencia a Mendel, pero antes
mencionaré, muy brevemente, una derivación relativamente reciente de las ideas
de Darwin sobre la evolución: la medicina darwiniana.
La medicina darwiniana
Lo que la evolución cambia, permanece en la especie que desarrolla ese
cambio. Darwin, por supuesto, sabía esto, pero no dijo prácticamente nada al
respecto. Nuestros propios cuerpos muestran que no todo lo que se hereda como
producto de los cambios evolutivos termina siendo beneficioso para las especies
(¿para qué nos sirve en la actualidad, el apéndice situado en el ciego, donde
comienza el intestino grueso, si no es para el riesgo de padecer apendicitis?).
De conclusiones como éstas ha surgido un nuevo enfoque de la enfermedad, de
algunas enfermedades: la idea de que las enfermedades han surgido de un
«desajuste» entre el mundo actual y aquel en el que las especies que sufren
esos males se desarrollaron y adaptaron. Está por ver si esta medicina darwiniana
conduce a resultados interesantes.
Y ahora, ya sí, pasaré a Mendel.
§. Mendel y la genética
Johann Mendel (1822-1884) nació en Heinzendorf, entonces perteneciente a
Austria y ahora a la República Checa, de familia de campesinos. Su destino casi
obligado debería haber sido continuar viviendo del campo, pero mostró tales
habilidades que sus profesores se fijaron en él y terminó convirtiéndose en
monje agustino, ingresando en el monasterio de San Pablo en Brno, donde tomó el
nombre de Gregor, por el que se conoce.
Hacia 1856, Mendel comenzó a experimentar con guisantes en el jardín de
su monasterio. Se interesó en concreto por el estudio de la estabilidad de
especies mediante la observación de los caracteres heredados por la
descendencia híbrida de varias cepas, tema para el que los guisantes son
especialmente adecuados, porque producen híbridos fértiles, que se cultivan con
facilidad y tienen un tiempo de crecimiento relativamente corto. Durante cerca
de ocho años, estudió 34 variedades de tres especies, que diferían en las
citadas siete características. En la primera experiencia cruzó una variedad de
semillas redondas-lisas con otra de semillas arrugadas, y al revés.
Gregor Mendel
En lugar de semillas más parecidas encontró que todas las nuevas eran
redondas y dio al conjunto el nombre F1. Las sembró, dejó que se autofecundasen
y obtuvo semillas de la generación F2 en proporción de tres redondas por una
rugosa. Sembró unas de cada clase y obtuvo la generación F3. Las semillas
arrugadas produjeron otras del mismo carácter, mientras que las redondas lo
hacían en la proporción tres redondas por una arrugada. Llamó dominante al
carácter que se daba en cada generación y recesivo al que reaparecía
y supuso que formaban una unidad productiva, compuesta por dos factores.
Cada factor estaba formado por un par de elementos, de los que cada
individuo aportaba uno a la célula sexual. Enunció dos leyes naturales: la de
la segregación equitativa y la de la segregación
independiente por la que los caracteres diferentes son heredados de
forma independiente. Sin embargo, en realidad Mendel estaba navegando en aguas
que desconocía, un hecho que es patente en el lenguaje que empleó en el
artículo («Experimentos sobre la hibridación de plantas») que publicó con los
resultados de sus experimentos en 1866 en la revista de Brno, Verhandlungen
des naturforschenden Vereines. Así, leemos:
El que dé un vistazo a las coloraciones que se originan en las plantas
ornamentales por fecundaciones semejantes no podrá sustraerse fácilmente a la
convicción de que, aun aquí, tiene lugar el desarrollo según una ley
determinada, que halla probablemente su fórmula en la combinación de varios
factores de color independientes … Se comprenderá que la pretensión de reducir
las diferencias fundamentales en el desarrollo de los híbridos a una asociación
permanente o pasajera de los elementos celulares dispares sólo puede tener el
valor de una hipótesis, a la cual la falta de datos seguros deja un amplio
campo experimental.
Hoy llamamos a esos «factores de color independientes» y a los
«elementos celulares dispares» bien genes o, de una forma más general, menos
específica, cromosomas.
Mendel y los guisantes
Y aunque nadie lo apreció —ni siquiera él mismo—, con el artículo de
Mendel de 1866 se abría la «Era de la Genética», una era en la que mostraría
que los procesos hereditarios se basan en la transmisión de caracteres
discontinuos, nucleares en cierto sentido, pero, al mismo
tiempo, regulares, que siguen leyes de proporciones fijas. Podía pensarse en
buscar «los átomos de la herencia», de los cuales, por supuesto, Mendel no
tenía ni idea cómo, o qué, podrían ser. Él trabajó con guisantes, pero porque
era fácil estudiar cómo se combinan en sucesivas generaciones; más difícil,
pero respondiendo al mismo mecanismo es, por ejemplo, explicar cómo varían
características de personas en los casos de mestizajes, como, por ejemplo, el
hispanoamericano fruto de la colonización española de América.
Las investigaciones de Mendel apenas fueron conocidas, y ello a pesar de
que la revista en la que apareció este trabajo fue adquirida por más de cien
bibliotecas e instituciones científicas europeas. No está claro por qué, aunque
probablemente fuese por la naturaleza, en última instancia matemática y
estadística, de los análisis de Mendel. Fueron redescubiertas, simultáneamente,
en 1900, por el holandés Hugo de Vries, el alemán Carl Correns y, en menor
grado, el austríaco Erik von Tschermak.
§. La división celular y los cromosomas
Uno de los que se beneficiaron de los nuevos medios técnicos disponibles a
partir de mediados del siglo XIX para realizar observaciones microscópicas fue
el zoólogo alemán Oscar Hertwig (1849-1922). En 1876, Hertwig estudió el erizo
de mar Toxopneustes lividus, que tenía la ventaja de poder
mantenerlos fácilmente en tanques de agua salada y del que se podía extraer sus
huevos sin más que sacudirlos. Observó que cuando colocaba un esperma en el
líquido que rodeaba a los huevos, un esperma tocaba la superficie de la célula
del huevo convirtiéndose enseguida en una especie de «estructura luminosa» cuyo
tamaño iba aumentando hasta llegar al tamaño del núcleo del huevo. Denominó a
esta «estructura», «núcleo del esperma» y advirtió que los dos núcleos, el del
huevo del erizo y el del esperma, terminaban fusionándose. La célula con estos
dos núcleos fusionados se convertía así en el progenitor del que se iban
produciendo, al dividirse, nuevas células hasta formar un nuevo erizo de mar.
«Hemos reconocido —señalaba en el artículo en que presentó sus resultados— que
el suceso más significativo que tiene lugar en la fertilización es la fusión de
dos núcleos celulares.»
Estaba hablando de lo que se conoció como meiosis.
Junto a la meiosis, el otro proceso básico de la reproducción celular es
la mitosis, proceso desvelado en 1879, utilizando finas colas de
salamandra, por un investigador alemán, profesor de Anatomía en Kiel, Walther
Flemming (1843-1905). Lo que Flemming observó fue la división del núcleo de la
célula y la formación (que pudo ver con poca nitidez) de una especie de hilos
que se separaban. Como pudo detectar esos hilos porque absorbían el color del
colorante que empleó, los denominó elementos cromatina (de la
palabra griega, cromo, color), sin saber que estaba contemplando
por primera vez a los portadores de la herencia, que recibieron en 1888 el
nombre de cromosomas de Wilhelm Waldeyer (1839-1921), de la
palabra griega que significa «cuerpo coloreado».
Los cromosomas se presentan en pares, procediendo cada elemento del par
de uno de los progenitores. En la mayoría de los organismos la pareja de
cromosomas de cada par es del mismo tipo, salvo en un par, en el que la pareja
es diferente: son los denominados «cromosomas sexuales». El número de
cromosomas varía según las especies. La mosca del vinagre tiene (contando el
total, no las parejas) 8, las palomas 16, el gusano 36, los gatos 38, el ratón
40, los simios 48, las ovejas 54 y los perros 78, mientras que los humanos
tenemos 46, esto es, 23 pares, todos iguales, menos uno, que caracteriza el
sexo que tiene su poseedor (en las mujeres ese cromosoma sexual está formado
por una pareja de igual tipo, XX, mientras que en los hombres no es así: son
XY). En el mecanismo de la reproducción sexual, el individuo macho aporta la
mitad de los cromosomas, siendo el cromosoma sexual o bien del tipo X o del
tipo Y. La hembra, por su parte, aporta la otra mitad, siendo el cromosoma
sexual siempre de tipo X. En los humanos, los cromosomas están contenidos en el
cigoto, u óvulo fecundado. Y, como la madre siempre aporta un cromosoma X, la
criatura que se va a formar será un varón si el espermatozoide que ha fecundado
el óvulo lleva un cromosoma Y y una hembra si transportaba un X.
§. La molécula de la herencia: el ADN
Habría, por supuesto, mucho más que contar en una presentación más detallada;
hablar por ejemplo, de los trabajos de médicos y científicos como Archibal
Edward Garrod (1857-1936), William Bateson (1861-1926), Thomas Hunt Morgan
(1866-1945) u Oswalt T. Avery (1877-1955), que establecieron en una base firme
lo que se vino en denominar «genética», una palabra introducida en 1905 por
Bateson, y sus elementos «fundacionales», los «genes». Entre esa «base firme»
figuraba establecer la composición química de los cromosomas, tarea que
completó en 1944 Avery junto con dos colaboradores: están compuestos de ácido
desoxirribonucleico, ADN.
El siguiente paso era determinar la «forma», la estructura espacial de
la molécula de ADN, con la esperanza de ver si con tal información se podía
comprender el proceso de la herencia. Esto es algo que finalmente se consiguió
en 1953, obra del trabajo de dos científicos: el antiguo físico convertido en
biólogo molecular inglés, Francis Crick, (1916-2004) y el biólogo
estadounidense James Watson (n. 1928). El ADN, descubrieron, está formado por
dos cadenas helicoidales (la doble hélice), unidas entre sí; cada una de ellas
está formada por cuatro compuestos químicos, combinaciones de carbono,
nitrógeno, hidrógeno y fósforo, agrupaciones químicas a las que se denomina
«bases»: son la adenina (A), guanina (G), citosina (C) y timina (T). Éstas
forman secuencias determinadas sobre cada hélice, pero de tal manera que la T
de una cadena se asocie a la A de la otra, y la G a la C. Cualquier otro
emparejamiento está prohibido. Semejante estructura, sugiere inmediatamente un
posible mecanismo celular reproductivo: en un momento dado de la vida de una
célula, la doble hélice se escinde en dos hélices sencillas, que al captar en
el medio en que se encuentran los elementos químicos necesarios, reconstruyen
la doble hélice, de una forma, además, en principio perfectamente fiel, debido
a la ley de emparejamiento de las bases.
Watson y Crick (el orden de aparición de los nombres en el artículo lo
determinaron por sorteo) publicaron su propuesta en una escueta nota (de una
página en total) en el número del 25 de abril de 1953 de la revista Nature.
Se titulaba «Estructura molecular de los ácidos nucleicos. Una
estructura para el ácido desoxirribonucleico». En él incluían una, luego
famosa, frase relativa al mecanismo de la herencia al que ha aludido: «No se
nos escapa que el emparejamiento específico que hemos postulado sugiere de
inmediato un posible mecanismo de copia para el material genético».
§. Un nuevo mundo biológico-molecular: el ADN recombinante
Con la firme base que aportaba el conocimiento de la estructura en doble hélice
del ADN, comenzó una nueva era para la biología, destacando una rama denominada
«biología molecular». Fue quedando claro, además, que las «unidades de la
vida», los «átomos» que daban sentido a los trabajos de Mendel, eran en
realidad segmentos, trozos, de las cadenas de ADN, a los que se denomina
«genes».
Un desarrollo en el que me interesa detenerme tuvo lugar a finales de la
década de 1960 y comienzos de la de 1970. Éstos no fueron importantes sólo
porque cambiaron significativamente la faz de biología molecular, sino por las
aplicaciones a las que condujeron, haciendo que se pudiese hablar de
«biotecnología» o de «ingeniería genética», la disciplina que se ocupa de «unir
genes»; esto es, de sustituir un segmento de ADN de una célula por uno de otra
(al organismo que surge de este proceso se le denomina transgénico).
«ADN recombinante», se denominó a esto.
Inmediatamente después de que se introdujesen las primeras de estas
técnicas, se reconoció que sería posible construir moléculas de ADN
recombinante in vitro, lo que hizo que se especulase y debatiese
acerca de las implicaciones de la tecnología genética en los seres vivos, y
entre ellos en los humanos. Parecía claro que la biología molecular, ahora en
la forma de ingeniería genética o biotecnología, podría permitir seleccionar no
ya individuos, sino algunos de sus genes o porciones de ellos; crear, en definitiva,
algo absolutamente nuevo: nuevas moléculas, nuevos genes y, por tanto, nueva
vida.
§. El nacimiento de una nueva ciencia: la genómica
Los avances que se estaban llevando a cabo en el conocimiento de la estructura
del ADN condujeron a que se plantease la idea de estudiar con detalle, de
manera completa, toda la estructura genética (el genoma) de cadenas
de ADN. ¿Y qué genoma podía resultar más atractivo que el humano? Pensemos que
la estructura (química) de los genes puede tener consecuencias muy importantes
en las características (positivas o no) de los seres vivos, consecuencias que
entran plenamente en el ámbito de la medicina, de ahí que sea absolutamente
obligado tratar de estas cosas en una historia de la medicina. Pequeños cambios
en la estructura química de los genes pueden tener consecuencias muy
importantes. En 1986, por ejemplo, un equipo de investigadores estadounidenses
identificó el defecto genético responsable de un tipo de distrofia muscular. En
1989, un grupo de biólogos anunció el descubrimiento de la situación del gen
que, cuando sale defectuoso, produce la fibrosis quística, una enfermedad que
afecta a los pulmones, páncreas y otros órganos. En 1993, se localizó el gen de
la corea de Huntington, un trastorno que origina una degeneración progresiva
del cerebro, que viene acompañada de la aparición de fuertes movimientos incontrolados
y que conduce, inevitable m ente por el momento, a la muerte.
En 1984 se propuso la creación de un Consorcio Internacional para
Secuenciar el Genoma Humano, cuyo fin sería determinar con precisión la
estructura, la, como se decía, «cartografía» del genoma humano. No obstante, su
establecimiento formal se demoró hasta septiembre de 1988, liderado por Estados
Unidos, pero con la participación de otros países: Gran Bretaña, Francia,
Japón, China y Alemania.
En 1989 se nombró director del mismo a James Watson, aunque dimitió dos
años después por diferencias sobre cómo dirigirlo, siendo sustituido en 1993
por Francis Collins (n. 1950).
Destinado a obtener un conocimiento que además de contribuir al avance
de la ciencia, debería tener consecuencias evidentes para combatir enfermedades
o anomalías genéticas, era evidente que su objetivo tenía interés también para
la industria privada. Semejante interés no tardó demasiado en manifestarse: lo
hizo a través de una compañía comercial fundada en 1998 denominada Celera
Genomics, dirigida por el biólogo molecular Craig Venter (n. 1946).
Tras haber trabajado a principios de la década de 1990 para los
Institutos Nacionales de la Salud de Estados Unidos, que controlaban el
Proyecto Genoma Humano, en 1992 Venter fundó, en Rockville (Maryland), un
Institute for Genomic Research (Instituto para la Investigación Genómica),
donde desarrolló un procedimiento pionero para identificar genes en cadenas de
ADN, una técnica (denominada shotgun) completamente diferente a la
que se estaba utilizando en el Proyecto Genoma Humano (mientras que éste
buscaba identificar un gen cada vez, el método de Venter rompía el genoma en
millones de fragmentos que se solapan, leyendo las máquinas las secuencias,
para finalmente poderosos computadores reunir los datos en un secuencia
completa de genoma). Con su método (diez veces más barato que el empleado por
el proyecto público, y más rápido), Venter secuenció el genoma de una
bacteria, Hemophilus influenzae, que produce meningitis y sordera,
el primer genoma completo de un organismo vivo completado en la historia (los
resultados fueron publicados en 1995).
En 1998, Venter anunció su intención de determinar la secuencia del
genoma humano, lo que, evidentemente, implicaba competir con el proyecto
público. Para alcanzar tal fin, en junio de 1998 constituyó, aliándose con
Applera Corporation, la compañía Celera Genomics, en la que él era al mismo
tiempo presidente y principal director científico. Enseguida la compañía
afrontó la tarea de secuenciar el genoma de la mosca Drosophila
melanogaster, cuyo sistema nervioso central tiene muchos genes en común con
el de los humanos. Era obvio que se trataba de un ensayo para enfrentarse al
genoma humano. Los resultados de aquel primer proyecto de Celera fueron
publicados en Science el 24 de marzo de 2000, en un artículo
con doscientos cuarenta investigadores de todo el mundo figurando como autores.
El número de genes que encontraron en la secuencia (que Venter consideraba de
una precisión del 99,9 por ciento) era catorce mil.
Por entonces la compañía dirigida por Venter ya estaba firmemente
implicada en la secuenciación del genoma humano. De hecho, tres meses más
tarde, el 26 de junio, Venter y Collins realizaron un primer anuncio conjunto
manifestando que habían completado la secuenciación del genoma humano. A pesar
de lo grandilocuente de la declaración, aún quedaba bastante que hacer. No se
había dicho nada, por ejemplo, sobre cuántos genes forman el genoma humano. El
11 de febrero de 2001 se remediaba tal carencia, anunciándose que el ser humano
tiene unos treinta mil genes, frente al número de alrededor de cien mil que se
suponía antes. Tenemos, pues, poco más del doble de genes que una mosca y menos
que el arroz, según se comprobó más tarde, cuando en abril de 2002, un equipo
de investigadores formado por miembros del Instituto de Genómica de Pekín y del
Centro del Genoma de Washington, anunció que el genoma de esta planta cuenta
con entre cincuenta mil y sesenta mil genes. El 15 de febrero, el consorcio
público presentaba sus resultados en Nature, mientras que Celera lo
hacía un día después en Science.
§. Patentes sobre la vida
La posibilidad de crear nuevas formas de vida, a la que ya me he referido, no
es sino uno de los apartados que han surgido como resultado de los avances
biológico-moleculares. Consecuencia directa de esto es la espinosa cuestión de
la posibilidad de patentar las variedades de organismos vivos (microorganismos,
plantas o animales transgénicos) creadas. Y también tenemos la de patentar
genes descubiertos a los que se asocian propiedades (disfunciones,
enfermedades, etcétera) determinadas.
Ya en 1972, Anada Chakrabarty, un bioquímico que trabajaba para General
Electric, inventó un nuevo organismo (una cepa de bacterias, Pseudomonas)
que consumía petróleo. No utilizó técnicas de ingeniería genética, simplemente
cruzó cuatro microorganismos con diferentes «apetitos» por distintos
componentes del petróleo en crudo (el resultado era que el nuevo «ser» digería
alrededor de dos tercios del petróleo, convirtiéndolo en dióxido de carbono y
proteínas, con lo que sus posibles usos eran obvios; por ejemplo, para combatir
la contaminación por vertidos de petróleo). General Electric solicitó patentar
el organismo, pero la Oficina de Patentes negó la petición. En 1979, el caso
llegó al Tribunal Supremo de Estados Unidos, bajo la rúbrica (por la que se le conoce
generalmente) «Diamond versus Chakrabarty», ya que la decisión de la Oficina de
Patentes había sido defendida por Sydney Diamond. En 1980, el Tribunal Supremo
decidió aceptar la petición de General Electric por cinco votos contra cuatro,
concluyendo que «un microorganismo vivo creado por el hombre puede ser objeto
de una patente».
Siguiendo el precedente de la decisión del caso Chakrabarty, en 1985 la
Oficina de Patentes otorgó una patente para la primera planta diseñada mediante
ingeniería genética, y en 1987 concedió el derecho a patentar animales
domésticos transgénicos, esto es, creados mediante ingeniería genética.
Utilizando este acuerdo, el 12 de abril de 1988 autorizaba la primera patente
para un animal transgénico, un ratón genéticamente modificado diseñado en la
Universidad de Harvard (que es la que solicitó la patente), que portaba un gen
humano que produce cáncer (el ratón lo desarrollaba dentro de los dos meses
siguientes a su nacimiento). En 1991, la Oficina de Patentes de la Unión
Europea también concedió una patente para el ratón a Harvard.
En 1987, la Oficina estadounidense prohibió que se patentasen seres
humanos alterados genéticamente, basándose en una enmienda antiesclavista de la
Constitución de Estados Unidos, que impide la propiedad de seres humanos. Pero
existe un amplio territorio intermedio. En 1994, Myriad Genetics, una compañía
biotecnológica estadounidense creada poco antes, anunció el descubrimiento de
un gen asociado, cuando se producen determinadas mutaciones, al cáncer de pecho
hereditario, conocido como BRCA1 (por sus siglas en inglés, Breast
Cancer Type 1 susceptibility protein). A este gen le siguió inmediatamente
el BRCA2 (Breast Cancer Type 2 susceptibility protein). Myriad Genetics
presentó entonces una solicitud de patente para ambos hallazgos y métodos de
determinar mutaciones, que al serle concedidas hizo a la compañía muy rica
(cuando escribo estas líneas, el precio que Myriad cobra por una prueba es de
3.340 dólares, lo que significa más del 80 por ciento de sus beneficios
anuales). Se trataba, no lo olvidemos, de un avance médico revolucionario, con
el que se podía, se puede, pronosticar con entre el 50 y el 80 por ciento la
probabilidad de contraer en algún momento cáncer de pecho o de ovarios.
En marzo de 1995, la Oficina de Patentes norteamericana también
respondió favorablemente a William French Anderson, Michael Blaese y Steven
Rosenberg, quienes presentaron una solicitud de patente para un «proceso para
proveer a un ser humano de una proteína terapéutica que comprende: introducción
en un ser humano de células humanas que han sido tratadas in vitro para
insertar en su interior un segmento de ADN codificador de proteína terapéutica,
células que expresan in vitro en dicho ser humano el efecto terapéutico
de la mencionada proteína». Los derechos de explotación de la patente fueron
concedidos a los Institutos Nacionales de la Salud, para quienes habían
trabajado Anderson, Blaese y Rosenberg, pero aquéllos traspasaron los derechos
de explotación a una compañía privada, Genetic Therapy Inc., de Maryland.
Basándose en toda esta legislación, en octubre de 1998 la Oficina de Patentes
norteamericana concedió la primera patente de una secuencia de ADN —incluyendo
genes— a favor de InCyte Pharmaceuticals Inc. En 2000, el número que la Oficina
de Patentes estadounidense concedió a este tipo de secuencias alcanzaba los dos
mil.
Un acontecimiento de enorme importante tuvo lugar el 13 de junio de
2013, cuando estoy a punto de terminar la escritura de este libro. Ese día la
Corte Suprema de Estados Unidos anunció que los genes humanos no pueden ser
patentados, incluso cuando están separados del cuerpo humano. Es de suponer que
esta decisión pronto tendrá consecuencias en el campo de la salud pública, ya
que puede invalidar las patentes de en torno a cuatro mil genes, incluyendo
algunos que ayudan a detectar la inclinación a defectos de nacimiento y
defectos cardíacos. Esto permitiría a compañías que no poseían patentes sobre
genes, como los BRCA1 y BRAC2 de Myriad Genetics, entrar en el próspero negocio
de pruebas genéticas.
De lo que acabo de indicar, se deduce que las perspectivas de obtener
rentabilidad de la nueva ciencia biológico-molecular son demasiado atractivas
para que incluso los propios científicos no traten de beneficiarse. Un ejemplo
en este sentido es el de Herbert Boyer, que desarrolló en 1973, junto a Stanley
Cohen, un método para reordenar moléculas de ADN en un tubo de pruebas para
crear moléculas híbridas. Con la ayuda de un socio capitalista, en 1976 Boyer
fundó una compañía biotecnológica para explotar comercialmente el ADN
recombinante (Boyer aportó sobre todo sus conocimientos científicos; en lo que
a capital económico se refiere, su contribución fue modesta: mil dólares).
Finalmente, y tras captar capital adicional, la nueva compañía se denominó
Genentech («Genetic Engineering Technology»).
Es interesante señalar que el mismo año (1976) en que Boyer fundó
Genentech, se convirtió en catedrático de Bioquímica en la Universidad de
California (San Francisco). A pesar de ser vicepresidente de una compañía
comercial, continuó con su trabajo e investigaciones en la universidad,
contratando de hecho en ocasiones a su propio laboratorio universitario. No
sorprenderá saber que se convirtió en millonario, ni que su caso y ejemplo
hayan suscitado numerosas críticas, pero también emulaciones en una época en la
que lo público y lo privado se confunden cada vez más en lo que a la
investigación científica se refiere.
El primer proyecto de Genentech fue el desarrollo de técnicas
recombinantes para la producción de insulina (también se dedicó a otros: en
1977 clonó —me ocuparé de la clonación en el siguiente capítulo— un gen
humano). El suministro mundial de insulina para usos terapéuticos procedía del
páncreas del sacrificio de vacas y cerdos, y estimaciones de Eli Lilly &
Co., que controlaba al menos el 80 por ciento de las ventas de insulina en
Estados Unidos, indicaban que las necesidades de insulina para la población
diabética del país pronto superarían a las posibilidades de producción
existentes. A comienzos de septiembre de 1978, en una atestada sala de
conferencias, Genentech anunciaba que había producido mediante técnicas
biotecnológicas insulina, y que había llegado a un acuerdo con Eli Lilly &
Co, que produciría y comercializaría la hormona. Cuando a mediados de octubre
de 1980, se ofrecieron acciones de Genentech en Bolsa, éstas se vendieron, para
la sorpresa de los observadores de Wall Street, al doble del precio ofertado
inicialmente.
Aquello no fue sino el primer paso en una nueva era, no sólo científica
sino también tecnocientífica y socioeconómica. Así, el mismo año, 1980, en que
se vendieron la acciones de Genentech, en Estados Unidos el Congreso introdujo
una enmienda a una ley (la U.S. Patent Trademark Act), la denominada «Acta
Bayh-Dole», por la que se permitía que profesores, investigadores o estudiantes
universitarios recibieran una parte importante de los ingresos generados por
patentes originadas en invenciones suyas, una práctica antes prohibida en
numerosas instancias. Las universidades respondieron con entusiasmo. Un informe
de la Oficina de Asesoría Tecnológica titulado «New Developments in
Biotechnology: Ownership of Human Tissues and Cells» («Nuevos desarrollos en
biotecnología: propiedad de tejidos y células humanas») señalaba que entre 1980
y 1984, las solicitudes de patentes relacionadas con la biología humana,
procedentes de universidades, habían aumentado en un 300 por ciento.
PCR: la Reacción en Cadena de la Polimerasa
Una técnica que ha contribuido al gran desarrollo comercial de la
biología molecular es la Reacción en Cadena de la Polimerasa, conocida por sus
siglas inglesas: PCR (Polymerase Chain Reaction). Fue inventada por un
personaje complicado, Kary Mullis (n. 1944), doctor en bioquímica por la
Universidad de California en Berkeley, mientras trabajaba para Cetus
Corporation, a la que se había incorporado en 1979. En consecuencia, fue Cetus
quien dispuso de los derechos de la patente, con particular justicia en este
caso, ya que el proceso de convertir la idea en una técnica que funcionase fue
complejo y exigió de la participación de otros científicos y técnicos empleados
por Cetus. De hecho, la idea le llegó a Mullis en 1983, mientras que la primera
publicación se realizó en 1985 y la principal en 1986. La primera solicitud de
patente se presentó el 28 de marzo de 1985; en junio de 1987, las patentes
básicas de la PCR ya habían sido adjudicadas.
La PCR se basa en copiar, in vitro, una y otra vez, en un
proceso que se convierte en exponencial y que no lleva más que unas pocas
horas, una muestra, no importa que sea pequeña, de ADN. Aunque se tardó algo
(cerca de cuatro años) en que los especialistas apreciaran realmente las posibilidades
de la nueva tecnología, las aplicaciones de la PCR se terminaron extendiendo a
múltiples dominios, tanto científicos como prácticos. La primera aplicación fue
en el diagnóstico de una mutación que produce células «anémicas», y otra
temprana fue cuando se convirtió, automatizada, en la principal herramienta del
Proyecto Genoma Humano. En conjunto, se puede decir, sin exageración, que la
PCR ha revolucionado el diagnóstico de males como el cáncer y enfermedades
infecciosas, al igual que el dominio de la medicina forense, al utilizarse en
los tan conocidos como celebrados análisis de muestras de ADN para resolver
algunos delitos.
En 1989, la compañía Du Pont presentó una demanda legal contra la
patente de la PCR que Cetus había obtenido en 1987, argumentando que los
elementos constitutivos estaban disponibles desde finales de la década de 1960,
gracias a los trabajos de H. Gobind Khorana. Sin embargo, el 28 de febrero de
1991 los jueces decidieron unánimemente en más de 50 puntos los derechos de
Cetus. Khorana no quiso testificar en el juicio, pero manifestó que estaba de
acuerdo con Du Pont, y Arthur Korberg apoyó la demanda, sosteniendo que la PCR
era «obvia» a partir de los trabajos previos sobre la ADN polimerasa. No
obstante, otro premio Nobel, Hamilton Smith, testificó a favor de Cetus. Por
entonces ya estaba claro que la PCR iba a producir grandes beneficios; de
hecho, el 12 de diciembre de 1991 Cetus vendió la patente al gigante
farmacéutico Hoffman-La Roche Inc., por trescientos millones de dólares. La
investigación científica biomédica probaba ser rentable.
No es extraño, por consiguiente, que en la década de 1990 la industria
biotecnológica se hubiese establecido ya tanto en Estados Unidos como en
Europa, Asia y América Latina; en 1999, sólo en Estados Unidos generaba veinte
mil millones de dólares de ingresos (entre el 80 y el 90 por ciento de las
compañías biotecnológicas se dedican a la producción de productos farmacéuticos
y de pruebas médicas). En 2004, el valor total del mercado de cosechas
biotecnológicas (transgénicos) se estimó en cuatro mil setecientos millones de
dólares.
Capítulo 17
Nuevos mundos médicos
En el capítulo anterior ya nos hemos encontrado con mundos, otrora
insospechados, que las ciencias biomédicas han abierto en las últimas décadas.
Un ejemplo sobresaliente en ese sentido es el de las terapias génicas, la
intervención en genomas individuales con el propósito de remediar defectos
genéticos que producen males específicos. Todavía, es cierto, queda un largo
camino que recorrer en este campo, pero algunos resultados ya han dado
resultados esperanzadores, anunciando un futuro próximo. Pruebas en este
sentido son los denominados «niños burbuja», a los que afecta el síndrome de
inmunodeficiencia combinada severa; esto es, niños que debido a un error
genético, tienen un sistema inmune que no puede elaborar de manera adecuada
linfocitos, los encargados de destruir agentes extraños como bacterias, hongos
y virus que tratan de invadir nuestro cuerpo. En febrero de 2013, un equipo de
médicos de la Fundación Jiménez Díaz (Madrid) consiguió que naciera un varón
libre del síndrome de inmunodeficiencia combinada severa, gracias a la
selección genética preimplantacional, técnica que analiza los genes del embrión
y determina la presencia o no de alguna anomalía hereditaria.
En este capítulo, último, continuaré tratando de esos nuevos mundos
médicos, algunos ya firmemente establecidos, como el de la píldora, un producto
contraceptivo.
§. La píldora
Existimos porque somos capaces de reproducirnos. Y para alentar esta
imprescindible función, los mecanismos evolutivos han dotado de un carácter
atractivo, de un instinto, a las relaciones sexuales entre humanos
(y de otros animales, por supuesto). Semejante carácter hace que muchos quieran
esas relaciones sin el deseo de engendrar hijos. Para conseguirlo se
desarrollaron métodos muy diversos a lo largo de la historia (bien conocido es
uno que supuestamente inventó, si bien no existen demasiadas pruebas, a
mediados del siglo XVII, monsieur de Condom, un amigo del
escritor Le Rochefoucauld), pero ninguno tuvo la base científica y,
probablemente, el éxito, que un producto químico desarrollado en el siglo XX:
la píldora anticonceptiva. El principal responsable de la creación de este revolucionario
método contraceptivo fue un estadounidense, Gregory Pincus (1903-1967), pero
las hormonas sintéticas que son sus ingredientes fueron resultado de
investigaciones anteriores. Así, la primera persona en sugerir la idea de una
píldora anticonceptiva fue el austríaco Ludwig Haberlandt (1885-1932), que
comenzó sus investigaciones en la Universidad de Innsbruck en 1919. Descubrió
que se podían utilizar hormonas (sustancias producidas por algunas células,
cuya función es afectar la función de otras células) para evitar los embarazos.
En 1927 declaraba: «Mi propósito: ¡pocos hijos, pero deseados!».
Basándose en los resultados de Haberlandt, otros científicos
descubrieron que la hormona en cuestión era la progesterona, pero ésta era
difícil de aislar y, en consecuencia, cara y, además, poco eficaz cuando se la
tomaba en forma oral. En 1939, el estadounidense Russell Marker (1902-1995)
descubrió que la progesterona se podía sintetizar a partir de un producto
químico contenido en una planta mexicana y formó una compañía denominada Syntex
para intentar desarrollar un proceso comercial. Una década más tarde, en 1951,
el austríaco afincado en Estados Unidos Carl Djerassi (n. 1923), con la ayuda
de dos colegas mexicanos, Luis Miramontes y George Rosenkranz, logró producir
progesterona sintética, un paso decisivo para la producción de cualquier
píldora contraceptiva (es importante señalar que antes de lograr su primer
puesto académico —en 1952, Wayne State University de Detroit—, Djerassi había
trabajado en la Ciudad de México para Syntex, donde produjo la progesterona
mencionada).
Entretanto, el polaco-estadounidense Frank Colton (1923-2003) había
estado desarrollando los resultados de Marker, produciendo dos patentes con
otro método de sintetizar hormonas: produjo lo que en realidad fue el primer
contraceptivo oral, Enovid. Pero tanto Colton como Djerassi se limitaban a
utilizar sus hormonas sintéticas para tratar problemas menstruales y parece que
ninguno de los dos pensó en utilizarlos como contraceptivo hasta que Margaret
Sanger (1879-1966), implicada desde hacía tiempo en los movimientos de
planificación familiar (en 1916 había fundado la primera clínica de control de
natalidad que existió en Estados Unidos, por lo que fue encarcelada y, en 1921,
creó la Liga para el Control de la Natalidad), comenzó a trabajar en la
dirección de una píldora oral contraceptiva, a la que llegó finalmente Gregory
Pincus utilizando el producto de Colton. Se comenzó a realizar pruebas clínicas
con ella en 1954, tarea en la que destacó John Rock (1890-1984), y en 1960 ya
estuvo disponible al público en Estados Unidos, el año siguiente en Gran
Bretaña. En la actualidad, muy mejorada, la píldora anticonceptiva la utilizan
cientos de millones de mujeres de todo el mundo.
El descubrimiento de la píldora, según Djerassi
Carl Djerassi, como hemos visto, uno de los creadores de la píldora,
explicó cómo entiende el descubrimiento en uno de sus libros (La píldora,
los chimpancés pigmeos y el caballo de Degas, 1992). Esto es lo que
escribió:
«¿De veras es usted el padre de la píldora?»
Siempre me hacen esa pregunta del mismo modo falocéntrico. De haber sido mujer
me preguntarían si yo era la madre. Por lo regular respondo en los mismos
términos, señalando que para que nazca un nuevo medicamento es necesaria
también una madre y a menudo también una partera o un tocólogo. Primero la
química orgánica debe producir la sustancia. El biólogo debe descubrir sus
efectos en animales. Sólo entonces es cuando el clínico la administra a los
humanos. Yo dirigí el pequeño equipo de Syntex, en México D.F., que sintetizó
por primera vez un anticonceptivo oral a base de esteroides, el 15 de octubre
de 1951. Gregory Pincus, de la Fundación Worcester de Biología Experimental de
Shrewbury, Massachusetts, dirigió el grupo de biólogos que emitió el primer
informe sobre las propiedades de estos esteroides como inhibidores de la
ovulación en los animales. John Rock, ginecólogo de Harvard, y sus colegas
ejecutaron los estudios clínicos que demostraron la eficacia del anticonceptivo
en seres humanos. Si yo soy el padre, Pincus debe ser la madre, ¿o es al revés?
Al menos, no hay duda del papel que John Rock representó en el nacimiento.
§. Fecundación «in vitro»
Pero al igual que hay mujeres que desean evitar el riesgo de que una relación
sexual tenga como consecuencia un embarazo, hay otras que quieren tener hijos,
pero encuentran problemas. La fecundación in vitro (término
latino que significa en cristal) ha logrado ayudar a estas
personas. Se trata de una técnica de fecundación que se utiliza en casos de
infertilidad, que se benefició de avances anteriores, entre los que sobresale
—dejando al margen contribuciones anteriores de Pincus, John Rock, Mirian
Menkin y Ming Chang— la introducción en la década de 1960, por parte del
ginecólogo y obstetra inglés Patrick Christopher Steptoe (1913-1988), de la
laparoscopia para visualizar directamente los órganos reproductores de la
mujer; con ella, en 1968 Robert Edwards (n. 1925) y el propio Steptoe
obtuvieron en Cambridge (Inglaterra) óvulos humanos destinados a realizar
investigaciones dirigidas específicamente a la fertilización in vitro.
El procedimiento consiste en fecundar dentro de un tubo de ensayo —esto
es, fuera del cuerpo de la madre— óvulos procedentes de una mujer con
espermatozoides de un hombre. Una vez fecundado el óvulo, éste se transfiere al
útero, procediendo entonces el embarazo de manera normal. El primer bebé
probeta, como fueron llamados los frutos de esta técnica, nació el 25 de
julio de 1978 en Oldham (Inglaterra): fue una niña, Louise Joy Brown, que
creció sin problemas (a los veintiocho años, tuvo un hijo, de forma natural).
Hoy la fecundación in vitro es una técnica ampliamente
utilizada y con alto porcentaje de éxito.
§. La clonación
Otro de los grandes avances de la última década del siglo XX fue la clonación.
Y ahí un nombre propio destaca por encima de todos: el embriólogo británico Ian
Wilmut (n. 1944).
El salto a la fama de Wilmut, que desde 1974 trabajaba en la Estación de
Investigación de Reproducción Animal de Escocia, se produjo en 1997, más
concretamente el 27 de febrero, el día en que la revista Nature publicaba
un artículo que había llegado a su redacción el 25 de noviembre de 1996. Se
titulaba «Descendencia viable derivada de células fetales y adultas de
mamífero» y estaba firmado por Wilmut, el líder del grupo, A. E. Schniecke, J.
McWhir, A. J. Kind y Keith H. S. Campbell, junto a Wilmut el principal
responsable del grupo. En él se anunciaba que se había conseguido traspasar una
frontera muy especial: la reproducción de un mamífero, una oveja —Dolly,
nacida en julio de 1996— transfiriendo la carga genética (el ADN, los
cromosomas) del núcleo de una célula de una glándula mamaria (es decir, una
célula somática, no germinal) de una oveja adulta a un óvulo no fecundado y
enucleado. Se había, en suma, clonado un mamífero.
Es cierto que Dolly no fue el primer clon de un
mamífero; estrictamente, los gemelos son clones, pero lo son de un tipo muy
diferente: en su caso se trata de una clonación natural, y más absoluta, por
cierto, ya que al surgir de una escisión embrionaria, poseen no sólo idéntico
ADN sino también el mismo citoplasma, mientras que clones como Dolly sólo
tienen el mismo ADN que la célula que aporta la carga genética (en la medida en
que el ADN no opera aislado, sino que se halla en constante «diálogo» con su entorno
citoplasmático, Dolly no es, por tanto, un verdadero clon de
la oveja original sino simplemente un clon del ADN, «clon genómico»).
Antes, en agosto de 1995, el grupo de investigación que creó,
porque de una creación se trató, Dolly había producido dos
ovejas clónicas de raza Welsh Mountain —Megan y Morag—;
la diferencia con Dolly es que procedían de células que,
recogidas de embriones de nueve días, fueron cultivadas, diferenciándose en el
cultivo: habían sido clonadas a partir de células embrionarias, no de células
adultas como en el caso de Dolly.
Después de Megan, Morag y Dolly,
los investigadores del Instituto Roslin continuaron «apretando la tuerca de la
creación», dado una vuelta más, una vuelta que mostraba con claridad lo que
vendría en el futuro: en 1997 nacía otra oveja, Polly, clonada a
partir de células cultivadas y transformadas genéticamente (se les añadió un
gen humano durante el proceso).
En la ola de estos avances, el 25 de noviembre de 2001, la empresa
estadounidense de investigación genética, Advanced Cell Technology (ACT),
anunció en una revista de la red (e-biomed: The Journal of Regenerative
Medicine) que había clonado un embrión humano con una técnica similar a la
empleada con Dolly. La investigación, se añadía, no tenía por
objetivo la duplicación de un humano, sino la obtención de células madre, el
nuevo El Dorado de la investigación biomédica, las células que, no se sabe muy
bien por qué o cómo, poseen la capacidad de convertirse en todo tipo de tejidos
de órganos, lo que las hace especialmente susceptibles de ser utilizadas en el
tratamiento de muchas enfermedades. «Las entidades que estamos creando
—manifestaba Michael West, el fundador de ACT— no son individuos, ni científica
ni biológicamente. Es sólo vida celular, no una vida humana.»
§. Terapias genéticas, según Christiane Nüsslein-Volhard
Christiane Nüsslein-Volhard (n. 1943) es una bióloga muy distinguida. Premio
Nobel de Medicina en 1995 por sus trabajos sobre los mecanismos moleculares del
desarrollo inicial del embrión de la mosca de la fruta y el control genético de
la formación de órganos y estructuras en el pez cebra, publicó en 2004 un libro
(Génesis y desarrollo de la vida) del que cito aquí unos pasajes. Tratan
de la terapia genética, y aunque desde 2004 se han producido grandes avances,
es interesante conocer sus cautelosas opiniones, en un apartado en el que la
promesas son acaso demasiadas.
La terapia genética germinal [la que se refiere a las células
germinales, las que originan óvulos y espermatozoides] consiste en proporcionar
el gen correcto a un individuo con un gen defectuoso, de manera que tanto el
individuo como sus sucesores quedarían liberados para siempre de la enfermedad
relacionada con el gen defectuoso. El sistema parece atractivo, pero
actualmente no existe ningún procedimiento que permita aportar a un organismo
una única copia de un gen, que dicha copia vaya a parar a todas las células y
que, encima, no se produzcan efectos secundarios perjudiciales e imprevisibles.
En principio, parece posible aplicar la terapia genética en ratones, peces o
moscas. Si es así, ¿por qué no también en los seres humanos? En el caso de los
animales, la transferencia de genes es un proceso que entraña muchas
dificultades y sus resultados sólo afloran en los descendientes del individuo
tratado. Debido a ello, los experimentos de esta índole en animales requieren
el análisis de varias generaciones y los resultados positivos siempre van
acompañados de un gran número de ensayos fallidos. En el ser humano, el
contexto sería completamente distinto. El tratamiento debería realizarse en un
individuo muy concreto con características en la fase embrionaria unicelular
desconocidas e indeterminables al principio y con unas garantías de éxito
prácticamente completas, pero se trataría de un escenario imposible, porque no
se puede diagnosticar si un embrión está sano o no en la fase unicelular o
bicelular. Y si los padres están sanos, también habrá embriones sanos que se
puedan seleccionar mediante diagnóstico genético preimplantacional, con lo cual
se hace innecesaria cualquier terapia arriesgada.
Por otro lado, la terapia genética somática [la que se refiere a las
células que dan lugar al crecimiento de los tejidos y órganos] permite, en
principio, obtener una cura de muchas enfermedades de origen genético. En este
procedimiento, el gen defectuoso que provoca la enfermedad se incorpora a las
células madre sanguíneas extraídas de la médula ósea del propio paciente y se
vuelven a inyectar al enfermo. Estas células se multiplican y producen las
proteínas que le faltan al paciente y que permiten la curación o el alivio de
la enfermedad. Desde hace mucho tiempo se está trabajando intensamente en el
desarrollo de este tipo de procedimientos, pero sólo se han conseguido
resultados positivos en muy pocos casos.
§. Células madre
Las células madre que acabo de mencionar prometen, efectivamente, muchas y
beneficiosas posibilidades, en, por ejemplo, medicina regenerativa,
inmunoterapia y terapia génica. De hecho, ya se han obtenido resultados
prometedores con animales para tratar con ellas enfermedades hematológicas,
diabetes, párkinson, destrucción neuronal e infartos. Aunque se pueden
encontrar antecedentes, se considera con frecuencia que fueron los canadienses
Ernest A. McCulloch (1926-2011) y James E. Till (n. 1931), mientras trabajaban
en el Instituto del Cáncer de Ontario y en el Hospital Princesa Margarita de
Toronto, quienes demostraron su existencia y caracterizaron. En 1961 publicaron
un artículo en esa dirección y en 1963 definieron la propiedad clave de las
células madre: su capacidad de diferenciarse en células más especializadas.
Comenzaron dando dosis letales de radiación a ratones y después les inyectaban
células de médula ósea. Encontraron que cuantas más células les suministraban,
mayores probabilidades tenían de sobrevivir. Al tiempo que se preguntaban el
porqué de este hecho, descubrieron que algunos ratones tenían extraños bultos
en sus bazos. Averiguaron que se trataba de grupos de células que, de alguna
manera, habían aparecido como consecuencia de las células de médula ósea
inyectadas. En otras palabras, las células de médula ósea daban origen a otros
tipos de células; eran, por consiguiente, lo que se denominó «células madre».
Advirtiendo esto, en lugar de centrar sus investigaciones en la naturaleza de
esas células, se dedicaron a estudiar lo que podían hacer.
¿La medicina del futuro?
Un momento importante en la historia de las células madre es cuando, en
1994, se aislaron a partir de un blastocisto (embrión de entre una y dos
semanas antes de implantarse en el útero materno) procedente de
fecundación in vitro. No fue, sin embargo, hasta finales de 1998
cuando un grupo de la Universidad de Wisconsin (Estados Unidos) consiguió el
primer cultivo (conjunto de células que se dividen continuamente) en
laboratorio de células madre embrionarias humanas a partir de blastocistos. En
la actualidad existen bastantes formas de obtener células madre; uno muy
publicitado es a partir de cordón umbilical.
§. Vida artificial
Una buena manera de terminar este libro, una que mira al futuro, es mencionando
un paso que se dio hace poco en el camino de producir vida en el laboratorio a
partir de elementos químicos. Ese paso lo dio en 2010 Craig Venter (con quien
ya nos encontramos a propósito del Proyecto Genoma Humano), quien en mayo de
ese año anunció que había conseguido construir un genoma, casi idéntico al de
una bacteria natural, y utilizarlo para producir vida sintética. Lo consiguió
mediante un gran esfuerzo, económico (costó cuarenta millones de dólares) y
material (trabajó durante una década con un equipo de veinte investigadores),
pero el logro es fundamental, de los que hacen época. En más de un sentido,
similar al de Friedrich Wöhler, cuando, como señalé en el capítulo 7, en 1828
produjo urea a partir de elementos químicos.
¿Serán capaces los seres humanos en el futuro de «fabricar», a partir de
compuestos químicos, vida más compleja? ¿Qué sentido tendrá hacerlo? Y si se
avanza en tal sentido, ¿cómo afectará a la medicina, esa disciplina tan antigua
como la humanidad de la que ha tratado este libro? Son buenas preguntas que
sólo el futuro verá contestadas.
Bibliografía recomendada
· Miguel Artola y José Manuel Sánchez Ron, Los pilares de la
ciencia, Espasa, Madrid, 2012.
· Ariel Barrios Medina y Alejandro C. Paladini (comps.), Escritos
y discursos del Dr. Bernardo A. Houssay, Eudeba, Buenos Aires, 1989.
· Claude Bernard, Introducción al estudio de la medicina
experimental, ed. de Pedro García Barreno, Crítica, Barcelona, 2005.
· Carl Djerassi, La píldora, los chimpancés pigmeos y el caballo
de Degas, Fondo de Cultura Económica, México, 1996; edición original en
inglés de 1992.
· Pedro García Barreno, De pócimas y chips. La evolución de la
medicina, Espasa, Madrid, 2006. —, El legado de Hipócrates, Espasa,
Madrid, 2008.
· Axel Kahn, Jean Claude Ameisen, Patrick Berche e Yvan Brohard, Una
historia de la medicina, o El aliento de Hipócrates, Lunwerg, Barcelona,
2012; edición original en francés de 2011.
· Pedro Laín Entralgo (dir.), Historia universal de la medicina,
7 vols., Salvat, Barcelona, 1972-1976.
· José María López Piñero, Antología de clásicos médicos,
Triacastela, Madrid, 1998. —, La medicina en la historia, La Esfera
de los Libros, Madrid, 2002.
· José María López Piñero y María Luz Te rrada, Introducción a la
medicina, Crítica, Barcelona, 2000.
· Thomas McKeon, Los orígenes de las enfermedades humanas,
Triacastela, Madrid, 2006; edición original en inglés de 1988.
· William McNeill, Plagas y pueblos, Siglo XXI, Madrid, 1984;
primera edición en inglés de 1976.
· Christiane Nüsslein-Volhard, Génesis y desarrollo de la vida,
Crítica, Barcelona, 2009; versión original en alemán de 2004.
· Roy Porter (ed.), Cambridge Illustrated History of Medicine,
Cambridge University Press, Cambridge, 1996.

No hay comentarios:
Publicar un comentario