¿Cuántos vasos de agua deberíamos beber al día?
Ocho son demasiados.
Perdemos agua cada segundo del día por la orina, el sudor o incluso respirando, por lo que debemos reponer líquido si queremos evitar la deshidratación. Sin embargo, el consejo de que debemos beber ocho vasos de agua al día está totalmente equivocado.
En 1945, un artículo del British Medical Journal aconsejaba a los adultos ingerir unos dos litros y medio de agua diarios, pero especificaba que «la mayor parte de esta cantidad se encuentra en las comidas preparadas». En los sesenta años posteriores, parece que esta última frase, muy importante, ha caído en el olvido. Una dieta normal ya contiene el agua suficiente, por lo que, en teoría, no necesitaríamos beber nada más.
Beber muchos vasos de agua, además del consumo de comida normal, solo consigue que orinemos más.
Suele decirse que beber agua es bueno para desintoxicar el organismo y mantener la piel sin granos, pero las pruebas no son demasiado concluyentes. Es posible que el agua adicional ayude a los riñones a eliminar el exceso de sal a corto plazo, pero, a no ser que consuma sobredosis de patatas fritas, o alcohol, los beneficios no son significativos. La deshidratación crónica hace que la piel se reseque y pierda elasticidad, pero beber más agua no borrará las arrugas y es muy poco probable que impida la aparición de granos.
Para tratar la deshidratación se necesita bastante más que agua. También hay que reponer azúcar y sales, así que prueba comiendo sandías, que además son ricas en calcio, magnesio, potasio y sodio. La papaya es igual de beneficiosa, como el coco, el pepino y el apio.
Las sales y el azúcar son necesarios, porque contribuyen a transportar el agua por el cuerpo. Si le parece que las sandías arruinan su vestimenta de safari, compre saquitos de polvos de rehidratación en alguna farmacia. Contienen glucosa y sal, aunque seguirá necesitando agua en la que disolverlos. Y ahí es donde las sandías tienen ventaja: contienen un 92 por ciento de agua.
Por otro lado, demasiada agua puede resultar letal. La «intoxicación por agua», o hiponatremia (del griego hypo, «bajo», del latín natrium, «sodio», y del griego, haima «sangre»), es resultado de una disolución excesiva de las sales esenciales en el organismo. La sangre expulsa el exceso de agua a otras células, que se expanden y se rompen, lo que da lugar a náuseas, dolores de cabeza, desorientación y, al final, la muerte.
¿Para qué sirven las saunas?
Las saunas sirven para muchas cosas, pero «eliminar las toxinas del organismo» no es una de ellas.
El sudor es agua en un 99 por ciento, con cantidades ínfimas de sal y otros minerales. Su función es refrigerar el cuerpo cuando el agua se evapora de la piel, no eliminar productos de desecho. El hígado y los riñones son los encargados de depurar el organismo, convirtiendo las toxinas en algo útil o preparándolas para ser expulsadas del cuerpo.
Las saunas tampoco ayudan necesariamente a superar una resaca. Quince minutos en una sauna pueden suponer una pérdida de un litro y medio de sudor. A no ser que bebamos mucha agua para compensar, sudar tanto solo conseguirá que acabemos más deshidratados. La deshidratación estresa los riñones, lo que ralentiza la eliminación de alcohol del organismo.
Lo que la sauna puede hacer muy bien es limpiar la piel, porque los poros se abren al sudar. Una sesión de quince minutos a 70 °C y un 40 por ciento de humedad eleva la temperatura de la superficie del cuerpo en 10 °C y la interna en 3 °C. Esto aumenta el flujo sanguíneo de la piel y hace que los pulmones trabajen más, por lo que la ingesta de oxígeno puede aumentar hasta en un 20 por ciento. Por eso, los atletas de resistencia suelen utilizar saunas como parte de su entrenamiento.
Una sauna seguida de una ducha fría libera endorfinas cerebrales, que hacen que nos sintamos bien, por lo que puede utilizarse para tratar la depresión leve. La investigación llevada a cabo por el Instituto para la Trombosis de Londres ha demostrado que la combinación de sauna-agua fría puede reforzar el sistema inmune, porque aumenta la cantidad de glóbulos blancos, que combaten las enfermedades. Las saunas también alivian el dolor de la artritis, y los finlandeses juran que son la mejor cura para el resfriado común.
Aunque «sauna» es una palabra finlandesa, la idea de la sauna es muy antigua. En el siglo V a. J.C., el historiador griego Herodoto describió que los escitas, una tribu nómada de Irán, utilizaban tiendas pequeñas con este propósito; quemaban cannabis sobre piedras calientes, por lo que además de limpiarse, se colocaban. Escribió que «los escitas disfrutan tanto que gritan de placer». Los apaches de América del Norte siempre han utilizado «cabañas de calor», construidas con estructuras de sauce cubiertas de pieles, donde una docena de personas se sentaban desnudas alrededor de piedras calientes. Se rociaban periódicamente con agua, para generar vapor y limpiar así tanto el cuerpo como el espíritu.
Para los finlandeses, la sauna tiene un significado espiritual parecido. Tradicionalmente, era un lugar para las reuniones familiares, para que las mujeres dieran a luz y para lavar a los muertos antes de enterrarlos. Un antiguo dicho finlandés dice unassa ollaan kuin kirkossa, «compórtate en la sauna como en la iglesia».
Los finlandeses que infringen esta norma se arriesgan a ser castigados por el único residente permanente de la sauna, el saunatonttu, «el elfo de la sauna».
La palabra «sauna» es una de las dos únicas expresiones que el inglés ha tomado prestadas del finlandés. La otra es «cóctel Molotov».
¿Qué efecto ejerce el alcohol sobre los antibióticos?
Normalmente no ejerce efecto alguno.
La idea de que el alcohol «interfiere con el funcionamiento de los antibióticos» apareció por primera vez en las clínicas de enfermedades venéreas abiertas tras la segunda guerra mundial. La penicilina, que Alexander Fleming había descubierto en 1928, había demostrado ser especialmente efectiva en la curación de enfermedades de transmisión sexual. Se recetaba con la instrucción estricta de no beber alcohol mientras se tomara. El motivo era más psicológico que farmacéutico. Las personas bebidas tienen más probabilidades de aprovechar la oportunidad de una relación sexual casual. Al asustar a sus pacientes para que no bebieran, los médicos y las enfermeras daban al fármaco una oportunidad para que funcionara antes de que el enfermo pudiera contagiar la enfermedad a otra persona.
El consejo se convirtió en una práctica estándar, y funcionó: la mayoría de personas aún evitan el alcohol mientras siguen un tratamiento con antibióticos. Ciertamente, no es buena idea beber mucho si se toman antibióticos, porque el alcohol compite con el fármaco para que el hígado lo procese. Por lo tanto, es posible que el fármaco funcione un tanto más lentamente. Pero no dejará de hacerlo.
Se pueden recetar más de cien antibióticos, y solo cinco de ellos parecen tener efectos secundarios graves si se mezclan con alcohol.
De estos cinco, el único que se receta de forma habitual es el metronidazol, que se utiliza para combatir algunas infecciones dentales y ginecológicas y para tratar el Clostridium difficile, una infección bacteriana que se contrae en los hospitales. El fármaco impide que el cuerpo descomponga el alcohol correctamente, lo que lleva a una acumulación en sangre del enormemente tóxico acetaldehído, muy parecido al formaldehído, más conocido como «líquido de embalsamar». Los efectos son parecidos a una resaca especialmente mala: vómitos, taquicardias y dolores de cabeza severos.
En 1942, el microbiólogo estadounidense Selman Waksman (1888-1973) y su alumno Albert Schatz (1922-2005) descubrieron la estreptomicina, el primer fármaco efectivo contra la tuberculosis. Waksman dijo que era un «antibiótico» (del griego anti, «contra», y bios, «vida»), porque mataba bacterias vivas.
Los antibióticos son totalmente ineficaces contra los resfriados o la gripe, que son virales. Aún no sabemos con certeza qué son los virus, y ni siquiera podemos decir si están «vivos». Tienen genes, pero no células, y solo pueden reproducirse mediante un organismo huésped. Los científicos tienden a describirlos como «entidades biológicas» u «organismos al límite de la vida».
Lo que sí hace que los antibióticos dejen de funcionar no es el alcohol, sino consumirlos en exceso. En ganadería, el 70 por ciento de los antibióticos consumidos se administran a animales totalmente sanos. En medicina, aparecen nuevas cepas de bacterias que ahora son resistentes a lo que antes eran «fármacos milagrosos», como la estreptomicina, y la Organización Mundial de la Salud estima que un tercio de la población mundial transporta ahora una cepa de tuberculosis resistente a los antibióticos. Se teme que hasta treinta y cinco millones de personas fallezcan por ese motivo antes de 2020.
¿Podría nombrar un narcótico?
¿LSD, cocaína, speed?
Ninguno de los tres. En términos médicos, un «narcótico» es un derivado del opio, como la morfina. Una definición un tanto más laxa podría incluir cualquier fármaco o droga que induzca la pérdida de conciencia (técnicamente, «narcosis», del griego narke, que significa «insensibilidad» o «torpor»).
Los agentes de la ley estadounidenses utilizan la palabra «narcótico» como un término paraguas que abarca todas las drogas ilegales, aunque muchas de ellas no tienen nada de narcótico en el efecto que ejercen; por otro lado, muchos narcóticos genuinos, como la codeína, son legales.
Para evitar esta confusión, ahora la profesión médica se refiere al opio, y a sus derivados y substitutos sintéticos, como «opioides». El opio se hace con Papaver somniferum, un tipo de amapola que se cultiva como planta medicinal desde hace miles de años.
En la actualidad, los opioides se utilizan sobre todo en el tratamiento del dolor, una tarea para la que no tienen rival. Aunque la dependencia de los analgésicos opioides es una de las consecuencias habituales de su utilización a largo plazo, la adicción propiamente dicha es muy rara. En 2001, la Sociedad Norteamericana del Dolor definió la adicción como la «utilización compulsiva y continuada de un fármaco a pesar de sus perjuicios». El efecto secundario más habitual de los narcóticos con receta es el estreñimiento.
En el siglo XIX, se podía acceder libremente a los narcóticos sin necesidad de receta. Felix Hoffman descubrió la heroína el mismo año que descubrió el ácido acetilsalicílico (1897), más conocido por su nombre comercial, «aspirina»; en su origen, «heroína» era una marca registrada que se vendía como tratamiento contra la tos. Una de sus supuestas virtudes era que no provocaba adicción. Por aquel entonces, a las autoridades médicas les preocupaba mucho más el té verde, que se creía que provocaba anemia, convulsiones, alucinaciones y sofocos.
En la actualidad, Gran Bretaña intenta alcanzar la autosuficiencia en la producción de amapolas de opio, para garantizar un suministro regular de diamorfina, también conocida como «heroína», que es un analgésico muy potente, para quienes sufren cáncer o se recuperan de operaciones quirúrgicas. En el pasado, Gran Bretaña dependía de importaciones del Lejano Oriente.
A pesar de que, desde 2008 la producción ha caído en un 40 por ciento, Afganistán sigue proveyendo el 90 por ciento del opio mundial. Más de la mitad se cultiva en la provincia de Helmand, el enclave más importante de los insurgentes talibanes. Según la ONU, el gobierno afgano solo consigue interceptar el 2 por ciento del opio que se produce.
En el año 2009, el ejército británico pasó a la acción y, poco después, el Ministerio de Defensa denunció que habían incautado 1,3 toneladas de «una nueva cepa de semillas de amapola», con lo que impidieron que los talibanes ingresaran unos 247 millones de libras esterlinas. Posteriormente, el mismo ministerio se vio obligado a admitir que lo que el ejército había incautado eran mil cien kilogramos de semillas de judías mungo, un ingrediente básico en la dieta afgana.
¿Cuál es la mejor manera de reanimar un corazón que ha dejado de latir?
¿Utilizar un desfibrilador? No.
Si esa era su respuesta, es que ha visto demasiadas series de urgencias en la televisión. La electricidad solo se utiliza cuando el corazón late irregularmente. Si se detiene por completo, el intento de reanimarlo consiste en inyecciones intravenosas regulares de adrenalina y otros fármacos. La tasa de supervivencia en estos casos es inferior a uno de cada cincuenta pacientes.
Hay dos formas principales de latido irregular: 1) latidos demasiado rápidos, o taquicardia ventricular (del griego tachys, «rápido», y kardia, «corazón») y 2) el temblor aleatorio conocido como fibrilación ventricular (del latín fibrilla, «fibra»), ya que el corazón se convierte en una masa de fibras temblorosas. Ambas alteraciones suelen ser resultado de un infarto de miocardio, causado por la falta de riego sanguíneo en el músculo cardíaco. Si el flujo de sangre al cerebro se hace tan irregular que el paciente pierde el conocimiento y deja de respirar, el infarto de miocardio se convierte en «parada cardíaca» y requiere atención inmediata. Hay daño cerebral a partir de los cuatro minutos de interrupción del flujo sanguíneo.
Es en esta situación cuando se utiliza el desfibrilador, que son palas eléctricas con las que se estimula el músculo cardíaco para que recupere un ritmo regular. Si se hace entre tres y cinco minutos después del inicio de la parada, hay un 74 por ciento de probabilidades de recuperar la frecuencia cardíaca y un 33 por ciento de probabilidades de sobrevivir. En el año 2007, el Ministerio de Salud de Gran Bretaña anunció que los 681 desfibriladores instalados en aeropuertos, estaciones de tren y centros comerciales habían salvado ciento diecisiete vidas.
La primera vez que se utilizó un desfibrilador con una persona fue en 1947, bajo la supervisión del cirujano de Ohio Claude Beck. La parada cardíaca repentina sigue siendo la primera causa de muerte en el mundo occidental: más de setenta mil personas fallecen cada año en Gran Bretaña por ese motivo.
Si no se tiene acceso a un desfibrilador, las probabilidades de supervivencia son mucho menores, sobre un 4 por ciento. Sin embargo, la aplicación correcta de técnicas de reanimación manual salva muchas vidas, porque mantiene en movimiento la sangre del paciente hasta que llega el desfibrilador. Se hace presionando rítmicamente el pecho del paciente para que el corazón bombee sangre; en la actualidad, la respiración boca a boca se considera menos efectiva. Es importante mantener un ritmo regular y, durante mucho tiempo, se enseñaba a los trabajadores de emergencias británicos a cantar la canción Nelly the Elephant mientras bombeaban. Ahora se recomiendan compresiones más rápidas, por lo que se prefieren los ciento tres latidos por minuto que se consiguen al ritmo del Stayin’ Alive, de los Bee Gees.
El rostro de los maniquíes que se utilizan para enseñar técnicas de reanimación es el de una joven suicida no identificada, rescatada del río Sena en el año 1900. El patólogo del depósito de cadáveres se quedó tan impresionado con su belleza que le hizo un molde de yeso. La trágica historia la convirtió en el icono de toda una generación de escritores, artistas y fotógrafos.
Cuando Peter Safar y Asmund Laerdal diseñaron el maniquí de reanimación en 1958, no tenían ni idea de que se convertiría en la mujer más besada de toda la historia.
STEPHEN: Hablemos de desfibriladores: ¿para qué sirven?
JACK DEE: Para reanimar el corazón si se detiene.
JIMMY CARR: ¿Ah, sí? Yo los uso para tostar paninis...
¿Puede una persona viva ser donante de corazón?
Sorprendentemente, una persona viva puede donar su corazón a otra persona y no morir en el intento... siempre que reciba otro corazón a cambio.
Esto sucede cuando se determina que una persona con una enfermedad pulmonar muy grave, pero con un corazón sano, tiene más probabilidades de sobrevivir si recibe un doble trasplante de corazón y pulmones. A cambio, puede donar su corazón a alguien que solo necesite un trasplante cardíaco.
El cardiocirujano Magdi Yacoub, ahora profesor sir Magdi Yacoub, llevó a cabo el primero de estos «trasplantes dominó», como se les llama, en Gran Bretaña desde 1987. No se conocen los nombres de los pacientes, porque pidieron permanecer en el anonimato. Posteriormente, un enfermo de fibrosis cística, llamado Clinton House, se convirtió en el primer donante estadounidense de un corazón vivo. Se lo donó a John Couch y, a cambio, recibió un corazón y dos pulmones nuevos de la víctima sin identificar de un accidente de tráfico.
El primer trasplante de cualquier tipo de donante vivo que se llevó a cabo con éxito se practicó en 1954 en Boston, cuando un gemelo idéntico donó uno de sus riñones a su hermano, cuyos dos riñones habían fallado. En teoría, todos podemos sobrevivir perfectamente con un riñón, un pulmón, uno de los dos lóbulos hepáticos y parte del páncreas y de los intestinos. El hígado es único entre estos órganos, porque puede volver a crecer hasta casi recuperar el tamaño original.
En 1896, el cirujano inglés Stephen Paget (1855-1926), escribió el libro de texto fundamental Surgery of the Chest [Cirugía torácica], donde predijo que siempre sería demasiado difícil y peligroso operar un corazón humano. Sin embargo, más adelante ese mismo año, un cirujano alemán, Ludwig Rehn (1849-1930), consiguió reparar con éxito la cámara izquierda del corazón de un joven que había sido apuñalado en el tórax. Fue la primera vez que un cirujano operaba un corazón, y que el paciente sobrevivía, y Rehn no se atrevió a probarlo otra vez. Incluso en tiempos de guerra, la sabiduría quirúrgica convencional afirmaba que la metralla alojada en el corazón debía dejarse allí, y la cirugía cardíaca por cualquier motivo fue algo prácticamente inaudito antes de la segunda guerra mundial.
La situación mejoró rápidamente después de la guerra. El cirujano sudafricano Christiaan Barnard (1922-2001) llevó a cabo el primer trasplante de corazón en Ciudad del Cabo en 1967. Aunque su paciente solo sobrevivió dieciocho días, en la actualidad dos tercios de los pacientes trasplantados sobreviven durante más de cinco años. El que ha vivido más hasta ahora es Tony Huesman, un vendedor de artículos deportivos de Dayton (Ohio), que vivió durante treinta y un años con un corazón trasplantado, hasta que falleció de cáncer a los cincuenta y un años de edad, en 2009.
En Gran Bretaña, estos avances han llevado a un cambio en la definición legal de «muerte». Hasta la década de 1970, se consideraba que la muerte consistía en la parada cardíaca. Después de los primeros trasplantes de corazón, se redefinió la muerte como la ausencia de función cerebral. Así, se daba a los cirujanos la oportunidad de retirar el corazón del donante antes de que se detuviera.
¿A qué mamífero le late más veces el corazón a lo largo de su vida?
Gracias a la medicina, a nosotros.
Los grandes mamíferos tenemos una frecuencia cardíaca lenta y vidas largas, mientras que los mamíferos pequeños tienen vidas cortas y frecuencias cardíacas rápidas. Por eso, independientemente del tamaño del mamífero, todos tienen, de promedio, el mismo número de latidos cardíacos al cabo de la vida, unos quinientos millones. Se conoce como «la hipótesis de la tasa de vida» y se aplica a todos los mamíferos, excepto al ser humano. Los avances médicos y los hábitos de higiene han alargado la esperanza de vida, por lo que, ahora, nuestro corazón late unas cinco veces más a lo largo de la vida que el del resto de mamíferos.
El mamífero más pequeño del mundo es la musaraña etrusca (Suncus etruscus) que vive en el sur de Europa, pesa dos gramos y mide tres centímetros y medio de longitud.
El corazón le late a una media de 835 latidos por minuto y su esperanza de vida es de un año, lo justo para poder reproducirse antes de ser cazada.
En el otro extremo de la escala nos encontramos a la ballena azul (Balaenoptera musculus), que puede alcanzar los treinta metros de longitud y pesar ciento cincuenta toneladas, treinta veces más que un elefante africano. Su corazón es del tamaño de un automóvil pequeño y late a unos diez majestuosos latidos por minuto durante ochenta años.
Los latidos totales al cabo de la vida de ambas especies son muy parecidos: 439 millones para la musaraña; 421 para la ballena. Por el contrario, el corazón humano promedio, que late a unos setenta y dos latidos por minuto a lo largo de sesenta y seis años, late unos dos mil quinientos millones de veces.
Al astronauta estadounidense Neil Armstrong le impresionó tanto la idea de que tenemos un número finito de latidos cardíacos que bromeó con que dejaría de hacer ejercicio, porque no quería utilizar los suyos demasiado rápidamente. Sin embargo, las cosas no funcionan así: aunque el esfuerzo físico hace que el corazón lata a mayor velocidad a corto plazo, el estado de forma resultante ralentiza la frecuencia cardíaca general.
Una manera aún mejor de ralentizar el ritmo cardíaco es practicar yoga con regularidad. La investigación llevada a cabo a lo largo de treinta días el año 2004 en Bangalore (India), demostró que la meditación y el control que los yoguis ejercen sobre la respiración ralentizaban la frecuencia cardíaca en un promedio de 10,7 latidos por minuto. El grupo de control, que intentó ralentizarlo por otros medios, no consiguió ninguna mejora duradera.
En 1938 se llevó a cabo un experimento macabro para registrar el efecto del miedo sobre la frecuencia cardíaca. John Deering era un asesino convicto y donó su cuerpo a la ciencia cuando aún estaba vivo. Se le condenó a morir fusilado en Salt Lake City (Utah), y autorizó al doctor Stephen Besley, el médico de la cárcel, para que le conectara a un electrocardiógrafo. Tras la aparente calma de Deering, Besley registró que su ritmo cardíaco aumentó de setenta y dos a ciento veinte mientras le ataban, y que alcanzó los ciento ochenta en el momento del impacto. El corazón se detuvo 15,6 segundos después.
Besley comentó que, a pesar de que había «puesto buena cara», la máquina había confirmado lo que esperaba: Deering «murió con miedo».
¿Cuánto tiempo viven las efímeras?
Lo que todo el mundo sabe de las efímeras es que solo viven un día; sin embargo, sus vidas son mucho más largas que eso.
En función de la especie, la efímera adulta vive entre menos de un día y una semana, pero esto no es más que el final de un ciclo vital mucho más largo. Las efímeras pasan la mayor parte de su existencia como ninfas acuáticas, un período que puede durar entre varios meses y cuatro años.
Hay dos mil quinientas especies de efímeras, y cincuenta y una de ellas viven en Gran Bretaña. Vuelan durante todo el verano y no son moscas. Las moscas pertenecen al orden Diptera («dos alas» en griego), mientras que las efímeras pertenecen al orden Ephemeroptera («alas de vida corta», también en griego). Las efímeras son mucho más antiguas que las moscas. Fueron uno de los primeros insectos voladores: hay fósiles de efímeras de trescientos millones de años de antigüedad. Sus familiares más cercanos son las libélulas y los caballitos del diablo, que tampoco tienen nada que ver con las moscas.
Las efímeras son unos insectos únicos, porque su última muda de piel sucede una vez ya se han formado las alas. Cuando emergen del agua por primera vez, el adulto inmaduro, o ninfa, se desprende de la piel y se convierte en un «subimago», que debe su nombre a sus alas pequeñas y de color apagado. Vuela a muy poca distancia del estanque y descansa durante un tiempo entre la vegetación. Entonces, lleva a cabo su transformación definitiva, cambia de piel por última vez y reaparece ya como efímera plenamente adulta.
Las efímeras adultas no comen nunca: solo les interesa el sexo. Enormes enjambres de machos invaden el aire simultáneamente, y las hembras vuelan entre ellos, deseosas de aparearse. El apareamiento sucede en pleno vuelo y en cuanto finaliza, el macho cae al agua, muerto. La hembra pone huevos inmediatamente en el agua y, entonces, cae muerta. Una especie, la Dolania americana, muere a los cinco minutos de la última muda de piel. En ese pequeñísimo espacio de tiempo, tiene que secarse las alas nuevas, volar, escoger una pareja, aparearse y, si es hembra, poner huevos. Un día es una jornada intensísima en la vida de una efímera.
En algunos países, los peces no son los únicos en beneficiarse de esas enormes nubes de proteína que sobrevuelan las charcas. A lo largo del río Sepik, en Nueva Guinea, los aldeanos filtran masas de efímeras poscopuladoras de la superficie del agua y las cocinan en tortas de sagú. Aparentemente, su sabor es parecido al del caviar.
¿Qué sale de un capullo?
Mariposas, no. Pero la mayoría de polillas, pulgas, abejas, gusanos y arañas, sí.
Un capullo es una especie de probador de seda, donde una criatura se metamorfosea y pasa a una fase distinta de su vida. Por ejemplo, de huevo de araña a cría de araña, o de oruga a polilla. La palabra procede del griego kokkos, o «baya».
Los gusanos de seda no son gusanos, sino orugas. Cuando tienen aproximadamente un mes, se pasan tres días enteros tejiendo con cuidado un hilo de casi dos kilómetros de longitud con su propia saliva y con el que se envuelven todo el cuerpo. La envoltura se seca y se convierte en una cápsula que los protege durante su transformación en polilla de seda. Por desgracia para ellos, es durante esta fase cuando son recolectados por los cultivadores de gusanos de seda, que los envían a las fábricas. Hacen falta tres mil capullos para conseguir quinientos gramos de seda.
Las crías de abeja se desarrollan en un capullo de jalea real, que ellas mismas comen para poder salir. Las larvas de pulga se convierten en adultas dentro de un capullo. Pueden permanecer en ese estado, enterradas en la moqueta, durante meses, hasta que las vibraciones provocadas por un movimiento cercano les anuncian que hay un animal huésped en las proximidades, sobre el que pueden saltar.
Después de aparearse, la lombriz de tierra segrega un moco que se endurece como una vaina alrededor del cuerpo. Poco a poco, se desplaza a lo largo del cuerpo de la lombriz y, por el camino, recoge esperma y huevos, hasta que sale por la cabeza, como una camiseta, y se sella, para convertirse en un capullo con forma de limón. Dentro del mismo, los huevos y el esperma se unen y dan lugar a embriones. Las arañas también ponen sus huevos en un saco de seda, para que eclosionen allí. Para ello, utilizan la seda de mayor calidad que puedan producir. Los campesinos de Rumanía la utilizan como vendaje antiséptico.
Las mariposas no hacen capullos, sino que forman crisálidas (del griego, «vaina dorada»). Un capullo es una estructura externa, diseñada para proteger a la criatura que alberga en su interior, mientras que la crisálida es la criatura. El exterior duro de la crisálida es la última capa de la piel de la oruga antes de convertirse en mariposa.
Durante muchos siglos, se creyó que las mariposas y las polillas no tenían nada que ver con las orugas. Entonces, en 1679, la naturalista e ilustradora alemana Maria Sibylla Merian (1647-1717) publicó un libro titulado The Caterpillar: Marvelous Transformation and Strange Floral Food [La oruga: transformación maravillosa y extraño alimento floral], en el que describía meticulosamente el ciclo vital y la metamorfosis de 186 especies de mariposas y polillas. Como lo publicó en alemán y no en latín, se convirtió en uno de los libros científicos más comentados de la época.
La manera tan estructurada de organizar la observación y el registro científico de Maria era muy avanzada respecto a la mayoría de sus contemporáneos. A pesar de ello, otros científicos utilizaron sus hallazgos para justificar la antigua teoría del «preformacionismo», que establecía que toda la vida se había creado simultáneamente en el principio de los tiempos. Afirmaban que, al igual que el origen de la mariposa adulta ya existía en la oruga, Adán y Eva contenían en su interior a todos los seres humanos que les siguieron, ya formados, como un conjunto de matrioskas cada vez más pequeñas.
¿Dónde viven las amebas?
No viven en una «sopa», ni en una especie de «baba» ni en nada parecido. Quizá le sorprenda saber que algunas amebas viven en casas que diseñan y construyen ellas mismas.
Las amebas (del griego amoibe, «cambio») son organismos unicelulares diminutos. Nadie sabe cuántos miles y miles de especies hay: cualquier lugar un poco húmedo les sirve de vivienda, como hemos aprendido muy a nuestro pesar. La especie que provoca la disentería amébica mata a más de cien mil personas cada año y vive en el intestino y el hígado de otros cincuenta millones más.
No hay seres vivos mucho más sencillos que una ameba: no son más que una membrana externa llena de un fluido acuoso que rodea un núcleo con material genético. No tienen forma fija, pero sí una parte anterior y posterior, y se mueven arrastrándose en dirección a la comida. Comen rodeando y absorbiendo fragmentos más pequeños de algas o bacterias. Se reproducen dividiéndose en dos.
Lo que las hace extraordinarias es que una rama de la familia de las amebas es capaz de construir refugios portátiles. Tragan gránulos microscópicos de arena y, cuando tienen los suficientes, los unen gracias a una forma de cemento orgánico que segregan. Nadie ha observado el proceso, por lo que desconocemos cómo lo hacen.
Cada especie construye su casa con un estilo determinado. La residencia de la Difflugia coronata es un globo, con una entrada redondeada y ocho puntas, como los alerones de una nave espacial de la década de 1950, en la parte trasera. La Difflugia pyriform construye una urna en forma de pera, y la Difflugia bacillefera, un tubo en forma de puro. Ninguna de estas construcciones es más grande que un punto y seguido.
Tal y como sucede con tantísimas unidades domésticas en la actualidad, es inevitable que llegue el momento de la separación. La ameba matriz se queda con la casa; el descendiente se queda con los restos del material de construcción que pueda haber cerca y empieza a construir su propio hogar. ¿Cómo es posible que hagan todo esto si carecen de cerebro e, incluso, de sistema nervioso?
En 1757, el miniaturista y naturalista austríaco Johann Rösel von Rosenhof (1705-1759) describió y dibujó una ameba por primera vez. La llamó Proteus, en alusión al dios griego que podía cambiar de aspecto a voluntad. Desde entonces, la palabra «ameba» se ha convertido en sinónimo mundial de algo básico y poco sofisticado.
Quizás ha llegado el momento de que vayamos revisando nuestras ideas. Hace poco, se ha descubierto que la información genética que contiene el núcleo único de la Amoeba proteus es doscientas veces mayor que la nuestra.
Podemos decir que las amebas son descerebradas, pero en absoluto que son «simples».
¿Cómo se llama la vivienda de los mongoles?
No lo llame yurt. Los mongoles detestan esa palabra.
Yurt es una palabra turca que significa «patria». Los mongoles viven en una tienda llamada ger, que significa «hogar» en mongol.
En los últimos años, se ha empezado a utilizar indiscriminadamente la palabra yurt para referirse a las estructuras portátiles, cubiertas de lona y con armazón de red comunes a tantas culturas de la estepa central asiática.
Para un mongol, que alguien llame yurt a su ger es un gran insulto. La palabra yurt coincide y procede del ruso yurta, un término despectivo para las chozas de barrios chabolistas. Los rusos la adoptaron de lenguas turcas, donde su significado original era «marca que una tienda de campaña deja en el suelo». El mongol pertenece a una familia totalmente distinta a la del turco o el ruso, y toda la cultura mongola se ha construido en torno al ger. Decir que su amado hogar es un yurt es como decir que un lord inglés vive en un chateau o en ein Schloss, y no en su castillo.
Dos tercios de la población mongola sigue viviendo en gers, no por orgullo nacional mal entendido, sino porque son estructuras muy prácticas. Las paredes son circulares, hechas con una red de ramas de sauce, unidas con tiras de cuero y cubiertas con un techo abovedado de palos delgados y flexibles. Entonces, se protege con lonas toda la estructura, que puede montarse o desmontarse en menos de una hora. Su forma aerodinámica las dota de gran estabilidad ante los furiosos vientos esteparios, y la espesa cobertura de lona las hace extraordinariamente cálidas. La Mongolia rural presenta el rango de temperaturas más amplio del mundo: de unos abrasadores 45 °C en verano a unos gélidos –55 °C en invierno. Incluso los mongoles que tienen casa tienden a mudarse a un ger durante el invierno, porque son mucho más acogedores.
El levantamiento de un ger sigue unas normas muy estrictas. Para minimizar la entrada de aire, la puerta siempre mira al sur. La cocina está a la derecha de la puerta de entrada, y el altar budista tradicional está al fondo. Las camas están a derecha e izquierda del altar. Los invitados se sientan en el extremo interior izquierdo del ger; cuanto más se respeta al invitado, más alejado de la puerta se le ubica. Los miembros de la familia se sientan a la derecha. En el centro hay un horno de madera o de estiércol, y el humo se escapa por el orificio central del techo. En verano, las paredes pueden enrollarse y subirse, para estar más frescos.
Cuando una pareja mongola se casa, sus familias les compran o les construyen un ger nuevo.
Los primeros restos arqueológicos de un ger tan solo se remontan al siglo XII, pero los grabados en la roca y las narraciones de viajeros de la antigüedad, como Herodoto, sugieren que en las estepas se han levantado estructuras similares desde hace, como mínimo, dos mil quinientos años.
El ejército de Gengis Kan (1162-1227) vivía en estructuras plegables parecidas y el propio Gran Kan administraba la totalidad del Imperio mongol desde un ger enorme, al que llamaban gerlug. Estaba montado permanentemente, sobre un carro del que tiraban veintidós bueyes.
STEPHEN: ¿Dónde viven los mongoles?
ROB BRYDON: En unas tiendas que se llaman algo parecido a yak... No sé si es yult o yak.
JO BRAND: ¿Quieres decir un yurt?
ROB: Sí, eso, sí.
**BOCINA**
ROB: No, eso no. No y no.
¿Podría nombrar un tapiz famoso?
Si le ha venido a la mente el tapiz medieval del Apocalipsis de Angers, en el noroeste de Francia, ya puede considerarse el primero de la clase. También puede hacerlo si ha pensado en el tapiz griego del siglo II a. J.C. descubierto en Sampul, al oeste de China; o en los tapices colgantes de Devonshire del siglo XV, que ahora exhibe el Museo Victoria y Alberto de Londres.
Sin embargo, si ha pensado en el «tapiz de Bayeux», tiene un suspenso bajo. No es un tapiz, sino un bordado. Un tapiz es una tela muy pesada en la que el dibujo va apareciendo a medida que la tela se va tejiendo en el telar. Por el contrario, el bordado consiste en decorar con puntadas de hilo un trozo de tela ya existente. En este caso, se trata de un bordado de lana de colores sobre lino.
El bordado de Bayeux es largo y delgado. Mide setenta metros de largo, pero solo cincuenta centímetros de ancho. Es una obra de la propaganda normanda y lo más probable es que lo encargara el hermanastro de Guillermo el Conquistador: Odón (1037-1098), obispo de Bayeux y conde de Kent, que figura de manera significativa en la historia. En la actualidad se exhibe en Francia, pero la artesanía es inglesa y, probablemente, se hizo en Canterbury.
Además de al propio rey Harold, resulta fácil identificar a los personajes: los ingleses aparecen con frondosos bigotes, mientras que los normandos aparecen bien afeitados. Los comentaristas franceses de la época se quedaron sorprendidos al ver a los melenudos ingleses con sus «largas trenzas untadas de aceite» y los calificaban de «guerreros reticentes» o de «chicos-mujer» (feminei iuvenes). Por su parte, los franceses parecen skinheads.
La batalla de Hastings no tuvo lugar en Hastings, sino varios kilómetros más lejos, en Senlac Ridge, justo en las afueras de una ciudad con el oportuno nombre de Battle («batalla» en inglés). El rey inglés reunió a sus tropas en una zona elevada de la cima de la colina conocida como «El manzano vetusto», y las fuerzas sajonas resistieron allí, hasta que los normandos fingieron una retirada y atrajeron al rey a su muerte.
Tradicionalmente, se supone que Harold es la figura que aparece con una flecha clavada en el ojo, pero hay otras dos figuras cercanas que también llevan su nombre bordado: una tiene el pecho atravesado por una lanza, y la otra recibe el golpe de la espada de un jinete. Podría ser ambas figuras, o ninguna de ellas.
En agosto de 1944, Heinrich Himmler, el segundo de Hitler, ordenó al director de las SS en Francia que se llevara consigo el bordado de Bayeux cuando las tropas alemanas se retiraron del país. Cuatro días después, las SS intentaban robarlo del Louvre, pero ya era demasiado tarde: la Resistencia había ocupado el edificio.
Si Himmler hubiera actuado con mayor rapidez, el llamado «tapiz de Bayeux» habría abandonado Francia en un camión nazi, una experiencia a la que probablemente no hubiera sobrevivido.
¿Quién ascendió al trono de Inglaterra tras la batalla de Hastings?
Edgar Ætheling.
En 1066 hubo cuatro reyes de Inglaterra, uno detrás del otro. Eduardo el Confesor falleció en enero y fue sucedido por Harold. Cuando Harold murió en Hastings en octubre, Edgar Ætheling fue proclamado rey. Reinó durante dos meses, antes de que Guillermo el Conquistador fuera coronado el día de Navidad.
Una de las muchas cosas que los ingleses heredaron de los normandos y con las que no estaban de acuerdo era que el primogénito del rey le sucediera automáticamente. Los reyes anglosajones eran elegidos, no heredaban la corona. El deber de organizar el proceso recaía en un consejo de líderes religiosos y políticos, llamado Witan (abreviación de Witangemot, o «reunión de sabios»).
La sangre real no era más que uno de los varios factores que se tenían en cuenta. El rey debía ser capaz de defender al país y podía designar a quien quisiera como su heredero antes de morir. Eduardo el Confesor murió sin descendencia y sin haber nombrado sucesor, lo que dio lugar a una crisis constitucional. Su reinado había puesto fin a treinta años de dominio danés —que había empezado con la conquista de Inglaterra por parte del rey Canuto en 1016— y su madre era normanda. Por lo tanto, esto daba derecho al trono de Inglaterra tanto al sobrino-bisnieto de Canuto, Guillermo duque de Normandía, como al rey Harald Hardrada de Noruega y, en su opinión, de Dinamarca.
Edgar era el sobrino-nieto de Eduardo el Confesor. La palabra Ætheling («príncipe») le señalaba como posible rey, pero tan solo tenía quince años. La inminencia de una invasión hizo que el Witan le rechazara como rey, por su inexperiencia, y optara por Harold Godwinson, conde de Wessex y cuñado de Eduardo el Confesor.
Harold se dirigió inmediatamente a Yorkshire, donde venció, y mató, a Harald Hardrada en la batalla de Stamford Bridge, antes de tener que volver sobre sus pasos a toda prisa y morir cerca de Hastings, en la costa de Sussex. En cuanto las noticias de la muerte de Harold llegaron a Londres, los miembros del Witan que aún vivían se reunieron y nombraron rey a Edgar, pero no estaban convencidos. Revocaron su decisión y entregaron el niño a Guillermo. Ni siquiera habían llegado a coronarlo.
Sin embargo, Edgar, al igual que Harold, no era un alfeñique. Había nacido en Hungría y era hijo de Eduardo el Exiliado; escapó de la custodia normanda y pasó a ser conocido como Edgar el Proscrito. Intentó recuperar la corona inglesa en repetidas ocasiones, invadió Escocia, intentó conquistar partes de Italia y Sicilia, participó en la Primera Cruzada (1098) y es posible que se uniera a la élite de marineros mercenarios y ávidos de sangre del emperador bizantino Alexios I, conocida como «la Guardia Varangiana». Temida en todo el Mediterráneo, tenía su base en Constantinopla y se componía en su mayoría de ingleses exiliados.
Cuando Enrique I (1069-1135), el cuarto hijo de Guillermo el Conquistador, se casó con Matilde, la sobrina de Edgar, perdonó al niño rey. Edgar murió en Escocia en 1126, a la venerable edad de setenta y cinco años. Soltero y sin hijos, está enterrado en una tumba sin marcar: el último rey anglosajón y el último varón de la línea de la casa de Wessex, la primera familia real inglesa.
¿Quién inventó la arquitectura gótica?
Los godos, no. En todo caso, de haber sido alguien, hubieran sido los franceses.
El artista e historiador renacentista Giorgio Vasari (1511-1574) acuñó el término «gótico» en 1550, para describir el ahora admiradísimo estilo arquitectónico. Lo utilizó como insulto. En su opinión, los arcos apuntados y los enormes techos con vueltas de arco eran horrores «monstruosos y bárbaros», una exhibición de mal gusto de la que culpó a los godos, los invasores nórdicos que habían saqueado Roma y destruido el pasado clásico de Italia.
Ahora se le conoce sobre todo por su Vidas de artistas, biografías cortas de pintores, escultores y arquitectos contemporáneos, como Leonardo da Vinci o Miguel Ángel, pero Giorgio Vasari también era arquitecto. Diseñó el palacio de los Uffizi en Florencia, para Cosimo de Medici (1519-1574). En la actualidad, es un museo mundialmente famoso, pero en su origen fue un despacho de oficinas para abogados (uffizi significa «oficinas» en italiano).
Vasari creía que el estilo medieval del norte de Francia, que alcanzó su cumbre en las grandes catedrales de Chartres, Reims y Lincoln, era feo, abigarrado y anticuado y lo denunciaba como «alemán» además de «gótico». En realidad, no tenía relación ni con los unos ni con los otros y había evolucionado a partir del románico, un estilo más sencillo, redondeado y sólido que en Gran Bretaña se conoce como arquitectura «normanda». Si le hubieran preguntado a un masón catedralicio medieval qué hacía, se hubiera limitado a responder opus Francigenum: «trabajo francés».
Sin embargo, el apodo despreciativo de Vasari arraigó, como luego harían los términos «barroco», «cubista» e «impresionista», todos ellos concebidos también como insultos. El estilo «gótico» se extendió rápidamente por toda Europa occidental, pero hasta el siglo XVIII no perdió sus connotaciones negativas, porque entonces los artistas y los escritores empezaron a recurrir a la Edad Media para inspirarse. En arquitectura, el «nuevo gótico» produjo edificios como el Parlamento inglés, de Augustus Pugin (1835), y en literatura dio lugar a una escuela nueva de novelas «góticas», repletas de ruinas fantasmales, casas encantadas y heroínas que se desmayaban. Fue la aplicación literaria de la palabra lo que llevó, en 1983, a que se llamara «góticos» a los adolescentes que vestían de negro, se pintaban la cara de blanco, y escuchaban música melancólica.
Los godos originales procedían del sur de Suecia —que aún hoy se conoce como Götaland—, y el término «godo» tan solo significaba «la gente» (del noruego antiguo gotar, «hombres»). A lo largo de cuatro siglos, migraron hacia el este y hacia el sur, conquistando grandes zonas de Francia, España e Italia. En el año 410 d. J.C., Alarico, el comandante militar de la rama occidental de los godos, conocidos como «visigodos», atacó y saqueó Roma; era la primera vez que la ciudad caía en manos de un poder extranjero en ochocientos años. Aunque el emperador Honorio (384 d. J.C.-423 d. J.C.) había trasladado la capital a Rávena hacía ocho años, no dejó de ser un gran golpe psicológico y un momento clave en el largo declive del Imperio romano.
A pesar de todo, los godos no solo trajeron desgracias. Fundaron ciudades, se convirtieron al cristianismo y elaboraron un código legal escrito que aún se seguía aplicando en España varios siglos después. Sin embargo, a finales del siglo VI, los godos fueron derrotados por otras tribus germánicas en el este y expulsados de España por invasores musulmanes procedentes del norte de África, y empezaron a desvanecerse de la historia.
Las últimas trazas de la lengua gótica se escribieron en la Crimea del siglo XVI. Todo lo que sobrevive son unas ochenta palabras y una canción cuyo significado ya no entiende nadie.
JACK DEE: Pues yo tuve una fase gótica.
STEPHEN: ¿Ah, sí?
JACK: Sí, pero me aconsejaron que la superara, me pasaba el día deprimido.
¿De qué país proceden los hunos?
No proceden ni de Hungría ni de Alemania. Los hunos originales eran más un ejército que una tribu, por lo que ningún país moderno puede afirmar que desciende de él.
Los hunos llegaron a Europa procedentes de Asia central en el siglo IV d. J.C. En solo ochenta años, construyeron un imperio que se extendía desde las estepas de Asia central hasta lo que ahora es Alemania central, y desde el mar Negro hasta el Báltico. Cabalgaban sobre caballos pequeños y rápidos, y pasaban casi todo el tiempo encima de uno. Los romanos decían que los hunos luchaban, comían, dormían y negociaban a lomos de un caballo, hasta tal punto que se mareaban cuando ponían los pies en el suelo.
No sabemos exactamente de dónde venían ni qué idioma hablaban, pero la mayoría de los historiadores actuales creen que los hunos eran un ejército multiétnico y multilingüe. Lo único que todos tenían en común era la lealtad a su gran líder, Atila (alrededor de 404-453), y su técnica superlativa como arqueros montados.
Cuando Atila el Huno murió, sus tres hijos se enfrentaron y el imperio se desintegró tan rápidamente como se había formado. Lo que quedaba de su ejército fue derrotado en el año 454 por una alianza de godos y otras tribus germánicas en la batalla de Nedao, ahora oeste de Hungría. Como no había un estado huno, ni edificios, ni leyes, ni cultura, ni lenguaje común, no nos ha llegado casi nada de ellos, excepto las leyendas que los rodean. Esto ha permitido que muchos pueblos de Europa y Asia afirmen llevar sangre huna —con lo que implican, por supuesto, que son descendientes de Atila, el rey guerrero—. Dada la diversidad racial de los hunos, esto no significa nada. Si pudiéramos decir que aún hay hunos entre nosotros, diríamos que están en todas partes.
En el inglés del siglo XIX, «huno» era prácticamente un sinónimo de «vándalo»: persona dada a actos de destrucción injustificada. Hasta principios del siglo XX no se empezó a utilizar el término «huno» para referirse a los alemanes; y fue un alemán quien lo hizo. El 27 de julio del año 1900, el Káiser Guillermo II arengó a sus tropas, que iban a unirse a una alianza de poderes coloniales que iba a apagar una revuelta antioccidental en China. Les instó a no mostrar clemencia ante los «bóxers» rebeldes (era el término que los occidentales daban sarcásticamente al movimiento que se autodenominaba «Los puños legítimos de la armonía»). Les dijo que «los hunos, bajo el liderazgo de Atila, se ganaron una reputación que ha llegado hasta nuestros días. Hagamos que el nombre de Alemania llegue a ser igualmente conocido en China, para que ningún chino se atreva nunca más a mirar con desprecio a un alemán».
Cuando la primera guerra mundial empezó en 1914, los propagandistas aliados aprovecharon esta frase. Un editorial en The Times, titulado «La marcha de los hunos» marcó el tono. Describía a los alemanes como si fueran aún peores que los antiguos bárbaros. El artículo afirmaba que, a diferencia del Káiser, «hasta Atila tenía un lado bueno».
En la segunda guerra mundial los términos «Kraut» y «Jerry» eran los apodos con los que los británicos solían referirse a los alemanes, aunque, al parecer, Churchill —un gran aficionado a la historia— prefería «huno». En un programa radiofónico de 1941, describió la invasión alemana de la Unión Soviética como las «brutales huestes de la soldadesca huna, que avanzan como una horda de langostas depredadoras».
STEPHEN: En la frontera rusa al norte del Cáucaso podemos encontrar alanos, una tribu que ha vivido allí desde que los hunos los fueron desplazando en el siglo IV.
ALAN: Un mal fin de semana, ¿no?
STEPHEN: Pues sí.
ALAN: Aún hablamos de ello.
STEPHEN: Tú y Alan Coren, y Alan Bennett, y Alan Parsons...
ALAN: Nos reunimos y deliberamos.
STEPHEN: Sí.
ALAN: Y si alguien menciona a los hunos, nos quedamos todos callados y tenemos que recomponernos.
¿Cómo murió Atila, el rey de los hunos?
¿Llevando a la victoria a su ejército en una batalla? ¿Asolando una ciudad romana? ¿Asesinado por un conspirador? No. Atila el Huno, el mayor guerrero de su era, el hombre al que los romanos llamaban flagellum Dei, «el flagelo de Dios», murió en la cama. De una hemorragia nasal.
Lo sabemos gracias al historiador romano Priscus, que visitó la corte de Atila en el año 448 d. J.C.
Según cuenta, Atila celebró su matrimonio con una joven goda llamada Ildico y se retiró a sus aposentos, borracho. A la mañana siguiente, encontraron a su joven esposa llorando sobre su cadáver. Los vasos sanguíneos de la nariz se le habían reventado mientras dormía y se había ahogado en su propia sangre. Atila tenía unos cuarenta y siete años de edad y había liderado el ejército huno durante casi veinte años.
Debía gran parte de su éxito a las devastadoras velocidad y capacidad de maniobra de su ejército. A diferencia de otros ejércitos terrestres de la época, podía luchar en cualquier condición meteorológica, no solo en verano. En las batallas o los asedios, los arqueros hunos podían disparar hasta cincuenta mil flechas en los primeros diez minutos. En cualquier caso, Atila era mucho más que un general despiadado: también era un gran negociador. A medida que ciudad tras ciudad caían derrotadas a sus pies, le gustaba dar imagen de hombre razonable y aceptaba oro a cambio de la seguridad futura de sus víctimas mientras levantaba un imperio de miedo, como un capo de la mafia o un barón de la droga. No quería ni tierras ni poder, tan solo reclamaba obediencia y un botín. Esta actitud pragmática hace que, aún hoy, su nombre signifique barbarie y caos para unos, pero arrojo heroico para otros.
Para gestionar sus múltiples y variables alianzas, Atila necesitaba asegurarse una provisión de oro abundante y constante, lo que significaba más guerras para conseguirlo. Desde su base en Hungría, desplazó sus objetivos militares de Persia al Imperio romano oriental, en Constantinopla, y luego a los romanos occidentales, en Italia y Galia. Finalmente, en el año 451 d. J.C., en la batalla de Châlons, en Galia, los hunos se enfrentaron frontalmente con las fuerzas romanas occidentales. Tal era la habilidad negociadora de Atila que casi todas las tribus del continente europeo se encontraron luchando a un lado o al otro.
Esta batalla marcó el principio del fin tanto para los hunos como para el antiguo Imperio romano. Los romanos y sus aliados godos vencieron, pero por poco: las legiones romanas se vieron diezmadas y nunca más volvieron a luchar. Roma fue saqueada de nuevo en 455, esta vez por los vándalos, y el Imperio se trasladó a Constantinopla, donde permaneció durante los ochocientos años siguientes. La compleja red de alianzas que había construido Atila no sobrevivió a su muerte, dos años después, y un año más tarde, el muy mermado ejército huno sufrió su última derrota y se disolvió para siempre.
El estilo personal de Atila era modesto en comparación con los gangsters ataviados de oro que le rodeaban. Utilizaba copas y platos de madera, vestía con sencillez, y su espada carecía de decoración alguna. No sucedió lo mismo en su funeral. Se le enterró en un lujoso ataúd de pared triple —cada pared tenía una capa de hierro, plata y oro—, y el espacio entre pared y pared se llenó con joyas.
Murió en algún lugar de lo que ahora es Hungría, pero su tumba no se ha encontrado jamás. Para garantizar que su ubicación fuera secreta, todos los hombres que participaron en el entierro fueron asesinados a su regreso al campamento.
¿Qué hay que hacer ante una hemorragia nasal?
¡No incline la cabeza hacia atrás!
Podría dirigir la hemorragia hacia la garganta. Tragar sangre irrita el estómago y puede provocar náuseas y vómitos; si la sangre pasara a los pulmones por la tráquea, podría ahogarse, como le sucedió a Atila. Lo mejor que puede hacer es sentarse con la espalda bien derecha e inclinándose hacia delante. Mantener la cabeza por encima del corazón reduce la hemorragia e inclinarse hacia delante contribuye a eliminar la sangre de la nariz.
Según el British Medical Journal, se puede detener la hemorragia nasal presionando la punta de la nariz durante unos cinco o diez minutos. Así se ayuda a la coagulación de la sangre. Una compresa fría, o una bolsa de hielo, colocada sobre el puente de la nariz también resulta útil. Si la hemorragia nasal dura más de veinte minutos, o si es consecuencia de un golpe en la cabeza, hay que ir al médico.
El término científico para una hemorragia nasal es «epistaxis», que significa «goteo desde arriba» en griego. Las dos causas más frecuentes de hemorragias nasales son un puñetazo en la cara o meterse el dedo en la nariz. La red de vasos sanguíneos de la nariz también puede romperse debido a cambios bruscos de temperatura, consecuencia del frío o de la calefacción, o si uno se suena la nariz con demasiada fuerza.
Casi todas las hemorragias sanguíneas ocurren en la sección frontal de la nariz, bajo el hueso de la nariz, o septo. Se la conoce como «área de Kiesselbach» y es muy vulnerable, porque es donde se conectan las arterias faciales. Wilhelm Kiesselbach (1839-1902) fue un otorrinolaringólogo alemán que escribió el libro de texto definitivo sobre el tema, titulado Nosenbluten [Hemorragias nasales].
Los elevados niveles de estrógenos durante el período femenino pueden aumentar la presión arterial y hacer que los vasos sanguíneos nasales se hinchen y se rompan. No es una hemorragia nasal cualquiera. Se le ha dado el alarmante nombre de «menstruación vicaria».
STEPHEN: ¿Cuáles son las causas más frecuentes de las hemorragias nasales?
ALAN: Los castillos hinchables.
STEPHEN: Sí, es todo un clásico. Otra de las causas son los puñetazos en la cara.
¿Qué sucede si uno se traga la lengua?
Nada. Es físicamente imposible tragarse la lengua.
El músculo de la lengua puede bloquear temporalmente la vía respiratoria de una persona que ha quedado inconsciente, porque queda laxo y cae hacia la garganta. Sin embargo, vuelve a la posición normal en tan solo unos segundos. La lengua permanece en su sitio gracias a un pequeño trozo de tejido, el frenulum linguae (del latín frenulum, «frenillo», y lingua, «lengua»), que impide que nos la podamos tragar.
La idea de que hay riesgo de tragarnos la lengua data de los orígenes de los primeros auxilios, a finales del siglo XIX. Se enseñaba a los practicantes de primeros auxilios que si alguien se desmayaba o tenía un ataque, tenían que utilizar fórceps para tirarles de la lengua, o que, de no haber fórceps disponibles, debían hacerlo con los dedos y la ayuda de un pañuelo. Aún hay personas, tan bien intencionadas como equivocadas, que lo siguen haciendo y que insertan trozos de madera, o su propia cartera, en la boca de las personas que sufren un ataque. No es una buena idea, porque impide que el paciente pueda respirar.
Si alguien se desmaya, no le meta en la boca todo lo que lleve en el bolsillo; póngale en la posición de recuperación: sobre un costado y con la barbilla apuntando hacia arriba, para que pueda respirar cómodamente.
Tragamos unas dos mil veces al día. A excepción de cuando decidimos hacerlo conscientemente, es un proceso automático que requiere que doce músculos distintos entren en acción. Los enfermos de Alzheimer y algunas víctimas de ictus pierden, a veces, la capacidad de tragar. Pueden reaprender a hacerlo con la ayuda de logopedas, porque el habla utiliza exactamente la misma combinación de músculos que necesitamos para tragar.
Cuando alguien está a punto de morir, es habitual que falle el reflejo de deglución (tragar). Esto lleva a una acumulación de saliva y mucosidad en la parte posterior de la garganta, que es lo que provoca el llamado «ronquido de la muerte». De todos modos, antes de desahuciar al paciente, compruebe que no le hayan incrustado ninguna cartera en la garganta.
¿Qué parte de la lengua detecta el sabor amargo?
Toda.
El «mapa de la lengua», que se solía explicar en casi todas las escuelas, transmitía que cada área del órgano era la única responsable de uno de «los cuatro sabores básicos»: dulce, ácido, amargo y salado. Sin embargo, no es así en absoluto. Las papilas gustativas, repartidas por toda la lengua y el paladar, pueden detectar todos los sabores más o menos del mismo modo. Además, hay más de cuatro sabores básicos.
Según el mapa de la lengua, la punta detecta el sabor dulce, y la parte posterior, el amargo. Los laterales anteriores detectan la sal, y los laterales posteriores, el sabor ácido. El mapa se basaba en la investigación alemana publicada en 1901, pero un influyente psicólogo de Harvard, con el desafortunado nombre de Edwin Boring («aburrido» en inglés) (1886-1968) se equivocó al traducirlo. Lo que decía la investigación original era que la lengua humana tiene áreas de sensibilidad relativa ante los distintos sabores, pero la traducción de Boring afirmaba que cada sabor solo podía detectarse en una zona.
Lo realmente asombroso del mapa de la lengua es que fuera la verdad oficial durante tanto tiempo, a pesar de lo sencillo que es demostrar que es erróneo: basta con ponerse un poco de azúcar en la parte de la lengua que, según el mapa, solo detecta el sabor salado. Hubo que esperar hasta 1974 para que otra científica estadounidense, la doctora Virginia Collings, revisara la teoría original. Demostró que, aunque era cierto que la sensibilidad a los cuatro sabores variaba en función de la zona de la lengua, esa variación no era significativa. También demostró que las papilas gustativas detectan todos los sabores.
El otro mito perpetuado por el mapa de la lengua fue que solo había cuatro sabores. Hay, como mínimo, cinco. El sabor umami es el de las proteínas en la comida salada, como el beicon, el queso, las algas o la Marmite. Lo describió por primera vez Kikunae Ikeda, profesor de Química en la Universidad de Tokio, ya en 1908, pero no fue confirmado como el quinto sabor «oficial» hasta el año 2000, en que investigadores de la Universidad de Miami descubrieron receptores de proteínas en la lengua humana.
«Umami» procede de umai, que significa «sabroso» en japonés. El profesor Ikeda descubrió que su ingrediente clave es el glutamato monosódico, ahora conocido como GMS. Ikeda era muy astuto y vendió la receta del GMS a la Ajinomoto Company, que aún mantiene una tercera parte del mercado anual mundial de un millón y medio de toneladas de GMS sintético.
Dado lo importante que es la proteína en nuestra dieta, es lógico que el umami estimule el centro del placer en el cerebro. Por ejemplo, un vino tinto robusto tiene gusto de «umami». Por el contrario, el sabor amargo nos alerta de la posibilidad de peligro.
No debemos confundir «gusto» con «sabor», que es una experiencia mucho más amplia y que no solo implica el sentido del gusto, sino también el del olfato, la vista, el tacto e incluso el oído —se cree que el sonido de la comida crujiente contribuye a la experiencia del sabor.
La sinestesia léxico-gustativa es un trastorno muy raro, en el que el cerebro confunde el gusto y el olfato, así que cada palabra tiene un sabor específico. En un experimento, una mujer percibía sabor a atún cada vez que pensaba en la palabra «castañuelas».
¿Qué consecuencias tiene crujirse los nudillos?
No se preocupe. No provoca artritis. Como mucho, le dejará con un apretón de manos endeble.
Lo sabemos gracias a la dedicación altruista del doctor Donald L. Unger, un médico octogenario de California. De niño, su madre le avisó de que si no dejaba de crujirse los nudillos, acabaría con artritis en las manos, así que se embarcó en un experimento que consistió en crujirse los nudillos de la mano izquierda, pero no los de la derecha, a diario durante más de sesenta años. Al final, llegó a la conclusión de que crujirse los nudillos no tenía consecuencias graves. Afirma que, al final del experimento, «miré al cielo y dije: “Mamá, estabas equivocada, equivocada, equivocada”». Su esfuerzo le valió el premio IG Nobel de Medicina en 2009, una parodia de los premios Nobel que empezó a concederse en 1991, a los resultados de la investigación insólita que «primero nos hace reír y luego nos hace reflexionar».
Esto no significa que crujirse los nudillos sea totalmente inocuo: puede hacer que las articulaciones se hinchen y los ligamentos se inflamen y, con el tiempo, mermar la fuerza del apretón.
Las articulaciones de las manos, como la mayoría de las articulaciones móviles del cuerpo, se llaman «articulaciones sinoviales», porque contienen un peculiar líquido, llamado «líquido sinovial», que amortigua y lubrica la articulación. Sin embargo, no «fluye» como la mayoría de fluidos corporales: tiene una consistencia espesa, como si fuera un gel parecido a la clara de huevo (de ahí el nombre synovial, que procede del griego syn-, «con», y del latín ovum, «huevo»). Entre cada articulación hay una cápsula llena de fluido sinovial y sellada con una membrana. Cuando los huesos se separan, la membrana se estira. Esto reduce la presión en el interior de la cápsula, y cuando el fluido se desplaza para llenar el vacío se forman burbujas de dióxido de carbono. El chasquido que oímos son las burbujas que se forman, no explotan, dentro de la cápsula.
Si hiciéramos una radiografía de los nudillos justo después de crujirlos, observaríamos que las burbujas de dióxido de carbono son claramente visibles. No podemos volver a crujir la articulación hasta que se hayan disuelto en el fluido, lo que explica por qué no podemos crujir la misma articulación repetidamente.
El crujido de los nudillos, y de cualquier otra articulación, tiene un nombre científico: crepitus, del latín crepare, «chasquear».
La palabra «artritis» procede del griego arthron, «articulación», e -itis, un sufijo que significa «inflamación». Existe desde que los animales tienen esqueletos articulados —se han encontrado pruebas de que algunos dinosaurios sufrían artritis en las articulaciones del tobillo—. La primera prueba de artritis en humanos se ha encontrado en momias del antiguo Egipto que se remontan al año 4500 a. J.C.
La artritis puede aparecer en más de cien formas distintas y afecta a todas las edades y grupos étnicos. Después del estrés, es la primera responsable de los días de trabajo perdidos en Gran Bretaña, por delante de otras enfermedades, y su coste anual estimado es de unos cinco mil ochocientos millones de libras esterlinas. Una cuarta parte de los adultos británicos consulta cada año a su médico de familia sobre quejas relacionadas con la artritis.
Crujirse los nudillos no tiene nada que ver con ninguna de ellas.
¿Cuáles son los síntomas de la lepra?
En la imaginería popular, los leprosos están cubiertos de carne podrida y se les caen partes del cuerpo.
No es así. La lepra (o «enfermedad de Hansen», como se llama ahora), es una enfermedad infecciosa bacteriana que afecta a la piel y daña las terminaciones nerviosas. Esto significa que quienes la padecen no sienten dolor y, por lo tanto, se hacen muchas heridas en los dedos de las manos y los pies. Con el tiempo, las heridas se infectan y dejan cicatrices que desfiguran los miembros.
Son estas heridas, y no la enfermedad en sí misma, las que provocan las deformidades que han hecho famosa a la lepra. Los afectados pueden vivir hasta una edad avanzada, porque no afecta a los órganos vitales, pero si no se trata, puede provocar incapacidades graves e incluso ceguera.
La palabra «lepra» procede del griego lepros («escama»). Irónicamente, comparte la raíz con la palabra lepidoptera («alas con escamas»), el nombre científico de las mariposas. Durante muchos siglos, la palabra «lepra» se utilizó indiscriminadamente para abarcar toda una serie de enfermedades cutáneas que causaban desfiguración. Un «leproso» podía ser, fácilmente, alguien con un brote de psoriasis grave. No se pudo diagnosticar la enfermedad con precisión hasta que, en 1873, el médico noruego Gerhard Armauer Hansen (1841-1912) identificó el Mycobacterium leprae como la causa de la lepra. El descubrimiento de Hansen fue fundamental, porque fue la primera vez que pudo demostrarse que una bacteria podía provocar enfermedades a las personas.
Hasta ese momento, se había asumido que la lepra era hereditaria, porque, a pesar de su temible reputación, es bastante difícil contraerla. Sobre un 95 por ciento de la población es resistente a la bacteria por naturaleza, e incluso quienes no lo son tienen que estar en contacto estrecho y prolongado con la bacteria para infectarse. En 1984, el papa Juan Pablo II quiso dejarlo bien claro y besó a varios leprosos de una leprosería de Corea del Sur.
La buena noticia es que la enfermedad de Hansen puede tratarse con antibióticos desde 1941. Durante los últimos veinte años se han curado unos quince millones de pacientes, pero aún se dan doscientos cincuenta mil casos nuevos cada año, y un millón de personas en todo el mundo reciben, o necesitan recibir, tratamiento. En el año 2009, ciento veintiún países registraron nuevos casos de lepra. Incluso Estados Unidos registró ciento cincuenta y Gran Bretaña, doce. Más de la mitad de los casos nuevos se registran en la India. Aunque ciento cincuenta mil casos anuales puede parecer una cifra muy elevada, supone una tasa de infección inferior a uno de cada diez mil. Según los criterios de la Organización Mundial de la Salud, esto permite que podamos decir oficialmente que la lepra está «eliminada».
La única leprosería que queda en Europa está en Tichilesti (Rumanía). En 1991, se abrió la colonia y los residentes tuvieron la posibilidad de marcharse. Sin embargo, muchos de ellos no habían conocido otra cosa desde la infancia, por lo que decidieron quedarse: ahora, la colonia es más un pueblo que un hospital, con su propia granja, dos iglesias e incluso una viña.
La lepra es un ejemplo raro de enfermedad bacteriana que afecta casi exclusivamente al ser humano: los únicos animales que también pueden contraerla son los chimpancés, los monos mangabei y los armadillos de nueve bandas.
¿Por qué llevaban campanas los leprosos?
Las campanas de los leprosos estaban diseñadas para atraer a la gente, no para alejarla.
Desde el principio, los leprosos se vieron obligados a vivir aislados. En Europa, la ley les prohibía casarse, hacer testamento o testificar en los tribunales; y solo podían hablar con un no leproso si se colocaban en contra del viento. En el Antiguo Testamento, el mismo Dios instruye a Moisés para que saque «del campamento a todos los leprosos».
Se hacía así, porque se entendía la lepra como un castigo, no como una enfermedad infecciosa: era una «suciedad» externa provocada por un pecado interno, algo que Dios infligía a quienes albergaban pensamientos lujuriosos o heréticos. Era el cura, y no el médico, quien «diagnosticaba» la lepra.
A principios del siglo XII sucedieron dos cosas que contribuyeron a que esta actitud empezara a cambiar. La primera es que varios de los soldados cristianos que volvieron a Europa después de luchar en la Primera Cruzada en 1099 habían contraído la enfermedad. La segunda fue un cambio en la interpretación teológica de un pasaje clave de la Biblia. El profeta Isaías escribió refiriéndose al Mesías: «Y sin embargo, nosotros le estimamos como leproso, como herido por Dios y afligido». La palabra hebrea para «afligido» es nagua. Un anónimo estudioso de la Biblia se dio cuenta de que en todas las ocasiones en que esta palabra aparece en el Antiguo Testamento, significa específicamente «afligido de lepra», por lo que la conclusión inevitable es que Isaías había predicho que Jesús sufriría por nosotros y sería tratado como un leproso.
Por lo tanto, la lepra pasó a considerarse una «enfermedad sagrada». Los cruzados afligidos por la enfermedad, lejos de haber sido castigados, habían sido señalados por Dios como una recompensa especial. San Francisco de Asís (1182-1226) superó su rechazo a abrazar a los leprosos y convirtió la atención a estos enfermos en una parte fundamental de la orden monástica que fundó. La hija de Enrique I, Matilde (1102-1167), fundó un hospital para leprosos en Holborn (Londres) y les lavaba y besaba públicamente los pies. Por toda Europa, monarcas y aristócratas competían entre ellos para fundar leproserías.
Los leprosos obtuvieron privilegios especiales. El más importante fue el derecho de mendigar. En algunos lugares, tenían derecho a recibir una parte proporcional de todo lo que se vendiera el día de mercado. Durante doscientos años, y a pesar de que vivían aislados, participaban libremente en los servicios religiosos y en las peregrinaciones. Fue entonces cuando empezó la práctica de que los leprosos llevaran campanas y sonajeros. Se utilizaban no para alejar a la gente, sino para atraer donaciones: ayudar a un leproso era un acto sagrado.
La actitud hacia ellos volvió a endurecerse tras la Peste Negra (1348-1350) (a veces llamada «una lepra»), pero hacia mediados del siglo XV apenas importaba ya, porque los leprosos casi habían desaparecido de Gran Bretaña.
Eran especialmente vulnerables a la peste bubónica y la tuberculosis —la bacteria de la tuberculosis es la más cercana a la de la lepra—. Los debilitados sistemas inmunitarios de los leprosos fueron los primeros en sucumbir a las oleadas de enfermedades infecciosas que barrieron Europa durante los siglos XIV y XV. Fueron disminuyendo en número hasta que pronto ya no quedaron suficientes para transmitir la enfermedad, por lo que sus campanas quedaron en silencio para siempre.
STEPHEN: ¿Por qué llevaban campanas los leprosos?
ALAN: Era una actuación. Ya sabes, una de esas actuaciones con campanas, para «Leproso, tú sí que vales».
¿Quiénes llevaban cascos con cuernos?
No eran los guerreros vikingos, sino los sacerdotes celtas.
Ninguno de los cascos con cuernos que los arqueólogos han descubierto en Europa ha podido datarse como pertenecientes a la era de los vikingos (700-1100). La mayoría son celtas y se hicieron durante la Edad de Hierro (800 a. J.C.100 d. J.C.), como el famoso casco que se encontró en el Támesis en la década de 1860 y que ahora se exhibe en el Museo Británico. La ligereza del metal y su fina ornamentación sugiere con claridad que el casco del Támesis se utilizaba en ocasiones ceremoniales, y no durante la batalla. Para un observador moderno, los «cuernos» se parecen más a los conos del famoso corsé picudo de Madonna.
En cuanto a cuestiones técnicas, el único casco vikingo auténtico que se ha encontrado data del siglo X d. J.C., aunque es del mismo estilo que los cascos previkingos del período de Vendel. Está hecho con placas de hierro, se encontró en el túmulo funerario de un jefe vikingo y tiene el aspecto de una gorra cónica con protectores oculares incorporados que parecen gafas metálicas. Sin embargo, no hay el menor atisbo de cuernos. Es probable que solo los vikingos con altos cargos llevasen casco, si es que lo llevaban. Las ilustraciones que nos han llegado de ese período muestran a la mayoría de guerreros luchando con la cabeza descubierta o con sencillas gorras de piel.
La asociación entre los cascos con cuernos y los vikingos es muy reciente, del siglo XIX, una época en que muchas naciones imperiales europeas reinventaron su herencia mítica. En Gran Bretaña, los druidas y las leyendas artúricas despertaban pasiones; los alemanes producían una obra tras otra sobre reyes teutones medievales, y, para no quedarse atrás, los escandinavos desempolvaron todas las antiguas sagas nórdicas. Un ilustrador sueco, Gustav Malmström, añadió unos pequeños cuernos y alas de dragón al casco del héroe en una de ellas, una reedición de Frithiof ’s Saga [La saga de Frithiof].
Frithiof’s saga (1825) se convirtió en un éxito internacional. Hasta entonces, el término «vikingo» era prácticamente desconocido en inglés (los habituales eran «danés» o «nórdico»), por lo que la saga bautizó, casi literalmente, a los vikingos. Los cuernos que supuestamente adornaban los cascos crearon una imagen visual tan potente que ha perdurado hasta nuestros días.
Por otro lado, la tradición de adornar la cabeza con cuernos por motivos religiosos parece haber estado muy extendida en el mundo celta. Hay varias representaciones del dios Cernunnos engalanado con enormes astas de ciervo, y, en el siglo I a. J.C., el historiador griego Diodoro Sículo escribió que los galos llevaban cuernos, astas de ciervo, o incluso animales enteros sobre la cabeza. Nadie sabe con exactitud en qué consistían los rituales religiosos celtas, pero es probable que las astas fueran un símbolo de fertilidad y de renacimiento, porque se caen y vuelven a crecer cada año.
¿Podría nombrar un animal con cuernos?
Estrictamente hablando, no todas las proyecciones puntiagudas en la cabeza de los animales son cuernos.
Los cuernos de verdad tienen un núcleo óseo permanente rodeado de finas tiras de queratina, una proteína que también está en el pelo y las uñas del ser humano. Algunos de los animales que tienen cuernos son las vacas, los búfalos, las ovejas, los antílopes y los lagartos cornudos.
Algunos de los animales que tienen proyecciones puntiagudas pero que no son cuernos son los rinocerontes, sus «cuernos» son de queratina, pero carecen de núcleo óseo; los ciervos que tienen astas de hueso, pero están cubiertas de una piel aterciopelada que mudan cada año; las jirafas, que tienen osiconos, que literalmente significa «huesos grandes», cubiertos de piel y pelo, pero no de queratina; y los elefantes, jabalíes, morsas, y narvales, que tienen colmillos gigantes de marfil.
La queratina es una substancia extraordinaria. En su forma alfa más blanda, garantiza la flexibilidad e impermeabilidad de la piel y, además de formar cuernos, también construye el cabello, el pelo, las zarpas, las pezuñas y las uñas de los mamíferos. En su forma beta más dura, conforma las conchas y las escamas de los reptiles, y las plumas y los picos de las aves.
Los cuernos, las astas y los colmillos cumplen varias funciones —pueden ser herramientas, armas o medios de seducción—, pero solo los cuernos de verdad sirven como elemento de refrigeración. Los vasos sanguíneos que rodean el núcleo del cuerno lo convierten en una especie de radiador de automóvil, que enfría el líquido aumentando su exposición al aire, de un modo muy parecido a cómo utilizan las orejas los elefantes. Esto explica los enormes cuernos del ganado watusi, una variedad de cuernos largos oriunda de África central. Los cuernos más grandes que jamás se hayan encontrado pertenecían a un buey watusi llamado Lurch: medían 92,5 centímetros de largo y pesaban cuarenta y cinco kilogramos cada uno.
Cuando la parte queratinosa de un cuerno de verdad se separa del núcleo óseo se convierte en un objeto hueco de gran utilidad. Desde la prehistoria, el ser humano los ha empleado como copas para beber e instrumentos musicales; posteriormente, se utilizaron para transportar pólvora. El material al que llamamos «cuerno» también se tallaba para hacer botones, mangos y peines, se utilizaba para ligar libros o cubrir ventanas —en láminas finas es translúcido— y se hervía para hacer cola.
Hay varias historias sobre personas a las que les crecieron «cuernos» sin el núcleo óseo. Una de las más extrañas es la de Anna Schimper, «la monja cornuda de Filzen». En 1795, su convento en Renania fue ocupado por tropas francesas, que expulsaron a las monjas. El disgusto enloqueció a Anna, que fue internada en un asilo. Tras años de golpearse la cabeza contra una mesa, empezó a crecerle un cuerno en el chichón. Cuanto más le crecía, más se tranquilizaba, hasta que pronto estuvo lo bastante cuerda como para regresar al convento, donde acabó siendo la abadesa.
En 1834, el cuerno había alcanzado tal tamaño que esconderlo con la toca era muy complicado, por lo que decidió quitárselo. Aunque ya tenía ochenta y siete años de edad, y la operación fue muy dolorosa y perdió mucha sangre, sobrevivió dos años más. Cuando murió, el misterioso cuerno terapéutico había empezado a crecer de nuevo.
¿Cómo se ordeña un yak?
No se ordeña un yak, del mismo modo que no ordeñaríamos un buey.
El yak es el macho de la especie Bos grunniens («buey que gruñe» en latín), que vive en el Tíbet y en Nepal. Hay infinitos chistes tibetanos sobre occidentales que quieren ordeñar un yak.
La hembra de la especie se llama «dri» o «nak». Su leche contiene el doble de grasa que la de las vacas de las tierras bajas. Y al contrario de lo que afirman algunas páginas web, no es rosa; en las raras ocasiones en que se bebe, se le añade un poco de sangre para darle sabor. Es de color dorado y se utiliza, fundamentalmente, en la elaboración de yogur, queso y mantequilla. Los tibetanos añaden mantequilla al té, la utilizan como crema facial y como combustible en las lámparas, y la esculpen en figuras rituales.
En Lhasa, se vende carne fresca de yak, envuelta en paños y tendida sobre ramas de árboles o apilada en barriles, procedentes directamente del matadero. El de carnicero es un oficio hereditario, y todos los carniceros son musulmanes. La mantequilla rancia se apila directamente en el pavimento de las calles. Todo el Tíbet huele a mantequilla de dri.
Los yaks salvajes pueden medir 1,95 metros hasta el hombro; los domésticos se quedan solo en la mitad. Para funcionar bien en altitudes de cinco mil quinientos metros, donde el oxígeno escasea y la temperatura es de –40 °C (o –40 °F, a esos valores son iguales), el yak tiene el triple de glóbulos rojos que el ganado normal y de un tamaño de aproximadamente la mitad.
Los huesos de yak se utilizan para elaborar joyas y sujeciones de tiendas de campaña. Los cuernos se tallan para hacer mangos de cuchillo e instrumentos musicales. Las colas se exportan a la India, donde se utilizan como espantamoscas. Y el estiércol se recoge y se quema como combustible.
Los yaks son los animales con el pelo más largo. Puede crecer hasta los sesenta centímetros de longitud en el tórax y se utiliza para hacer cuerdas, ropa, bolsas, sacos, zapatos, tiendas de campaña y coracles. En los siglos XVII y XVIII era el material más buscado, después del cabello humano, para elaborar pelucas de caballero.
La moda de llevar peluca empezó con Luis XIII (1601-1643), que se quedó calvo prematuramente en 1624 y terminó con la Revolución francesa. La peluca podía llegar a ser tan cara como el resto de la indumentaria de hombre junta. En la actualidad, la BBC cuenta con pelucas de yak entre los diez mil artículos de pelo falso de su atrezzo, y las tiendas de disfraces venden barbas de Papá Noel cien por cien de pelo de yak.
Los dob-dobs eran monjes del monasterio Se-ra, en el Tíbet, y estaban especializados en la recogida de estiércol de yak. A finales del siglo XIX se habían convertido en una combinación de fuerza policial monástica y mafia depredadora homosexual. De vez en cuando, se aventuraban y bajaban a la cercana Lhasa, donde iniciaban peleas y raptaban a niños. Se los reconocía con facilidad, porque llevaban la falda del hábito recogida más arriba que los monjes budistas convencionales. Eso les exageraba la zona de las caderas, que enfatizaban aún más contoneándolas al caminar.
¿Qué se le dice a un husky para que se mueva?
Casi cualquier cosa, excepto «¡Mush!». Podemos gritar «¡Vamos!», «¡Tira!», «¡Ya!», «¡Listos!» o, sencillamente, «¡Ok!», pero los conductores de trineo solo gritan «¡Mush!» cuando no quieren desilusionar a los turistas.
«Mush» no es en absoluto una palabra inuit auténtica, sino una mala interpretación hollywoodiense de la orden en francés que daban los conductores de trineo canadienses: Marche! Es muy poco probable que ningún conductor de trineo empleara alguna vez la orden «¡Mush!», pero lo cierto es que ahora no se utiliza. Es un sonido demasiado suave para que los perros puedan oírlo bien.
De todos modos, el problema es parar a los perros, no ponerlos en marcha. Están hechos para correr. Si se les deja sueltos, corren hacia el horizonte y siguen corriendo hasta quedar agotados, por lo que uno no vuelve a verlos nunca más. Sin embargo, si llevan arnés, gritar «¡Uou!» y presionar el freno del trineo debería ser suficiente para detenerlos. Para hacerlos girar hacia la derecha use «¡Gee!», y grite «¡Haw!» si quiere girar a la izquierda —no, tampoco son palabras inuit—. Solo necesita que le entienda el perro que va a la cabeza, el resto se limita a seguir al líder.
El pueblo chukchi de Siberia fue el primero en criar huskies, la raza más conocida de las muchas que se utilizan para tirar de trineos, para que realizaran los transportes en invierno. En verano, los perros quedaban libres y cuidaban de sí mismos. Esta combinación de docilidad e independencia los convertía en el perro de trabajo perfecto.
Son sorprendentemente pequeños, pesan entre quince y veinticinco kilogramos, pero quienes hacen carreras con huskies prefieren ejemplares con un gran apetito. Después de correr un maratón y cubrir hasta ciento sesenta kilómetros, necesitan comer y beber con entusiasmo para reponer las calorías perdidas y prevenir la deshidratación.
Si está pensando en adquirir un husky, quizá le convenga leer lo que el Club de Huskies Siberianos de Gran Bretaña tiene que decir sobre sus «defectos». Los huskies siberianos no tienen instinto de guardián y saludarán a los intrusos con el mismo lametón con el que saludan a sus dueños. Aúllan como lobos cuando están contentos. Es habitual que maten a otras mascotas o ganado, por lo que si se los saca a pasear deben ir con correa. Necesitan compañía: si se los deja solos en casa, pueden destrozarla. Lo que es seguro es que le destrozarán el jardín, y piense que necesitará una valla de al menos 1,8 metros de altura para mantenerlos ahí. Además, pierden una gran cantidad de pelo dos veces al año. En conclusión, el club no aconseja el husky siberiano a nadie que quiera un perro «civilizado».
El explorador polar suizo Xavier Mertz (1883-1913) fue la primera persona que murió por intoxicación de vitamina A. Participaba en una misión junto a otros dos exploradores con el objetivo de dibujar el mapa del interior de la Antártida; uno de los miembros del equipo, junto a la mayoría de los trineos y la mitad de los perros, cayó por una grieta en el hielo. Durante los cuatrocientos ochenta kilómetros que tuvieron que recorrer para volver a la base, los dos supervivientes se vieron obligados a comerse los perros que quedaban, una necesidad que angustió enormemente a Mertz, pues era vegetariano. Ambos hombres enfermaron, pero Mertz murió.
La cadena alimentaria polar se basa en algas marinas muy ricas en vitamina A. Cuanto más se asciende en la cadena, más concentrada está. Los huskies, como las focas y los osos polares, han evolucionado para poder asimilarla. Pero los seres humanos no. En cien gramos de hígado de husky hay vitamina A suficiente para matar a un hombre adulto.
¿Cuándo deberíamos abrir la primera puerta de un calendario de Adviento?
Normalmente, el Adviento empieza en noviembre, no el 1 de diciembre.
En la tradición cristiana occidental, el Adviento empieza el Domingo de Adviento, que es el cuarto domingo antes de Navidad y que también supone el inicio del año eclesiástico. Puede ser cualquier día entre el 27 de noviembre y el 3 de diciembre, por lo que solo hay una posibilidad entre siete de que caiga en 1 de diciembre. Por lo tanto, la duración del Adviento varía entre los veintidós y los veintiocho días. El próximo 1 de diciembre que también será Domingo de Adviento caerá en 2013. Durante cinco de los siete años siguientes, el Adviento empezará en noviembre.
De todos modos, no parece que a nadie le importe mucho. A pesar de su nombre, los calendarios de Adviento se han establecido sólidamente como tradición secular y la primera puerta se abre, y el primer trozo de chocolate se come, el día 1 de diciembre, una fecha cuya función principal consiste en recordarnos que quedan veinticuatro días para comprar los regalos de Navidad. En Gran Bretaña y en Estados Unidos, una cuarta parte de todo el gasto personal anual se hace en diciembre.
Los primeros que empezaron a contar los días que quedaban hasta Navidad fueron los luteranos alemanes de principios del siglo XIX. Al principio, o bien encendían una vela cada día o bien tachaban el día en una pizarra. Entonces, en la década de 1850, los niños alemanes empezaron a dibujar sus propios calendarios de Adviento. Hasta 1908, Gerhard Lang (1881-1974), de los editores bávaros Reichhold & Lang, no se diseñó la primera versión comercial. Consistía en una cartulina acompañada de veinticuatro mini ilustraciones que podían pegarse en cada uno de los días.
Como no resultaba muy práctico imprimir una cantidad distinta de pegatinas cada año, fue en ese momento cuando el calendario de Adviento pasó a tener una duración estándar de veinticuatro días, lo que dio inicio a la tradición de abrirlo el día 1 de diciembre. En 1920, Lang ya había introducido las puertas que se abrían y su invento se extendía por toda Europa. Se conocía como «el calendario de Navidad de Múnich».
La empresa de Lang quebró durante la década de 1930 —la intensa asociación de Hitler con Múnich no pudo ayudarlo mucho—, pero después de la guerra, en 1946, otro editor alemán, Richard Sellmer de Stuttgart, recuperó la idea. Centró sus esfuerzos en el mercado estadounidense y fundó una organización de caridad con el apoyo del presidente Eisenhower y su familia. En 1953, adquirió la patente estadounidense, y el calendario se convirtió en un éxito inmediato; Sellmer se ganó el título de «secretario general de Papá Noel». Su empresa sigue produciendo más de un millón de calendarios anuales en veinticinco países. En 1958, Cadbury fabricó los primeros calendarios de Adviento con chocolate tras las puertas.
Adviento procede del latín adventus, que significa «llegada», y debía ser una época para el ayuno y la contemplación, que preparaba la fiesta de la Navidad.
A pesar de ello, en Gran Bretaña suele empezarse con la escandalosa fiesta del día de San Andrés, el 30 de noviembre. La tradición de ese día consistía en que los niños encerrasen a los profesores fuera de las aulas, en organizar cacerías de ardillas y en que los niños se disfrazaran de niña y viceversa. Una descripción de 1851 explica que «las mujeres se visten de hombre, y los hombres y los niños se visten de mujer, para visitarse y beber vino especiado caliente, una bebida típica de la celebración».
¿Cuántos días dura la Cuaresma?
Cuarenta y seis. O cuarenta y cuatro, si es católico.
La Cuaresma dura desde el medio día del Miércoles de Ceniza hasta la media noche del Sábado Santo, el día antes del Domingo de Pascua. Para los católicos, termina dos días antes, la media noche del Jueves Santo. Los «cuarenta días» de la Cuaresma conmemoran los cuarenta días durante los que Jesús, y Moisés antes que él, ayunó y oró en el desierto, pero los domingos no cuentan, porque en domingo no se ayuna.
El término técnico para ese período es quadragesima, «cuadragésimo» en latín. A finales de la Edad Media, cuando los sacerdotes ingleses empezaron a utilizar el inglés en lugar del latín, buscaron una palabra adecuada para substituirla y escogieron Lent, que en aquellos momentos tan solo significaba «primavera» y se asociaba al alargamiento (lengthening) del día.
El motivo por el que se suspenden la penitencia y el ayuno durante los seis domingos de la Cuaresma es que se consideran celebraciones previas del Día de Pascua, la fiesta más importante del año cristiano.
Es posible que haya quien lo entienda como una debilidad o como una contradicción con el espíritu de la Cuaresma, pero los términos del ayuno durante este período siempre han sido negociables. Incluso en el siglo VI, cuando el papa Gregorio Magno fue el primero en renunciar a la carne, la leche, el queso, la mantequilla y los huevos durante cuarenta días, el ayuno se interpretaba con laxitud. La iglesia celta aconsejaba ayunar durante el día pero cenar copiosamente a base de pan, huevos y leche. En la Inglaterra del siglo X, el arzobispo Aelfrico se pasó al otro extremo y adoptó una línea dura que prohibía las relaciones sexuales, las peleas y el pescado.
De todos modos, en general, el pescado siempre ha sido la salvación de la Cuaresma. Enrique VIII fomentaba la Cuaresma para ayudar a la industria pesquera del país. Cuando los hambrientos cristianos llevaron la Buena Nueva a lugares remotos, la definición de «pescado» se hizo muy flexible.
En varias ocasiones, la rata almizclera, el castor y la barnacla cariblanca se han clasificado oficialmente como pescados, al igual que el capibara, un tipo de cobaya gigante sudamericana que puede permanecer sumergida durante cinco minutos. En la actualidad, en Venezuela, es uno de los principales manjares durante la Cuaresma, además del roedor más grande del mundo. Es posible que, debido a toda esta confusión, o quizá porque el ayuno implica el valor de su contrario —la gula—, los puritanos abolieron la Cuaresma por completo en 1645.
La Semana Santa es una «fiesta móvil», que se calcula mediante una compleja fórmula que la Iglesia tardó varios años en determinar. Se mueve, porque tiene que caer en un domingo, pero no puede coincidir nunca con la Pascua judía, deshonrada porque fue el día de la crucifixión de Jesús. Hay treinta y cinco fechas posibles para la Semana Santa. La primera del año, el 22 de marzo, sucedió por última vez en 1818 y no volverá a darse hasta 2285. La última es el 25 de abril, que sucedió por última vez en 1943 y volverá a darse en 2038. La secuencia completa se repite una vez cada 5,7 millones de años.
Quizá crea que sería mucho más sencillo fijar una fecha. La industria de los dulces también lo cree: un 10 por ciento de las ventas anuales de chocolate en Gran Bretaña se dan en los días que preceden a la Semana Santa. Ya en la década de 1920, consiguieron presionar al Parlamento para que la fijaran en el primer domingo después del segundo sábado de abril. La ley de Semana Santa (1928) llegó a aprobarse, pero, a pesar de contar con el apoyo de las dos iglesias principales, no se aplicó nunca. Nadie sabe por qué.