Recuerdos de la ciudad del dolor

La Biblioteca Virtual Miguel de Cervantes abre un portal dedicado al Sanatorio de Fontilles para preservar la memoria de la lepra en España


La Colonia-Sanatorio de Fontilles (Vall de Laguar, Alicante) abrió sus puertas en 1909 a un grupo de ocho afectados de lepra para su cuidado. Hoy, 110 años después, abre sus puertas al mundo digital a través de una plataforma desde la que aproximarse a su historia por medio de imágenes, fotografías, publicaciones e historias de vida de quienes padecieron esta enfermedad. El proyecto, dirigido por el profesor de la Universidad de Alicante, Antonio García Belmar y coordinado por Eduardo de Miguel, de la Fundación Fontilles; pretende preservar la memoria de una experiencia colectiva con el objetivo de dignificar la enfermedad y a quienes la sufrieron.

Vista del sanatorio en la década de 1910 / Biblioteca Virtual Miguel de Cervantes

La lepra es una enfermedad causada por un bacilo, Mycobacterium leprae, que se multiplica muy despacio, ralentizando la aparición de los síntomas, en ocasiones, hasta veinte años después. La enfermedad afecta principalmente a la piel, los nervios periféricos, la mucosa de las vías respiratorias superiores y los ojos. Es una enfermedad que puede curarse con un tratamiento multimedicamentoso pero si no se trata puede causar lesiones permanentes graves.

Actualmente su incidencia en España es bastante baja, en comparación con la situación que se vive en otros países como Etiopía, Brasil o India. Apenas once casos se registraron en nuestro país el pasado año 2018. De estos casos, tres afectados eran de nacionalidad española y el resto, de nacionalidad extranjera, ya infectados, que viajaron a España donde fueron diagnosticados y tratados, según explica Eduardo de Miguel, coordinador de proyectos internacionales de Fontilles.

Casi todo en la lepra son datos, mediciones, índices y cuantía de afectados. Sin identidades, sin nombres propios. Enfermos que siempre se sintieron aislados por una sociedad que temía, y aún sigue temiendo, lo desconocido. A los pocos años de la apertura de Fontilles, un muro de más de tres kilómetros de largo se encargó de delimitar claramente la colonia-sanatorio del resto del pueblo. La reclusión y la segregación han estado siempre presentes en la historia de este lugar que se convirtió en un pueblo para aquellos que no tuvieron más remedio que recluirse allí esperando poder ser curados.

Más de tres mil almas han pasado parte de su vida entre las paredes de aquel complejo sanitario. Un lugar que, durante los años ochenta, apostó por la rehabilitación integral de las personas enfermas, tanto a nivel físico, como psicológico, social y laboral. De muy pocos de ellos se conocen sus historias, sus narraciones sobre toda una vida marcada por esta enfermedad y ese ha sido, en parte, uno de los objetivos de trabajo: la recuperación de las historias de vida de algunos afectados.


La lepra y sus metáforas
Marginación, miedo, mito y estigma son palabras que van unidas al nombre de una enfermedad: lepra. Una afección siempre rodeada por un halo de desconocimiento y metáforas de la enfermedad, que ejercieron una función social de control y que solían acentuar los aspectos más repelentes de la misma. Se creó una imagen social de la lepra que posaba el acento en el aislamiento y la estigmatización que vivieron los enfermos que se recogían en sanatorios para su tratamiento médico, como fue el caso de la colonia de Fontilles. Todos ellos son conceptos que han de ponerse en evidencia, criticarse y desgastar, para que dejen de asociarse a la lepra. Y en esa labor de desgaste es, en parte, uno de los objetivos del proyecto Fontilles que se aloja en la Biblioteca Virtual Miguel de Cervantes desde hace solo unas semanas.


Historia de un proyecto

García Belmar comenta que la colaboración entre la Universidad de Alicante y la Fundación Fontilles viene de años atrás. Los primeros trabajos que hay, abordados desde la historia de la ciencia, relacionados con Fontilles, son los de Josep Bernabéu, de la Universidad de Alicante, sobre el conjunto, la revista, el surgimiento del sanatorio y su contexto en la España de principios del siglo XX, así como sobre las metáforas de la enfermedad.

Tal y como describe García Belmar, la Fundación Fontilles entró en contacto con la universidad hace unos seis años, para plantear la posibilidad de crear un proyecto museográfico con los fondos históricos del sanatorio para la difusión y preservación de los documentos: “Aquel proyecto quedó en un segundo plano y más adelante volvimos a entrar en contacto con Eduardo de Miguel para elaborar otro para la petición de una subvención a la Sasakawa Memorial Health Foundation”. Ese proyecto era de recuperación y preservación de patrimonio histórico al que se añadía algo que, hasta ahora, no se había tenido en cuenta de manera sistemática, que eran las fuentes orales: testimonios y experiencias de vida de personas que habían padecido la enfermedad. La incorporación de todas estas propuestas hizo que la fundación japonesa se interesara por él y lo financiara. Su papel ha sido fundamental al poner los fondos, pero también ha orientado y dado fuerza a este proyecto, según cuenta Antonio García Belmar.

El proyecto siempre se ha considerado importante, pero había quedado en un segundo plano en otras ocasiones por problemas de financiación. Existen algunos aspectos urgentes como son la conservación del material, que corre el riesgo del deterioro, y también la parte de los testimonios orales. Contra todo ello el tiempo es el elemento apremiante. Como explica Eduardo de Miguel: “Nuestros residentes en Fontilles son personas de avanzada edad y por lógica de la vida existía una cierta urgencia en poder recoger esos testimonios para la posteridad”.

Cuando se presentó la propuesta a la Biblioteca Virtual Miguel de Cervantes, la respuesta y la acogida fueron muy positivas y generosas y así se ha convertido en un espacio donde alojar todos esos materiales digitalizados con una visibilidad y una difusión que por otros medios no hubiera sido posible conseguir- comenta Antonio García Belmar.

Bajo el título Fontilles y la lepra en España, se encuentra una amplia muestra de revistas, obras, imágenes, testimonios, documentos y objetos del patrimonio histórico del sanatorio, además de un catálogo bibliográfico con las obras conservadas en la Biblioteca Médica de Fontilles; así como las dos revistas publicadas por el sanatorio que fueron, y son, un importante canal de difusión de las investigaciones sobre la lepra.
A todo ello hay que sumarle un banco de unas quinientas imágenes,  seleccionadas del Archivo Fotográfico, elegidas por su calidad técnica y artística. Por último, mapas y gráficos, planos y proyectos arquitectónicos de los edificios del centro.

Recuperar la memoria de los afectados

Pero este proyecto va mucho más allá de la simple conservación y exhibición de años de historia a través de lo material. Este proyecto destaca la importancia y el valor de la preservación de la memoria de las enfermedades y de quienes la padecieron. Y es que, todos los especialistas coinciden, tan importante y necesaria es la educación sanitaria como la educación social, para lograr eliminar el estigma que siempre ha acompañado a la lepra.

“Es la gran batalla”, dice apesarado Antonio García. A juicio del director, la batalla médica, gracias a que existe un tratamiento efectivo y estandarizado, está ganada. Aunque el tratamiento no sea igualitario en países como Brasil o India donde es una enfermedad todavía muy complicada. A pesar de todo, un elemento fundamental que sigue provocando daños, es el estigma. Este hace que la enfermedad se oculte, tanto por parte de quienes la padecen, como por parte de los gobiernos y así lo único que se consigue es alimentarla cada vez más, que avance, progrese y siga haciendo daño. “La lucha contra el estigma es un objetivo de este proyecto”, aclara García Belmar.

Eduardo de Miguel, conocedor de la situación de la enfermedad en otros países, comenta que las actividades de sensibilización que se realizan en Fontilles están vinculadas, principalmente, a dos aspectos: lepra y pobreza y lepra y mujeres. Se hace hincapié en las causas del padecimiento de la enfermedad y su relación con la población más pobre. Se trata de campañas que explican cómo la enfermedad afecta, especialmente, al colectivo de las mujeres en países donde tienen mayores dificultades para acceder a los recursos sanitarios y la lepra les afecta en mayor medida.

III Curso Internacional de Leprólogos (1950) / Biblioteca Virtual Miguel de Cervantes

Todavía viven algunos afectados en Fontilles, en concreto veintidós, mejor dicho, ex afectados, como puntualiza Eduardo de Miguel: “Los que aquí viven algún día padecieron la enfermedad, aunque ahora ya no y lo que queda de ella son solo las secuelas. Son personas de avanzada edad que están aquí, no porque estén recibiendo ningún tratamiento, ni estén ingresados, sino que para ellos Fontilles es su casa y han decidido vivir aquí el resto de los días que le quedan.”

Desde el mes de junio de 2016, se han realizado entrevistas a las personas que todavía residen en el Sanatorio de Fontilles y que aceptaron compartir el testimonio de sus vidas. Las dieciocho historias de vida registradas en casi sesenta horas de grabación y transcritas en un documento de varios cientos de páginas han sido analizadas, organizadas temáticamente y preparadas para su publicación en forma de libro. Es muy poco lo que se sabe de las personas que padecieron esta enfermedad que les marcó para siempre tanto física como emocionalmente. El principio parecía sencillo, dice García Belmar, bastaba con preguntar, sí, pero también había que estar dispuestos a aceptar las respuestas de unas historias de vida que están desapareciendo y para las cuales el tiempo juega en su contra.

Resulta esencial prestar atención a estos testimonios, a los sentimientos que de ellos se desprenden. El sonido de estas palabras, su entonación, sus silencios y pausas, absolutamente todo contribuye a comprender qué significó ser un enfermo de lepra entre las paredes de este antiguo sanatorio. Con este proyecto se recupera la oportunidad de recoger y conservar esta parte esencial del patrimonio histórico de Fontilles y de la historia de la lepra en España: el testimonio de quienes se enfrentaron a ella.

Cuando ya has escuchado los testimonios, no solo estos de Fontilles, de personas afectadas por la lepra, en momentos de la historia diferentes o en contexto sociales, económicos y sociales diferentes, al final todos repiten un mismo patrón. Un patrón que está relacionado con su exclusión y con el estigma y se repite en diferentes puntos de planeta. Un aspecto curioso desde el punto de vista de lo particular que es esta enfermedad. – E.M.

Una práctica de los años ochenta

Los primeros estudios realizados con fuentes orales, en España, en el siglo XX, fueron desarrollados a partir de testimonios obtenidos de supervivientes de la guerra civil. Pero el primer archivo de Historia Oral surgió en 1983, el Arxiu Històric de la Ciutat de Barcelona, con el objetivo de diseñar y elaborar proyectos interdisciplinarios de investigación; captar y conservar documentación y testimonios personales; proceder al tratamiento archivístico de las fuentes para facilitar su consulta y publicar el material documental relacionado con la información obtenida. Otras iniciativas han trabajado en la recuperación de la memoria colectiva de la Segunda República, la Guerra Civil, el Franquismo y la Transición. Desde el punto de vista internacional, el establecimiento como asociación en 1996 de la International Oral History Association (IOHA), ha significado la posibilidad de crear una red de colaboración y de transmisión de conocimientos trascendental para el desarrollo de la Historia Oral. En la actualidad, y gracias a la definición de herencia cultural intangible, realizada por la UNESCO, la tendencia es constituir centros globales que no solo realicen la labor de recuperación y conservación de los testimonios orales, sino que posibiliten la utilización y exhibición de estos.

La historia oral es un elemento esencial para comprender la historia de esta enfermedad. Es una deuda con esas personas que se han mantenido en silencio durante mucho tiempo. Antes de empezar las entrevistas siempre hay una explicación previa a aquellos que quieren participar y ellos finalmente deciden si quieren hacerlo y por qué. En la mayoría de los casos lo que pretenden en dar a conocer su realidad.

Como aclara el director del proyecto, estos testimonios tienen un doble valor y es que, además, aportan información como no lo hacen otras fuentes. Son capaces de descubrir aspectos de la realidad de la enfermedad que las fuentes gráficas o escritas no dan. Hay otra información en ellas que es la percepción particular de la enfermedad, el significado de esta, la explicación que cada enfermo le otorga a su padecimiento. Esa es una información muy valiosa porque incluso ayuda a comprender las consecuencias que tiene estigmatizar a un colectivo por las razones que sea.
Se pretende que el proyecto de historia oral acabe en la publicación de un libro con las transcripciones de las entrevistas que completen los fragmentos de la fonoteca por una razón de peso que explica García Belmar: “Nunca es igual la lectura de los testimonios que la escucha de los mismos. Toda la información contenida en las palabras, la cadencia, el acento, las emociones… todo eso se pierde en la transcripción y por eso creemos que deben complementarse”.

Pensamos que estos testimonios y su salvaguarda podían ser útiles en el futuro para luchar contra la exclusión social y discriminación que sufren otros colectivos. Creemos que esa es la utilidad que puede tener este trabajo para la humanidad, independientemente del valor que pueda tener para investigadores o especialistas que estén interesados en el tema. – E.M.

Visibilizar y sensibilizar como objetivos fundamentales

La lepra es una enfermedad que ha afectado mucho a aquellos que la padecieron y una de las principales contribuciones de este proyecto es ayudar a recuperar la dignidad de la memoria de aquellos que todavía no pueden expresar abiertamente que la sufrieron y ahora están curados.

Ellos lo dicen, realmente la enfermedad era curable y podía hacerse rápido y sin secuelas, ahora bien, el problema es que una vez que fueron diagnosticados, uno es leproso para toda la vida. Esa es la auténtica batalla, no tanto la lucha contra la bacteria causante, sino contra el estigma que ha condicionado toda su vida. – G.B.

El desconocimiento de la enfermedad en la actualidad continúa siendo unos de los caballos de batalla del día a día de especialistas y fundaciones como la de Fontilles. Hay que explicar constantemente que la lepra no tiene la imagen que a la gente suele traerle al subconsciente, de personas con rostros desfigurados, con muchas lesiones a nivel externo. Hay otras formas de manifestarse, que no son tan violentas ni tan visibles, aunque también acaban generando estigma. Lo cuenta quien trabaja de primera mano con una enfermedad con desigual incidencia en el mundo: “La gente piensa que ya no existe, que es una enfermedad del pasado y sin embargo no es cierto. Incidimos sobre este tema de manera especial el Día Mundial de la Lucha contra la Lepra, que es el último domingo de enero, pero en realidad es parte de nuestro trabajo diario”- comenta Eduardo de Miguel.

La gente que se aproxima a Fontilles lo hace desde muy diversos puntos de vista, a veces social, otras histórico, antropológico o incluso arquitectónico. Uno de los fines de este proyecto es que todas esas visiones se vayan entrelazando para lo que es el fin último: la lucha contra la enfermedad, la lucha contra la exclusión social y la defensa de los derechos humanos. Todo está unido y tan importante es para la Fundación la conservación y puesta en valor de los documentos y los testimonios a corto plazo, como la defensa de los colectivos que en el siglo XXI siguen padeciendo la exclusión social por enfermedad. Ciertamente esta plataforma ha de contribuir a visibilizar y sensibilizar sobre esta enfermedad entre la sociedad. Así lo afirman, esperanzados, los responsables del proyecto.

Tras la catalogación, el archivo y la digitalización de todos los documentos, el objetivo es llevar a cabo una difusión del proyecto por medio de varias iniciativas. Una de ellas es la presentación en congresos o reuniones científicas o incluso elaborar alguna publicación. Pero, además, el objetivo es ofrecer la experiencia a otros espacios similares a Fontilles, que cuenten con fondos de archivo, biblioteca, fondos fotográficos y fondos gráficos. Algo así como un asesoramiento para la recuperación de su patrimonio.

Antonio García Belmar comenta que ya hay programado un encuentro con personas que trabajan en entidades similares en Grecia y Portugal y también en Noruega e Italia. El objetivo es crear una especie de consorcio, intercambiar experiencias y llevar este modelo de trabajo a otros lugares donde pueda aplicarse.

Eduardo de Miguel aclara que este no es un proyecto que aparece de manera aislada, sino que surge en un contexto, de trabajo global, en el que otras instituciones a nivel europeo y mundial están intentando rescatar del olvido y de la destrucción todo ese patrimonio material e inmaterial, a través de los testimonios de los enfermos. Europa, Asia y América Latina, principalmente, están creando unas conexiones que están generando un proyecto vivo y dinámico. El fin es que todo aquello que sea posible preservar y conservar, que esté vinculado con antiguas leproserías, quede a disposición de la humanidad, en general, para lo que pueda ser útil. “Yo quiero pensar que esto empieza aquí y que va a ir generando un tipo de redes de antiguas leproserías que en un futuro puedan acabar incrementando ese patrimonio digital a través de la Miguel de Cervantes, o desde otra plataforma”,comenta con entusiasmo De Miguel.

Después de cuatro años de trabajo,de los cuales dos de ellos han contado con la financiación de la Sasakawa Memorial Health Foundation, se ha logrado la formación de una plataforma a la que es interesante asomarse, para conocer más sobre una enfermedad, a la que el conocimiento científico y médico, ha hecho menos dolorosa y peligrosa. Sin embargo, el conocimiento social e histórico aún no ha conseguido mermar las falsas creencias y mitos que sobre ella perduran hoy en día. Quiera que proyectos como este lo consigan y palabras como las de Salvador Sellés, plasmadas en un poema en 1912 que lleva por título Lepra, no se repitan:

¡Oh la lepra invisible y demoníaca!
Ella acecha y ataca: nos envuelve en sus redes y sus lazos, nos invade ganando vena a vena, nuestra sangre envenena y desprende los miembros a pedazos.

El canvi climàtic arriba al Pou Clar

Quasi quatre mesos sense caure ni una gota d’aigua a la localitat valenciana d’Ontinyent. Com informava El Periòdic d’Ontinyent, a la ciutat no plovia des del passat 13 de desembre del 2018. I hi haurà encara qui afirme que el canvi climàtic no existeix. No obstant, i tant que ho fa. Una de les seues víctimes és el Pou Clar, un paratge natural d’una gran bellesa composada per diversos pous i recessos d’aigua, amb una zona d’abruptes barrancs de roca calcària situat a la capital de la Vall d’Albaida. La sequera dels pous que el formen, l’aigua estancada i verdosa, marques que mostren la baixada del nivell de l’aigua en més de mig metre… Aquests signes són un clar exemple que el canvi climàtic ha arribat al Pou Clar,  i sembla que per a quedar-se si no es fa res per evitar-ho. “Al nostre parer deuria fer-se un estudi seriós i rigurós, donat que tenim el canvi climàtic damunt, del subsòl i el cabal d’aigua que alimenta el Pou Clar per fer previsions per un proper futur”, sentència Ramón Martínez, membre de l’associació d’Amics del Pou Clar i professor de Geografia i Medi Ambient.

El Pou Clar (Ontinyent)- Sonia Pla

Primeres senyals d’alarma

Un dels paratges naturals més famosos de la Vall d’Albaida comença a emetre les primeres senyals d’alarma. Entre les principals està l’actual sequera que pateix el pou del Salze i quan açò passa, segons els experts, la resta de pous comencen a fer-ho. “El del Salze és el pou que està a un nivell més alt i, per tant, sempre és el primer que es seca. És a dir, quan baixa el nivell freàtic, el primer en assecar-se és aquest, i si continua baixant el nivell, s’assequen els altres”, explica Rafa Morera, tècnic de Medi Ambient de l’Ajuntament d’Ontinyent.

A més, el color verdós en l’aigua dels pous situats a la part alta del paratge també és un indicador de què, si la situació meteorològica no millora, el Pou Clar viurà una de les seues pitjors etapes a l’estiu. “Els meteoròlegs han anunciat una primavera més càlida i menys plujosa de lo habitual. Per tant, si el paratge no arribara a assecar-se del tot, sí que patirà el mateix que al 2016: aigua verda i pudenta”, afirma el professor Martínez. Si no plou l’aigua s’estanca i no corre, pel que dóna lloc a que presente eixe estat verdós.

Aigua estancada als pous de la part superior del paratge- Sonia Pla

Si es continuen observant les senyals del paratge a simple vista es veuen les marques que la baixada de l’aigua ha deixat sobre les pedres. Més de mig metre de diferència evidència la crítica situació en la que es troba el Pou Clar.

Les marques d’aigua a les parets del Pou Clar que mostren la baixada de mig metre de l’aigua -Sonia Pla

L’últim índex que ha provocat que es comence a parlar de la possible futura sequera del paratge natural ontinyentí és l’estat del Riu Clariano. Partint que el Pou Clar està considerat com el naixement d’aquest riu, és a dir, una prolongació, si aquest es troba sec significa que no baixa la suficient aigua des del paratge. “El Clariano circula completament sec al seu pas pel nucli urbà, fet molt poc freqüent durant l’hivern o la primavera”, sentència Morera. A més, si al factor climàtic se li suma que des de l’associació d’Amics del Pou Clar denuncien que, segons la Confederació Hidrogràfica del Xúquer, al Clariano li correspon més cabdal “però des de l’ajuntament ningú diu ni fa res”, s’entén encara més la deterioració del riu.  Els experts coincideixen que la situació que viu el Clariano durant els últims mesos no és normal per al període en els que es troben, el que indica que alguna cosa no marxa bé.

Què ha propiciat aquesta situació?

Són molts els factors que han originat la situació crítica en la que es troba el Pou Clar, però la principal és l’absència de copioses pluges. A la capital de la Vall d’Albaida han estat tres mesos i mig sense pluja. Com publicava el Periòdic d’Ontinyent el passat de 12 de març a l’article ‘La sequera amenaça el Pou Clar’, a la ciutat no plovia des del 13 de desembre del 2018, ratxa que es va trencar el 30 del mateix mes. Si comparem les dades de la pluja arreplegada durant els tres primers mesos dels últims 5 anys, aquestes parlen per si mateixa.

“En tot el que portàvem fins al 29 de març del 2019, la pluja havia sigut inferior a 2l/m2. Per això estem molt per davall de la precipitació mitjana anual, i si no es repeteixen estes pluges el més probable és que el Pou Clar patisca molt els mesos d’estiu”, explica Rafa Morera.

Com s’explica açò? Pablo Ángel Guerra, meteoròleg de l’estació d’Ontinyent, afirma el següent: “Els períodes de sequera són una constant en la capital de la Vall d’Albaida en els últims anys. És com un compte corrent, si no claves diners i traus per què has de pagar les despeses, al final els números rojos et persegueixen”. A més, senyala que la falta d’una bona nevada a la Serra de Mariola també és clau del crític estat en el que es troba el paratge natural. La falta d’abundants pluges durant els últims anys també ve relacionada amb el calfament global que viu el planeta. “És evident que hi ha una estreta relació entre la temperatura i les precipitacions”, sentència Pablo Ángel. El meteoròleg continua explicant que aquesta relació es mostra clara en el període del 2000-2017, ja que els anys on la temperatura mitjana supera els 17 graus són menys plujosos. Les dades mostren que des de l’any 2007 fins al 2018, excepte durant el 2010, tots superen els 17 graus de mitjana, el que suposa que durant els últims onze anys hi haja absència de copioses pluges. “Sembla que cada any que passa, la temperatura mitjana puja  i que ploga menys. És a dir, que estem veiem com els anys són més càlids i secs”, afirma Ramón Martínez.

Les sèquies també mostren la baixada del nivell d’aigua- Sonia Pla

Si a la falta de precipitacions se li suma la utilització de l’aigua del Pou Clar per a usos agrícoles, industrials així com per a consum humà, és fa més que evident el per què del nefast estat actual. “La utilització de l’aigua per a usos externes és una de les qüestions que més afecta el nivell d’aquesta del paratge”, explica el tècnic de l’Ajuntament d’Ontinyent. Al que el meteoròleg Guerra contesta: “S’hauria de regular i millorar el reg per a no perdre aigua, que és un be col·lectiu i necessari que s’ha de compartir de forma racional”.

A més, el professor Martínez assenyala que l’estat de moltes de les sèquies es troben obstruïdes i trencades, el que dóna lloc a que es perda més aigua de la que es deuria. “Si es tinguera un major control i revisió sobre elles es podria evitar una pèrdua d’aigua innecessària”, sentència el membre de l’associació d’Amics del Pou Clar.  

Les xifres

Des de l’any 2011 la temperatura mitjana anual a la localitat d’Ontinyent és superior als 17 graus, com s’ha assenyalat anteriorment. És una data bastant alarmant si es té en compte que en el període del 1941 fins al 2006 sols en set anys la mitjana havia sigut igual o superior a eixos graus. És a dir, que durant 65 anys la temperatura anual ontinyentina era inferior a 17 graus i ara, des de fa 8 anys, que aquesta no baixa d’eixa xifra.

És més, es podria dir que des de fa dotze anys,–a excepció del 2010-, la temperatura mitjana anual és superior als 17. Aquestes xifres corroboren el que tant Ramón Martínez com Pablo Ángel sentencien en quant a que els anys són més càlids. Ara bé, s’haurà de comprovar si existeix la relació en quant a més calor menys precipitacions.

Un cop més els experts estan en lo cert. La tendència mostra que des de que la temperatura mitjana anual ha augmentat a la capital de la Vall d’Albaida, els dies on la pluja es deixa caure són més difícils de veure. El fet que des de l’any 2011 fins al 2018 la temperatura anual no haja baixat dels 17 graus i durant este període no haja plogut més de 100 dies en un any mostra la estreta relació que hi ha entre el calfament global i la sequera. Si  es té en compte aquesta correlació i es presta atenció a la següent taula es pot preveure un futur no molt esperançador per al Pou Clar.

Crida l’atenció com en la majoria de mesos la mitjana de la temperatura és major en el període dels últims 54 anys, i a nivell general, té la mitjana més superior dels últims quasi cent anys. Açò el que denota és que la localitat ontinyentina està vivint els anys més calorosos dels últims 55 anys, el que comporta que el nivell de precipitacions també s’haja vist reduït, fet que afecta directament al cabdal del Pou Clar.

No obstant, durant els últims anys l’estat del paratge natural ontinyentí no es trobava tant sec com hui en dia. Però, la solució és senzilla. Si es tenen en compte les dades arreplegades tant les referides a la temperatura com a les precipitacions, a la capital de la Vall d’Albaida a data d’1 d’abril, aquestes parlen per si soles. En quant als graus “març ha estat el quint més càlid dels últims 25 anys, sols superat en 2017 (14.3), 2008 (14), 2006, (14.2), i 2001 (16’4). Este any fou 13’5, un 1’2 per damunt de la mitjana”, explica el meteoròleg Pablo.

I pel que fa a les precipitacions, el nombre de litres per metre quadrat el dia d’1 d’abril no arribava als 46 litres, dada molt per davall si es compara amb les xifres arreplegades al mes d’abril dels últims set any, totes per damunt dels 52 l/m2, com es veia al gràfic del principi.

L’ inici de l’any 2019 no depara bons presagis per al futur estat del Pou Clar, i més si es té en compte que tota la pluja arreplegada d’aquest any ha estat en els últims dos dies del mes de març. “Este episodi de pluges ha tingut una intensitat aproximada de 50 l/m2. Per això estem molt per davall de la precipitació mitjana anual, i si no es repeteixen estes pluges el més probable és que el Pou Clar patisca molt els mesos d’estiu.”, sentència el tècnic Morera.

Té el paratge data de caducitat?

“El canvi climàtic és irreversible, pel que el Pou Clar desapareixerà i a curt termini. Els episodis de pluja extraordinaris sols han prolongat l’agonia de la seua mort”, afirma  l’ontinyentí Pablo Guerra.

Quan el meteoròleg diu que “els episodis de pluja extraordinari sols han prolongat l’agonia de la seua mor”, fa referència als cicles de períodes secs i humits. És a dir, al seu llibre ‘Clima i oratge a Ontinyent’ (2018), Guerra Ángel senyala que en augmentar els anys amb temperatures per sobre dels 17 graus, que com s’ha vist abans és la tendència que s’està donant en els últims 12 anys (a excepció del 2010), són més abundants els períodes secs. Açò significa que si la temperatura mitjana continua mantenint-se o sent superior als 17 graus, hi haurà més temporades amb absència de copioses pluges, per molts episodis espontanis de pluja que tinguen lloc, com el del passat març on en dos dies s’arreplegaren quasi 45 litres per metre quadrat. Per que per a mantenir un paratge com el Pou Clar és necessari una regularitat en el règim pluvial, cosa que, segons l’expert, no passa a la localitat ontinyentina. “El clima mediterrani és molt irregular, i la tendència és que s’incremente esta irregularitat, el que provoca estes sequeres intenses i pluges molt intenses”, sentència el tècnic Morera.

Aquesta irregularitat no sols és nefasta per a la sequera del Pou Clar, sinó que el afecta a uns nivells més generals. “Suposa un procés irreversible per al paratge natural: esgotament de l’aqüífer, sequera de la vegetació, pèrdua de l’arborat, incendis, falta d’aigua per al regadiu, abús en la utilització per part del públic…”, sentència el meteoròleg ontinyentí.

El canvi climàtic han donat a la població ontinyentina un cop de realitat, ja que els seus efectes estan començant a deixar petjades en un dels seus majors tresors, el Pou Clar. Qui sap si açò servirà per a que comencen a conscienciar-se amb el medi ambient i tinguen més cura cap a ell. Cert és que lluny queden les imatges d’aquest paratge, on l’aigua brotava fluentment i el paisatge era més pintoresc del que és hui en dia. El riu Clariano portava aigua quasi tot l’any al seu pas pel poble, amb peixos, ànecs, granotes, tot ell envoltat de boga i joncs. Sens dubte, una realitat que a hores d’ara sols és una fotografia en l’imaginari de la població ontinyentina.

El Pou Clar als anys 60- Ramón Martínez

“El objetivo principal de la ciencia es descubrir la verdad sobre el universo”

ENTREVISTA | Antonio Diéguez Filósofo de la biología

Antonio Diéguez.


Antonio Diéguez es Catedrático de Lógica y Filosofía de la Ciencia en la Universidad de Málaga. Su dilatada y laureada trayectoria académica comenzó con el realismo científico, un debate clásico de la filosofía de la ciencia del que es un exponente nacional. Cuando los puntos clave de los análisis filosóficos sobre ciencia quedaron acotados los filósofos se especializaron en ciencias concretas. Él escogió la biología, lo que le permitió explorar un terreno en el que se muestra muy cómodo: las fronteras entre la naturalezade los diferentes seres vivos. Su debate más reciente trata sobre la existencia de un límite verdadero entre lo que entendemos como animales, humanos e hipotéticos seres transhumanos. Comprometido con la divulgación, es autor y coordinador de numerosas publicaciones y un conferenciante experimentado. Un hombre con múltiples talentos que ha sabido cambiar de opinión en el momento acertado.

Usted es un referente del realismo científico y autor de un libro homónimo ¿Cómo definiría esta corriente?

El realismo científico es una posición dentro de la filosofía de la ciencia que defiende tres cosas: existe una realidad, las teorías científicas proporcionan conocimiento sobre ella y la ciencia progresa hacia teorías más verdaderas. También tiene conexiones fuertes con debates de historia de la ciencia y  con el realismo filosófico.

¿Qué le llevó a interesarse por el realismo científico?

A raíz de mi tesis doctoral leí a J.S. Mill, Karl Popper y Thomas Kuhn. Después empecé a explorar de manera sistemática a todos los filósofos de la ciencia importantes. Además de los autores citados, leí obras de Whewell del siglo XIX y me interesé por el Círculo de Viena e Imre Lakatos, hasta llegar a nuestros días. De los recientes, me impactó fundamentalmente la lectura de un filósofo finlandés con el que luego tuve una buena relación personal, Ilkka Niiniluoto. Fue rector de la universidad de Helsinki durante varios años y está considerado como uno de los grandes teóricos del realismo científico. Ilkka escribe de forma muy clara y su visión de este asunto era muy convincente, así que empecé a escribir un libro al respecto.

Realizó varias estancias en el departamento de Filosofía de la Ciencia de la Universidad de Helsinki.

Sí, fui para debatir sobre los temas del realismo científico con Ilkka Niniiluoto. Es uno de los departamentos de filosofía de la ciencia más prestigiosos del mundo. Tuvo entre sus primeros miembros a un integrante del círculo de Viena, Eino Kaila. El director más querido y más influyente que ha tenido es Georg Henrik von Wright, discípulo y albacea testamentario de Wittgenstein. Yo lo conocí la primera vez que fui, era un hombre impresionante. También ha tenido figuras tan prestigiosas como Jaakko Hintikka o el propio Niniiluoto. La verdad es que estuve muy a gusto en el departamento. Fue un lujo estar con expertos cuyo su trabajo ha tenido una gran influencia en la filosofía de la ciencia del siglo XX, trabajar en aquel ambiente y aprovechar los recursos bibliográficos que se me ofrecían.

“Necesito cambiar de tema cada 10 años”

Antonio Diéguez

¿Siempre ha sido simpatizante del realismo científico?

Cuando empecé a escribir el libro, al igual que la mayoría de jóvenes filósofos, era un antirrealista. Las posiciones realistas, no sé por qué, eran y son consideradas como más conservadoras. Lo digo porque el marxismo clásico defendía claramente el realismo. Marx, Lenin y Engels eran realistas. El libro de Lenin “Materialismo y empirocriticismo” es una defensa del realismo frente al fenomenismo y al positivismo previo al siglo XX. Cuando empecé con el libro, pese a que mis simpatías estaban con las posiciones antirrealistas, me fui dando cuenta de que los argumentos del realismo eran muy buenos. Me fueron convenciendo poco a poco, de manera que acabé el libro siendo realista. Desde entonces conservo la misma convicción, quizás no tan fuerte como entonces, pero en general sigo pensando que  es la mejor manera de interpretar la ciencia y las teorías científicas. Lo cual no significa que eventualmente surjan teorías que puedan ser meros instrumentos de cálculo o herramientas para producir tecnología, pero ese no es el objetivo principal de la ciencia. El objetivo principal de la ciencia, aunque a muchos científicos les suene trasnochado, es descubrir la verdad sobre el universo.

Ha mostrado ser capaz de cambiar de opinión. ¿Tuvo claro desde el principio que quería dedicarse a la filosofía?

Nací en Málaga, en un barrio obrero de trabajadores, y no tenía en aquel momento ninguna idea de lo que era la filosofía ni que iba a ser mi vocación. Al principio me interesaba la pintura, me hubiera gustado ser pintor pero no pudo ser. Hace mucho que no pinto, más de 10 años, pero no descarto volver a pintar alguna vez. Aún me arrepiento de ello. En realidad no tenía vocación filosófica, decidí estudiar filosofía en la cola de matriculación. Quien me influyó en el último instante para hacer filosofía en lugar de otra carrera de humanidades fue un buen amigo que estaba interesado en ella. Yo, con gusto, había podido leer un par de libros de Nietzsche, como “Así habló Zaratrustra”. Fue una decisión muy poco informada, fue un poco al azar. Por eso digo a las personas preocupadas por su futuro que tomen una decisión. Que la vocación muchas veces va surgiendo. Cuando empecé la carrera me di cuenta de que era un buen camino para seguir y tener una profesión.

«Un domingo en casa», cuadro de Antonio Diéguez.

Parece que la decisión fue acertada, fue reconocido con el Premio Extraordinario de Licenciatura. También obtuvo el Premio Extraordinario de Doctorado por su tesis sobre John Stuart Mill.

Empecé con J.S. Mill gracias a la llegada a Málaga de mi director de tesis, el profesor Pascual Martínez Freire, gran catedrático de lógica y filosofía de la ciencia. Él no podía dirigir una tesis de ética como me hubiera gustado, pero llegamos a un pequeño acuerdo: podría escoger un autor que tuviera relevancia en ética y política pero tendría que analizarlo desde la perspectiva de la filosofía de la ciencia. Su orientación y su ayuda fue fundamental. El indicado era Mill porque tenía una teoría pionera sobre la metodología de las ciencias sociales que estaba poco estudiada. La desarrollaba al final de su libro «Un sistema de lógica», que tuvo una gran influencia a finales del XIX y principios del XX. Lo que hice en la tesis fue trazar la historia del pensamiento metodológico en las ciencias sociales hasta la aportación de Mill, además de su influencia posterior.

¿Qué aspectos le llamaron la atención de la obra de J.S. Mill? ¿Comparte su definición de etología, que la sitúa como “la ciencia del carácter humano en el sentido más amplio del término”?

Mill dominaba el lenguaje. De su obra me atrajeron dos cualidades: su estilo claro preciso y su elegancia a la hora de exponer y defender las ideas. Fue una escuela de escritura que creo ha influido en mi propio estilo. Su idea de la etología sin embargo me parece que no era muy acertada. En cambio, hizo aportaciones muy interesantes. Mill pensaba que el método de las ciencias sociales tenía que ser lo que luego hemos llamado método hipotético-deductivo. Está considerado uno de los padres del inductivismo, la idea de que los descubrimientos científicos se obtienen mediante inducción, que luego rechazó Popper por completo. Sin embargo, para las ciencias sociales deja abierta una metodología diferente en la que tiene más importancia la invención de hipótesis y el uso de la deducción. Así que en ese sentido, Mill se adelantó un poco a su época.

Tras explorar debates de filosofía de la ciencia como este se especializó en filosofía de la biología.

Yo necesito cambiar de tema cada 10 años. No quería seguir leyendo sobre el realismo porque, aunque seguía siendo un debate intenso en el que surgían nuevas corrientes, me parecía que los grandes argumentos y las ideas centrales estaban ya expuestas. Quizás me equivoqué, porque el debate sigue y han surgido propuestas muy interesantes. Por otro lado, en torno al cambio del siglo XX al XXI, ya era evidente que la filosofía general de la ciencia no era un campo que fuera a dar resultados comparables a los que había dado previamente. Quien quisiera escribir algo sobre la ciencia desde un punto de vista filosófico tenía que especializarse en una ciencia y hablar con un conocimiento cercano. A finales de los 90 casi todos los filósofos de la ciencia empezaron a trabajar en alguna ciencia concreta, fue una cuestión generacional. La filosofía de la ciencia tradicional se había centrado sobre todo en la física, pero en ese momento había otras disciplinas científicas emergentes, como la biología o la economía.


Antonio Diéguez en una ponencia sobre el transhumanismo.

Usted, además, cursó parte de la licenciatura de biología.

Hay que conocer la disciplina de primera mano, por ello me matriculé, cursé y aprobé hasta final del tercer curso. En ese momento era vicedecano y tenía que pasar muchas horas en el despacho. Yo no iba a ejercer de biólogo y las prácticas de los últimos cursos ocupaban tardes enteras, así que decidí dejarlo porque ya conocía la teoría y los rudimentos de la práctica. La biología es una ciencia fascinante porque muestra que se puede hacer una ciencia de máximo rigor con unas aplicaciones prácticas increíbles utilizando una metodología muy diferente a la de otras ciencias. Cuando se habla del Método Científico con mayúsculas y en singular, pienso que es más una abstracción de cara a la galería, que otra cosa. En la realidad lo que vemos son ciencias diversas con metodologías diversas. La que sigue un físico de partículas tiene muy poco que ver con la que sigue un bioquímico, un paleontólogo, un ingeniero químico o un etólogo. Sin embargo, todos son métodos científicos. Si se interpreta correctamente la afirmación de Feyerabend de que “en la ciencia todo vale” (cosa que no siempre se hace), entenderemos que tenía bastante razón. Lo que Feyerabend quería decir es que si nos empeñamos en buscar un precepto metodológico universal para todas las ciencias, éste tendría que ser algo así como “todo vale”, lo que es tanto como decir que, en realidad, no hay ningún precepto universal sino una enorme diversidad de métodos. Lo que no está diciendo Feyerabend es que literalmente pueda hacerse pasar cualquier cosa por científica. La pluralidad de métodos hace que se rechacen también muchas propuestas en la ciencia por no ser aceptables desde algún criterio metodológico aceptado.  Las ciencias son muy diversas, no hay una metodología única. Eso es lo que la biología ha mostrado sin lugar a dudas. Todas las disciplinas de la biología, con mayor o menor rigor y matematización, han mostrado que se puede hacer una ciencia sin nada que envidiarle a la física. Ambas son ciencia, pero distintas metodológicamente. En biología, en lugar de leyes, existen modelos matemáticos. No son lo mismo pero ambos sirven para explicar y predecir fenómenos. Esto es un cambio de perspectiva fundamental en la filosofía de la ciencia porque muestra una de las limitaciones de lo que habían dicho miembros del Círculo de Viena sobre cómo funciona la ciencia. La biología es un buen ejemplo de cómo la ciencia es plural, de cómo los métodos se aplican de formas muy diferentes según el campo. Esto era muy interesante desde el punto de vista filosófico y fue una de las razones por las que decidí estudiar biología. Pero también, indudablemente, porque ya empezaba a estar claro el impacto que iba a tener la ingeniería genética y la biotecnología.

La filosofía de la biología enfrenta grandes debates actualmente. Usted ha participado en la publicación de Naturaleza animal y humana con el capítulo “Pensamiento conceptual en animales”.

Uno de los problemas que tienen algunos filósofos de educación tradicionalista es seguir anclados en la idea de que el pensamiento es tan complejo que requiere de un lenguaje también complejo. Creen que cuando hablamos de “conceptos” estamos captando la esencia de algo que no se puede captar sin una inteligencia abstracta, muy sofisticada.  Si uno lee los trabajos de los primatólogos sobre la cognición en primates en los últimos veinte años, no puede seguir manteniendo una concepción tan tradicionalista de lo que es la mente. Conviene mencionar a Frans de Waal y Josep Call, discípulo catalán de Michael Tomasello. Yo les digo a mis alumnos que no sigan definiendo al ser humano como el animal racional, porque no es una buena definición. Los grandes simios y otros primates son capaces de hacer inferencias transitivas, disyuntivas, etc. Por tanto, son racionales, aunque no posean un lenguaje. Acepto que es una noción muy básica de racionalidad, pero me parece válida. Por tanto, definamos mejor al ser humano, si uno quiere, con la otra traducción posible de la frase de Aristóteles. Aristóteles dijo que el ser humano era Zoon logon echon, el animal que tiene logos. Logos también se puede traducir como palabra. El hombre es, por tanto, el animal con lenguaje. Existen animales que pueden aprender un lenguaje, como el bonobo Kanzi, la gorila Koko o el loro Alex, pero no es un lenguaje propio, y, en todo caso, se discute si pueden manejar bien la sintaxis.. Las diferencias entre los seres humanos y otros animales, particularmente otros primates, son de grado. No se trata de un abismo ontológico.

“Hay que estar abierto a la aplicación de la biotecnología en el ser humano”

Antonio Diéguez

Otra cuestión alrededor de la naturaleza del ser humano es el transhumanismo, sobre el que escribió un libro.

En 2015 hice una estancia de investigación en Oxford en la que trabajé sobre el transhumanismo. Estuve en el centro Uehiro para la Ética Práctica, uno de los lugares principales del pensamiento transhumanista en este momento. Es un movimiento filosófico, cultural, con ribetes incluso religiosos, que pretende mejorar al ser humano por medio de la tecnología. En concreto con las tecnologías más avanzadas, que en este momento son la inteligencia artificial y la biotecnología. Los transhumanistas creen que el ser humano no es un ser acabado, que no existe una naturaleza humana estable, sacrosanta, que sea absolutamente inmoral tocar o modificar. Piensan, en cambio, que el ser humano es un ser cambiante que tiene mucho todavía que hacer para mejorar. Como esta mejora a través de la cultura es muy lenta, por no decir ineficaz, apoyan la idea de mejorar la especie mediante la tecnología o la unión con la máquina.  Creo que el discurso transhumanista es digno de atención, está soportado por muy buenos argumentos y autores. Hay que atender a expertos como Julian Savulescu o Nick Bostrom y estar abierto a la aplicación crítica y prudente de las nuevas tecnologías, como la biotecnología, al ser humano.

También realizó una estancia en Harvard.

Harvard es una universidad impresionante, siempre está entre las cinco mejores del mundo. Es la investigación en estado puro. El conglomerado de las ciudades de Cambridge y Boston, donde se encuentra además el MIT y otras universidades de enorme prestigio, es la zona del mundo con más premios Nobel por kilómetro cuadrado. Eso crea un clima intelectual asombroso. Tenía por costumbre asistir todas las semanas a alguna conferencia, ya que siempre las impartían figuras mundiales. Fue un lujo poder asistir al seminario que impartía Peter Godfrey-Smith, filósofo de la mente, junto con el biólogo David Haig. Asistió como oyente nada menos que el afamado filósofo Daniel Dennett y mantuvieron conversaciones muy interesantes. Percibí también una mentalidad diferente a la nuestra en los alumnos. Allí el alumno es incitado a no temer equivocarse, siempre que sepa defender bien su posición. Dan más importancia a la capacidad de argumentar las ideas propias que al hecho de que sean acertadas o equivocadas.

¿Cuál es el valor más destacado de las estancias en otras universidades?

Creo que son la mejor parte de la carrera profesional. A los profesores en España desgraciadamente nos tienen atados con demasiadas horas de clase -estamos mal financiados para eso también- y no nos dejan ir al extranjero tanto como nos gustaría. Sin embargo, es algo que luego nos piden en el CV

Muchos  profesores e investigadores son también divulgadores. ¿Cuál cree que es el papel de la comunicación de la ciencia en la sociedad actual?  

La comunicación de las ciencias debería tener un papel central, la ciencia necesita estar en contacto con el público. No comunicar los resultados despierta recelos. Las actitudes anticientíficas coinciden en un rechazo a la ortodoxia y en pensar que hay intereses oscuros o que la investigación está sesgada. Que tanta gente piense de ese modo es una desgracia y es peligroso. La ciencia ha de preocuparse por su imagen pública. No puede ser que a un científico le cueste perder prestigio el hecho de dedicar parte de su tiempo a la divulgación. Es central para la supervivencia de la propia ciencia y es absurdo que las publicaciones de este tipo no tengan prácticamente ningún valor curricular. Existe una idea cientifista de que el auténtico científico se dedica a otras tareas más serias, que esa es una tarea menor. No lo es; al igual que no lo es el tema de la financiación, que todos los equipos de científicos entienden. La ciudadanía tiene que percibir que incluso la investigación básica es útil. Creo que se está empezando a entender, pero ha costado.

“Nuestra toxina es bastante popular, es como la ricina de la serie Breaking Bad”

Álvaro Martínez del Pozo pertenece al grupo de investigación de la UCM que busca transformar toxinas en tratamientos


Catedrático de Bioquímica de la Universidad Complutense de Madrid (UCM), Álvaro Martínez del Pozo, se dedica a la ciencia en sus diferentes formas: como docente, investigador y divulgador del conocimiento científico.
Es Licenciado (1981) y Doctor (1986) en Ciencias Químicas, dentro de la especialidad de Bioquímica. Además de la UCM, ha trabajado en universidades de otros países, como la Universidad Rockefeller de Nueva York, la Northeastern de Boston y la Universidad de Kyoto. Dentro de su trayectoria investigadora, forma parte de un equipo más amplio, donde participan profesores y becarios en el estudio de la estructura y funciones de las proteínas, aunque la especialidad de Álvaro Martínez son las proteínas tóxicas y su capacidad para interaccionar con membranas biológicas.  Además de la investigación, participa activamente en la comunicación científica, tanto en el ámbito de la docencia como en la divulgación. Ha publicado libros como “El nacimiento de la química de proteínas” o “¿Por qué somos como somos? El genoma humano paso a paso”. Además, ha participado en conferencias y ha colaborado en medios de comunicación, ahora mismo, participa en el programa de RNE “A hombros de gigantes”.

¿A qué nos referimos cuando hablamos de proteínas tóxicas?

Si un producto natural hace daño, resulta tóxico, es una toxina. Por tanto, al contrario de lo que se puede pensar, una toxina es un producto natural. Algunas toxinas son proteínas y esas son en las que nos centramos nosotros.

¿Qué tipo de proteínas están estudiando?

Utilizamos proteínas que, además de ser tóxicas, de producir un daño, sean capaces de interaccionar con membranas. En general, las proteínas tóxicas que interaccionan con membranas proceden de organismos que las tienen que producir solubles, por lo que son proteínas solubles en agua y, a la vez, interaccionan con membranas, una dualidad que es un poco rara. Normalmente, las proteínas o se asocian a las membranas o están solubles en agua, y estas toxinas que nosotros usamos hacen las dos cosas.

¿De dónde proceden estas proteínas en nuestra naturaleza?

Trabajamos con tres tipos: las que proceden de hongos microscópicos, principalmente de la familia de los aspergillus, que puede sonarnos porque es uno de los que se usa industrialmente para producir penicilina. Las que se obtienen de las anémonas marinas, unas proteínas que dañan a otros organismos creando poros. Y, una tercera, en la que estamos empezando a trabajar ahora, la que proviene de venenos de araña, en concreto, de la viuda negra.

La inmunoterapia, medicina personalizada o fármacos inteligentes están a la orden del día. ¿En qué cuadro de la investigación oncológica se situarían sus estudios?

Desde ese punto de vista, que no es el único que manejamos, sería una forma de inmunoterapia. Lo que nosotros hacemos en cáncer de colon, principalmente, es buscar una proteína que esté en la superficie de las células cancerosas de colon y que no esté en las demás células. A esto se le denomina antígeno. Si consigues un anticuerpo que únicamente reconozca esa proteína, solo identificará las células tumorales y eso es un tipo de inmunoterapia.

¿Cómo lo hacen?

Utilizamos un método bastante eficaz, a la parte del anticuerpo que reconoce la célula tumoral, le unimos una toxina, una proteína extremadamente tóxica que solo va a resultar tóxica cuando entre en la célula. Con esa unión conseguimos lo que se denomina una inmunotoxina.


» Una inmunotoxina es una proteína artificial formada por dos dominios unidos que actúan de forma coordinada: uno detecta la célula maligna uniéndose a ella y el otro produce su muerte.

Fuente: Agencia SINC

Hablaríamos de alternativas a otras terapias más invasivas, como la radioterapia…

Sí, se puede inyectar y no produce ningún efecto secundario porque el anticuerpo no se une solo a las células tumorales y las elimina. No es una cosa que hayamos inventado, se lleva trabajando desde hace muchos años, pero nosotros lo hemos implementado a nivel molecular.

Son procesos muy específicos, pero, en un caso hipotético, ¿sería posible lograr una solución única para el cáncer?

No con la estrategia que estamos utilizando nosotros, porque es un tratamiento dirigido a un cierto tipo de cáncer de colon concreto. Aunque la estrategia general se podría aplicar, pero habría que elegir cada antígeno concreto y producir el anticuerpo determinado en cada caso.

Además de los tratamientos oncológicos, están trabajando en otros campos de estudio y enfermedades, ¿cuáles son?

Yo me centro en los estudios básicos del comportamiento de la proteína, saber cómo son capaces de interaccionar con la membrana. Otra línea es el papel insecticida de las proteínas de los hongos, que las producen para que ciertos insectos no se los coman. También las propiedades insecticidas del veneno de araña, para producir un insecticida biocompatible, ya que solo se producen esas proteínas tóxicas frente a ciertos insectos y sería totalmente inocuo para los humanos. Es una visión a largo plazo para tratar de producir, además de las inmunotoxinas, otras proteínas que tuviesen propiedades insecticidas.

Para quienes no estamos familiarizados con el trabajo en laboratorio puede ser complejo comprender el proceso de la investigación… ¿qué fases se siguen?

La primera dificultad es elegir el antígeno, buscar qué proteína tienen las células cancerígenas que no tienen las demás. La segunda, crear el anticuerpo; se produce en microorganismos recombinantes: en bacterias y levaduras. La tercera es eliminar las partes del anticuerpo que no necesitamos. Y, la cuarta, es la que nosotros tenemos más optimizada, elegir la toxina adecuada.

Y, ¿qué toxina habéis elegido?

Nuestra toxina es bastante popular, es como la ricina de la serie Breaking Bad. Se trata de una proteína extremadamente tóxica, pero solo cuando entra en la célula, puede circular y no pasa nada. La hemos unido a un anticuerpo y se introduce en la célula. Y hemos modificado tanto el anticuerpo como la toxina para que no las reconozca el sistema inmune humano, lo que se denomina una molécula humanizada. Cuando la inyectas, el sistema inmune la reconoce como propia y no la elimina, por lo que el tiempo de circulación es mayor y se incrementa la posibilidad de que llegue al tumor y lo elimine.

¿Qué tipo de técnicas se emplean para buscar estos resultados?

Utilizamos una variedad de técnicas grandísima. Combinamos el ADN de la toxina con el ADN del anticuerpo para que formen un todo. Primero hay que conseguir el ADN, manipularlo para crear la construcción que queremos, luego lo clonamos y lo producimos en distintos organismos, principalmente en bacterias como la escherichia coli o levaduras.

Una vez producida, usamos técnicas de purificación como cromatografía o centrifugación, técnicas que separan macromoléculas en función de sus propiedades. Cuando la tenemos, hay que medir la actividad tóxica, la enzimática y la capacidad para funcionar del anticuerpo. Con el objetivo de caracterizar la función de la proteína con células en cultivo, células cultivadas en una placa.

¿Y una vez conseguida?

Se da el paso al animal, utilizamos ratones, les insertamos artificialmente un tumor humano y, finalmente, les tratamos ese tumor. Y ahí es cuando paramos nosotros, porque lo siguiente sería el salto a la clínica.

¿Cuál es la mayor dificultad a la que se enfrenta el grupo?

Eso es facilísimo de contestar. La falta de recursos y de apoyo institucional. Así de claro, sin paliativos.

También está muy implicado en la divulgación científica…

Sí, todo el grupo lo está y hace divulgación… es muy divertido y el público al que llega está entregado.

¿Cuál cree que es el papel del investigador como comunicador de la ciencia?

Trabajamos en una universidad pública, todos nuestros proyectos están financiados con dinero público, es una manera de retornar a la sociedad lo que está pagando con sus impuestos y explicarles para qué vale su dinero.


«La cultura es de letras y es de ciencias. Tenemos un deber por hacer para que disminuya el analfabetismo científico de ciertos sectores de la sociedad»


¿Es complicado?

Vivimos en una sociedad cada vez más tecnificada, a veces hasta a los científicos nos cuesta distinguir lo que es real, hay cosas que parecen mágicas. Sin ir más lejos, sin los conocimientos necesarios, el teléfono móvil parece algo mágico. Y cuando ves cosas de campos diferentes ocurre lo mismo. Si eso lo aplicamos al resto de la sociedad y no amplían su cultura científica, muchos charlatanes se van a aprovechar de eso, van a vender como soluciones científicas cosas que no lo son.

Parece una labor difícil e importante…

Con un poco más de formación científica, muchas de las cosas que pasan hoy no ocurrirían. Aumentar el conocimiento general y científico de la gente amplía la libertad de decisión y previene frente a los engaños. La cultura es de letras y es de ciencias, y nosotros tenemos un deber por hacer para que disminuya el analfabetismo científico de ciertos sectores de la sociedad.

Ángel Pérez Ruzafa: “No se debe pensar que el Mar Menor sea solo agua”

El catedrático explica que la laguna costera murciana mantendrá su capacidad de autorregularse siempre que la acción humana respete su curso natural

El Mar Menor, laguna costera murciana, ha estado muy presionado a lo largo de las últimas décadas por la entrada continua de materia orgánica. Se ha encontrado, sobre todo en los últimos años, en el punto de mira de todos los murcianos. A pesar de su poder de recuperación, ha hecho falta un enfoque multidisciplinar y conocer el mecanismo del Mar Menor y de otras lagunas costeras para acertar con el diagnóstico del estado de la laguna y ponerle así, una solución adecuada y eficaz. Ángel Pérez Ruzafa es catedrático de Ecología por la Universidad de Murcia (UMU), docente e investigador en esta misma universidad y, además, licenciado en Bellas Artes. En esta entrevista cuenta algunas experiencias fuera del territorio español y, sobre todo, la necesidad de abordar la problemática del Mar Menor desde un punto de vista amplio, crítico y positivo.

Ángel Pérez Ruzafa, catedrático de Ecología de la Universidad de Murcia.

Ha realizado numerosas actividades tanto en España como fuera de ella, ¿cree que alguna de sus acciones fuera de nuestro territorio como, por ejemplo, la expedición en el Hespérides, le ha ayudado a tener una perspectiva propia y definida del estudio del Mar Menor?

Sí, absolutamente. Cuando uno trabaja únicamente en un sistema, la visión que tiene de cómo funciona está muy condicionada por su propio funcionamiento. He tenido la suerte de haber trabajado en numerosas islas costeras, en la Antártida, en las islas Galápagos, en el Caribe además del Mediterráneo. Esto nos proporciona una perspectiva global del funcionamiento de las lagunas costeras y permite encontrar matices, diferencias y cosas comunes, algo determinante para poder interpretar cómo funciona un ecosistema. Por ejemplo, nos podemos encontrar en la Antártida con un erizo de mar, esperando al tocarlo que se asemeje a lo que acostumbramos a ver en las zonas del mediterráneo, pero en realidad parece papel de fumar. Aquí comprendes el papel que juega el carbonato y su metabolismo. En un agua fría como la de la Antártida, el carbonato es muy soluble y precipitarlo para formar un esqueleto es carísimo energéticamente, pero en las aguas cálidas como las del Mar Menor, el carbonato precipita con mucha facilidad, por lo que podemos encontrar conchas de gran tamaño.

¿Podría contar alguna experiencia que haya vivido en aquella expedición del Hespérides a la Antártida?

Experiencias hay muchas y de muchos tipo. Algunas de ellas, desde el punto de vista biológico, son el tipo de observaciones que comentaba. Luego hay otras experiencias desde el punto de vista propio, como por ejemplo mi primera inmersión que, a pesar de las ganas, fue muy problemática. Tengo mucha flotabilidad por lo que tuve que ponerme mucho peso. Llevaba también un bloque cemento que era la base de una boya que marcaba la estación de muestreo y una boya pequeña para que el comandante pudiera saber dónde estaba cada buceador. Llevaba la máquina de fotos en la otra mano. A pesar del peso que llevaba no conseguía bajar. Cuando ya renunciaba a la inmersión y asumiendo que me estaba perdiendo mi primera inmersión en la Antártida de repente intenté subir y no podía porque estaba totalmente líado con el hilo. Empezaron a cortarlos y aún así yo subía muy poco a poco. En esa situación el otro hombre se asustó pero yo guardé la calma. Para empeorarlo más, en uno de los tirones de la boya me sacó la máscara de buceo y tuve que respirar de las burbujas. En las inmersiones el factor limitante es la temperatura, no pueden durar más de 20 minutos porque puedes entrar en congelación. La mía duró 40 minutos, salí prácticamente aterido y congelado, me sacaron y lo primero que yo di fue mi máquina de fotos. Pero como los principios de seguridad son muy rigurosos, me la cogió el alférez médico y lo primero que hizo fue tirarla y cogerme a mí. Claro, yo una vez entré en calor, no sabía si matarlo o no, con lo que me había costado la cámara. Con suerte, subiendo la boya, estaba todo tan liado que la cámara subió con ella.

Ya en relación con el Mar Menor, ¿qué técnicas se han utilizado en los últimos años para salvar la situación?

En realidad no se trata de técnicas, se trata de capacidad de diagnóstico. La clave es comprender cómo funciona el sistema. El gran problema con el Mar Menor ha sido, por un lado, lo que podríamos llamar la maldición de Casandra. En la historia, Apolo se enamora de Casandra de Troya. Éste le entregaría a Casandra el don de conocer la verdad a cambio de entregarse a él. Una vez concedido el don, ella se negó a cumplir y Apolo añadió una maldición: ”Vas a conocer la verdad y nadie te va a creer.” Casandra advirtió lo que iba a pasar con el Caballo de Troya pero nadie la creyó. Los científicos tenemos a veces esa sensación. Tenemos capacidad de anticipar los problemas y de saber las consecuencias de las actividades humanas y la responsabilidad de dar alertas que a veces son ignoradas. A eso se une a veces las miserias humanas, incluso dentro del ámbito científico, donde por intereses, necesidad de financiación, por afán de protagonismo o simplemente porque no creer y tener otra verdad, niegan lo que otro dice, aunque sea cierto. Llegó un momento en que el sistema se forzó tanto que al final se rompió. Lo más delicado en estos casos es no equivocarse en el planteamiento del problema o el diagnóstico y tomar medidas acordes con él. Todo problema tiene solución, y si no lo tiene es porque está mal planteado. La situación es compleja, pero el Mar Menor ha sido un ejemplo de que cuando se estudian las cosas, se conocen, y no se tiene más afán que el de conocer la verdad, se pueden hacer diagnósticos acertados que sean útiles y efectivos.

Entonces, ¿en qué situación nos encontramos ahora mismo?

Gracias a las medidas que se tomaron, la entrada de nutrientes ha descendido de manera importante, el Mar Menor se ha recuperado antes de lo que se predecía. En el mar Menor y otras lagunas costeras, hasta el 40% de las especies se renuevan cada año, es decir, pueden estar un año y no en otro. Eso da un poder de adaptación enorme ya que a las especies que entran nuevas no les afecta lo que ocurrió el año anterior y, si se encuentran buenas condiciones, el sistema se organiza bien. En la medida en que las condiciones se habían mejorado, el sistema se recuperaba. La desaparición de Caulerpa prolifera fue, a priori, síntoma de mala calidad de agua. Sin embargo, el hecho de que desapareciera fue positivo para el Mar Menor, ya que era una especie invasora que entró cuando se dragó el Estacio (1973) pero dejó fondos disponibles para que las nuevas especies los colonizaran en unas condiciones incluso anteriores a la apertura del Estacio. Por tanto, gracias a todo ello, el Mar Menor se puso en poco tiempo mejor de lo que había estado en los últimos 30 años.

¿Se trata de una situación estable?

No, es muy inestable porque se basa en una buena capacidad homeostática, es decir, la capacidad de mantener su condición interna estabilizada y, además, es una estructura compleja. Esto requiere que existan medidas muy drásticas que limiten al máximo la entrada de nutrientes. Con la presión de las actividades humanas en el campo de Cartagena, la estabilidad solo se puede conseguir si existe una infraestructura estable de gestión del agua, pero no la hay. Requiere inversión con financiación tanto autonómica como nacional y posiblemente europea. Para que eso sea viable se necesita una buena coordinación entre gobiernos autonómicos, regionales y ayuntamientos. Es muy importante tener claro que el problema está ahí, porque si seguimos pensando que el problema está en un grupo político determinado o en el propio Mar Menor, no lo vamos a resolver. Hay planteada una reunión del comité científico para valorar cuál es la situación a día de hoy y cómo está la situación en todos los campos y con los distintos grupos de trabajos.

¿Podríamos estimar cuánto tiempo será relativamente estable?

En cosas de la naturaleza es muy difícil establecer tiempos. El Mar Menor ha sorprendido con su capacidad y rapidez de recuperación, pero el momento en que se pueda producir una rotura es imprevisible. Siempre lo comparo con apretar un globo. Tú aprietas un globo y tiene resiliencia, se va recuperando pero, ¿cuántas veces lo tienes que apretar para que explote? Imposible de anticipar. Lo que sí sabes es que, una vez lo hayas explotado no lo vas a poder recuperar y ya no vuelve a ser un globo.

¿Se pensó que ya se había llegado al punto de no retorno?

Esa posibilidad estaba sobre la mesa. Tenía la esperanza de que no se hubiera roto del todo, pero no lo sabía. Cuando cesaron los vertidos y empezamos a ver los indicadores, rápidamente nos dimos cuenta de que el Mar Menor no había sobrepasado el punto de no retorno. Una vez sobrepasado, el sistema ya no responde, pero si emite respuesta al tratamiento es que no se ha roto del todo. El principio de incertidumbre y la posibilidad de que algo ocurra siempre está presente. Y la ley de Murphy también se cumple. Si la ley de la termodinámica predice que todo tiende al desorden, esa es la situación más estable por lo que las probabilidades de que eso ocurra siempre son, en teoría y a priori, mayores de que que las cosas funcionen bien. Entonces ahí los catastrofistas tenía más probabilidad de acertar.

“Nos dimos cuenta de que el Mar Menor no había sobrepasado el punto de no retorno”

¿Han cesado totalmente los vertidos de nitratos provenientes de la Agricultura?

No, no han cesado en su totalidad y puede ser preocupante. Pero sí se han reducido muy significativamente, entorno a un 80-90%. La verdad es que en los últimos meses hemos detectado que se están retomando. Seguimos estando muy por debajo de lo que durante los últimos 20 años ha estado entrando, pero como decíamos, la infraestructura no está estable ni resuelta. Por tanto, existe la posibilidad de que en un momento dado ocurra cualquier situación que no podemos controlar y vuelva a provocar un desastre. El Mar Menor ha estado más de 20 años defendiéndose y podemos esperar que, ante una adversidad, pueda estar más recuperado y vuelva a tener la capacidad de amortiguar el problema. Pero, como sabemos, en ocasiones las recaídas son peores que la enfermedad en sí y no conviene jugar con fuego.

Además del cese de introducción de nutrientes, ¿qué otras medidas en el ámbito científico se han hecho? ¿Se han extraído o introducido especies?

No, pero tampoco han sido necesarias ya que el Mar Menor ha funcionado bien. Una de las cosas que se ha visto es que tiene la peculiaridad de neutralizar mejor el exceso de producción. Las especies pesqueras se reproducen fuera de las lagunas, luego las colonizan y aprovechan esa producción para crecer, pero se vuelven a ir o lo sacan los pescadores. Por lo que el exceso de producción no se queda dentro, ayuda a la laguna a descargarse de ese exceso. En la mayoría de las lagunas eso es insuficiente para que tengan aguas limpias, siendo la mayoría de aguas turbias. El Mar Menor tiene una singularidad que hace que retire más producción que las otras lagunas gracias a las comunidades bentónicas, entran continuamente nutrientes con una tasa de renovación mucho más alta que Caulerpa prolifera y además, a diferencia de esta, sirven de alimento. Posee otra particularidad, y es que tiene islas volcánicas que dan comunidades rocosas con muchos filtradores y poliquetos que retiran materia orgánica. Por lo tanto de por sí, gracias a sus especies, el Mar Menor es un sistema productivo desde el punto de vista pesquero pero al mismo tiempo también con aguas muy transparentes.

¿Qué es lo que mantiene la productividad de la laguna?

Todo eso se basa en la heterogeneidad ambiental. Esta heterogeneidad la da el hecho de que la comunicación con el Mediterráneo esté restringida. Por eso cuando se propone abrir y dragar los canales podemos darnos cuenta que no terminan de comprender cómo funciona la laguna costera. A pesar de la segunda ley de la termodinámica, la vida consigue ser compleja ofreciendo resistencia al flujo de energía. En una laguna costera, el flujo está garantizado por el gradiente (de salinidad y temperatura entre la laguna-mediterráneo o laguna-tierra) y eso la mantiene productiva. La resistencia, por su parte, la ejercen los canales de comunicación. Si se cierran deja de haber flujo y la laguna se muere porque no hay energía para mantenerla. Pero si se abren, la laguna se homogeniza y se pierden los flujos y la estructura. Por el contrario, si los canales restringen el flujo de agua y de las especies, se mantienen los gradientes y por tanto la productividad. Al mismo tiempo se genera un trabajo que hace que la zona sur sea distinta a la norte y que los movimientos y las estructuras de sedimentos y especies varíen según la zona. De manera que si se hace un impacto en un sitio, las otras especies no lo estás sufriendo. La mayor singularidad del Mar Menor es que tiene una capacidad de autorregulación y homeostática. Pero esto debe ser comprendido para acertar, no equivocarse en las medidas de gestión y decidir no dragar los canales, porque entonces es cuando la sentencias. No se debe entender que la laguna es solo agua.

¿Qué medidas de concienciación social se han hecho?

No se ha hecho nada de forma específica más allá de lo que han ido haciendo los grupos ecologistas. A veces con mensaje no totalmente acertado o excesivamente dramático y sensacionalista y poco realista pero en cualquier caso siempre viene bien. Es preferible tener hipersensibilidad, aunque moderada, a insensibilidad. Y sobre todo, es necesario que haya una presión sobre los políticos para que perciban un problema y busquen asesoramiento. También se han dado muchas charlas. Yo he dado muchas en colegios, asociaciones de vecinos, tantas que he perdido la cuenta. Eso ayuda a que la gente comprenda lo que hay y lo que está ocurriendo. Al final Murcia es una región muy informada sobre ecología marina, sobre lo que es un nitrato, la Caulerpa prolifera, la clorofila y eso siempre es bueno.

Habiendo estudiado también Bellas Artes en la UMU y basándome en el proyecto lalalab en el que ha participado, ¿cree que las artes pueden tener un papel importante en estos temas, como en la concienciación social?

Sí, claramente. Arte y ciencia se consideran mundos completamente distintos. Normalmente la ciencia es la racionalidad y el arte es la espontaneidad, el expresionismo y los sentimientos. Pero a la hora de la verdad se complementan y las diferencias dejan de ser importantes. En una buena obra de arte los patrones están bien estructurados, la obra tiene estructura, y tiene patrones a distintas escalas dependiendo del campo artístico. La ciencia plantea un mundo aparentemente caótico y le busca regularidades y las interpreta. La ventaja adaptativa de los humanos respecto a otros animales es haber llegado a esa capacidad de interpretar patrones al extremo, por lo que es capaz de anticipar los problema antes de llegar a tenerlos. Un científico utiliza esa capacidad para interpretar patrones y el artista para generarlos. Generando un buen patrón, los cerebros se enganchan a él porque tratan de interpretarlo. Si el patrón es muy complejo se rechaza porque no puedes con él, y si es muy sencillo te aburre.

En el fondo son el mismo mecanismo pero es verdad que activan partes distintas: en uno te permite racionalizar las cosas y hacer diagnósticos y el otro te abre la sensibilidad para comprender las cosas. Y las grandes verdades no entran por la razón, entran por el sentimiento. Por lo tanto, aunar las dos cosas es lo perfecto. Por un lado se razonan los problemas y se buscan soluciones y, por el otro, se ven los caminos de entrada para que la sociedad perciba lo importante de hacer las cosas bien y que funcionen. Por lo tanto arte y ciencia constituyen una combinación perfecta.

Álvaro López: «Como astrónomos nos dedicábamos también a la artesanía, fabricando variados “trastos” para adaptar nuestros instrumentos fotográficos a los telescopios»

El astrónomo Álvaro López estuvo a cargo del Observatorio astronómico de la Universidad de Valencia durante 32 años, periodo donde realizó intensa fotografía de asteroides, se adquirieron por medio de diferentes acuerdos internacionales instrumentos astronómicos y se construyeron mecanismos y dispositivos de investigación científica únicas, hoy valiosas piezas de museo que se aún se conservan y pueden ser interrogadas por su propio creador.

Álvaro López García, Químico y Doctor en física nuclear, fue el director del Observatorio astronómico de la Universidad de Valencia entre los años 1968 al 2000. (Autor fotografía: JuanPablo Méndez)

En el año 1968 Álvaro López García, un joven químico de 27 años de edad, se propuso la ambiciosa tarea de recuperar el Observatorio Astronómico de la Universidad de Valencia, un centro de investigación que en esos años estaba desmantelado y sin uso.

¿Cómo llegó a hacerse cargo del Observatorio de la Universidad de Valencia?

Luego de estudiar química en la Facultad de Ciencias de la avenida Blasco Ibáñez, hice mi doctorado en física nuclear. Apenas acabé fui al Departamento de Matemáticas pues supe que iniciaba la sección de astronomía, y la astronomía era mi pasión juvenil. Al año siguiente hablé con el decano de la Facultad y pude subir a la torre del observatorio, la que estaba hecha un desastre, completamente abandonada.

El observatorio ocupaba la cúpula de arriba, una habitación circular abajo, la torre 1, y un despecho más abajo, la torre 2. Con ayuda de algunos estudiantes comenzamos a ordenar y poner el observatorio en condiciones. Con el tiempo ocupamos la torre 2 y luego la torre 1, y ahí estuvimos hasta el año 2000 cuando se trasladó la facultad y el edificio se convirtió en el rectorado de la Universidad.

(Fuente: Google Earth)

¿Cuál fue la primera tarea que se propuso cuando se hizo cargo del Observatorio?

El primer objetivo fue poner a punto el telescopio refractor Grubb de 15 cm de apertura, además de trabajar en diversas materias con otros estudiantes como cálculos numéricos y cálculo de órbitas, entre otras. Laboramos con un ordenador IBM 1620, un equipo muy usado en ciencia para esa época. Recién en el año 1985 pudimos comenzar con astrometría, específicamente con fotografías de asteroides y cálculo de órbitas, trabajo que se extendió hasta el año 1998 cuando la contaminación lumínica propia de la ciudad imposibilitaba seguir trabajando en esa área.

Modelo IMB 1620, modelo I, Nivel H, del año 1959. (Fuente: Wikipedia)
Fotografía del Telescopio Grubb de Dublín del año 1909. La flecha indica una cámara para fotografía estelar adherida. (Autor fotografía: JuanPablo Méndez)

¿Cómo realizaba las fotografías astronómicas?

Cuando comenzamos con las fotografías utilizamos placas de celuloide de 6×9 dejando atrás las fotografías en soporte de vidrio. Empleamos una cámara de los años 30 que me regaló mi padre, pero como astrónomos nos dedicábamos también a la artesanía, fabricando variados “trastos” para adaptar nuestros instrumentos fotográficos a los telescopios.

Como el telescopio que poseíamos era de un solo tubo, teníamos la dificultad de tomar fotografías de larga exposición, de unos 7 a 10 minutos, y de seguir al objeto celeste al mismo tiempo. Para conseguirlo nos guiábamos con la ayuda de un mapa del cielo con el que buscábamos una estrella fija y la utilizábamos para seguir al asteroide. Contábamos con 5 porta placas o chasis, por lo que podíamos hacer fotografías a 5 asteroides cada noche.

¿Qué hacía con toda la información que reúna?

Toda esa información se fue acumulando y enviando a la revista Minor Planets Circulars (MPCs) de forma periódica, trabajo que se mantiene hasta el día de hoy.

Cámara de madera y metal fabricada por Álvaro López para la fotografía de asteroides.
(Autor fotografía: JuanPablo Méndez)
Mapa estelar utilizado por López para la ubicación de una estrella fija a modo de “ancla” para el seguimiento del asteroide. (Autor fotografía: JuanPablo Méndez)
Celuloide que muestra una captura de un asteroide (en círculo rojo). Los Puntos rojos marcan estrellas fijas alrededor que sirven como referencia. (Autor fotografía: JuanPablo Méndez)
Gráfica con el número de Observaciones anuales enviadas al MPCs por Álvaro López entre 1985 a 1998. Momento en que el Observatorio se trasladó a nuevas oficinas. (Fuente: minorplanetcenter.net)

¿Cómo conseguía apoyo o financiamiento para llevar adelante la investigación?

El año 1989 fui al Observatorio de Pulkovo en San Petersburgo, Rusia, donde hablé el Instituto de Astronomía Teórica, lugar donde se gestó un convenio para la construcción de un telescopio especial para fotografía astronómica, un astrógrafo, y un medidor de placas marca Ascorecord.

Los equipos llegaron en 1991 y se instalaron para su uso, pero lamentablemente no se llegaron a ocupar en profundidad, por incompatibilidad del material y luego por la llegada del CCD para la fotografía a finales de los años 90.

Medidor de placas Ascorecord fabricado en San Petersburgo en el año 1991. (Autor fotografía: JuanPablo Méndez)
Astrógrafo doble. (Fotografía por Ángel Flores. AVA)

En el año 1995 se forjó un convenio entre el Observatorio Astronómico de la UV y la Asociación Valenciana de Astronomía. ¿Cómo se originó la idea?

En el año 1971 comenzamos a publicar en el periódico una página sobre efemérides astronómicas, “el cielos en el mes de…”, además de promover las visitas públicas al Observatorio. Fue así como todos los meses llegaban unas 20 personas, las que luego comenzaron a reunirse por cuenta propia para luego formar la Asociación Valenciana de Astronomía (AVA). Muchos años después, en 1995, y tras una conferencia que ofrecí en el planetario de Castellón, fuimos a comer con unos miembros del AVA, cena donde surgió la idea de montar de manera compartida entre la Universidad de Valencia y AVA, un Observatorio astronómico alejado de la contaminación lumínica.

Ese mismo año se dio inicio a este convenio donde la Universidad ofrecería los telescopios y AVA otorgaría el lugar y construiría los edificios para las instalaciones. De esta forma nació el Centro Astronómico Alto Turia (CAAT) y un convenio que duraría hasta el año 2006, cuando la Universidad decidió construir su propio Observatorio, a solo dos kilómetros de distancia en la misma localidad de Aras de los Olmos.

Centro Astronómico Alto Turia en la localidad de Aras de los Olmos. La cúpula de la derecha albergó el astrógrafo doble entre 1998 a 2005. (Fotografía por Ángel Flores. AVA)

En el año 1973 realizó su primera publicación en la revista Urania de Barcelona “Actividades del Observatorio Astronómico de la Facultad de Ciencias de Valencia: 1968-1973”. ¿Algún proyecto hoy en día?

Si bien trabajé en el Observatorio realizando fotografías de asteroides hasta el año 2011 cuando finalmente me jubilé, hoy continúo realizando observaciones a distancia. El telescopio que ahí se encuentra funciona automáticamente y es capaz de enviarme toda la información por internet a la computadora de mi casa, datos con los que puedo trabajar 3 o 4 días.

Además estoy escribiendo mi tercer libro sobre asteroides, astrometría y astronomía esférica, textos que recogen mis asignaturas realizadas como profesor. Espero sea una memoria, una autobiografía de mi trabajo de todos estos años.

Mariano Higes: “Venden a la opinión pública que al prohibir determinados insecticidas se soluciona el problema, pero las colmenas se siguen muriendo”

El investigador en patología apícola considera necesario atajar la desaparición de los polinizadores atendiendo a las características climáticas y agrícolas de cada región.

Mariano Higes Pascual, doctor en Veterinaria por la Universidad Complutense de Madrid (UCM), colabora con el departamento de Sanidad Animal de dicha facultad y es responsable del Área de Patología Apícola del Centro de Investigación Apícola y Agroambiental de Marchamalo (CIAPA, Guadalajara), adscrito al Instituto Regional de Investigación y Desarrollo Agroalimentario y Forestal (IRIAF) de la Consejería de Agricultura de Castilla-La Mancha. Desde este centro, al que accedió como funcionario en el año 1992, dirigió su propia tesis doctoral sobre el parásito Varroa destructor de la abeja melífera y descubrió junto a su grupo a uno de los patógenos más dañinos para estos insectos a nivel mundial, Nosema ceranae, procedente de Asia. En el CIAPA, cuyo aspecto exterior es el de unas apacibles instalaciones agrícolas o ganaderas, Higes trabaja junto a su grupo en un sofisticado laboratorio al que llegan colonias de abejas enfermas, colmenas contaminadas por múltiples pesticidas y apicultores preocupados por la salud de los polinizadores, a quienes tratan de dar soluciones y respuestas.

Mariano Higes Pascual. Imagen cedida

¿Fue su llegada al CIAPA el inicio de una nueva etapa para este centro?

Cuando llegué como funcionario en 1992 apenas había investigación ni contábamos con los laboratorios que hay ahora. El centro se creó para dar respuesta al sector apícola de la Alcarria que quería que la miel tuviera Denominación de Origen y demandaba cursos de formación y ayuda contra la Varroa, que entró en 1985 en España. Por aquel entonces se hacía poca investigación en este centro, pero yo decidí llevar a cabo aquí mi doctorado, que duró once años, y leí la tesis en 2008. Desde que mi compañera Raquel Martín entró en 1999 con una beca postdoctoral, empezamos a crear un grupo de investigación con el que logramos el descubrimiento que nos puso en el punto de mira de la investigación en patología apícola a nivel mundial: la presencia del hongo microsporidio [parásito intracelular de los animales que produce pequeñas esporas] Nosema ceranae, de origen asiático, en Apis mellifera, la abeja europea.

¿Cómo llega el Centro Apícola de Marchamalo a convertirse en uno de los referentes mundiales en el ámbito de la salud de las abejas?

Sospechábamos de N. ceranae desde 2000, en la etapa en que se empezaron a morir las colmenas masivamente. Por aquel entonces Varroa era el principal parásito de las abejas, prácticamente el único conocido hasta el momento, pero al analizar las muestras procedentes de colmenas arrasadas encontramos esporas de microsporidio en el aparato digestivo de las abejas. Entonces solo se conocía a Nosema apis, un parásito ya descrito con el que la abeja europea lleva conviviendo mucho tiempo, y los biólogos nos dijeron que tenía que ser esa especie, quizá con algún tipo de mutación. Pero los síntomas clínicos eran otros, así como su fenología. El problema es que solo existía una publicación de China describiendo a N. ceranae en su abeja autóctona, Apis cerana, y no había ningún método de detección a nuestro alcance.

¿Qué hicieron entonces para comprobar sus sospechas?

Logramos dar con una solución cuando el laboratorio adquirió la primera máquina de PCR [por las siglas en inglés de Reacción en Cadena de la Polimerasa, también llamada termociclador] en 2003. Todavía no era común emplear la secuenciación masiva de ADN para detectar la presencia de patógenos concretos en una muestra, por eso tuvimos que diseñar nuestros propios primers [pequeñas secuencias de ADN que inician la reacción de secuenciación y que son específicas de cada especie]de N. ceranae. En cuanto los tuvimos, empezamos a poner las muestras en el termociclador y en las primeras reacciones dieron positivo: N. ceranae estaba parasitando a la abeja melífera europea. En 2005, comunicamos la presencia de este parásito asiático en nuestras abejas y en ese momento saltamos al foco internacional.

«Cuando se nos ocurrió sugerir que el causante de esta mortalidad podía ser Nosema ceranae, tuvimos a todo el sector en contra»

¿Cómo respondió la comunidad científica ante este descubrimiento?

La respuestas de los grupos de investigación que trabajan en nuestro ámbito fue en parte sorprendente, pero también esperable. A finales de los años noventa se empezó a detectar en Francia el fenómeno de mortalidad masiva de las abejas, el llamado “síndrome de despoblación de las colmenas”. Desde el principio, se asoció a los pesticidas neonicotinoides que se habían empezado a utilizar allí. A raíz de esto el sector apícola empezó a pedir indemnizaciones y, cuando se nos ocurrió sugerir que el causante de esta mortalidad podía ser N. ceranae, tuvimos a todo el sector en contra. Además, algunos grupos de investigación se alinearon con la postura de los neonicotinoides e iban a destajo contra quienes sostenían otras hipótesis.

¿Cómo es posible que la comunidad científica se oponga a unos resultados que han sido demostrados?

Muchos de nuestros compañeros no quisieron darle bola a N. ceranae porque cuando alguien se ha convertido en referente saben que si sale un proyecto o publican cualquier trabajo al respecto es esa persona la que va a revisarlos. Si son más competentes en otro problema, como Varroa, por ejemplo, tratan de argumentar que ese problema es el fundamental para que cuando salgan las líneas de investigación se vean favorecidos. También hay competencia por la autoría de los descubrimientos y luchas por el reconocimiento. Pero nosotros trabajamos con muchos grupos de muchas universidades de España (en la Complutense, en Murcia, en Castilla y León…) y acabamos entrando en contacto con quien trabaja con Nosema y, en conjunto, formamos una red muy grande.

«No existen registros históricos de prevalencia de las enfermedades que afectan a las abejas, por tanto, hasta hace poco no hemos tenido con qué comparar las epidemias»

Junto a N. ceranae existen otros parásitos, entre ellos diversos virus, que se hospedan en la abeja melífera europea y otros polinizadores. ¿Qué saben a día de hoy de su presencia en nuestras colmenas?

La muerte masiva de colonias que tuvo lugar a principios de los 2000, sobre todo en el sur de Europa, probablemente se debió en gran medida al ataque de N. ceranae, porque la prevalencia era muy alta entonces. Sin embargo, y aunque los datos sobre N. ceranae siguen siendo muy similares, no podemos saber si ahora se están dando las mismas circunstancias que entonces o si es otro parásito el que más está influyendo, porque no existen registros históricos de prevalencia de las enfermedades que afectaron a las abejas en el pasado y, por tanto, cuando nos hemos encontrado frente a una infección por Nosema, por Varroa o por algún virus, no hemos tenido con qué comparar la epidemia. Por esta razón hemos ido haciendo una serie de estudios para empezar a tener esos datos poblacionales de los distintos parásitos a lo largo del tiempo y empezar a comprender sus fluctuaciones.

Mariano Higes mostrando un panal. Imagen cedida

¿Y desde cuándo están llevando a cabo esos estudios?

El primer estudio a nivel nacional lo hicimos en los años 2006 y 2007 y el segundo fue en 2010 y 2011. Los datos recogidos nos permitieron ver que N. ceranae y Varroa destructor tenían un patrón poblacional ascendente, mientras que N. apis estaba estabilizado. También detectamos la presencia de diversos virus poco estudiados hasta entonces, como el de las alas deformes [DWV por sus siglas en inglés] y el de las realeras negras e, incluso, tripanosomátidos, como Lotmaria passim, sobre el que estamos trabajando ahora. El último de estos estudios lo hemos hecho con muestras de 2014 y hemos visto que N. ceranae tiene ya una prevalencia estable del 75%.

Pero las colmenas no solo sufren la invasión de todos estos patógenos, sino que además se enfrentan también a los pesticidas y probablemente otros químicos que se emplean en agricultura hoy en día. ¿Cuáles son y cómo llegan hasta las colmenas?

En el proyecto de 2014 también analizamos las colmenas mediante muestras de polen y de cera, que son bioacumuladores de sustancias químicas, y en ellas hemos encontrado acaricidas como cumafós y fluvalinato, o los insecticidas clorfenvinfos y clorpirifos, que los apicultores aplican tratando de controlar los patógenos. Además, las láminas de cera que se compran y se meten en las colmenas ya vienen llenas de contaminantes, como los pesticidas organofosforados y piretroides, que alteran el metabolismo de las abejas impidiendo su normal desarrollo. Es sorprendente, pero hasta ahora parece que nadie se ha planteado el daño que estas sustancias pueden causar o han preferido mirar para otro lado.

Cabe preguntarse ahora si han estudiado ya las posibles interacciones entre todos estos agentes, naturales y químicos, que están asolando las colmenas desde tantos frentes distintos. ¿Qué puede contar sobre ello?

Efectivamente, una vez que hemos identificado a todos los patógenos de las abejas, vamos a comenzar un proyecto que se va a centrar en los efectos de las interacciones entre los más frecuentes. Probablemente, la causa de la destrucción de las colmenas sea la suma de todo. Todas las abejas tienen ahora mismo el DWV insertado en su genoma, por ejemplo, del mismo modo que nosotros tenemos el de la varicela. Lo que sucede es que, cuando bajan sus defensas por la acción de Varroa o Nosema, el virus se replica y provoca una infección abierta. En el nuevo proyecto también queremos comprobar la toxicidad crónica de los pesticidas, las sinergias entre ellos y cómo interfieren con los patógenos, mediante infecciones controladas en laboratorio, primero, y con experimentos en condiciones controladas en el campo, después. Vamos a tratar de eliminar los plaguicidas de la cera para ver si así podemos controlar mejor a los principales patógenos. Si esto es posible, podremos sugerir la creación de una normativa que limite la aparición de residuos en la cera.

«Cuando acabé mi ponencia y pregunté por la causa de la prohibición de tres neonicotinoides únicamente, el comisario europeo solo me dijo que se trataba de una decisión política»

De entre todos los pesticidas parece que los neonicotinoides se han ganado la aversión de gran parte del sector apícola y de los ecologistas y el público general también, pero usted aún no los ha mencionado ¿Qué opina de su prohibición?

Lo que ha sucedido con los neonicotinoides es realmente curioso. Cuando se puso el foco en estos pesticidas en Francia, a finales de los noventa, el Ministerio de Agricultura francés decidió prohibirlos antes de que se tuvieran evidencias científicas, que llegaron en 2001. Probablemente querían vengarse de Bayer, una de las empresas fabricantes de esos pesticidas, que acababa de absorber a su rival francesa, Rhône-Poulenc. Pero realmente no sé qué habrá detrás de esas decisiones y me preocupa. De hecho, el año pasado tuve la oportunidad de preguntarlo en la Comisión Europea, cuando nos llamaron a varios científicos el día anterior a la votación de todos los países contra los neonicotinoides. En mi presentación mostré al comisario que en la literatura científica había la misma cantidad de información sobre los neonicotinoides que sobre Nosema, Varroa u otras posibles causas del síndrome de despoblamiento de las colmenas. Mostré mi sorpresa por que se pusiera el foco solo en tres de los muchos plaguicidas existentes. Cuando al acabar pregunté por la causa de esta prohibición, el comisario solo me dijo que era una decisión política. Están vendiendo a la opinión pública que al prohibir los neonicotinoides se soluciona el problema y eso es falso porque las colmenas se siguen muriendo.

Entonces, ¿los neonicotinoides no deberían preocuparnos aquí pese a la alarma lanzada desde la Comisión Europea en 2018?

En nuestras colmenas los neonicotinoides no tienen un peso decisivo, lo cual es esperable por la estructura agraria que tenemos en España, en la que predominan el olivo, la vid y el cereal, que no se tratan con neonicotinoides Es más, ninguna de las revisiones bibliográficas sobre la presencia de residuos de plaguicidas en las colmenas dice que los neonicotinoides sean los más prevalentes. Realmente todas ellas apuntan a los acaricidas y a los insecticidas organofosforados, entre otros problemas, pero se decidió prohibir algo que, aunque quizá en determinadas zonas está causando el descenso de las poblaciones de abejorros y contaminando el agua de consumo humano, no es el mayor de los problemas en lo que respecta a las abejas. Como investigador me produce una gran desmoralización que se esté gastando tanto dinero en generar mucho conocimiento al respecto y que a nivel político solo se haya tomado una decisión sesgada, cuando en Europa que requieren medidas políticas igual de firmes para luchar contra Varroa, Nosema y muchos otros insecticidas. Y el conflicto que veo a medio plazo es que, si sigue esta tendencia, se van a ir prohibiendo en cadena más sustancias y sería importante saber en qué va a consistir la búsqueda de alternativas.

Si esto es así, ¿cuál cree que será la alternativa cuando ya se hayan prohibido todos los plaguicidas?

Aunque sé que no es un asunto fácil, mi visión es que en Europa, como en el resto del mundo, vamos a tener que seguir produciendo alimento para mucha gente y con la agricultura actual y el escenario que plantea el cambio climático, con plagas cada vez más difíciles de combatir, se va a tener que seguir utilizando algún producto. Si no hay plaguicidas, porque se hayan ido prohibiendo poco a poco, la alternativa que encuentro es el uso de plantas modificadas genéticamente. Hasta ahora, en Europa están teniendo muchas restricciones, pero si van prohibiendo todos los insecticidas, no va a quedar otra que emplearlas, ¿Y si se abre la mano en el uso de los transgénicos, va a ser más o menos perjudicial para los polinizadores? Hay datos que indican que no, otros que sí. Acabando con una parte del problema, quizá estamos generando otros.

«La apicultura profesional está en el sur, con mayor número de colmenas y con unas condiciones climáticas y una práctica apícola distintas a las del norte, más tradicional, pero contaminado por otras sustancias»

Pero, entonces, ¿cuál sería un buen enfoque para estudiar y abordar el conflicto entre prácticas agrícolas,apicultura y patógenos?

Actualmente ya se están intentando estandarizar protocolos de trabajo a nivel europeo y se están haciendo modelos matemáticos para predecir el comportamiento de los patógenos y de las colonias según las condiciones ambientales. Todos estamos buscando un modelo en el que, introduciendo la cantidad de patógenos que haya en una población, obtengamos el valor de un índice de salud de la colmena. El principal problema es que no se está llevando a cabo una investigación regionalizada, que encuentro necesaria por las diferencias climáticas y agrícolas que existen entre el norte y el sur de Europa. En el sur encontramos una apicultura profesional, con colmenares más grandes, mucha cría, mucha Varroa y un solo pico de crecimiento anual ligado al clima, que favorece la prevalencia de N. ceranae. Además, la agricultura de secano se ha tratado con gran cantidad de herbicidas. Por su parte, en el norte de Europa la práctica apícola es más tradicional y menos intensiva. Aquí Nosema es menos virulenta que en el sur y todavía está bastante presente N. apis, pero tienen muchos problemas con sustancias que han contaminado el suelo y las aguas por su abundante uso en los cultivos intensivos de colza. Sin embargo, ahora ha salido Horizonte2020, el Programa Marco de la Unión Europea que va a destinar siete u ocho millones de euros a estos proyectos, y creo que los gestores no tienen intención de que se aplique este enfoque regional.

Mariano Higes tomando muestras en un campo de girasoles. Imagen cedida

Si usted pudiera hacer una propuesta, ¿cómo salvaría a las abejas?

Yo propondría que no desaparecieran las ovejas del campo, que se mantuviera el sistema agrario que ha habido aquí siempre, porque tendría un impacto mucho más positivo para el medio ambiente que echar herbicidas. Con la presencia de ganado se controla la aparición de las hierbas no deseadas, así como la aparición de muchas plagas, que ahora mismo proliferan, entre otros motivos, por la madera que queda putrefacta en el campo. En mi pueblo, cuando estaban las ovejas, los romeros florecían, el espliego también… Y ahora hay flora invasiva y el agricultor, como ya no pasan los rebaños después de cosechar, tiene que echar más herbicidas. Estos cambios en el uso tradicional del campo nos llevan hacia unas técnicas agrícolas diferentes que tienen impacto sobre los polinizadores. Por otro lado, las abejas son unos animales muy resilientes y probablemente puedan amortiguar los efectos de la contaminación ambiental mucho más fácilmente que otros polinizadores. Creo que son mucho más sensibles los saltamontes, las mariposas, los abejorros. Si quedaran solo las abejas, podrían seguir cumpliendo una parte de su trabajo, pero hay gran cantidad de insectos en peligro de extinción que cumplen muchas otras funciones aparte de la de polinización y ahí habría que poner también el foco.

¿Cómo se imagina el mundo si no logran frenar la desaparición de las abejas?

No me suelo poner catastrofista. Están más afectados otros polinizadores que las abejas. Las de las abejas son colonias muy resilientes y que están manejadas por un apicultor, que si se muere una compra otra. En un caso extremo lo que en España podría pasar es que en lugar de haber tres millones de colmenas hubiera uno, porque ni el medio ambiente soporte una carga mayor y desaparezcan flores. Se están perdiendo muchos ecosistemas, por la sequía pero también por muchas prácticas agrarias. Hemos cambiado las mulas por tractores de 500 caballos. Te dan dinero por cada hectárea en la que echas semillas de girasol aunque no lo recojas y le echan tratamientos. Y sí creo que puede influir el uso de los herbicidas totales que se están cargando muchos ecosistemas, por lo que el problema es global y va mucho más allá de las colonias de abejas, pero parece que no interesa todavía afrontar con decisión la situación que se nos viene encima.

Más del 60% de las mujeres embarazadas del norte de España no llega al nivel recomendado de vitamina D

Un déficit de este compuesto puede agravar la aparición de enfermedades cardiovasculares, cáncer o diabetes

El 62% de las mujeres asturianas embarazadas que forman parte del estudio presentan niveles inferiores de vitamina D a los recomendados por los expertos. Del total de las gestantes, el 27% tienen deficiencia, es decir, que carecen de vitamina D y el 35% insuficiencia, no llegan al mínimo recomendado, según el estudio de Prevalencia de deficiencia e insuficiencia de vitamina D y factores asociados en mujeres embarazadas del norte de España, Ana Cristina Rodríguez-Dehli y colaboradores.

Comparación de los niveles de Vitamina D en verano y durante todo el año// Fuente: estudio

El estudio establece que el nivel de suficiencia recomendado de esta vitamina es a partir de 30 ng/ml  (nanogramos por mililitro). Además, la mayoría de expertos aceptan la definición de deficiencia por debajo de 20 ng/ml e insuficiencia entre 20-29 ng/ml. Sin embargo, existe cierta controversia de cuáles son los niveles óptimos.

La vitamina D es esencial en la absorción de calcio y fósforo del organismo, es como un pegamento que hace que el cuerpo pueda absorber mejor estos componentes. Son muchas las investigaciones que se han realizado sobre este compuesto, y los resultados muestran que un déficit del mismo podrían ser un agravante en la aparición de enfermedades como diabetes tipo 1 y 2, enfermedades cardiovasculares, infecciones, obesidad o asma. Así como también, algunos tipos de cáncer como el de colon, mama, próstata y ovario y de ciertas enfermedades neurológicas como la depresión o esclerosis múltiple. El estudio revela que las mujeres con sobrepeso y las menores de 25 años son un grupo más propenso a sufrir la carencia de este compuesto. Por consiguiente, niveles bajos de esta vitamina durante la gestación se han asociado con un aumento de efectos adversos en el desarrollo y crecimiento fetal; como son  la preeclampsia – la hipertensión arterial durante el embarazo – o la diabetes gestacional.

La vitamina D es esencial en la absorción de calcio y fósforo del organismo

La mejor forma de acceder a esta vitamina es mediante la exposición solar, siendo, por tanto, su limitada exposición la primera causa de su deficiencia. como es el caso del norte de España, donde escasea gran parte del año. Pero existen complementos y alimentos, como algunos pescados azules, lácteos o huevos que la contienen, y cuyo consumo es recomendable en este tipo de circunstancias.

Cada vez hay más estudios que plantean la necesidad de ingerir este complemento durante la gestación, aunque sin evidencias exactas que garanticen ni establezcan cuál es la dosis adecuada.

Para obtener los resultado se ha analizado a mujeres embarazada de 10 a 13 semanas y de edades comprendidas entre 18 y 42 años mediante un cálculo analizando la dieta  de las participantes – con un cuestionario de más de cien preguntas – y los suplementos que tomaban. Sin embargo, tan solo el 8,6% afirmaron consumir esta vitamina. No obstante, esto no sucede solo en las embarazadas, puesto que en los últimos 10-20 años se ha observado una tendencia mundial a la caída de los niveles de vitamina D, sobre todo en la población más joven.

Laura Torralba Córcoles y Francesca Zoicas

Robert Jütte: “Homeopathy is not equal to a placebo, it is the best placebo imaginable”

Robert Jütte (Warstein, 1954) is Director of the Institute for the History of Medicine of the Robert Bosch Foundation and Adjunct Professor of History at the University of Stuttgart. Besides working as an editor for the medical-historical magazine Medizin, Gesellschaft und Geschichte (Medicine, Society and History) and coeditor of the Jewish history magazine Aschkenas , Jütte is chairman of the steering committee of the Scientific Board of the German Medical Association (Wissenschaftlicher Beirat der Bundesärztekammer). In midst of a controversy that has surrounded the alternative medicine practices in Spain, the recently awarded Doctor of Hebrew Letters honoris causa sits down to discuss, after his conference at the University of Valencia, the placebo effect and the homeopathic treatment.


Robert Jütte at the University of Valencia – Rosa Molina

Do you think placebos can, not only relieve pain, but actually heal a patient?

Absolutely. And there are objective results which you can see in the laboratory, in blood tests, etc. They won’t cure everything, but pain, for example, can be treated with placebos. Unfortunately, there are not many studies showing in which clinical cases it would be okay to treat with a placebo but there is evidence that patients suffering from pain, depression, chronic fatigue and rheumatic diseases have gotten better due to this type of treatment. 

How long does the placebo effect last?

People believe that placebos do not work in the long term but this is not particularly true. Trials with sham knee arthroscopy surgery for example, indicate that placebos can have a long term effect lasting up to a year, producing, by the way, the same positive results as conventional surgery.

Knowing what we know now about how powerful placebo effects can be, do we have to question the outcomes of previous clinical trials not involving a placebo group? Should we look back and question past research statements?

I wouldn’t want to describe it as revolutionary but the deeper knowledge on the placebo effects definitely challenges medicine, as well as pharmaceutical and biomedical studies. Why? Because it works, there is nothing in it, but it works.  The former conception in which placebos where used just to prove that a certain drug worked better has to be questioned. We need to be very skeptical and look back into past studies to see if the methodology was correct and if negative results concerning the active drugs tested were completely published. Also, if the difference between the drug and the placebo is not significant then the use of the latter should be considered as a therapeutic alternative. Placebos are not only cheaper, but they have also no related significant side adverse effects.

Why should people pay to be prescribed a placebo if they could take a less expensive “drugstore candy” and, if believing hard enough that it will work, get the same effect?

Many factors determine if a placebo works or not. Besides the importance of the therapeutic context related to doctor/patient relationship, the drug itself has to have certain physical characteristics. There are studies that show that people trust blue pills more than pills of other colors, for example. The same happens with size and shape. I once had a discussion with a health economist in Germany who said that if there is enough scientific evidence that prove that placebos work then the health insurance should pay for it, whether it has an active component or not. But the real question is not who pays for it but who produces it. It would be necessary to cooperate with the pharmaceutical industry which will certainly not be happy about it.

Why not? Will the pharmaceutical companies be worried that the demand for other more expensive drugs would decrease?

The pharmaceutical industry would face a mayor structural problem. Big pharma has already been criticized for their incredibly high price. How would they be able to justify the price of a pill that has no expensive active components compared to one that does? Furthermore, placebos could not be sold under a brand name. So we might face the same problems as with biosimilar drugs, which are those identical copies of an original biological product but manufactured by a different, usually not so renowned, company. Studies show that if a drug is cheaper and is not sold under a trade name, people tend to believe that it is of a lower quality and so it will not work as well. You see? We already have encountered this problem in clinical practice. In case of a good doctor/patient relationships, people would take the biosimilar drugs if their physicians tells them convincingly to do so, and explains them that they work the same.

«… five minutes can be enough if the patient feels that he is being listened to. It is about the quality not the quantity of the communication.»

You have been mentioning the importance of the doctor/patient relationship. In real life whether you feel empathy with your doctor or not is not something that can be controlled by the health care system. How do you think this limits the possibility of using placebos in day to day medical practice?

You don’t meet the patient in a vacuum. The patient is part of a medical and healthcare system that needs to be improved. Giving more time for doctors not to speak but to listen to their patients can make a huge difference. And I am not talking about hours. Research has shown that even five minutes can be enough if the patient feels that he is being listened to. It is about the quality not the quantity of the communication. Nowadays doctors hide behind the laptop screen, typing the diagnosis and the prescription, while the patient sits there, waiting. On the other hand, the users of the healthcare system, the patients, have the responsibility to cooperate and be sure to have trust in with their doctors. People shouldn’t keep on going to a doctor they don’t feel comfortable with.

Interviewed at Colegio Major Rector Peset -Rosa Molina

Do you think one day placebos will be prescribed by a doctor as any other medicine?

This can only work if we have more of this innovative research using the open label approach in which the doctor tells the patient: “You are getting a placebo. You don’t know what a placebo is? It is just a sugar pill!” And this works. Maybe not in every case but so far we have eight studies with positive results for different kind of illnesses like depression, migraine, attention deficit disorder, among others.  The experimental design shows that even if you tell the patient that it is placebo, it works.

Is there any resistance from the scientific community to take placebos seriously?

Despite the fascinating promising results that have been published in major journals , there are still many doctors who think that the old way works better. After you have studied at least 5 years at a medical school plus the specialization and practical training, you are convinced that it can´t be possible to get the same results from doing a little bit of voodoo as by applying the knowledge you got from medical school. The placebo studies done on the diseases previously mentioned show that almost the same effects can be achieved by using the placebo effect,  this is a shocking insight, I can´t blame them, but they need to be more open minded about other available therapeutic solutions.

«I see this anti-homeopathic waves coming and going. Sometimes it comes just when the journals do not have anything to report so they go back to writing about it.»

Some of the practices of complementary and alternative medicine have recently become a controversial topic in Spain. At the end of last year the Spanish government released a plan to fight against any non-evidence-based medical practice. Among those practices homeopathy is one of the most known and used. What is your opinion on the governmental regulation of this type of practices?

As a historian I have to say that since the 19th century governments have tried to ban homeopathy and it just doesn’t work. Homeopathy has been kept alive by the patients who believe that it works for them and if they have difficulties in getting it funded and distributed they will find a way. It is the patient who decides what he wants to get and the only governmental duty is to make sure that the homeopaths are trained professionals. In India, for example, a homeopath can´t prescribe aspirin and doctors cannot prescribe a homeopathic treatment. Each one with its own specialty.  The patient is the one to decide to trust a homeopathic physician or a conventional doctor.  I see this anti-homeopathic waves coming and going. Sometimes it comes just when the journals do not have anything to report so they go back to writing about it.

Do you believe that homeopathy is in some way the result of a placebo effect?

Homeopathy is not equal to a placebo, but it achieves the best placebo effect imaginable. It is highly individualized and it does not only apply to highly diluted drugs. The father of homeopathy, Samuel Hahnemann, always said that homeopathic treatment has three pillars on which it stands: the drugs, the full trust in the doctor and his therapy and dietetics (including life style changes). Marriage, exercise and a good sexual life are all factors which contribute to improve one´s health or to recover from illness. So homeopathy is actually a combination of several factors that makes it the perfect placebo.

How do you envision the use of both placebos and homeopathy in the future?

I hope that due to the placebo studies we will be less confident of what we think we know. The most important thing is to start having a pragmatic approach to healing and to acknowledge that despite all the fantastic discoveries in biomedicine, there are other treatments available. We shouldn’t forget that the majority of illnesses treated by doctors, especially by general practitioners, are not severe cases and that we should use any approach available to alleviate and help this patients. Placebo, homeopathy and other alternative methods should play an important role in medicine. Otherwise we will not cope with the demographic development of people getting older and sicker, where the only solution seems to be the use of expensive drugs that, in the long run, no health care system can actually afford anymore.

Antonio Peñalver: «Lo novedoso de este proyecto es que los modelos de predicción económica pueden aplicarse también en medicina con resultados muy interesantes»

El profesor de la UMH participa en un proyecto de investigación, en colaboración con la Universidad de Murcia, denominado Desarrollo y estudio de algoritmos para búsqueda del mejor modelo econométrico en problemas de ciencias de la salud.

Antonio Peñalver, subdirector del Grado en Ingeniería Informática en Tecnologías de la Información de la UMH, lleva ligado a la universidad más de una década, aunque fue el pasado 2018, cuando consiguió su plaza como profesor titular. Además de sus clases a alumnos de grado, la participación en proyectos de investigación es la segunda vía por la que este profesor, nacido en Orihuela (Alicante), desarrolla su carrera profesional. Actualmente lo hace en un equipo multidisciplinar formado por investigadores de la rama sanitaria, otros de estadística y matemáticas y dos de la rama de informática-él es uno de ellos- en un proyecto en el que economía y salud están íntimamente relacionados, financiado por el Ministerio de Economía y Competitividad.  

Los modelos econométricos predicen magnitudes económicas a partir de cambios en las variables del modelo. La subida de un tipo de interés y las modificaciones de esas variables pueden dar al traste con la economía de un país. En ciencias de la salud,  la aplicación de estos modelos, pueden ayudar a una pareja a mejorar sus condiciones fértiles de cara a poder concebir un hijo. Un problema, el de la infertilidad, que afecta en España a unas 800.000 parejas. Actualmente el 3% de los bebés españoles nacen mediante reproducción asistida. Cuando finalice este proyecto, dentro de algo más de año, los profesionales de la salud podrán trabajar con una herramienta que les proporcionará datos precisos para reducir este problema. Se trata de un proyecto innovador, el primero de este tipo que se lleva a cabo en una universidad, que puede ser útil cuando sea posible su aplicación real en hospitales.

El profesor Antonio Peñalver

P. ¿De dónde surgió la idea del proyecto? ¿Hay algún antecedente sobre esta investigación?

R. Hay otros proyectos que aplican modelos econométricos a problemas de salud en aspectos muy puntuales, pero un algoritmo que encuentre el mejor modelo econométrico es novedoso, no se había planteado antes. Es lo que hace diferente a nuestro proyecto y lo que determinó que contáramos con la financiación necesaria.

P. En este proyecto están presentes cuatro aspectos de las ciencias de la salud, vinculados todos ellos a problemas de reproducción humana ¿Por qué los problemas de infertilidad?

R. Porque las personas que han mostrado interés en trabajar con estos modelos han sido profesionales de estas ramas. No es que los algoritmos y técnicas que presentamos y con las que trabajamos solo sirvan para estos problemas, es simplemente porque algunos miembros del equipo habían trabajado previamente en investigaciones similares y estábamos en contacto con algunos equipos de trabajo que desarrollaban sus acciones en esta temática.

P. Cualquier problema de salud latente, ¿podría beneficiarse de los avances de esta investigación?

R. La idea es que, el programa, una vez entrenado, sea capaz de encontrar el mejor modelo que explique datos de cualquier tipo y pueda aplicarse a cualquier problema relacionado con la sanidad, no solo a los relacionados con la infertilidad, claro

P. Se trata de poder ofrecer al paciente un tratamiento personalizado ¿de qué manera?

R. Pretendemos que un investigador, que tiene una base de datos de pacientes, utilice una interfaz de usuario sencilla en la que crea un proyecto. Para darle forma al mismo, sube una tabla con los datos que recoge de cada una de los pacientes, etiqueta cada una de las variables que va a tratar, e incluso puede poner condiciones al modelo, marcando algunas de ellas como obligatorias. Luego el programa recoge toda la información, hace una llamada al equipo que hace los cálculos y, dependiendo del tamaño del problema, esta decide si lo resuelve desde un computador normal o desde un supercomputador. Dependiendo de la complejidad, los resultados pueden estar listos en unas horas o pueden tardar incluso un día. Cuando el programa detecta que ya se ha hecho el trabajo, envía un correo electrónico al investigador para que los consulte y analice.

«El objetivo final es que el profesional de ciencias de la salud tenga una herramienta a la que introduce los datos y ésta le encuentra el mejor modelo a aplicar»

P. ¿Cómo es esa interfaz?

R. “Hemos creado una interfaz de uso sencillo donde pueden introducirse las variables”, usarlas, etiquetarlas y controlarlas según sus necesidades. Una herramienta para el profesional donde puede realizar pruebas. Lo que él observa es una interfaz de usuario gráfica donde puede apreciar qué consecuencias tiene introducir un determinado shock en una de las variables.

Interfaz de usuario. Pantalla de inicio/ Fuente: Antonio Peñalver

Contiene el número de resultados de la aplicación, el número de proyectos de la aplicación; número de modelos de la aplicación; número de usuarios de la aplicación.
Gráfica circular, mostrando los proyectos y los modelos de la aplicación por mes y por año.
Gráfica de barras, mostrando un ranking entre el número de proyectos y el número de modelos.
Tabla con los últimos resultados de los proyectos de la aplicación.

P. ¿Qué supone la introducción de este shock?

R. Muy sencillo. Queremos saber qué le sucede al paciente si se le sube la dosis de antibiótico, ese el shock, el aumento de esta variable. ¿Qué pasa entonces? ¿mejora su presión arterial?- que es otra variable- ¿desciende la temperatura?- otra variable- ¿o sigue todo como hasta ahora? Lo bueno es que se pueden hacer averiguaciones previas a cómo se comportará un cuerpo ante modificaciones en la dosis de un medicamento, por ejemplo. Comprobar cuál será la respuesta del paciente y decidir después si llevar a cabo el tratamiento. El objetivo final es que el profesional de ciencias de la salud tenga una herramienta a la que introduce los datos y ésta le encuentra el mejor modelo a aplicar.

«Esos modelos que se han utilizado tradicionalmente en economía no se le había ocurrido a nadie emplearlos también en medicina. Algo que se lleva haciendo hace más de cincuenta años en el ámbito de la economía puede aplicarse a un contexto diferente»

P. Han necesitado la colaboración de especialistas en supercomputación y de una infraestructura muy concreta ¿Cómo es trabajar con una supercomputadora?

R. Trabajamos con una supercomputadora situada en la Universidad de Murcia, en un centro específico que cuenta con esta infraestructura, aunque la parte de supercomputación es solo una parte del proyecto.En esta investigación se manejan una cantidad de variables muy altas lo cual dificulta la búsqueda del mejor modelo econométrico. Requiere una capacidad de cómputo muy alta, hasta el punto de que un ordenador normal puede no ser capaz de proporcionar una respuesta en un plazo de tiempo determinado. Ahí entra la función de la supercomputación. Al final, “esta máquina no es más que un ordenador que tiene muchos procesadores y es capaz de repartir el trabajo a realizar entre todos ellos, por eso los resultados se obtienen en menor tiempo. Es capaz de probar millones de algoritmos diferentes para encontrar el mejor modelo, la mejor solución a cada uno de los casos”.

P. ¿Qué cantidad de datos y operaciones pueden hacerse al día con ella?

R. La cantidad de operaciones que realiza uno de estos supercomputadores se mide en Mega Instrucciones por Segundo (MIPS) y depende mucho de la naturaleza de la máquina. Pero lo fundamental es el número de procesadores que tiene. Aunque, en realidad, ese aspecto para el equipo no es relevante porque nosotros no innovamos en supercomputación, simplemente lo utilizamos para que haga cálculos a la mayor velocidad posible.

Supercomputador Ben Arabí
Parque Tecnológico de la Universidad de Murcia/Fuente: Gabinete de prensa UMU

P. ¿Cuál es el papel del médico o facultativo en esta cuestión?

R. Sus conocimientos son esenciales para trabajar con todas las variables. Nosotros no somos expertos en medicina y no sabemos qué modelos hay que emplear. El que debe tener una intuición sobre lo que puede afectar o no al paciente es el facultativo. El perfil del especialista al que va dirigido es el de un investigador y no tanto un facultativo de atención primaria. El objetivo final es que, el profesional de ciencias de la salud tenga una herramienta a la que introduce los datos y ésta le encuentra el mejor modelo a aplicar.

«No buscamos una patente de software con la que enriquecernos.
Lo que queremos es que cualquiera que lo necesite lo pueda utilizar
«

P. Todo se basa en la aplicación de modelos econométricos a problemas de salud ¿se podría concluir que son dos aspectos (economía y salud) que no están tan distanciados como pensamos?

R. Para mí, los conceptos son claramente distintos. Lo novedoso de este proyecto es que herramientas similares pueden utilizarse para problemas parecidos. Esos modelos que se han utilizado tradicionalmente en economía no se le había ocurrido a nadie emplearlos también en medicina. Algo que se lleva haciendo hace más de cincuenta años en el ámbito de la economía puede aplicarse a un contexto diferente.

P. ¿El proyecto será aplicable en hospitales con financiación privada o también los integrantes de la Seguridad Social?

R. A cualquiera que esté interesado. Como investigadores lo que nos preocupa es darle difusión al proyecto y no hemos pensado en la aplicación real en ningún centro en concreto. Obviamente, lo que queremos es que cualquiera que lo necesite lo pueda utilizar. No buscamos una patente de software con la que enriquecernos.