“Es fácil emocionarse demasiado con la Inteligencia Artificial y crear unas expectativas que no podremos cumplir”

Josep Puyol-Gruart es investigador titular del Instituto de Investigación en Inteligencia Artificial dentro del Centro Superior de Investigaciones Científicas (IIIA-CSIC) y presidente de la Asociación Catalana para la Inteligencia Artificial (ACIA). Este experto repasa el camino de la Inteligencia Artificial (IA) hasta su actual Edad de Oro, avisa sobre algunas exageraciones y ahonda en su desarrollo y en los retos que plantea su uso en el día a día.

Josep Puyol-Gruart, experto en Inteligencia Artificial / Foto cedida

La definición más general de la Inteligencia Artificial es que trata de reproducir artificialmente los comportamientos que consideramos inteligentes, como percibir, razonar, aprender, tomar decisiones o resolver problemas. Su evolución en los últimos años ha hecho que la IA esté cada vez más presente en nuestro día a día. Cuando sacamos una foto con nuestro móvil, estabiliza la imagen y reconoce nuestras caras o mejora la calidad de la toma. Cuando navegamos en una red social, nos recomienda noticias en función de nuestra ideología, nos sugiere contactos o nos muestra publicidad relacionada con nuestros intereses. La IA controla los movimientos y la intensidad de limpieza de algunos robots aspiradores. Es capaz de entender nuestra voz y responder cuando preguntamos a un asistente digital. También la encontramos en los sistemas informáticos de nuestro banco o de nuestra aseguradora analizando nuestro perfil de riesgo, cuánto dinero puede prestarnos o qué productos financieros son más adecuados.

Están ustedes en las portadas, debe de ser bonito

Es agradable que ahora se preste tanta atención a la Inteligencia Artificial, pero si observamos su historia ya ha pasado antes por lo que llamamos los inviernos de la IA. Es fácil emocionarse demasiado y crear unas expectativas que no podremos cumplir. Esto es lo que llevó en el pasado a estos inviernos y algunos piensan que ya nos acercamos al siguiente.

Usted se unió al grupo de IA del Centro de Estudios Avanzados de Blanes, germen del actual IIIA-CSIC, a mediados de los años ochenta. ¿A que se dedicaban entonces?

En aquella etapa se investigaba en campos fundamentales como el desarrollo de lógicas complejas. La informática utilizaba básicamente la lógica binaria, de sí o no. Cuando un programa tomaba una decisión había solamente estas dos opciones. Para abordar algunos problemas esto no funciona bien. Por ejemplo, trabajábamos en el campo de la medicina y para analizar la fiebre de un enfermo es insuficiente saber si un enfermo tiene o no fiebre. Necesitábamos trabajar con graduaciones. No es lo mismo tener poca, que bastante o que mucha fiebre. Las acciones a tomar son distintas. En esos casos, trabajar con una lógica limitada a sí o no puede hacer que una circunstancia muy pequeña, como una fiebre muy baja, desencadene una acción muy fuerte solo recomendada para fiebres altas. De ahí surgieron soluciones como las lógicas difusas, técnicas matemáticas que nos ayudan a tratar estos problemas. A día de hoy, esto puede parecer algo muy básico, pero en aquel momento no existía y fue muy importante.

La IA tiene más de sesenta años, debe de haber encontrado dificultades

Entre otros proyectos, en los inicios se invirtió mucho en los traductores automáticos de ruso a inglés y fue un fracaso. Años después este campo ha evolucionado mucho y ahora funciona bastante bien pero elementos lingüísticos como el sentido del humor, las metáforas o el contexto siguen siendo muy complicados de tratar. Aunque nos gusta atribuir actitudes humanas a las máquinas, en realidad estas no piensan, no entienden nada.

“Nos gusta atribuir actitudes humanas a las máquinas pero en realidad estas no piensan, no entienden nada”

¿Qué es lo que ha llevado a la IA a esta fase de esplendor?

En algunos casos, como las redes neuronales, la base científica se creó hace muchos años pero no existían las máquinas para desarrollarla. El gran aumento en la potencia de cálculo de los dispositivos y la inmensa cantidad de datos generados por los usuarios en internet o almacenados por las empresas es lo que ha hecho resurgir la Inteligencia Artificial.

Una de las barreras para acercarnos a esta especialidad es comprender en qué consiste, ¿podría explicarlo?

Es muy difícil definir la Inteligencia Artificial porque es muy difícil definir la Inteligencia, todas las definiciones son muy vagas y han ido cambiando con el tiempo. Hoy consideramos que la autonomía y la adaptación son características fundamentales de las máquinas basadas en IA. Es decir, un programa no debe depender de un elemento externo para funcionar, debe adaptarse, aprender de las experiencias. Un teléfono móvil, por ejemplo, no puede dejar de funcionar al perder acceso a una red inalámbrica. Debe disponer de alternativas, buscar otra red disponible, poner en espera y retomar más tarde aquellas tareas que  necesiten acceso a la red o preguntar al usuario, pero en ningún caso bloquearse. Otro aspecto muy actual es que un dispositivo de IA debe estar situado en su entorno. Los humanos estamos situados e interactuamos con nuestro entorno y los programas también deben percibir aspectos del mundo físico o virtual con el que se relaciona para poder reaccionar adecuadamente ante estímulos o cambios en su estado.

Como, por ejemplo, los robots

Así es, los robots son un buen ejemplo. Presentan de manera muy visible muchas de las características y técnicas de la IA. Intentan ser autónomos, aprender, utilizan sensores y pueden tener visión de su entorno para moverse adecuadamente, escuchar y tener lenguaje para comunicarse, etc…

Precisamente los robots se identifican con la idea de que el objetivo de la IA es imitar al hombre para reemplazarlo

Se trata de ayudar a las personas en tareas en las que una máquina puede ser útil. Se han hecho proyectos de enjambres de robots que podrían entrar a buscar heridos en una situación catastrófica donde es posible que un bombero no pueda entrar o el riesgo sea muy alto. A veces la IA es parte de un sistema más complejo, en medicina para diagnóstico o en robots para guiado de operaciones, por ejemplo. Son sistemas de ayuda que necesitan ser controlados por un humano, porque sustituirlo es demasiado complicado y desde un punto de vista ético no se puede dejar el control a una máquina. En algunas tareas sería deseable que las máquinas nos sustituyan pero si la gente que las realiza pierde su medio de vida, será un problema puramente social que debe ser abordado por la política.

¿Cómo se hace la Inteligencia Artificial? ¿A qué se dedican ustedes?

Es muy amplio y hay muchos trabajos distintos. Por un lado algunos investigadores hacen una investigación fundamental, muy matemática, con teoremas, algoritmos o definiendo nuevas lógicas que nos ayudan a abordar problemas cada vez más complejos y de maneras más eficientes. En muchos casos es un trabajo a largo plazo y con gran incertidumbre. Por otro lado, está la aplicación de los algoritmos y las técnicas de la IA a problemas concretos, que requiere un conocimiento experto de esta tecnología pero también entender el campo de aplicación. Esto exige un trabajo conjunto con especialistas de otras disciplinas, médicos, ingenieros, filósofos, astrofísicos o psicólogos.

¿Podría explicarnos cómo es esa colaboración?

Por ejemplo, la Inteligencia Emocional Artificial funciona con una base de emociones. Se puede utilizar en un programa que identifique las distintas emociones positivas o negativas sobre un tema analizando el lenguaje natural de usuarios en una red social. También se pueden programar respuestas asociadas a una determinada emoción. Para ello es necesario colaborar con psicólogos. Son ellos los que conocen y entienden las emociones.

Para imitar la inteligencia deben ustedes analizarla primero

Se valora poco, pero la investigación en IA nos obliga a pensar y entender nuestra propia inteligencia, es muy interesante.

“La investigación de la Inteligencia Artificial nos obliga a pensar y entender nuestra propia inteligencia”

Algunas de las líneas de trabajo de la Inteligencia Artificial como la Inteligencia de Enjambre parece relacionada con animales

Desde el punto de vista de una entidad, un humano es muy complejo y tratamos de emular esa inteligencia. Otras especies, como las abejas o las hormigas, son mucho más simples a nivel individual pero tienen un comportamiento social muy complejo. Los biólogos habían estudiado mucho estas conductas. El investigador de IA Marco Dorigo en los años noventa ya comenzó a buscar aplicaciones tomando el comportamiento de las colonias de hormigas cuando buscan alimentos. Cuando salen a por comida, las hormigas se distribuyen aleatoriamente en todas direcciones y dejan un rastro de feromonas que otras hormigas tienden a seguir. Aquellas hormigas que encuentran comida más cerca vuelven antes y por tanto aumenta el rastro de feromonas de ese camino que es seguido por más hormigas que lo reforzarán aún más. Poco después, todas las hormigas estarán siguiendo el camino más corto hacia la comida. Es un mecanismo de inteligencia social que poco tiene que ver con la inteligencia individual pero que ha sido imitado para crear técnicas que se utilizan, por ejemplo, en redes de telecomunicaciones y que se siguen mejorando.

Los aspectos éticos de la IA están siendo discutidos al más alto nivel en organizaciones como la Comisión Europea o la UNESCO, ¿son tan importantes?

Es un tema imprescindible porque la IA ha entrado en nuestra vida y es necesario establecer principios que no tienen que ver con la ciencia ni con la tecnología, son cuestiones a regular políticamente. En el caso del coche autónomo, por ejemplo, puede ser la mayor limitación para su aplicación real. Hay que establecer la cadena de responsabilidad, ¿quién es responsable en caso de accidente?, ¿el propietario?, ¿el fabricante?, ¿los ingenieros?. Un fabricante ¿tiene  derecho moral para hacer que un coche proteja siempre a su propietario?,  ¿incluso si para ello es necesario atropellar a un grupo de niños?, ¿se debe permitir?.

Los sesgos por sexo, raza, edad, etc. en algoritmos empleados por empresas o instituciones para recomendarnos productos, seleccionar candidatos a empleos o responder preguntas, entre otras muchas cuestiones, también son un reto ético, ¿son inevitables?

Por un lado una máquina de IA aprende de ejemplos, de muchos casos reales que tienen esos sesgos y por tanto presentará los mismos problemas. Es como llevar a un niño con malas compañías, aprende a ser malo. El gran problema es la falta de transparencia. Todos estos algoritmos, como el deep learning son una caja negra. Cuando aprenden, elaboran un modelo matemático implícito donde los humanos intervienen muy poco o nada. Por ejemplo, un algoritmo de IA para evaluar a clientes de un banco que solicitan un crédito puede dar una respuesta sobre si un cliente es más o menos apto pero no puede decirnos por qué, si es por sus ingresos, hábitos de compra, edad, sexo o qué combinación de todos esos factores. Existe toda una línea de investigación para hacer estos algoritmos explicables y que las personas podamos entender por qué han tomado una decisión.

”Un algoritmo puede dar una respuesta sobre si un cliente es más o menos apto para un crédito pero no puede decirnos por qué”

Usted co-dirige la Unidad de Desarrollo tecnológico en Inteligencia Artificial (UDT-IA) que tiene por objetivo la transferencia de conocimiento del IIIA-CSIC a la sociedad, ¿como realizan esta transferencia?

Hablando con mucha gente. Realizamos jornadas tecnológicas, analizamos sus problemas y proponemos soluciones. Hay un equipo de ingenieros con un perfil mixto entre el ámbito más científico y el empresarial.  Ellos son capaces de entender las necesidades reales y cómo estas tecnologías pueden ayudarles. Por otro lado, han surgido del IIIA varias empresas spin-off que aplican la IA en áreas como las recomendaciones en el sector financiero y el de los asistentes digitales que interaccionan con clientes o empleados.

¿Cómo ve el futuro de la Inteligencia Artificial?

En los últimos años se ha progresado muchísimo, quizás no tanto como algunos dicen, pero aún así el potencial es enorme. Es muy transversal, se puede utilizar para muchas cosas distintas, visión por computador que identifica objetos, dictado automático que reconoce la voz, análisis de diferentes tipos de datos, etc. Las empresas se están dando cuenta y muestran mucho interés en absorberla para sus producciones.

Si te ha gustado esta entrevista y quieres aprender más sobre IA haz click aquí

Más información sobre Inteligencia Artificial

En los siguientes enlaces puedes encontrar algunas paginas web institucionales, blogs, artículos científicos o periodísticos y otros documentos que profundizan sobre algunos de los temas tratados en la entrevista con Josep Puyol-Gruart. Espero que te resulten interesantes.

Sobre Josep Puyol-Gruart y el Instituto de Investigación en Inteligencia Artificial

Acerca de los inviernos de la IA

Historia e hitos

Sobre las redes neuronales

Inteligencia Artificial y animales

Ética de la Inteligencia Artificial

Lise Meitner irradia vocaciones científicas

El Proyecto Meitner. Recordando a Lise Meitner es una iniciativa del Institut de Física Corpuscular (IFIC) de la Universitat de València (UV)-CSIC que ha contado con la colaboración de la Fundación Española para la Ciencia y la Tecnología (FECYT). El proyecto tiene como objetivo recuperar y revalorizar la contribución de grandes pioneras de la Física Nuclear y de Partículas, uniendo el pasado y el presente a partir de la figura de la brillante física, Lise Meitner. Tal y como explica Anabel Morales, física nuclear y coordinadora del proyecto «Lise Meitner debe ser un referente para el alumnado, no solo por sus logros científicos sino por cómo se comportó como científica y como mujer».

El Proyecto Meitner. Recordando a Lise Meitner nace y gira alrededor de la obra de teatro Remembering Miss Meitner (2002) escrita por Robert Marc Friedmann y representada en teatros de todo el mundo en varios idiomas. La obra propone unir el pasado y el presente a partir de un energético texto que invoca a Lise Meitner junto a su descubrimiento de la fisión nuclear y que nos hace preguntarnos ¿cómo recuerda la historia a Meitner? ¿qué importancia damos a nuestras científicas hoy en día? La adaptación española de la obra ha sido realizada por la compañía de teatro CRIT bajo la dirección escénica de Anna Marí, y será representada, de momento, en el Teatre Rialto de València a partir del 11 de marzo. Además, después de cada función tendrá lugar un coloquio en el que un equipo de expertas responderá a las preguntas del público y también las planteadas a través de redes.

Ilustración de Elena Resko para el Proyecto Meitner. Recordando a Lise Meitner.

A parte de la obra de teatro y los coloquios que llevarán a cabo distintas físicas nucleares y de partículas, el Proyecto Meitner ofrece un amplio abanico de actividades y propuestas para visibilizar y poner de manifiesto las barreras legales, culturales, históricas y sociales a las que las mujeres científicas se han enfrentado y siguen enfrentándose.

«No solo hablan de pioneras, sino también de la situación de la mujer en la física nuclear y de partículas, y de forma más general de la mujer en ciencia.»

Anabel Morales, física nuclear y coordinadora del proyecto

Otra parte fundamental del proyecto son las Jornadas de Ciencia y Género ‘Pioneras en Física Nucleas y de Partículas: Pasado, Presente y Futuro, que han tenido lugar el pasado 9 y 10 de marzo de manera híbrida, combinando el formato presencial en la Universitat de València y también en streaming. Estas jornadas, como nos cuenta Anabel Morales «No solo hablan de pioneras, sino también de la situación de la mujer en la física nuclear y de partículas, y de forma más general de la mujer en ciencia». Durante los dos días se ha ofrecido una programación enriquecida con seminarios, monólogos, entrevistas, mesas redondas y coloquios con el público. El formato está inspirado en las primeras Jornadas de Ciencia y Género de la Universitat de València (UV) que tuvieron lugar 2 años atrás, con la astronomía como eje temático.

Las jornadas han sido gratuitas y abiertas a todo el público, aunque la organización del proyecto quiere dirigirse especialmente al profesorado de secundaria ya que como declara Anabel Morales «Creemos que es muy importante dar a conocer las pioneras al profesorado, y que este luego lo transmita a su alumnado a lo largo del tiempo».

Ilustración de Elena Resko para el Proyecto Meitner. Recordando a Lise Meitner

Uno de los seminarios fue presentado por Josep Simon, profesor e investigador de Historia de la Ciencia en la Universitat de València (UV). Bajo el título Género y radiactividad: una historia vienesa para un futuro de igualdades expuso una perspectiva panorámica sobre los temas de género en relación con la historia de la física. Concretamente, hizo reflexionar acerca del por qué en ciertos lugares y contextos históricos hay una notable presencia de mujeres. Como sentenció Josep Simon, «La radiactividad era un campo nuevo que todavía no estaba dominado por la autoridad y la jerarquía de la ciencia, pero poco a poco el papel de la mujer quedó más oculto o relegado a ser objeto de investigación».

«La radiactividad era un campo nuevo que todavía no estaba dominado por la autoridad y la jerarquía de la ciencia, pero poco a poco el papel de la mujer quedó más oculto o relegado a ser objeto de investigación.»

Josep Simon, profesor e investigador de Historia de la Ciencia en la Universitat de València (UV)

El ambicioso proyecto también ha querido incidir directamente en el estudiantado, a través de una difusión activa en las principales redes sociales (Twitter, Instagram y Facebook) y del concurso Express-Arte ConCiencia, que da rienda suelta a su imaginación y que a través del arte contará la historia y los avances científicos de las pioneras de la física nuclear y de partículas. Anabel Morales enfatiza: «Queremos que las pioneras realmente entren a formar parte de la cultura científica del alumnado».

«Queremos que las pioneras realmente entren a formar parte de la cultura científica del alumnado, ya que la ciencia es cultura

Anabel Morales, física nuclear y coordinadora del proyecto

En definitiva, el Proyecto Meitner. Recordando a Lise Meitner promueve la igualdad social al romper con la imagen estereotipada de la mujer científica y al poner sobre la mesa los sesgos de género actuales en el ámbito científico y educativo. También pretende hacer frente a la escasa vocación científica de las niñas, acercando referentes, pasadas y presentes, y fomentando vocaciones científicas. Y, finalmente, también pretende promover la cultura científica, ya que como afirma Anabel Morales «la ciencia es cultura» y es necesario introducir una vertiente social de la ciencia como elemento de cambio.

La pandemia impulsa la confianza de los españoles en la innovación y la tecnología

Los resultados de la IV Encuesta de Percepción Social de la Innovación en España muestran, por primera vez, un incremento en la percepción de la innovación como un fenómeno positivo. Por otra parte, más de la mitad de los españoles cree que la tecnología será un generador neto de empleo. Cristina Garmendia, Ministra de Ciencia e Innovación entre 2008 y 2011, presentó en Logroño los resultados de este estudio realizado por Sigma Dos junto a la Fundación Cotec que preside.

Cristina Garmendia durante la presentación de la encuesta

Según los datos revelados por esta encuesta, realizada en el último trimestre de 2020, el 77,3% de los españoles tiene una visión positiva de la innovación. Este dato indica un incremento de 4 puntos sobre el de 2019 y supone el primer ascenso en un indicador que venía descendiendo, año tras año, desde el 89,6% de la primera encuesta en 2017. Para Garmendia, este es “el mejor punto de partida, sino el único, para garantizar, con políticas adecuadas, la generación y la difusión de la innovación”. Este cambio de tendencia, general en todos los rangos de edad, es especialmente significativo en el caso de los mayores de 65 años, entre los que experimenta una subida de 8 puntos porcentuales. Sin embargo, la pandemia parece haber debilitado la percepción de España como país innovador ya que el porcentaje que sitúa al país en el grupo de los menos avanzados de la UE pasa del 33% al 50%. Lo que no cambia es la idea generalizada de que la inversión en I+D+i es insuficiente y que las leyes no favorecen la innovación.

Fuente: Cotec

Sobre la percepción de la tecnología como potencial generador de empleo, se confirma la tendencia al alza ya observada en 2019. Por primera vez, más de la mitad de la población (el 50,2%) opina que los puestos de trabajo creados gracias al cambio tecnológico compensarán a los que desaparecerán, mientras que el 45,1% piensa que no serán suficientes. El 44% de los encuestados concluye que son la universidad y los expertos quienes deben liderar la adaptación al impacto de la tecnología, el 27% cree que son los políticos y el 19% confía en los empresarios.

Los encuestados no son tan optimistas en cuanto a la preparación para esta transición tecnológica. A pesar de una significativa mejora frente al año anterior, solo un 29% cree que la sociedad se está preparando suficientemente y casi el 70% de la población sostiene que el sistema educativo no responde al tipo de empleo de la futura sociedad tecnológica. Sin embargo, cuando la pregunta es si se consideran capacitados para este nuevo mercado laboral, el 59,6% dice que sí, frente al 38,5% que responde negativamente.

Un análisis más detallado de los resultados pone de manifiesto varias brechas importantes entre los entrevistados que conforman la muestra. Por un lado, una brecha relacionada con el nivel de estudios y profesión. Los sectores más vulnerables, con estudios de un nivel más bajo y trabajos peor remunerados, son más pesimistas en cuanto a su incorporación a un entorno laboral con fuerte presencia de las tecnologías. Así, mientras que el 42% de los trabajadores no cualificados se considera preparado para estos trabajos, esta cifra sube hasta el 72% entre los técnicos profesionales. Por otro lado, se observa una brecha de género. El porcentaje de mujeres que tiene una opinión positiva de la innovación es 9 puntos menor que el de los hombres y ellas se sienten menos preparadas para competir en un entorno laboral tecnológico.

La existencia de estas brechas puede explicar la opinión unánime en todas las edades y colectivos de que la innovación tecnológica aumenta la desigualdad social. El 56% está de acuerdo con esta afirmación mientras que el 35% se muestra en desacuerdo. Cristina Garmendia coincide: “La pandemia ha puesto de manifiesto las sombras de un modelo que en ocasiones amenaza la equidad entre personas, entre empresas y entre territorios. El camino para corregir esos defectos tiene que pasar por la crítica constructiva y participativa”.

Dada la importancia que el teletrabajo ha adquirido durante la pandemia, esta edición de la encuesta ha incluido un bloque de preguntas sobre este tema. Las respuestas muestran una opinión muy favorable. El 92% de los encuestados que ha teletrabajo se ha sentido capacitado para hacerlo, el 62% piensa que ha mejorado la conciliación del trabajo con la vida personal y solo el 20% manifiesta haberse sentido menos productivo. El 46% de los ocupados cree que podría realizar muchas o todas sus tareas fuera del lugar habitual de trabajo.

“Nos gusta pensar que, en materia de innovación, el shock global que hemos vivido nos va a permitir avanzar hacia un modelo más abierto, más social y mejor valorado”

Cristina Garmendia, presidenta de Cotec

Este estudio tiene especial relevancia en un momento en el que tanto las instituciones públicas, a través del plan España Puede y el Pacto por la Ciencia y la Innovación, como las organizaciones empresariales y profesionales apuestan por la tecnología y la innovación como herramientas clave para la recuperación social y económica tras la crisis generada por la pandemia de la Covid-19. En palabras de la presidenta de la Fundación Cotec: “Nos gusta pensar que, en materia de innovación, el shock global que hemos vivido nos va a permitir avanzar hacia un modelo más abierto, más social y mejor valorado”.

La magia de un microscopio electrónico de precio elevado

Los científicos consiguen visualizar los enlaces covalentes que se forman sobre una lámina de grafeno y una molécula sintética gracias a un microscopio de resolución extraordinaria.

El descubrimiento del grafeno, por sus propiedades y aplicaciones, ha supuesto una revolución para la ciencia y la tecnología. Pero visualizar los enlaces covalentes que se forman sobre una lámina de grafeno ha sido un gran reto para el grupo de investigación que dirige Gonzalo Abellán, investigador del Instituto de Ciencia Molecular de la Universidad de Valencia. Abellán comunicó los resultados de sus últimas investigaciones en una conferencia organizada por el Museo Didáctico e Interactivo de Ciencias (MUDIC) el pasado mes de noviembre.

El grafeno, considerado el material del siglo XXI, fue descubierto por los científicos Andre Geim y Konstantin Novoselov en el año 2004. Su descubrimiento les valió el premio Nobel de física en 2010. Desde entonces, ha dado mucho de qué hablar por sus propiedades y aplicaciones. Ejemplo del impacto que ha supuesto es el proyecto europeo que lleva por nombre “Graphene Flagship”, dotado con mil millones de euros, cuyo objetivo es trasladar todo lo que se sabe del grafeno a aplicaciones técnicas para la sociedad. Para el año 2022 se prevé lograr un gran número de aplicaciones. Algunas de ellas son conseguir nuevos materiales para la construcción, baterías de carga muy rápida y con gran almacenaje de energía, nuevas tecnologías para sensores y para transistores y aplicaciones biomédicas como biosensores que detecten mejor los virus y bacterias.

Solución a los problemas del grafeno

A lo largo de la charla, Abellán expuso los problemas que impiden que las aplicaciones del grafeno sean inmediatas. Uno de ellos es su baja solubilidad, por lo que una producción a gran escala, en una fábrica, es difícil de procesar y otro de ellos, que el grafeno es prácticamente inerte, no reacciona fácilmente con otras sustancias.

Gonzalo Abellán en un momento de la conferencia

Para solucionar estos inconvenientes el equipo de investigación que dirige Abellán en Alemania propuso cambiar la superficie del grafeno introduciendo moléculas sintéticas entre sus láminas para que lo hicieran más reactivo. Aunque el reto que se plantearon iba más allá: querían ver el enlace covalente que se formaba entre el grafeno y las moléculas de reactivo. Las palabras de Abellán fueron: “Este era un reto monumental. Cuando hice el máster en nanociencia me dijeron que no se podía ver enlaces covalentes con un microscopio electrónico”. Continuó diciendo: “Pero en Alemania encontré un microscopio de siete millones y medio de euros que tenía unos correctores de aberración impresionantes con los que sí se podía ver estos enlaces”.

Un microscopio de resolución extraordinaria con graves problemas de contaminación

El microscopio electrónico de alta resolución al que se refiere Abellán permite ver los átomos que forman las moléculas y es capaz de discriminar dos puntos a una distancia de 0, 05 nm, es decir, a una distancia 10 millones de veces más pequeña que medio milímetro. El problema que encontraron al utilizar este microscopio fue la contaminación de la lámina. En cuestión de milisegundos, aunque se trabajaba en ultra alto vacío, la muestra de grafeno estaba completamente contaminada por todas las moléculas que contenía el aire. Para solucionarlo utilizaron una nueva técnica que consistió en “barrer” toda la suciedad que se depositaba sobre la lámina de grafeno con una punta de wolframio, un metal de gran dureza. Este barrido electrónico con la punta de wolframio quitaba la capa de contaminación a escala de 2nm.

Una vez que encontraron la técnica para limpiar la lámina investigaron introduciendo una molécula sintética sobre la lámina de grafeno limpia con el objetivo de producir una reacción química y, lo más importante para ellos, poder verla a través del microscopio en tiempo real.

La técnica para producir esta reacción química fue complicada porque, además de la contaminación que se producía, la reacción era muy difícil de llevar a cabo. Debían trabajar en una caja seca, sin aire y sin oxígeno y producir una disolución de electrones solvatados a partir de una disolución de sodio y potasio en metoxietano. Estos electrones, extremadamente reactivos, se ponían en contacto con el grafeno de modo que conseguían que reaccionara con la molécula de reactivo que añadían. De esta manera lograron su objetivo: conseguir la reacción del grafeno y visualizar la formación de los enlaces covalentes.

Foto en la que se puede apreciar en la pantalla la imagen del enlace covalente entre el grafeno y la molécula sintética que utilizaron para producir la reacción química.

Este descubrimiento del equipo de investigación que dirige Gonzalo Abellán supone un gran avance en el mundo de la nanociencia ya que introduce un nuevo método con el que el grafeno puede ser procesado y utilizado para generar nuevas aplicaciones tecnológicas. Pero también es un avance muy importante en el campo de la química al hacerse posible la visualización de una reacción química con la formación de un enlace covalente entre carbono y carbono a través de un microscopio electrónico.

Gonzalo Abellán dirige actualmente el grupo de investigación 2D-Chem dedicado al estudio de materiales bidimensionales (2D) que forma parte del Equipo de Investigación en Materiales Moleculares del Instituto de Ciencia Molecular de la Universidad de Valencia. Parte del equipo está en Alemania, en la Universität Erlangen-Nürnberg.

Gonzalo Abellán en la presentación de las Jornadas

Las Jornadas de divulgación Científica del MUDIC siguieron durante toda la mañana en formato semipresencial con presencia de divulgadores como Rafael García Molina, Manuel Toharia y Marisa Michellini, entre otros.

El origen de la vida podría ser extraterrestre

Los investigadores han comenzado a desentrañar el mayor enigma de la ciencia

Diferentes líneas de investigación en todo el mundo trabajan actualmente para entender y recrear el origen de la vida. Los orígenes pudieron ser varios, incluyendo el espacio extraterrestre, señaló Carlos Briones, investigador del Centro de Astrobiología (CAB) de Madrid, en la tercera conferencia del ciclo virtual «Explorando los límites del espacio», organizado este año por el Museo Nacional de Ciencia y Tecnología (MUNCYT).

El doctor en bioquímica y biología molecular indicó que se entiende como origen de la vida aquel momento en que las moléculas químicas pasaron a formar parte de entidades capaces de replicarse, dando lugar a la primera célula antecesora de todos los seres vivos. Si alrededor de 350 millones de años fueron suficientes para este salto, significaría que la vida surge, con cierto determinismo, cuando las condiciones lo permiten. Si no fueron suficientes años, la vida, o parte de sus moléculas, tendrían su origen fuera de la Tierra y llegarían a bordo de meteoritos. “Esto es una pregunta científica de mucho calado en la actualidad”, apuntó Briones.

Carlos Briones, doctor en bioquímica y biología molecular e investigador del Centro de Astrobiología (Centro mixto entre el CSIC y el Instituto Nacional de Técnica Aeroespacial)

Desde el comienzo de los tiempos el ser humano se ha preguntado cuál es el origen de la vida y si existe en otros planetas. Saber si estamos solos en el universo ha sido una de las grandes cuestiones de todos los tiempos. En los últimos años, surge una nueva ciencia para estudiar y responder estas cuestiones, la astrobiología.

Pero para lanzarnos a buscar vida en otros planetas tenemos que saber qué es la vida. “Encontraremos lo que busquemos”, remarcó el investigador. El nuevo vehículo motorizado de la NASA, el Mars rover Perseverance, está iniciando una misión en Marte que permitirá detectar morfologías compatibles con la vida. No obstante, “no todo lo que tiene forma de ser vivo tiene por qué ser un ser vivo, la morfología no es criterio suficiente”, advirtió. Por ejemplo, a partir de material inorgánico, como carbonatos o silicatos, ya se pueden sintetizar en el laboratorio estructuras químicas similares a los seres vivos en cuanto a forma, pero son inertes.

Briones indicó cuáles son los elementos fundamentales que debemos buscar para detectar vida fuera de la Tierra. Existen moléculas orgánicas que sólo pueden producirse por los organismos vivos y no son posibles desde el punto de vista de la química al margen de la vida, con un origen geoquímico, por ejemplo. Son los llamados biomarcadores, como el colesterol o el ADN. “Es lo que nos interesaría detectar en otros planetas cuando nos preguntamos si allí surgió la vida”. Señaló, además, que el agua se asume como un prerrequisito y es lo primero a tener en cuenta y que el carbono es el elemento con mayor facilidad para formar enlaces con otros átomos y construir las moléculas complejas que requiere la vida. “Se conocen más de 17 millones de compuestos orgánicos basados en carbono”, matizó.

Presentó otra cuestión que, según señaló, “no se debe olvidar” y es que solo el 15% de las especies conocidas en la Tierra son organismos pluricelulares. “Nuestro punto azul pálido es un planeta de microorganismos. Son los reyes del planeta”, mencionó.  Esto apunta a que los microorganismos como las bacterias son los candidatos perfectos para aparecer en el espacio.

El experto definió los seres vivos como las entidades que cumplen tres cosas: tienen moléculas que contienen información genética que pueden pasar a la descendencia, tienen compartimentos que permiten su separación del entorno y tienen un metabolismo que les permite intercambiar materia y energía con el medio. Y aclaró: “Muchos científicos consideramos que los virus no son seres vivos porque no tienen metabolismo propio”.

Además de saber qué son los seres vivos, conocer cómo se originaron es también importante para su búsqueda. Briones explicó que la ciencia utiliza dos aproximaciones para obtener conocimientos a este respecto. El enfoque bottom-up (o del pasado hacia el presente), que se dota de la astroquímica y la química que existía antes de los seres vivos, prebiótica, y el enfoque top-down (o del presente hacia el pasado), que se centra en el estudio de la biodiversidad actual y la evolución para acercarse al origen de la vida en retrospectiva.

El ‘Legado de Carl Sagan’ en La Laguna

El Museo de la Ciencia y el Cosmos (MCC) estrena exposición y ciclo de conferencias.

Exposición «COSMOS y el legado de Carl Sagan»

Llega a Tenerife una exposición y ciclo de conferencias sobre COSMOS: un viaje personal, el clásico divulgativo de Carl Sagan que se convirtió en la serie más vista de la historia, con más de 600 millones de espectadores y emitida en más de 60 países. Héctor Socas (@hsocasnavarro), director del MCC, ha explicado las razones de su éxito y la importancia de rescatar estas obras divulgativas 40 años después: “Hay valores que transmite, como fomentar el pensamiento racional, que son atemporales”.

La exposición se mantendrá hasta el 31 de mayo y, mientras tanto, se realizará un ciclo de conferencias en directo y streaming donde expertos analizarán cada uno de los episodios y mostrarán cómo hemos avanzado en estas cuatro décadas desde que se empezó a emitir la serie. 

Podrías preguntarte por qué se expone la obra de COSMOS en La Laguna. Lo cierto es que esta localidad es un caldo de cultivo excelente para alimentar la pasión por la astronomía y la astrofísica. Cuenta con uno de los observatorios más importantes del mundo, según la Comunidad Científica Internacional (CCI); una buena concentración de profesores e investigadores en torno al Instituto de Astrofísica de Canarias (IAC) y al Departamento de Astrofísica de la ULL y un movimiento universitario muy activo. Si a todo esto le sumamos que tiene un museo especializado en Cosmos, la pregunta debería ser por qué no había una exposición como esta antes. 

Type II Civilization  (Civilización tipo II) de Jon Lomberg  

En la exposición se puede disfrutar de las obras de arte de Jon Lomberg, conocido como el ‘artista de Carl Sagan’. Para que nos hagamos una idea de su estilo, es como si un viajero del año 3000 con aires retro se dedicase a hacer bocetos de las naves y paisajes que observa en sus aventuras intergalácticas. Una galería de ilustraciones que fluctúan entre lo onírico y lo científico de forma muy natural, ampliando fronteras de nuestra imaginación. De hecho, a menudo los observatorios le encargan crear imágenes para explicar al público sus nuevos descubrimientos.

Réplica de la cubierta del disco de oro a bordo de la Voyager 1

Por supuesto, también podemos observar representaciones que creó Lomberg tanto para el montaje artístico de la serie COSMOS como para su secuela NUCLEUS, la cual nunca se llegó a plasmar. Para los más fanáticos, destaca el storyboard del que nació la famosa animación de la ‘nave de la imaginación’ aproximándose a la galaxia. ¡Incluso podemos ver una réplica del disco de oro de las sondas Voyager, ese mensaje en la botella lanzado al cosmos!

Se completa la exposición con trabajos y objetos más personales, como la última carta que escribió Sagan al artista antes de su muerte, fotos de los instantes en los que Sagan y Lomberg trabajaban en la serie o un traje intergaláctico al estilo singular del artista.

Julia de León, astrofísica y presentadora de la conferencia que tuvo lugar este 5 de marzo y que estaba dedicada al sexto episodio, cuenta la importancia de recuperar estas obras divulgativas hoy en día: “Sagan consiguió, con poca tecnología y recursos, que se enganchara una generación a la astronomía”. Además, ha afirmado que muchos de sus compañeros crecieron con esta serie y fue clave para llegar a donde hoy están.

Durante la conferencia, la investigadora del IAC hizo un repaso de todas las misiones de exploración espacial, comentando sus proezas y logros. A su juicio, sorprende lo mucho que ha mejorado tanto la calidad de imágenes como la tecnología: “Esas imágenes de la sala de control con los científicos fumando, los monitores de fósforo con las letras verdes y los mandos de control con botones que parecen atrezo.” La astrofísica ha confesado que ha disfrutado mucho volviendo a ver los episodios de COSMOS y comparando las imágenes que se obtuvieron de las Voyager con las actuales.

Julia de León y Héctor Socas durante la conferencia del 5 de marzo

La Región de Murcia, pionera en el estudio del medio marino gracias a la colaboración ciudadana

Los ciudadanos han sido la clave para obtener datos científicos sobre las praderas de posidonia en la Región de Murcia. Colaborando de forma voluntaria, buceadores y pescadores amateur han sido la base de la Red de Seguimiento de Posidonia en Murcia, una iniciativa que lleva en funcionamiento continuado 17 años y el primer proyecto en España dedicado a la vigilancia ambiental. El pasado jueves 25 de febrero, se celebró una jornada informativa para anunciar los principales resultados de la Red de Seguimiento de Posidonia. Los ponentes, cada uno perteneciente a distintos ámbitos que colaboran en el proyecto, expresaron los beneficios que esta propuesta trae al patrimonio natural de la región, a la investigación científica y a la concienciación ciudadana.

La Posidona oceanica es una planta marina que forma extensas praderas, constituyendo el ecosistema más importante de las costas mediterráneas. Por ello, las praderas de posidonia han captado el interés de los científicos desde hace años. Según explicó, durante la jornada, el investigador del Instituto Español de Oceanografía (IEO), Juan Manuel Ruíz Fernández, más de 11 mil hectáreas de las costas de la Región de Murcia están cubiertas por estas praderas. También se detalló que este ecosistema beneficia al ser humano pues filtra el agua, protege las playas de la erosión y favorece la pesca, llegando a condicionar nuestras costas y nuestra economía.

Todo este proyecto comenzó en 2004, cuando se puso en marcha la Red de Seguimiento de las Praderas de Posidonia de la Región de Murcia, que sigue funcionando actualmente. Su objetivo es comprobar que la posidonia de las costas murcianas se mantiene en buen estado con el paso del tiempo. Para lograrlo, es necesaria la colaboración de tres sectores que están funcionando como si de una cadena de trabajo se tratara. En primer lugar, los voluntarios, pescadores y buceadores amateurs, que visitan las mismas zonas de pradera cada año y recogen datos sobre su estado. En segundo lugar, la comunidad científica, que con estos datos puede elaborar estudios y obtener conclusiones. Y por último, la administración, que tomaría las medidas pertinentes para proteger el ecosistema gracias a las conclusiones científicas.

La Red de Seguimiento de Posidonia parte, por tanto, de la participación voluntaria ciudadana, especialmente de los centros de buceo de la región que han ofrecido los equipos y las embarcaciones necesarias para vigilar las praderas cada año; y de los buceadores, que han tenido que someterse a una educación previa sobre las técnicas para obtener los datos. Más de 800 voluntarios han colaborado desde 2004 en la recogida de datos. El buceador profesional que ha representado a los Centros de Buceo en esta jornada, Sergi Pérez García, se ha mostrado orgulloso de los resultados y la trayectoria del proyecto. Ha explicado que la ciudadanía puede acercarse y comprender mejor la realidad natural del entorno gracias a este tipo de propuestas, que ejercen una labor de educación y nexo entre la sociedad, la ciencia y la naturaleza.

La comunidad científica, por su parte, se ha visto inmensamente beneficiada por los datos proporcionados anualmente. Con ellos se pueden llevar a cabo gran cantidad de estudios que contribuyen a aumentar el conocimiento científico. En la jornada se expusieron los principales resultados de estos 17 años de seguimiento, concluyendo que el estado de la mayoría de las praderas estudiadas es aceptable y no se está viendo perjudicado por ninguna actividad humana ni por el cambio climático. En las zonas en las que sí se ha visto un deterioro en la pradera se han buscado las causas, para proponer medidas que aseguren su conservación, como ocurrió en Cabo Tiñoso, donde se observaron fondeos ilegales que perjudicaban a la posidonia. 

En 2015, se tomaron medidas en esta zona para retirar todos los fondeos ilegales e implementar fondeos ecológicos. Tras la toma de esta decisión, la pradera comenzó lentamente a mejorar. Esto es ejemplo de que los estudios serían inútiles si no se trasladaran a la administración, a nuestros políticos. Ellos son los que, aconsejados por los expertos, adaptan las normas para proteger de manera eficiente nuestras praderas. En este punto se agradeció a Francisco Espejo García, director General de Ganadería, Pesca y Acuicultura de la Región de Murcia, y a la administración murciana en general, su compromiso con el estudio de este ecosistema desde hace tantos años. 

Todos los ponentes destacaron el gran cambio de paradigma que ha supuesto este proyecto para conciliar las actividades marinas económicas con las de conservación de la Región de Murcia. El seguimiento de praderas de posidonia durante estos 17 años ha traído una toma de conciencia de nuestros ecosistemas en el sector pesquero, turístico y administrativo. Actualmente, se aprecia una mayor sensibilización de los usuarios, que ahora son los que demandan la protección de las praderas de posidonia, al reconocer sus beneficios: la abundancia de peces para la pesca, y el valor añadido como recurso turístico para el buceo, como han explicado los ponentes. Nadie podía asegurar, cuando se inició la Red de Seguimiento de Posidonia en 2004, que 17 años después el proyecto seguiría en marcha y con unos resultados tan positivos; por lo que no es de extrañar el aire de concordia y victoria que se respiraba en la jornada. Quedaron patentes la importancia y la satisfacción que produce trabajar en pro de la conservación de los recursos naturales regionales para asegurar que sean accesibles a todos.

Científicos de la UPV pretenden limpiar el aire de coronavirus

Dos grupos de investigación de la UPV y la UIB han empezado un proyecto de colaboración para identificar, cuantificar y reducir la carga ambiental del virus SARS-CoV-2, causante de la enfermedad COVID-19.

El grupo de investigación en Fotoquímica Heterogénea y Medioambiental de la Universitat Politécnica de València (UPV) ha empezado el desarrollo de un sistema para eliminar la presencia del coronavirus SARS-CoV-2 del aire, dentro del proyecto IDEQURE. Este proyecto, realizado en colaboración con el grupo sobre Inflamación, reparación y cáncer en patologías respiratorias de la Universitat de les Illes Balears (UIB), tiene como objetivo identificar los espacios con mayor riesgo de transmisión de la enfermedad e implementar un sistema que reduzca la concentración del agente infeccioso en el aire. La investigación ha sido financiada a través de una convocatoria del Instituto de Investigación Sanitaria de las Islas Baleares para proyectos innovadores contra la transmisión de la COVID-19.

Durante el pasado año, la comunidad científica se ha esmerado en averiguar las características del patógeno responsable de la COVID-19. Uno de los mayores peligros de este virus es su capacidad de transmitirse a través del aerosol respiratorio, especialmente cuando se producen aglomeraciones en espacios cerrados y mal ventilados. Cuando una persona infectada exhala, dispersa en el ambiente un gran número de aerosoles infecciosos, compuestos por gotas de tamaño inferior a 100 micras, que quedan suspendidos en el aire. Esta vía de contagio está detrás de la mayoría de infecciones que no son detectadas por los rastreadores del sistema sanitario. “Hay una parte importante de contagios detectados de origen social, otros que se dan en el ámbito laboral, pero al final siempre queda alrededor de un 40% que no se sabe de donde provienen. Nuestro método sería capaz de llenar ese vacío, detectando el virus en el entorno”, ha declarado Hermenegildo García Baldoví, investigador responsable del proyecto por parte de la UPV.

Representación del proceso de formación de aerosoles con carga vírica / Flickr

El proyecto IDEQURE plantea dos líneas de trabajo diferenciadas. Por un lado, los investigadores de la UIB, dirigidos por el profesor Josep Mercader, han monitorizado la concentración del virus en los diferentes espacios del Hospital Universitario de Son Espases que recorre un enfermo de COVID-19. El equipo de la UPV, por otro lado, está desarrollando un sistema de desinfección basado en la nebulización combinada de diferentes compuestos, similar a las máquinas de humo utilizadas en locales de ocio, para reducir la concentración de aerosoles infecciosos en los espacios de mayor riesgo. Actualmente en España no existen virucidas con los que se permita rociar directamente sobre las personas. Es por eso que el equipo de Hermenegildo trabaja con una estrategia diferente. “Intentamos aplicar diferentes biocidas en cantidades muy bajas, muy inferiores a los límites permitidos, que actúen de forma sinérgica con tal de poder aplicarlos en sitios donde hay gente”, ha detallado el químico.

La detección de SARS-CoV-2 en las muestras recogidas en el hospital se realiza mediante la técnica de droplet digital Polymerase Chain Reaction (ddPCR), un tipo de análisis PCR específicamente diseñado para detectar muestras a concentraciones bajas en ambientes complejos. Curiosamente, los resultados preliminares de esta investigación han detectado una mayor presencia del virus en los espacios donde los pacientes no se encuentran en un estadio avanzado de la enfermedad. “Hemos encontrado carga de virus donde hacen las PCR y en estados más incipientes de la enfermedad. Por el contrario, en pacientes más graves, que estaban con respirador o entubados, y positivos por PCR no hemos sido capaces de conseguir ninguna muestra positiva en el aire”, ha explicado García. Las conclusiones de estas primeras indagaciones serán presentadas por sus responsables en el segundo Congreso Nacional Multidisciplinar COVID-19 de las Sociedades Científicas de España, que tendrá lugar el próximo mes de abril de manera virtual.

Sería un error que este bajo nivel de permanencia del virus en el aire observado en el Hospital de Son Espases llevase a una despreocupación de las infecciones mediante esta vía de contagio. Como bien ha recordado la profesora de Microbiología Salut Botella, del Departamento de Biotecnología de la UPV, “cualquier espacio con personas infectadas es un lugar con riesgo de contagio”. El alto número de contagios producidos durante la todavía reciente tercera ola de la pandemia nos recuerda la gran capacidad de infección del virus, incluso a niveles bajos de exposición. Éste es el motivo que llevó a los investigadores del grupo de Fotoquímica Heterogénea y Medioambiental a proponerse desarrollar un nuevo sistema que permita eliminar la presencia del patógeno en el aire sin comprometer la salud de las personas que se encuentren presentes. Al respecto de la propuesta, la profesora ha opinado que “intentar eliminar aerosoles potencialmente infectivos sería una buena estrategia para evitar la transmisión en espacios cerrados y con poca ventilación”.

Recuento en placa: se cuantifica la población bacteriana antes y después de la aplicación del producto / Grupo de Fotoquímica Heterogénea y Medioambiental de la UPV

La estrategia para eliminar el virus del aire se ha diseñado mediante la combinación de tres agentes químicos diferentes en concentraciones que no supongan un riesgo para la salud humana. “Cada uno de los agentes de desinfección tiene una función concreta. Uno de ellos tiene la función de atrapar el virus y hacer que no esté suspendido en el aire, que caiga al suelo. Los otros dos agentes se encargan de degradar el patógeno”, ha detallado el investigador responsable. Algunos de estos agentes se utilizan habitualmente para la desinfección de espacios y materiales, pero a concentraciones mucho más elevadas. “La nebulización con productos químicos podría reducir la viabilidad de algunos microorganismos en espacios cerrados. El tipo de agente químico, la concentración y los tiempos de aplicación son los factores que se tienen que controlar para ver el grado de reducción”, ha añadido la microbióloga.

Esta investigación ha sido posible gracias a una de las líneas de financiación que aprobaron las administraciones autonómicas, durante los primeros meses de pandemia, para proyectos orientados a combatir la COVID-19, como también hicieron el Gobierno Central y la Comisión Europea. Ambos investigadores consultados han valorado positivamente estas iniciativas, aunque han lamentado que los fondos no hayan sido suficientes para financiar completamente todos los proyectos.  “Es algo muy positivo, una iniciativa que potencie la obtención de resultados de investigación aplicables a esta situación es urgente y necesaria, aunque, casi siempre, insuficiente”, ha concluido la profesora Botella.

La utilidad del etiquetado nutricional Nutri-Score divide a la comunidad científica

Considerado por unos como una herramienta que puede propiciar decisiones que pongan en peligro la seguridad del consumidor y por otros como un recurso capaz de influir favorablemente en las decisiones de compra, Nutri-Score se implantará en España en los próximos meses con la comunidad científica dividida con respecto a su utilidad. Este etiquetado clasifica los alimentos en cinco categorías en función de su composición nutricional. Su objetivo es facilitar al consumidor la comprensión de la información nutricional para que pueda escoger la opción más adecuada. Así, se pretende luchar contra la obesidad y las enfermedades asociadas que suponían ya en 2019 un sobrecoste de casi 2.000 millones de euros en sanidad

Nube de etiquetas de Nutri-Score
Nube de etiquetas Nutri-Score
© Imagen creada por Colruyt Group

Aunque nadie cuestiona el problema que supone la obesidad y el sobrepeso, la utilidad de Nutri-Score para abordar la epidemia de malnutrición no cuenta con un amplio consenso científico. Por un lado, un colectivo de 70 investigadores ha publicado un comunicado en el que manifiestan su rechazo a la implantación de este etiquetado. Entre estos investigadores se encuentra Ana Mª Grau, catedrática de Tecnología de los Alimentos de la Universidad Politècnica de València, quien lamenta que, aunque es evidente la necesidad de incorporar  al etiquetado de los alimentos información útil que oriente al consumidor, ésta no sólo debe enfocarse al acto de compra si no también a cómo debe consumirse, y, por ello, asegura: “Ni el etiquetado Nutriscore ni ningún otro de los semáforos existentes ofrece una información adecuada en este sentido”.

«la información del etiquetado no sólo debe enfocarse al acto de compra si no también a cómo debe consumirse»

Ana María Grau. Tecnóloga de los alimentos. Universitat Politècnica de València

Por otra parte, un comité científico formado por 80 académicos emitió el pasado mes de enero un comunicado en el que denunciaban campañas de desprestigio «infundadas» contra Nutri-Score. En este sentido, Jesús Vioque, coordinador del grupo de nutrición de la Sociedad Española de Epidemiología y catedrático de Medicina Preventiva y Salud Pública de la Universidad Miguel Hernández de Elche, asegura: «No existe un método perfecto, pero las evidencias actuales indican que Nutri-Score es el método más adecuado frente a otros». 

No existe un método perfecto, pero las evidencias actuales indican que Nutri-Score es el método más adecuado

Jesús Vioque. Epidemiólogo. Universidad Miguel Hernández

Cómo funciona el algoritmo de Nutri-Score

El algoritmo sobre el que se ha creado la «fórmula» de Nutri-Score está basado en un sistema desarrollado por un equipo de investigación de Oxford para regular la publicidad dirigida a menores y en el sistema desarrollado por el Consejo de Salud Pública de Francia para crear un etiquetado frontal claro. 

Este sistema atribuye puntos en función de la composición nutricional por cada 100 gramos de producto. Cada producto puede obtener entre 0 y 10 puntos «desfavorables» (o puntos A) en función de las cantidades de azúcar, calorías, ácidos grasos saturados y sodio. Por otro lado, se les asigna puntos «favorables» o C entre 0 y 5 en función de la cantidad de proteínas, fibra y porcentaje de frutas, hortalizas, legumbres, frutos secos y aceites de oliva, nuez y colza por cada 100 gramos de producto.

La puntuación final, en un rango entre -15 y +40, se obtiene restando los puntos C a los puntos A. Sin embargo, si la puntuación A (valores nutricionales no recomendables) es mayor o igual a 11 y los puntos obtenidos por el contenido en fruta y hortalizas son menores de 5, en el cálculo final de puntos no se tienen en cuenta los puntos del contenido proteico. Así se evita que una puntuación A alta sea compensada por una puntuación de proteínas elevada.

Por ejemplo, si tomamos unas barritas de muesli con chocolate, el etiquetado indica que, de los nutrientes A, por cada 100 gramos de producto obtenemos, 443 kcal, 16,9 gramos de grasas, 6 de grasas saturadas, 28,6 gramos de azúcares y 0,53 gramos de sal. De los nutrientes C, obtenemos 4,3 gramos de fibra y 8,5 gramos de proteínas. Si aplicamos los valores como se muestra en la tabla, el total de puntos A sería 15 y el de puntos C, 9. Esto daría un resultado C, sin embargo, al aplicar la excepción, no se tienen en cuenta los 5 puntos por la cantidad de proteínas elevada por lo que el resultado del producto es D.

PUNTOS AENERGÍA (KCAL)AZÚCARGRASAS SATURADASSODIO (SAL)
0≤335≤4,5≤1≤90
1>335≤4,5>1>90
2>670>9>2>180
3>1005>13,5>3>270
4>1340>18>4>360
5>1675>22,5>5>450
6>2010>27>6>540
7>2345>31>7>630
8>2680>36>8>720
9>3015>40>9>810
10>3350>45>10>900
TOTAL 152760
Tabla de cantidades para el cálculo del valor final de Nutri-Score basado en colruyt group para el cálculo del valor de los espaguetis
PUNTOS CFRUTAS Y VERDURAS (%)FIBRASPROTEÍNAS
0≤40≤0,9≤1,6
1>40>0,9>1,6
2>60>1,9>3,2
3>2,8>4,8
4>3,7>6,4
5>80>4,7>8,0
TOTAL
9
045
Tabla de cantidades para el cálculo del valor final de Nutri-Score basado en colruyt group para el cálculo del valor de los espaguetis

Los límites del algoritmo: el aceite de oliva y las bebidas carbonatadas

Este algoritmo plantea problemas para algunos productos en los que las diferencias nutricionales no se apreciaban. Así, el Journal Officiel de la Republique Française publicó leves ajustes del algoritmo para tres categorías: las bebidas, los quesos y las grasas añadidas. 

En el caso del aceite de oliva, la modificación del algoritmo ha permitido que se califique con una C, la mayor puntuación para las grasas añadidas, y por encima de otros aceites que reciben una D. Sin embargo, algunos investigadores consideran que esta calificación supone un «fraude» que silencia todas las evidencias científicas que demuestran que el aceite de oliva es el prototipo de grasa comestible más saludable. Además, el hecho de que no haya diferencia entre el aceite de oliva y el aceite de oliva virgen extra es, a su juicio, una muestra de la poca precisión del algoritmo. 

El segundo de los puntos polémicos son las clasificaciones B de algunas bebidas carbonatadas. Para estos investigadores, esta calificación es el ejemplo paradigmático del desfase Nutri-Score. Por ello lamentan que se utilice un algoritmo ciego a los ingredientes de este tipo de bebidas, ricas en aditivos industriales y con un carácter adictivo y tóxico sobre importantes sistemas celulares del organismo. 

El algoritmo es «ciego» a algunos aditivos industriales presentes en las bebidas carbonatadas y que tienen un carácter adictivo y tóxico sobre importantes sistemas celulares del organismo

Sin embargo, los partidarios de su introducción alegan que Nutri-Score no es un sello de aprobación por lo que no se puede decidir que los alimentos clasificados con una A o B sean sistemáticamente sanos. Esta calificación sólo indica que son alternativas más indicadas que sus equivalentes con D o E.  Además, insisten, las comparaciones de etiquetados de Nutri-Score sólo pueden realizarse entre alimentos de la misma familia o para comparar el mismo alimento entre diferentes marcas. Por ello, la investigadora Pilar Galán, co-creadora de Nutri-Score insiste en  comparar la calificación de las bebidas carbonatada con la del aceite de oliva no tiene sentido ya que ni son de la misma familia de alimentos ni se utilizan del mismo modo en contextos similares.  

los partidarios de su introducción alegan que Nutri-Score no es un sello de aprobación por lo que no se puede decidir que los alimentos clasificados con una A o B sean sistemáticamente sanos

Nutri-Score : «solo» una herramienta más

Investigadores creadores de Nutri-Score, como la doctora Pilar Galán, reconocen las limitaciones de este etiquetado. Sin embargo, señala: “Nutri-Score es solo una medida más en el marco de las políticas nutricionales de salud pública, y complementario al resto de acciones de educación nutricional”.

Por ello, los expertos apuestan porque la implementación de Nutri-Score vaya acompañada de una campaña de comunicación adecuada, que explique cómo debe utilizarse, cuál es su significado y su complementariedad con otras recomendaciones nutricionales de salud pública. 

En este enlace puedes calcular la puntuación Nutri-Score de cualquier alimento introduciendo los datos de la información nutricional de la etiqueta.