La Real Academia de Ciencias de Galicia acaba de otorgar los Premios de Investigación Ernesto Viéitez Cortizo 2022. El proyecto premiado en la categoría de jóvenes investigadores ha sido un trabajo dirigido a la detección de información falsa relacionada con la salud en los medios online. Lo lidera Marcos Fernández Pichel, investigador predoctoral del Centro Singular de Investigación en Tecnologías Intelixentes (CiTIUS) de la Universidad de Santiago.
En este trabajo, que se publicó en 2022 en la revista Engineering Applications of Artificial Intelligence, el equipo del CiTIUS desarrolló un sistema de recuperación de información capaz de proporcionar resultados correctos y creíbles. El propio Marcos Fernández nos da más detalles al respecto.
"Detectar automáticamente desinformación online relacionada con la salud" es el objetivo de vuestro trabajo. Ante la inmensidad de Internet y las redes, ¿no es poner puertas al campo? ¿Realmente se puede pensar en un sistema que alerte de forma automática al respecto?
Lo cierto es que sí que es un problema altamente complejo de atajar porque, como bien indicas, existen ciertos medios donde la desinformación se presenta de manera incontrolada. Pero precisamente por eso necesitamos herramientas automáticas de análisis y alerta, puesto que hoy en día es inviable monitorizar estos contenidos de manera manual. Nosotros aquí tratamos de centrarnos en lo esencial. Estudios previos han demostrado que el 80% de las personas utilizan los buscadores como Google para recibir consejo médico, y algunas investigaciones han demostrado que no es extraño que las personas tomen decisiones incorrectas, que deriven en daños personales, tras haber interactuado con desinformación. Nuestros trabajos se centran en identificar desinformación o bulos médicos en la web, particularmente en los resultados de búsquedas.
¿Están identificadas las áreas o especialidades médicas que generan más información errónea o bulos?
Hasta el momento, no hemos hecho un análisis específico por áreas o especialidades médicas. De hecho, sería una línea de investigación de mucho interés que nos planteamos abordar a corto plazo.
Hemos realizado experimentaciones con casos de búsquedas médicas agrupadas por grandes temáticas. Las primeras evaluaciones las realizamos con consultas relacionadas con COVID-19 porque además en su momento se generaron recursos a nivel internacional con casos prototípicos de búsqueda sobre COVID-19 y páginas web etiquetadas por credibilidad y correctitud. En los últimos dos años también hemos trabajado con consultas médicas más generales sobre tratamientos o fármacos.
Hoy en día, estamos observando un efecto curioso y es que los resultados que se presentan acerca del COVID-19 son mucho más cuidadosos y apenas contienen información incorrecta, mientras que consultas médicas más “simples” o del día a día como, por ejemplo, “si debo ponerle hielo a una quemadura” o “si cierto ejercicio abdominal produce dolor lumbar” son más problemáticas para los buscadores.
¿Ha sido la pandemia una "edad de oro" para los creadores y difusores de informaciones de salud falsas?
Creo que ha sido la edad en la que nos hemos dado cuenta como sociedad de que este problema existía y de su magnitud. Sin embargo, creo que siempre han existido bulos que han sido dañinos.
¿Cuál es la actitud habitual del usuario ante este tipo de informaciones? ¿Impera el sentido crítico, se buscan alternativas, se contrasta o se acepta acríticamente?
Como ya he comentado, estudios previos demuestran que la gente suele buscar este tipo de información online y además tiende a quedarse con la primera respuesta que encuentra. Esto es problemático si la primera respuesta no es la correcta. Por este motivo, nosotros también estamos desarrollando estudios de cómo los/as usuarios/as finales se ven afectados por la interacción con la desinformación y cómo darles herramientas para que sean más críticos. Un aspecto que nos interesa especialmente es analizar lo críticas que son las personas ante la desinformación en función de distintos rasgos psicológicos.
En la difusión de bulos o informaciones interesadas juegan un papel muy importante las redes que no tienen exposición pública como Whatsapp o Telegram. ¿Qué actuaciones correctoras se pueden plantear al respecto?
Lo cierto es que es algo que no abarcamos en esta investigación, pero nos lo hemos planteado. Está claro que este tipo de medios son una fuente ingente de bulos y desinformación, pero por el carácter privado que poseen es más difícil aportar una solución. Creemos que la solución en este caso debe partir de la concienciación y advertencia de que la información que se recibe a través de este tipo de medios no siempre es fiable.
Por otra parte, las tecnologías y modelos que diseñamos y evaluamos son en general de libre disposición para la comunidad, por lo que también podrían ser adoptados e implantados por moderadores o compañías interesadas en filtrar desinformación dentro de sus plataformas. De hecho, los resultados de predicción de credibilidad y correctitud que hemos desarrollado en el CiTIUS son competitivos con respecto a diversos modelos predictivos construidos por los mejores equipos de investigación del mundo.
Explicado para legos en la materia, ¿en qué consiste vuestra solución tecnológica?
Nosotros lo que ofrecemos y, por lo que nos ha premiado la RAGC, es una tecnología que, dada una consulta relacionada con la salud, incorpora distintas fases para la localización de respuestas relevantes, correctas y creíbles.
Para ello, primeramente necesitamos localizar en las páginas de resultados aquellas partes que son relevantes para contestar a estas preguntas médicas. Técnicamente, esto lo solucionamos con estrategias de recuperación de pasajes, que es algo en lo que mi grupo de investigación tiene una trayectoria muy amplia.
Seguidamente, incorporamos distintos componentes de aprendizaje profundo (deep learning) aplicados al análisis de los textos recuperados. Se trata de estimar si esos pasajes de interés para el usuario aportan información correcta y creíble. Y para ello necesitamos tecnologías avanzadas de procesamiento de lenguaje natural. Habréis visto en la prensa en las últimas semanas muchas noticias sobre ChatGPT y sus capacidades avanzadas de lenguaje. Nosotros hemos trabajado con tecnologías similares, adaptándolas a nuestro caso de uso y tratando de sacar partido a sus sofisticadas capacidades de representación de lenguaje. El sistema resultante es una plataforma flexible que permitiría a moderadores de redes sociales, administradores de páginas web o grandes actores como Google identificar y potencialmente limpiar de su lista resultados nocivos.
¿Se podría asimilar a un sistema de IA que analiza la veracidad y fiabilidad científica de los contenidos relacionados con salud?
Exactamente, para distinguir si un contenido es desinformación o no. Nuestro sistema utiliza el conocimiento científico disponible en el momento. Algunos elementos de los que introducimos en nuestro sistema son supervisados y esto quiere decir que para construir esas soluciones predictivas nos beneficiamos de ejemplos de información correcta (por ejemplo etiquetada por expertos médicos). En otros casos, implementamos soluciones no supervisadas, que tratan por sí mismas de estimar la credibilidad de la información médica publicada. Estas variantes son especialmente útiles en las fases iniciales de la propagación de información incorrecta, puesto que en esos momentos no abundan datos etiquetados sobre contenidos tóxicos que se están comenzando a propagar.
¿Qué puede hacer el profesional sanitario para contribuir a que la información que se distribuya sea útil y fiable?
El papel de los profesionales sanitarios es crítico. Al final, son los que actúan como validadores de todo el proceso y los que determinan que algo sea correcto o no. Por poner un ejemplo, tenemos también proyectos para analizar trazas de personalidad y de desórdenes mentales en redes sociales y el papel de los/as psicólogos/as es muy importante como expertos en la materia.
Desde el punto de vista de presencia de desinformación vs información de calidad, la labor de los profesionales sanitarios es fundamental y conviene fomentar su presencia en la web y medios sociales. Por ejemplo, para incitar la difusión de recomendaciones reputadas y alertar sobre contenidos tóxicos. De ese modo, luego se puedan construir herramientas tecnológicas que tomen ventaja de esa valiosa información para promocionarla y bloquear por ejemplo recomendaciones nocivas. No se trata de que estas herramientas actúen como sustitutas del profesional sanitario sino que utilicen sus recomendaciones y sugerencias como guías para filtrar masivamente contenidos, alertar sobre posibles abusos, etc.
New Heart busca mejorar los indicadores de salud cardiovascular y transformar el modelo asistencial a…
Los colegios de médicos de Galicia superan ya los 120 años y con ese motivo…
Julio Ancochea, presidente de Asomega, pregunta al conselleiro de Sanidade sobre el reto de ejercer…
El lugar de celebración será el propio Centro Gallego de Madrid, en un acto que…
El presidente de Asomega, Julio Ancochea, recoge por cuarta vez el reconocimiento al servicio de…