Hay una diferencia entre desinformation y misinformation. En inglés se atrapa al vuelo, enfatiza la investigadora italiana del CSIC Sara Degli-Esposti. Pero en español no hay términos equivalentes. Una posible pareja léxica sería desinformación y confusión. Carece del mismo gancho sonoro, aunque lo fundamental es distinguir las campañas de desinformación intencionadas de las noticias falsas surgidas de forma no intencional.
Degli-Esposti habla con conocimiento de causa. Es directora científica del proyecto europeo de investigación TRESCA, que coordina la Universidad Erasmo de Róterdam. Su objetivo es facilitar la detección de bulos en el campo de la información científica. Ella trabaja desde Madrid —pertenece al Instituto de Filosofía del CSIC— con organizaciones de Italia, Austria o Bélgica. La iniciativa forma parte del programa de financiación de la investigación europeo Horizonte 2020.
“El conocimiento científico es complicado para cualquiera. A veces hay que simplificar tanto para que los ciudadanos que no sean estudiosos del área lo entiendan que puede manipularse más fácilmente”, reflexiona la investigadora. “Por eso hay mucho margen para generar desinformación, sobre todo en ámbitos que son políticamente controvertidos”.
Su compañero David Arroyo, investigador del CSIC especializado en seguridad de la información y datos, incide en este aspecto: “Ahora, como estamos en un escenario altamente polarizado, se da la circunstancia de que cualquier noticia de corte científico o tecnocientífico acaba convirtiéndose en un evento ideológico”.
La directora científica del proyecto subraya la facilidad con que se genera la desinformación: “Basta con extraer y descontextualizar una imagen añadiendo un mensaje que tú quieras promover, por ejemplo, del movimiento antivacunas”. Para combatir contra esto, los investigadores de TRESCA han creado una herramienta para detectar noticias falsas centrada en el usuario.
“La idea no es decirte que una noticia es verdadera o falsa sino darte un conjunto de herramientas que te ayuden a tomar la decisión”, apunta Arroyo, y añade que es imprescindible una concienciación. Lo compara con el ámbito de la ciberseguridad. Hace años los usuarios tenían menos cuidado al navegar o descargar archivos. Ahora son más conscientes de las amenazas que existen y son más cautelosos. Y lo mismo debería ocurrir con los bulos.
El comienzo del proyecto llegó en un momento crítico para la comunicación científica: enero de 2020, rayando el estallido de la pandemia. La primera tarea, que era determinar cuáles eran los temas candentes para enfocar el estudio, estaba resuelta antes de empezar con ella. La covid 19 monopoliza desde hace dos años la atención informativa en ciencia. En esta coyuntura se disparó la inversión europea en proyectos contra la desinformación, una muestra de la importancia que la UE concede a esta lucha. También se creó el Observatorio Europeo de Medios Digitales(European Digital Media Observatory), una plataforma independiente que lucha contra la desinformación.
El estrés y la confusión inicial provocados por la pandemia eran un caldo de cultivo ideal para las informaciones falsas. La OMS recoge la cifra de casi 6.000 hospitalizados en los primeros meses de pandemia por beber alcohol en altas concentraciones debido a la creencia de que esto mataría al coronavirus. Alrededor de 800 personas murieron por esta causa. Entre los mitos que circulaban por las redes, y aún lo hacen, estaban la ingesta de lejía para curar la enfermedad —incluso Donald Trump habló de inyectar este producto como solución—, la historia de la creación artificial del virus en un laboratorio de Wuhan—sin que haya evidencias de ello—, los chips en las vacunas o la relación del coronavirus con el 5G.
Los investigadores han integrado en su herramienta las capacidades de otras plataformas, como Google Fact Check Explorer, para combinarlas con sus propias fórmulas de detección. “Intentamos juntar conocimientos de psicología, de ciencias sociales, para saber cuan vulnerable eres tú a la desinformación”, explica Degli-Esposti. “Así sabemos por qué determinados mensajes, como teorías de la conspiración, enganchan a determinadas personas”.“Como estamos en un escenario altamente polarizado, se da la circunstancia de que cualquier noticia de corte científico o tecnocientífico acaba convirtiéndose en un evento ideológico”David Arroyo, investigador del CSIC
En los diferentes centros europeos que sacan el proyecto adelante trabajan investigadores especializados en humanidades, en ciencias sociales y perfiles técnicos. Degli-Esposti y Arroyo son una muestra de esta colaboración. Se conocieron porque entraron a la vez a trabajar en el CSIC. Coincidieron y se dieron cuenta de que podrían sumar para colaborar en algunos proyectos.
El equipo multidisciplinar enriquece el resultado. Arroyo, que se encarga de la parte técnica, comenta cómo se ha elaborado la función para identificar discursos. Se hace primero un pre-etiquetado de forma manual, extrayendo mensajes de diferentes foros de Internet, como Twitter o Facebook. Después se integra la información en un software que permite comparar textos. “Si tenemos perfiles de usuario que tienen una manera de escribir específica, y comparamos un fragmento de texto nuevo con las categorías que ya hemos creado, podemos decir que este texto nuevo corresponde, por ejemplo, a negacionistas”, expone el investigador.
Hay más factores que la herramienta tiene en cuenta. Comparando el titular de una información con su texto establece una medida de divergencia. Cuanto menos descriptivo sea el título, más sospechosa se vuelve la noticia. Asimismo, TRESCA combate el recurso de falsa autoridad, que consiste en citar a una personalidad o entidad de prestigio para justificar mensajes manipulados. El software comprueba que lo que ha dicho alguien no se esté sacando fuera de contexto.
Degli-Esposti hace hincapié en que el proyecto presenta un cambio de enfoque respecto a lo habitual: “En lugar de darle toda la responsabilidad a las plataformas y a los periodistas, queremos fomentar que los ciudadanos utilicen herramientas para identificar las noticias falsas”, insiste.
Pero lograr que la gente use su herramienta conlleva un ejercicio de pedagogía y el equipo es consciente de ello. Por eso tienen previstas acciones de difusión, entre ellas un curso online en Coursera, abierto y gratis para todos. El software se dirige a tres públicos: el usuario medio, que podrá acceder desde el móvil o el ordenador y hacer consultas, el periodista o comunicador científico y el programador, que podrá integrarlo en su aplicación a través de una API. Tres frentes distintos para cerrar el cerco a las fake news.
En cuanto a plazos, por ahora la herramienta no está disponible para el público. El equipo busca financiación para lanzarla y espera hacerlo antes de final de año. Lo que sí sacarán pronto es el curso online en Coursera, previsto para mediados de marzo, con el fin de mejorar las prácticas de comunicación científica. Será el preludio del congreso final de TRESCA, que reúne a finales de ese mismo mes a científicos, reguladores, prensa, divulgadores, entre otros perfiles, para debatir sobre cómo afrontar el reto de las fake news.