Asóciate
Participa

¿Quieres participar?

Estas son algunas maneras para colaborar con el movimiento laicista:

  1. Difundiendo nuestras campañas.
  2. Asociándote a Europa Laica.
  3. Compartiendo contenido relevante.
  4. Formando parte de la red de observadores.
  5. Colaborando económicamente.

‘Fake news’ sobre las ‘fake news’ que dan la vuelta al mundo

¿Es rigurosamente cierto que la desinformación y los bulos viajan un 70% más rápido que las informaciones verídicas? Un artículo de Science, ya matizado, parecía cuestionar investigaciones del MIT y otras sobre la velocidad de dispersión de los bulos en Twitter, ampliamente difundidas. Esto demuestra la dificultad de abordar la desinformación desde la academia.


Desde hace años, la investigación académica han tratado de comprender el flujo de información falsa y desinformación, pero los resultados a menudo no son claros. Parece que hay consenso en señalar que la información errónea está muy extendida por las redes sociales y plataformas, pero no tanto en “cómo” sucede esa distribución. Ello conduce al riesgo de resaltar en titulares conclusiones erróneas y generalizar lo concreto. Vaya por delante que, efectivamente, la mentira y la desinformación se propaga con más velocidad en Twitter, pero con importantes matices.

Hace cuatro años, investigadores del MIT dirigidos por el científico informático Soroush Vosoughi usaron datos extraídos de tres millones de usuarios de Twitter publicados entre 2006 y 2017. La concusión, publicada en Science en noviembre de 2018, era que las noticias verificadas se movían de manera diferente a través de las redes sociales dependiendo de si eran ciertas o no. El artículo rezaba literalmente que “la falsedad se difundió significativamente más lejos, más rápido, más profundo y más ampliamente que la verdad”: concretamente, en cerca de un 70%.

Aparte de generar una avalancha de titulares en muchos idiomas (también Público sacó una pieza firmada por Europa Press), en cuatro años ese artículo ha sido citado unas 5.000 veces por otros artículos académicos, y mencionado en más de 500 medios de comunicación. El contexto era propicio: 2018 fue el año del escándalo de Cambridge Analytica, con la desinformación en el centro de la noticia.

La semana pasada apareció, también en la revista Scienceun completo artículo sobre el estudio de la desinformación firmado por Kai Kupferschmidt, que apuntó que el estudio del MIT estaba sesgado en su selección de noticias: sólo se analizó un subconjunto de noticias que habían sido verificadas por organizaciones independientes, lo que significaba que las historias tenían que haberse difundido ampliamente para merecer ese tipo de atención.

De hecho, citaba diferentes investigadores que volvieron a analizar los datos del artículo del MIT pero teniendo en cuenta ese sesgo (como el publicado por Jonas Juul, de la Universidad de Cornell, y Johan Ugander, de Stanford, en noviembre de 2021 en PNAS), entre otros datos, con conclusiones interesantes: una de ellas, que las diferencias estructurales entre las rutas de difusión de noticias falsas y verdaderas en Twitter desaparecen cuando se comparan sólo cascadas (o cadenas) del mismo tamaño.

Una corrección que ‘desinformaba’

Con esta bola de desinformación en la desinformación sobre estudios científicos sobre desinformación, resulta que Kupferschmidt ha tenido que corregir su artículo en Science porque, simplemente, había “malinterpretado” el trabajo de Juul y Ugander, que “no desacreditaban en absoluto” el estudio del MIT.

Oh boy… this is a correction I really wish I didn’t have to write.
⁰In my first big piece on misinformation in Science I ended up misinforming readers about a study on misinformation in Science.
(I know. No irony there whatsoever.) ⁰

Let me go through it slowly:— Kai Kupferschmidt (@kakape) March 24, 2022

Algunos medios estadounidenses han recogido este lío de bulos sobre supuestos bulos que estrictamente no lo son. Destaca entre ellos la publicación The Atlantic, que también canta un ‘mea culpa’ en medio de este batiburrillo científico sobre la desinformación. Gracias a una charla del autor de este reportaje, Daniel Engber, con el propio Juul, coautor del mencionado artículo de PNAS, obtuvo una explicación.

Cuando este científico reprodujo el trabajo del equipo del MIT, utilizando el mismo conjunto de datos, encontró el mismo resultado: las noticias falsas llegaron a más personas que la verdad, en promedio, y de forma más profunda y rápida. Pero Juul pensó que las cuatro cualidades planteadas (más lejos, más rápido, más profundo, más amplio) podrían no ser realmente distintas, sino sujetas a la difusión, que englobaría a las anteriores. O sea, aquí el tamaño (de la cadena de distribución) sí importa.A la gente le gusta la novedad, y es probable que las historias falsas sean más novedosas

De hecho, él y su compañero Ugander pudieron comprobar que efectivamente las noticias falsas se propagan de una manera similar a otras, lo que complica una posible identificación automática de los bulos por su forma de propagación. A la gente le gusta la novedad, y es probable que las historias falsas sean más novedosas. En la práctica, ello quiere decir que no se puede identificar una simple huella digital para detectar mentiras en las redes sociales y enseñarle a una computadora a identificarla.

Por tanto, la difusión de desinformación viraliza de manera similar a la de la información y difiere principalmente, entre otros factores, en la ‘contagiosidad’ básica durante su proceso de difusión.

La dictadura del titular

Al final, el problema de raíz de todo este batiburrillo tiene que ver con la exagerada cobertura que se hace de determinados estudios que, avalados por el prestigio de una revista científica, lanzan titulares irresistibles. Las conclusiones del estudio del MIT habían sido “sobreinterpretadas”, afirmaba ya en 2018 el propio Deb Roy, director del Centro de Comunicación Constructiva del Laboratorio de Medios del MIT y uno de los firmantes del ‘paper’.

Happy to see the extensive coverage of our Science paper on spread of true and false news online (https://t.co/rVw7SKVu14#analytics-noticia:contenido-enlace), but over-interpretations of the scope of our study prompted me to diagram actual scope (caution, not to scale!)@CrashTheMod3 and @sinanaral pic.twitter.com/Gd0vIfg7vO— Deb Roy (@dkroy) March 15, 2018

De hecho, sus conclusiones se podían aplicar a “un subconjunto muy pequeño de noticias falsas en Twitter” que se habían sido marcadas anteriormente como “falsas” por seis organizaciones de verificación de hechos.

Es cierto que las prisas del periodismo generalista actual suelen estar detrás de innumerables errores de contenido o de enfoque, sobre todo al hablar de hallazgos científicos o teóricos anunciados desde la academia, bien directamente o bien a través de publicaciones y revistas científicas. La exigencia de inmediatez es uno de los factores que carcomen la integridad y credibilidad tanto de los medios como de los reporteros.

Lo que ha pasado aquí es fruto, precisamente, de esa forma de informar a matacaballo: la prensa generalista asumió que se podían sacar las mismas conclusiones sobre todas las noticias falsas, mas allá del caso concreto que abordaba el primer informe.

Eso sí, a veces los autores de los estudios no ayudan a bajar la intensidad causada por su investigaciónThe Atlantic rescata una declaración a The Guardian del antes mencionado Deb Roy, uno de los científicos que firmaban el primer ‘paper’ del MIT. “Las mentiras se propagan seis veces más rápido que la verdad en Twitter”, declaró al diario británico.

Esa frase, quizá, pudo haber tenido mucho que ver en el resto de “malentendidos” que han llegado hasta hoy.

Maldito bulo…

En España, una de las mayores organizaciones que luchan contra la desinformación es la Fundación Maldita. Entre sus diversas actividades, una de ellas (esencial) es investigar de manera rigurosa y periodística los casos de desinformación que nos llegan tanto desde canales públicos (Twitter, por ejemplo) como privados (WhatsApp, mayormente). Uno de sus proyectos más interesantes es la construcción de una aplicación que, mediante técnicas de inteligencia artificial, ayuda a los trabajadores de Maldita a estar alertas a los bulos que corren por la red. La identificación de patrones es una ayuda indispensable para facilitar el trabajo a los llamados ‘fact-checkers’.

La directora y cofundadora de Maldita, Clara Jiménez, comenta a Público por teléfono que estas técnicas, “aplicadas a la desinformación, ayudan a hacer un poco más pequeño el campo de exploración”, aunque al final siempre hay un humano que contrasta y comprueba a fondo la información, de modo que así se determina qué es un bulo y qué no.

“La inteligencia artificial nunca es definitiva”, apunta Jiménez. “Hay algunas claves que tenemos identificadas, como la longitud de las cadenas (de contestación o de realización), el uso abundante de mayúsculas (también en titulares), determinados tipos de llamadas de atención, cantidad de likes relacionados con un perfil concreto, temática y palabras determinadas… Esta serie de factores nos permiten generar alertas y nos hacen el campo de investigación más pequeño”, afirma Jiménez, que insiste en que “siempre hay un humano al final que comprueba qué sucede realmente con ese mensaje, qué hay detrás y si es una información buena o falsa”.

Total
0
Shares
Artículos relacionados
Total
0
Share