La comunidad de Wikipedia en español ha empezado a utilizar metodología específica de verificación para luchar contra la desinformación en sus páginas.
Es dífícil encontrar un mejor ejemplo de una obra de conocimiento colectivo en el que hayan participado millones de personas, pero ahí está la Wikipedia. A esta plataforma en 2021 le toca celebrar sus 20 años en plena era de la desinformación y de las fake news. Su comunidad en español se encuentra trabajando desde hace un año contra la desinformación para dar las herramientas a sus editores y crear una cultura de la verificación.
En junio de 2020, alguien nos preguntó vía Whatsapp a través del servicio de verificación por el origen de una IP. Las siglas corresponden a internet protocol en inglés, y es una dirección numérica única que responde a un dispositivo o red concreta y que desvela la ubicación de un usuario. Este rastro había sido encontrado en la página de la Wikipedia correspondiente a Isabel Díaz Ayuso, presidenta de la Comunidad de Madrid, donde alguien había intentado cambiar el titular de la página a “Isabel Díaz Ayuso (LA ILUMINADA)” y quiso añadir “(PARA NUESTRA DESGRACIA)” en el apartado que hace referencia a la duración de su mandato.
Como pudimos comprobar, el intento provenía desde una IP del Ministerio de Justicia, pero los cambios nunca llegaron a hacerse efectivos, gracias al sistema de funcionamiento de Wikipedia. Las reglas de la comunidad son muy estrictas y el cambio no cumplía los requisitos de referencialidad que revisan otros wikipedistas.
En la Wikipedia todo es transparente, como esa IP. Los contenidos son revisados por cientos de miles de editores, lo que garantiza que sus errores tarden apenas 5 minutos de media en ser corregidos, y la convierte en una enciclopedia con un alto índice de fiabilidad.
Lo reveló la ya conocida investigación de Nature en 2005 y lo han ratificado otros estudios posteriores. Uno de los últimos, de 2012 [PDF], sobre la calidad de sus artículos en comparación con otras enciclopedias, llevado a cabo por la Universidad de Oxford y EPIC (compañía educativa británica), otorgó mejores resultados a la Wikipedia en lo concerniente a precisión, referencias, estilo y legibilidad y juicio global. Tanto los resultados cuantitativos como cualitativos resultaron similares, aunque en algunos casos se encontró falta de cohesión interna y repeticiones en artículos de Wikipedia.
Wikipedia y los intentos de desinformación
Aún así el fenómeno de la desinformación afecta a la Wikipedia, y lo hace en dos niveles, según Virginia Díez, responsable de comunicación y políticas públicas de Wikimedia España. Por un lado, sufre los mismos intentos de distribución de bulos que existen en otras plataformas; y por otro, con desinformación no identificada que termina en Wikipedia de manera accidental.
Contra esto, según Díez, vienen funcionando bastante bien esos mecanismos que tiene la Wikipedia contra la desinformación, producto de estas dos décadas, con principios como los cinco pilares, que definen su funcionamiento para cientos de miles de personas revisando la información constantemente.
Un contenido vandálico no dura más de 5 minutos de promedio en la Wikipedia
“Digamos que es relativamente fácil hacer una edición maliciosa en la enciclopedia libre, pero los mecanismos internos de revisión y protección hacen que sea muy robusta ante ataques deliberados. Más que la mayoría de plataformas, redes sociales o incluso algunos medios”, dice Díez.
Ahí está el intento de modificación de la página de Ayuso, que nunca fue aceptado por los revisores de Wikipedia. El requisito que no cumplía estaba relacionado con la referencialidad.
La gestión de las referencias
Una regla básica dice que todo lo que se escriba en Wikipedia se tiene que referenciar, con un enlace a una fuente. La gestión de las referencias es, según Díez, además de uno de los pilares de edición, el núcleo de Wikipedia y también del éxito de la plataforma. A lo largo de sus dos décadas de existencia, esta plataforma ha sido también una herramienta que ha cambiado completamente la forma en que construimos y consumimos información y conocimiento en internet. La verificabilidad y las fuentes fiables son los dos primeros estándares fundamentales de la Wikipedia, y así están listados en su página de políticas oficiales en la web.
La verificabilidad se refiere a que todo artículo publicado debe tener referencias suficientes. Y además tienen que ser fuentes válidas. “Si estamos escribiendo la biografía de una persona, no puede ser la página web de esa persona, que normalmente se la hace alguien bajo su criterio”, ilustra Díez. El objetivo es que el lector pueda comprobar su exactitud, precisión y neutralidad del artículo, y buscar más información sobre el tema. Como consideran que Wikipedia no es una fuente de información primaria, todo el contenido debería haber sido publicado en otro lugar. Y si no hay una referencia válida, el contenido puede ser borrado.
Wikipedia es editada 350 veces por minuto y leída más de 8.000 veces por segundo. La mayor parte de las ediciones vandálicas (aquellas que no se adecuan a sus estándares de fiabilidad y neutralidad) se deshacen en promedio, antes de 5 minutos, según los últimos datos oficiales de la Fundación Wikimedia.
Hacia una cultura de la verificación
Por eso, lo que más les preocupa no es este tipo de intentos de desinformación. Toda esta cultura de referencias de la Wikipedia hace que estas ediciones sean al final contenidos que suelen durar poco en la enciclopedia.
“Por eso una campaña de bulos, una campaña obvia, es muy difícil que se mantenga en la plataforma, porque hay mucha gente revisando contenidos. Si se crea una cuenta nueva sólo para difundir una campaña de desinformación va a ser muy fácilmente identificable por la comunidad”, dice Díez.
Es más preocupante para ellas la desinformación que se le puede colar a alguien que sí hace un trabajo más cotidiano en la plataforma, y por eso desde hace un año desde Wikimedia España trabajan en metodologías para una cultura de la verificación, de la misma manera en que lograron implantar la cultura de las referencias.
Tras un primer encuentro sobre la lucha contra la desinformación, a finales de 2020 publicaron dos decálogos para luchar contra la desinformación en la enciclopedia en español. Sirven de guía para la comunidad que edita y de guía para la comunidad que lee y permiten asegurarse de que la información que se comparte o consume en Wikipedia está contrastada. Puedes descargarlos aquí:
- [Decálogo táctico para la edición en Wikipedia con foco en la lucha contra la desinformación – PDF]
- [Decálogo táctico para la lectura y crítica y la lucha contra la desinformación en Wikipedia – PDF]
Verificatones y código de conducta
Aunque a comienzos de año algunos medios anunciaron la creación de un Código de Conducta como parte de los esfuerzos de Wikipedia contra la desinformación, ambas iniciativas no corresponden al mismo proyecto, y desde Wikimedia España admiten que puede que la información que se dio a los medios fuera confusa.
El movimiento de Wikimedia a nivel global lleva varios años en un proceso de redefinición estratégica llamado Proyecto Wikimedia 2030 que está alineado con los objetivos de desarrollo de Naciones Unidas. Es un proceso largo en el que se han hecho consultas para ver distintos temas, desde infraestructura tecnológica hasta de salud de la comunidad, que es donde surge el Código de Conducta.
Las iniciativas para la lucha contra la desinformación en Wikipedia son más recientes, y tuvieron en junio de 2021 su primera prueba piloto, con el primer Verificatón.
La idea de la metodología del Verificatón es generar un espacio donde la gente se puede juntar de manera colectiva a revisar información. ¿Cómo funciona? Se hace una selección previa de artículos sobre el tema que se va a verificar. Los participantes tienen una tabla con indicadores cuantitativos y cualitativos para indicar cómo están esos artículos, y cada persona se asigna 1-2 artículos para revisar.
A nivel de grandes bloques, en el Verificatón se analizan fechas de edición, las discusiones comunitarias que se han hecho sobre el tema (que son para los que han hecho el artículo), los avisos comunitarios (que son para los que leen, si hay algo que tengan que saber antes de leer ese artículo). Luego se hace una revisión cuantitativa y cualitativa de las referencias del artículo y finalmente un apartado que llaman deep verification sobre la posiblidad de complementar con nuevas referencias. A través de este análisis se determina en qué estado se encuentran los artículos sobre esa temática, y es una manera de tener identificadas cosas que se puedan mejorar, si es el caso. Después del Verificatón, se puede hacer un Editatón para mejorar los contenidos.
El Verificatón piloto de junio fue un proyecto en el que Wikimedia España ha trabajado con Science Flows, un grupo de investigadores de la Universidad de Valencia con experiencia en la verificación de datos. Este piloto, que se hizo sobre la información relacionada con la COVID-19 dio buenos resultados, no tanto en lo que se refiere a mejorar contenidos sino para afinar la metodología.
“Para nosotros lo más importante es comprobar que estos indicadores son accesibles. Lo que nos interesa con esta metodología es que cualquier persona pueda verificar los contenidos que hay en Wikipedia o los contenidos sobre los que va a escribir. Si lo conseguimos se generará esa cultura y empezará a ser parte del ADN de la Wikipedia, así como lo ha sido la cultura de las referencias”, explica Díez.
Wikipedia: un doble rol frente a las fake news
Durante la pandemia de COVID-19, hubo récords de incrementos de tráfico diario con una comunidad creciente de profesionales médicos que aportan conocimiento sobre el coronavirus a la plataforma. En el ranking de las páginas más vistas de la Wikipedia en español en 2020, la segunda y la tercera corresponden a la pandemia y el COVID-19. Entre las diez primeras aparecían otras pandemias: la de la gripe de 1918 y la de la peste negra. Wikipedia ha sido una de las fuentes de información sobre salud más consultadas y su rol al proveer información fiable sobre la COVID-19 le ha llevado a una colaboración con la Organización Mundial de la Salud en octubre de 2020.
La gigantesca comunidad, de 300.000 editores activos y 82 millones de usuarios registrados, produce, además de entradas publicadas, conocimiento: su masivo corpus de textos, y especialmente la base de datos libre y colaborativa llamada Wikidata, es utilizada como alimento de la inteligencia artificial de muchos proyectos en todo el mundo. Cuando haces una pregunta a un altavoz inteligente, como Alexa o Siri, lo que te responde, a veces, es algo que lee en la Wikipedia.
Wikipedia se encuentra frente al fenómeno de las fake news en un doble rol, como señala en un estudio sobre el tema Diego Saez-Trumper [PDF]. Por un lado es utilizada por métodos automáticos para determinar la credibilidad de una información y al mismo tiempo es objetivo de ataques por parte de quienes quieren introducir desinformación.
Actualmente, la principal defensa de los proyectos de Wikimedia contra las fake news es el trabajo hecho por los miembros de la comunidad, y específicamente los ‘Verificadores’ (patrollers, en inglés) que es como llaman a los usuarios con ese permiso, que revisan las páginas de reciente creación. En Wikipedia en español actualmente hay 288 verificadores.
Fuentes
- Virginia Díez, responsable de comunicación y políticas públicas de Wikimedia España
- Pablo Aragón, investigador en la Fundación Wikimedia
- Giles, J. Internet encyclopaedias go head to head. Nature 438, 900–901 (2005)
- Casebourne, I., Davies, C., Fernandes, M., Norman, N. (2012) Assessing the accuracy and quality of Wikipedia entries compared to popular online encyclopaedias: A comparative preliminary study across disciplines in English, Spanish and Arabic. Epic, Brighton, UK [PDF]
- Saez-Trumper, Diego (2019) Online disinformation and the role of Wikipedia [PDF]
- Los cinco pilares de Wikipedia