Once consejos de la Royal Society contra los mentirosos online

Por Arturo Quirantes, el 24 enero, 2022. Categoría(s): Charlatanes • Ciencia ✎ 3
Varios Tom Cruise, algunos falsos
Tom Cruise, rey del deepfake (a su pesar, imagino)

Cuando los grupos conspiranoicos comenzaron a decir que las comunicaciones 5G eran el mal absoluto, la reacción inicial fue pensar “¿pero qué se fuma esta gente?” y esbozar una sonrisa condescendiente. Pero cuando la desinformación llevó a algunos de esos grupos a quemar torres 5G en Reino Unido, a los responsables de los telecos se les borró la sonrisa de la cara; y cuando los asaltos llegaron al personal técnico y un ingeniero fue apuñalado, la cosa se convirtió en algo serio.

La pseudociencia mata, y eso lo hemos visto en demasiados sitios para que tenga que añadir más ejemplos aquí. ¿Pero cuál es la mejor estrategia para combatirlos? Reírse de ellos no sólo es poco caritativo sino que a muchos parece que les resbala; combatirlos con argumentos requiere un gran esfuerzo, y no parece dar resultado; usar el sarcasmo (hola, suicidas homeopáticos) se queda corto frente a la gran cantidad de tonterías negacionistas que estamos oyendo últimamente, a cual más increíble (por ejemplo, ahora resulta que las horas ya no tienen 60 minutos y los poderes en la sombra nos están robando el tiempo).

En un intento por combatir la desinformación, la Royal Society del Reino Unido ha publicado un informe titulado “El ambiente de información online: comprendiendo cómo Internet da forma al compromiso de la sociedad con la información científica”. A lo largo de sus cien páginas, se analizan multitud de elementos como la necesidad de obtener información fiable, la forma en que nuestro cerebro procesa y evalúala la información, las políticas adoptadas por las redes sociales para limitar la desinformación, técnicas para crear desinformación (y para combatirlas), el papel de las instituciones de confianza o los retos técnicos que nos esperan de cara al futuro.

Esto último será un no parar. Para que hagan boca, el informe menciona un experimento con vídeos reales y falsos (deepfake) de Tom Cruise hecho por la Royal Society. Cuando se mostró un conjunto de vídeos a diversas personas, sólo el 11% logró detectar los que eran falsos; cuando estaban sobre aviso de que habría al menos un vídeo falso, la tasa de detección se duplicó pero siguió siendo de un escaso 22%. Si quiere usted jugar a esto, visite esta web llena de deepfakes de Tom Cruise. Todas son falsas, y algunas se ve claramente que lo son, pero con otras… no está nada claro.

Lo llevamos claro, ¿verdad? Quiero decir que si somos prácticamente incapaces de distinguir a un Tom Cruise falso de uno auténtico, ¿cómo va el ciudadano medio a distinguir entre verdad y falsedad, entre la evidencia científica y la mentira pseudocientífica? No hay más que ver, por ejemplo, la cantidad de estudios y de científicos (reales o supuestos) citados por los antivacunas para convencer a la gente, o como mínimo para hacer que les brote la duda.

Les recomiendo que lean el informe completo, pero como seguro que tienen cosas mejores que hacer saltaré directamente a los consejos. He aquí el endecálogo de la Royal Society para contra la desinformación digital:

  1. Combatir la desinformación que daña a la sociedad, no sólo a la que daña a individuos concretos. “Tiene que haber un reconocimiento de que la desinformación que afecta a los intereses grupales de la sociedad pueden causar daño individual, especialmente a niños y generaciones futuras que no tienen voz”.
  2. No basarse en la retirada de contenidos como solución. Aunque es una herramienta útil para luchar contra contenido como discursos de odio o abusos sexuales, no hay evidencia de que sea eficaz contra la desinformación científica. No sólo es difícil mostrar una causalidad entre desinformación online y daño offline, sino que puede generar desconfianza que acabará ayudando a los desinformadores. Y por último, parte de la desinformación viene de personas y grupos que creen de buena fe en lo que dicen, lo que puede considerarse censura pura y dura. Hay otras opciones mejores, como:
    • Desmonetizar contenidos (si no ganas dinero desinformando habrá menos incentivo)
    • Reducir la “viralidad” de los contenidos en general. Por ejemplo, WhatsApp impide a los usuarios enviar mensajes que han pasado por cinco sesiones de chat. También puede exigirse que se lee un artículo antes de retuitearlo.
    • Regular el uso de algoritmos de recomendación de contenidos.
  3. Apoyar a los grupos de comprobadores de hechos (“fact checkers”). Esos programas deben ser independientes y económicamente autosostenidos. Como ejemplo se cita una iniciativa de Google, que donó 6,5 millones de dólares a grupos de comprobadores de hechos en relación al coronavirus. Creo que el lector español habrá visto algún fact-checkers en los principales medios de comunicación.
  4. Intervenir no sólo en plataformas de alto impacto. Hay vida más allá de YouTube, Twitter o TikTok. Algunas de las plataformas más pequeñas tienen contenido dañino que ha sido bloqueado en las grandes.
  5. Intervenir contra la desinformación en plataformas de pensajería privada. Muchos usuarios se cambian de plataformas de conversación pública a foros privados y cerrados (p. ej. grupos de WhatsApp). Pero las intervenciones deben preservar la privacidad, de modo que la intervención no debe requerir conocimiento previo del contenido de un mensaje; eso implica, por ejemplo, análisis de tráfico, limitaciones del número de veces que se puede compartir un mensaje o avisos al usuario sobre el origen del contenido.
  6. Permitir el acceso a datos para investigadores independientes. Eso es para las empresas de redes sociales. De ese modo se facilita el estudio de la producción y consumo de la información, se podrá entender el daño que hace el contenido online, su grado de influencia, sus agentes generadores, etc. Todo de forma que se garantice la privacidad y la seguridad.
  7. Fomentar la colaboración entre diversos grupos de investigadores. Sociólogos computacionales, expertos en fuentes abiertas, bibliotecarios y otros interesados deben poder coordinarse y compartir sus datos. Eso permitirá, por ejemplo, tener datos de calidad para entrenar a los sistemas automáticos de detección de desinformación.
  8. Implementar políticas que apoyen la pluralidad informativa sana y sostenible. Priorizar noticias provenientes de fuentes fiables puede ser un riesgo para la pluralidad de medios informativos. Hay que tener cuidado con cómo se hacen las cosas.
  9. Invertir en iniciativas de “alfabetismo informativo”. No se trata de que la gente sepa leer sino de que puedan evaluar correctamente el contenido online.
  10. Fomentar el acceso abierto a publicaciones de investigación. Esto es una necesidad en la ciencia actual, y es también aplicable a la desinformación en campos como la pandemia covid.
  11. Fomentar y facilitar el acceso a contenidos digitales archivados. Un depósito legal digital eficiente y de fácil acceso ayudará mucho a investigadores, periodistas y en general a cualquiera con interés. Sería lo que algunos periodistas llaman “la hemeroteca” pero en mayor extensión. Además de ayudar contra la desinformación, nos permitirá tener un registro histórico de gran importancia de cara a futuras generaciones.

Como puede verse, no son consejos a nivel personal, del tipo “compruebe que son fuentes fiables” o “no se fíe de Miguel Bosé cuando habla de vacunas”, ni tampoco una lista de comportamientos a comprobar (como el decálogo de Pamies) sino un conjunto de recomendaciones a nivel de gobiernos, entidades y redes sociales. Algunas son difíciles de implementar por motivos técnicos o de copyright, otras rozan peligrosamente la censura o las libertades personales (y teniendo en cuenta la forma en que países como el Reino Unido ha usado excusas similares para controlar las comunicaciones y vigilar a los ciudadanos, da miedo), pero merece tenerlas en cuenta porque pueden ayudarnos a combatir la desinformación pseudocientífica.

Y a evitar muertes innecesarias, por favor.



3 Comentarios

  1. No estoy de acuerdo con casi nada, la mayor parte por no ser efectivo, cuando no contraproducente (la limitación de los contenidos), pues como ellos mismos indican, lo ven como censura y se enrocan todavía más en su postura y es ponerle puertas al campo. Otra parte porque directamente es ilegal, como el control de comunicaciones, yo mismamente abandoné Whatsapp y Telegram y me pasé a una app de cifrado fuerte descentralizada por los movimientos que está queriendo hacer la UE en ese sentido.

    Por otro lado, los fact-checker, por provenir de un núcleo claramente escorado en ideología (la Sexta), especialmente Newtrall, pero también en cierta medida Maldita. Se han realizado análisis sobre desmentidos donde se observa claramente el sesgo ideológico y todavía recuerdo alguno donde acusaban de bulo porque el dato real no era 70% (era 69%), o el que le hicieron a Errejón en plenas elecciones donde le acusaron de mentir por utilizar un dato… que había publicado como bueno el mismo «fact-checker» unas semanas antes. En ciertos sectores con alta carga ideológica, no es raro que creen más bulos de los que desmienten.

    El Open Access está muy bien… hasta que te piden 11000$ por subir un PDF a la web de Nature. Hay que cambiar el sistema entero de publicación. El Open Access tal y como se entiende hoy en día, es una alternativa PEOR a lo que ya hay (especialmente si tenemos en cuenta la existencia de sci-hub).

    Lo que ha probado funcionar es proporcionar información de calidad y fuentes fiables donde informarse, con mayor facilidad de acceso que las magufadas.

Deja un comentario

Por Arturo Quirantes, publicado el 24 enero, 2022
Categoría(s): Charlatanes • Ciencia
Etiqueta(s): , ,