Cómo se propaga la información errónea en las redes sociales y qué hacer al respecto

Nos tomamos muy en serio la información errónea, Mark Zuckerberg, director ejecutivo de Facebook escribió pocas semanas después de las elecciones de 2016. En el año transcurrido desde entonces, la cuestión de cómo contrarrestar el daño causado por las noticias falsas se ha convertido en un problema urgente tanto para las empresas de tecnología como para los gobiernos de todo el mundo.





Sin embargo, por muy extendido que esté el problema, las oportunidades de vislumbrar información errónea en acción son bastante raras. La mayoría de los usuarios que generan información errónea tampoco comparten información precisa, por lo que puede ser difícil descubrir el efecto de la información errónea en sí. Por ejemplo, cuando el presidente Trump comparte información errónea en Twitter , sus tweets tienden a volverse virales. Pero es posible que no se estén volviendo virales debido a la desinformación: todos esos retweets pueden deberse a la popularidad de la cuenta de Trump, o al hecho de que escribe sobre temas políticamente cargados. Sin un conjunto correspondiente de tweets precisos de Trump, no hay forma de saber qué papel juega la desinformación.



Para los investigadores, aislar el efecto de la información errónea es, por lo tanto, un gran desafío. No es frecuente que un usuario comparta información precisa e inexacta sobre el mismo evento y casi al mismo tiempo.



Sin embargo, poco después del reciente ataque en Toronto, eso es exactamente lo que hizo un periodista de CBC. En las caóticas secuelas del ataque, Natasha Fatah publicó dos relatos de testigos presenciales en competencia: uno (erróneamente, como resultó) que identificaba al atacante como enojado y del Medio Oriente, y otro identificándolo correctamente como blanco.



Los tweets de Fatah no son de ninguna manera definitivos, pero representan una especie de experimento natural. Y los resultados muestran cuán rápido puede viajar la información errónea. Como ilustra el gráfico a continuación, el tweet inicial, que identificó erróneamente al atacante como del Medio Oriente, recibió mucho más compromiso que el preciso en las aproximadamente cinco horas posteriores al ataque:



cuantos astronautas hay en el mundo



Peor aún, el tweet que contenía información correcta no funcionó mucho mejor en un horizonte de tiempo más largo, hasta 24 horas después del ataque:



(Los datos y el código de los gráficos anteriores son disponible aquí .)



En conjunto, los tuits de Fatah sugieren que la desinformación en las redes sociales es realmente un problema. Como tal, plantean dos preguntas: Primero, ¿por qué el tweet incorrecto se difundió mucho más rápido que el correcto? Y, en segundo lugar, ¿qué se puede hacer para evitar una propagación similar de información errónea en el futuro?

con que frecuencia hay un eclipse solar

La velocidad de la desinformación en Twitter

Durante la mayor parte de la historia de Twitter, su suministro de noticias fue sencillo: la aplicación mostraba los tweets en orden cronológico inverso. Eso cambió en 2015 con la introducción de Twitter un suministro de noticias algorítmico , que mostraba tweets basados ​​en un cálculo de Relevancia en lugar de lo reciente.



uno de estos dias a la luna

El año pasado, el equipo de ingenieros de la empresa reveló cómo funciona su algoritmo actual . Al igual que con Facebook y YouTube , Twitter ahora se basa en un algoritmo de aprendizaje profundo que ha aprendido a priorizar el contenido con una mayor participación previa. Al analizar los datos de Twitter, el algoritmo se ha enseñado a sí mismo que es más probable que los usuarios de Twitter se queden si ven contenido que ya ha recibido muchos retweets y menciones, en comparación con contenido que tiene menos.



El flujo de información errónea en Twitter es, por tanto, una función de factores humanos y técnicos. Prejuicios humanos Juega un papel importante : Dado que es más probable que reaccionemos al contenido que aprovecha nuestras quejas y creencias existentes, los tweets incendiarios generarán una participación rápida. Solo después de que suceda el compromiso, el lado técnico entra en acción: si un tweet es retuiteado, marcado como favorito o respondido por suficientes de sus primeros espectadores, el algoritmo de suministro de noticias lo mostrará a más usuarios, momento en el que aprovechará los sesgos. de esos usuarios también, lo que genera una participación aún mayor, y así sucesivamente. En el peor de los casos, este ciclo puede convertir las redes sociales en una especie de máquina de sesgo de confirmación , uno perfectamente diseñado para la difusión de información errónea.

Si miras los tweets de Fatah, el proceso anterior se desarrolla casi a la perfección. Un pequeño subconjunto de seguidores de Fatah se involucró de inmediato con el tweet que informaba que el relato de un transeúnte del atacante estaba enojado y del Medio Oriente, lo que desencadenó un ciclo en el que una mayor participación engendró una mayor audiencia y viceversa. Por el contrario, el tweet que identificó con precisión al atacante recibió poca participación inicial, fue marcado menos por el algoritmo de suministro de noticias y, por lo tanto, nunca se puso de moda. El resultado es el gráfico de arriba, que muestra un aumento exponencial en el compromiso para el tweet inexacto, pero solo un aumento modesto para el preciso.



Qué hacer al respecto

Así como el problema tiene un lado tanto humano como técnico, también lo tiene cualquier solución potencial.



En lo que respecta a los algoritmos de Twitter, no hay escasez de fruta madura. Durante un ataque en sí, Twitter podría promover las cuentas de la policía o del gobierno para que la información precisa se difunda lo más rápido posible. Alternativamente, también podría mostrar una advertencia en la parte superior de sus fuentes de búsqueda y tendencias sobre la falta de confiabilidad de los relatos iniciales de testigos oculares.

Aún más, Twitter podría actualizar sus funciones de búsqueda y mientras estabas fuera. En el caso del ataque de Toronto, no se podía esperar que Twitter identificara la verdad más rápido que la policía de Toronto. Pero una vez que la policía identificó al atacante, Twitter debería haber implementado sistemas para restringir la visibilidad del tuit de Fatah y otras tendencias de desinformación. Por ejemplo, más de diez días después del ataque, los dos primeros resultados de una búsqueda del atacante eran estos :

Lectura de tweets:

primer meridiano en un mapa
Lectura de tweets:

(Realicé la búsqueda anterior mientras estaba conectado a mi propia cuenta de Twitter, pero una búsqueda mientras estaba desconectado produjo los mismos resultados).

Desafortunadamente, estos no fueron tweets aislados. Cualquiera que use Twitter para seguir y conocer el ataque ha sido recibido con una gran cantidad de desinformación e invectivas . Esto es algo que Twitter puede combatir: puede contratar a un equipo editorial para rastrear y eliminar la información errónea flagrante de las búsquedas de tendencias, o puede introducir una nueva función de informes para que los usuarios marquen la información errónea a medida que la encuentran. Ninguna de las opciones es perfecta y la última no sería trivial de implementar. Pero el status quo es peor. ¿Cuántos usuarios de Twitter siguen pensando que el ataque de Toronto fue obra de yihadistas de Oriente Medio y que las políticas de inmigración del primer ministro Justin Trudeau tienen la culpa?

Sin embargo, en última instancia, la solución a la desinformación también deberá involucrar a los propios usuarios. Los usuarios de Twitter no solo deben comprender mejor sus propios prejuicios, sino que los periodistas en particular deben comprender mejor cómo se pueden aprovechar sus errores. En este caso, los errores más grandes fueron humanos: Fatah tuiteó una cuenta sin corroborarla, a pesar de que el testigo en cuestión, un hombre llamado David Leonard, él mismo señaló que no puedo confirmar o negar si mi observación es correcta.

Para contrarrestar la desinformación en línea, podemos y debemos exigir que los algoritmos de suministro de noticias no amplifiquen nuestros peores instintos. Pero no podemos esperar que nos salven de nosotros mismos.