Mientras ardía la catedral de Notre Dame, circuló una publicación en Facebook, un video granulado de lo que parecía ser un hombre con atuendo tradicional musulmán en la catedral.
Los verificadores de hechos de todo el mundo se pusieron en acción y señalaron que el video y las publicaciones eran falsos y que las publicaciones nunca fueron virales.
Pero esta semana, el gobierno de Sri Lanka cerró temporalmente Facebook y otros sitios para detener la propagación de información errónea tras los atentados del domingo de Pascua en el país que mataron a más de 250 personas. El año pasado, se culpó a la desinformación en Facebook por contribuir a los disturbios en el país.
Facebook, Twitter, YouTube y otros son cada vez más responsables del contenido de sus sitios a medida que el mundo trata de lidiar en tiempo real con los eventos a medida que se desarrollan. Desde los legisladores hasta el público, ha hecho un creciente clamor por los sitios para hacer más para combatir la información errónea, especialmente si se dirige a ciertos grupos.
Cambio de sentido de responsabilidad
Durante años, algunos críticos de las compañías de medios sociales, como Twitter, YouTube y Facebook, los han acusado de haber hecho lo mínimo para controlar y eliminar la información errónea en sus plataformas. Después de todo, las plataformas de Internet generalmente no son legalmente responsables del contenido allí, gracias a una ley federal de EE. UU. de 1996 que dice que no son publicadores. Esta ley se ha considerado una protección clave para la libre expresión en línea.
Y esa protección legal ha sido clave para el crecimiento explosivo de las empresas de internet. Pero existe un consenso cada vez mayor de que las empresas son éticamente responsables de los contenidos engañosos, especialmente si el contenido tiene una audiencia y se está utilizando para dirigirse a ciertos grupos.
Tuning en silbatos para perros
En una audiencia reciente del Comité Judicial de la Cámara de Representantes sobre la supremacía blanca y los delitos de odio, la congresista Sylvia García, una demócrata de Texas, interrogó a representantes de Facebook y Google sobre sus políticas.
"¿Qué has hecho para asegurarte de que todos tus amigos en el mundo conozcan los silbatos de los perros, las palabras clave, las frases, las cosas a las que las personas responden, para que podamos ser más receptivos y ser proactivos en bloquear algo de este lenguaje?", preguntó García.
Cada empresa tiene un enfoque diferente.
Facebook, que quizás ha tenido el mayor reconocimiento público sobre noticias falsas, no dice que sea una compañía de medios. Pero ha asumido una responsabilidad parcial sobre el contenido de su sitio, dijo Daniel Funke, reportero de la Red Internacional de Verificación de Hechos en el Instituto Poynter.
El gigante de las redes sociales utiliza una combinación de tecnología y humanos para abordar publicaciones y mensajes falsos que parecen dirigirse a grupos. Está colaborando con verificadores externos para eliminar el contenido objetable, y ha contratado a miles para lidiar con los problemas de contenido en su sitio.
Pantano de desinformación
Twitter ha apuntado bots, cuentas automáticas que difunden falsedades. Pero las noticias falsas a menudo nacen en Twitter y saltan a Facebook.
"Literalmente, no han hecho nada para combatir la desinformación", dijo Funke.
YouTube, propiedad de Google, ha alterado sus algoritmos para que sea más difícil encontrar videos problemáticos, o incrustar código para asegurarse de que el contenido de hechos relevantes sea más importante en la búsqueda. YouTube es "un pantano de desinformación simplemente porque hay mucho allí y vive más allá del momento", dijo Funke.
Otras plataformas de interés son Instagram y WhatsApp, ambas propiedad de Facebook.
Algunos dicen que lo que las compañías de internet han hecho hasta ahora no es suficiente.
“Para usar una metáfora que se usa a menudo en el boxeo, la verdad está contra las cuerdas. Está siendo golpeado ", dijo Sam Wineburg, profesor de educación en la Universidad de Stanford.
Lo que se necesita, dijo, es que las empresas asuman toda la responsabilidad: "Esto es un lío que hemos creado y vamos a dedicar recursos que reducirán las ganancias a los accionistas, porque requerirán una inversión más profunda en nuestra propia empresa".
Verificación de los hechos e inteligencia artificial
Una de las organizaciones de verificación de datos con las que trabaja Facebook es FactCheck.org. Recibe mensajes de información errónea de Facebook y otros. Sus reporteros revisan las historias y luego informan en su propio sitio si la información es verdadera o falsa. Esa información se remonta a Facebook también.
Facebook es "entonces capaz de crear una base de datos de malos actores, y pueden comenzar a tomar medidas contra ellos", dijo Eugene Kiely, director de FactCheck.org. Facebook ha dicho que hará más difícil encontrar publicaciones de personas o grupos que continuamente publican información errónea.
Los grupos verán menos incentivos financieros, señala Kiely. "Obtendrán menos clics y menos publicidad".
Funke predice que las empresas utilizarán la tecnología para semiautomatizar la verificación de hechos, lo que la hará mejor, más rápida y capaz de igualar la escala de información errónea.
Eso costará dinero por supuesto. También podría frenar el crecimiento de las empresas de internet. ¿Ser más responsable significa ganar menos dinero? Es probable que las compañías de medios sociales lo descubran.