En los tensos días posteriores a la elección presidencial, un equipo de empleados de Facebook presentó al director ejecutivo, Mark Zuckerberg, un hallazgo alarmante: la desinformación relacionada con las elecciones se estaba volviendo viral en la plataforma.
El Político
Trump decía que la elección había sido amañada, y las historias de los medios de comunicación de derecha con afirmaciones falsas y engañosas sobre los votos desechados, los votos mal contados y los conteos sesgados estaban entre las noticias más populares de la plataforma.
En respuesta, los empleados propusieron un cambio de emergencia en el algoritmo de noticias del sitio; que ayuda a determinar lo que más de 2000 millones de personas ven todos los días.
Se trataba de hacer énfasis en la importancia de lo que Facebook denomina puntuaciones de “calidad del ecosistema de noticias”; o NEQ (por su sigla en inglés), una clasificación interna secreta que asigna a los medios noticiosos en función de las señales sobre la calidad de su periodismo, reportó NY Times.
Puntajes NEQ
Por lo general, los puntajes NEQ desempeñan un papel menor en la determinación de lo que aparece en los muros de los usuarios.
Sin embargo, varios días después de la elección, Zuckerberg acordó aumentar el peso que el algoritmo de Facebook le dio a los puntajes NEQ para asegurarse de que las noticias autorizadas aparecieran de manera más prominente; según dijeron tres personas que tienen información sobre la decisión y que no están autorizadas a divulgar las discusiones internas.
El cambio forma parte de los planes de “remodelación” que Facebook desarrolló durante meses para lidiar con las secuelas de una elección disputada.
Facebook menos polarizador
Era una visión de lo que podría ser un Facebook más tranquilo y menos polarizador.
Algunos empleados argumentaron que el cambio debía ser permanente; aunque no estaba claro cómo podría afectar la cantidad de tiempo que la gente pasaba en Facebook.
En una reunión de empleados celebrada la semana posterior a la elección, los trabajadores preguntaron si el “canal de noticias mejorado” podía mantenerse; dijeron dos personas que asistieron a la junta.
Facebook supervisa la división de integridad
Guy Rosen, un ejecutivo de Facebook que supervisa la división de integridad encargada de la limpieza de la plataforma; dijo durante una llamada con reporteros la semana pasada que los cambios siempre fueron temporales.
“Nunca ha habido un plan para volverlos permanentes”, afirmó. John Hegeman, quien supervisa el canal de noticias, dijo en una entrevista que, aunque Facebook podría dar marcha atrás a estos experimentos, los analizaría y aprendería de ellos.
El debate sobre las noticias ilustra una tensión central que algunos miembros de Facebook están sintiendo en la actualidad: que las aspiraciones de la compañía de mejorar el mundo a menudo están en conflicto con su deseo de dominio.
Facebook actualizó sus políticas para los empleados
En septiembre, Facebook actualizó sus políticas para los empleados con el fin de desalentar a los trabajadores de mantener debates políticos contenciosos en foros abiertos de Workplace, al decir que deberían limitar las conversaciones a espacios específicamente designados.
También exigió a los empleados que usaran sus rostros reales o la primera inicial de sus nombres como la foto de su perfil, un cambio interpretado por algunos trabajadores como una medida represiva.
Varios empleados dijeron que se sentían frustrados porque, para abordar temas delicados como la desinformación, a menudo tenían que demostrar que las soluciones propuestas no enojarían a los poderosos partidarios ni se harían a expensas del crecimiento de Facebook.
Herramienta “corregir el registro”
La herramienta “corregir el registro” no era tan eficaz como se esperaba, y que la empresa había decidido centrarse en otras maneras de poner freno a la información errónea.
La aplicación del detector de “cebo de odio” a las páginas de Facebook podría castigar injustamente a los editores por los comentarios de odio dejados por sus seguidores, o hacer posible que los malos actores dañen el alcance de una página al enviar spam con comentarios tóxicos.
Ninguno de los dos proyectos fue archivado por preocupaciones políticas o porque redujo el uso de Facebook.
De alguna manera, al final del gobierno de Trump, los cambios de Facebook para limpiar su plataforma se volverán más fáciles.
Por años, Trump y otros líderes conservadores acusaron a la compañía de tener sesgos anticonservadores cada vez que tomaba medidas para limitar la desinformación.