El director ejecutivo de Meta, Mark Zuckerberg, ha anunciado este martes una serie de cambios importantes en las políticas y prácticas de moderación de la compañía, citando «un panorama político y social cambiante» y un deseo de «adoptar la libertad de expresión». Mediante un comunicado en vídeo, Zuckerberg ha indicado que Meta pondrá fin a su programa de verificación de contenidos realizado por compañías de terceros, y lo reemplazará con un sistema impulsado por la comunidad similar a las «notas de la comunidad» que utiliza Elon Musk en X. Los cambios afectarán a Facebook e Instagram, dos de las redes sociales más grandes del mundo, cada una con miles de millones de usuarios, así como a Threads. «Vamos a volver a nuestras raíces y a centrarnos en reducir los errores, simplificar nuestras políticas y restaurar la libertad de expresión en nuestras plataformas», comenzaba Zuckerberg en el vídeo. «Más concretamente, esto es lo que vamos a hacer. En primer lugar, vamos a deshacernos de los ‘fact-checkers’ (verificadores de contenidos) y a sustituirlos por notas comunitarias similares a X, empezando por Estados Unidos». La mecánica de las notas de la comunidad de X es muy sencilla: los usuarios se encargan de señalar las publicaciones potencialmente engañosas y que necesitan de más contexto, o que directamente son falsas. La idea de Zuckerberg es trasladar este modelos a los usuarios de Facebook o Instagram,en una labor que hasta ahora hacían expertos y organizaciones independientes de comprobación de datos. También dijo que los sistemas que la compañía había creado para moderar sus plataformas estaban cometiendo «demasiados errores» y agregó que Meta continuaría moderando agresivamente el contenido relacionado con las drogas, el terrorismo y la explotación infantil. «Hemos creado muchos sistemas complejos para moderar el contenido, pero el problema con los sistemas complejos es que cometen errores. Incluso si censuran accidentalmente solo el 1% de las publicaciones, eso significa millones de personas, y hemos llegado a un punto en el que son demasiados errores y demasiada censura», ha comentado. Más allá del final del programa de verificación de contenidos, Zuckerberg ha añadido que la compañía también eliminará algunas políticas de contenido en torno a temas polémicos como la inmigración y el género. Además, la empresa planea concentrar sus sistemas de moderación automática en lo que ha llamado como «violaciones de alta gravedad» y confiará en que sean los usuarios los que reporten otras infacciones. La decisión, según Zuckerberg, está influenciada por las recientes elecciones y como crítica hacia «los gobiernos y los medios tradicionales» que supuestamente buscan «censurar cada vez más». «Parecen un punto de inflexión cultural hacia la priorización, una vez más, de la expresión. Así que volveremos a nuestras raíces y nos centraremos en reducir los errores, simplificar nuestras políticas y restaurar la libertad de expresión en nuestras plataformas».