Meta anunció el martes que abandona sus programas de verificación de hechos de terceros en Facebook, Instagram y Threads y sustituye su ejército de moderadores de pago por un modelo de Community Notes (Notas de la Comunidad) que imita el denostado programa de voluntarios de X, que permite a los propios usuarios marcar públicamente el contenido que consideran incorrecto o engañoso.
En una entrada de blog en la que anunciaba la noticia, Joel Kaplan, recién nombrado director de asuntos globales de Meta, afirmaba que la decisión se había tomado para permitir que se debatieran más temas abiertamente en las plataformas de la empresa. El cambio afectará primero a la moderación de la empresa en Estados Unidos.
La libertad de expresión como argumento
“Permitiremos una mayor libertad de expresión eliminando las restricciones sobre algunos temas que forman parte del discurso dominante y centrando nuestra aplicación en las infracciones ilegales y de alta gravedad”, comentó Kaplan, aunque no detalló qué temas abarcarían estas nuevas normas.
En un video que acompañaba a la entrada del blog, Mark Zuckerberg, CEO de Meta, dijo que las nuevas políticas supondrían el regreso de más contenido político a los feeds de la gente, así como de publicaciones sobre otros temas que han encendido las guerras culturales en EE UU en los últimos años.
“Vamos a simplificar nuestras políticas de contenido y a eliminar un montón de restricciones sobre temas como la inmigración y el género, que están fuera de contacto con el discurso dominante”, señaló Zuckerberg.
Meta ha reducido significativamente la verificación de hechos y ha decidido deshacerse de las políticas de moderación de contenidos que había puesto en marcha a raíz de las revelaciones en 2016 sobre las operaciones de influencia llevadas a cabo en sus plataformas, que estaban diseñadas para influir en las elecciones y, en algunos casos, promover la violencia e incluso el genocidio.
En vísperas de las elecciones del año pasado en todo el mundo, Meta fue criticada por adoptar un enfoque de no intervención en la moderación de contenidos relacionados con esas votaciones.
Haciéndose eco de las declaraciones de Mark Zuckerberg el año pasado, Kaplan afirmó que las políticas de moderación de contenidos de Meta no se habían establecido para proteger a los usuarios, sino “en parte como respuesta a la presión social y política para moderar los contenidos”.
Kaplan también criticó a los expertos en comprobación de hechos por sus “sesgos y perspectivas”, que llevaron a una moderación excesiva: “Con el tiempo acabamos con demasiados contenidos sometidos a comprobación de hechos que la gente entendería como discurso y debate político legítimo”, escribió Kaplan.
Sin embargo, WIRED informó el año pasado de que en la plataforma han proliferado contenidos peligrosos como la desinformación médica, mientras que grupos como las milicias antigubernamentales han utilizado Facebook para reclutar nuevos miembros.
La culpa afuera
Zuckerberg, por su parte, culpó a los “medios tradicionales” de obligar a Facebook a implementar políticas de moderación de contenidos tras las elecciones de 2016: “Después de que Trump fuera elegido en 2016, los medios tradicionales escribieron sin parar sobre cómo la desinformación era una amenaza para la democracia”, señaló Zuckerberg. “Intentamos, de buena fe, abordar esas preocupaciones sin convertirnos en árbitros de la verdad, pero los fact-checkers simplemente han sido demasiado sesgados políticamente y han destruido más confianza de la que han creado”.
La decisión de Meta podría tener un impacto negativo directo en las organizaciones de medios de comunicación de EE UU que colaboran con la empresa para la comprobación de hechos, entre ellas Reuters y USA Today. Los socios de Meta no respondieron inmediatamente a las solicitudes de comentarios.