Meta, la empresa matriz de Facebook e Instagram, anunció la eliminación de su programa de verificación de hechos o de datos independiente. Este programa, implementado en 2016, consistía en colaboraciones con organizaciones externas encargadas de analizar la veracidad de la información compartida en las plataformas. Estas organizaciones, seleccionadas por su rigor periodístico y compromiso con la imparcialidad, se encargaban de revisar el contenido y marcar las publicaciones que contuvieran información falsa o engañosa, ayudando así a los usuarios a discernir la veracidad de la información que encontraban en línea.
Mark Zuckerberg, CEO de Meta, justificó la medida argumentando que los verificadores de hechos han sido “demasiado políticamente sesgados” y que han “destruido más confianza de la que han creado”. Esta decisión, que ha generado controversia y preocupación, se enmarca en una serie de cambios en las políticas de moderación de contenido de la compañía.
El anuncio se produce en medio de un aparente giro ideológico hacia la derecha dentro de las filas de Meta y un esfuerzo por mejorar la relación con el presidente electo Donald Trump.
De hecho, un día antes, Meta anunció que el aliado de Trump y CEO de UFC, Dana White, se uniría a su junta directiva, junto con otros dos nuevos directores. Zuckerberg ha expresado su deseo de desempeñar un “papel activo” en las discusiones sobre políticas tecnológicas con la nueva administración. Joel Kaplan, jefe de asuntos globales de Meta y reconocido republicano, reconoció que el anuncio está directamente relacionado con el cambio de administración y el apoyo de Trump a la “libertad de expresión”.
Te puede interesar: IA en vivo, traducción en tiempo real y Shazam, lo que lleva las nuevas Ray-Ban Meta de Mark Zuckerberg
La eliminación de los verificadores de hechos marca un cambio significativo en la forma en que Meta maneja las afirmaciones falsas y engañosas en sus plataformas. Con esta decisión, Zuckerberg sigue los pasos de Elon Musk, quien, tras adquirir X (anteriormente Twitter) en 2022, desmanteló los equipos de verificación de hechos de la compañía. Meta planea implementar un sistema similar al de X, donde “notas de la comunidad” generadas por los usuarios serán el único método para corregir afirmaciones falsas.
Además de eliminar los verificadores de hechos, Meta ajustará sus sistemas automatizados que buscan violaciones de políticas, los cuales, según la compañía, han resultado en “demasiado contenido censurado que no debería haber sido”. Los sistemas ahora se centrarán únicamente en verificar violaciones ilegales y de “alta gravedad”, como terrorismo, explotación sexual infantil, drogas, fraude y estafas.
Zuckerberg reconoció que la nueva política podría crear nuevos problemas para la moderación de contenido, pero enfatizó que se trata de una “compensación” para reducir la censura.
La compañía también eliminará las restricciones de contenido sobre ciertos temas, como la inmigración y la identidad de género, y revertirá los límites sobre la cantidad de contenido relacionado con la política que los usuarios ven en sus feeds.
Estos cambios radicales en las políticas de moderación de contenido de Meta han generado preocupación sobre el posible aumento de la desinformación y el discurso de odio en sus plataformas. Organizaciones como la Real Junta de Supervisión de Facebook han criticado la decisión, calificándola de “abandono de cualquier enfoque sano y seguro para la moderación de contenido” y “concesión política”.
El impacto de estos cambios en el futuro de la información y el discurso público en las plataformas de Meta aún está por verse. Sin embargo, es innegable que la decisión de eliminar los verificadores de hechos marca un punto de inflexión en la forma en que se modera el contenido en línea y plantea serias interrogantes sobre el papel de las empresas tecnológicas en la lucha contra la desinformación.
Imagen: Archivo ENTER.CO