Opinión: Meta ha eliminado su programa de verificación de hechos—¿Nos dirigimos hacia una anarquía de la libertad de expresión?

Image generated with DALL·E through ChatGPT

Opinión: Meta ha eliminado su programa de verificación de hechos—¿Nos dirigimos hacia una anarquía de la libertad de expresión?

Tiempo de lectura: 8 min.

Comprender el razonamiento detrás de la decisión de Meta de eliminar su programa de verificación de hechos podría ofrecer valiosas perspectivas sobre el futuro de Instagram, Threads y Facebook, especialmente cuando se considera a X como referencia y la dirección estratégica de Zuckerberg

La semana pasada, Mark Zuckerberg anunció el fin del programa de verificación de hechos de Meta para Facebook, Instagram y Threads. La noticia rápidamente se volvió viral, y la gente comenzó a preguntarse sobre las razones y consecuencias de esta importante decisión.

Este importante cambio suscitó serias preocupaciones sobre cómo se supone que los usuarios deben reaccionar y cómo la desinformación podría propagarse a nivel mundial.

Muchos usuarios comenzaron a eliminar sus cuentas de redes sociales en las plataformas de Meta, huyendo a otras redes como Bluesky—que pronto lanzará su versión de Instagram—o Mastodon, y temiendo que nos dirigimos hacia un entorno digital caótico.

Meta está replicando muchas de las estrategias de X, anteriormente Twitter. Elon Musk disolvió el Consejo de Confianza y Seguridad de la plataforma en diciembre de 2022, solo unos meses después de que compró la plataforma de redes sociales. En su lugar, desarrolló el programa Notas de la Comunidad para depender de los usuarios como verificadores de hechos, y Zuckerberg hará lo mismo.

Pero, desglosémoslo primero:

¿Por Qué Está Haciendo Esto Meta?

Bueno, existen muchas teorías además de la oficial: “libertad de expresión”. Meta afirmó que los sistemas para administrar contenido no estaban funcionando.

“Por muy bien intencionados que hayan sido muchos de estos esfuerzos, se han expandido con el tiempo hasta el punto en que estamos cometiendo demasiados errores, frustrando a nuestros usuarios y, con demasiada frecuencia, obstaculizando la libre expresión que nos propusimos habilitar”, afirma el anuncio oficial.

Sí, el sistema de moderación de Meta ya estaba roto

Si bien muchos de nosotros, especialmente los periodistas, estamos preocupados por la decisión de Zuckerberg sobre la “libertad de expresión”, que podría permitir que más cuentas con intenciones maliciosas difundan noticias falsas, deepfakes y contenido manipulador, el servicio de moderación de Meta ya era un problema significativo.

Meta ha tenido dificultades para proteger a los usuarios de contenido dañino, y muchos usuarios y cuentas han sido injustamente prohibidos en las plataformas de redes sociales. En Wizcase también hemos experimentado esta molesta situación.

Los sistemas de seguridad y moderación de la empresa estaban lejos de ser perfectos. Pero, ¿era la mejor opción hacerla desaparecer? Algunas de nosotras pensamos que esta no era la mejor solución, o incluso una solución.

Sin embargo, Zuckerberg aún decidió culpar a terceros.

¿Son los verificadores de hechos el problema?

Zuckerberg acusó a los servicios de terceros como el principal problema para la mala moderación de contenido y la censura. Él afirmó que “los verificadores de hechos han sido demasiado politizados” y han “destruido más confianza de la que han creado”, pero los moderadores y verificadores de hechos no están de acuerdo.

Contacté a un ex moderador de contenido que trabajó durante tres años para una empresa de moderación de contenido de terceros para Twitter, ahora X, quien prefirió mantener el anonimato.

Mi fuente consideró que esto no tenía sentido, ya que siempre seguían las pautas proporcionadas por el cliente, en su caso, Twitter. “Para mí, es difícil creer que los verificadores de datos estuvieran ‘demasiado sesgados políticamente'”, explicó, a través de un correo electrónico asegurando que los moderadores de contenido simplemente siguen las reglas. “No teníamos la autoridad para tomar medidas en cuentas con muchos seguidores o cuentas de personas políticas o famosas.”

Neil Brown, el presidente del Instituto Poynter, uno de los socios de verificación de datos de Meta, también le dijo a The New York Times que la acusación de Zuckerberg era falsa. Según Brown, su equipo utilizó las herramientas de Meta para realizar verificaciones de datos y fue Meta quien decidió cómo responder a ello.

Lori Robertson, editora gerente de FactCheck.org—otro de los socios de Meta desde 2016—dijo que su organización siempre ha mantenido estándares transparentes y que verifican la información de contenido proveniente de ambos partidos, demócratas y republicanos.

“Nuestro trabajo no se trata de censura”, escribió. “Proporcionamos información precisa para ayudar a los usuarios de redes sociales mientras navegan por sus feeds de noticias. No eliminamos, ni podríamos eliminar, contenido. Cualquier decisión de hacer eso fue de Meta.”

Una Decisión de Negocios

Muchos consideran que la decisión de Zuckerberg es profundamente personal. Una oportunidad para deshacerse de la responsabilidad y las consecuencias de mantener un entorno seguro en sus plataformas de redes sociales, complacer al próximo presidente Donald Trump y evitar la cárcel—Trump había amenazado previamente a Zuckerberg con encarcelamiento de por vida—, mientras, por supuesto, mantiene su negocio a flote.

Incluso hay teorías que sugieren que la jugada de Zuckerberg fue una manera de garantizar que TikTok sea prohibido y los usuarios prefieran Instagram Reels, dando a Meta más poder en la esfera de las redes sociales.

“Creo que la gente a menudo pasa por alto que las plataformas de redes sociales son empresas y, como tales, toman decisiones para su beneficio”, dijo la ex moderadora de contenido a la que entrevisté. Y muchos lo ven de esta manera también.

Tras ver la jugada de Zuckerberg y el comportamiento de Musk, el CEO de Mastodon, Eugen Rochko, anunció que transferirá la propiedad y los activos a una organización europea sin fines de lucro en un intento de mantener su plataforma “libre del control de un solo individuo rico”.

Nos dirigimos a una era de “energía masculina”, trabajo gratuito y desinformación

Todas las señales apuntan a que 2025 será incluso más difícil cuando se trata de distinguir la verdad, los hechos y las imágenes reales del contenido generado por la IA. Para empeorar las cosas, las plataformas de redes sociales más grandes del mundo no solo están prescindiendo de verificadores de hechos y moderadores de contenido, sino que también muestran una fuerte postura política que dará forma directamente a la dinámica de sus plataformas.

Contenido Más Agresivo Y Político

En ese proceso de alineación con los principios de Trump, Zuckerberg comenzó rápidamente a compartir públicamente creencias similares al movimiento MAGA de Trump.

En el podcast de Joe Rogan, el CEO de Meta dijo que la empresa podría utilizar más “energía masculina”. Y añadió: “Creo que tener una cultura que, como, celebra un poco más la agresión tiene sus propios méritos que son realmente positivos”, dijo.

Las plataformas de Zuckerberg también están cambiando rápidamente. Hace unos días, Adam Mosseri, jefe de Instagram y Threads, confirmó que veremos más contenido político y anuncios en Threads.

“A partir de esta semana en los Estados Unidos, y durante la próxima semana en el resto del mundo, vamos a agregar contenido político a las recomendaciones en Threads y a ajustar el control de contenido político a tres opciones: menos, estándar, la predeterminada, y más.”

¡Prepárense para debates políticos más intensos en las redes sociales este año!

Más Responsabilidades No Remuneradas Para Los Usuarios

El sistema de Notas de la Comunidad parece ser una solución para que las grandes empresas de redes sociales diluyan la responsabilidad de las absurdidades que la gente publica en línea. Los usuarios que participan en el programa, casi cualquiera con más de unos pocos meses en la plataforma puede unirse, tienen la oportunidad de añadir contexto a las publicaciones potencialmente engañosas para ayudar a las personas a entender mejor la publicación y su intención.

Sin embargo, al menos el programa de X parece ser un sistema de voluntariado y aquellos que participan e interactúan no reciben ninguna compensación financiera por sus trabajos. Meta no ha revelado más detalles de su programa, pero no parece que vaya a ser diferente en ese sentido.

¿Es una estafa las redes sociales? Los usuarios pasan horas creando videos, historias y comentarios, manteniendo los algoritmos activos y alimentando el entrenamiento de la IA. Ahora, también están añadiendo contexto y ayudando a las plataformas a construir un entorno más saludable, de forma gratuita, al menos para la mayoría que no se beneficia económicamente de un modelo de negocio.

Esta solución también es solo una curita cubriendo una herida profunda. Al final, es “el algoritmo” quien toma las decisiones, y organizaciones como MediaWise del Instituto Poynter dijeron que en muchos casos menos del 10% de las notas son realmente publicadas.

Una receta para más desinformación

He sido testigo personal de cómo mi X ha cambiado drásticamente en los últimos años. Amigos y personas a las que solía seguir han abandonado la plataforma, dando paso a absurdos debates de “hombres contra mujeres” y vídeos virales preparados para provocar ira y generar más de esas furiosas comparticiones.

Mientras tanto, el contenido político ha dominado cada vez más, casi arrastrándome a cada controversia e idea polarizadora.

Sin verificadores de hechos y moderadores de contenido, se espera que las opiniones polarizadas, los deepfakes, las noticias falsas y el contenido dañino en las plataformas de Meta alcancen su punto máximo.

La estrategia de Notas de la Comunidad no será suficiente para mantener el ritmo de la moderación de contenido, y en última instancia, las decisiones sobre lo que sucede en la plataforma siempre dependerán del “algoritmo”, ajustado a las preferencias del propietario de la plataforma.

Es incierto lo que sucederá en el futuro, incluso los resultados de X todavía están bajo evaluación, pero como usuarios de redes sociales, seremos parte de un impactante experimento social global.

El futuro sigue siendo incierto, incluso los resultados de los cambios de X aún se están desarrollando, pero una cosa es clara: como usuarios de redes sociales, todos somos participantes en un experimento global profundo y de gran alcance.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Dejar un comentario

Loader
Loader Ver más