Hemos empezado el año con noticias alarmantes sobre Meta. Por supuesto, la alarma sobre lo problemático de que semejante gigante tenga tanto peso en nuestras vidas sociales y políticas no es nada nuevo —la imagen que encabeza este texto es de cuando estalló el escándalo de Cambridge Analytica, en 2018—, pero llueve sobre mojado y, como estamos ya en la segunda temporada del trumpismo, parece que nos lo estamos tomando más en serio.
Para empezar, hay que aclarar cómo modera Meta el contenido en sus plataformas y qué es lo que cambiará a partir de ahora. Meta puede hacer cuatro cosas para decidir qué vemos y qué no vemos en Instagram, Facebook, Threads y WhatsApp:
1. Colaborar con factcheckers
Como consecuencia de escandalillos como haber permitido la manipulación de las elecciones de EE UU y el referéndum del Brexit, o contribuir a un genocidio (el del pueblo rohinyá, en Birmania), Meta inició un programa de colaboración con entidades de verificación de noticias. La idea es aparentemente simple: cuando estas entidades independientes detectan que se está difundiendo una noticia falsa, Meta le dice a su algoritmo que lo enseñe a menos gente y le pone una etiqueta diciendo «Según el factchecker X, esto es falso porque tal y tal». Digo aparentemente porque muchas veces no es fácil decidir cuando algo es factualmente falso, o es solo un relato tendencioso (en cuyo caso no se etiqueta), pero aquí tenéis un post de Meta en 2021 presumiendo de lo bien que funcionaba. Por si lo borran, o por si queréis más rigor, esta nota de Maldita (una de las verificadoras colaborantes), que recoge evidencia científica.
Este programa, que se desplegó lentamente y siempre con mucha más diligencia en inglés que en el resto de idiomas, es lo que Zuckerberg ha anunciado ahora que se acaba.
2. Implementar las Notas de la comunidad
Las Notas de la comunidad son un mecanismo que Jack Dorsey empezó a desarrollar en Twitter y que Elon Musk ha mantenido como su principal apuesta por la democracia en X. He de reconocer que a mí el enfoque, en teoría, me gusta: se trata de que sean les usuaries de la plataforma quienes decidan si un contenido debe llevar una advertencia de que es erróneo o no. Les usuaries debaten y, cuando se llega a suficiente consenso, se publica la rectificación. En teoría, está bien distribuir el poder, entendiendo que entre miles de editores prevalecerá la versión más equilibrada. Así funciona la Wikipedia. El problema es que, en 2025, las redes sociales son otra cosa: un campo de batalla encarnizada en el que ejércitos de trols se organizan para que prevalezcan sus visiones, en el que puede ganar quien pague a más mercenarios y en el que, en cualquier caso, todo sucede demasiado rápido: para cuando una publicación anexa su nota correctora, lleva horas (o días) a la vista y el daño ya está hecho. La mayoría de las veces no llega a anexarla nunca porque no hay suficiente gente revisando, o porque no hay manera de que se pongan de acuerdo.
Estando tal y como están las cosas, dejar una plataforma al cuidado de un sistema así es un ejercicio de cinismo comparable a esperar que «la mano invisible» regule el mercado de manera justa. Pura ideología de tech-bro. ¿Es X ahora un oasis de la información veraz y el debate sano? No, obviamente. Pues en Meta tampoco va a mejorar nada con este sistema.
3. Tener normas propias y mecanismos para aplicarlas
Como todas las plataformas sociales, las de Meta siempre han tenido unas normas que delimitan qué se puede decir y hacer en ellas. Recogen lo que está prohibido por ley y además añaden otras prohibiciones que, por lo que sea, consideran deseables. Que existan estas normas es obviamente problemático porque la parte no legal la decide la empresa según sus propios valores. No obstante, gracias a mucha presión social se ha conseguido que las normas reflejen valores de sentido común democrático. Y que existan también puede ser práctico: si un tipo rándom me escribe «bollera subnormal estás enferma», la verdad es que me gusta que le borren la cuenta sin tener que ir yo a un juzgado y entrar en un proceso legal de años que además implicaría que el tipo se entere de mi nombre completo y mi domicilio.
Lo peor de estas normas es cómo se decide cuándo se aplican: Meta lleva un par de años presumiendo de que cada vez lo hacen en mayor proporción de manera automática, con algoritmos que revisan el contenido. Esto es lo que explica que al Movimiento Marica de Madrid les hayan borrado su cuenta de Instagram tantas veces y ahora se llamen «M4rika»: la palabra está clasificada como un insulto y cuando te tiran la cuenta no puedes hablar con ninguna persona para hacerle ver que en ese contexto no lo es. En realidad, sí hay personas moderando, para algunos casos «graves» que Meta no acaba de aclarar cuáles son. La revisión la suelen hacer personas que se exponen a grandes cantidades de mierda sin que se cuide su salud mental. En Kenia ya hay cientos de trabajadores organizándose para pedir responsabilidades por su estrés traumático; en Barcelona (donde moderan contenidos de la UE porque la ley no permite que nuestros datos se procesen fuera), un juez acaba de sentenciar que el trastorno mental de un moderador de Meta es un accidente laboral.
La censura de contenidos en función de normas va a seguir adelante en Meta. No pueden dejar de hacerlo porque hay leyes que les exigen vigilar que no se incumplen leyes en sus plataformas. Lo que pasa es que Meta está cambiando su conjunto de normas y quitando aquellas protecciones extra que incorporó para colectivos vulnerables, como las personas LGTBIQA+. Por ahora solo ha habido cambios en EE UU, ya veremos lo que tardan en el resto del mundo, pero el caso es que a partir de esta semana si el tipo rándom citado arriba vive en EE UU puede decirme «bollera subnormal estás enferma» sin ningún problema.
Otro anuncio de Zuckerberg es que va trasladar el equipo de Trust & Safety, el que se dedica a revisar estas normas, de California a Texas. Teniendo en cuenta cómo está el panorama para personas LGTBIQA+, racializadas y mujeres en Texas, ya sabemos quiénes no van a querer hacer esa mudanza y abandonarán el equipo. Más allá de la jugada de reestructuración laboral, lo hace para regirse por las leyes de ese estado, que igualmente no son muy amigas de proteger a estos colectivos.
4. Controlar el algoritmo de recomendación
En las redes sociales, el algoritmo de recomendación es un mecanismo opaco que decide qué muestra y qué no según un conjunto de reglas que no conocemos. A veces, las propias empresas nos cuentan algunas de estas reglas, pero nunca podemos asegurar que lo que nos dicen sea cierto porque no hay manera de auditarlas. En 2018, Facebook nos contó que iba a reducir la visibilidad del contenido político. Otras veces, nos enteramos por proezas del periodismo de investigación. En 2021, una exempleada filtró un montón de datos escalofriantes que ya hemos olvidado porque no nos da la cabeza para tanto disgusto, pero aquí dejo el link por si quieres repasarlos; acabamos de saber que hace año y pico Zuckerberg se rompió un hueso, publicó una foto desde el hospital, recibió poco casito porque el algoritmo reducía la visibilidad del contenido sanitario para evitar fake news pandémicas, se enfadó y mandó alterar esa regla.
También sabemos, por observación aunque no hayamos visto documentos explícitos, que Meta reduce el alcance del contenido en apoyo al pueblo palestino.
Esta semana nos ha prometido Zuckerberg que el contenido político volverá a ganar relevancia. Pero, ¿todo el contenido político o el que a él le apetezca? Viendo lo que ha hecho Musk con X, lo segundo es una sospecha muy razonable. Y es especialmente preocupante si tenemos en cuenta que, reducidos los mecanismos de moderación, el algoritmo será todavía más central para determinar la experiencia en sus plataformas.
Por qué Meta hace esto ahora
Mucho se ha escrito sobre esa conversión de Zuckerberg al trumpismo. En noviembre ya lo adelanté, pero la verdad es que no esperaba que fuera tan rápido y tan burdo. Solo esta semana, además de anunciar los cambios de moderación, Zuckerberg ha fichado a Joel Kaplan, exasesor de George W. Bush y próximo a Trump, para ponerlo al frente de las relaciones globales de Meta, y ha ido al podcast de Joe Rogan a lloriquear por las exigencias que le ponía la administración de Biden. En ese podcast, además, ha aprovechado para pedirle a Trump que le defienda de las sanciones y el control de la Unión Europea.
La jugada está bien clara y vuelve a dejar claro también que Zuckerberg es un cretino que se pondrá en el papel que haga falta en cada momento para que a su empresa le vaya lo mejor posible. Hace tiempo que Meta está en decadencia, TikTok le ganó la batalla de las redes y Microsoft la de la IA, así que parece decidido a recuperar terreno haciéndose amigo del mayor jefe. En el New York Times lo resumen así: «Esto es lo que ocurre cuando una empresa madura se queda sin ideas e intenta seguir dominando a través del dinero y el poder político».
Qué podemos hacer nosotres
Decía al inicio que parece que ahora nos estamos tomando el problema de las grandes plataformas más en serio. Aunque llevemos mucho tiempo viéndoles las costuras a Musk y Zuckerberg, tengo la impresión de que en el último mes hay más gente realmente decidida a priorizar la búsqueda de alternativas.
Yo trabajo como consultora de comunicación (aquí) haciendo, entre otras cosas, diseño de estrategias digitales para proyectos sociales. Hace un mes, participé en la apertura de un proceso liderado por Lafede.cat en el que varias organizaciones catalanas van a repensarse su relación con la comunicación digital. En los últimos días, nos han llegado más preguntas sobre qué hacer al respecto.
Creo que la salida tiene que ver con cultivar lugares digitales que no dependan de las big tech. No irnos de Meta, o de X, a la próxima gran red social, porque no la habrá y porque nada creado bajo ese marco va a ser un espacio seguro. He escrito mucho sobre eso (incluso un libro ;), así que ahora solo voy a compartir dos enlaces sobre acciones muy concretas:
- «Apuntes para diseñar estrategias de redes en 2025», un texto donde explico hacia dónde creo que deberíamos avanzar, en lo más inmediato y práctico. Está en LinkedIn, sí, porque creo que también hay que ir a contar estas cosas al sitio donde está la gente que trabaja como responsable de comunicación en organizaciones sociales.
- La campaña «Vámonos juntas», que invita a más personas a unirse a Mastodon (o al fediverso) y comparte algunos recursos para ayudar a aterrizar en él. El próximo día 20, coincidiendo con la llegada de Trump a la Casa Blanca, las organizaciones y personas adheridas harán una acción colectiva en todas sus redes sociales.
Mastodon es un rinconcito de internet que no sirve para reemplazar a monstruos gigantescos como Meta o X: se basa en otras dinámicas y, tal y como es ahora, carece de capacidad para crecer a tal escala. No obstante, creo que para construir futuros donde quepamos todes hay que agarrarse fuerte a los pequeños lugares donde el presente ya está molando, y llevo tiempo sospechando que Mastodon es uno de ellos. Estoy participando en el colectivo que prepara la campaña Vámonos juntas y el nivel de majez de toda la gente que está colaborando para hacerla posible me lo ha confirmado.
Cuando hablo de estas migraciones en talleres o eventos, suele haber alguien que me responde «abajo internet, nos vemos en las calles». Y no, no es eso. Vale, nos vemos en las calles, si queréis, también, pero sigámonos viéndonos en internet, en lugares digitales que sean mejores.
–
Este artículo fue publicado originariamente en el newsletter Redesnuestras.net el 13 de enero de 2025. Hemos redactado la entradilla. Agradecemos a Marta G. Franco que permita distribuir todo el material que generan bajo licencia Creative Commons.