Foto de portada: Imagen tomada en el Capitolio de Estados Unidos en la posesión de Donald Trump, 20 de enero de 2025. De izquierda a derecha vemos los siguientes CEO: Mark Zuckerberg (Meta), Jeff Bezos (Amazon, Washington Post), Sundar Pichai (Google) y Elon Musk (X). También asistieron al evento Shou Zi Chew de TikTok y Tim Cook de Apple.
— A través de esta foto quedó aún más en evidencia la nueva cercanía entre los trumpistas y Silicon Valley. Incluso algunas cuentas en redes acompañaron la imagen con esta cita de “Los orígenes del totalitarismo” (1951) de Hannah Arendt: “Los empresarios se convirtieron en políticos y fueron aclamados como estadistas, mientras que los estadistas solo eran tomados en serio si hablaban el lenguaje de los empresarios exitosos”. ¿Qué significa que este movimiento hacía la concentración del poder tenga como epicentro las mismas redes sociales desde las que buscamos asociarnos, movilizar y comunicar como movimiento?
— Ya veníamos viendo algunos de estos vaivenes y cambios abruptos de reglas de juego, transparencia y propiedad, especialmente desde 2022, cuando Musk compró Twitter y empezó a tomar decisiones arbitrarias en este espacio, el cual ha sido clave para campañas históricas del feminismo como la Marea Verde o Ni Una Menos. En aquel entonces, Mark Surman, presidente de Mozilla Foundation, alertó sobre una creciente brecha entre las necesidades de las comunidades en línea y las prioridades de las plataformas. Pero lo que hemos presenciado las últimas semanas no es solo un aumento de esa brecha, sino una falla geológica: en cuestión de días, esa distancia ha crecido cientos de kilómetros.
Empecemos con los recientes anuncios de Mark Zuckerberg sobre cambios abruptos en las políticas de moderación de contenidos en Meta y el cierre del programa de fact-checkers en EE.UU. Como resumí en un boletín reciente de Las Lupas, estas movidas evidencian algo más profundo. Lo que vemos es que este CEO prefiere subir puntos en el club de los llamados techbros, los nuevos millonarios que dominan la IA y la carrera espacial, antes que responder a los usuarios y ciudadanos con un mínimo de reglas de convivencia, verdad y bien común. Después, vimos que TikTok se apagó y se prendió en Estados Unidos solo con una promesa tras bambalinas —porque no fue una declaración pública— de Trump, cuando aún no se había posesionado y después de un pedido gestual de Shou Zi Chew, el CEO de esta plataforma.
Claramente, vivimos en un mundo completamente interdependiente y digitalmente dependiente. Si pensamos en las comunidades que nos importan, los sistemas digitales hace años dejaron de ser opcionales, sustentan cada aspecto de nuestras vidas. Pero están completamente controlados por un puñado de individuos y hemos permitido que eso suceda voluntariamente. Además, claramente están trabajando para que nadie les ponga límites (especialmente la Unión Europea y mercados grandes como India y Brasil).
Estas grandes plataformas nunca han tenido mucha democracia en sus estructuras, pero ahora no les importa ni aparentarlo, al menos en el caso de Meta y X (antes Twitter). La pregunta entonces es: ¿cómo diseñamos sistemas que reflejen nuestras necesidades colectivas y no solo las de los dueños de estas infraestructuras?
— Pero, desde lo práctico, ¿qué impactos tiene todo esto sobre nuestras causas? Empecemos con lo más urgente, ¿cómo se afectan nuestras cuentas como organizaciones o activistas que trabajamos por los derechos de las mujeres y comunidad LGBT?
— Lo primero que quisiera decir, sin aún entrar al detalle, es que todo esto nos obliga a sentarnos a evaluar cómo está nuestra interdependencia con estos sistemas, qué tantos datos les estamos dando y qué prácticas de seguridad tenemos. Pero, sobre todo, qué tan frágiles somos a sus decisiones y vaivenes abruptos. Antes que nada hay que proteger las conversaciones o espacios de interacción que consideramos más valiosos y sensibles. Para esta priorización necesitamos mapear las diferentes cuentas que tenemos y hacer una evaluación de la salud y actividad de cada una de las comunidades. Desde este inventario de lo que hemos cultivado en línea, podremos ver que hay espacios que hace rato no están vivos y pensar si vale la pena mantenerlos. Cuando sepamos cuáles queremos seguir cuidando, es importante evaluar cuáles se pueden migrar a redes alternativas o requieren seguir existiendo en Meta o X, por ejemplo. Si tomamos la segunda opción, debemos organizarnos conscientemente para la resistencia.
Es como sentarse a hacer un simulacro de huracanes que nos permita esperar preparados a los vientos que vienen del norte, de Silicon Valley.
— Me parece muy importante destacar este concepto de interdependencia, no creernos que somos autónomas o que desde la individualidad podemos llegar muy lejos, algo que la economía del cuidado nos ha enseñado. Ahora, ¿cómo ves que los anuncios de Zuckerberg aterrizan en Latinoamérica, dado que sus plataformas son las más representativas en la región?
— Sí, Facebook tiene más o menos 77% de penetración, seguido por Instagram, sin contar la presencia de WhatsApp, lo que deja claro que Meta todavía domina y también es fuente de negocios en línea para grandes sectores de la población. Aunque TikTok está muy cerca de penetración en países como Colombia y México.
A nivel de derechos digitales y como feministas, una de nuestras principales consignas debería ser la transparencia algorítmica.
El CEO de Meta dijo que los efectos de sus anuncios en principio estarán limitados a Estados Unidos, pero con posibles ampliaciones. Lo que podemos esperar es que, en el caso de la introducción de notas comunitarias como las de X para reemplazar la verificación de los fact-checkers, Meta aplique su estrategia típica: llegar a una región y probar sus cambios en algunos países, para luego expandir gradualmente seleccionando grupos de usuarios específicos a quienes introducir los cambios primero, no de manera homogénea.
Varios de los medios de fact-checking latinoamericanos, especialmente de Sudamérica, que hacen parte del programa de terceros verificadores de Meta, que es el proyecto a través del que Meta financia la verificación de desinformación en su plataforma, firmaron contratos para 2025, pero reina la incertidumbre sobre el futuro. Si bien por algunos meses más la verificación estará a su cargo, la comunidad de práctica que ha formado expertos en desinformación digital en la región durante una década, podría estar en riesgo.
En momentos de tanto ruido digital, vale la pena preguntarse qué pasará en época electoral en nuestros países si no hay profesionales pagados para dedicarse a esa labor tan difícil y especializada como es identificar un deepfake (video o imagen manipulada con IA). Estos análisis de desinformación necesitan enfoques centrados en cada contexto nacional y que conozcan las especificidades lingüísticas de América Latina; si el apoyo a estos equipos se debilita, ¿quién lo hará?
Por todo esto, aunque las notas comunitarias permiten añadir contexto de forma colaborativa a los tuits potencialmente engañosos, hay muchas preguntas sobre la posibilidad de que puedan reemplazar la experticia de los verificadores independientes. Además hay limitaciones técnicas. Según el medio Social Media Today, el principal problema de las notas comunitarias sigue siendo su dependencia del consenso político para que una nota sea visible, ya que para garantizar la neutralidad, la forma en la que funciona este mecanismo obliga a que colaboradores con puntos de vista opuestos coincidan en que una nota es necesaria. Análisis independientes muestran que, en los temas más divisivos, ese consenso rara vez se logra, lo que implica que muchas notas sobre temas críticos no se publican. Esto podría significar que “bajo Trump, la desinformación política podría propagarse aún más en las aplicaciones de Meta que en X, porque las primeras tienen más usuarios”, según ha dicho este medio.
— Pero Meta también anunció que se aplicará una definición mucho más estrecha sobre lo que constituye contenido de odio, ¿cierto? Lo que reduce significativamente las protecciones para mujeres, personas de género diverso y migrantes.
— Sí, y también se espera que estas medidas entren a Latinoamérica gota a gota. Las nuevas guías de filtrado de contenido ya están saliendo en inglés. Ofensas como “los inmigrantes mexicanos son basura” y “las personas trans son inmorales”, no serán filtradas manual ni automáticamente por los sistemas de moderación. De cualquier manera, en regiones como Latinoamérica y África estos sistemas se han aplicado más en el papel que en la práctica. Si están viendo “Cien años de soledad” en Netflix, hagan de cuenta que es como Macondo, ese pueblo en la mitad de las montañas donde todo llega tarde y como en operación tortuga, o nunca llega.
En sus perfiles de LinkedIn, ex empleados del área de Meta han dicho que este ambiente de caos que van a ver con el “dejar hacer y decir” (laissez-faire) que anunció Zuckerberg en el contexto de las nuevas políticas para Estados Unidos, es lo que para muchos países ha sido siempre su ecosistema digital. Estamos hablando de un escenario lleno de ruido, desinformación y sin nadie a quien llamar en caso de ataques. Un poco, como diría Calle 13, aquí en Latinoamérica ya somos “street fighters” de estos espacios online.
Como dice Ruha Benjamin, la verdadera innovación debe incluir modelos que no solo rompan cosas, sino que también construyan soluciones para los problemas sociales que generan. La innovación significa resolver los problemas que creamos, no solo crear tecnología nueva. Este es el ejercicio de cambio narrativo.
Pero es clave medir cómo van a ir cambiando los filtros de Meta, especialmente en la región. Por esto es importante tratar de levantar algún tipo de línea base sobre cómo la moderación venía afectando nuestro trabajo, y poder identificar qué está cambiando de verdad, para no asustarnos antes de tiempo (pronto compartiremos con ustedes una encuesta de diagnóstico que estamos construyendo con Sensata). En medio del huracán no nos podemos quedar sin radar meteorológico y desafortunadamente la tendencia en Silicon Valley es a ofrecer cada vez menos datos abiertos que nos permitan analizar este tipo de cosas. Como sociedad civil hemos perdido mucha visión panorámica.
Lo que ya se sabe es que las mujeres, niñas y personas diversas ahora enfrentarán más ruido en línea. Como lo ha empezado a señalar Pollicy, organización africana experta en tecnología, aquí saldrán perdiendo nuevamente quienes ya eran las personas más afectadas por contenido problemático en línea: políticas y periodistas con altos niveles de visibilidad. Fuera de eso, la carga del reporte ahora recaerá en las personas que normalmente son más propensas a no denunciar. Y las asimetrías se perpetúan. Las organizaciones de justicia de género seguirán teniendo problemas en mostrar escenas de lactancia o el auto-exámen para evitar el cáncer de seno (pues los pezones de mujeres están prohibidos), estos errores en los filtros no mejorarán. Y si escribimos ‘aborto’ o el nombre de medicamentos vinculados con este servicio de salud nos seguirán bloquendo publicaciones. Como se denunció esta semana para el caso de Aid Access, aún cuando Meta afirmó que quitará todos los filtros en Estados Unidos para respetar la “libertad de expresión” (en versión trumpista), Instagram sigue bajando publicaciones claves en derechos reproductivos en este país. Eso sí, si eres una compañía que invierte mucho en pauta y estás en la empresa de comestibles, las reglas de moderación no te aplican, como lo evidenció una reciente investigación de Financial Times para el caso de las redes de Meta.
— Otra cosa que sí o sí nos va a impactar en el tablero de juego, pero no se sabe bien si en semanas o meses, es que se reactivó la promoción por parte de los algoritmos de Instagram, Facebook y Threads del contenido político y cívico, que tanto nos estaba afectando. ¿Esto qué significa?
— Este es uno de los ventarrones más fuertes que vienen. Zuckerberg dijo a principios del año pasado que el contenido político y cívico era muy polarizante y estaba generando estrés. Entonces decidió que no lo recomendaría en el muro de los usuarios. Básicamente construyó un dique que evitaba ver en nuestro feed contenido político de cuentas que no seguíamos.
Este dique digital afectó en 2024 a muchas organizaciones feministas. Por ejemplo, cuando publicaban un post que tenía la palabra “derechos” u otras palabras asociadas con feminismo y cambio climático, estas publicaciones dejaban de ser promovidas en feeds de personas que no las siguieran previamente. Pero Meta quitará esta restricción para que nuevamente circulen libremente estos contenidos. Lo que esto implica en la realidad post-Trump es que este dique se abre con menos controles y con más avances en la Inteligencia Artificial Generativa. Ahora, los políticos no le van a pagar a trolls en Macedonia para que inunden internet de propaganda, sino que podrán producir exponencialmente más piezas y con un perfilamiento de público mucho más preciso y sofisticado a través de las nuevas herramientas de IA.

— Ah, sí, Zuckerberg simplemente dice en su discurso que la gente “ahora quiere ver más política” y “se la daré”. También nos deja claro que él domina lo que se amplifica o no y que ahí está su gran poder invisible: el control del algoritmo. Ahí es donde yo pienso que si ellos se apropiaron del concepto de libertad de expresión como arma, nosotros nos deberíamos apropiar del de transparencia algorítmica. ¿Cómo ves este tema?
— Exacto. Lo que se está imponiendo es un concepto oportunista de la libertad de expresión, que se enmarca simplemente como una lucha por los contenidos, pero ¿es esto verdad? El problema en realidad es que Zuckerberg sigue teniendo el control de los algoritmos que permiten que las cosas sean visibles o no, se vuelvan tendencia o no, que sean recomendadas o no.
Este acercamiento es como decir: “Nosotros igualamos la cancha, todo el mundo puede decir lo que quiera”. Pero en realidad la cancha está cableada por debajo y los de Silicon Valley deciden las reglas. Por eso a nivel de derechos digitales y como feministas, una de nuestras principales consignas debería ser la transparencia algorítmica.
En medio del huracán no nos podemos quedar sin radar meteorológico y desafortunadamente la tendencia en Silicon Valley es a ofrecer cada vez menos datos abiertos que nos permitan analizar este tipo de cosas. Como sociedad civil hemos perdido mucha visión panorámica.
Estas cajas algorítmicas oscuras de decisión son algo muy complejo, pero es clave que encontremos formas de atravesarlas y ver qué hay adentro. Como dice Shoshana Zuboff, la profesora de Harvard que escribió Surveillance Capitalism, ellos están “protegidos por la ilegibilidad inherente de los procesos automatizados que controlan, la ignorancia que estos procesos generan y el sentido de inevitabilidad que fomentan”. Entonces es clave combatir la ilegibilidad, la asimetría de conocimiento y la sensación de que somos impotentes. También es fundamental fortalecer las habilidades en derechos digitales de nuestros equipos de sociedad civil, para que hagan análisis socio-técnico de estas herramientas y para ver qué comunidades son directamente afectadas.
Por ejemplo, volviendo a la decisión de Meta sobre contenido político y cómo se aplicará en momentos de efervescencia electoral en nuestros países. Las nuevas reglas permiten que se pueda insultar a mujeres y personas LGBT en estos espacios. Los candidatos podrán entonces subir más el tono en sus publicaciones políticas sobre estas minorías para crear el escenario de “nosotros contra ellos” que tanto les sirve para ganar. Y esto sin hablar del experimento que está haciendo Zuckerberg con agentes de IA: cuentas que tienen un perfil que parece ser de una persona, pero son generadas por IA y tienen permisos para entablar debates digitales en grupos de Facebook. Es como una invasión zombie para mantener activas artificialmente conversaciones que ya estaban muertas y que podrían revivir de la mano de un buen debate con contenido político incendiario. Tampoco podemos olvidar que los algoritmos además tienen una grave huella ambiental, pues tanto los que se utilizan para el aprendizaje de máquinas/IA como otros, gastan grandes cantidades de agua y energía (razón por la que Meta ahora planea utilizar energía nuclear). Frente a este tipo de eventos es que debemos documentar casos sobre los impactos desproporcionados para ciertos grupos.
— ¿Qué podemos hacer las organizaciones como respuesta al huracán? ¿Nos quedamos dentro de este sistema resistiendo, nos vamos a una red alternativa, desertamos totalmente?
— Ese es un buen resumen de los tres escenarios disponibles. La buena noticia es que podemos mezclar estrategías al interior de nuestras mismas organizaciones y como movimiento.
Creo que, si decidimos quedarnos, hay que buscar cómo ganar espacio usando sus propias reglas. Por ejemplo, si ya sabemos que Zuckerberg le está apostando más a montar un mall o un mercado persa en el ciberespacio, que a cuidar la plaza pública digital, al menos debe cumplir con las obligaciones que le exige el mercado.
En vez de argumentar sobre un ambiente “tóxico” u “hostil”, podemos hablar de derechos del consumidor. Esto es especialmente relevante para proteger a grupos vulnerables como mujeres latinoamericanas con emprendimientos que dependen de estas plataformas. Estas personas necesitan garantías como usuarias que tienen cuentas para vender sus productos, incluyendo seguridad, acceso a información y capacidad de denuncia; protecciones que deberían estar disponibles no solo para grandes marcas, sino también para pequeñas emprendedoras.
Como parte de esta estrategia, también podemos concentrarnos en aprender a cabalgar el algoritmo. Hay influencers feministas que se han vuelto especialistas en aprovechar esta viralidad para llegar a nuevos públicos y apostarle al cambio narrativo en espacios a los que normalmente no llegábamos.
Podemos, además, usar el poder de los anunciantes, como lo hace Sleeping Giants. Si una marca reconocida está pautando contenido que promueve violencia contra las mujeres, podemos mostrarles cómo su reputación está en riesgo. Si el mall que quieren crear estos millonarios se vuelve demasiado tóxico, las marcas se retirarán, como ha pasado gradualmente en X.
Por último, dado que Zuckerberg anunció que ahora su enfoque será en que los sistemas identifiquen y tomen medidas sobre “lo verdaderamente dañino”, podemos hacerle caso a su tono de policía y reportar y denunciar violencia de género y deepfakes de contenido no consensuado. También podemos hacer alianzas con organizaciones de protección de niños, prevención del suicidio, y hablarles de estos estándares mínimos que ahora invoca Zuckerberg, para poner a prueba su nueva promesa y visibilizar si no la cumple. Todavía podemos documentar este tipo de daños y reportarlos.
— ¿Cuál sería el segundo camino?
— Hay organizaciones que identificaron que su camino es cultivar espacios donde tienen más control, soberanía y pertenencia. Por ejemplo, revitalizar nuestros newsletters y listas de correo, fortalecer espacios comunitarios locales y explorar plataformas alternativas como Bluesky y Mastodon (y Signal para mensajería), donde las reglas las establece la misma comunidad. Esto implica revalorar espacios que habíamos olvidado, pero que nos dan más garantías. Se me ocurre, por ejemplo, desempolvar la cuenta de LinkedIn o hacer un “directorio de direcciones” en el que guardemos nuestros contactos independientemente de la red en la que estén, para conservarlos en caso de que un día decidamos migrar de estas plataformas.
Además, podemos trabajar en construir algo nuevo como lo está haciendo la iniciativa #FreeOurFeeds. Espacios donde desde el principio se prioricen valores democráticos y prosociales. Esto incluye tener reglas claras que fomenten la solidaridad, la verdad y el bien común, en lugar del individualismo adictivo. También es crucial que estos espacios permitan la participación activa de voces vulnerables.
Ahora mismo estoy muy inspirada por lo que hemos visto en Puentes en varios proyectos piloto que estamos explorando con organizaciones que trabajan a nivel hiperlocal. Por ejemplo, en Ciudad Guatemala, en espacios de exhibición de documentales en Brasil, en pequeñas municipalidades y centros culturales. No solo podemos decir que esta distopía es horrible, sino también preguntarnos: ¿cómo sería nuestra utopía? o ¿Cómo ayudamos a implantar formas de gobernanza comunitaria en los espacios digitales en los que estemos, sean mainstream o alternativos.
El tercer camino, que es el que nos toca como movimiento para re-equilibrar la cancha, implica trabajar con equipos especializados en derechos digitales y aliarse con organizaciones que trabajan en acceso justo, regulación de plataformas y transparencia algorítmica. Además, debemos involucrar a las audiencias más afectadas y ayudarlas a tejer soluciones concretas: mujeres trabajadoras domésticas o del cuidado que buscan acceso a trámites e información para servicios básicos; o madres preocupadas por la seguridad de sus hijos en el mundo digital. Estas acciones ayudan a lograr mayor simetría en el entorno digital, un desafío que también es tarea del feminismo ante estas nuevas dinámicas.
Nos toca empezar a pensar en la “economía política” de las plataformas: sin una infraestructura digital más equitativa y pública, los avances tecnológicos seguirán beneficiando desproporcionadamente a unas élites. Nos han hecho creer que la innovación sin mecanismos sostenibles es la única forma posible de avanzar, pero no es cierto. Como dice Ruha Benjamin, la verdadera innovación debe incluir modelos que no solo rompan cosas, sino que también construyan soluciones para los problemas sociales que generan. La innovación significa resolver los problemas que creamos, no solo crear tecnología nueva. Este es el ejercicio de cambio narrativo.
Por eso es importante que algunas organizaciones feministas vean, como parte de su misionalidad, el tema de infraestructuras digitales justas. No podemos seguir pensando que esto es solo un tema de contenidos o de amplificación; es un tema de acceso a internet y de cómo se diseña y gobierna el espacio donde cada vez más, transcurre nuestra vida digital.
— Ya que hablamos de mercado, en términos de regulación y legislación, ¿hay posibilidad de incidencia?
— La regulación antimonopolios es clave. Como ha señalado la comisionada estadounidense Lina Khan, quien como líder de la Comisión Federal de Comercio (FTC) aplicó normas importantes a las empresas de Silicon Valley en el Gobierno Biden, la concentración de poder en unas pocas corporaciones no solo amenaza la competencia, sino que crea sistemas inestables. Esto no es ideología, sino sentido común (un concepto que es muy usado por Trump), pues que todas estas compañías sean tan interdependientes, provoca que si hay un desastre natural o alguna afectación macro en California, todas sufran. Hay que construir sistemas anti-frágiles.
Nos toca empezar a pensar en la “economía política” de las plataformas: sin una infraestructura digital más equitativa y pública, los avances tecnológicos seguirán beneficiando desproporcionadamente a unas élites.
Es el momento de empezar a trabajar con los Estados. Promover iniciativas que promuevan infraestructuras abiertas, públicas y sostenibles es esencial para reducir esta dependencia y garantizar un espacio digital más justo. Por ejemplo, hay expertos en derechos digitales que abogan por estrategias creativas de regulación que tengan un enfoque regional y con las que los usuarios tengan más control sobre sus datos, sobre los beneficios de la tecnología y sus riesgos no los asuman unos pocos. Aunque en el caso de América Latina hay que tener cuidado con Estados sin controles democráticos que, sí buscarán regular estas plataformas, lo harían en detrimento de la sociedad civil.
— Cristina, muchas gracias. Me interesa saber dónde podemos seguir encontrando pistas y perspectivas para adaptarnos.
— Empezar por seguir en Linkedin a las organizaciones en derechos digitales y de factcheckers en sus países e identificar periodistas que cubran a las Bigtech y estar pendientes de sus actualizaciones. También se pueden suscribir a boletines especializados, prometo compilar una buena lista la otra semana y subirla a nuestro Substack de Las Lupas.