Un equipo de investigadores de las universidades de Stanford, Washington, Nueva York y Johns Hopkins ha desarrollado una herramienta de inteligencia artificial capaz de bloquear en tiempo real los contenidos políticamente extremistas y antidemocráticos en la red social X (antes Twitter). Los resultados del experimento, publicados en la revista Science, muestran que los usuarios expuestos a menos mensajes agresivos o que incitan al odio contra el bando contrario redujeron significativamente su polarización, su ira partidista e incluso desarrollaron actitudes más positivas hacia los votantes del otro partido.
Las redes sociales se han convertido en la principal fuente de información política para millones de personas, pero los algoritmos que deciden qué contenido se muestran “influyen sutilmente en los pensamientos, emociones y comportamientos de los usuarios”, recuerdan los autores, y terminan incrementando la polarización social.
Hasta ahora, investigar cómo funcionan realmente esos algoritmos había sido casi imposible: las plataformas guardan celosamente sus códigos y ofrecen poca o ninguna transparencia. Para sortear ese obstáculo, el equipo multidisciplinar creó un sistema que reordena el feed de X del usuario en tiempo real, sin necesidad de permiso ni colaboración de la propia plataforma.
La herramienta utiliza inteligencia artificial para detectar lenguaje antidemocrático, apología de la violencia o ataques verbales especialmente virulentos contra partidos políticos contrarios y los oculta automáticamente antes de que lleguen a los ojos del usuario.
El experimento se realizó con 1.256 usuarios de X durante 10 días, coincidiendo con la recta final de la campaña presidencial estadounidense de 2024. La mitad de los participantes siguió viendo su feed habitual; la otra mitad tuvo activada la herramienta de filtrado.
Los resultados fueron contundentes y, lo que es más llamativo, bipartidistas. Quienes no vieron contenidos extremadamente agresivos rebajaron su tensión política, su rencor partidista y hasta manifestaron opiniones más positivas sobre el partido contrario al suyo, independientemente de que se identificaran como progresistas o conservadores.
“El impacto fue claro: cuando los participantes estuvieron expuestos a menos contenido extremo o verbalmente violento, se volvieron más empáticos y tolerantes con las personas del otro bando”, explica Tiziano Piccardi, investigador en la Universidad Johns Hopkins y uno de los autores principales del estudio.
El filtrado no solo redujo la polarización afectiva (el rechazo emocional al otro lado), sino también los sentimientos personales de ira y tristeza. “Reducir la exposición a contenido agresivo políticamente o abiertamente antidemocrático no solo disminuyó la polarización, sino que mejoró el estado de ánimo general de los participantes”, añade Piccardi.
Los investigadores subrayan que su herramienta no elimina todo contenido crítico ni opiniones fuertes, sino únicamente aquellos mensajes que cruzan la línea hacia la incitación al odio o el cuestionamiento explícito de los principios democráticos.
Aunque el estudio se centró en X, los autores creen que el enfoque podría adaptarse a otras plataformas y servir como base para intervenciones más amplias que promuevan un debate político más sosegado y menos tóxico.
