¿Hacía que posición politica te orienta el algoritmo de "X"?
La investigación, realizada con cerca de 5.000 participantes y publicada por la revista Nature, sostiene que este efecto no solo se produce mientras el usuario navega por el feed algorítmico, sino que persiste incluso después de volver al muro cronológico.
Un estudio publicado en la revista Nature concluye que el algoritmo de recomendación de X —la pestaña Para ti— orienta de manera sistemática a los usuarios hacia posiciones políticas más conservadoras.
Un experimento a gran escala para medir el impacto político del algoritmo
El trabajo, titulado The political effects of X’s feed algorithm, se llevó a cabo durante el verano de 2023, seis meses después de la compra de la plataforma por Elon Musk y un año antes de que el empresario expresara públicamente su apoyo al entonces candidato republicano Donald Trump. Los investigadores —procedentes de Italia, Suiza y Francia— asignaron aleatoriamente a 4.965 usuarios estadounidenses a dos entornos distintos: un feed algorítmico y un muro cronológico.
Durante siete semanas, los participantes fueron monitorizados mediante una extensión de navegador que permitía registrar el contenido recibido y las interacciones realizadas. Además, completaron encuestas antes y después del experimento para evaluar posibles cambios en sus actitudes políticas.
Los resultados muestran que los usuarios expuestos al algoritmo interactuaron más con la plataforma, siguieron a más activistas conservadores y adoptaron posiciones políticas más cercanas a la derecha. En cambio, quienes permanecieron en el muro cronológico no experimentaron variaciones significativas.
Persistencia del efecto y alteración del ecosistema informativo
Uno de los hallazgos más relevantes es que el desplazamiento ideológico no desaparece al abandonar el feed algorítmico. Incluso después de volver al orden cronológico, los usuarios mantenían las nuevas preferencias políticas y seguían consumiendo contenido conservador.
El análisis del contenido recibido revela que el algoritmo prioriza publicaciones conservadoras y reduce la visibilidad de los medios tradicionales, alterando la dieta informativa de los usuarios. Los autores sostienen que esta mediación algorítmica “moldea de manera significativa las actitudes políticas” y transforma el entorno digital en el que interactúan.
Un estudio clave en pleno debate sobre la gobernanza digital
El trabajo llega en un momento especialmente sensible, con negociaciones abiertas sobre la regulación de plataformas digitales y el papel de los algoritmos en la difusión de información. La investigadora Celia Díaz, del Instituto TRANSOC, considera que el estudio es “una advertencia rigurosa sobre la plasticidad de las actitudes políticas frente al diseño de las plataformas”.
Ramón Salaverría, catedrático de Periodismo en la Universidad de Navarra, destaca la independencia del estudio —realizado sin colaboración de X— y su rigor metodológico. Según explica, el modo Para ti genera un desplazamiento hacia posiciones conservadoras, especialmente entre usuarios que ya se identificaban como conservadores o independientes. En cambio, el impacto es menor entre quienes se autodefinen como progresistas.
Limitaciones y alcance del estudio
Los autores advierten de que los resultados deben circunscribirse a X y al periodo concreto analizado. No es posible determinar si los efectos se mantienen a largo plazo ni si se reproducen en otras plataformas. Aun así, consideran que el experimento aporta una de las evidencias más sólidas hasta la fecha sobre la relación entre algoritmos de recomendación y actitudes políticas.
En un contexto marcado por la preocupación por la desinformación, la polarización y la gobernanza algorítmica, el estudio refuerza la idea de que los algoritmos no son neutrales y que su diseño puede influir en la orientación política de millones de usuarios.
Escribe tu comentario