Los arquitectos invisibles: cómo los algoritmos discriminan y deciden lo que lees
El BWAW 2026 analiza cómo los algoritmos influyen en la información, el empleo y la igualdad de género desde su diseño hasta su aplicación
En un mundo donde casi todo pasa por una pantalla, los algoritmos se han convertido en los grandes arquitectos invisibles de nuestra vida digital. Deciden qué noticias leemos, qué vídeos vemos, qué música escuchamos e incluso qué oportunidades laborales aparecen ante nosotros. Pero ¿son realmente neutrales? ¿O arrastran desde su creación sesgos que pueden generar desigualdades de género y vulneraciones de derechos?
Estas preguntas han centrado una de las jornadas del BWAW 2026, dedicada a reflexionar sobre los derechos digitales en la era algorítmica y el impacto que estos sistemas pueden tener en la igualdad, la información y la no discriminación.
Algoritmos y desigualdad: cuando la visibilidad no es neutral
Beatriz Escriña, subdirectora general de la Fundación Hermes, alertó sobre un aspecto clave: la visibilidad digital. Cuando el acceso a oportunidades depende de sistemas automatizados de búsqueda y selección, las desigualdades pueden amplificarse.
Según explicó, si los algoritmos priorizan determinados perfiles o patrones históricos de éxito, pueden consolidar brechas existentes. Esto no solo afecta a la representación, sino también a la pérdida de oportunidades laborales, especialmente en sectores donde las mujeres ya parten de una posición de desventaja estructural.
En este contexto, el algoritmo no discrimina de forma consciente, pero sí puede replicar datos históricos que ya contienen desigualdades.
Medios, plataformas y el poder de decidir qué vemos
La periodista y fundadora de Kloshletter, Charo Marcos, abordó el impacto de los algoritmos en los medios de comunicación digitales. Según explicó, las redacciones han tenido que adaptarse a un nuevo entorno en el que ya no basta con escribir bien: hay que escribir para personas y para máquinas.
El desarrollo de estrategias SEO fue el primer gran giro. Después llegaron las redes sociales, donde los medios comenzaron a entregar sus contenidos a plataformas externas. Hasta el punto que hoy, muchos usuarios ya no dicen que han leído una noticia en un diario concreto, sino que la han visto en Facebook o X, diluyendo la identidad de la fuente.
Marcos señaló que el siguiente gran cambio vino con Google Discover, que ha modificado las reglas del juego al no distinguir entre medios tradicionales, plataformas digitales o influencers. El algoritmo decide qué contenido merece visibilidad.
En el ámbito cultural, puso un ejemplo claro de sesgo de género en la música: las recomendaciones automáticas priorizan mayoritariamente canciones de autores masculinos. Romper ese patrón, explicó, resulta extremadamente complejo porque el sistema se retroalimenta con datos históricos de consumo.
¿De dónde salen los datos? El punto crítico del modelo
Belén Moscoso, responsable de Corporate Venturing en EIT Food, subrayó la importancia de analizar el origen de los datos y el modelo matemático utilizado. En empresas y start-ups que desarrollan soluciones basadas en inteligencia artificial, uno de los principales riesgos es trabajar con bases de datos ya sesgadas.
Identificar las señales de vulneración potencial implica preguntarse qué datos se utilizan, cómo se entrenan los modelos y qué variables pueden generar exclusión indirecta. La prevención del sesgo no es automática: requiere supervisión, revisión constante y criterios éticos claros.
Tres derechos bajo tensión en la era digital
La profesora de la Universidad Autónoma de Madrid, Lara Quijano, planteó que vivimos un momento en el que tres derechos fundamentales están especialmente tensionados.
- El primero son los derechos ARCO (acceso, rectificación, cancelación y oposición). Aceptamos cookies y condiciones sin ser plenamente conscientes de la cantidad de datos que cedemos ni de quién los utiliza.
- El segundo es el derecho a recibir información veraz. En un entorno saturado de contenidos, resulta cada vez más difícil identificar por qué vemos una determinada noticia o cuál es su origen real.
- El tercero es el derecho a la no discriminación. ¿Por qué determinadas personas reciben ciertos anuncios, vídeos o informaciones y otras no? Esa personalización extrema puede generar burbujas informativas y segmentaciones que refuercen estereotipos.
Quijano utilizó una metáfora esclarecedora: los algoritmos son como espejos. Reflejan la sociedad que los crea. Si la sociedad contiene desigualdades y sesgos, el algoritmo los copiará y, en muchos casos, los amplificará. Además, recordó que prácticamente ningún algoritmo parte de cero; se construyen sobre grandes bases de datos preexistentes que ya pueden estar condicionadas.
Responsabilidad empresarial y ética frente a métricas
Desde el ámbito empresarial, Lluís Soldevila, profesor del Departamento de Operaciones, Data Science e Innovación de ESADE Business School, lanzó un mensaje claro: los algoritmos no son entes abstractos, son herramientas diseñadas por empresas.
Detrás de cada sistema hay decisiones humanas, objetivos de negocio y métricas de rendimiento, los conocidos KPI. Y aquí surge la tensión: las métricas de éxito económico no siempre van de la mano de la ética. Soldevila recordó que los algoritmos utilizan sesgos estadísticos para optimizar resultados. El problema aparece cuando esa optimización prioriza clics, tiempo de permanencia o rentabilidad sin considerar el impacto social.
Género y tecnología: un desafío estructural
El debate del BWAW 2026 dejó una conclusión compartida: los algoritmos no son neutros por defecto. Pueden reproducir y consolidar desigualdades de género si no se diseñan con criterios de diversidad, transparencia y supervisión.
La era algorítmica exige, por tanto, una alfabetización digital crítica, una mayor transparencia en el uso de datos y un compromiso empresarial con la ética tecnológica. Porque en un entorno donde los algoritmos deciden qué vemos, qué escuchamos y qué oportunidades tenemos, proteger los derechos digitales se convierte en una prioridad democrática.
Escribe tu comentario