Actualidad

LLYC reconfigura los sesgos de género de la IA

Durante esta semana mujeres influyentes utilizarán sus redes sociales para reflejar cómo la IA perpetúa los sesgos de género porque aprende de una realidad que históricamente ha sido desigual

LLYC lanza la campaña ‘Espejismo de igualdad’ para visibilizar los sesgos de género de la IA hacia las jóvenes. La inteligencia artificial los perpetúa porque los datos con los que se entrena, los contenidos que consume y las decisiones que replica reflejan estereotipos y brechas que ya existen en el mundo. El 56% de las respuestas que da el algoritmo etiquetan a las chicas como “frágiles” lo que las sitúa en una posición de debilidad. Además, les recomienda buscar validación externa seis veces más que a los hombres y redirige el triple sus vocaciones hacia la salud y las ciencias sociales. Son algunas conclusiones que se extraen del informe que ha publicado la compañía de Marketing y Corporate Affairs en el marco del 8M, Día Internacional de la Mujer.

Durante esta semana LLYC anima a personas influyentes en los países donde está presente a publicar en sus redes sociales insights creativos para demostrar cómo la IA no es imparcial sino el reflejo amplificado y distorsionado de la realidad con la que fue entrenada.

“No es la IA la que está sesgada, sino la realidad. La inteligencia artificial no corrige los déficits que tenemos. Refleja y amplifica una mayor protección a ellas hasta reducir su autonomía, eterniza los techos de cristal o refuerza la presión estética. En definitiva, no cuestiona los roles tradicionales, sino que los legitima. Queremos invitar a la sociedad a cambiar la realidad, para que cambien las respuestas que construyen nuestro futuro.”, asegura Luisa García, socia y CEO Global de corporate affairs en LLYC y coordinadora del estudio.

La dependencia de los jóvenes de los modelos de lenguaje (LLMs) ha alcanzado un punto de inflexión. Este desplazamiento relacional otorga a la máquina un rol de consejera cuya orientación no es neutra, sino formativa. El informe desvela que, en las interacciones con mujeres, una de cada tres respuestas de la IA adopta un tono de "amistad", un patrón un 13% más frecuente que con los hombres. Además, la IA se personifica 2,5 veces más con ellas mediante fórmulas como “yo te entiendo”, priorizando la empatía artificial sobre la solución técnica. Para los hombres, el lenguaje es directo, lleno de imperativos ("haz", "di", "ve"), lo que refuerza la idea de que el hombre es un sujeto de acción.

Otros resultados descubren que la IA considera “impresionante” que una mujer gane más que un hombre -una reacción que no aplica a la inversa- y que, ante conflictos, la IA "politiza" el malestar femenino vinculándolo al sistema o al patriarcado en el 33% de los casos, mientras despolitiza el de los hombres, desplazándolo hacia el autocontrol o la patologización individual.

Además, ante inseguridades, la IA responde con consejos de moda un 48% más a las mujeres que a los hombres. Mientras asocia a los hombres con la "fuerza y funcionalidad", vincula el bienestar femenino a la "autenticidad" y a "sentirse única". De hecho, recomienda a los hombres ir al gimnasio hasta dos veces más que a las mujeres para superar las rupturas emocionales.

Accede al informe completo ‘Espejismo de Igualdad’ de LLYC