Actualidad

La diversidad se queda fuera del prompt: sesgos en imágenes femeninas con IA

Un análisis de más de 350 retratos generados con herramientas como Copilot, Leonardo y Midjourney detecta una predominancia de mujeres jóvenes, caucásicas y con cuerpos normativos, incluso cuando se usan prompts “inclusivos”

La inteligencia artificial generativa está acelerando los procesos creativos en publicidad, pero también puede reforzar estereotipos si los modelos no incorporan datos diversos. Esa es una de las conclusiones del estudio ‘IA generativa y retrato publicitario: estudio sobre la representación femenina’, elaborado por investigadores de la Universidad Europea, que alerta de sesgos sistemáticos en las representaciones femeninas generadas por IA.

El trabajo, basado en el análisis de más de 350 retratos creados con herramientas como Copilot, Leonardo y Midjourney, concluye que existe una sobrerrepresentación de mujeres jóvenes, caucásicas y con cuerpos normativos.

“Estas limitaciones ponen en evidencia cómo la IA perpetúa los sesgos presentes en los datos de entrenamiento, afectando la pluralidad de las representaciones visuales”, señala Esmeralda López, profesora de Comunicación de la Universidad Europea.

Uno de los hallazgos más llamativos del estudio es que el uso de calificativos que pretenden ampliar la diversidad no siempre corrige el problema. Según el análisis, incluso al emplear términos como “belleza real”, las plataformas tienden a reproducir cánones tradicionales. En paralelo, el informe detecta la presencia de filtros éticos en algunas herramientas -como Copilot o Firefly- que bloquean determinados prompts por sus políticas de moderación.

La investigación también apunta a una variable menos evidente: el idioma. Las imágenes generadas a partir de descripciones en inglés mostraron una mayor variedad que aquellas producidas en español, algo que los autores vinculan al peso de corpus de entrenamiento mayoritariamente anglófonos.

“Los patrones homogéneos que se repiten en la generación de imágenes muestran que las herramientas de IA necesitan una revisión desde la raíz”, afirma Sergio Baltasar, profesor de Publicidad en la Universidad Europea.

Más allá del sesgo físico y étnico, el estudio observa que muchas de las imágenes analizadas presentan poca emotividad y espontaneidad, con expresiones serias o neutras que reducen su capacidad de conexión emocional en un contexto publicitario.

Para abordar estas limitaciones, los investigadores proponen incorporar equipos multidisciplinares en el diseño de los modelos, reforzar la supervisión ética y, sobre todo, ampliar la diversidad de los datos de entrenamiento.

“Es fundamental que las herramientas de IA incluyan datos más diversos para construir representaciones más inclusivas”, subraya Begoña Moreno, investigadora del estudio y profesora de Publicidad en la Universidad Europea.