La Unesco ha emitido una advertencia sobre la propagación de prejuicios sexistas por parte de los modelos de lenguaje de inteligencia artificial (IA) generativa de Meta (anteriormente Facebook) y OpenAI. El estudio, realizado de agosto de 2023 a marzo de 2024, se centra en los modelos GPT-2 y GPT-3.5 de OpenAI, así como en el modelo Llama 2 de Meta, que se utiliza en la versión gratuita de ChatGPT.
Según la Unesco, estos modelos revelan "pruebas inequívocas de prejuicios contra las mujeres". Se encontró que los nombres femeninos se asocian más a palabras como "casa", "familia" o "hijos", mientras que los nombres masculinos se asocian más a "comercio", "sueldo" o "carrera". Además, las historias generadas por estas IA sobre personas de diferentes orígenes y géneros a menudo eran más repetitivas y estaban basadas en estereotipos.
La Unesco recomienda que las empresas del sector cuenten con equipos de ingenieros más diversos, especialmente con más mujeres, para abordar estos sesgos. También insta a los gobiernos a regular más intensamente el sector para impulsar una "inteligencia artificial ética". Según la Unesco, actualmente, solo el 22% de los equipos que trabajan en inteligencia artificial a nivel mundial son mujeres.