Estudio de la UNESCO advierte sobre prejuicios de género en la inteligencia artificial
En vísperas del Día Internacional de la Mujer, la UNESCO destaca preocupantes tendencias en las plataformas de IA.
En la antesala del Día Internacional de la Mujer, un estudio reciente realizado por la agencia de educación ha arrojado luz sobre inquietantes tendencias en las herramientas de procesamiento del lenguaje natural utilizadas por las plataformas de inteligencia artificial generativa. Estas tendencias incluyen la reproducción de estereotipos de género, raciales y la generación de contenido negativo sobre personas homosexuales.
La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) publicó este jueves un estudio que examina detalladamente los estereotipos presentes en las herramientas de procesamiento del lenguaje natural, base fundamental de las plataformas de inteligencia artificial más populares.
El informe, titulado "Prejuicios contra las mujeres y las niñas en los modelos de lenguaje grandes", revela pruebas evidentes de prejuicios contra las mujeres en los contenidos generados por estas plataformas.
En un mundo donde el uso de modelos de lenguaje es cada vez más frecuente en entornos laborales, académicos y domésticos, la influencia de estas aplicaciones de IA en la percepción y las actitudes de las personas es considerable. Incluso pequeños sesgos de género en su contenido pueden amplificar significativamente las desigualdades en la vida real, señaló la directora general de la UNESCO.
Audrey Azoulay, directora general de la UNESCO, agregó: “Nuestra organización insta a los gobiernos a desarrollar y aplicar marcos regulatorios claros, y a las empresas privadas a llevar a cabo un seguimiento y evaluación continuos para detectar sesgos sistémicos, tal como se establece en la recomendación de la UNESCO sobre la ética de la inteligencia artificial”.
El estudio destacó que los modelos de lenguaje grandes de código abierto, como Llama 2 de META y GPT-2 de OpenAI, mostraron el sesgo de género más significativo. Sin embargo, también se reconoció que su naturaleza abierta y transparente puede ser una ventaja para abordar y mitigar estos sesgos mediante una mayor colaboración entre la comunidad investigadora mundial.
En contraposición, modelos más cerrados, como GPT-3.5 y 4 (la base de ChatGPT) y Gemini de Google, presentan mayores desafíos en la eliminación de estos sesgos.
El estudio también reveló que estas plataformas tienden a asignar trabajos más prestigiosos a los varones, mientras que relegan a las mujeres a roles tradicionalmente menos valorados o estigmatizados.
Además, se encontró que los modelos de lenguaje generan contenido negativo sobre personas homosexuales y ciertos grupos étnicos, lo que subraya la urgencia de abordar estos problemas de manera efectiva.
La UNESCO ha hecho un llamado a la acción, instando a los gobiernos y empresas a implementar medidas concretas para garantizar la igualdad de género en el diseño y uso de la inteligencia artificial. Es fundamental diversificar las contrataciones en las empresas para luchar contra los estereotipos arraigados en las tecnologías emergentes.
Con la adopción de la Recomendación sobre la ética de la IA por parte de los Estados miembros de la UNESCO en noviembre de 2021 y el respaldo de importantes9 en 2024, se espera un impulso significativo hacia un futuro de inteligencia artificial más equitativo y ético.