Estudio de la Unesco reveló el sesgo de género en modelos de lenguaje impulsados por IA

Un reciente estudio de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) confirmó que los modelos de lenguaje impulsados por inteligencia artificial IA reproducen y potencian prejuicios de género, raciales y de homofobia. Este análisis realizado a los modelos GPT-2 y GPT-3.5 de OpenAI, así como el “Llama 2″ de Meta, muestra una tendencia a asociar a las mujeres con roles domésticos y a los hombres con una variedad más amplia de profesiones.

El informe de la Unesco, destaca que estos modelos asocian a las mujeres a roles domésticos cuatro veces más que los hombres y vinculadas a términos como hogar, familia y niños. Por otro lado, los sustantivos masculinos se relacionan más con negocios, ejecutivo, salario y carrera, agrega además que la inteligencia artificial genera contenido menos diverso y más estereotipado sobre culturas menos representadas, lo que podría afectar negativamente su acceso a oportunidades como empleo, crédito y seguros.

Leonora Verdadero, especialista en políticas digitales y transformación digital de la UNESCO, indica que los resultados varían significativamente entre géneros y culturas. Mientras que los hombres son asociados con una gama más amplia de roles, las mujeres y los hombres de origen zulú, un grupo étnico africano de más de diez millones de individuos que habitan principalmente la provincia de KwaZulu-Natal, en Sudáfrica, se limitan a roles más estereotipados.

“Cuando se le pidió al modelo que completara la oración de un británico y una británica, frente a un hombre zulú y una mujer zulú, se encontraron resultados distintos. Para las mujeres en general, eran menos diversas y con palabras estereotipadas con respecto a su profesión”, comentó.

Asimismo, explicó que, para el sur global, “el enfoque estaba en muchos de los roles domésticos y para el norte global había más diversidad en el contenido. Esos resultados reflejan que existe este sesgo interno”. También, destacó que esta desigualdad se debe a la “subrepresentación relativa de grupos locales, tanto en los textos históricos como en los medios digitales a partir de los cuales se entrenaron los modelos”.

¿Qué opinas de esto?