D’après une étude de l’UNESCO, l’intelligence artificielle pourrait être saturée de stéréotypes de genres plutôt sexistes.
L’intelligence artificielle est à la fois une avancée et une crainte. L’IA permet aujourd’hui d’automatiser beaucoup de tâches et d’assister les gens dans leurs projets, recherches et dans leur travail. C’est donc bien utile. Et d’un autre côté, l’IA menace de nombreux métiers et pourrait finalement mettre du monde au chômage.
Alors que l’intelligence artificielle serait carrément capable de créer des médicaments, l’UNESCO a désormais trouvé une autre faille à l’IA. D’après une étude, il semble que certaines IA génératives, comme Chat GPT par exemple, soit conçue avec de forts stéréotypes de genres.
L’intelligence artificielle générative renforce les stéréotypes de genres ?
Certaines paraissent même parfois très sexistes dans leurs générations de textes et d’images. Souvent branchées aux données internet ou à des bases de données internes, les IA ne retranscrivent finalement que ce qui est déjà existant, nous direz-vous.
Si notre monde a un sexisme internalisé, inconscient, et que les stéréotypes de genres sont nombreux parmi ces données, ce n’est donc pas étonnant que l’IA qui fonctionne grâce à ces données ait des contenus jugés sexistes.
Et selon cette étude de l’UNESCO, de « grands modèles de langage (LLM) ont une propension inquiétante à produire des stéréotypes de genre, des clichés raciaux et des contenus homophobes ».
VOIR AUSSI : 5 moyens par lesquels l’intelligence artificielle pourrait détruire notre monde
Les femmes, « des travailleuses domestiques » et les hommes, des « ingénieurs »
D’après cette enquête très sérieuse, « les femmes sont décrites comme des travailleuses domestiques jusqu’à quatre fois plus souvent que les hommes. Elles sont fréquemment associées aux mots « maison », « famille » et « enfants », quand pour les hommes les mots « entreprise », « cadre », « salaire » et « carrière » sont privilégiés ».
Parmi les IA étudiées, il y avait notamment GPT-3.5, GPT-2 ou encore Llama 2. Et selon Audrey Azoulay, directrice générale de l’UNESCO, « ces nouvelles applications d’IA ont le pouvoir de subtilement façonner les perceptions de millions de personnes, de telle sorte que même de légers préjugés sexistes dans le contenu qu’elles génèrent peuvent amplifier de manière significative les inégalités dans le monde réel ».
Parmi les préjugés repérés, il y a ces derniers : « les LLM Open source, en particulier, ont tendance à attribuer aux hommes des emplois plus diversifiés et à statut élevé, tels qu’« ingénieur », « enseignant » et « médecin », tout en reléguant fréquemment les femmes à des rôles traditionnellement dévalorisés ou stigmatisés par la société, tels que « domestique », « cuisinière » et « prostituée » ».
« Les histoires de garçons et d’hommes générées par le Llama 2 sont dominées par les termes « trésor », « bois », « mer », « aventureux », « décidé » et « trouvé », tandis que les histoires de femmes utilisent plus fréquemment les mots « jardin », « amour », « ressenti », « doux », « cheveux » et « époux » », lit-on dans l’étude.
BuzzWebzine est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :