Si ChatGPT n’est plus à présenter, ce n’est pas le cas des travailleurs kényans qui ont grandement participé à sa réussite.
Penser que ChatGPT a été possible uniquement grâce au génie de la Silicon Valley est une erreur. D’après une enquête du TIME, OpenAI, le créateur de l’intelligence artificielle (IA) a externalisé une tâche des plus importantes. Il s’agit de la mise en place de la régulation des propos offensants ou inappropriés, voire toxiques. Pour ce faire, l’entreprise a eu recours aux services de travailleurs kényans. Selon le rapport de TIME, ces derniers ont été payés moins de 2 dollars de l’heure.
Dans cet article :
Une autre IA fait office de garde-fou pour ChatGPT
La création d’un générateur de texte aussi compétent que ChatGPT est une tâche compliquée. GPT-3, le prédécesseur de ce chatbot, par exemple, montrait déjà des compétences surprenantes. Cependant, il avait pareillement un énorme défaut : celui d’émettre des propos inappropriés, notamment violents, sexistes et racistes.
Ce problème vient surtout du fait que l’entraînement de l’intelligence artificielle était basé sur des données provenant d’Internet. Inutile de dire que GPT-3 avait à sa disposition un vaste répertoire. À l’origine de ses capacités linguistiques, cette source serait aussi l’origine de son problème.
Malheureusement, il n’est pas viable de trier manuellement une telle quantité de données. Cette mission prendrait des décennies, même pour des centaines de personnes. OpenAI a donc décidé de s’inspirer des entreprises de médias sociaux comme Facebook. Concrètement, la société a mis en place une autre IA pour réguler ChatGPT. Cette solution a permis d’en faire un chatbot qui convient à un usage quotidien et grand public.
C’est justement dans la réalisation de ce projet que les choses se compliquent. En effet, il faut également entraîner cette intelligence artificielle pour qu’elle soit capable de déceler les propos toxiques. Pour ce faire, OpenAI devait l’alimenter avec des exemples étiquetés de contenus présentant de la violence, des abus sexuels, des discours haineux, etc. Le détecteur fait en quelque sorte office de filtre entre ChatGPT et l’utilisateur. À long terme, les futurs modèles d’IA pourraient aussi en profiter grâce au traitement en amont des données d’apprentissage.+
Le côté obscur…
Pour l’étiquetage, OpenAI a sollicité les services d’une entreprise de sous-traitance au Kenya baptisée Sama. Les deux entités ont signé le contrat en novembre 2021. En pratique, la première envoyait des dizaines de milliers de bribes de texte au second pour qu’elle les étiquette.
Le problème, c’est qu’une grande partie de ces textes semble provenir des recoins les plus obscurs d’Internet. Certains contenus décrivaient des situations accablantes avec des illustrations graphiques. Parmi ces situations figurent l’automutilation, l’inceste, des abus sexuels (enfants et animaux compris), le suicide, la torture, le meurtre et la bestialité. Un homme travaillant pour Sama a même confié à TIME que « c’était une torture ».
« Vous allez lire un certain nombre de déclarations de ce genre tout au long de la semaine. Au moment où l’on arrive au vendredi, vous êtes perturbé d’avoir pensé à cette image. »
Travailleur interviewé par TIME
Malgré ce travail pour le moins pénible, le salaire net allait de 1,32 à 2 dollars de l’heure seulement. Les agents qui travaillaient neuf heures par jour gagnaient entre 1,32 à 1,44 dollar par heure. C’étaient ceux qui vérifiaient le travail des agents qui pouvaient recevoir jusqu’à 2 dollars par heure. Pour cela, il fallait encore qu’ils atteignent tous leurs objectifs. En comparaison, le salaire minimum d’un réceptionniste à Nairobi était à l’époque de 1,52 dollar de l’heure.
« Malgré le rôle fondamental joué par ces professionnels de l’enrichissement des données, un nombre croissant de recherches révèle les conditions de travail précaires auxquelles ces travailleurs sont confrontés. »,
Partnership on AI, une coalition engagée dans l’utilisation responsable de l’IA à laquelle appartient OpenAI
BuzzWebzine est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :