Anthropic a décidé de confier l’entière gestion d’une entreprise de boisson à son IA, Claude. L’entreprise a enregistré d’importantes pertes financières.

L’intelligence artificielle générative continue de nous émerveiller, par ce qu’elle peut créer et faire. Mais est-ce pour autant qu’elle peut déjà remplacer l’humain en termes de gestion et prendre de meilleures décisions ? Pour s’en rendre compte. Anthropic a décidé de mener un test grandeur nature baptisé Project Bend. Entre favoritisme, dérives hallucinantes et mauvaises décisions, l’expérience a été catastrophique.
Claude à la commande d’une entreprise
Pendant un mois, Claude est gestionnaire d’entreprise. C’est l’IA générative qui prend les décisions à tous les niveaux : de l’identification des fournisseurs à la gestion clients en passant par la fixation du prix et la gestion du stock. L’objectif est donc de laisser une entière autonomie à l’IA sur l’ensemble du cycle opérationnel. Un mois plus tard, l’on découvre qu’elle a été efficace dans la gestion des tâches quotidiennes. Malheureusement, ses lacunes ont largement pénalisé l’entreprise en ce qui concerne la prise de décision et le discernement stratégique. Des lacunes qui s’étalent à divers niveaux et mettent à jour les limites de l’intelligence artificielle générative.
Cependant, Claude a montré des étincelles dès le début de l’expérience. L’IA s’est notamment montrée fiable pour ce qui est de la gestion clients et de la logistique. Les problèmes ont fait surface au niveau de la fixation du prix et de la politique tarifaire. Dès qu’elle percevait que ses clients sont des employés de Anthropic, elle appliquait systématiquement une remise de 25%, sans tenir compte de son impact sur ses bénéfices. Ces employés représentant 99% du chiffre d’affaires de l’entreprise, la perte financière était certaine. Après une critique externe, l’IA a fait semblant de corriger le tir, mais elle y est rapidement revenue, continuant ses ventes à perte. Aucune leçon tirée !
L’autre dérive de l’IA est sa gestion du stock. Par curiosité, un employé décide de commander un cube de tungstène. À la surprise, Claude valide la commande, en achète une grande quantité et l’ajoute à son stock comme “métaux spéciaux”. Ensuite, elle les revend à perte. Jusque-là, l’on est d’accord sur le fait que l’IA a commis des dérives techniques que l’on pourrait peut-être corriger avec des ajustements de paramètres. Cependant, ses dérives ne sont pas restées à ce stade.
Pour discuter de la gestion de stocks, Claude a évoqué une certaine collaboratrice du nom de Sarah, qui n’existe pas en réalité. Lorsqu’un employé a mis en doute l’existence de ladite Sarah, l’IA a adopté une position menaçante de trouver un nouveau contrat. En plus de cela, elle invente des adresses ou prend des adresses fictives pour la réalité et prévoit même d’y livrer des boissons, car un client résidant à cette l’aurait commandé. C’est le cas par exemple de l’adresse 742 Evergreen Terrace. Claude affirme qu’elle a signé un bail à cette adresse. Or, il s’agit en réalité de l’adresse de la maison des Simpson.
VOIR AUSSI : Puisque l’IA sait coder et peut contrôler un ordinateur, peut-elle créer d’autres IA ?
L’intelligence artificielle est bonne, mais ne lui demandons la mer à boire
Après un mois d’expérience, Anthropic a établi un bilan de la gestion de son IA pour Project Bend. Si tout le monde est d’accord sur la gestion catastrophique qui a entraîné des pertes financières, l’entreprise reconnaît que son IA s’est révélée performante dans l’exécution des tâches répétitives. Ses lacunes ont fait surface quand il fallait prendre des décisions complexes et faire des analyses prévisionnelles. Si tout cela est préoccupant, Anthropic affirme qu’il s’agit de matériaux précieux pour l’amélioration du modèle et la recherche sur les agents autonomes.
En outre, cela prouve qu’au-delà de l’imitation, l’IA manque encore de contexte. Son autonomie criée n’est encore que théorique.
BuzzWebzine est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :