Après le départ de son co-fondateur, OpenAI vient de perdre son conseiller principal en charge de la supervision d’une « Super Intelligence ». L’entreprise ne se donnant plus de limites.
Sommes-nous en train d’évoluer peu à peu vers un scénario autrefois réservé aux films de science-fiction ? C’est-à-dire une époque où l’intelligence artificielle devient vraiment puissante et ne se trouve plus aucune limite ? Si nous peinons encore à y croire, certains experts du domaine, encore conscients, le voient venir. Selon The Verge, OpenAI, créateur de ChatGPT, a dissout il y a quelques jours son équipe chargée de veiller aux risques d’une IA trop puissante. La limite étant sautée, place au jeu !
Dans cet article :
Changement de cap chez OpenAI et départ en cascade
Encore moins populaire qu’elle l’est aujourd’hui, OpenAI s’est révélée au monde entier en 2022 en lançant ChatGPT. Le public voit et admire un modèle de langage capable de simuler une vraie discussion, comme l’humain. Les mois passants, l’entreprise a déployé plusieurs produits et sa valeur est montée en flèche. Chez les créateurs, l’idée de tirer pleinement profit de cet engouement énorme pour l’IA commence à germer. Mais si certains ne voyaient que l’argent, d’autres voulaient encore jouer avec l’éthique. Cela étant, OpenAI forme en juillet 2023 une équipe spécialisée dans l’étude des risques de l’intelligence artificielle.
Lançant des produits de plus en plus utilisés, un changement de cap commence à se dessiner au sein de l’entreprise qui s’était assigné pour mission de développer et de promouvoir une intelligence artificielle générale « sûre et bénéfique à toute l’humanité ». Jusque-là organisation à but non lucratif, OpenAI ne veut plus se donner de limites, la concurrence devenant rude. Un changement d’orientation qui a conduit au départ, il y a quelques mois, d’Ilya Sutskever, son co-fondateur et de Jean Leike, responsable de Superalignement. Ce dernier avait donné pour raison : « la culture et les processus de sécurité ont été relégués au second plan par rapport aux produits brillants ».
Quand OpenAI sacrifie la sûreté sur l’autel de l’innovation
Le 23 octobre 2023, Miles Brundage, conseiller principal en charge de la supervision d’une « Super Intelligence », annonce son départ de l’organisation. Et pour cause, OpenAI ne veut plus prendre de recul quant aux dangers que l’IA pourrait représenter. C’est notamment la raison pour laquelle elle a choisi de dissoudre AGI Readiness, qui la conseillait sur les risques d’une intelligence artificielle trop puissante.
Pour Miles Brundage, « il est peu probable que l’IA soit aussi sûre et bénéfique que possible sans un effort concerté pour y parvenir. ». Voilà pourquoi il souhaite rejoindre ou créer une organisation à but non lucratif qui œuvre pour la recherche en politique de l’IA. Selon lui, des voix indépendantes, sans aucun conflit d’intérêts, pourraient pousser à réfléchir sur le sujet. Car, entre progrès technologique et responsabilité sociale, la ligne est mince. Il revient aux acteurs du secteur de naviguer entre ces deux pôles en faisant preuve d’intégrité plutôt que de céder aux sirènes du progrès aveugle.
BuzzWebzine est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :