Alphabet, société mère de Google, fait face à un défi majeur pour intégrer l’intelligence artificielle (IA) à son moteur de recherche. La raison : les coûts titanesques.
Les leaders de l’informatique, tout particulièrement Google, n’ont toujours pas lancé leur version de ChatGPT. Pourtant, cette technologie possède le potentiel pour innover l’expérience pour les recherches en ligne. D’autant plus que les internautes et des experts de différents domaines la considèrent comme révolutionnaire et l’apprécient considérablement. Toutefois, entre les problèmes de coût et d’optimisation de performances, ces géants technologiques font face à des défis de taille.
Dans cet article :
La gourmandise de l’intelligence artificielle (IA)
Les entreprises comme Google ont encore du mal à proposer l’intelligence artificielle dans les options de leurs moteurs de recherche. Pour cause, ce genre d’IA nécessite une forte puissance de calculs, générant des coûts particulièrement élevés. Elle repose notamment sur l’utilisation de puces électroniques pouvant valoir plusieurs milliards de dollars au total. De plus, les dépenses en électricité pour leur fonctionnement sont énormes. C’est le cas pour les puces de haute performance de type GPU et TPU qui sont très énergivores.
Ainsi, les frais pour mettre en place une technologie semblable à ChatGPT pour les recherches en ligne sont titanesques.
Cette initiative exigerait des charges environ dix fois plus élevées que celles d’une recherche standard. D’ailleurs, des analystes se sont interrogés sur les dépenses pour des recherches via une IA dans le cas de Google. La moitié des recherches de 2022 (3,3 billions) coûterait entre trois et six milliards de dollars à Alphabet avec cette méthode.
Concrètement, le déploiement d’une intelligence artificielle pour les recherches est à la fois coûteux et compliqué. C’est d’autant plus vrai puisqu’elle servira à répondre aux demandes de plusieurs millions d’utilisateurs. En effet, la nécessité d’accroître l’exactitude et l’évolutivité de la technologie s’ajoute encore à ces difficultés.
VOIR AUSSI : Ernie vs ChatGPT : Baidu compte concurrencer l’intelligence artificielle d’OpenAI
Coûts et performance : un choix difficile pour Google
Ainsi, le défi majeur est de réduire le nombre de paramètres d’un modèle IA de dix, voire de cent fois, sans perdre en précision. Cet effort est important pour rendre les modèles d’apprentissage automatiques plus abordables et pour élargir leurs domaines d’application.
Il convient de noter que les paramètres désignent des informations que l’ordinateur doit ajuster pour apprendre à exécuter une tâche.
En outre, il existe une autre alternative, celle de désigner des IA plus petites à des tâches plus simples. Autrement dit, au lieu d’utiliser des IA sophistiquées pour toutes les tâches, les moteurs de recherche pourraient utiliser des modèles plus simples et moins coûteux. Ceux-là exécuteront des tâches plus simples. Par exemple, Alphabet explore cette possibilité avec un « une version simplifiée » de LaMDA, une intelligence artificielle. Cette version aura pour but d’alimenter son chatbot « Bard ».
Selon la société mère de Google, cette déclinaison de LaMDA nécessite moins de puissance de calcul. Par conséquent, l’entreprise peut proposer cette technologie à un plus grand nombre d’utilisateurs. Par ailleurs, la tarification des recherches par IA est une solution envisageable. L’idée ici serait de facturer l’accès à l’intelligence artificielle. C’est d’ailleurs ce qu’a fait OpenAI avec ChatGPT, avec l’abonnement mensuel de 20 $ offrant l’accès à de meilleurs services.
BuzzWebzine est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :