En réponse à Gemini 3 de Google qui a battu tous les records, OpenAI a décidé de frapper un grand coup en déployant ses nouveaux modèles de GPT. L’entreprise avertit toutefois qu’ils présentent un risque énorme.

Longtemps considéré comme distancé sur le domaine de l’intelligence artificielle où il était pionnier, Google est revenu sereinement au devant de la scène avec Gemini 3. La sortie de ce nouveau modèle n’a pas manqué de faire trembler l’écosystème, en raison de ses performances incroyables. OpenAI a donc décidé de frapper un coup en retour en déployantGPT-5.2. Ce nouveau modèle s’est surtout amélioré sur la quantité de données dont il est capable de consommer pour un contexte plus large. Ses capacités de réflexion et ses performances ont aussi été mises à jour.
Dans cet article :
Une puissance à double tranchant pour la sécurité du cyberespace
En espace de 3 ans, les LLM sont passés de simples moteurs de recherche augmentés à de véritables agents, capables de simuler la réflexion profonde et de prendre de meilleures décisions. Leurs capacités progressent de manière drastique et cela n’est pas simplement une bonne nouvelle. Si ces performances peuvent être importantes pour les tâches complexes dans de nombreux domaines, elles peuvent également être détournées à de mauvaises fins. Les nombreuses techniques de protection mises en place par le constructeur ne permettent pas de garantir l’absence de détournement.
Après le déploiement de ses nouveaux modèles, les plus puissants à ce jour sur le marché, OpenAI a publié un billet de blog. L’entreprise californienne avertit l’opinion publique sur les risques que présentent ces modèles pour la cybersécurité. Elle assure investir « dans le renforcement des modèles pour les tâches défensives de cybersécurité et dans la création d’outils qui permettent aux défenseurs d’effectuer plus facilement des flux de travail tels que l’audit du code et la correction des vulnérabilités« .
Le créateur de ChatGPT affirme avoir déjà mis en place de nombreux contrôles pour contrer ces risques. Il cite notamment une combinaison de contrôles d’accès, de renforcement de l’infrastructure, de contrôles de sortie et de surveillance.
VOIR AUSSI : Qu’est-ce que le prompt injection attack : ce danger inhérent à tous les navigateurs IA
GPT peut désormais lancer et coordonner des attaques de diverses envergures
GPT-5.2 offre la possibilité d’avoir un contexte plus large, une augmentation de ses capacités de compréhension pour plus de précision. Ceci élimine grandement les hallucinations du LLM et permet de faire juste. GPT-5.2 Thinking, très puissant et avec raisonnement, est assurément le plus redoutable de tous.
Avec ces améliorations, GPT est dorénavant doté de fonctionnalités qui lui permettent de lancer et de coordonner des attaques de diverses envergures. Grâce à ses capacités, il peut lancer des attaques de type Zero-day, même contre des systèmes bien défendus. La rapidité d’exécution est aussi l’une de ses forces, car elle a la capacité d’exploiter ces failles sans être détectée.
En outre, OpenAI affirme que GPT peut contribuer à des opérations complexes d’intrusion, en raison de sa capacité à simuler des schémas d’attaque. Les techniques d’exploits à distance permettent d’accéder à des systèmes cibles sans nécessiter de proximité physique. Cela ouvre la voie à une planification stratégique des attaques, où le moment et le lieu de l’intrusion peuvent être minutieusement choisis pour maximiser l’efficacité et minimiser les risques de détection.
BuzzWebzine est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :






