Suite aux nombreuses requêtes des utilisateurs de DALL-E 2, OpenAI a autorisé la modification des photos présentant de vraies personnes.
Si DALL-E permettait ce type de manipulation, ce n’était pas le cas de DALL-E 2. Cette mesure a été prise dans le but de restreindre les utilisations abusives de l’intelligence artificielle (IA). Toutefois, de nombreux utilisateurs ont demandé à OpenAI de reconsidérer cette restriction. Ainsi, l’entreprise a répondu favorablement à cette requête pour leur offrir la possibilité d’exprimer plus librement leur imagination. C’est possible grâce à la mise au point de techniques afin de limiter les abus.
Dans cet article :
Une réponse aux bêta-testeurs de DALL-E 2
L’un des plus grands problèmes avec les générateurs texte-image comme DALL-E 2 est que les utilisateurs peuvent en abuser. Les deepfakes sont entre autres l’une des manifestations les plus répandues de ces abus.
Par conséquent, si OpenAI a décidé de changer ses politiques d’utilisation, c’est parce qu’il a amélioré son système de sécurité. Autrement dit, la possibilité de modifier les visages s’accompagne d’une initiative « minimisant le potentiel de nuisance » des deepfakes. Bien sûr, l’entreprise surveillera aussi les tentatives visant à générer des images violentes, sexuelles, etc. En outre, OpenAI a fait part de ce changement majeur à ses clients via un e-mail. Le contenu comporte des exemples de requêtes de leur part.
Des clients ont notamment fait part de leur utilisation de DALL-E pour s’imaginer dans certaines tenues ou coiffures. Avec cet outil, d’autres modifiaient l’arrière-plan des photos de leur famille. Un chirurgien reconstructeur a même communiqué à OpenAI qu’il utilisait DALL-E dans son travail. Le générateur texte-image aidaient ses patients à imaginer le résultat d’une chirurgie reconstructive. En outre, des réalisateurs de films ont également exprimé le désir d’exploiter DALL-E 2 dans le cadre de leur profession.
Ces demandes ont poussé l’équipe d’OpenAI à mettre en place des techniques plus efficaces pour détecter les abus et y réagir. En parallèle, les conditions d’utilisation continuent de prohiber l’utilisation des photos de personnes sans leur consentement. De même, l’exploitation d’une image dont le client n’a pas les droits est interdite.
Une lutte perpétuelle contre les abus
Ce changement dans la politique d’utilisation de DALL-E 2 mettra à l’épreuve la technologie de filtrage d’OpenAI. Il convient de noter que des clients ont déjà rapporté des plaintes concernant l’imprécision du système ainsi que son excès de zèle.
Dans tous les cas, la lutte contre les utilisations abusives continuera d’être un défi majeur pour les générateurs texte-image. Il s’agit d’une bataille perpétuelle dont les enjeux sont parfois extrêmement importants.
C’est d’autant plus vrai pour OpenAI qui profite du soutien de Microsoft et de grandes sociétés de capital-risque. Il désire éviter les polémiques qui touchent notamment Stable Diffusion de Stability AI. Cette intelligence artificielle génère également des images à partir de textes. Cependant, l’outil n’impose aucune restriction à ses utilisateurs contrairement à DALL-E 2.
Tout comme le générateur texte-image de OpenAI, celui de Stability AI permet de modifier des photos de personnes réelles. Actuellement, un bon nombre individus utilisent Stable Diffusionafin de créer du contenus pornographiques et non consensuels de célébrités. D’ailleurs, Emma Watson en a déjà été victime.
BuzzWebzine est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :