Auparavant, Google Colaboratory était une plateforme relativement libre. Toutefois, un changement dans les conditions d’utilisation apporte plus de restriction.
Google a créé Colaboratory ou Colab afin de faciliter l’accès aux matériels informatiques. La plateforme permet notamment l’exploitation et l’entraînement d’intelligence artificielle (IA). Généralement, ses utilisateurs pouvaient y générer librement différents contenus. Le problème est que des gens peuvent l’exploiter à des fins malveillantes. Ce week-end, Bleeping Computer vient de remarquer une modification dans les conditions d’utilisation de la plateforme. Celle-ci touche principalement les deepfakes. Dorénavant, ce type de pratique est classé comme un projet interdit.
Dans cet article :
Une nouvelle règle contre les deepfakes
Google aurait opéré la modification des conditions d’utilisation vers la moitié du mois de mai. L’entreprise n’a juste pas fait d’annonce à ce sujet. Les utilisateurs n’en ont pris conscience que lorsqu’ils avaient tenté d’exécuter un générateur de deepfakes. DeepFaceLab est l’un d’entre eux. Concrètement, tous ceux qui ont essayé de lancer DeepFaceLab sur Colab ont reçu un message d’erreur.
« Vous êtes peut-être en train d’exécuter un code qui n’est pas autorisé, et cela peut restreindre votre capacité à utiliser Colab à l’avenir. Veuillez noter les actions interdites spécifiées dans notre FAQ. »
Google Colaboratory
Néanmoins, certains codes qui servent à générer des deepfakes ne mènent pas à cet avertissement. Les utilisateurs de Reddit ont entre autres rapporté que FaceSwap reste entièrement opérationnel. De plus, il s’agit d’un code assez populaire dans le milieu.
Par conséquent, il est possible que la restriction se base sur une liste noire et non sur une reconnaissance automatisée. Cela impliquerait que la lutte contre les deepfakes dépendrait plus ou moins de la contribution de la communauté de Colab.
Une mesure excessive de la part de Google ?
Un porte-parole de Google a apporté plus de précision à TechCrunch dans un e-mail. Il a affirmé que l’entreprise reste alerte à propos de la possibilité d’une utilisation abusive de Colab. Cependant, l’entité souhaite gérer ces abus de façon équilibrée. Le fait est que la plateforme a pour but de faciliter l’accès aux ressources informatiques importantes comme les GPU. En ce qui concerne la méthode de détection des abus, Google préfère la garder secrète.
« La dissuasion des abus est une pratique en constante évolution, et nous ne pouvons pas divulguer de méthodes spécifiques, car les parties adverses peuvent profiter des connaissances pour échapper aux systèmes de détection. En général, nous avons des systèmes automatisés qui détectent et interdisent de nombreux types d’abus. »
Porte-parole de Google
Concernant le deepfake, la pratique consiste à utiliser une IA pour remplacer de manière convaincante le visage d’une personne, sur une image ou une vidéo, par un autre, d’où le nom « deepfake ». Les rendus surpassent les travaux de Photoshop et parfois même les images de synthèses de Hollywood.
A priori, ce genre de contenu est inoffensif, voire ludique. Plusieurs vidéos de cette catégorie sont même devenues virales. Malheureusement, certains individus l’utilisent à des fins plus obscures. Les pirates informatiques peuvent, par exemple, l’exploiter pour cibler des internautes dans le cadre de fraudes ou d’extorsions. D’ailleurs, les deepfakes peuvent servir dans des domaines encore plus importants comme la politique.
BuzzWebzine est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :