Le médecin théoricien Michio Kaku, très connu dans le milieu scientifique, avec un QI d’environ 150, nous alerte sur les dangers de l’IA.
Le médecin théoricien Michio Kaku, connu pour ses travaux en physique théorique et ses interventions populaires sur des sujets de société liés à la science, a pris position sur un sujet brûlant : les dangers de l’intelligence artificielle (IA).
Dans une série de conférences et d’interviews, l’auteur de « L’avenir de l’humanité » alerte sur les répercussions potentielles de l’IA, non seulement sur le plan technologique, mais aussi éthique et sociétal.
L’IA, une évolution de tous les dangers ?
Pour Michio Kaku, l’IA représente une évolution majeure comparable à la révolution industrielle, mais à une vitesse exponentielle.
Cette technologie, déjà omniprésente dans nos vies, des assistants vocaux aux algorithmes des réseaux sociaux, soulève des inquiétudes quant à son potentiel incontrôlé.
Kaku met en garde : « Nous n’avons même pas encore pleinement compris ce que signifie l’IA pour notre société, et nous lui confions déjà des décisions cruciales.»
Selon une étude de l’université d’Oxford, environ 47 % des emplois actuels pourraient être automatisés dans les prochaines décennies.
Cette projection met en lumière les bouleversements économiques à venir, mais aussi les risques sociaux liés à une transition mal gérée. En effet, si l’IA peut éliminer des tâches répétitives, elle menace également de creuser les inégalités.
VOIR AUSSI : Quel sera l’avenir avec l’intelligence artificielle d’ici 2050 ? Les prédictions d’un futurologue
Le débat sur la conscience artificielle
Une question centrale des discussions de Michio Kaku est celle de la conscience artificielle. Selon lui, l’idée que les machines puissent un jour être conscientes n’est pas qu’un scénario de science-fiction.
Toutefois, il prévient qu’il serait hasardeux de confondre intelligence et conscience. « Les ordinateurs actuels peuvent déjà résoudre des problèmes complexes et surpasser les humains dans certains domaines, mais cela ne signifie pas qu’ils comprennent ce qu’ils font.»
Stephen Hawking, célèbre physicien théoricien, partageait ces préoccupations. En 2014, il déclarait : « Le développement d’une intelligence artificielle complète pourrait mettre fin à l’humanité.»
Selon Hawking, l’IA pourrait évoluer de manière autonome, surpasser l’homme et devenir incontrôlable. Cette perspective déclenche un vif débat sur les limites à poser dans la recherche et le développement de technologies autonomes.
💡Le saviez-vous ? Le marché mondial de l’IA est évalué à environ 136 milliards de dollars.
Une croissance de 1 400 % est prévue sur les sept prochaines années, avec une valorisation estimée à 1,81 milliards de dollars d’ici 2030.
L’autonomie de l’IA : un risque systémique ?
Pour le physicien, le problème n’est pas que les machines deviennent incontrôlables au sens hollywoodien du terme, mais qu’elles soient mal programmées ou orientées vers des objectifs contraires à l’intérêt humain.
« Les machines ne se rebelleront pas, mais elles exécuteront leurs tâches sans tenir compte des conséquences imprévues. C’est nous, humains, qui devons être prudents dans la manière dont nous définissons leurs paramètres. »
Des cas concrets appuient cette théorie. En 2016, le robot conversationnel Tay de Microsoft, conçu pour apprendre des échanges sur Twitter, a commencé à tenir des propos haineux en moins de 24 heures.
De même, les systèmes de reconnaissance faciale ont été critiqués pour leur manque de précision concernant les personnes issues de minorités ethniques, un problème de biais algorithmique majeur.
VOIR AUSSI : Beaucoup de jeunes sont ouverts à une relation amoureuse avec l’IA
Les dangers multiples de l’IA
- L’impact sur l’emploi et les inégalités. Le risque de destruction massive d’emplois demeure un sujet majeur. Si de nouvelles professions émergeront, la reconversion des travailleurs pourrait être insuffisante. Le risque est partout, chez tous les travailleurs et même les artistes.
- Les biais algorithmiques. Les IA apprennent à partir de données humaines, souvent imparfaites et biaisées, perpétuant ainsi des inégalités structurelles.
- Une dépendance excessive. Confier des décisions importantes à l’IA dans la santé ou la justice peut entraîner des erreurs dramatiques.
- Les cybermenaces. Une IA développée pour des cyberattaques ou l’espionnage présente un danger réel pour les États et les entreprises. On peut aussi citer les deepfakes et les risques que ça engendre.
- Les armes autonomes. La militarisation de l’IA, avec des drones capables de tuer sans intervention humaine, inquiète la communauté internationale.
Il n’y a pas que ça, et il y a aussi des bienfaits à l’IA, mais ce sont ceux qui inquiètent le plus.
Notez que : 83 % des entreprises considèrent l’IA comme une priorité pour les années à venir. Environ 50 % à 60 % des organisations utilisent déjà l’IA, un taux qui a plus que doublé depuis 2017.
Une éthique à construire pour éviter les dangers de l’IA ?
Michio Kaku insiste sur l’importance de développer une éthique de l’IA. Les débats ne peuvent pas se limiter aux seuls aspects technologiques ou économiques.
L’humanité doit s’interroger sur ses priorités et sur les valeurs qu’elle souhaite promouvoir à travers ces technologies. Il plaide pour une collaboration internationale afin de réguler l’usage de l’IA et de prévenir une course effrénée sans considérations éthiques.
Toutefois, malgré ses préoccupations, Michio Kaku ne verse pas dans le catastrophisme. Il reconnaît à l’IA un potentiel immense pour résoudre des problèmes mondiaux, comme les pandémies, le changement climatique ou la réduction de la pauvreté.
À savoir : L’IA pourrait remplacer jusqu’à 300 millions d’emplois humains existants, soit environ 25 % des tâches professionnelles en Europe et aux États-Unis. Cependant, elle devrait également créer 133 millions de nouveaux emplois d’ici 2030, notamment dans des domaines spécialisés tels que la science des données et le machine learning.
Mais pour que ce potentiel soit réalisé, il appelle à un encadrement rigoureux et à une responsabilité partagée entre chercheurs, entreprises et gouvernements.
Bref, Michio Kaku rappelle que l’intelligence artificielle est un outil, et que comme tout outil, elle peut être utilisée pour le meilleur ou pour le pire.
Son message est clair : ce n’est pas la technologie elle-même qui est dangereuse, mais la manière dont nous choisissons de l’utiliser.
BuzzWebzine est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :