L’intelligence artificielle pourrait constituer une menace existentielle pour l’humanité: député australien
Les applications de pointe de l’intelligence artificielle seront présentées au pavillon de l’intelligence artificielle dans le parc du futur de Zhangjiang lors d’une visite des médias organisée par l’État à Shanghai le 18 juin 2021. (Andrea Verdelli / Getty Images)
Les risques associés à l’intelligence artificielle doivent faire l’objet d’une enquête approfondie, car elle pourrait constituer une menace existentielle pour la vie humaine, selon un député australien.
Dans un discours prononcé au Parlement le 6 février, le député travailliste Julian Hill a déclaré que ChatGPT avait le potentiel de révolutionner le monde, mais a averti que si l’IA surpassait l’intelligence humaine, elle pourrait causer des dommages importants.
« Il ne faut pas longtemps pour commencer à réfléchir et réaliser que les risques perturbateurs et catastrophiques d’une IAG indomptée sont réels, plausibles et faciles à imaginer », a-t-il déclaré.
Hill a déclaré que les analystes des risques qui traitent de menaces telles que les astéroïdes, le changement climatique, les supervolcans, la dévastation nucléaire, les éruptions solaires ou les pandémies avec des taux de mortalité élevés placent de plus en plus l’intelligence artificielle (AGI) en tête de leur liste de préoccupations.
« L’IAG a le potentiel de révolutionner notre monde d’une manière que nous ne pouvons pas encore imaginer, mais si l’IAG dépasse l’intelligence humaine, elle pourrait causer des dommages importants à l’humanité si ses objectifs et ses motivations ne correspondent pas aux nôtres », a-t-il déclaré.
« Le risque qui inquiète de plus en plus les gens beaucoup plus intelligents que moi est ce qu’ils appellent l’improbabilité que les humains soient en mesure de contrôler l’IAG, ou qu’un acteur malveillant puisse utiliser l’IAG pour la destruction massive. »
Hill a également souligné que les militaires du monde entier sont le moteur du développement de l’AGI, car ils pourraient transformer la guerre et rendre les « capacités de défense actuelles » obsolètes.
« Un adversaire capable d’IAG pourrait conquérir l’Australie ou faire des ravages au niveau sociétal sans être contraint par des normes convenues à l’échelle mondiale », a-t-il déclaré.
Les programmes d’IA ont été interdits dans les écoles de Nouvelle-Galles du Sud, du Queensland, de Tasmanie, de Victoria et d’Australie-Occidentale.
Le discours du député a été en partie écrit par ChatGPT
Pour illustrer ses préoccupations, Hill a déclaré qu’il avait utilisé ChatGPT pour écrire des parties de son discours.
Le programme n’a pris que 90 secondes pour résumer les récents reportages des médias sur l’utilisation de l’intelligence artificielle par les étudiants australiens et a déclaré que le paragraphe qu’il avait créé était « plutôt bon ».
ChatGPT a écrit: « Récemment, les médias ont rapporté que des étudiants australiens utilisaient l’intelligence artificielle pour tricher à leurs examens. L’intelligence artificielle (IA), comme les logiciels intelligents qui peuvent rédiger des essais et générer des réponses, devient de plus en plus accessible aux étudiants, leur permettant de faire des devoirs et des tests sans vraiment comprendre la matière. C’est naturellement une préoccupation pour les enseignants, car ils sont préoccupés par l’impact sur l’intégrité du système éducatif.
ChatGPT a également écrit qu’en utilisant l’IA, les étudiants contourneraient efficacement leur éducation et obtiendraient un avantage injuste.
« Cela peut entraîner un manque de pensée critique et une baisse de la qualité globale de l’éducation. En outre, les enseignants peuvent ne pas être en mesure de dire si un élève a utilisé l’IA pour accomplir une tâche, ce qui rend difficile la détection et la lutte contre la fraude. L’utilisation de l’IA pour tricher soulève également des questions éthiques sur la responsabilité des étudiants d’apprendre et de comprendre le matériel sur lequel ils sont testés », indique le rapport.
Hill a averti que la qualité de la réponse signifiait que l’humanité devait avoir une longueur d’avance.
« Si les humains parviennent à contrôler l’IAG avant qu’il n’y ait une explosion de l’intelligence, cela pourrait transformer la science, l’économie, notre environnement et la société avec des progrès dans tous les domaines de l’activité humaine », a-t-il déclaré, appelant à une enquête ou à une coopération internationale dans la recherche sur la question.
« Le message clé que je veux transmettre est que nous devons commencer maintenant. »
Communauté de l’IA concernée
Le discours de Hill fait suite à la décision de la Conférence internationale sur l’apprentissage automatique d’interdire aux auteurs d’utiliser le chatbot pour écrire des articles scientifiques.
« Ces dernières années, nous avons observé et assisté à des progrès rapides dans les modèles linguistiques à grande échelle (LLM), à la fois dans la recherche et l’application. Ces progrès n’ont pas ralenti ces derniers mois, mais n’ont fait que s’accélérer. Comme beaucoup, y compris nous-mêmes, l’ont noté, les LLM publiés ces derniers mois, tels que chatGPT d’OpenAI, sont maintenant capables de produire des extraits de texte qui sont souvent difficiles à distinguer du texte écrit par des humains », a déclaré l’ICML.
« Des progrès aussi rapides ont souvent des conséquences imprévues.
« Malheureusement, nous n’avons pas eu assez de temps pour observer, enquêter et considérer l’impact sur notre processus d’examen et de publication. Nous avons donc décidé d’interdire la production à grande échelle de papiers ICML utilisant des modèles linguistiques. »
La défense américaine met AGI sur la liste de surveillance
Pendant ce temps, la Defense Information System Agency (DISA) des États-Unis a mis AGI sur sa liste de surveillance.
La liste de surveillance DISA est connue pour inclure des éléments qui deviendront plus tard des piliers de la défense américaine, tels que la 5G, la défense numérique sans confiance, la cryptographie résistante aux quantums, l’informatique de pointe et la téléprésence.
Le directeur de la technologie de DISA, Stephen Wallace, a expliqué lors d’un événement organisé par l’Armed Forces Communications and Electronics Association International (AFCEA) que l’organisation est intéressée par cette technologie.
« Nous avons beaucoup entendu parler de l’IA ces dernières années, et il y a un certain nombre de domaines où elle est déjà utilisée », a déclaré Wallace le 25 janvier, selon Defence News.
« Nous commençons à examiner comment [l’IA générative] change réellement le rôle de DISA dans le ministère et ce que nous mettons à la disposition du ministère à l’avenir. »