Comme l'explique l'historien Yuval Noah Harari lors du Sommet mondial des Nations Unies sur l'IA pour le bien, "Au fur et à mesure que nous apprenons à utiliser l'IA, elle apprend à nous utiliser", et nous devrions ralentir son déploiement, pas son développement.

S'exprimant jeudi lors du sommet mondial AI for Good de l'Union internationale des télécommunications (UIT) des Nations Unies sur les "garde-corps pour une IA sûre et responsable", Harari a fait valoir que même si l'IA doit évoluer, elle ne devrait pas se passer d'examens de sécurité et de réglementations devraient être utilisées.

"Alors que nous apprenons à utiliser l'IA, elle apprend à nous utiliser"

Yuval Noah Harari, Sommet mondial AI for Good, 2023

« Au fur et à mesure que nous apprenons à utiliser l'IA, elle apprend à nous utiliser », a déclaré Harari, ajoutant : « Il est très difficile d'arrêter le développement [de l'IA] parce que nous avons cette mentalité de course aux armements. Les gens - certains d'entre eux - sont conscients des dangers, mais ils ne veulent pas être laissés pour compte.

Mais ce qui compte vraiment, et c'est la bonne nouvelle, c'est le ralentissement du déploiement - pas le développement ", a-t-il ajouté.

L'historien a comparé le développement de l'intelligence artificielle à un virus en laboratoire, disant que c'est bien de le développer mais pas de l'utiliser en public.

"C'est comme avoir un virus très dangereux dans votre laboratoire, mais vous ne le divulguez pas au public ; C'est très bien"

Yuval Noah Harari, Sommet mondial AI for Good, 2023

«Vous pouvez avoir un outil d'IA extrêmement sophistiqué dans votre laboratoire tant que vous ne l'utilisez pas en public. C'est moins dangereux", a déclaré Harari.

"C'est comme avoir un virus très dangereux dans votre laboratoire mais ne pas le diffuser au public. Il y a une marge de sécurité. »

Tout comme les sociétés pharmaceutiques et les constructeurs automobiles doivent se soumettre à des contrôles de sécurité, l'IA devrait en faire autant, a déclaré Harari.

"Maintenant, pour la première fois dans l'histoire, il est possible de créer des milliards de fausses personnes [...] Si vous ne pouvez pas savoir qui est réel et qui est faux, la confiance s'effondrera et au moins la société libre s'effondrera avec elle"

Yuval Noah Harari, Sommet mondial AI for Good, 2023

Au sujet des deepfakes et des bots générés par l'IA, Harari a déclaré : " Maintenant, pour la première fois dans l'histoire, il est possible de créer de faux humains - des milliards de faux humains - afin que vous interagissiez avec quelqu'un en ligne et que vous ne sachiez pas s'il 're real." humain ou un bot.

« Dans un an, il sera probablement presque impossible de savoir si vous parlez à un deepfake ou à un vrai humain.

"Si cela est autorisé, cela fera à la société ce que la fausse monnaie menace de faire au système financier."

"Nous devrions mieux comprendre leur impact potentiel [IA] sur la société, la culture, la psychologie et l'économie du monde avant de les déployer dans les espaces publics."

Yuval Noah Harari, Sommet mondial AI for Good, 2023

L'historien a ajouté : « Si vous ne pouvez pas savoir qui est une vraie personne et qui est une fausse personne, la confiance s'effondrera et au moins libérera la société avec elle. Peut-être que les dictatures s'en sortiront d'une manière ou d'une autre, mais pas les démocraties."

Harari a précisé que créer de faux humains est acceptable tant qu'ils sont étiquetés comme tels et ne sont pas présentés comme réels – "J'ai besoin de savoir si c'est un vrai humain ou non", a-t-il déclaré.

L'Union internationale des télécommunications est l'agence spécialisée des Nations Unies pour les technologies de l'information et de la communication (TIC).

"Nous ne sommes plus des âmes mystérieuses, nous sommes maintenant des animaux piratables"

Yuval Noah Harari, Forum économique mondial, 2020

Harari a pris la parole à plusieurs reprises lors des réunions annuelles du Forum économique mondial (WEF) à Davos, où il a déclaré : « Nous, les humains, devrions nous habituer à l'idée que nous ne sommes plus des âmes mystérieuses ; nous sommes maintenant des animaux piratables.

Dans son discours au WEF 2020, Harari a déclaré : "Pour pirater des gens, il faut beaucoup de connaissances biologiques, beaucoup de puissance de calcul et surtout beaucoup de données.

"Si vous avez suffisamment de données sur moi et suffisamment de puissance de calcul et de connaissances biologiques, vous pouvez pirater mon corps, mon cerveau, ma vie. Vous pouvez arriver à un point où vous me connaissez mieux que je ne me connais moi-même.

Ce pouvoir de pirater les gens, selon Harari, "peut bien sûr être utilisé pour de bonnes causes comme de bien meilleurs soins de santé, mais quand ce pouvoir tombera entre les mains d'un Staline du 21e siècle, le résultat sera le pire régime totalitaire du monde". l'histoire de l'humanité mondiale, et nous avons déjà un certain nombre de candidats pour le poste de Staline du XXIe siècle.

"Nous ne devrions réglementer l'IA que lorsque nous constatons que des dommages importants se produisent réellement - et non des scénarios imaginaires."

Michael Schwarz, Sommet sur la croissance du WEF, 2023

S'exprimant lors du WEF Growth Summit 2023, Michael Schwarz s'exprimant lors d'un panel sur "Growth Hotspots: Harnessing the Generative AI Revolution", Michael Schwarz de Microsoft a fait valoir qu'il était préférable d'attendre que quelque chose de mal se produise pour réglementer l'IA afin de ne pas supprimer le potentiel avantages plus importants.

«Je suis assez confiant que l'IA sera utilisée par de mauvais acteurs; et oui, elle fera de vrais dégâts; et oui, nous devons être très prudents et très vigilants ", a déclaré Schwarz lors du panel du WEF.

Interrogé sur la réglementation de l'IA générative, l'économiste en chef de Microsoft a déclaré :

« Quelle devrait être notre philosophie sur la réglementation de l'IA ? Il est clair que nous devons les réglementer et je pense que ma philosophie à ce sujet est très simple.

« Nous devrions réglementer l'IA afin de ne pas jeter le bébé avec l'eau du bain.

« Je pense donc que la réglementation ne devrait pas être basée sur des principes abstraits.

"En tant qu'économiste, j'aime l'efficacité, donc nous ne devrions pas réglementer l'IA tant que nous ne verrons pas de dommages importants se produire - pas seulement des scénarios imaginaires ."

Le 23 janvier 2023, Microsoft a renouvelé son partenariat avec OpenAI - les développeurs de ChatGPT - en investissant 10 milliards de dollars supplémentaires en plus du milliard de dollars que Microsoft a investi dans OpenAI en 2019 et un autre tour en 2021, selon Bloomberg.