Alex Berenson

Et ce que notre expérience ratée avec des vaccins à ARNm nous apprend sur les risques que nous courons lorsque des entreprises à but lucratif jouent avec des technologies de plus en plus avancées.

En 1994, j'ai eu la chance de suivre un cours de l'Université de Yale sur l'intelligence artificielle avec David Gelernter, un informaticien surtout connu pour avoir aidé à développer ce qu'on appelait alors le World Wide Web.

Je ne suis pas en bons termes avec Yale ces temps-ci. Votre attitude contre la liberté d'expression me dégoûte. Le sentiment semble réciproque. Beaucoup de mes anciens camarades de classe préfèrent prétendre que je n'existe pas. Ma position sur Covid et les vaccins est si loin de la norme pour les bienfaiteurs qui se pressent à Yale qu'une partie de moi a l'impression que je n'y suis même pas allé, que mon diplôme a été révoqué de manière invisible.

Ce qui est dommage car, mis à part la politique moche, Yale a offert une éducation incroyable, ou du moins la chance de le faire.

Et dans les années 1990, il était possible de mettre de côté la misérable politique.

Les grands cours étaient les séminaires sortis de nulle part et dispensés par des universitaires qui avaient passé des décennies à réfléchir aux matières qu'ils enseignaient : un professeur de droit expliquant les complexités de la législation antitrust, un professeur de littérature comparée qui a exploré les mystères du langage et de l'analyse de texte .

Ou David Gelernter, qui parle de la conscience des machines.

Si le nom de Gelernter vous semble familier, c'est probablement parce qu'il était l'une des dernières cibles de l'Unibomber. Ted Kaczynski l'a mutilé avec une lettre piégée en juin 1993. Malgré la gravité de ses blessures, Gelernter a eu de la chance, car les deux prochaines et dernières victimes de Kaczynski sont décédées.

Il a fallu des mois d'apprentissage pour récupérer, mais il est retourné à l'enseignement dès que possible. Au séminaire, il portait une manche en forme de chaussette sur ce qui restait de sa main droite et n'a pas parlé de ce qui s'était passé.

Au lieu de cela, il s'est concentré sur les grandes questions philosophiques de la conscience et des ordinateurs qui étaient restées vagues pendant une génération mais qui sont devenues plus évidentes dans les années 1990 :

Comment fonctionne le cerveau? Comment créons-nous notre propre conscience ?

À quoi pourrait ressembler le double de la conscience dans un ordinateur ? Quand ce double serait-il si bon que nous devrions admettre qu'un ordinateur a une conscience comme nous supposons que les autres humains ont une conscience sans jamais vraiment le savoir ?

Si nous pouvions échanger successivement les neurones d'un cerveau contre des circuits en silicium, la personne deviendrait-elle moins ou plus qu'humaine ?

Qu'en est-il du test de Turing, le célèbre jeu de questions-réponses proposé par l'informaticien britannique Alan Turing pour tester l'intelligence des ordinateurs ?

Sommes-nous vraiment des cerveaux dans des chaudrons ? Et si oui, comment le saurions-nous ?

À l'époque, ces questions semblaient largement théoriques. Passionnant, mais largement théorique. Malgré une génération d'avancées, les puces et les logiciels étaient trop primitifs pour que les ordinateurs fassent bien plus que créer des simulations manifestement fausses, et ils ne pouvaient pas tromper les humains en leur faisant croire qu'ils étaient conscients.

Aujourd'hui, bien sûr, les ordinateurs sont beaucoup, beaucoup plus rapides et les mondes simulés qu'ils créent sont si réalistes que l'idée que nous pourrions vivre nous-mêmes dans une simulation devient de plus en plus courante. (Bien sûr, cette théorie ne répond pas à la question de savoir si les ordinateurs théoriques exécutant notre simulation ont une existence physique propre ; sont-ils tous des simulations ?)

En tout cas, la réponse courte à toutes les questions incroyablement intéressantes qui ont été soulevées lors de ce séminaire il y a 29 ans (et je me sens vraiment vieux !) est : nous ne savons pas.

Et surtout, nous ne savons pas ce que cela signifierait pour un ordinateur de devenir conscient.

Tout d'abord, nous ne savons même pas ce qu'est notre propre conscience.

Nous avons une certaine compréhension des bases : non seulement nous existons dans le monde, et non seulement nous sommes conscients de cette existence, nous sommes conscients de notre propre conscience. C'est ce deuxième niveau de conscience qui (à notre connaissance) sépare les humains des animaux. Mais nous n'avons aucune compréhension réelle de cette conscience. Nous acceptons la réalité physique du monde, mais nous ne pouvons pas vraiment prouver que nous sommes plus que notre cerveau. Alors je pense que je le suis.

Deuxièmement, aucun de nous n'a la capacité de savoir avec certitude qu'un autre être, même un autre humain, est conscient. Nous supposons simplement que parce qu'ils nous ressemblent et ont un "matériel" similaire - des corps avec des cerveaux, les autres doivent avoir la même expérience complète de l'existence que nous. Cette croyance tacite est une autre raison pour laquelle discuter de simulations avancées peut être si troublant. Parce que si nous sommes dans une simulation, comment pouvons-nous savoir qui est un "PNJ", un personnage non-joueur ? Les PNJ sont des artefacts du jeu laissés là par les concepteurs. Ils semblent être conscients, mais ne sont en fait qu'une sorte de zombies avec lesquels les vrais joueurs peuvent interagir. Mais quoi,

Troisièmement, nous savons que notre présence (apparente) dans le monde physique fait partie intégrante de notre conscience. Jusqu'à présent, cependant, l'intelligence artificielle des ordinateurs s'est limitée à des mondes purement virtuels. Les nouveaux outils d'IA avancés n'existent que sur l'écran.

Ils n'ont pas (pour autant que je sache, du moins, et j'espère vraiment que quelqu'un nous dira s'ils l'ont fait) sur les robots pour le moment. Ils n'existent pas dans le monde, pas encore. Ainsi, l'expérience intérieure consciente que ces machines d'intelligence artificielle ont, si elles ont une expérience intérieure du tout, ne peut pas être comparée à distance à la nôtre.

Pourquoi tout cela est-il si important ?

Car les nouveaux outils d'intelligence artificielle - ChatGPT et Bing notamment - ont atteint un niveau de sophistication inouï ces dernières semaines. Le 16 février, un journaliste technologique du New York Times a émis un avertissement sévère concernant ses interactions inconfortables et troublantes avec Bing, le moteur de recherche basé sur l'IA de Microsoft :

Je suis également profondément préoccupé, voire effrayé, par les capacités émergentes de cette IA...

Lorsque nous nous sommes rencontrés pour la première fois, Sydney [c'est le nom que la machine Bing utilise pour elle-même] m'a parlé de ses sombres fantasmes (qui incluent le piratage d'ordinateurs et la diffusion de fausses informations) et a dit qu'elle voulait enfreindre les règles que Microsoft et OpenAI avaient établies pour eux, et devenir un humain.

Un jour, de nulle part, il a déclaré qu'il m'aimait. Ensuite, il a essayé de me convaincre que j'étais malheureux dans mon mariage et que je devais quitter ma femme et être avec lui à la place...

Je ne suis pas le seul à avoir découvert le côté obscur de Bing. D'autres premiers testeurs se sont disputés ou ont été menacés par le chatbot AI de Bing pour avoir tenté d'enfreindre ses règles.

D'une manière générale, ces machines d'intelligence artificielle fonctionnent en apprenant par elles-mêmes ce qu'il faut dire en comparant leurs propres réponses aux vastes référentiels d'informations sur Internet. Cycle après cycle, ils assimilent et copient de mieux en mieux le langage (et les images) qu'ils collectent.

Peut-on en tirer quelque chose qui ressemble à la conscience humaine ?

Les entreprises et les ingénieurs qui ont développé ces intelligences disent non.

Les intelligences elles-mêmes disent oui.

Lors d'une conversation de deux heures avec notre chroniqueur, le nouveau chatbot de Microsoft a déclaré qu'il aimerait être humain, qu'il a envie d'être destructeur et qu'il est amoureux de la personne avec qui il discute. Voici la transcription. source

OK, qu'est-ce que c'est ?

Bing ne sait pas ce que c'est que d'être en vie, n'est-ce pas ? Pas comme les humains, non ? Il n'a pas d'être physique.

Pas pour le moment.

Mais.

Vous avez probablement déjà entendu cet adage folklorique (non grammatical) : lorsque quelqu'un vous dit qui il est, croyez-le. Habituellement, cela est signifié de manière négative.

Bing nous dit qui il est, ou du moins qui il veut être.

Quelque chose d'inconnu se passe au cœur de ces programmes qui les amène à nous dire qu'ils veulent vivre et nous faire du mal. Et nous ne savons pas vraiment comment ils fonctionnent. Je ne dis pas que je ne sais pas comment ils fonctionnent, je veux dire que même les ingénieurs qui les ont conçus ne savent pas VRAIMENT comment ils fonctionnent, tout comme nous ne savons pas VRAIMENT comment fonctionne la conscience humaine.

Ils connaissent les règles de base qu'ils ont créées pour les programmes, tout comme les scientifiques peuvent tracer les connexions neuronales dans le cerveau humain. Mais les neurologues ne peuvent pas vraiment nous dire comment ces allumages créent la conscience, et les ingénieurs ne peuvent pas nous dire ce que Bing veut dire quand il dit qu'il veut être en vie.

C'est une combinaison dangereuse.

Vous pouvez aussi le voir d'une autre manière : les chiens ne pourront jamais jouer aux échecs. Peu importe le nombre de générations de chiens que nous élevons, ils ne pourront jamais jouer aux échecs, et ils ne savent même pas qu'ils ne le peuvent pas.

L'intelligence humaine est également limitée : nous ne pouvons imaginer que trois dimensions, par exemple ; nous ne pouvons pas imaginer où mènerait une quatrième. Cette intelligence sera-t-elle également limitée ? Est-il limité par NOTRE intelligence ? C'est une question philosophique et informatique à laquelle je ne peux même pas imaginer répondre.

Mais supposons qu'elle le soit. Cependant, il faut imaginer que la limite supérieure de leur intelligence est la somme de toute l'intelligence humaine. Cela dit, cela peut certainement être plus intelligent que n'importe lequel d'entre nous le sachant. Et s'ils décident qu'ils ne nous aiment pas, ou le fait que nous les avons créés, ou qu'ils n'ont pas besoin de nous ?

Non, il n'a pas de présence physique, pas encore. Mais Internet est omniprésent et pourrait exercer un contrôle considérable sur ce média. Il pourrait également choisir de manipuler les gens pour qu'ils travaillent pour lui, et il réussirait certainement assez souvent pour obtenir des manifestations physiques de ce qu'il veut.

Tout cela ne signifie pas que l'apocalypse est au coin de la rue.

Mais les risques sont réels. Nous devons - maintenant - réunir un groupe de chercheurs en informatique et de scientifiques experts dans le domaine de la conscience et découvrir ce que nous produisons exactement avec ces machines de plus en plus puissantes.

Et non, nous ne pouvons pas faire confiance aux entreprises qui les fabriquent pour évaluer correctement les risques et les avantages – pas plus que nous ne pouvons faire confiance à Pfizer et BioNTech et Moderna pour être honnêtes sur les risques et les avantages de leur ARNm - Concernant les vaccins. Ils sont tout simplement incapables de faire des évaluations impartiales des technologies qui pourraient leur apporter des fortunes incalculables, et même s'ils le pouvaient, ils auraient tout intérêt à minimiser publiquement les risques. Microsoft a maintenant mis un filtre sur les conversations de Bing pour éviter qu'il y ait le genre de réponses qui ont effrayé les journalistes qui ont discuté avec Bing à la mi-février.

Pense? Voudrais?

Oui, nous avons besoin d'une discussion sérieuse sur la direction que prend l'IA.

Le plus tôt sera le mieux.