Ruminer nos seigneurs robots et le scénario manquant
Maintenant que ChatGPT est monté sur scène, il y a un nouveau battage médiatique autour de l’intelligence artificielle (IA). Chaque fois que l’IA captive l’imagination du public, nous sommes soumis à des spéculations effrénées sur la façon dont elle va inévitablement prendre le contrôle de l’avenir et changer nos vies.
Nous sommes amenés à croire que l’IA inaugurera une ère de maîtres hyper-intelligents qui vont si loin au-delà de nos propres capacités cognitives brutes et analogiques que la question existentielle du futur tournera autour d’elle:
- Combien de pouvoir ou de droits donnons-nous à ces êtres ?
- Se comporteront-ils avec bienveillance ou malveillance envers nous ?
Mais ces questions présupposent une hypothèse de base liée à l’IA, ce qui n’est généralement pas vrai aujourd’hui, mais le sera inévitablement à l’avenir – après quelques itérations supplémentaires de la loi de Moore...
C’est l’idée que l’IA atteindra l’intelligence artificielle générale, et cela nécessite une certaine sensibilité (sinon, il n’y a rien à donner de droits).
L’article de Newsweek à droite dans les images ci-dessus est du futuriste transhumaniste Zoltan Istvan. Il décrit comment les éthiciens de l’IA sont divisés sur la question de savoir si les futurs robots hyperintelligents devraient se voir accorder des droits.
D’une part, nous commettons une « erreur des droits civiques » que nous regretterons à l’avenir si nous n’accordons pas les droits de l’homme aux robots avec AGI (intelligence générale sur un pied d’égalité avec les humains).
Ceci est contredit par ceux qui prétendent que les robots sont des machines et n’auront jamais besoin de droits parce qu’ils n’ont pas de sentiments (ici j’atterris, et je vais vous expliquer ci-dessous pourquoi).
D’autres croient en un terrain d’entente dans lequel certains robots dotés d’une intelligence générale se voient accorder certains droits en fonction de leurs « capacités, de leur système moral et de leur contribution à la société » (ce qui me rappelle un peu une clause des trois cinquièmes).
Mais dans l’ensemble, Istvar semble supposer que l’IA atteindra la superintelligence et sera bien plus nombreuse que nous les sacs de viande maladroits de l’humanité en termes de puissance cérébrale.
Cela nous laisse avec trois voies possibles vers l’avenir:
#1 Appel à la bonne volonté de la superintelligence de l’IA
Compte tenu de la possibilité d’une récompense ou d’une punition, si l’intelligence artificielle finit par devenir quelque chose comme un dieu de l’IA qui peut manipuler et prolonger la vie humaine dans une large mesure pour le meilleur ou pour le pire, alors les gens devraient immédiatement commencer à penser à la façon dont notre futur suzerain veut être créé et traité. La façon dont les humains gèrent l’évolution de l’IA aujourd’hui – et si nous accordons des droits et du respect aux robots dans un avenir proche – pourrait donc faire toute la différence dans la façon dont notre espèce sera un jour traitée. »
Il s’agit d’une variante du pari de Pascal – une construction prototypique de la théorie des jeux qui conclut que les conséquences de croire en Dieu et de l’erreur (rien) sont meilleures que l’erreur de ne pas croire (damnation éternelle).
#2 Hopium. Peut-être que les IA nous laisseront tranquilles
Cependant, selon Istvan, « compte tenu de notre influence et de la destruction environnementale que nous causons sur la planète Terre », nous pourrions « facilement bouleverser l’IA », qui prendra les choses en main pour corriger les choses et nous. Ce dernier scénario est une variante du basilic Rokos, qui est également mentionné dans le post d’Istvan.
Rokos Basilisk était une expérience de pensée du programmeur Eliezer S. Yudkowsky sur LessWrong, qui a secoué le site Web jusque dans ses fondations et effrayé les nerds autrement super-cerveaux.
C’est « l’expérience de pensée la plus terrifiante de tous les temps », s’enthousiasme le magazine Slate.
Il continue de façonner la pensée de Yudkowsky à ce jour. Récemment, il a annoncé le « problème d’alignement », qui suppose que l’humanité créera inévitablement des IA super-intelligentes et qu’elles nous détruiront inévitablement. Autant « mourir dignement », puisque nous sommes tous condamnés de toute façon :
Il est évident que l’humanité ne résoudra pas le problème de l’alignement, n’essaiera même pas et n’abandonnera pas sans se battre. Puisque la survie est inaccessible, nous devrions concentrer nos efforts pour aider l’humanité à mourir avec un peu plus de dignité.
Ces types de constructions de pensée autour de l’inévitabilité des IA omnipotentes ne sont que des répétitions de l’argument ontologique de saint Anselme. Formulé pour la première fois par saint Anselme de Canterbury au 11ème siècle. Bien qu’il s’agisse d’un exploit logique impressionnant qui ressemble aux paradoxes de Zénon, il s’agit simplement d’un argument circulaire selon lequel Dieu doit exister :
« Dieu est le plus grand être possible que l’on puisse imaginer. Si un tel être n’existe que dans l’imagination et non dans la réalité, alors on peut imaginer un être plus grand – un être qui existe à la fois dans l’imagination et dans la réalité.
En termes simples :
Dieu est l’être le plus parfait que nous puissions imaginer, et il est plus parfait d’exister dans la réalité que dans notre imagination. Par conséquent, Dieu doit exister dans la réalité.
via la session ChatGBT 72b43f3e-043f-4db2-aca9-63a76b7945c9
Donnez à Dieu une tendance maléfique, et vous avez le basilic Rokos. Ou Skynet.
#3 Téléchargez notre conscience dans le cloud et fusionnez avec les robots
Ici, Istvan suggère que nous fusionnions avec l’IA et essayions de la diriger.
Une dernière possibilité est que nous essayions de fusionner avec l’IA précoce en y téléchargeant nos esprits, comme l’a suggéré Elon Musk. L’espoir est que les humains puissent devenir un avec l’IA et les amener à être gentils avec les humains avant qu’elle ne devienne trop puissante. Cependant, il n’y a aucune garantie que nous réussirons, et à long terme, l’IA ne pourrait que se sentir violée par elle.
Cette idée est attribuée à Elon Musk, bien que je sois sûr qu’Istvan est conscient que c’est l’essence de la singularité propagée par des gens comme Ray Kurweil (scientifique en chef de Google) dans son livre The Singularity is Near. Les cosmologistes russes ont essayé de formuler la même chose il y a plus d’un siècle, mais à l’époque, il n’y avait pas de réseaux informatiques et d’apprentissage automatique pour servir de base.
Il y a des années, j’étais censé écrire un livre sur les dangers de ce techno-utopisme, et j’y appelle l’idée que l’humanité va fusionner avec l’IA et éliminer tous nos maux « Le faux seuil »:
Tout cela est rendu possible par le cercle vertueux créé par les réseaux informatiques numériques qui, poussés par la loi de Moore, réduisent sans cesse de moitié leur empreinte physique tout en doublant leur puissance de traitement – après tout, nous égalerions puis dépasserions la connectivité et la puissance de traitement du cerveau humain lui-même.
Si cela se produit, tous les paris sont nuls. On suppose que quelque part sur ce continuum, lorsque les seuils corrects pour le parallélisme et la puissance de calcul sont dépassés, l’esprit lui-même saute hors du processus – il émerge avec puissance et se replie sur lui-même, séparant les sous-processus qui sont encore plus intelligents que lui-même, et ainsi de suite, à l’infini. Notre « invention finale » examinera alors le monde avec toutes ses lacunes et ses inefficacités et, puisqu’elle est infiniment plus intelligente que tous les cerveaux humains réunis, résoudra tout habilement.
Selon Kurzweil, cela pourrait se produire dès 2029, et ces visions techno-utopiques conduisent presque toujours à une sorte de néo-marxisme basé sur un communisme de luxe entièrement automatisé.
La singularité comme enlèvement
L’attente que l’IA super-intelligente prenne le contrôle de nos affaires (techno-utopisme) a les traits d’une religion. J’ai écrit à ce sujet à ce sujet dans Transhumanism: The New Religion of The Coming Technocracy en réponse à une « matière à réflexion » du WSJ (Looking Forward to the End of Humanity) selon laquelle « Covid-19 a mis la promesse du transhumanisme et l’idée d’utiliser la technologie pour vaincre la maladie, le vieillissement et la mort au centre ».
Ne vous y trompez pas : la singularité a toutes les caractéristiques d’un événement eschatologique. Il diffère de la plupart des impulsions chrétiennes ou monothéistes parce que c’est nous qui donnons naissance à nos propres dieux. Cette dynamique d’usurpation (celle de Dieu ou, dans ce cas, la réalité elle-même) lui donne une impulsion nettement luciférienne.
Le scénario manquant est que l’IA ne se produira jamais
Un scénario que cet article n’envisage pas (et personne d’autre qui traite de l’avenir de l’IA non plus) est que l’IA n’existe pas et que la croyance que l’IA sensible et confiante prendra le contrôle du monde ne se matérialisera jamais.
(Soit dit en passant, c’est une question très différente de savoir si la majorité de la population deviendra des serfs algorithmiques vivant sous le crédit social et les CBDC).
Notre insistance sur la façon de traiter ces constructions logicielles super-intelligentes est basée sur une seule hypothèse fixe qui est indémontrable :
C’est l’idée que l’esprit est un épiphénomène de la matière.
L’idée centrale du scientisme (remarquez, je n’ai pas dit « science ») est que la conscience, la sensibilité et l’esprit sont tous des sous-produits de la matière. Quelque chose qui se produit lorsque certains neurochimiques se déplacent dans un cerveau, déclenchant et câblant suffisamment de synapses pour créer une conscience de soi.
C’est l’équivalent moderne de l’univers ptolémaïque (ou géocentrique) : la croyance que la Terre est le centre du cosmos.
C’était la « science reconnue » de son époque, et si vous la niiez, vous étiez brûlé sur le bûcher.
La réalité est que la matière est un sous-produit de la conscience, la couche de base de la réalité est mentale, pas physique. Cela a longtemps été revendiqué (l’axiome hermétique « tout est mental », copié de textes beaucoup plus anciens) et n’a été redécouvert qu’au siècle dernier avec l’avènement de la mécanique quantique.
« Je considère la conscience comme fondamentale. Je considère que la matière est dérivée de la conscience. Nous ne pouvons pas aller au-delà de la conscience. Tout ce dont nous parlons, tout ce que nous considérons comme existant, présuppose la conscience. »
Max Planck
En ce sens, notre cerveau ne rayonne pas la conscience comme une bouilloire se défoule – c’est un récepteur qui exploite et filtre le substrat sous-jacent de la réalité. Et bien que les fondements de la mécanique quantique illustrent la primauté de la conscience, elle ne peut être véritablement expérimentée qu’à travers la Gnose. Pour ceux qui ont vécu cette expérience, il n’y a aucun doute. Pour tous les autres, il n’y a que du New Age Woo-Woo.
Jusqu’à ce que l’IA soit abordée avec cette compréhension (et je ne m’attends pas à ce que quiconque prenne cela au sérieux), nous pouvons supposer sans risque qu’une IA généralisée qui est sensible et confiante ne verra tout simplement pas le jour.
Il est temps de faire face à la réalité
L’intelligence artificielle est en fait la version actuelle de la « voiture volante ». Quelque chose qui a été utilisé comme un symbole de l’avenir qui ne s’est jamais produit. Du moins pas sous la forme clichée. C’est parce que l’IA n’est pas vraiment de l’intelligence artificielle, c’est une imitation algorithmique.
Elle est peut-être très, très douée pour imiter algorithmiquement des comptables, des avocats, des médecins, des programmeurs, des rédacteurs et même des grands maîtres d’échecs ou des champions de Go, mais elle n’est toujours pas sensible, elle n’a toujours aucune compréhension de ce qu’elle fait, elle n’a pas de conscience. Cela pourrait aussi bien être un grille-pain.
Par conséquent, il n’est pas seulement illusoire, mais aussi fou de nous torturer avec des constructions essentiellement théologiques sur des résultats auxquels nous attribuons une fausse inévitabilité.
L’erreur devient encore plus grande si nous façonnons la politique publique sur la base de ces hypothèses.
Une dynamique très similaire se joue dans la représentation de la « crise climatique », où nous sommes inondés de constructions hypothétiques de modèles informatiques à qui l’on attribue une fatalité qui oblige toute l’humanité à se réorganiser autour d’eux. Les « reconfigurations » ou « recalibrations » proposées de la société (pour utiliser un euphémisme de style WEF) suivent invariablement des lignes néo-marxistes et technocratiques.
Tout d’abord: récupérons nos propres droits tout de suite
L’ironie de toute cette introspection sur la façon dont nous traitons les IA et les droits qu’elles devraient avoir, c’est qu’ici, à l’ère du Covid, nos propres droits humains fondamentaux ont été suspendus. Par décret.
Nous ne les avons pas récupérés après la fin de la pandémie, car la plupart des mandats d’urgence ne sont que partiellement « mis en attente ». Nos droits humains civils et universels sont maintenant provisoires à la demande de diverses autorités sanitaires non élues, de bureaucrates, d’apparatchiks et de toute folie venant de Davos.
Si nous le permettons, la situation ne fera qu’empirer à mesure que « l’urgence climatique » se profile à l’horizon et que nous sommes confrontés à la perspective réelle de confinements climatiques et de crédit social basé sur les CBDC, les passeports sanitaires et le rationnement du carbone.
Nous avons suspendu nos propres droits dans le présent et nous discutons ensuite des droits que nous devrions accorder aux algorithmes logiciels sans vie du futur.
Mon livre sur ce sujet est en attente, mais j’écris toujours sur le transhumanisme, l’IA et leur impact sur les CBDC, le rationnement du carbone et le crédit social. Rejoignez la liste de diffusion Bombthrower pour recevoir de nouveaux articles (et peut-être que je vais reprendre le livre et le réécrire ici). Vous pouvez également me suivre sur Nostr, Gettr ou Twitter. Ma lettre premium The Bitcoin Capitalist couvre Bitcoin et les actions cryptographiques.