Eric Schmidt est un technocrate mondial de premier plan et le successeur apparent d'Henry Kissinger, tous deux membres de la Commission trilatérale d'élite qui est le fourrage de la technocratie moderne. Il est faux de comparer l'IA aux armes nucléaires, car les armes nucléaires détruisent en fait la matière alors que l'IA a encore du mal à conduire une voiture en ligne droite. Schmidt insinue-t-il que l'IA devient une arme de destruction massive ? ⁃ Éditeur TN

L'ancien PDG de Google, Eric Schmidt, a comparé l'IA aux armes nucléaires et a appelé à un régime de dissuasion semblable à la garantie mutuelle de destruction qui empêche les pays les plus puissants du monde de s'entre-détruire.

Schmidt a parlé des dangers de l'IA lors d'un panel sur la sécurité nationale et l'intelligence artificielle au Aspen Security Forum le 22 juillet. Interrogé sur la valeur de la moralité dans la technologie, Schmidt a expliqué que même aux débuts de Google, il était naïf quant au pouvoir de l'information. Il a ensuite fait valoir que la technologie devrait être mieux conciliée avec l'éthique et la morale des personnes qu'elle sert, et a fait une comparaison bizarre entre l'IA et les armes nucléaires.

Schmidt envisageait un avenir proche où la Chine et les États-Unis devraient conclure un traité sur l'IA. Finalement, dans les années 50 et 60, nous avons élaboré un monde où il y avait une règle "sans surprise" sur les essais nucléaires et finalement ils ont été interdits", a déclaré Schmidt. "C'est un exemple d'équilibre de confiance ou de manque de confiance, c'est une règle" sans surprise ". Je suis très préoccupé par le fait que la vision américaine de la Chine comme corrompue ou communiste ou quoi que ce soit et la vision chinoise de l'Amérique comme un échec... permettront aux gens de dire "Oh mon Dieu, ils préparent quelque chose", et puis certains sorte de confusion commence. Vous démarrez une chose où, parce que vous armez ou préparez, vous déclenchez l'autre côté. nous n'avons personne

L'IA et l'apprentissage automatique sont une technologie étonnante et souvent mal comprise. Elle n'est généralement pas aussi intelligente que les gens le pensent. Elle peut créer des œuvres d'art de niveau chef-d'œuvre, battre des gens dans Starcraft II et passer des appels téléphoniques rudimentaires pour les utilisateurs. Essayez de lui faire faire des tâches plus compliquées comme Conduire une voiture dans une grande ville, par exemple, ne s'est pas si bien passé.

Schmidt envisageait un avenir proche où la Chine et les États-Unis auraient des problèmes de sécurité les forçant à conclure une sorte de traité de dissuasion sur l'IA. Il parle des années 50 et 60, lorsque la diplomatie a développé une série de contrôles sur les armes les plus meurtrières du monde. Mais il faudrait des décennies d'explosions nucléaires, notamment la destruction d'Hiroshima et de Nagasaki, avant que le monde puisse faire adopter le Traité d'interdiction des essais nucléaires, SALT II, ​​​​et d'autres lois historiques.

Les deux villes japonaises que l'Amérique a détruites à la fin de la Seconde Guerre mondiale ont tué des dizaines de milliers de personnes et ont prouvé au monde la terreur éternelle des armes nucléaires. Les gouvernements de la Russie et de la Chine se sont alors précipités pour produire ces armes. La façon dont nous vivons avec la possibilité que ces armes soient utilisées s'appelle la destruction mutuelle assurée (MAD), une théorie de la dissuasion qui garantit que si un pays utilise une bombe nucléaire, il est possible que tous les autres pays le fassent aussi. Nous n'utilisons pas l'arme la plus destructrice du monde en raison de la possibilité qu'elle détruise, à tout le moins, la civilisation dans le monde entier.

Malgré les commentaires colorés de Schmidt, nous ne voulons ni n'avons besoin d'un MAD pour l'IA. D'une part, l'IA ne s'est pas avérée aussi destructrice que les armes nucléaires. Mais ceux qui occupent des postes de pouvoir craignent cette nouvelle technologie, et souvent pour de mauvaises raisons. Il a même été suggéré que l'IA devrait avoir le contrôle des armes nucléaires, car elle serait mieux placée pour prendre des décisions sur l'utilisation des armes nucléaires que les humains.

Le problème avec l'IA n'est pas qu'elle a le pouvoir potentiellement destructeur d'une arme nucléaire. Le problème est plutôt que l'IA n'est aussi bonne que les personnes qui l'ont créée, et qu'elle reflète les valeurs de ses créateurs. L'IA souffre du problème classique "garbage in, garbage out" : les algorithmes racistes font des robots racistes, toute IA porte les préjugés de ses créateurs, et un chatbot formé sur 4chan devient le mal.

C'est quelque chose que Demis Hassabis - le PDG de DeepMind qui a formé l'IA qui bat les joueurs de Starcraft II - semble mieux comprendre que Schmidt. Dans une interview de juillet sur le podcast Lex Fridman, Fridman a demandé à Hassabis comment une technologie aussi puissante que l'IA pouvait être contrôlée et comment Hassabis lui-même pouvait éviter d'être corrompu par ce pouvoir.