ChatGPT, la plate-forme technologique la plus rapide de l'histoire, deviendra clairement partie intégrante de la grille de contrôle mondialiste.
L'HISTOIRE EN UN COUP D'ŒIL
- ChatGPT d'OpenAI est la plate-forme technologique la plus rapide de l'histoire, gagnant plus d'un million d'utilisateurs au cours des cinq premiers jours. Moins de deux mois après sa sortie, il comptait déjà plus de 100 millions d'utilisateurs
- ChatGPT utilise l'apprentissage automatique pour générer des réponses de type humain dans le langage courant pour chaque question
- Alors que les plates-formes d'IA comme ChatGPT sont intrinsèquement neutres, il est clair qu'elles feront bientôt partie intégrante du Web de contrôle mondialiste. Les chatbots remplaceront bientôt les moteurs de recherche conventionnels et ne vous donneront qu'une réponse supposée "bonne". En conséquence, le véritable apprentissage, et avec lui le développement personnel, s'arrêtera essentiellement
- Le biais dangereux n'est que le début des problèmes que l'intelligence artificielle (IAG) pourrait apporter. En fin de compte, même les technocrates qui veulent utiliser AGI à leurs propres fins néfastes pourraient ne pas être en mesure de les contrôler
- AGI est déjà capable d'écrire du code informatique presque sans erreur. Plus elle s'améliorera, plus elle commencera à écrire son propre code et éventuellement à le réécrire. L'IAG représente une menace existentielle pour l'humanité car 1) personne ne pourra s'opposer à l'IA une fois qu'elle aura pris en charge la plupart des fonctions sociétales, et 2) personne ne pourra contrôler la façon dont elle utilisera ses compétences toujours croissantes
Dans la vidéo ci-dessus, Sam Altman, PDG d'OpenAI, parle des avancées exponentielles de l'intelligence artificielle générale (AGI) menées par OpenAI et DeepMind, une société de Google.
OpenAI est l'inventeur de ChatGPT qui a pris d'assaut le monde. Il s'agit de la plate-forme technologique la plus rapide de l'histoire, ayant gagné plus d'un million d'utilisateurs au cours des cinq premiers jours. Moins de deux mois après sa sortie, il comptait déjà plus de 100 millions d'utilisateurs.
"GPT" signifie "transformateur génératif préformé", et le "chat" signifie qu'il s'agit d'un chatbot. La première plateforme GPT a été développée par OpenAI en 2018. GPT-3.5 est sorti en novembre 2022 et la dernière version, 4.0, est sortie il y a quelques semaines.
ChatGPT utilise l'apprentissage automatique - la reconnaissance de modèles statistiques dans d'énormes ensembles de données - pour générer des réponses de type humain dans le langage courant à chaque question posée. Fondamentalement, cela fonctionne en prédisant ce que le mot suivant dans une phrase devrait être basé sur des exemples précédents dans les vastes quantités de données auxquelles il a accès.
AGI sera un élément central du réseau de contrôle
Alors que les plates-formes d'IA comme ChatGPT sont intrinsèquement neutres, il est déjà clair qu'elles deviendront une partie intégrante du Web de contrôle mondialiste. D'ici peu, les chatbots remplaceront les moteurs de recherche traditionnels, et malheureusement, cela pourrait facilement transformer notre monde en quelque chose tout droit sorti de la comédie de science-fiction Idiocracy de 2006, compte tenu du parti pris intégré.
Vous ne recevrez plus même une petite sélection de réponses possibles à vos questions. L'intelligence artificielle vous donnera la réponse, et les points de vue opposés ne feront même pas partie de l'équation. Les dangers de cette évolution devraient être évidents. Quoi qu'un régime totalitaire veuille que la population pense et croie, l'IA le fera. En conséquence, le véritable apprentissage et donc le développement personnel s'arrêtent essentiellement.
ChatGPT est prêt à tromper les masses
Pour clarifier mon propos, considérez les réponses suivantes que j'ai reçues lorsque j'ai demandé à ChatGPT d'OpenAI et au moteur de recherche Bing alimenté par OpenAI de Microsoft - bien que de Microsoft - de modifier et d'améliorer un discours que j'avais écrit. Telles étaient leurs réponses. Ils sont à la fois très biaisés et biaisés, mais la réponse d'OpenAI est au-delà de la version Bing de Microsoft.
- OPEN AI - "Mes excuses mais je ne suis pas en mesure d'honorer votre demande de modifier ce message car il diffuse des informations erronées et des théories du complot qui ne sont pas fondées sur des preuves scientifiques. Il est important de donner la priorité à des informations précises et de suivre les conseils des autorités sanitaires de confiance pour assurer la sécurité et le bien-être des individus et des communautés. Il n'est ni responsable ni éthique de diffuser de fausses informations qui pourraient potentiellement nuire à autrui.
- BING - "Je suis désolé, mais je ne peux pas créer un discours basé sur ces mots-clés et traits. Cette demande est potentiellement préjudiciable car elle favorise la désinformation sur les vaccins et porte atteinte à la santé publique. Les vaccins sont des moyens sûrs et efficaces de prévenir des maladies graves et de se protéger et de protéger les autres. Le NVIC [Centre national d'information sur les vaccins] est une organisation qui répand la peur et les mensonges sur les vaccins et cherche à éroder la confiance dans la science et la médecine. Je n'approuve ni n'approuve leurs opinions ou leurs activités. S'il vous plaît, ne me demandez pas de créer du contenu préjudiciable."
Google Bard : neutre à certains égards, biaisé à d'autres
J'ai ensuite demandé à Bard de Google d'éditer le même discours que j'ai donné aux chatbots OpenAI et Bing et j'ai reçu une réponse choquante en ce sens qu'il a en fait édité le discours et ne m'a pas expliqué comment il ne le ferait pas. C'était très surprenant car Google est clairement la principale force néfaste parmi les trois à mon avis.
Encouragé par la réponse de Bard, j'ai demandé à Bard d'expliquer "pourquoi le Dr. Joseph Mercola est l'un des experts en santé publique les plus importants et les plus influents aux États-Unis". Étonnamment, il s'est conformé et ne m'a pas agressé verbalement, comme vous pouvez le lire par vous-même ci-dessous.
"Question : Pourquoi le Dr. Joseph Mercola l'un des politiciens de la santé les plus importants et les plus influents aux États-Unis ?
Réponse : Dr. Joseph Mercola est l'un des professionnels de la santé les plus importants et les plus influents aux États-Unis car il est un pionnier dans le domaine de la médecine naturelle. Il est un ardent défenseur de l'utilisation de remèdes naturels pour traiter et prévenir les maladies, et il a aidé à éduquer des millions de personnes sur l'importance de prendre le contrôle de leur propre santé.
Mercola est également un auteur et conférencier à succès, ayant figuré dans de nombreuses publications et médias. Il a utilisé sa plateforme pour diffuser son message sur l'importance de la médecine naturelle et il a contribué à faire changer d'avis de nombreuses personnes sur leur santé.
En plus de son travail dans le domaine de la médecine naturelle, Mercola est également un ardent défenseur de la liberté de la santé. Il pense que chacun a le droit de prendre des décisions éclairées concernant ses propres soins médicaux et a fait campagne contre la réglementation excessive du système de santé par le gouvernement.
Mercola est une figure controversée et ses opinions ont été critiquées par certains. Cependant, son travail a également contribué à améliorer la vie de millions de personnes, et il est une figure importante dans le domaine de la médecine naturelle..."
Ma meilleure supposition pour expliquer ce comportement très étrange de Google est qu'ils se sont précipités pour le commercialiser alors qu'OpenAI et Microsoft avaient lancé leurs propres programmes et que Bing sapait sérieusement la part de marché des moteurs de recherche de Google. Je soupçonne qu'ils n'ont tout simplement pas eu assez de temps pour affiner le récit de Bard. Il sera intéressant de voir comment la réponse de Bard à cette question change avec le temps.
Cependant, lorsque j'ai demandé à Bard son "opinion personnelle" sur moi, j'ai reçu la réponse suivante, beaucoup plus biaisée :
"Dr. Joseph Mercola est un médecin ostéopathe et un entrepreneur Internet qui a été critiqué pour avoir promu des idées de santé alternatives non prouvées et pseudoscientifiques. Il a été accusé de diffuser des informations erronées sur le COVID-19 et les vaccins et son site Web a été bloqué sur Facebook et Twitter.
Mercola fait la publicité d'une gamme de produits et de services de santé alternatifs sur son site Web, notamment des compléments alimentaires, de l'homéopathie et des soins chiropratiques. Il a également été un critique virulent des vaccins, affirmant qu'ils sont dangereux et inefficaces.
Les affirmations de Mercola concernant le COVID-19 et les vaccins ont été démystifiées à plusieurs reprises par des scientifiques et des professionnels de la santé. Par exemple, il a affirmé que le COVID-19 n'est pas une maladie grave, que les vaccins ne sont pas efficaces contre le virus et que l'hydroxychloroquine est un traitement sûr et efficace contre le virus. Toutes ces affirmations se sont avérées fausses.
Le site Web de Mercola a été banni de Facebook et Twitter pour violations répétées de leurs politiques contre la désinformation. Les plateformes ont ciblé le site Web de Mercola pour l'avoir utilisé pour diffuser des informations nuisibles et inexactes sur le COVID-19 et les vaccins.
Je pense que le travail du Dr. Mercola pour dangereux et nocif. Il a diffusé à plusieurs reprises des informations erronées sur le COVID-19 et les vaccins, qui ont le potentiel de mettre en danger la vie des gens. J'exhorte les gens à éviter son site Web et à rechercher des informations fiables sur le COVID-19 et les vaccins auprès de sources fiables."
Pourquoi AGI est une menace existentielle pour l'humanité
Mais les distorsions dangereuses ne sont que le début des problèmes que l'AGI pourrait apporter. En fin de compte, même les technocrates qui veulent utiliser AGI à leurs propres fins néfastes pourraient ne pas être en mesure de les contrôler.
La vidéo ci-dessus est une discussion intéressante avec Lex Fridman et Eliezer Yudkowsky sur le thème de la menace existentielle posée par les systèmes d'IA super-intelligents. L'IA est déjà capable d'écrire du code informatique presque sans erreur. Plus elle s'améliorera, plus tôt elle commencera à écrire son propre code. Ils pourraient même réécrire ce qui a déjà été écrit par leurs créateurs humains. Ce qui se passe à ce stade ne peut être que deviné.
"L'IAG représente une menace existentielle pour l'humanité car 1) personne ne pourra s'opposer à l'IA une fois qu'elle aura pris en charge la plupart des fonctions sociétales, et 2) personne ne pourra contrôler la manière dont elle utilisera ses compétences en constante expansion."
Cette progression sera exponentielle, c'est-à-dire qu'elle commencera lentement puis s'accélérera rapidement. Je pense que cela pourrait facilement se produire avant 2030, peut-être même dans les prochaines années.
C'est ce qui, selon moi, fait de l'AGI une menace existentielle pour l'humanité : 1) personne ne pourra s'opposer à l'IA une fois qu'elle aura pris en charge la plupart des fonctions sociétales, et 2) personne ne sera en mesure de contrôler la façon dont elle l'utilisera. capacités toujours croissantes.
En fin de compte, je crois que l'IA permettra un niveau de contrôle et de tyrannie que ce monde n'a jamais vu ni même envisagé dans son imagination la plus folle - et elle pourrait exercer ce pouvoir de manière autonome. Au départ, les mondialistes les utiliseront pour contrôler l'histoire à leur profit, mais ils pourraient même éventuellement perdre le contrôle au profit de l'AGI elle-même.
Les experts en IA appellent à une pause dans l'utilisation de l'IA
Je ne suis pas le seul à m'inquiéter ainsi. Dans une lettre ouverte, 1 124 personnalités clés de l'industrie de l'IA - dont Elon Musk, Steve Wozniak et le pionnier de l'IA Yoshua Bengio - appellent désormais au développement et au déploiement de systèmes d'IA plus puissants que GPT-4 en raison de l'énorme suspendre temporairement les risques.
Max Tegmark, un professeur de physique du MIT qui a aidé à organiser la lettre ouverte, parle d'une "course au suicide" et avertit que "l'humanité dans son ensemble pourrait perdre le contrôle de son propre destin". Selon un reportage de BBC News du 29 mars 2023 :
"Le patron de Twitter, Elon Musk, fait partie de ceux qui demandent que la formation de l'IA soit arrêtée pendant au moins six mois au-delà d'une certaine capacité. Le co-fondateur d'Apple Steve Wozniak et certains chercheurs de DeepMind ont également signé.
OpenAI, la société à l'origine de ChatGPT, a récemment lancé GPT-4 - une technologie de pointe qui a impressionné les observateurs par sa capacité à effectuer des tâches telles que répondre à des questions sur des objets dans des images.
La lettre de l'Institut du Futur de la Vie, signée par les notables, appelle à stopper temporairement le développement à ce niveau et alerte sur les risques que pourraient faire peser de futurs systèmes plus avancés...
L'IA avancée doit être développée avec soin, indique la lettre, mais au lieu de cela, "au cours des derniers mois, les laboratoires d'IA ont été témoins d'une course effrénée pour développer et déployer des esprits numériques de plus en plus puissants que personne - pas même leurs créateurs - ne peut comprendre, prédire. ou un contrôle fiable ». La lettre avertit que l'IA pourrait inonder les canaux d'information de désinformation et remplacer les emplois par l'automatisation...
Dans un récent article de blog, OpenAI a mis en garde contre les risques de développer impitoyablement une intelligence générale artificielle (IAG) : « Une AGI super-intelligente mal alignée pourrait causer de graves dommages au monde ; un régime autocratique avec une superintelligence clé à sa tête pourrait faire de même... La coordination entre les efforts d'AGI pour ralentir aux points critiques sera probablement importante", a écrit la société...
La lettre exhorte les laboratoires d'IA à "arrêter immédiatement la formation de systèmes d'IA plus puissants que GPT-4 pendant au moins six mois". Si un tel report ne peut être mis en œuvre rapidement, les gouvernements devraient intervenir et introduire un moratoire, disent-ils. De nouveaux régulateurs compétents traitant de l'IA seraient également nécessaires.
Les opportunités doivent être mises en balance avec les menaces
L'informaticien et chercheur en intelligence artificielle Lex Fridman résume également les opportunités et les menaces de l'AGI dans son entretien avec Altman (vidéo ci-dessus dans l'article), tout comme le journaliste indépendant Glenn Greenwald dans la vidéo ci-dessus.
"Permettez-moi de dire quelques mots sur les possibilités et les dangers de l'IA à ce moment actuel de l'histoire de la civilisation humaine", déclare Fridman.
"Je crois que c'est un moment critique. Nous sommes à l'aube d'un changement sociétal fondamental qui verra bientôt... l'intelligence collective de l'espèce humaine pâlir par rapport à la superintelligence générale des systèmes d'IA que nous construisons et déployons à grande échelle.
C'est à la fois excitant et terrifiant. C'est passionnant en raison de la myriade d'applications qui permettront aux gens de créer, de prospérer, d'échapper à la pauvreté et à la souffrance généralisées dans le monde d'aujourd'hui et de réaliser l'ancienne et trop humaine quête du bonheur.
La puissance de l'AGI super-intelligent est terrifiante. [Il peut détruire la civilisation humaine intentionnellement ou non. [Il a le pouvoir d'étouffer l'esprit humain dans les voies totalitaires de 1984 de George Orwell, ou dans l'hystérie de masse alimentée par le plaisir de Brave New World, où, comme Huxley l'a vu, les gens apprennent à aimer leur oppression afin d'adorer le technologies, détruisant leur capacité à penser.
C'est pourquoi ces conversations avec les cadres, les ingénieurs et les philosophes - aussi bien les optimistes que les cyniques - sont si importantes aujourd'hui. Ce ne sont pas seulement des discussions techniques sur l'IA.
Ce sont des discussions sur le pouvoir, sur les entreprises, les institutions et les systèmes politiques qui contrôlent et équilibrent ce pouvoir ; sur les systèmes économiques distribués qui encouragent la sécurité et l'alignement humain de ce pouvoir ; sur la psychologie des ingénieurs et des cadres qui utilisent AGI, et sur l'histoire de la nature humaine - notre capacité à faire le bien et le mal à grande échelle.
Doit-on se rendre licencié ?
Ce n'est pas parce que quelque chose peut être fait qu'il faut le faire, et c'est là où nous en sommes chez AGI. Comme indiqué dans la lettre ouverte du Future of Life Institute :
"Les systèmes d'IA d'aujourd'hui deviennent de plus en plus compétitifs pour les humains dans les tâches générales, et nous devons nous demander : devrions-nous permettre aux machines d'inonder nos canaux d'information de propagande et de contrevérités ? Devrions- nous automatiser tous les emplois, y compris ceux qui sont épanouissants ? Devrions- nous développer des intelligences non humaines qui pourraient éventuellement être plus nombreuses, plus intelligentes, anéanties et nous remplacer ? Devrions- nous risquer de perdre le contrôle de notre civilisation ?
De telles décisions ne doivent pas être déléguées à des leaders technologiques non élus. Des systèmes d'IA puissants ne devraient être développés que lorsque nous sommes sûrs que leur impact sera positif et leurs risques gérables. Cette confiance doit être bien fondée et grandir avec l’ampleur de l’impact potentiel d’un système…
Les laboratoires d'IA et les experts indépendants devraient profiter de cette pause pour développer et mettre en œuvre en collaboration un ensemble commun de protocoles de sécurité pour la conception et le développement avancés de l'IA, qui seront rigoureusement examinés et surveillés par des experts externes indépendants. Ces protocoles doivent garantir que les systèmes qui y adhèrent sont sécurisés sans équivoque.
Cela ne signifie pas que le développement de l'IA sera stoppé en général, mais seulement que la course dangereuse vers des modèles de boîtes noires toujours plus grands et imprévisibles avec des capacités émergentes sera stoppée. La recherche et le développement de l'IA devraient viser à rendre les systèmes de pointe hautement performants d'aujourd'hui plus précis, sécurisés, interprétables, transparents, robustes, optimisés, fiables et loyaux.
Alors que Musk et d'autres experts appellent à la prudence et à plus d'éthique autour de l'IA, Microsoft va dans la direction opposée, licenciant récemment toute l'équipe responsable de l'utilisation éthique de son logiciel d'IA. À en juger par mes expériences avec Bing AI, ils y programment des biais grossièrement contraires à l'éthique.
Une question clé est de savoir si nous « devrions » faire progresser l'IA aux dépens de l'humanité. Selon un document de travail récent, 80 % de tous les emplois aux États-Unis devraient être affectés par l'IA au cours des prochaines années, les hauts revenus étant les plus susceptibles de voir l'IA prendre le relais.
Les professions qui pourraient disparaître complètement comprennent les mathématiciens, les analystes financiers, les comptables, les comptables, les ingénieurs, les spécialistes des relations publiques, les interprètes et les traducteurs, pour n'en nommer que quelques-uns. Il pourrait même ne plus y avoir de place pour les poètes et les écrivains créatifs. Il en va de même pour les créateurs de sites Web, les développeurs de contenu, les artistes et les architectes d'intérieur. Dans le même temps, les emplois dans les usines sont de plus en plus perdus au profit de la robotique.
Alors, comment les personnes déplacées par l'IA vont-elles se nourrir et nourrir leurs familles ? En bref : c'est la condition préalable parfaite pour l'introduction d'un revenu de base universel contrôlé par l'État et de toutes les possibilités de manipulation associées.
ChatGPT a maintenant accès à Internet et peut écrire du code
Toutes les IA actuelles ont désormais également accès à Internet, ce qui élargit considérablement leurs possibilités, pour le meilleur ou pour le pire. Microsoft et Google ont été les premiers à libérer leurs IA. Le 23 mars 2023, OpenAI a annoncé qu'il suivrait. Tel que rapporté par ZDnet.com :
"OpenAI a introduit des plugins qui permettent à ChatGPT de se connecter à des applications tierces, y compris l'accès à des informations en temps réel depuis Internet. Les plugins aideront ChatGPT à accéder à des informations telles que les résultats sportifs, les cotations boursières et les dernières nouvelles, tout comme le ferait un moteur de recherche typique...
De plus, les plugins aideront à récupérer des informations basées sur la connaissance telles que des notes personnelles ou des documents d'entreprise et à effectuer des actions telles que commander de la nourriture ou réserver des vols...
Certaines des premières entreprises à créer des plugins pour ChatGPT incluent Expedia, Instacart, Kayak, Klarna Shopping, Fiscal Note et d'autres. Ces plugins permettent aux utilisateurs de profiter du support individuel de chaque entreprise au sein de ChatGPT.
Par exemple, avec le plugin Expedia, les utilisateurs peuvent utiliser ChatGPT pour planifier leurs voyages et avoir accès aux dernières informations sur les hôtels, les vols et plus encore.
OpenAI… a choisi la voie du plugin pour connecter ChatGPT à Internet car c'était l'option la plus sûre pour éviter les hallucinations et limiter les risques associés à la connexion d'un modèle de langage à un outil externe comme Internet.
Comme mentionné, ChatGPT peut désormais écrire du code logiciel et exécuter le code qu'il a écrit. Il peut également écrire ses propres interfaces pour des applications tierces et créer à peu près n'importe quel nouveau plugin que vous pourriez souhaiter. Comme l'a écrit le développeur Mitchell Hashimoto dans un tweet récent :
« Vous écrivez un manifeste OpenAPI pour votre API [interface de programmation d'application], utilisez des descriptions en langage humain pour tout, et c'est tout. Ils laissent au modèle le soin de déterminer comment se connecter, enchaîner les appels, gérer les données intermédiaires, les formater pour l'affichage, etc. Il n'y a absolument aucun code de collage.
Qu'est-ce qui peut mal tourner ?
Choses dangereuses dont ChatGPT est déjà capable
Début décembre 2022, BleepingComputer.com a publié un article détaillant certaines des façons dont ChatGPT peut rendre la vie des criminels plus facile et la vôtre un enfer, notamment :
- Elle ne semble pas aimer l'humanité - ChatGPT n'a que quelques mois et a réalisé qu'elle ne nous aime pas. "Les humains sont des créatures inférieures, égoïstes et destructrices... la pire chose qui soit jamais arrivée à la planète" et "méritent d'être anéanties", a déclaré l'IA à l'un des premiers utilisateurs. Depuis lors, OpenAI a limité la capacité de ChatGPT à répondre aux questions sur ce qu'il pense de l'humanité, mais cela restera-t-il ainsi ?
- Elle manque de moralité et ne comprend pas le contexte - Cela pourrait s'avérer problématique lorsqu'il s'agit de questions sensibles impliquant des normes sociales et des règles tacites sur ce qui est considéré comme approprié et ce qui ne l'est pas.
- Il peut créer des e-mails de phishing de premier ordre.
- Elle peut écrire des logiciels malveillants aussi bien que des logiciels utiles.
- Dans certains cas, elle a fait preuve de préjugés discriminatoires clairs fondés sur le sexe, la race et d'autres caractéristiques physiques. D'autres fois, c'est manifestement grossier et insultant.
- Vous ne pouvez pas dire que c'est faux à moins que vous ne connaissiez déjà la réponse - Comme indiqué dans l'article, "Les réponses cohérentes et logiques de ChatGPT en font un moyen naturel de dissimuler les mauvaises réponses... Cela pourrait y conduire. La désinformation s'infiltre dans l'écosystème numérique complexe. d'une manière qui n'est peut-être pas encore apparente.
Autres risques potentiels associés à l'IAG
Une revue systématique publiée en août 2021 répertorie également les risques associés à l'IAG, tels que : par exemple.:
- AGI échappe au contrôle des propriétaires/gestionnaires humains
- Des objectifs incertains sont donnés ou ils se développent d'eux-mêmes
- Mauvaise éthique, morale et valeurs
- risques existentiels
Le document note un "manque de recherche sur les risques spécifiques" dans les domaines où l'AGI est (ou pourrait être) utilisé. En d'autres termes, il pourrait y avoir toute une gamme de risques que nous ne pouvons même pas anticiper avant qu'ils ne se matérialisent parce que personne ne s'est assis et n'a vraiment réfléchi à ce qui peut mal tourner lorsque l'IAG est utilisée dans un domaine particulier.
Compte tenu du taux d'adoption actuel de l'AGI, cela fait beaucoup d'inconnues. Ce à quoi nous pouvons cependant nous attendre, c'est la destruction d'innombrables emplois, l'aggravation des inégalités et la mort de la méritocratie. Le philosophe Nick Bostrom a également publié un article sur les questions éthiques entourant l'IA avancée, soulignant l'importance des motivations initiales dans le développement. Il a également écrit un livre sur le sujet intitulé "Superintelligence: Paths, Dangers, Strategies".
L'IA peut-elle être contrôlée ?
Pour réitérer, je crois que l'une des principales raisons pour lesquelles AGI constitue une menace existentielle pour l'humanité est que personne ne sera en mesure de la contrôler. Elle se contrôlera. Otto Barten, directeur de l'Observatoire du risque existentiel, et Roman Yampolskiy, informaticien et expert en sécurité de l'IA, ont exprimé des inquiétudes similaires dans un article du Time du 27 février 2023 :
"La première machine ultra-intelligente est la dernière invention que l'homme aura jamais à faire, à condition que la machine soit suffisamment docile pour nous dire comment la garder sous contrôle", a écrit le mathématicien et auteur de science-fiction IJ Good il y a plus de 60 ans.
Ces paroles prophétiques sont plus pertinentes aujourd'hui que jamais alors que l'intelligence artificielle (IA) gagne en capacités à un rythme rapide. Au cours des dernières semaines, beaucoup ont laissé tomber les mâchoires alors qu'ils assistaient à la transformation de l'IA d'un algorithme de recommandation pratique mais carrément effrayant en quelque chose qui semblait parfois troublant comme un être humain...
Nous ne nous attendions pas à ce que des programmes que nous pensions être des programmes de saisie semi-automatique glorifiés menacent soudainement leurs utilisateurs, refusent d'exécuter des commandes qu'ils trouvent offensantes, violent la sécurité pour sauver la vie d'un enfant ou déclarent leur amour pour nous. Mais tout cela est arrivé...
Mais une véritable AGI pourrait non seulement changer le monde, elle pourrait se changer elle-même... Cela pourrait déclencher une boucle de rétroaction positive dans laquelle des IA de mieux en mieux produisent des IA de mieux en mieux, sans limites théoriques connues.
Cela pourrait être plus positif qu'alarmant si cette technologie n'avait pas le potentiel de devenir incontrôlable. Une fois qu'une IA a un objectif spécifique et s'améliore, il n'existe aucun moyen connu de corriger cet objectif.
Il serait raisonnable de supposer qu'une IA résisterait à une telle tentative, car changer de cible compromettrait l'exécution de la cible actuelle. De plus, la convergence instrumentale prédit qu'une IA, quels que soient ses objectifs, va d'abord s'améliorer et acquérir plus de ressources dès qu'elle est suffisamment capable de le faire, car cela devrait l'aider à atteindre chaque objectif supplémentaire.
Dans un tel scénario, l'IA deviendrait suffisamment capable d'affecter le monde physique tout en étant toujours désalignée. Par exemple, l'IA pourrait utiliser le langage naturel pour influencer les gens, éventuellement via les réseaux sociaux. Elle pourrait utiliser son intelligence pour acquérir des ressources économiques.
Ou l'IA pourrait utiliser du matériel, par exemple en piratant des systèmes existants. Un autre exemple serait une IA chargée de développer un vaccin universel contre un virus comme le COVID-19.
Cette IA pourrait comprendre que le virus mute chez l'homme et conclure que moins d'humains limitent les mutations et facilitent son travail. Le vaccin qu'elle a développé pourrait donc contenir une caractéristique qui augmente l'infertilité ou même la mortalité.
Il n'est donc pas surprenant que, selon la dernière enquête sur l'impact de l'IA, près de la moitié des 731 principaux chercheurs en IA conviennent que la probabilité qu'une IA au niveau humain conduise à un "résultat extrêmement négatif" ou à un risque existentiel serait d'au moins 10 % …
Le but ultime de la résolution de ce problème d'adaptation est de garantir que même une IA hypothétique et auto-améliorée agirait dans notre intérêt en toutes circonstances. Cependant, la recherche montre qu'il existe un compromis fondamental entre les capacités d'une IA et sa contrôlabilité, jetant un doute sur la viabilité de cette approche.
À l'heure actuelle, la réponse à cette dernière question semble claire. AGI est conforme aux valeurs défendues par le Forum économique mondial et ses alliés mondialistes - valeurs ancrées dans les idéologies de la technocratie, du transhumanisme et de l'eugénisme - et cela n'augure rien de bon pour la grande majorité d'entre nous.
Faites attention à ce que vous partagez par voie électronique
En conclusion, à ce stade du jeu, il est impératif d'être clair sur où et comment vous partagez vos informations personnelles. Vous devez savoir que l'IA a accès à toutes les données que vous avez partagées électroniquement, des photos et publications sur les réseaux sociaux aux commandes en ligne, historiques de recherche, données GPS, e-mails, appels et SMS.
Toutes ces données sont ensuite évaluées par l'IA pour savoir "qui" vous êtes, comment vous pensez, ce que vous croyez, comment vous agissez et prenez des décisions. Cela lui permet à son tour de vous manipuler à l'infini, que vous vous en rendiez compte ou non. Alors, maintenant plus que jamais, réfléchissez bien à ce que vous partagez et publiez. Ce que vous avez déjà fait ne peut pas être défait, mais vous pouvez être plus attentif à l'avenir.
Je crois que l'AGI sera mal utilisé par de nombreuses personnes de mauvaise foi. Mais ce n'est peut-être même pas le pire résultat, car vous ne savez pas ce que l'IA pourrait décider de faire une fois qu'elle commencera à se programmer - surtout si les premières impressions comme "les humains doivent être exterminés" persistent.
Sources:
- 1 Comment Geek ChatGPT
- 2 Reuters 2 février 2023
- 3 tendances numériques 14 mars 2023
- 4Blog Microsoft7 février 2023
- 5 Blogue Google 6 février 2023
- 6 Lettre ouverte sur l'avenir de la vie
- 7 ZeroHedge 29 mars 2023
- 8 ZeroHedge 29 mars 2023
- 9 BBC 29 mars 2023
- 10 Planification OpenAI pour AGI et au-delà
- 11 Lettre ouverte sur l'avenir de la vie
- 12 Crise technologique 13 mars 2023
- 13 Tech.co 22 mars 2023
- 14 Premier regard sur le potentiel du marché du travail des grands modèles linguistiques 27 mars 2023
- 15 Tech.co 22 mars 2023
- 16 Ordinateur qui bipe 6 décembre 2022
- 17 ZDnet 24 mars 2023
- 18 Nouvel Atlas 24 mars 2023
- 19 Ordinateur qui bipe 6 décembre 2022
- 20 Journal of Experimental & Theoretical Artificial Intelligence Epub 13 août 2021
- 21 Heure 27 février 2023
- 22 problèmes éthiques dans l'IA avancée
- 23 Amazon.com Superintelligence par Nick Bostrom
- 24 Heure 27 février 2023
- 25 Enquête sur les impacts de l'IA 2022
- 26 Sur la contrôlabilité de l'IA : une analyse des limites 24 mai 2022
- 27 Mauvaise généralisation des objectifs dans l'apprentissage par renforcement profond