Un chatbot AI nouvellement publié a réussi l'examen universel du barreau avec un score impressionnant. Qu'est-ce que cela signifie?
De : Tessa Lena
L'HISTOIRE EN UN COUP D'ŒIL
- Le GPT-4 récemment lancé, un chatbot basé sur l'intelligence artificielle de Microsoft, a réussi l'examen du barreau universel avec brio
- Les produits d'IA de technologie juridique existants sont capables d'analyser rapidement de grandes quantités de données de cas et de produire des résumés, des premiers projets de documents juridiques et des publipostages personnalisés
- La concurrence pour les profits futurs dans la technologie juridique est palpable - et la tendance actuelle est d'évincer les startups précédentes, dont certaines proposaient des produits abordables aux gens ordinaires, et de faire de la place aux requins
- Avec la vulgarisation de la technologie juridique, notre vie privée est susceptible de devenir encore plus insaisissable qu'elle ne l'est déjà
- Pour éviter que les détenteurs mégalomanes d'algorithmes brevetés ne fassent les règles de nos vies, il faut d'abord bannir de nous-mêmes la pensée algorithmique et toujours "diriger avec nos âmes".
Cette histoire explore l'impact des derniers développements de la technologie juridique. Avant d'en arriver là, j'aimerais poser une question et la laisser telle quelle - pour que nous la gardions à l'esprit alors que nous creusons à travers les dernières merveilles du monde de l'IA. La question est : quel est le but de notre existence en tant qu'êtres humains sur terre ?
Chatbot a réussi l'examen du barreau unifié
Selon les rumeurs, la dernière IA propulsée par Microsoft aurait réussi l'examen universel du barreau, un examen que les avocats aux États-Unis doivent réussir pour être admis au barreau. Non seulement elle a réussi le test, mais elle était "l'un des 10% des meilleurs candidats".
Le logiciel d'IA, développé par le partenaire Microsoft OpenAI, s'appelle "GPT-4". Il s'agit d'une mise à niveau de GPT-3.5 sur laquelle est basé le programme récemment célèbre ChatGPT. Au cas où vous seriez curieux, "GPT" signifie Generative Pre-trained Transformer, un modèle de langage informatique qui utilise l'apprentissage en profondeur pour générer du texte.
L'apprentissage en profondeur consiste à fouiller dans de grandes quantités de données, à extraire des caractéristiques algorithmiquement significatives de différents types, puis à les combiner de manière à donner l'impression que l'ordinateur "comprend".
Ce logiciel relève de la définition de «l'IA générative», c'est-à-dire le type d'IA qui va au-delà de l'analyse de grandes quantités de données et de la production d'un résumé et est capable de générer ses propres résultats «créatifs» sur la base des données analysées.
Selon le rapport technique GPT-4 d'OpenAI , le programme "a été testé par rapport à une variété de points de repère, y compris la simulation d'examens conçus à l'origine pour les humains".
Un intermède
Puis-je profiter de cette occasion pour exprimer mon irritation envers les hipsters en utilisant le mot "humains" au lieu de "gars" comme s'il y aurait jamais un moment où les robots deviendraient sensibles et commenceraient à participer à la société, pas comme une sorte de technologie dans entre les mains des responsables, mais en tant qu'êtres vivants à part entière.
Bien sûr, cela n'arrivera jamais (bien que les titulaires du brevet puissent faire semblant de l'être). C'est du non-sens et de la fiction. Mais appeler les humains « humains » introduit une nouvelle façon de nous regarder, celle que nous voyons à travers les yeux d'une machine externe. C'est un autre tour de magie utilisé par les fous dans les chaises hautes pour nous séparer de notre personnalité et de notre âme innées. Cela aide également les tyrans à créer des "citoyens robots" et à leur donner des "droits".
Les « robots citoyens » peuvent même inclure des « acteurs financiers » pour justifier l'arnaque ! Et quand les gens se plaignent que les robots ne sont pas vraiment "humains", ils sont accusés d'avoir une sorte de phobie.
Utiliser des « humains » au lieu de « gens » pour nous décrire tous rend la supercherie un peu plus facile, car ces machines ou ces produits logiciels sont-ils des humains ? De toute évidence, ils ne le sont pas. Nous savons qu'ils ne sont pas humains. Mais sont-ils peut-être un peu humains ? Essayent-ils d'être humains ? Voulez-vous être humain ? Méritent-ils d'être humains ? Ne pensez-vous pas qu'ils méritent au moins des droits humains ? Et ainsi de suite.
Retour au sujet de l'IA - réussir l'examen du barreau
Selon OpenAI, la société a pris les précautions nécessaires pour s'assurer que le produit d'IA ne se contente pas de reproduire mécaniquement les réponses correctes déjà connues aux questions d'examen du barreau déjà connues. Selon ses propres mots : « Nous n'avons mené aucune formation spéciale pour ces essais.
Une minorité des problèmes aux examens ont été détectés par le modèle pendant la formation ; pour chaque examen, nous exécutons une variante avec ces questions supprimées et signalons le score le plus bas des deux. Nous pensons que les résultats sont représentatifs.
« Les tests ont été tirés de documents accessibles au public. Les questions d'examen comprenaient à la fois des questions à choix multiples et des questions à réponse libre; nous avons conçu des invites distinctes pour chaque format et inclus des images dans l'entrée pour les questions qui en avaient besoin.
La conception de l'évaluation a été développée sur la base des performances d'une série d'examens de validation et nous rapportons les résultats finaux des examens de test retenus. Le score global a été déterminé en combinant des questions à choix multiples et à réponse libre en utilisant des méthodes accessibles au public pour chaque examen.
"Lors d'un examen fictif du barreau, le GPT-4 se classe parmi les 10 % des meilleurs candidats. En revanche, le score GPT-3,5 se situe dans les 10 % inférieurs. » Voici les résultats cohérents de l'examen du barreau et du test LSAT, selon le rapport technique GPT-4 :
Examen uniforme du barreau (MBE+MEE+MPT)
- GPT-4 : 298/400 (environ 90e centile)
- GPT-4 (pas de vision) : 298/400 (environ 90e centile)
- GPT-3.5 : 213/400 (environ 10e centile)
LSAT (test d'admission standardisé pour les futurs avocats)
- GPT-4 : 163 (environ 88e centile)
- GPT-4 (Aucune vision) : 161 (environ 83e centile)
- GPT-3.5 : 149 (environ 40e centile)
Voici ce qu'une revue grand public du logiciel, rédigée par le Dr. Lance Eliot et publié sur law.com , a à dire :
La réussite de l'examen du barreau unifié simulé signifie-t-elle ou prouve-t-elle que le GPT-4 est légalement compétent et capable d'effectuer des tâches juridiques sur un pied d'égalité avec les avocats humains ?
La réponse est clairement non. Malgré l'implication ou l'allusion ironique, tout ce que l'on peut dire, c'est que GPT-4 a pu utiliser sa vaste mise en correspondance assistée par ordinateur de mots liés à d'autres mots pour obtenir avec succès des réponses aux tests posés.
Mon commentaire : Je pense qu'il est important de souligner le fait que la composante "clin d'œil" est une grande partie du mythe de l'IA. Nous devons nous en souvenir lorsqu'il s'agit de tout le « travail » de l'IA, et pas seulement des tâches que les humains accomplissent dans leurs cheminements de carrière actuellement prestigieux. Et est-il possible que les seigneurs de la création nous aient simplement dupés avec leurs systèmes de convoyage et leur "gestion de système" ?! Revenons à l'analyse du Dr. Eliot :
"Comme je l'ai déjà souligné Meilleures façons d'utiliser l'IA générative dans votre pratique du droitdans mon article intitulé De plus, comparer GPT-4 à la "performance humaine" relève d'une anthropomorphisation de l'IA. C'est une erreur dangereuse qui amène les gens à croire que l'IA d'aujourd'hui est sensible ou a des capacités semblables à celles des humains.
L'IA générative comme GPT-4 est un outil particulièrement utile pour les avocats et peut leur faire économiser beaucoup de travail dans l'accomplissement de tâches juridiques. Cependant, se fier uniquement à l'IA générative pour les tâches juridiques est malsain et inapproprié.
La principale conclusion pour les avocats est que vous devriez sérieusement et sérieusement envisager d'utiliser l'IA générative comme GPT-4. Il n'y aucun doute à propos de ça. GPT-4 peut aider les avocats encore mieux que ChatGPT. J'ai dit à maintes reprises que les avocats et les cabinets d'avocats qui utilisent l'IA générative surpasseront et surpasseront les avocats et les cabinets d'avocats qui n'utilisent pas l'IA générative.
Intelligence Artificielle Générative
Parlons brièvement de l'IA générative. Voici ce que Reuter a à dire :
"L'intelligence artificielle générative est devenue un mot à la mode cette année, captivant le public et incitant Microsoft (MSFT.O) et Alphabet (GOOGL.O) à lancer des produits utilisant une technologie qui, selon eux, changera la nature du travail."
"L'application d'IA générative la plus connue est ChatGPT, un chatbot que la société OpenAI, soutenue par Microsoft, a lancé à la fin de l'année dernière. L'IA qui l'alimente est connue comme un grand modèle de langage car elle prend une entrée de texte et en écrit une réponse de type humain.
"GPT-4, un nouveau modèle annoncé par OpenAI cette semaine, est" multimodal "car il peut percevoir des images aussi bien que du texte. Le président d'OpenAI a démontré mardi comment il pouvait prendre une photo d'une maquette dessinée à la main pour un site Web qu'il souhaitait créer et la transformer en un véritable site Web.
Voici mon passage préféré : "Les chercheurs en cybersécurité ont également exprimé leur inquiétude quant au fait que l'IA générative pourrait permettre à de mauvais acteurs, même des gouvernements, de produire beaucoup plus de désinformation qu'ils ne l'ont fait jusqu'à présent." Oh non, les gouvernements propagent la désinformation ? Impossible. Cela ne s'est jamais produit dans l'histoire de l'humanité. Du moins pas notre gouvernement. Pas ici, pas maintenant, et pas contre nous (ouf). Une courte vidéo explicative de Reuters (exprimée par AI ?).
Attention au langage inversé de l'IA
L'une des choses auxquelles il faut prêter attention lorsque l'on parle d'IA est l'utilisation du mot "dommage". Qu'est-ce qu'un "langage malveillant" ? Au niveau intuitif, nous le savons (les appels à la violence ou à la maltraitance des enfants, par exemple, sont en fait un langage nuisible) - mais dans le contexte robotique officiel, le "langage nuisible" est tout ce qu'ils disent qu'il est un jour donné.
Dans une société imaginaire et honnête où les personnes au pouvoir n'essaieraient pas de manipuler la parole et l'esprit des gens, le désir d'un contrôle strict sur ce qui est autorisé à sortir de la bouche d'un robot pourrait être un objectif neutre et noble. Après tout, c'est un robot. Mais nous ne vivons pas dans une société honnête, et ceux qui sont au pouvoir essaient déjà de qualifier toute « pensée erronée » de « discours de haine ».
Alors que la tendance à l'intelligence artificielle se poursuit et que l'intelligence artificielle remplace les éducateurs et les processus décisionnels bureaucratiques, les personnes confrontées à la censure pourraient être de plus en plus torturées en "parlant leurs mains". Une main mécanique.
La militarisation du langage et les interactions automatisées m'ont souvent dérangé. Dans mon entretien avec le Dr. Bruce Dooley , nous avons parlé de la Fédération des conseils médicaux d'État qui militarise le mot «dommage» en médecine. Dans mon article de 2022, Qui est le terroriste ? ' J'ai écrit sur les notions de préjudice et de désinformation avancées par le DHS l'année dernière. Et quelques années avant COVID, j'ai écrit un essai intitulé Love & Automation: A Mechanical Mother's Eerie Touch :
« Les partisans de l'efficacité essaient généralement de l'imposer aux autres – tout en se permettant de rester aussi humains et libres qu'ils le souhaitent. L'exemple célèbre est la façon dont des gens comme Steve Jobs et Bill Gates limitent l'accès de leurs propres enfants à la technologie tout en disant au reste du monde que la technologie est universelle et omniprésente.
Les propriétaires d'usines aiment imposer l'efficacité aux anciens artisans indépendants et à leurs descendants. Les chefs de bureau imposent l'efficacité aux esclaves de bureau. Les fabricants de logiciels vendent de l'efficacité à la population. Mais à leur place, les vendeurs d'efficacité aiment regarder le ciel et sentir les fleurs.
Que peut-on réaliser avec l'IA dans le domaine juridique ?
À ce moment, l'IA peut potentiellement faire le travail qui est généralement effectué par les parajuristes et les parajuristes. Il peut personnaliser des documents basés sur des modèles tels que des contrats et des lettres types. Elle peut parcourir rapidement d'énormes piles de documents et résumer l'affaire pour que des avocats expérimentés l'examinent. Elle peut également rédiger des documents juridiques, citant les lois applicables et les précédents.
Selon une étude de la Brookings Institution, l'IA peut assumer certaines des tâches les plus chronophages du système juridique :
« Considérez l'une des tâches les plus chronophages en matière de litige : extraire la structure, le sens et les informations saillantes d'un vaste ensemble de documents résultant de la divulgation. L'IA accélérera considérablement ce processus, en faisant en quelques secondes ce qui prendrait des semaines sans IA. Ou pensez à rédiger des requêtes à déposer au tribunal.
Avec l'aide de l'IA, les premiers brouillons peuvent être créés très rapidement, qui citent la jurisprudence pertinente, présentent des arguments et réfutent (et anticipent également) les arguments de l'avocat adverse. L'intervention humaine est toujours nécessaire pour créer la conception finale, mais le processus sera beaucoup plus rapide avec l'IA.
"En général, l'IA rendra la création de documents nécessitant un haut niveau de personnalisation beaucoup plus efficace pour les avocats - un processus qui a traditionnellement pris beaucoup de temps aux avocats.
Les exemples incluent les contrats, les nombreux types de documents déposés auprès d'un tribunal dans le cadre d'un litige, les réponses aux interrogatoires, les séances d'information pour les clients sur les derniers développements d'une affaire juridique en cours, les aides visuelles aux audiences du tribunal et les efforts promotionnels pour attirer nouveaux clients.
L'IA pourrait également être utilisée pendant un procès pour analyser une transcription du procès en temps réel et aider les avocats à choisir les questions à poser aux témoins.
"DoNotPay" (Ne pas payer)
Surnommé « le premier robot avocat au monde », l'un des premiers produits d'IA populaires pour le domaine juridique a été créé en 2015 par Josh Browder, le fondateur de DoNotPay . Ce logiciel devrait aider les gens à rédiger des réponses et des lettres efficaces pour s'opposer aux tickets de circulation illicites, se désabonner, etc. Après que l'idée se soit répandue, l'entreprise a pu obtenir un financement important de la part d'investisseurs.
En janvier 2023, l'entreprise a annoncé que son IA agirait en tant qu '"avocat" informel devant le tribunal , aidant le client à combattre une contravention pour excès de vitesse.
"Un programme formé à l'aide de l'intelligence artificielle est mis en place pour aider un accusé à contester son cas devant un tribunal américain le mois prochain... Au lieu de s'adresser au tribunal, le programme, qui fonctionne sur un smartphone, informera l'accusé via un... écouteurs de donner des réponses appropriées qu'il pourra ensuite utiliser dans la salle d'audience.
"Puisqu'il s'agit du tout premier cas de l'IA, DoNotPay est prêt à assumer le fardeau de la punition si les conseils de l'IA n'aident pas le client. Puisqu'il s'agit d'un billet, DoNotPay couvrira le coût du billet. Cependant, s'il gagne, ce serait une grande victoire pour l'entreprise. L'IA devrait aider le client devant le tribunal en février 2023. Mais elle ne l'a pas fait .
Et puis la société a été poursuivie pour "pratiquer le droit sans licence". "L'avocat du robot fait face à un recours collectif proposé par le cabinet d'avocats Edelson basé à Chicago et publié sur le site Web de la Cour supérieure de l'État de Californie pour le comté de San Francisco."
Pour moi, il semble que les grandes entreprises voient la version bon marché de l'intelligence artificielle comme une menace et veulent y mettre un terme. Je veux dire, pouvez-vous imaginer un monde où d'humbles agriculteurs utilisent des produits d'IA bon marché (calculatrices rapides) pour leur propre bénéfice - et peut-être même sans envoyer toutes leurs données personnelles au vaisseau-mère central ? L'indignation.
"Cheval"
Un autre produit d'IA surnommé le "premier avocat artificiellement intelligent" était Ross. "Ross" était le produit IA de Ross Intelligence, une startup fondée en 2014 par trois étudiants canadiens. Le produit était basé sur la gamme de produits d'IA d'entreprise Watson d'IBM. Spoilers : l'entreprise a fermé en 2020 . Voici de Futurism (2016):
« Le cabinet d'avocats Baker & Hostetler a annoncé qu'il utilisait AI Ross d'IBM pour son cabinet de droit des faillites, qui compte actuellement près de 50 avocats. Selon le PDG et co-fondateur Andrew Arruda, d'autres cabinets d'avocats ont également signé des licences avec Ross et feront des annonces sous peu.
Ross, "le premier avocat au monde doté d'une intelligence artificielle" basé sur l'ordinateur cognitif Watson d'IBM, a été conçu pour lire et comprendre la parole, faire des hypothèses lorsqu'on lui pose des questions, faire des recherches, puis fournir des réponses (accompagnées de références et de citations) pour étayer ses conclusions. Ross apprend également de l'expérience, gagnant en vitesse et en connaissances au fur et à mesure que vous interagissez avec lui.
Mais comme je l'ai dit, Ross Intelligence a été abandonné en 2020 . Cela n'avait apparemment rien à voir avec les aspects philosophiques de l'utilisation de l'IA dans le domaine juridique, mais avec la concurrence entre les entreprises. Il s'agissait davantage de la lutte contre la foule et de qui peut bénéficier de la cascade potentielle de dollars.
La société a été fermée parce que son financement a été bloqué par le procès intenté par Thompson Reuters, qui a affirmé que Ross Intelligence avait utilisé les données TR pour développer son IA technologique juridique.
"ROSS Intelligence, une société qui cherchait à innover dans la recherche juridique grâce à l'utilisation de l'intelligence artificielle et a contribué à sensibiliser le secteur juridique à l'intelligence artificielle, cesse ses activités car une action en justice intentée par Thomson Reuters contre la société a compromis sa capacité à lever de nouveaux fonds. ou explorer des acquisitions potentielles et manque de fonds suffisants pour fonctionner.
« Thomson Reuters a poursuivi ROSS en mai, alléguant que la société avait volé du contenu à Westlaw pour développer son propre produit de recherche juridique concurrent. ROSS l'a fait en amenant "délibérément et sciemment" la société de recherche juridique et de rédaction LegalEase Solutions à utiliser son compte Westlaw pour fournir en masse des données Westlaw à ROSS."
Le propriétaire de l'IA donne le ton
Comme toujours, le diable est dans les détails. Si la technologie de l'IA est exploitée pour aider les gens ordinaires à accomplir des tâches qui étaient auparavant inaccessibles sans être riches - et sans que l'utilisation abusive des données ne soit transmise au vaisseau-mère central - cela pourrait être une chose utile.
Et ce sera l'argument de vente dans les premières étapes de l'adoption de la technologie. L'appât doit avoir bon goût, c'est comme ça que ça marche toujours.
Mais lorsqu'une habitude collective se développera pour l'utilisation de chatbots et de calculatrices cohérentes et productrices de langage dans notre travail quotidien, et lorsque les quantités suffisantes de données seront collectées, l'utile sera poussé derrière un mur de paiement très élevé. Et peut-être que d'ici là, les avocats de la classe moyenne et même de la classe moyenne supérieure seront également « dépassés », comme beaucoup l'étaient avant eux. Le temps nous le dira !
« D'abord progressivement, puis soudainement » : La Conquête
Parlons du concept d'appât. La vie fonctionne de manière mystérieuse et l'histoire se déroule sur de longues périodes. L'agression contre l'agence et la personnalité humaines, notre relation avec la nature et notre propre richesse émotionnelle a commencé il y a des milliers d'années. Aujourd'hui, nous ne traitons pas seulement des intentions et des fraudes incessantes de Klaus Schwab, des alphabets et de leurs propriétaires aux étages supérieurs, mais aussi des conséquences des fraudes commises par les tyrans et les escrocs du passé.
Aujourd'hui, nous payons le prix non seulement des choix collectifs et imparfaits des personnes sous la botte des grands tyrans d'aujourd'hui (y compris les nôtres) - mais aussi des choix imparfaits des victimes des tyrans du passé, alors que certaines personnes auraient pu être surpris ou intimidés ou trompés ou ont été soudoyés pour accepter les compromis d'âme de leur temps.
Et puis ils ont transmis le compromis à leurs enfants. Et ils l'ont transmis à leurs enfants. Et ainsi de suite. Vous voyez comment cela fonctionne ?
Même à plus petite échelle, cela fonctionne "progressivement puis d'un coup". Le modèle américain de préparation à une pandémie qui nous frappera tous en 2020, par exemple, a été mis en place sous Bush au début des années 2000. Une fois préparé, il est resté caché (jeu de mots !) pendant 15 ans, attendant de monter sur scène. Et puis il a pris la scène avec vengeance. Et nous voilà maintenant !
La condamnation du modèle algorithmique
Tous ces développements de l'IA peuvent être un compliment à la puissance de la technologie, mais ils sont aussi une condamnation de l'état de notre civilisation.
Vous souvenez-vous de la question que j'ai posée au début ? J'ai demandé quel est le but de notre temps sur terre? Et qu'allons-nous faire de notre civilisation alors que nos vies sont si mécaniques que même une stupide calculatrice rapide peut faire notre « travail mental » plus efficacement que nous ? Quel est notre "travail" ?
Nous ont-ils – petit à petit puis soudainement – eus ? Nos propres modèles cognitifs «humains» et nos points de vue à partir desquels nous analysons le monde sont-ils devenus si algorithmiques qu'une machine stupide peut nous surpasser dans la tâche de «penser»? Ce n'est pas bien.
En parlant de droit, il fut un temps dans l'histoire - avant que nos communautés et nos individus ne deviennent des pions invisibles de divers organes dirigeants - où même "la loi et l'ordre" n'étaient pas algorithmiques, mais basés sur le désir subjectif et honnête de faire ce qui est spirituellement juste.
Et je pense qu'au niveau local cela arrive encore parfois, mais la mentalité de "domination" a empoisonné nos esprits et l'algorithme a été mis en place pour garder l'apparence du bien là où le bien avait été miné.
Je pense que le rôle existentiel de l'horrible Great Reset est de rendre ce poison algorithmique si gros, si évident à nos yeux, que nous ne pouvons plus le nier et devons nous rebeller contre l'ancien abus de nos âmes. Parce que nous sommes plus qu'une collection de formules. Nous sommes plus que des algorithmes.
Nous sommes esprit et eau, nous avons une âme, nous sommes capables de naviguer et de prospérer dans la subjectivité, nous pouvons sentir, toucher, aimer, savourer nos relations - et c'est le but de notre existence.
Juste le sentiment d'être vivant - le souffle et la peau - est la raison pour laquelle nous sommes ici. Et si quelqu'un essaie de nous réduire encore plus à des machines de correspondance de motifs, nous avons parfaitement le droit de dire non. J'aimerais terminer cet article avec une citation d'une histoire de science-fiction que j'ai écrite en 2019 (je viens d'ajouter une ligne sur une pandémie de 2020) :
« Pour prendre le contrôle de l'économie et du corps humain, ils devaient d'abord prendre le contrôle de l'esprit des gens. Ils ont donc poussé à déplacer toutes les activités humaines majeures vers le domaine numérique, car au départ, les empreintes numériques étaient beaucoup plus faciles à suivre et à monétiser. Ils ont mis en place des fils d'Ariane et ont rendu la transition amusante.
En même temps, ils ont développé des relations solides avec certains des citoyens et des organisations les plus influents de l'époque. Les dirigeants de la technologie ont promis aux forces de l'ordre une surveillance facile - et aux citoyens un accès gratuit à l'éducation et au divertissement. Tout le monde pensait avoir fait une bonne affaire !
Ils ont donné aux gens des opportunités auparavant inimaginables de créer de nouveaux mondes - à la fois du côté des développeurs et des utilisateurs - mais personne d'autre que les cadres supérieurs ne savait que les nouveaux mondes étaient livrés avec des trackers cachés et des interrupteurs marche-arrêt révélateurs, qui pouvaient être activés à tout moment.
«Les premiers avertissements sont venus d'artistes qui ont découvert que leur travail était utilisé comme appât pour attirer les gens sur des plateformes technologiques. Mais les artistes n'étaient pas des membres respectés de la société et leurs cris étaient noyés dans des discours optimistes sur l'avenir radieux de tout.
Puis les médias sont arrivés. Après que les entreprises d'information ont commencé à s'effondrer et que de nombreux journalistes se sont retrouvés sans revenu, ils ont réalisé que le jeu était truqué. Mais eux aussi ont été éliminés. Certains ont négocié et accepté des financements technologiques, d'autres sont devenus des travailleurs de la "gig economy", et d'autres encore ont appris à coder.
Puis, à un moment critique, il y a eu une sorte de pandémie, et de puissants leaders technologiques, dont certains des saints officiels de l'IHT, ont réussi à user de leur influence sur les gouvernements pour légiférer sur la numérisation de tous les aspects de la vie. À ce moment-là, les contacts humains non réglementés sont devenus illégaux et les appareils portables intelligents et les assistants IA sont devenus obligatoires.
« Au moment où les avocats, les médecins, les banquiers et les représentants du gouvernement ont été personnellement touchés et pratiquement réduits en esclavage à grande échelle, il était déjà trop tard. La Big Tech contrôlait chaque aspect de la vie, suivait tout, finançait chaque industrie. Il est devenu l'agence d'application de la loi et l'éditeur de nouvelles standard, et avait donc le pouvoir d'influencer ou de briser tout expert, universitaire ou politicien.
Tout le monde - des gouvernements aux simples assistants et robots - s'appuyait sur la technologie dans tous les domaines de la vie. Des scores de citoyens numériques impeccables étaient requis pour la délivrance de permis sexuels et de bébé. Personne ne pouvait obtenir même un travail simple sans s'en tenir aux algorithmes - et la plupart des travaux étaient de toute façon automatisés. Les gouvernements municipaux devaient de l'argent pour maintenir les villes intelligentes. L'adhérence était totale.
"Et alors que beaucoup se sentaient instinctivement mal à l'aise de renoncer à leur vie privée et à leur autonomie cognitive, ils se sentaient également seuls et impuissants. Les emplois non technologiques étaient rares, la concurrence était féroce et peu avaient le luxe de penser à la situation dans son ensemble. Les gens ont donc gardé la tête baissée et ont fait ce qu'ils avaient à faire pour subvenir aux besoins de leur famille - se sont conformés, ont porté les masques intelligents obligatoires et ont appris à coder quand ils le pouvaient.
Les développeurs et autres professionnels de haut niveau de l'industrie technologique ont conservé leur indépendance financière et leur autonomie cognitive le plus longtemps - des communautés fermées de développeurs sont devenues partie intégrante de chaque centre urbain intelligent - mais ils sont finalement devenus eux aussi obsolètes lorsque l'IA a suffisamment avancé pour se produire elle-même.
Peu de temps après que l'institution d'une gouvernance biologiquement compromise soit devenue obsolète, Big Tech est devenue Interplanetary Holy Tech, et vous connaissez la suite.
Cela vous semble-t-il familier? Si tel est le cas, alors le moment est venu pour nous tous de réfléchir à la raison pour laquelle nous sommes nés sur terre, pourquoi nous vivons ici et maintenant, avec tous nos dons - et pour accomplir les causes uniques, audacieuses et importantes pour lesquelles nous nous sommes engagés. ici sont. Avec le coeur.
A propos de l'auteur
Si vous voulez en savoir plus sur le travail de Tessa Lena, n'oubliez pas de consulter sa biographie, Tessa Fights Robots .