La solution du gouvernement à un problème est aussi grave que le problème et l'aggrave souvent. -Milton Friedman

Vous avez été classé comme une menace. Avant longtemps, chaque foyer américain sera étiqueté de la même manière et recevra une cote de menace.

Sans jamais avoir sciemment commis un crime ou avoir été reconnu coupable d'avoir commis un crime, vous et vos concitoyens avez probablement fait l'objet d'une enquête pour une conduite jugée bizarre, dangereuse ou inquiétante par le gouvernement ; un score de menace vous a été attribué en fonction de vos connexions, activités et vues ; et une base de données gouvernementale a répertorié comment la police et les autres agences gouvernementales devraient vous approcher en fonction de votre niveau de menace.

Si vous n'êtes pas déconcerté par la façon dont un tel programme pourrait être utilisé et abusé, lisez la suite.

Ce n'est qu'une question de temps avant que vous soyez accusé à tort, enquêté et confronté par la police sur la base d'un algorithme basé sur des données ou d'une évaluation des risques compilée par un programme informatique alimenté par l'intelligence artificielle.

Prenons le cas de Michael Williams, qui a passé près d'un an en prison pour avoir commis un crime qu'il n'a pas commis. Williams était au volant lorsqu'une voiture qui passait a tiré sur son véhicule, tuant son passager de 25 ans, Safarian Herring, qui faisait de l'auto-stop.

Bien que Williams n'ait eu aucun motif, il n'y avait aucun témoin oculaire de la fusillade, aucune arme à feu n'a été trouvée dans la voiture et Williams a conduit Herring lui-même à l'hôpital, la police a accusé l'homme de 65 ans de meurtre au premier degré sur la base de ShotSpotter, un programme de détection de coups de feu qui a enregistré une forte détonation sur son réseau de microphones de surveillance et triangulé le son pour correspondre à une vidéo de sécurité silencieuse montrant la voiture de Williams traversant une intersection. L'affaire a finalement été classée sans suite faute de preuves.

Alors que les programmes de détection d'armes à feu comme ShotSpotter gagnent en popularité parmi les forces de l'ordre, les procureurs et les tribunaux, ils sont truffés d'erreurs, car ils "confondent les bennes à ordures, les camions, les motos, les hélicoptères, les pétards, la construction, les camions à ordures et les cloches d'église. . pour coups de feu."

Selon une enquête de l'Associated Press, le système peut manquer des coups de feu directement sous ses microphones ou classer à tort les bruits de feux d'artifice ou de voitures qui se retournent comme des coups de feu.

Dans une communauté, le ShotSpotter fonctionnait moins de 50 % du temps.

Ensuite, il y a l'élément humain de la corruption, qui entre toujours en jeu. Dans certains cas, les employés ont modifié les sons détectés par le système pour les faire passer pour des coups de feu. Des rapports médico-légaux préparés par les employés de ShotSpotter ont également été "utilisés devant les tribunaux pour affirmer à tort qu'un accusé a tiré sur la police, ou pour fournir des décomptes douteux du nombre de coups de feu qui auraient été tirés par les accusés".

La même société qui possède ShotSpotter possède également un programme de police prédictive qui vise à utiliser les données des coups de feu pour "prédire" les crimes avant qu'ils ne se produisent. Le président Biden et le président Trump ont tous deux préconisé une utilisation accrue de ces programmes prédictifs pour lutter contre la violence armée dans les communautés, bien qu'il n'ait pas été démontré qu'ils réduisaient la violence armée ou augmentaient la sécurité communautaire.

La justification de cette fusion de surveillance généralisée, de technologies de prédiction comportementale, d'exploration de données, de technologie précognitive et de programmes d'espionnage de quartier et de famille est apparemment que le gouvernement prend des mesures préventives pour lutter contre le crime (ou tout ce que le gouvernement veut interdire à un moment donné). temps). peut.

C'est la prévention du crime comme on le voit dans les films de science-fiction dystopiques comme Minority Report, qui visent à prévenir le crime avant qu'il ne se produise. En réalité, cependant, ce n'est qu'un autre moyen de mettre les citoyens dans le collimateur du gouvernement pour verrouiller la nation.

Même les services sociaux sont impliqués : des algorithmes informatiques tentent de prédire dans quels ménages la maltraitance et la négligence envers les enfants pourraient se produire.

Tout ce qu'il faut pour qu'un robot IA signale un foyer comme potentiellement négligé, c'est qu'une famille fasse l'objet d'une enquête, soit reconnue coupable et que les enfants soient placés en famille d'accueil.

La négligence potentielle peut aller d'un logement inadéquat à une mauvaise hygiène, mais elle est différente de la violence physique ou sexuelle.

Selon un rapport d'enquête de l'Associated Press, une fois que les signalements de négligence potentielle sont signalés à une hotline de protection de l'enfance, ils passent par un processus de sélection qui comprend "des informations personnelles depuis la naissance, Medicaid, la toxicomanie, la santé mentale, la prison et les dossiers de libération conditionnelle, ainsi que ainsi que d'autres documents gouvernementaux ». L'algorithme calcule ensuite le risque potentiel de l'enfant et attribue une note de 1 à 20 pour prédire le risque qu'un enfant soit placé en famille d'accueil dans les deux ans suivant l'évaluation. « Plus le nombre est élevé, plus le risque est grand. Les travailleurs sociaux peuvent alors décider, à leur discrétion, de mener ou non une enquête.

D'autres modèles de pronostic utilisés à travers le pays tentent «d'évaluer le risque de décès ou de blessure grave d'un enfant et de déterminer si les enfants doivent être placés en famille d'accueil et, le cas échéant, où».

Incroyablement, il n'y a aucun moyen pour une famille de savoir si la technologie prédictive de l'IA était responsable de leur ciblage, de leur enquête et de leur séparation de leurs enfants. Comme le note l'AP, "les familles et leurs avocats ne peuvent jamais être sûrs du rôle que l'algorithme joue dans leur vie car ils ne connaissent peut-être pas les résultats".

Ce que nous savons, cependant, c'est que le système cible de manière disproportionnée les familles noires pauvres pour les perturber et potentiellement les déplacer, car une grande partie des données utilisées proviennent de communautés et de minorités à faible revenu.

La technologie est également tout sauf infaillible. Dans un seul comté, un problème technique a amené les travailleurs sociaux à obtenir de mauvais résultats et à sous-estimer ou surestimer le risque d'un enfant.

Mais imparfait ou non, le programme de dépistage prédictif de l'IA est utilisé par les agences gouvernementales à l'échelle nationale pour surveiller et dépister les familles. Selon Aysha Schomburg, directrice adjointe du Bureau américain de l'enfance, le résultat de cette sur-surveillance est la "séparation massive des familles".

L'impact de ce type d'outils prédictifs d'IA peut se faire sentir dans presque tous les aspects de la vie.

Sous prétexte d'aider les agences surchargées à travailler plus efficacement, les technologies prédictives et de surveillance de l'IA sont utilisées pour classer, filtrer et étiqueter les populations sans se soucier des droits à la vie privée ou de la procédure régulière.

Tout ce tri, ce tri et ces calculs sont effectués rapidement, furtivement et sans cesse à l'aide de la technologie de l'IA et d'un état de surveillance qui contrôle chacun de vos mouvements.

Cela devient particulièrement dangereux lorsque le gouvernement prend des mesures préventives pour lutter contre le crime ou les abus ou tout ce que le gouvernement veut interdire à un moment donné.

C'est ainsi que les responsables gouvernementaux tissent - en utilisant des yeux et des oreilles automatiques, un arsenal croissant de logiciels, de matériel et de techniques de haute technologie, la propagande gouvernementale exhortant les Américains à se transformer en espions et en informateurs, et les médias sociaux et les logiciels de suivi du comportement une toile d'araignée collante d'évaluations des menaces , des alertes de capture de comportement, des "mots" signalés et des rapports d'activités "suspectes" conçus pour piéger les ennemis publics potentiels.

Êtes-vous un vétéran militaire souffrant de trouble de stress post-traumatique ? Avez-vous exprimé des opinions controversées, découragées ou en colère sur les réseaux sociaux ? Avez-vous affaire à des personnes ayant un casier judiciaire ou des théories du complot ? Avez-vous été repéré regardant en colère au supermarché? Votre apparence publique est-elle négligée? Votre comportement au volant est-il imprévisible ? Les anciens occupants de votre maison ont-ils eu des démêlés avec la police ?

Tous ces détails et bien d'autres sont utilisés par la technologie de l'IA pour créer un profil de vous qui a un impact sur la façon dont vous traitez avec le gouvernement.

C'est l'État policier américain dans un ensemble répressif de préjugés et de crimes prémédités, et le résultat final est la mort par une procédure régulière.

En bref, la procédure régulière était conçue comme un rempart contre les abus du gouvernement. Une procédure régulière interdit au gouvernement de priver quelqu'un de "la vie, la liberté et la propriété" sans s'être d'abord assuré que les droits de l'individu ont été reconnus et respectés et qu'ils ont eu l'occasion de connaître et de prendre position contre les allégations portées contre eux Défendre.

Avec l'avènement des programmes de police prédictive de l'IA financés par le gouvernement qui surveillent et signalent une personne comme une menace potentielle devant faire l'objet d'une enquête et être traitée comme dangereuse, il ne peut y avoir aucune garantie de procédure régulière : vous avez déjà été désigné comme suspect.

Afin de vous libérer des conséquences d'une telle évaluation de la menace, il vous incombe de prouver votre innocence.

Comprenez-vous le problème?

Auparavant, toute personne avait le droit d'être présumée innocente jusqu'à preuve du contraire, et la charge de la preuve incombait à ses accusateurs. Cette présomption d'innocence a maintenant été renversée par un État de surveillance qui fait de nous tous des suspects et par une surcriminalisation qui nous rend tous potentiellement coupables.

Combinez la technologie d'IA prédictive avec la surveillance et la supercriminalisation, puis ajoutez des flics militarisés défonçant les portes en pleine nuit pour exécuter un mandat de routine, et vous aurez de la chance de vous en sortir vivant.

Mais soyez averti : une fois que vous avez été filmé par une caméra de sécurité, reconnu par un programme de prédiction de l'IA et inscrit sur une liste de surveillance gouvernementale - qu'il s'agisse d'une liste de surveillance pour négligence envers les enfants, d'une liste de surveillance pour la santé mentale, d'une liste de surveillance dissidente, d'un terroriste ou d'un drapeau rouge liste de surveillance des armes à feu - il n'existe aucun moyen précis de sortir de cette liste, que vous deviez ou non y figurer.

Vous serez suivi où que vous alliez, identifié comme une menace potentielle et traité en conséquence.

Si vous n'avez pas encore peur, vous devriez l'être.

Nous avons rendu trop facile pour le gouvernement d'identifier, d'étiqueter, de cibler, de désamorcer et d'emprisonner toute personne qu'il considère comme une menace potentielle pour diverses raisons.

Comme je l'explique clairement dans mon livre Battlefield America: The War on the American People et son pendant fictif, The Erik Blair Diaries, il n'est même pas nécessaire d'être un dissident pour être signalé par le gouvernement pour surveillance, censure et emprisonnement.

Tout ce que vous devez vraiment être, c'est un citoyen de l'État policier américain.