Mise à niveau vers Pro

Votre visage est maintenant une arme de guerre

L'Ukraine utilise la technologie de reconnaissance faciale Clearview AI pour identifier les Russes morts et vivants. Elle s'appuie sur une base de données contenant des milliards d'images faciales qu'elle a collectées sur Internet sans le consentement des personnes concernées.

À qui appartient votre visage ? Vous pourriez penser que vous en êtes propriétaire, mais considérez que depuis 2020, Clearview AI, une société américaine qui vend une technologie de reconnaissance faciale, a construit une base de données de dix milliards d'images. D'ici la fin de l'année, la société vise à avoir extrait 100 milliards d'images faciales d'Internet. Il est difficile d'évaluer les affirmations de l'entreprise, mais si nous prenons Clearview AI au pied de la lettre, elle dispose de suffisamment de données pour identifier presque tout le monde dans le monde, mettant fin à la confidentialité et à l'anonymat partout.

Pendant que vous lisez ces lignes, votre visage rapporte de l'argent à des personnes que vous n'avez jamais rencontrées et qui n'ont jamais demandé votre consentement lorsqu'elles ont pris votre empreinte faciale sur vos profils de réseaux sociaux et vos albums photo en ligne. Aujourd'hui, la technologie de Clearview AI est utilisée par plus de 3 100 organismes d'application de la loi américains et par le service postal américain. En Ukraine, il est utilisé comme arme de guerre. L'entreprise a fait don de ses outils au gouvernement ukrainien, qui les utilise pour identifier les soldats russes morts et vivants, puis a contacté leurs mères.

Il serait facile d'ignorer cela. Après tout, nous avons volontairement renoncé à notre vie privée lorsque nous avons commencé à partager des photos en ligne, et des millions d'entre nous continuent d'utiliser des sites Web et des applications qui ne protègent pas nos données, malgré les avertissements des défenseurs de la vie privée et des services de sécurité occidentaux. Avec tant d'entre nous sympathisant avec l'Ukraine et consternés par la brutalité de la Russie, on est tenté d'ignorer le fait que l'Ukraine n'utilise pas Clearview AI pour identifier les Ukrainiens morts, suggérant que la technologie de reconnaissance faciale est utilisée pour la guerre psychologique et non pour l'identification. Certains pourront vivre avec les conséquences de ce fait : si les mères russes doivent recevoir des photos dérangeantes de leurs fils décédés,

Pour comprendre pourquoi nous devrions reconsidérer l'utilisation de la technologie de reconnaissance faciale dans les conflits, nous devrions mener les expériences de pensée suivantes. Premièrement, imaginez si la Russie avait récolté la biométrie ukrainienne sur Internet pour développer un outil de reconnaissance faciale qui lui permettrait d'identifier les Ukrainiens décédés et de contacter leurs mères. Les démocraties libérales condamneraient probablement ces actes et les ajouteraient à la liste croissante des actes barbares de la Russie. Deuxièmement, imaginez un conflit dans lequel les États-Unis combattent un adversaire qui a pris des empreintes faciales américaines pour former leur technologie de reconnaissance faciale et les utilise pour identifier les soldats américains morts et contacter leurs mères. Cela déclencherait presque certainement un tollé de protestation à travers les États-Unis. Les dirigeants de la technologie seraient vilipendés dans la presse et traînés devant le Congrès, où les législateurs pourraient enfin adopter une législation protégeant la biométrie des Américains.

Nous n'avons pas à attendre que ces scénarios se matérialisent ; Le Congrès pourrait agir maintenant pour protéger la biométrie des Américains. Si s'inspirer du règlement général sur la protection des données (RGPD) de l'Union européenne (UE) va trop loin, le Congrès n'a qu'à se tourner vers l'Illinois, dont la loi sur la confidentialité des informations biométriques (BIPA) oblige les entreprises à se protéger contre la collecte d'images faciales et d'autres données biométriques. doit obtenir le consentement des personnes concernées. Clearview AI fait actuellement l'objet de plusieurs poursuites devant les tribunaux fédéraux et d'État de l'Illinois pour ne pas avoir obtenu le consentement de l'utilisateur. Ces poursuites soulignent un aspect troublant de la technologie de reconnaissance faciale aux États-Unis : la confidentialité,

Pour résoudre ce problème, le Congrès pourrait également se tourner vers plusieurs alliés américains, dont trois des Five Eyes, avec lesquels les États-Unis échangent des renseignements. En 2021, le commissaire à la protection de la vie privée du Canada a qualifié Clearview AI d'outil de surveillance de masse et l'a jugé illégal, tandis que les régulateurs de la protection de la vie privée du Royaume-Uni et de l'Australie ont infligé une amende à Clearview AI et ont ordonné à l'entreprise d'effacer les données de leurs citoyens. Dans l'UE, l'Italie a récemment infligé une amende de 20 millions d'euros à Clearview, ordonné la suppression de toutes les données collectées auprès des citoyens italiens et interdit à Clearview AI de collecter d'autres données. L'année dernière, la Suède a infligé une amende aux autorités policières pour avoir utilisé la technologie de Clearview AI pour identifier des individus, et un certain nombre de groupes de défense de la vie privée, des droits civils et des droits de l'homme ont déposé des plaintes contre l'entreprise auprès des autorités de protection des données en France, en Autriche et en Grèce. Sans surprise, en mai 2021, Clearview AI a déclaré qu'elle n'avait aucun client dans l'UE.

Malgré les nombreux défauts de Clearview AI, le défi auquel sont confrontées les sociétés libres ne se limite pas aux actions d'une seule entreprise. De nombreuses entreprises et gouvernements utilisent des moyens similaires pour développer les mêmes outils, tels que PimEyes, FindClone et TrueFace. Les démocraties libérales peuvent les réglementer, mais actuellement rien n'empêche les opposants de capturer nos visages et d'autres données biométriques. Si nous n'agissons pas, les soldats, les responsables de la sécurité et des forces de l'ordre et les civils pourraient être en danger. Il est temps de relever ce défi.