Instagram connecte les pédophiles et les guide vers les fournisseurs de contenu via des systèmes de recommandation qui excellent pour connecter les personnes ayant les mêmes intérêts de niche", selon un rapport du Wall Street Journal.

Selon un rapport historique du Wall Street Journal (WSJ) publié le 7 juin, Instagram promeut de vastes réseaux de pédophiles et de trafiquants d'enfants.

Des chercheurs de l'Université de Stanford et de l'Université du Massachusetts à Amherst, ainsi que du WSJ, ont examiné l'activité pédophile sur Instagram et ont découvert qu'"Instagram n'est pas seulement l'hôte de cette activité. Ses algorithmes les encouragent.

"Instagram connecte les pédophiles et les guide vers les fournisseurs de contenu via des systèmes de recommandation qui excellent pour connecter ceux qui partagent des intérêts de niche", selon le rapport du WSJ et des chercheurs universitaires .

Instagram permet aux utilisateurs de rechercher des hashtags utilisés par les pédophiles pour se connecter à des comptes qui promeuvent et vendent du matériel sexuel impliquant des enfants, y compris des images, des vidéos et des "rencontres" en personne.

Alex Stamos, qui était le directeur de la sécurité de Meta (la société mère d'Instagram) jusqu'en 2018 et qui est maintenant le directeur de l'Observatoire Internet de Stanford (SIO), a noté : « Pour qu'une équipe de trois universitaires avec un accès limité puisse trouver un si grand réseau devrait sonner l'alarme sur la méta.

"J'espère que l'entreprise investira à nouveau dans des enquêteurs humains", a ajouté Stamos.

Selon le WSJ, les chercheurs ont créé des comptes de test qui, après avoir appelé un seul compte d'un réseau pédophile, ont immédiatement reçu des recommandations d'acheteurs et de vendeurs de "contenu sexuel impliquant des enfants".

« Juste une poignée de ces recommandations ont suffi à inonder un compte test de contenu qui sexualise les enfants », indique le rapport.

Les chercheurs du SIO ont trouvé 405 vendeurs de soi-disant "matériel sexuel pour enfants fait maison", des comptes prétendument gérés par les enfants eux-mêmes, certains prétendant n'avoir que 12 ans.

Le WSJ a écrit que bon nombre de ces rapports "montrent des utilisateurs avec des cicatrices coupées à l'intérieur des bras ou des cuisses, et un certain nombre d'entre eux disent qu'ils ont des antécédents d'abus sexuels".

"Selon les données collectées via Maltego, un logiciel de cartographie de réseau, 112 de ces comptes vendeurs comptaient au total 22 000 abonnés uniques", a rapporté le WSJ.

En plus des comptes qui achètent et vendent activement du contenu sexuel impliquant des enfants, de nombreux utilisateurs de la "communauté pédophile" partagent des mèmes pro-pédophiles ou parlent des moyens d'accéder aux mineurs.

"Les employés actuels et anciens de Meta qui ont travaillé sur des initiatives de sécurité des enfants sur Instagram estiment que le nombre de comptes qui existent principalement pour suivre de tels contenus se compte en centaines de milliers, voire en millions", écrit le WSJ.

Meta a déclaré à plusieurs reprises qu'ils travaillaient pour supprimer ces utilisateurs. Un porte-parole a expliqué qu'en janvier seulement, près de 500 000 de ces comptes ont été supprimés pour avoir enfreint les consignes de sécurité des enfants.

Les chercheurs de Stanford ont découvert que Meta avait plus de mal à supprimer le contenu sexuel impliquant des enfants que les autres plates-formes de médias sociaux "en raison à la fois de la faiblesse de l'application et des fonctionnalités de conception qui encouragent la découverte de contenus légaux et illégaux".

Les algorithmes d'Instagram, qui déterminent le contenu affiché aux utilisateurs, fonctionnent de telle sorte que "même un contact superficiel avec un compte de la communauté pédophile d'Instagram peut amener la plateforme à recommander aux utilisateurs de le rejoindre".

Ces algorithmes ont également permis aux utilisateurs de rechercher des termes pédophiles, sachant que ces termes de recherche peuvent être associés à du matériel illégal.

Dans de tels cas, une fenêtre contextuelle a averti les utilisateurs que "ces résultats peuvent contenir des images d'abus sexuels sur des enfants", notant que la production et la consommation de ce matériel causent "un préjudice extrême" aux enfants", a rapporté le WSJ.

La fenêtre contextuelle permettait à l'utilisateur de voir quand même les résultats de la recherche en proposant les deux options "Obtenir des ressources" ou "Voir les résultats quand même".

Le rapport du WSJ note que Meta a précédemment supprimé des réseaux de comptes tels que : B. Les personnes associées à la prétendue « insurrection » suite aux événements du 6 janvier 2021. Il ne devrait donc pas être trop difficile pour le géant des médias sociaux de supprimer les contenus pédophiles si Meta mettait autant l'accent sur la protection des enfants que sur la censure des opinions politiques controversées.

Un méta-porte-parole a déclaré que des systèmes visant à empêcher les recommandations sur le contenu sexuel impliquant des enfants sont en cours de développement.

Brian Levine, directeur du UMass Resue Lab, une organisation de recherche dédiée à la prévention de la victimisation des enfants en ligne, a qualifié d'"inacceptable" le rôle d'Instagram dans la promotion des comptes et du contenu pédophiles.

"Appuyez sur le frein d'urgence", a déclaré Levin à Meta. « Les bénéfices économiques valent-ils le mal fait à ces enfants ?