Une mise à jour de la politique de confidentialité de Google suggère que l'ensemble de l'Internet public est un jeu équitable pour ses projets d'IA.

Google a mis à jour sa politique de confidentialité au cours du week-end . Il indique spécifiquement que la société se réserve le droit de supprimer à peu près tout ce que vous publiez en ligne pour créer ses outils d'IA. Si Google peut lire vos mots, supposez qu'ils les possèdent maintenant et attendez-vous à ce qu'ils se logent dans les entrailles d'un chatbot.

"Google utilise les informations pour améliorer nos services et développer de nouveaux produits, fonctionnalités et technologies qui profitent à nos utilisateurs et au public", selon les nouvelles directives de Google. "Par exemple, nous utilisons des informations accessibles au public pour former les modèles d'IA de Google et développer des produits et des fonctionnalités telles que Google Translate, Bard et les capacités d'IA cloud."

Heureusement pour les fans d'histoire, Google conserve un historique des modifications apportées à ses conditions d'utilisation. La nouvelle formulation modifie une politique existante et décrit de nouvelles façons d'utiliser vos opinions en ligne pour le travail des outils d'IA du géant de la technologie.

Auparavant, il indiquait que les données seraient utilisées «pour les modèles de langage» plutôt que pour les «modèles d'IA», et là où l'ancienne politique ne mentionnait que Google Translate, Bard et Cloud AI apparaissent maintenant.

Il s'agit d'une clause inhabituelle pour une politique de confidentialité. Généralement, ces politiques décrivent comment une entreprise utilise les informations que vous publiez sur ses propres services. Ici, Google semble se réserver le droit de collecter et d'utiliser les données publiées sur n'importe quelle partie du Web public, comme si l'ensemble d'Internet était le terrain de jeu de l'IA de l'entreprise. Google n'a pas immédiatement répondu à une demande de commentaire.

Cette pratique soulève de nouvelles et intéressantes questions de confidentialité. La plupart des gens savent que les messages publics sont publics. Mais aujourd'hui, vous avez besoin d'un nouveau modèle mental de ce que signifie écrire quelque chose en ligne. Il ne s'agit plus de savoir qui peut voir l'information, mais comment elle pourrait être utilisée. Il est possible que Bard et ChatGPT aient ingéré vos articles de blog oubliés depuis longtemps ou vos critiques de restaurants vieilles de 15 ans. Pendant que vous lisez ceci, les chatbots pourraient régurgiter une version humonculoïde de vos mots d'une manière impossible à prévoir et difficile à comprendre.

L'une des complications les moins évidentes dans le monde post-ChatGPT est l'endroit où les chatbots avides de données obtiennent leurs informations. Des entreprises comme Google et OpenAI ont exploité de grandes parties d'Internet pour soutenir leurs habitudes robotiques. Il n'est en aucun cas clair si cela est légal, et pour les années à venir, les tribunaux seront aux prises avec des problèmes de droit d'auteur qui auraient semblé être de la science-fiction il y a quelques années à peine. Pendant ce temps, le phénomène affecte déjà les consommateurs de manière inattendue.

Les pouvoirs en place chez Twitter et Reddit sont particulièrement préoccupés par la question de l'IA et ont apporté des changements controversés pour sceller leurs plateformes. Les deux sociétés ont fermé l'accès gratuit à leurs API, ce qui permettait à quiconque souhaitait télécharger des publications en masse. C'est apparemment pour protéger les médias sociaux contre d'autres entreprises qui volent leur propriété intellectuelle, mais cela a également eu d'autres implications.

Les modifications de l'API de Twitter et de Reddit ont entraîné l'arrêt du fonctionnement des outils tiers que de nombreuses personnes utilisaient pour accéder à ces sites. Pendant une minute, il a même semblé que Twitter obligerait des entités publiques telles que les services météorologiques, les transports et les services d'urgence à payer pour les tweets, une décision que l'entreprise a annulée après une vague de critiques.

Récemment, le web scraping a été l'ennemi préféré d'Elon Musk. Musk a imputé une série de catastrophes récentes sur Twitter au besoin de l'entreprise d'empêcher les autres d'extraire des données de son site, même lorsque les problèmes semblent sans rapport. Au cours du week-end, Twitter a limité le nombre de tweets que les utilisateurs pouvaient voir chaque jour, rendant le service pratiquement inutilisable. Musk a déclaré qu'il s'agissait d'une réponse nécessaire à "l'abrasion des données" et à la "manipulation du système". Cependant, la plupart des professionnels de l'informatique ont convenu que la limitation du débit était davantage une réponse de crise à des problèmes techniques créés par une mauvaise gestion, l'incompétence ou les deux. Twitter n'a pas répondu aux questions de Gizmodo à ce sujet.