ترقية الحساب

IA méta-développée qui peut deviner les mots que vous entendez en décodant les ondes cérébrales

Singularityhub: Le décodage des ondes cérébrales pourrait aider les patients qui ont perdu leur capacité à communiquer à nouveau, et pourrait finalement ouvrir de nouvelles voies pour que les humains interagissent avec les ordinateurs.

Maintenant, les méta-chercheurs ont montré qu’ils peuvent utiliser des enregistrements de scanners cérébraux non invasifs pour dire quels mots quelqu’un entend.

Notre capacité à étudier l’activité cérébrale humaine s’est considérablement améliorée au cours des dernières décennies, car les scientifiques ont développé un ensemble de technologies d’interface cerveau-ordinateur (BCI) qui peuvent fournir un aperçu de nos pensées et de nos intentions.

Les résultats les plus impressionnants ont été obtenus avec des dispositifs d’enregistrement invasifs, dans lesquels des électrodes sont implantées directement dans la matière grise du cerveau, combinées à une intelligence artificielle capable d’apprendre à interpréter les signaux cérébraux. Ces dernières années, cela a permis de déchiffrer des phrases complètes de l’activité neuronale d’une personne avec une précision de 97% et de tenter de traduire les mouvements d’écriture directement en texte à une vitesse comparable à l’écriture de texte.

Mais l’implantation d’électrodes dans le cerveau d’une personne présente des inconvénients évidents. Ces procédures à haut risque ne sont médicalement acceptables que pour les patients où l’enregistrement cérébral est nécessaire pour résoudre d’autres problèmes médicaux, tels que l’épilepsie. De plus, les sondes neurales s’usent avec le temps, elles doivent donc être remplacées régulièrement.

C’est pourquoi les chercheurs du département de recherche en IA de Meta ont décidé d’étudier s’ils pouvaient atteindre des objectifs similaires sans avoir à effectuer de chirurgie cérébrale dangereuse. Dans un article publié sur le serveur de préimpression arXivl’équipe rapporte qu’elle a développé un système d’IA capable de prédire quels mots quelqu’un entendra en fonction de l’activité cérébrale enregistrée avec des interfaces cerveau-ordinateur non invasives.

« Il est extrêmement invasif, bien sûr, de mettre une électrode dans le cerveau d’une personne », a déclaré Jean Remi King, chercheur au laboratoire de recherche en intelligence artificielle (FAIR) de Facebook, à TIME. « Nous voulions donc essayer d’utiliser des enregistrements non invasifs de l’activité cérébrale. Et l’objectif était de développer un système d’IA capable de déchiffrer les réponses du cerveau aux histoires parlées.

Les chercheurs se sont appuyés sur quatre ensembles de données préexistants sur l’activité cérébrale recueillies auprès de 169 personnes tout en écoutant des enregistrements de personnes parlant. Chaque sujet a été enregistré à l’aide de la magnétoencéphalographie (MEG) ou de l’électroencéphalographie (EEG), qui utilisent différents types de capteurs pour détecter l’activité électrique du cerveau de l’extérieur du crâne.

Leur approche consistait à diviser le cerveau et les données audio en extraits de trois secondes et à les alimenter dans un réseau neuronal, qui cherchait ensuite des modèles pouvant relier les deux. Après avoir entraîné l’intelligence artificielle avec de nombreuses heures de ces données, ils l’ont testée avec des données inédites.

Le système a obtenu les meilleurs résultats dans l’un des ensembles de données MEG, où il a atteint une précision de 72,5 % dans le top 10. Cela signifie que les 10 mots ayant la plus grande probabilité d’être associés au segment des ondes cérébrales contenaient le bon mot dans 72,5% des cas.

Cela peut ne pas sembler si génial, mais il ne faut pas oublier que le système a été sélectionné à partir d’un vocabulaire potentiel de 793 mots. Sur l’autre ensemble de données MEG, le système a atteint 67,2%, mais sur les ensembles de données EEG, il a moins bien fonctionné, n’atteignant que les 10 meilleures précisions de 31,4 et 19,1.

Bien sûr, on est encore loin d’un système pratique, mais cela représente un pas en avant significatif sur un problème difficile. Les BCI non invasifs ont un rapport signal/bruit bien pire, de sorte que déchiffrer l’activité neuronale de cette manière est un défi, mais s’il réussit, cela pourrait conduire à une technologie beaucoup plus largement applicable.

Cependant, tout le monde n’est pas convaincu que ce problème peut être résolu. Thomas Knopfel de l’Imperial College de Londres a déclaré au New Scientist qu’essayer d’explorer des pensées en utilisant ces méthodes non invasives est comme essayer de diffuser un film HD sur des modems téléphoniques analogiques à l’ancienne », et doutait que de telles méthodes atteignent un jour un niveau pratique de précision.

Des entreprises comme Neuralink d’Elon Musk parient également que nous finirons par surmonter notre peur des méthodes invasives à mesure que la technologie s’améliorera et que les gens ordinaires pourront recevoir des implants cérébraux.

Cependant, la recherche de la méta-équipe en est encore à un stade très précoce, et il y a encore beaucoup de place pour l’amélioration. Et les opportunités commerciales pour quiconque peut craquer le scanner cérébral non invasif seront probablement une grande motivation pour l’essayer.