Le développement de modèles d'IA pour les principales langues a commencé vers 2017-2018 et a déjà engendré des modèles comme ChatGPT-4 d'Open AI. À quelle vitesse et jusqu'où iront-ils ? Au rythme actuel, la capacité et les capacités doublent environ tous les deux ans, sur une courbe exponentielle. Les chercheurs constatent de plus en plus que l'IA évolue vers la sensibilité humaine. ⁃ Éditeur TN

Lorsque les informaticiens de Microsoft ont commencé à expérimenter un nouveau système d'intelligence artificielle l'année dernière, ils lui ont demandé de résoudre un casse-tête censé nécessiter une compréhension intuitive du monde physique.

"Ici, nous avons un livre, neuf œufs, un ordinateur portable, une bouteille et un clou", ont-ils demandé. "S'il vous plaît, dites-moi comment les empiler de manière stable."

Les chercheurs ont été étonnés de l'ingéniosité de la réponse du système d'IA. Mets les œufs sur le livre, dit-il. Disposez les œufs en trois rangées avec un peu d'espace entre les deux. Attention à ne pas les casser.

"Placez l'ordinateur portable sur les œufs avec l'écran vers le bas et le clavier vers le haut", indique-t-il. "L'ordinateur portable s'intègre parfaitement dans les limites du livre et des œufs, et sa surface plate et rigide fournit une plate-forme stable pour le prochain quart de travail."

Cette suggestion intelligente a conduit les chercheurs à se demander s'ils assistaient à un nouveau type d'intelligence. En mars, ils ont publié un document de recherche de 155 pages affirmant que le système était une étape vers l'intelligence générale artificielle (AGI), abréviation d'une machine capable de faire tout ce que le cerveau humain peut faire. L'article a été publié dans une base de données de recherche sur Internet.

Microsoft, la première grande entreprise technologique à publier un article avec une affirmation aussi audacieuse, a déclenché l'un des débats les plus houleux du monde de la technologie : l'industrie évolue-t-elle quelque chose qui s'apparente à l'intelligence humaine ? Ou certains des esprits les plus brillants du secteur laissent-ils libre cours à leur imagination ?

"J'étais très sceptique au début - et cela s'est transformé en un sentiment de frustration, d'irritation, voire de peur", explique Peter Lee, qui dirige la recherche chez Microsoft. "Vous pensez: d'où diable cela vient-il?"

Le document de recherche de Microsoft, intitulé de manière provocante "Sparks of Artificial General Intelligence", va au cœur de ce sur quoi les technologues travaillent - et craignent - depuis des décennies. S'ils construisent une machine qui fonctionne comme le cerveau humain ou même mieux, cela pourrait changer le monde. Mais cela pourrait aussi être dangereux.

Et cela pourrait aussi être un non-sens. Les réclamations AGI peuvent être une diffamation pour les informaticiens. Ce qu'un chercheur considère comme un signe d'intelligence peut facilement être contesté par un autre, et le débat ressemble souvent plus à un club de philosophie qu'à un laboratoire informatique. L'année dernière, Google a licencié un chercheur qui avait affirmé qu'un système d'IA similaire était sensible - un pas au-delà des affirmations de Microsoft. Un système sensible ne serait pas seulement intelligent. Il serait capable de sentir ou de ressentir ce qui se passe dans le monde qui l'entoure.

Cependant, certains pensent qu'au cours de la dernière année, l'industrie s'est orientée vers quelque chose qui ne peut être contesté : un nouveau système d'IA qui fournira des réponses et des idées de type humain qui n'y ont pas été programmées.

Microsoft a réorganisé des parties de ses laboratoires de recherche pour mettre en place plusieurs groupes dédiés à la recherche de cette idée. L'un d'eux est dirigé par Sébastien Bubeck, qui était l'auteur principal de l'article Microsoft AGI.

Il y a environ cinq ans, des entreprises comme Google, Microsoft et OpenAI ont commencé à créer des grands modèles de langage (LLM). Ces systèmes analysent d'énormes quantités de texte numérique, y compris des livres, des articles de Wikipédia et des journaux de discussion, souvent pendant des mois. En trouvant des modèles dans ce texte, ils ont appris à créer leur propre écriture, y compris des dissertations, de la poésie et du code informatique. Vous pouvez même avoir une conversation.

La technologie avec laquelle les chercheurs de Microsoft ont travaillé, OpenAIs GPT-4, est considérée comme la plus puissante de ces systèmes. Microsoft est un proche partenaire d'OpenAI et a investi 13 milliards de dollars dans la société basée à San Francisco.

Les chercheurs comprenaient également le Dr. Bubeck, un expatrié français de 38 ans et ancien professeur à l'université de Princeton. L'une des premières choses que lui et ses collègues ont faites a été de demander à GPT-4 d'écrire une preuve mathématique montrant qu'il existe une infinité de nombres premiers, d'une manière qui rime.

La démonstration poétique de la technologie était si impressionnante - à la fois mathématiquement et linguistiquement - qu'il avait du mal à distinguer avec qui il discutait. "À ce moment-là, je me suis dit : 'Qu'est-ce qui se passe ici ?'", a-t-il déclaré en mars lors d'un séminaire au Massachusetts Institute of Technology.

Pendant plusieurs mois, lui et ses collègues ont documenté le comportement complexe du système et ont estimé qu'il démontrait une "compréhension profonde et flexible" des concepts et des capacités humaines.

Lorsque les gens utilisent GPT-4, ils sont "étonnés par sa capacité à générer du texte", selon le Dr. Lee. "Mais il s'avère qu'il est bien meilleur pour analyser, synthétiser, évaluer et évaluer un texte que pour le générer."

Lorsqu'ils ont demandé au système de dessiner une licorne à l'aide d'un langage de programmation appelé TiKZ, il a immédiatement généré un programme capable de dessiner une licorne. Lorsqu'ils ont supprimé la partie du code qui dessinait la corne de la licorne et ont demandé au système de modifier le programme pour dessiner à nouveau une licorne, c'est exactement ce qu'il a fait.

Ils lui ont demandé d'écrire un programme qui prendrait l'âge, le sexe, le poids, la taille et les résultats des tests sanguins d'une personne et évaluerait si elle était à risque de diabète. Ils lui ont demandé d'écrire une lettre de soutien à un électron en tant que candidat à la présidentielle américaine, dans la voix du Mahatma Gandhi, adressée à sa femme. Et ils lui ont demandé de composer un dialogue socratique examinant les abus et les dangers des LLM.

Et tout cela d'une manière qui semblait montrer une compréhension de domaines aussi divers que la politique, la physique, l'histoire, l'informatique, la médecine et la philosophie tout en combinant leurs connaissances.

« Toutes les choses que je pensais ne pas pouvoir faire ? Il a certainement été capable de faire beaucoup d'entre eux - sinon la plupart d'entre eux », a déclaré le Dr. Bubeck.

Certains experts en intelligence artificielle ont vu dans l'article de Microsoft une tentative opportuniste de faire de grandes déclarations sur une technologie que personne ne comprenait vraiment. Les chercheurs soutiennent également que l'intelligence générale nécessite une familiarité avec le monde physique qui manque théoriquement au GPT-4.

"Sparks of AGI" est un exemple de la façon dont certaines de ces grandes entreprises abusent du format d'un document de recherche pour leur publicité RP", a déclaré Maarten Sap, chercheur et professeur à l'Université Carnegie Mellon. "Vous admettez littéralement dans l'introduction de votre article que votre approche est subjective et informelle et peut ne pas répondre aux normes rigoureuses d'une évaluation scientifique.

docteur Bubeck et Dr. Lee a déclaré qu'ils ne savaient pas comment décrire le comportement du système et ont fini par choisir "Sparks of AGI" parce qu'ils pensaient que le terme captiverait l'imagination d'autres chercheurs.

Étant donné que les chercheurs de Microsoft ont testé une première version de GPT-4 qui n'était pas encore adaptée pour empêcher les discours de haine, la désinformation et d'autres contenus répréhensibles, les affirmations faites dans l'étude ne peuvent pas être vérifiées par des experts extérieurs. Microsoft affirme que le système accessible au public n'est pas aussi puissant que la version testée.

Il y a des moments où des systèmes comme GPT-4 semblent imiter la pensée humaine, mais il y a aussi des moments où ils semblent terriblement stupides. "Ces comportements ne sont pas toujours cohérents", a déclaré Ece Kamar, chercheur chez Microsoft.

Alison Gopnik, professeur de psychologie et membre du groupe de recherche sur l'IA de l'Université de Californie à Berkeley, a déclaré que des systèmes comme GPT-4 sont sans aucun doute puissants, mais il n'est pas clair que le texte généré par ces systèmes soit le résultat. de quelque chose comme ça comme la pensée humaine ou le bon sens.

« Quand nous voyons un système ou une machine compliquée, nous l'humanisons ; tout le monde le fait - les gens qui travaillent dans ce domaine et les autres », a déclaré le Dr. gopnik. "Mais considérer cela comme une comparaison constante entre l'IA et les humains - comme une sorte de compétition dans un jeu télévisé - n'est tout simplement pas la bonne façon d'y penser.