« Il fait preuve de moins d’intelligence qu’un chat » estime le Prix Turing Yann Le Cun, en charge des sciences et de l’intelligence artificielle chez Meta

C’est un défilé qui rappelle une scène du film I, Robot, réalisé il y a 20 ans par l’australien Alex Proyas. Le 11 octobre, Elon Musk a profité de la présentation de Robovan, un prototype de navette autonome signé Tesla, pour donner un aperçu de la dernière version d’Optimus, son robot humanoïde. Ce dernier, explique l’entrepreneur touche-à-tout, pourra accomplir des tâches humaines quotidiennes, comme apporter un colis, arroser vos plantes ou encore promener votre chien.
La newsletter sciences et technologies
Tous les samedis à 16h
Recevez toute l’actualité de la sciences et des technologies et plongez dans les Grands entretiens, découvertes majeures, innovations et coulisses…
Merci !
Votre inscription a bien été prise en compte avec l’adresse email :
Pour découvrir toutes nos autres newsletters, rendez-vous ici : MonCompte
En vous inscrivant, vous acceptez les conditions générales d’utilisation et notre politique de confidentialité.
À « très long terme », le grand public pourrait même s’offrir ce robot à tout faire entre 20 000 et 30 000 dollars. Des humanoïdes, qui sont souvent en quasi-déséquilibre permanent, se déplacent sur deux jambes bien animées. « C’est un bel exemple d’équilibre qui témoigne d’une belle mécanique, mais déjà assuré par le japonais Honda avec son robot Asimo il ya 20 ans », tempère Ludovic Righetti, spécialiste de la locomotion en robotique, professeur à l’ université de New York et porteur d’une chaire internationale à l’institut d’intelligence artificielle ANITI à Toulouse. De fait, le mouvement est fluide et régulier, mais il est encore un peu lent comparé aux robots humanoïdes mis au point par le fabricant américain Boston Dynamics, ou encore par le chinois Unitree.
Pourtant, plus encore que sa capacité à se déplacer, c’est son aptitude à converser qui impressionne chez ce robot. Dans une vidéo de l’événement, on voit notamment Optimus expliquer à un Californien qu’il vit à Palo Alto, la capitale de la Silicon Valley. « C’est là où nous sommes entraînés, où nous recevons nos factures, et où nous sommes amenés à travailler avec des gens exceptionnels. » Et lorsque son interlocuteur (en chair et en os) lui demande ce qui est le plus dur en étant un robot, il explique : « Essayer d’être plus humain. »
« Moins d’intelligence qu’un chat »
On est cependant en droit de douter du caractère spontané de cet échange. « Cette conversation est de la poudre aux yeux. Pour moi, les robots sont télé-opérés à distance, la seule prouesse est électromécanique », explique au Point Yann Le Cun, scientifique en chef à Meta, Prix Turing (l’équivalent du Nobel en informatique) et professeur à l’université de New York, qui appelle à éviter tout anthropomorphisme. « Il est important de ne pas confondre apprentissage par cœur et compréhension, ou encore de la connaissance préalablement accumulée avec de l’intelligence. »
Pour lui, la mise au point d’une intelligence artificielle générale, c’est-à-dire capable d’égaler l’homme dans la totalité de ses capacités cognitives, prendra plusieurs décennies. « Les modèles d’aujourd’hui sont entraînés à prédire le prochain mot dans un texte. Mais cela les rend si bons à manipuler la langue qu’ils nous trompent. Et en raison de leur énorme capacité de mémoire, ils peuvent sembler raisonner, alors qu’en fait, ils ne font que régurgiter des informations sur lesquelles ils ont déjà été entraînés. » Résultat : « La machine, aujourd’hui, fait preuve de moins d’intelligence qu’un chat. Les félins, après tout, ont un modèle mental du monde physique, une mémoire persistante, une certaine capacité de raisonnement et une capacité de planification », at-il récemment déclaré au Wall Street Journal. À LIRE AUSSI Intelligence artificielle : les extraits exclusifs du livre choc de Yuval Noah Harari
Ludovic Righetti appelle à se méfier d’un excès de communication : « La seule séquence vidéo (d’un seul plan) qui dure plus que quelques secondes est la marche lente sur sol plat. Toutes les autres séquences sont d’une durée de 2-3 secondes avant que le point de vue ne change. En tant que roboticien, si je ne vois pas un seul plan qui capture toute une tâche, cela suggère généralement que le robot n’exécute pas bien la tâche – d’ailleurs, nous exigeons toujours des séquences non coupées dans les papiers scientifiques. Bien sûr, ce dont il s’agit ici est de la communication et non de la science, mais ce type de vidéo suggère que toutes les autres tâches que le robot exécute ne fonctionne pas aussi bien que la vidéo essaie de le suggérer. »À LIRE AUSSI Voici à quoi pourrait ressembler à l’intelligence artificielle du futur
À la manière des enfants
Comment faire des progrès à l’avenir ? « L’idée, poursuit Yann Le Cun, est de créer des modèles qui apprennent d’une manière analogique à celle d’un bébé animal, en construisant un modèle du monde à partir des informations visuelles qu’il absorbe. » Cette capacité pour la machine de comprendre son environnement peut venir de lunettes connectées, capables de capturer des images de leur environnement. Il restera ensuite aux interprètes.
« Un des gros enjeux, c’est d’établir des liens entre les images que pourra percevoir un robot et les informations qu’il pourra lui associer. Cela lui permettra de se représenter une partie de son environnement », explique au Point Joëlle Pineau, professeure à l’université Mac Gill, et également ponte de la recherche en intelligence artificielle chez Meta. Qui poursuit : « C’est prometteur, mais pour l’instant nous manquons de données. »
Le défi est donc de permettre aux machines d’apprendre à définir des modèles mentaux de leur environnement par observation, à la manière des enfants et des animaux. Une des nombreuses conditions avant qu’Optimus – et les autres robots – puissent badiner à propos et en tenant compte du contexte, aussi naturellement qu’un humain.
Source link