Qu'est-ce que c'est et pourquoi c'est important
Sommaire
Points clés à retenir
- La cognition incarnée montre comment la présence physique influence la prise de décision.
- Donner des sens aux logiciels d’IA est essentiel pour créer une machine pensante.
- Les simulations virtuelles accélèrent l’apprentissage de l’IA avant que les robots physiques ne soient désormais monnaie courante.
Lorsque vous pensez à « IA » ces jours-ci, vous pensez probablement à une application sur votre téléphone avec laquelle vous pouvez discuter ou créer des images pour vous en fonction d'une invite de texte. Cependant, l’IA est un domaine vaste et varié, et avec les progrès de la robotique, nous sommes sur le point de donner à nos amis de l’IA de vrais corps physiques, ce qui pourrait changer la donne pour leur développement.
Un corps façonne un esprit
Imaginez une seconde que votre cerveau ait été transplanté dans un dauphin, un ours ou tout autre animal de votre choix. La façon dont vous voyez le monde, le fonctionnement de votre corps et la nature de votre présence physique auraient un effet psychologique sur vous, n'est-ce pas ? Même utiliser la réalité virtuelle pour « échanger » votre sexe pendant quelques minutes peut avoir un effet sur la façon dont vous prenez des décisions.
Ce sont des exemples de ce que les psychologues appellent la cognition incarnée. Cette approche pour comprendre comment nous (et d’autres organismes vivants) pensons est ancrée dans l’idée que la nature de votre corps physique et de vos sens a un effet sur le type d’esprit que vous développez. Cela façonne fondamentalement votre façon de penser, votre façon de prendre des décisions et votre façon de voir le monde.
Maintenant, je ne veux pas établir de parallèles évidents entre les animaux biologiques tels que nous et les logiciels d’IA naissants, mais il y a de bonnes raisons de penser qu’une fois que le logiciel d’IA sera « incarné », il changera la nature de cette IA.
Des cerveaux dans des bocaux
Si vous prenez quelque chose comme un LLM (Large Language Model), il s'agit d'un énorme réseau neuronal artificiel qui a été façonné et entraîné sur des concepts abstraits tels que les mots, la grammaire, la logique et d'autres éléments symboliques. C'est comme un cerveau dans un bocal sans aucun sens ni moyen d'interagir avec le monde extérieur, mis à part les invites que nous y mettons.
Maintenant, lentement, nous avons donné à ces réseaux neuronaux simulés des « sens » qui leur permettent de comprendre les images et les sons. Un exemple très rudimentaire de ceci est la façon dont Boston Dynamics a combiné son robot Spot avec ChatGPT, qui permet au robot de regarder autour de lui, de parler et d'interagir avec les gens. Il ne s’agit bien sûr que d’une astuce de salon, mais elle réussit très bien à créer l’illusion d’une machine pensante. Si vous regardez la vidéo ci-dessous, il y a même des preuves d'un comportement « émergent » plutôt sympa, dans lequel le robot Spot infusé de GPT présente des choses inattendues, mais logiques, que ses créateurs n'avaient pas prévues.
Vivre dans une simulation
Avant d’en arriver aux vrais robots physiques et au fait que cela va bientôt devenir un gros problème, il y a en fait une étape intermédiaire pour donner à l’IA de vrais corps physiques. Il est désormais courant de laisser les logiciels d’IA apprendre dans une simulation virtuelle du monde réel.
En plaçant des corps de robots simulés sous le contrôle d’un logiciel d’IA, vous pouvez obtenir des années et des années d’apprentissage en quelques heures. Cela accélère non seulement considérablement la rapidité avec laquelle les logiciels d'IA peuvent apprendre à déplacer un corps dans un environnement, mais cela revient également beaucoup moins cher que de mettre en danger un matériel robotique de 100 000 $ juste pour apprendre à ne pas tomber.
Devenir présent au monde
Pour la plupart, les modèles d’IA modernes ont été formés sur des ensembles de données massifs et abstraits. C'est comme si tout ce que vous avez appris dans votre vie était indirect, en lisant des livres ou en regardant des vidéos. Une fois que vous incarnez un logiciel d’apprentissage, vous passez d’un apprentissage indirect à un apprentissage expérientiel. Supposons que vous disposiez de milliers de robots domestiques, qui collectent tous des données du monde réel pour améliorer le logiciel qui les exécute. Ces nouvelles données sont basées sur une « expérience » directe globale. Ainsi, potentiellement, des centaines ou des milliers d’années de données d’apprentissage incorporées provenant du monde réel remodèlent les modèles d’IA qui pilotent le matériel.
Je ne vois tout simplement pas que ce changement qualitatif des données n'ait aucun effet sur la nature du modèle. Le déplacer de l’abstrait au concret et faire de l’IA quelque chose qui soit façonné par son environnement (tout comme nous et toutes les autres créatures vivantes sur Terre) modifiera la nature de cette IA.
Il ne nous reste que quelques années avant qu'un matériel robotique performant soit abordable pour les ménages, et des robots autonomes polyvalents comme la Figure 02 sont testés dans les usines au moment où j'écris ces lignes.
Alors, ne soyez pas surpris si vous commencez à voir des machines dans la nature faire toutes sortes de petits boulots et apprendre des coups durs de la vie, tout comme vous et moi.