Qu'est-ce que l'IA LaMDA de Google et pourquoi un ingénieur Google pense-t-il qu'elle est sensible ?
Agence web » Actualités du digital » Qu’est-ce que l’IA LaMDA de Google et pourquoi un ingénieur Google pense-t-il qu’elle est sensible ?

Qu’est-ce que l’IA LaMDA de Google et pourquoi un ingénieur Google pense-t-il qu’elle est sensible ?

Un ingénieur principal de Google a affirmé que l’IA LaMDA de l’entreprise était devenue sensible. Que vous trouviez cela alarmant ou excitant, c’est une affirmation très audacieuse, et peut-être difficile à prouver même si elle était tout à fait vraie.

Qu’est-ce que LaMDA ?

LaMDA est l’abréviation de Modèle de langage pour l’application de dialogue. En d’autres termes, il s’agit d’un modèle de langage d’apprentissage automatique spécialement conçu pour générer un dialogue naturel. Les méthodes d’apprentissage automatique permettent aux ordinateurs de découvrir des modèles et des relations dans les données. Ainsi, par exemple, vous pouvez « entraîner » un algorithme d’apprentissage automatique tel que GPT-3 (un autre système de pointe) sur toutes les œuvres de Shakespeare, puis lui faire générer de nouveaux textes originaux qui se lisent comme Shakespeare.

Comme l’explique Sundar Pichai (PDG de Google) dans une interview avec Yahoo Finance, LaMDA est un système différent car il a été spécialement formé au dialogue. L’intention est de donner aux systèmes de Google la possibilité d’engager un dialogue ouvert de type humain avec les utilisateurs.

En d’autres termes, les personnes qui demandent des produits Google pour des choses spécifiques n’ont pas à changer leur façon de penser ou de parler. Ils peuvent interagir avec le système informatique de la même manière qu’ils interagiraient avec une autre personne.

Sous le capot, tous les modèles d’apprentissage automatique actuels sont en fait des modèles mathématiques et statistiques sophistiqués. Ils génèrent des algorithmes basés sur les modèles sous-jacents qu’ils découvrent dans les données. Donnez-leur suffisamment de données de haute qualité, et ces algorithmes deviennent incroyablement efficaces pour faire des choses que seuls les humains ou d’autres intelligences naturelles ont été capables de faire jusqu’à présent.

Pourquoi un ingénieur Google pense-t-il que LaMDA est sensible ?

L’ingénieur en question est Blake Lemoine, qui a publié une interview entre lui et LaMDA dans le cadre de son dossier expliquant pourquoi LaMDA pourrait être sensible. Lemoine a passé des mois en conversation avec le logiciel, l’interrogeant, lui posant des questions complexes et ayant du mal à croire que ses réponses complexes et appropriées puissent être le produit d’autre chose qu’un être sensible.

Il est préférable que tous ceux qui veulent comprendre pourquoi Lemoine se sente ainsi lisent les réponses de LaMDA pour eux-mêmes afin de comprendre pourquoi il s’agit d’une position si convaincante à adopter. Les réponses de LaMDA sont si humaines qu’elles rappellent l’IA fictive de l’assistant personnel de Spike Jonze. Sonune histoire où un humain développe une relation sérieuse avec une IA conversationnelle.

Indépendamment de la question de savoir si les affirmations de Lemoine à propos de LaMDA ont du poids, il convient de noter que l’objectif de conception de LaMDA est de générer un dialogue ouvert naturel et crédible. Donc, en ce sens, sa conviction indique que Google a réussi de manière spectaculaire à générer un dialogue crédible. Si un système d’IA devait convaincre un humain qu’il était sensible, il s’agirait probablement d’un système spécialement conçu pour cela.

Le problème est que les allégations de sensibilité ne sont pas vraiment testables (ou du moins pas réalisables ou éthiquement testables) pour un certain nombre de raisons scientifiques et philosophiques. Pour comprendre pourquoi, nous devons examiner brièvement ce que signifie « sensibilité ».

Qu’est-ce que la sensibilité ?

Le mot « sensibilité » signifie essentiellement que quelque chose (un chat, un humain ou un tapis magique) a la capacité de ressentir. il partage la même racine que « sentimental » ou « sentiment ». Sentience ne signifie pas seulement que quelque chose a la capacité de sentir. Votre thermostat n’est presque certainement pas sensible malgré sa capacité à indiquer la température. Au lieu de cela, la sentience concerne l’expérience subjective des sentiments, ce qui implique qu’il y a un «sujet» en premier lieu.

Il est dangereux de se laisser prendre à la sémantique ici car il est probable que Lemoine utilise le mot « sentiment » de manière interchangeable avec des concepts distincts comme « sapience », « intelligence » et « conscience ». Donc, pour les besoins de la discussion, l’interprétation la plus charitable ici est que Lemoine pense que Lamda est un être conscient de soi, capable de ressentir les choses, d’avoir des croyances et d’expérimenter les choses d’une manière que nous attribuons habituellement aux créatures vivantes.

Dans un article supplémentaire, Lemoine discute de ce qu’il pense que LaMDA « veut » et « croit », ce qui soutient l’idée que la « sensibilité » signifie à son avis plus que sa définition stricte du dictionnaire.

Nous ne comprenons pas la sensibilité et la conscience en premier lieu

Voici le problème : nous en savons relativement peu sur la sensibilité, la conscience, l’intelligence et ce que cela signifie d’être une entité qui possède ces attributs. Assez ironiquement, la technologie d’apprentissage automatique pourrait éventuellement nous aider à percer certains des mystères de nos esprits et des cerveaux dans lesquels ils existent.

Pour l’instant, les philosophes et les scientifiques s’attaquent à la « boîte noire » de la conscience, mais elle semble toujours être le résultat de quelque chose de plus que la somme de ses parties. La conscience semble être une chose « émergente ». C’est un «fantôme» qui est généré par l’interaction de nombreux sous-systèmes neuronaux différents, dont aucun ne semble être sensible par lui-même.

De même, une intelligence artificielle sophistiquée telle que le système de génération d’images DALL-E 2 consiste en des modèles d’apprentissage automatique plus simples qui s’alimentent les uns les autres pour créer le produit final. Le thème de la complexité découlant de l’interaction de systèmes plus simples est celui que vous rencontrerez souvent dans le monde de l’IA, et bien que nous ayons une très bonne compréhension du fonctionnement de chaque sous-composant, les résultats finaux sont généralement assez imprévisibles.

Reconnaîtrions-nous même la sensibilité dans l’IA ?

Si, pour les besoins de la discussion, une IA était réellement sensible au vrai sens du terme, serions-nous même capables de le dire ? LaMDA a été conçu pour imiter et prédire les modèles de dialogue humain, de sorte que le jeu est vraiment empilé lorsqu’il s’agit de déclencher les choses que les humains associent à l’intelligence de type humain. Cependant, il nous a fallu beaucoup de temps pour considérer les primates non humains et les animaux tels que les dauphins, les pieuvres et les éléphants comme sensibles, même si dans le grand schéma des choses, ils sont pratiquement nos frères et sœurs.

Une IA sensible peut être si étrangère que nous ne saurions pas que nous en regardons une juste devant nous. C’est d’autant plus probable que nous ne savons pas quelles sont les conditions de seuil pour que la sentience émerge. Il n’est pas difficile d’imaginer que la bonne combinaison de données et de sous-systèmes d’IA mélangés de la bonne manière puisse soudainement donner naissance à quelque chose qui serait qualifié de sensible, mais cela peut passer inaperçu car cela ne ressemble à rien que nous puissions comprendre.

Si ça ressemble à un canard…

Un canard mécanique.

Le dernier gros problème avec les revendications de sensibilité dans les machines est le même problème avec les revendications de sensibilité dans n’importe quoi d’autre, y compris les êtres humains. Philosophiquement, vous ne savez pas si l’une des personnes avec lesquelles vous interagissez est réellement sensible ou non. C’est le problème philosophique classique du zombie, qui est une expérience de pensée sur des êtres hypothétiques qui sont complètement indiscernables d’un être humain, sauf qu’ils manquent de sensibilité ou de tout type d’expérience consciente.

Cependant, comme le postule le célèbre test d’Alan Turing, peu importe qu’une IA pense et ressente « réellement ». Ce qui compte, c’est qu’il peut imiter l’apparence de penser et de sentir si bien que nous ne pouvons pas faire la différence. Selon la personne à qui vous demandez, LaMDA a déjà réussi le test de Turing, ce qui pourrait faire des affirmations invérifiables de Lemoine un point discutable.

★★★★★