Un ingénieur principal de Google a affirmé que l’IA LaMDA de la société était devenue intelligente. Que vous trouviez cela alarmant ou excitant, c’est une affirmation très audacieuse, et peut-être difficile à prouver même si elle était totalement vraie.
Qu’est-ce que LaMDA ?
LaMDA est l’abréviation de Language Model for Dialog Application. En d’autres termes, il s’agit d’un modèle linguistique d’apprentissage automatique spécialement conçu pour générer un dialogue naturel. Les méthodes d’apprentissage automatique permettent aux ordinateurs de découvrir des modèles et des relations dans les données. Ainsi, par exemple, vous pouvez « entraîner » un algorithme d’apprentissage automatique tel que GPT-3 (un autre système de pointe) sur toutes les œuvres de Shakespeare, puis lui faire générer de nouveaux textes originaux qui se lisent comme Shakespeare.
Comme l’explique Sundar Pichai (PDG de Google) dans une interview accordée à Yahoo Finance, LaMDA est un système différent parce qu’il a été formé spécifiquement au dialogue. L’objectif est de donner aux systèmes de Google la capacité d’engager un dialogue ouvert de type humain avec les utilisateurs.
En d’autres termes, les personnes qui demandent des choses spécifiques aux produits Google n’ont pas à changer leur façon de penser ou de parler. Ils peuvent interagir avec le système informatique de la même manière qu’ils le feraient avec une autre personne.
Sous le capot, tous les modèles actuels d’apprentissage automatique sont en fait des modèles mathématiques et statistiques sophistiqués. Ils génèrent des algorithmes basés sur les modèles sous-jacents qu’ils découvrent dans les données. Donnez-leur suffisamment de données de haute qualité, et ces algorithmes deviennent étonnamment efficaces pour faire des choses que seuls les humains ou d’autres intelligences naturelles ont été capables de faire jusqu’à présent.
Pourquoi un ingénieur de Google pense-t-il que LaMDA est intelligent ?
L’ingénieur en question est Blake Lemoine, qui a publié un entretien entre lui et LaMDA afin d’expliquer pourquoi LaMDA pourrait être intelligent. Lemoine a passé des mois en conversation avec le logiciel, l’interrogeant, lui posant des questions complexes, et trouvant difficile de croire que ses réponses complexes et appropriées puissent être le produit d’autre chose qu’un être sensible.
Il est préférable que tous ceux qui veulent comprendre pourquoi Lemoine est de cet avis lisent eux-mêmes les réponses de LaMDA pour comprendre pourquoi cette position est si convaincante. Les réponses de LaMDA sont si humaines qu’elles rappellent celles de l’assistant personnel fictif du film Her de Spike Jonze, une histoire dans laquelle un humain développe une relation sérieuse avec une IA conversationnelle.
Indépendamment de la question de savoir si les affirmations de Lemoine sur LaMDA ont un quelconque poids, il convient de noter que LaMDA a été conçu dans le but de générer un dialogue ouvert naturel et crédible. Donc, en ce sens, sa conviction indique que Google a réussi de manière spectaculaire à générer un dialogue crédible. Si un système d’IA devait convaincre un humain qu’il est sensible, il est fort probable qu’il s’agisse d’un système spécifiquement conçu pour cela.
Le problème est que les affirmations de sensibilité ne sont pas vraiment testables (ou du moins pas de manière faisable ou éthiquement testable) pour un certain nombre de raisons scientifiques et philosophiques. Pour comprendre pourquoi, nous devons examiner brièvement ce que signifie la « sensibilité ».
Qu’est-ce que la sensibilité ?
Le mot « sensibilité » signifie essentiellement que quelque chose (un chat, un humain ou un tapis volant) a la capacité de ressentir. Il a la même racine que « sentimental » ou « sentiment ». La sensibilité ne signifie pas seulement que quelque chose a la capacité de sentir. Votre thermostat n’est certainement pas sensible, même s’il est capable de déterminer la température. La sensibilité concerne plutôt l’expérience subjective des sentiments, ce qui implique l’existence d’un « sujet » en premier lieu.
Il est dangereux de s’attacher à la sémantique ici, car il est probable que Lemoine utilise le mot « sensibilité » de manière interchangeable avec des concepts distincts comme « sapience », « intelligence » et « conscience ». Ainsi, pour les besoins de l’argumentation, l’interprétation la plus charitable est que Lemoine pense que Lamda est un être conscient de lui-même, capable de ressentir des choses, d’avoir des croyances et d’expérimenter des choses d’une manière que nous attribuons habituellement aux créatures vivantes.
Dans un autre article, Lemoine évoque ce qu’il pense que LaMDA « veut » et « croit », ce qui conforte l’idée que, selon lui, la « sensibilité » va au-delà de la stricte définition du dictionnaire.
Nous ne comprenons pas la sensibilité et la conscience au départ
En fait, nous savons relativement peu de choses sur la sensibilité, la conscience, l’intelligence et ce que signifie être une entité possédant ces attributs. De manière quelque peu ironique, la technologie de l’apprentissage automatique pourrait un jour nous aider à percer certains des mystères de notre esprit et des cerveaux dans lesquels il existe.
Pour l’instant, les philosophes et les scientifiques s’attaquent à la « boîte noire » de la conscience, mais celle-ci semble toujours être le résultat de quelque chose de plus que la somme de ses parties. La conscience semble être une chose « émergente ». C’est un « fantôme » généré par l’interaction de nombreux sous-systèmes neuronaux différents, dont aucun ne semble être sensible en soi.
De même, les IA sophistiquées, comme le système de génération d’images de DALL-E 2, sont constituées de modèles d’apprentissage automatique plus simples qui se nourrissent les uns des autres pour créer le produit final. Le thème de la complexité découlant de l’interaction de systèmes plus simples est un thème que vous rencontrerez souvent dans le monde de l’IA, et bien que nous puissions avoir une très bonne compréhension du fonctionnement de chaque sous-composant, les résultats finaux sont généralement assez imprévisibles.
Reconnaîtrions-nous même la sensibilité de l’IA ?
Si, pour les besoins de l’argumentation, une IA était réellement sensible au sens propre du terme, serions-nous même capables de le dire ? LaMDA a été conçu pour imiter et prédire les modèles de dialogue humain, et les chances sont donc grandes de déclencher les éléments que les humains associent à une intelligence de type humain. Cependant, il nous a fallu beaucoup de temps pour considérer les primates non humains et les animaux tels que les dauphins, les pieuvres et les éléphants comme sensibles, même si dans le grand schéma des choses, ils sont pratiquement nos frères et sœurs.
Une IA sensible pourrait être si étrangère que nous ne saurions pas que nous en avons une en face de nous. C’est d’autant plus probable que nous ne savons pas quelles sont les conditions préalables à l’émergence de la sensibilité. Il n’est pas difficile d’imaginer que la bonne combinaison de données et de sous-systèmes d’IA mélangés de la bonne manière puisse soudainement donner naissance à quelque chose qui serait qualifié de sensible, mais qui pourrait passer inaperçu parce qu’il ne ressemble à rien que nous puissions comprendre.
Si ça ressemble à un canard…
Le dernier grand problème avec les revendications de la sensibilité des machines est le même que celui des revendications de la sensibilité de toute autre chose, y compris les êtres humains. Philosophiquement, vous ne savez pas si les personnes avec lesquelles vous interagissez sont réellement sensibles ou non. C’est le problème philosophique classique du zombie, qui est une expérience de pensée sur des êtres hypothétiques qui sont complètement indifférenciables d’un être humain, sauf qu’ils sont dépourvus de sensibilité ou de tout type d’expérience consciente.
Toutefois, comme l’a affirmé le célèbre test d’Alan Turing, il importe peu de savoir si une IA pense et ressent « réellement ». Ce qui compte, c’est qu’elle puisse imiter l’apparence de la pensée et du sentiment si bien que nous ne puissions pas faire la différence. Selon la personne à qui vous demandez, LaMDA a déjà passé le test de Turing, ce qui pourrait rendre discutables les affirmations non vérifiables de Lemoine.