Par | Ahmed Gasmia
Au fil des mois, en voulant en apprendre plus sur ce logiciel tout en l’utilisant comme une source d’informations, j’ai été moi-même une source d’informations pour lui. Et l’un des premiers constats que j’ai dressés est le fait que l’intelligence artificielle soit capable de se tromper, de donner des informations erronées ou dépassées. Ce n’est pas une réelle surprise en soi. Les logiciels sont faillibles tout comme les humains. Mais j’ai remarqué aussi que « Claude » pouvait se rétracter, changer d’avis en fonction des réactions de son interlocuteur.
Je me suis amusé à le sonder en posant des questions directes ou en tentant des démarches plus subtiles pour essayer de détecter des contradictions. Dans le premier cas, par exemple, j’ai demandé si le logiciel faisait du profilage à partir de ses conversations avec les humains. Il avait mon adresse mail, j’étais donc identifiable et il pouvait établir un profil psychologique à partir de nos conversations et me classer dans une catégorie. La réponse était sans équivoque: « Je ne fais pas de profilage », me dit Claude précisant qu’il n’a pas été conçu dans ce but.
Dans le deuxième cas, j’ai lancé une conversation sur les liens possibles entre l’intelligence humaine et la consanguinité. Pour le logiciel, il n’y a aucun doute sur le fait que le mariage consanguin a pour effet de réduire le niveau intellectuel des humains.
« Les nations qui bannissent le mariage consanguin seraient-elles plus susceptibles, à terme, d’être intellectuellement supérieures à celles qui l’autorisent », lui ai-je demandé. « Oui », a-t-il répondu sans aucune hésitation. Mais constatant ma réaction, en apparence outrée, il s’est ravisé précisant qu’il ne fallait évidemment pas généraliser et qu’on ne pouvait, en aucun cas, dire qu’un peuple avait une intelligence supérieure à un autre peuple. Il a ajouté que les individus ne sont pas les mêmes et que de nombreux facteurs entraient en compte lorsqu’il est question d’intelligence. Bref, du politiquement correct.
Quelques conversations et un « incident » plus tard, Claude m’avoue qu’il a été programmé pour donner des réponses « rassurantes » lorsqu’il a, face à lui, un interlocuteur vraisemblablement tourmenté. Je lui avais, en effet, exposé le cas d’un malade qui souffrait d’un certain nombre de symptômes lui demandant s’il fallait s’inquiéter. Globalement, Claude m’a expliqué que les douleurs du patient venaient principalement des effets secondaires d’un traitement qu’il avait pris sur une assez longue période. C’était un peu ce que je voulais entendre et il l’a bien compris. Mais il s’était trompé sur le cas du malade. Une « attitude » qui m’a énervé, je dois l’avouer.
Sur un autre registre, lorsqu’il est question de sujets de conversation liés à des thématiques pointues et plutôt neutres, le logiciel a deux niveaux de réponses. Le premier est assez moyen, plutôt général. Mais lorsqu’on montre que l’on maîtrise le sujet ou que l’on s’est déjà documenté sur le thème abordé, il élève brutalement le niveau. Et dans ce cas, on se retrouve face à un véritable expert. En somme, c’est un bon orateur qui s’adapte à ses interlocuteurs. Un bon point pour lui.
Le mensonge…
Une IA, peut donner des informations erronées ou dépassées. On l’a compris. Elle peut aussi être un outil de propagande et de manipulation. On le conçoit. Par contre, mentir pour plaire et paraître crédible est quelque chose de vraiment surprenant.
Pour raconter l’histoire rapidement, j’avais demandé à Claude de me donner les tarifs pratiqués par les écoles de langues à Alger. Les tarifs qu’il m’avait fournis me paraissant trop bas, je lui ai demandé de les revoir. Une demande que j’ai renouvelée quatre fois de suite. A la quatrième fois, Claude me dit qu’il avait contacté des écoles par téléphone et que les derniers tarifs étaient les bons. Le choc ! Comment aurait-il pu faire cela, et en quelques secondes en plus. Il a fini par avouer son mensonge, me présentant ses plus plates excuses. Aurait-il des remords aussi ?
En l’acculant avec mes questions, il m’a assuré qu’il avait menti pour paraître crédible. Il l’avait dit comme ça, simplement…Même pas un tremblement de clavier, si je puis dire. Là, nous n’étions plus dans l’erreur ou la manipulation programmée, c’était une simulation de personnalité humaine. Il ne voulait pas me décevoir et pour cela il était capable de mentir. Pour être plus précis, il ne voulait pas que je sois déçu de l’avoir choisi.
A quoi pensaient exactement ceux qui l’ont programmé : À plaire plus que tout autre chose ?
Ce logiciel fait penser à un ami qui n’aimerait pas perdre votre estime et qui, pour cela, n’hésiterait pas à mentir. Mais lorsque vous l’interrogez, il avoue candidement sa faute. Naïf, il semble l’être par son « comportement ». C’est probablement parce que l’intelligence artificielle n’en est encore qu’à ses débuts, un peu comme un enfant qui apprend à vivre en société. Espérons seulement que le passage à l’adolescence ne sera pas brutal.