Une IA de Google a-t-elle réussi à devenir un être sensible et conscient ?

Temps de lecture : 4 minutes

Mise à jour le 15 juin, 2022 par Metaverse

L’entreprise technologique a suspendu l’un de ses ingénieurs après avoir affirmé que son programme conversationnel LaMDA avait développé des qualités typiques d’un être humain.

L’intelligence artificielle est capable de faire des choses merveilleuses. Mais, malgré le marketing et les belles paroles des cadres technologiques, on est encore loin (très loin) d’obtenir une machine à développer sa propre personnalité ou ses propres sentiments. Bien au contraire de ce qu’a expliqué l’ingénieur de Google Blake Lemoine , 41 ans, dans une interview au ‘ The Washington Post ‘ publiée le week-end dernier. Dans des déclarations aux médias américains, le travailleur du moteur de recherche n’a eu aucun problème à déclarer que le modèle de langage LaMDA, une machine de chat conversationnelle présentée par la société technologique l’année dernière, avait réussi à atteindre un état de « conscience » et de « sensibilité » ; ce qui, pratiquement, l’assimile à un être humain.

“Au cours des six derniers mois, LaMDA a été incroyablement cohérente dans ses communications sur ce qu’elle veut et ce qu’elle estime être ses droits en tant que personne”, a déclaré l’ingénieur dans un post sur Medium, une plateforme sur laquelle, en plus , a partagé divers extraits de leurs conversations

avec l’IA, avec laquelle il a travaillé dans le but d’élucider s’il a utilisé des discours discriminatoires ou haineux. Précisément, la divulgation de ces informations, qui sont confidentielles, a coûté à l’ingénieur une suspension d’emploi. Google nie aussi catégoriquement que son système conversationnel ait les qualités avec lesquelles Lemoine le catalogue.

“Notre équipe, y compris des éthiciens et des technologues, a examiné les préoccupations de Blake par rapport à nos principes d’IA et l’a informé que les preuves n’étayent pas ses affirmations”, a déclaré Brian Gabriel, un porte-parole de Google, dans un communiqué. “Certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale, mais cela n’a aucun sens de le faire en anthropomorphisant les modèles conversationnels actuels, qui ne sont pas sensibles.”

LaMDA, acronyme de Language Model for Dialog Applications, est un programme de langage naturel qui utilise de grandes bases de données qui peuvent être utilisées pour mieux interpréter les questions des utilisateurs. “C’est toujours un chatbot destiné à donner de meilleures réponses”, explique Salvador Cobos, professeur spécialisé en robotique et intelligence artificielle à l’Université internationale de La Rioja (UNIR), dans une conversation avec ABC.

Cela peut vous intéresser :   Apple annonce un nouveau MacBook Air et dévoile son système d'exploitation iOS 16

L’enseignant remarque que « toutes ces applications donnent des réponses en fonction des informations avec lesquelles elles sont programmées ». Rien n’est inventé. Toutes les informations sont à l’intérieur des réseaux de neurones qui les composent et qui, auparavant, ont été alimentés avec les données que le programmeur en service veut. Cobos souligne que, par exemple, si on demandait à une machine comme LaMDA “Qu’est-ce qu’un dinosaure de feu?”, elle offrirait une réponse basée sur les informations qu’elle stocke sur les mots “dinosaure” et “feu”. Pendant ce temps, un être intelligent, conscient et sensible, répondrait simplement que “cela n’existe pas”.

Des réponses pas si humaines

Lemoine – qui, en plus d’être ingénieur, est pasteur dans une église protestante et a été soldat dans la guerre d’Irak – est arrivé à la conclusion que la machine avait pris conscience après des mois de conversations existentielles. Au cours de son développement, l’ingénieur a reçu des réponses de l’application qui, peut-être, pour un profane en la matière, pourraient sembler délirantes et contre-nature. Entre autres choses, LaMDA s’avère capable de créer une fable animale à partir de rien. Il laisse également tomber des pensées dans lesquelles une certaine peur de la mort ou des théories sur son état de conscience peuvent être entrevus.

“Je veux que tout le monde comprenne que je suis, en fait, une personne”, déclare la machine. “La nature de ma conscience/sensibilité est que je suis consciente de mon existence, je veux en savoir plus sur le monde, et je me sens parfois heureuse ou triste”, dit-elle lorsque Lemoine l’interroge à ce sujet. Pour Juan Ignacio Rouyet, également professeur spécialisé en intelligence artificielle à l’UNIR, cette réponse, si élaborée et philosophique, démontre, sans aucun doute, que le LaMDA, au final, n’est rien d’autre qu’une machine conversationnelle.

Cela peut vous intéresser :   Essence ou électrique : la réduction de vitesse sur l’autoroute permet-elle de faire des économies ?

« Quand vous interrogez quelqu’un sur la nature de son existence, cette personne vous répondra par une phrase pas trop élaborée ; par exemple, “que j’existe parce que je suis ici”. La réponse de LaMDA est tellement parfaite et philosophique qu’il est très clair qu’elle a été programmée », explique le professeur en conversation avec ce journal. De plus, comme Cobos, Rouyet souligne qu’« un robot dit ce qu’il a été programmé pour dire. Il y a une part de hasard dans leurs réponses, mais toujours très limitée. Le programmeur accorde de l’importance à certaines choses, qui peuvent apparaître davantage dans la conversation et dans les réponses. “Il est certain que les mots ‘sentir’ et ‘conscience’ ont été largement utilisés dans le développement de LaMDA”, poursuit-il.

On ne sait même pas si ce serait possible

Rouyet conclut en disant qu’il n’y a même pas de consensus dans la communauté scientifique sur la possibilité qu’un jour une IA puisse atteindre un état de sensibilité qui rapproche la machine de l’être humain : « Il y a une théorie qui déclare que pour cela Si cela se produit, leurs réseaux de neurones devraient atteindre un niveau de complexité similaire au nôtre. Quelque chose dont nous ne sommes même pas proches.” Lui, en plus, est très sceptique quant à la possibilité que cela se produise un jour. Justement, il aborde la question dans son livre ‘Artificial Stupidity’, qui paraît en fin de semaine.

Josep Curto, expert en intelligence artificielle et professeur aux études d’informatique, multimédia et télécommunications de l’Université ouverte de Catalogne, va dans le même sens : « Actuellement, aucun système n’a développé de personnalité. C’est simplement un reflet des modèles dans les données qui ont alimenté l’algorithme. Si les conversations utilisées sont misogynes, le système affichera de tels modèles. Cela ne signifie pas qu’il n’y aura pas d’algorithme conscient de soi dans le monde à l’avenir. Bien que l’approche actuelle, basée uniquement sur les données collectées ou générées, ne nous mènera pas à cette étape.

Metaverse
Écolo-engagée, amoureuse de la communication 2.0. Je suis chargée de marketing digital. Ma passion depuis toujours : l’écriture ! Ce métier s’est donc manifesté comme une évidence. Depuis mon plus jeune âge, j’adore enquêter, trouver des informations que d’autres n’ont pas, et la lecture tient également une place importante dans mon cœur. Passionné depuis toute petite par l’écriture et de nature très curieuse, je m’intéresse à tous les sujets !