Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog

L'Intelligence Artificielle est elle vraiment intelligente ?

15 Mai 2018, 18:34pm

Publié par Grégory SANT

L’Américain John Searle se demande dans son article «Minds, Brains and Programs» ce qui manque à l’ordinateur pour comprendre les informations qu’il manipule. Une sémantique.
Illustration: Tiffet L’Américain John Searle se demande dans son article «Minds, Brains and Programs» ce qui manque à l’ordinateur pour comprendre les informations qu’il manipule. Une sémantique.

Deux fois par mois, Le Devoir lance à des passionnés de philosophie et d’histoire des idées le défi de décrypter une question d’actualité à partir des thèses d’un penseur marquant.

Les intelligences artificielles (I.A.) sont aujourd’hui plus compétentes et performantes que l’être humain dans de nombreux domaines. Deep Blue est champion d’échecs depuis 20 ans, tandis qu’AlphaGo a récemment battu le meilleur joueur au monde de Go. De son côté, Watson, l’I.A. qui avait gagné à Jeopardy !, diagnostique mieux certains cancers qu’un médecin. Faut-il y voir l’émergence d’esprits d’un nouveau genre ? Siri, l’intelligence artificielle d’Apple, possède-t-elle des états mentaux ? Et Google Translate comprend-il le chinois ?

Photo: IVADO Le chercheur Martin Gibert s’intéresse notamment à l’éthique de l’intelligence artificielle et à la psychologie morale.

En 1980, lorsqu’il publie « Minds, Brains and Programs » (Esprits, cerveaux et programmes), c’est déjà le genre de questions qui tracassent le philosophe américain John Searle. Dans le style clair et précis propre aux philosophes analytiques, il présente en une quarantaine de pages du journal Behavioral and Brain Sciences un des plus célèbres arguments du XXe siècle : la chambre chinoise. En s’appuyant sur une expérience de pensée, il montre que ce n’est pas parce qu’un ordinateur est programmé pour avoir l’air de comprendre le langage qu’il le comprend réellement.

Le test de Turing

Tout commence avec une antichambre chinoise. Cela se passe en 1950 à Oxford, Angleterre. Alan Turing, le père de l’informatique, publie un article fondateur pour la recherche en intelligence artificielle. La question qu’il se pose : comment savoir si une machine est intelligente ? Et sa réponse tient à l’élaboration d’un test simple. Si, dans des conditions prédéfinies, une machine réussit à se faire passer pour un interlocuteur humain, alors on peut la qualifier d’intelligente.

Nous touchons là aux sciences cognitives, ce champ de recherche qui étudie de façon conjointe les cerveaux et les ordinateurs. Il s’agit d’expliquer et de modéliser des phénomènes comme la perception, le raisonnement, la conscience ou l’intelligence. Bien évidemment, cela n’est pas sans soulever d’autres interrogations : qu’est-ce qui, dans le fond, distingue les machines et les gens ? comment définir l’intelligence ?

Le test de Turing offre au moins une réponse négative : l’intelligence n’est pas définie par son « support ». Elle peut dès lors être aussi bien naturelle qu’artificielle. Elle peut sortir des neurones d’un cerveau tout autant que des circuits en silicium d’un processeur. Dans le test, c’est l’« effet » de l’intelligence sur des créatures intelligentes (nous) qui compte, pas sa nature physique. Turing adopte par là le « fonctionnalisme », une approche en philosophie de l’esprit qui soutient que les états mentaux sont définis par leur fonction, c’est-à-dire par leur rôle causal. Dans cette perspective, les cerveaux et les ordinateurs ne sont en définitive que deux systèmes de traitement de l’information. Ils suivent un programme qui produit des sorties (output) après avoir appliqué des règles de transformation sur des entrées (inputs).

À la fin des années 1970, plusieurs chercheurs estimaient que des programmes informatiques pouvaient passer le test de Turing ou, du moins, en étaient assez proches. C’est pour répondre à l’un d’entre eux, Roger Schank, que Searle a développé son argument. Il s’agit pour lui de montrer que les fonctionnalistes se trompent et que le test de Turing n’est pas un bon critère pour évaluer l’intelligence ou la conscience d’un ordinateur.

Si l’homme dans la chambre ne comprend pas le chinois en mettant en oeuvre le programme approprié, alors aucun ordinateur numérique ne peut non plus le faire sur cette seule base, car aucun ordinateur, en tant qu’ordinateur, n’a quelque chose que l’homme n’aurait pas

 

Siri, comprends-tu ce que je te dis ?

L’argument de Searle s’appuie sur une expérience de pensée devenue presque mythique. Imaginez qu’un homme qui ne parle aucun mot de chinois est enfermé dans une chambre. Il reçoit des idéogrammes correspondant à des questions. Il consulte alors des livres de règles qui lui indiquent comment répondre, en associant des symboles d’entrée à des symboles de sortie — mais sans lui révéler le sens de ces symboles. De quoi cela aurait-il l’air pour une interlocutrice sinophone extérieure à la chambre ? Si les réponses sont cohérentes, elle conclura qu’elle est face à une entité intelligente. Bref, la chambre chinoise aura passé avec succès le test de Turing.

Pourtant, l’homme ne comprend rien à ce qu’il traite ni à ce qu’il répond ; il n’a accès à aucun dictionnaire de traduction. « L’argument est le suivant : si l’homme dans la chambre ne comprend pas le chinois en mettant en oeuvre le programme approprié, alors aucun ordinateur numérique ne peut non plus le faire sur cette seule base, car aucun ordinateur, en tant qu’ordinateur, n’a quelque chose que l’homme n’aurait pas. » Il s’ensuit qu’on ne peut pas dire qu’un algorithme comprend les informations qu’il traite.

Affirmer cela revient aussi à refuser ce que Searle nomme la thèse de l’I.A. forte, à savoir l’idée qu’un ordinateur ou un algorithme, s’il est correctement programmé, « est » un esprit. Une I.A. forte serait consciente dans la mesure où elle comprendrait ce qu’elle fait et posséderait des états mentaux. Searle soutient au contraire la thèse de l’I.A. faible : les ordinateurs sont des outils qui peuvent simuler la pensée, mais ils ne la comprennent pas. Searle reprendra plus tard cette idée en affirmant que l’I.A. faible n’a pas de contenus intentionnels. Il veut dire par là qu’elle n’a pas d’états mentaux à propos du monde. Siri ne croit rien. Elle ne désire ni ne craint rien. Elle ne comprend rien.

Est-ce à dire qu’une machine ne peut pas penser ou que le cerveau humain est le siège d’une âme mystérieuse ? Non, répond Searle. On peut tout à fait envisager l’existence d’un esprit artificiel doté d’une conscience. Mais un tel esprit ne pourrait pas reposer uniquement sur un programme informatique — il aurait besoin d’autres éléments pour reproduire les propriétés physicochimiques du cerveau (on peut aussi penser, avec les partisans de la cognition incarnée, qu’il aurait besoin d’un corps).

Dans le fond, se demande Searle, qu’est-ce qui manque à l’ordinateur pour comprendre les informations qu’il manipule ? Ni plus ni moins qu’une sémantique. Contrairement à un esprit humain qui sait que le terme « mouche » signifie quelque chose et renvoie à un objet du monde, le programme informatique manipule des symboles formels, enchaîne éventuellement les calculs statistiques, mais n’a pas accès à leur signification. Autrement dit, un programme informatique ne contient rien de plus qu’une syntaxe (l’équivalent d’une grammaire). En fin de compte, explique Searle, si l’I.A. forte est un horizon lointain, c’est parce que « la syntaxe, par elle-même, ne peut suffire à constituer un contenu sémantique ».

Conjectures et réfutations

Dans son article de 1980, Searle répond aussi à plusieurs objections — il faut dire qu’il avait déjà présenté sa thèse dans différents campus et qu’il avait essuyé de nombreuses critiques. On lui a notamment fait remarquer que l’analogie était boiteuse. Certes, l’homme dans la chambre ne comprend pas le chinois, mais le « système », qui inclut les livres de règle et l’humain qui les applique, lui, pourrait bien le comprendre. Searle réplique en supposant que l’homme a appris par coeur l’ensemble des règles/programmes : il pourrait encore donner le change à une interlocutrice chinoise tout en ne comprenant rien à la conversation.

Une autre critique remet en question la fiabilité de notre intuition épistémique face à cette expérience de pensée. Comme le remarque le philosophe Daniel Dennett, dans la chambre chinoise, les choses se passent lentement : consulter des livres de règles, retranscrire une réponse. Par contraste, l’activation des neurones ou des processeurs est un processus ultrarapide. Et l’intelligence semble, au moins en partie, être une affaire de vitesse. Dès lors, comment être certain qu’à la longue, l’homme dans la chambre ne finirait pas par comprendre le chinois ?

Peut-être avons-nous seulement trop l’habitude d’associer compréhension et esprit humain pour admettre qu’une machine puisse réellement penser. On peut en tout cas facilement imaginer que des extraterrestres découvrant que notre cerveau est fait de « viande » resteraient incrédules devant sa capacité à produire une pensée authentique. Sommes-nous dans une position très différente lorsque nous n’acceptons pas que la chambre chinoise pense ?

Aujourd’hui encore, le dossier n’est pas clos. Si plusieurs philosophes reconnaissent que l’argument est valide, d’autres, comme Daniel Dennett, n’y voient pas une réfutation en bonne et due forme que l’I.A. comprend le chinois.

Qu’est-ce que ça change ?

On peut se demander quelle différence cela fait-il que Siri comprenne ou non ce que vous lui dites. Certes, c’est une question fascinante lorsqu’on s’interroge sur la nature de l’esprit. Mais d’un point de vue pratique, peu importe que l’intelligence des I.A. soit réelle ou simulée. Ce qui compte, après tout, n’est-ce pas simplement que Google Translate me permette de comprendre des interlocuteurs chinois ?

Reste que les I.A. ont parfois la capacité de décider et d’agir de façon autonome. Elles peuvent donc être des agents qui influencent nos vies — en bien ou en mal. Et qu’elles y comprennent quelque chose ou non, nous avons tout intérêt à les programmer de manière à ce qu’elles « partagent » nos valeurs morales.

Imaginez, pour finir, qu’une mouche se pose sur un mur de la chambre chinoise. Toutes choses étant égales par ailleurs, à qui devrait-on accorder le plus de considération morale ? À Siri qui ne ressent rien ou à la mouche dont on peut supposer qu’elle a des sensations agréables et désagréables ? Vous pouvez bien insulter Siri, la désinstaller ou simplement éteindre votre téléphone ; vous ne lui causerez aucun tort. Mais vous pourriez faire du mal à une mouche.

Commenter cet article