Les discours sur l’Intelligence Artificielle (IA) fleurissent,
notamment dans les médias grand-public, dans les prêches managériaux et même
dans les discours philosophiques. Il convient de distinguer les mythes et les
réalités, ce à quoi s’emploient des penseurs honnêtes mais souvent peu
entendus, il faut bien le dire. L’IA comme mythe d’ailleurs peut, comme tous
les mythes, aider à penser le réel : les machines de Matrix sont des
machines philosophiques redoutables en ce qu’elles reformulent les thèmes
classiques en philosophie de la « caverne » platonicienne et du
« malin génie » cartésien. La représentation des hommes asservis à
des machines toutes-puissantes est typique de l’imaginaire consubstantiel au
mode de production capitaliste et en tant quel pourrait être un élément
important d’une critique sociale sérieuse[1].
Mais ce n’est pas ce problème que nous voulons aborder pour l’instant. Il
s’agit de tenter de donner une définition rationnelle de l’IA, puis de
comprendre quelle importance elle a pour le développement actuel du capital et
enfin quel sens elle prend quand elle fonctionne comme idéologie.
Qu’est-ce que l’IA ?
L’histoire de l’IA est inséparable de celle de
l’informatique, c'est-à-dire de tous les traitements automatisés de
« l’information » (un terme que nous laisserons provisoirement dans
le flou). Traitement automatisé de l’information : cela désigne toutes les
formes de « mécanisation de la pensée ». il est difficile de définir un point de départ
des réflexions dans ce domaine. Par exemple, les moyens mnémotechniques des
« arts de la mémoire », de Simonide de Céos jusqu’à Giordano Bruno en
passant par Lulle partent de cette idée qu’une mécanique (en l’occurrence une
mécanique mentale) pourrait venir au secours de notre mémoire défaillante.
Lulle (1235-1316) part d’une expérience mystique : sur le mont Randa dans
l’île de Majorque, il aperçut d’un coup tous les attributs de Dieu qui
envahissent toute la création. De là il tira l’idée d’un « art
universel » basé sur ces attributs, réduits à neuf (bonté, magnanimité,
éternité, puissance, sagesse, volonté, vertu, vérité, gloire). Représentant
chacun par une lettre, il invente une sorte de machine qui permet de combiner
toutes ces lettres qui permettent de trouver et mémoriser les vérités divines.
Cette combinatoire abstraite est très éloignée de moyens mnémotechniques
classiques.
Tout cela peut paraître « tiré par les cheveux »,
mais l’idée que les processus intérieurs à la pensée humaine puissent d’une
certaine manière être objectivés dans des dispositifs matériels est
incontestablement l’une de ces présuppositions fortes sur laquelle est basée
l’IA. On fait un grand saut en avant quand Leibniz imagine sa
« caractéristique universelle » : comme les mathématiques
permettent de faire des calculs simplement en suivant des règles de
manipulation des caractères (par exemple dans une opération), Leibniz propose la
constitution d’une langue formelle semblable au symbolisme mathématiques mais
dans laquelle pourraient s’exprimer toutes les pensées clairement exprimées et
ainsi on pourrait remplacer toutes les difficiles disputes par un seul mot
« calculons ». Cette idée leibnizienne a trouvé une réalisation dans
l’algèbre de Boole (la logique des propositions) puis dans les divers langages
logiques comme l’idéographie de Frege, le formalisme de Russell et Whitehead
dans les Principia Mathematica, ou la
tentative d’une langue logique rigoureuse de Wittgenstein dans le Tractatus logico-philosophicus. Ajoutons
à cela la théorie des systèmes formels d’Emil Post ou l’arithmétisation de la
théorie des nombres que Gödel utilise dans la démonstration de son célèbre
théorème. L’IA est née sur ce terreau du développement de la logique et des
recherches sur la possibilité de mécaniser les raisonnements pour éviter les
erreurs de raisonnement, les paralogismes dans lesquels nous tombons si
facilement.
L’informatique elle-même est sortie de là. La « machine
de Turing » est directement issu des développements à partir des problèmes
de Hilbert. Pour la première fois un problème mathématique (le problème des
fonctions calculables) trouve une solution « technique » : une
fonction calculable est une fonction qui peut être calculée par une machine de
Turing qui « termine », même s’il faut un temps de calcul très long.
Bien avant que nous disposions des puissances de calcul phénoménales
d’aujourd’hui, est pensée l’idée d’une sorte d’homologie entre le calcul
logique effectué par un esprit humain et les opérations que l’on peut réaliser
avec une machine. Il n’y a eu aucun changement fondamental depuis. Les machines
« intelligentes » d’aujourd’hui sont des machines qui utilisent les
deux mêmes recettes : une mémoire de stockage illimité et des algorithmes.
Comme il y a un demi-siècle fleurissent les métaphores biologiques (réseaux de
neurones, algorithmes génétiques, etc.) qui parlent à l’imagination mais
rendent bien plus confuses les réflexions raisonnées.
On peut distinguer plusieurs types de machines
informatiques. Une machine traitement de texte est de prime abord une machine à
écrire ultra perfectionnée mais personne n’a songé à présenter Word ou SWriter
comme des programmes « intelligents », et pourtant au sens de l’IA ce
sont des programmes intelligents. La grande et peut-être seule vraie innovation
qui s’est développée avec le micro-ordinateur est le tableur, popularisé par
Lotus 1-2-3 aujourd’hui quasiment disparu. Ces machines bureautiques ont envahi
le monde du travail qu’elles ont parfois simplifié et souvent normalisé :
le PowerPoint est presque devenu un nom commun comme la mobylette ou le
frigidaire et il a fini par imposer « la pensée PowerPoint ». Il y a
une deuxième catégorie : les machines communicantes, c'est-à-dire
l’ensemble du réseau internet. Toutes ces machines sont déjà à leur manière des
« machines intelligentes ». Un retour trouve le meilleur chemin pour
acheminer une requête. Un traitement de texte « corrige » les fautes
d’orthographe, de grammaire, de ponctuation. Un tableur permet de comparer
aisément des scénarios. Un logiciel de retouches d’images analyse une image et
peut en séparer les composants, corriger la lumière, etc. L’IA est là comme elle
l’est depuis longtemps dans les systèmes automatiques d’aide au pilotage des
avions, dans les robots utilisés dans l’industrie et dans toutes machines qui
sont programmées pour réagir à des situations aléatoires. Elle se développe
avec la reconnaissance d’images, d’écriture et de voix ou encore les
« systèmes experts » spécialisés dans l’encodage des connaissances
humaines pour rendre aisé l’accès de ces connaissances à chacun ou pour déduire
automatique de « nouvelles » connaissances par le moyen de chaînages
logiques automatiques. Cybernétique et informatique : tout cela est de
l’IA. On peut encore dire que dès l’origine l’informatique est conçue comme une
intelligence « intelligence artificielle » puisque les premiers
ordinateurs étaient encore surnommés « cerveaux électroniques ».
Les IA sont des machines
En fait, on doit commencer par poser que l’IA en général, ça
n’existe pas. Existent des « machines IA » composée de processeurs,
de mémoires, de périphériques d’acquisition ou commandés et de programmes
spécifiques. Entre une machine qui lit un texte écrit (comme dans les systèmes
de vérification de Word), une machine qui reconnaît les visages pour autoriser
ou interdire l’accès (ce qui se fait de plus en plus sur les smartphones) et
une machine capable d’extraire de l’information pertinente d’un cliché IRM pour
détecter l’éventualité d’une tumeur cancéreuse, il y a de grandes différences.
Autant de différence qu’entre une moissonneuse-batteuse, un bulldozer, une
voiture de course ou une trottinette électrique ou une perceuse électrique.
Il est nécessaire de faire la distinction entre une machine
et un outil. L’outil est un simple prolongement de la main : le menuisier
travaille avec son maillet et son bédane pour réaliser son tenon. La scie
électrique est déjà une machine puisque la main ne fait plus que guider alors
que l’énergie provient du moteur électrique. Voilà une première distinction
possible. Une deuxième distinction pourrait s’imposer : l’outil est en
contact avec la main ou toute autre partie du corps alors que la machine ne se
meut qu’avec des parties intermédiaires entre le corps et la partie de la
machine qui agit effectivement. Une lance est outil, un propulseur est déjà une
machine, très élémentaire, minimaliste même, mais une machine tout de même.
Dans un sens plus ancien, une machine est une ruse (nous est resté
« machination », autre nom du complot), comme l’était le cheval de
Troie d’Ulysse. La machine est intimement liée à la metis grecque : cet art de la ruse qui permet de tromper les
autres, de simuler ou de déjouer la force de la nature. L’homme qui conçoit ce
cheval de Troie est celui même qui dit s’appeler « Personne » quand
il est capturé par le cyclope Polyphème. Polyphème devra même le constater
quand l’œil crevé il s’écrie : « c’est la ruse et non la force !
et qui me tue : Personne ! » (Odyssée, chant IX)
Donc les IA sont des machines qui permettent de ruser et de
décupler la force (intellectuelle) humaine tout comme un levier ou un palan décuple
sa force physique. Si on adopte un point de vue idéaliste, évidemment on se
trouve époustouflé par la puissance de ces « cerveaux électroniques »
alors qu’on est blasé devant la démultiplication de puissance que permet un
simple levier – qui devrait permettre de soulever le monde à condition que l’on
trouve un bon point d’appui. Une IA est machine très compliquée constituée d’un
très grand nombre de composants interagissant les uns avec les autres (les
millions de transistors qui constituent les processeurs et les mémoires) selon
une cadence très rapide. De ce point de vue, une telle machine est un concentré
d’intelligence humaine : intelligence de la conception d’ensemble,
intelligence des théories physiques qui ont permis de construire les
semi-conducteurs, intelligence des concepteurs de programme, et ainsi de suite.
Pourquoi les IA fascinent-elles plus que le levier ou la vis
d’Archimède ? Évidemment, parce qu’elles semblent accomplir des opérations
complexes réservées à l’esprit humain. Mais il est nécessaire de garder la
raison. Les machines à jouer de la musique (automates de Vaucanson, boîtes à
musique, liminaires) sont des machines qui imitent certaines fonctions d’un
être humain. Si les deux premières sont des machines câblées et capables
seulement de toujours répéter la même opération, le limonaire est une machine
plus perfectionnée puisqu’il dispose d’un programme sous forme de plaques
trouées qui peut être modifié à volonté. À la différence du phonographe et de
ses successeurs (lecteurs MP3 inclus), le limonaire « joue » et ne se
contente pas de transformer des signaux. Le métier à tisser Jacquard tisse des
motifs à la demande, en fonction du « programme » (là encore des
plaques perforées) qui lui est donné. On objectera à juste titre que ces
programmes exécutent les algorithmes les plus simples puisqu’il n’y a qu’une
suite d’instruction sans test ni boucle et a
fortiori sans appel récursif possible. Le projet de « machine
analytique » dite « le moulin) de Charles Babbage, projet qui ne fut jamais
mené à son terme aurait du être une machine mécanique programmable (entraînée
par une machine à vapeur !) qui préfigure le premier ordinateur.
Pour introduire ces fonctions dans une machine, il faut des
dispositifs qui permettent de tester (par exemple le thermostat qui permet de
définir jusqu’à quelle température on fait chauffer l’eau du lave-linge avant
de lancer le programme lavage. Il faut aussi des compteurs (exécuter A pendant
x cycles par exemple). On peut également ajouter des dispositifs de stockage
d’information réutilisable. On peut mettre en place des systèmes
d’autorégulation, comme le régulateur à boules inventé par Watt pour les
machines à vapeur. La machine devient maintenant très compliquée, mais c’est
une machine qui n’a rien de mystérieux et dont nous pouvons à chaque étape
contrôler l’organisation et le fonctionnement. L’ingénierie de telles machines
est précisément l’objet de la cybernétique. Le triomphe des machines numériques
n’est d’ailleurs qu’assez récent. Pendant très longtemps on a développé des
calculateurs analogiques qui sont devenus assez puissants avec l’invention des
amplificateurs opérationnels. Ces machines étaient particulièrement bien
adaptées pour traiter les systèmes d’équations différentielles. Dans les années
70-80 le CEA en France ou la NASA aux États-Unis disposaient de grands centres
de calcul analogiques. Ce n’est qu’à partir des années 80 que les machines
numériques ont affirmé leur supériorité en raison de leur polyvalence.
Les IA actuelles
On pourrait dire que toute machine à pilotage automatique
est une sorte d’IA. Elle est capable d’effectuer la tâche pour laquelle elle a
été conçue sans l’intervention d’un pilote humain. Mais les machines les plus
fascinantes semblent évidemment non pas celle qui agissent (comme le
programmeur du lave-linge) mais celles qui semblent produire de la
connaissance. « Qui semblent » : en tant que telles les machines
ne produisent aucune connaissance mais seulement des signaux qui nous apportent
de la connaissance. Si je monte les interrupteurs A et B d’une lampe en va-et-vient,
si j’appuie l’interrupteur A alors que lampe est éteinte, elle va s’allumer et
si j’appuie sur B, elle va s’éteindra. Si nous avons convenu s’assigner à A la
fonction F, B pourra alors être assigné à non-F. Un interrupteur monte
en-va-et-vient est analogue à un inverseur logique (l’opération « négation
qui à F fait correspondre non-F). Mais les interrupteurs ni la lampe ne sont
des machines logiques par elles-mêmes, elles sont des machines conçues pour
être dans le fonctionnement analogues aux opérations logiques que fait le
cerveau humain, de la même façon qu’un amplificateur opérationnel monté
convenablement peut me donner en sortir la dérivée de la tension sinusoïdale
envoyée en entrée, sans que nous puissions dire que l’amplificateur
« sache effectuer » le calcul d’une dérivée. Pour ces exemples très
simples, on ne trouvera pas beaucoup d’esprits assez faibles pour parler de
l’intelligence des interrupteurs ou des amplificateurs opérationnels : on
voit immédiatement qu’ils ne sont pas plus intelligents que le boulier, la
« pascaline » ou le régulateur à boules de Watt.
Il en va peut-être autrement avec les machines IA qui font
l’actualité, parce que leur complexité dépasse vite notre imagination et que
l’imagination est limitée, à la différence de la capacité de conceptualisation
dont nous n’éprouvons pas les limites – Descartes faisaient remarquer que nous ne
pouvons pas nous faire l’image d’un chiliogone alors que nous n’avons aucun mal
à concevoir un polygone à mille côtés. Les machines IA actuelles sont de divers
types. Il y a d’abord tous les systèmes appelés « systèmes-experts ».
Le système-expert le plus simple est composé d’une base de connaissances (qui
est susceptible d’évoluer) et qui résulte d’abord de l’expertise humaine, et
d’un moteur inférence qui permet de chaîne logiquement les propositions
contenues dans la base de connaissances. Des langages informatiques comme le
langage PROLOG ont été explicitement conçus pour implémenter la logique
quantifiée (ordre 1). Les machines IA sont ensuite les machines capables de
jouer à des jeux humains : machines à jouer aux échecs et tout récemment
machine à jouer au go, un des jeux les plus compliqués qui soient (il y a environ
10620 partie possibles) bien que ses règles de base soient très
simples. Ce sont enfin les systèmes de reconnaissance (images, formes, son,
paroles, écriture, etc.) … mais aussi les moteurs de recherche sur le WEB ou
les programmes de gestion du net ou du trafic routier.
Toutes ces machines supposent que soient élucidés deux types
de problèmes : d’une part, la représentation des données en niveaux
d’abstractions superposés et d’autre part les algorithmes de calcul. Les
progrès décisifs ont pu être accomplis grâce à l’augmentation des capacités des
mémoires qui permettent l’accès à des données massives (« big data »)
et grâce à la puissance de calcul des machines. La machine « alphago zero » qui a réussi à
battre la machine précédente qui elle-même battait les meilleurs joueurs de go
du monde est devenue championne en jouant contre elle-même des millions de
parties en trois jours. L’avantage de l’énorme puissance de calcul est ici
évident. C’est cette puissance énorme qui permet la mise en œuvre des processus
d’auto-apprentissage (ce qu’on appelle deep
learning). Sans entrer dans le détail, ces systèmes reposent très largement
sur des algorithmes sélectionnistes : on génère (aléatoirement) des suites
d’instruction et on élimine progressivement celles qui échouent (c’est une
application des principes sélectionnistes darwiniens) et ce qu’on appelle
auto-apprentissage n’est jamais autre chose que ce type de procédé basé sur
l’induction.
Toutes ces techniques dites « intelligentes » le
sont seulement si on réduit le mot intelligence à sens anglais : comment
obtenir des renseignements ? Mais aucune machine intelligente n’a
manifesté l’intelligence ne serait-ce que d’un enfant en bas âge, si on entend
intelligence en français dans le sens de capacité de comprendre, de
« prendre avec soi », mais aussi astuce, intuition et créativité. Les
anglo-saxons et nous à leur suite ont distingué une IA faible et une IA forte. L’IA
faible regroupe toutes les techniques informatiques que l’ont peu mettre au service
de l’homme, alors que l’IA forte est fondée sur le projet de construire une
machine capable d’imiter de mieux en mieux les capacités intellectuelles d’un
humain. Le problème est que l’IA faible
est souvent conçue simplement comme le précurseur de l’IA forte qui nourrit tous les espoirs, tous les fantasmes et toutes
les craintes plus ou moins vaines.
Les limites de l’IA : Searle
L’efficacité de ces techniques dites d’IA est patente et on
a tendance à croire que leurs limites actuelles ne sont que provisoires et
pourraient être dépassées par le progrès des méthodes et la puissance des
machines. C’est pourtant une simple croyance qu’on aura bien du mal à étayer. Parce
qu’une machine pourra effectuer un nombre d’opérations arithmétiques et
logiques (au fond un ordinateur ne fait que cela) de plus en plus
impressionnant et parce qu’elle disposera de capacités de stockage des données
dépassant aujourd’hui notre imagination, pourrait-on déduire qu’elle est
devenue intelligente ? Un cerveau humain, après tout, n’a que de faibles
capacités de stockage des données (c’est la raison pour laquelle nous avons
inventé toutes sortes de dispositifs qui servent de prothèses à notre
défaillante mémoire) et notre vitesse de calcul est plutôt faible : l’impulsion
nerveuse se propage environ à 300 m/s alors que les signaux électriques dans un
circuit information se propagent avec des vitesses de l’ordre de celle de la
lumière soit 300.000 km/s. Donc l’ordinateur est 106 fois plus
rapide que le cerveau humain ! Il y a, à l’évidence, une différence
essentielle entre le cerveau humain et l’ordinateur, entre l’intelligence
humaine et la prétendue « intelligence artificielle » des machines.
Ce qui pose d’abord la question des limites réelles de l’IA.
On peut fixer, plus ou moins arbitrairement des tests pour
savoir une machine IA « pense ». Le plus connu est le fameux
« test de Turing » dont on retrouve une version sophistiquée dans le
roman de Philip K. Dick, Est-ce que les
androïdes rêvent de moutons électriques ? adapté au cinéma par Ridley
Scott sous le titre Blade Runner. Le
principe est le suivant : si, dans une conversation tenue via un système
de télécommunication, on ne peut pas distinguer la machine d’un interlocuteur
humain, alors on pourra dire que la machine pense. Searle consacre de longs
développements à la critique du « test de « Turing » afin de
montrer que ce test ne peut pas prouver que les machines pensent.
Résumons l’argumentation de Searle. Il invente un autre
test, sur le modèle de celui de Turing : une personne totalement ignorante
de la langue chinoise est enfermée dans une pièce et communique par écrit avec
un locuteur chinois situé à l’extérieur. Celui qui est enfermé dans la pièce
dispose d’un catalogue de règles syntaxiques qui lui permet de choisir les
caractères qui seront nécessaires pour répondre à telle question formulée en
caractères chinois. Il raconte ainsi la genèse de son « expérience de
pensée » :
J’ai acheté un manuel au
hasard, dont la démarche argumentative m’a sidéré par sa faiblesse. Je ne
savais pas alors que ce livre allait marquer un tournant dans ma vie. Il
expliquait comment un ordinateur pouvait comprendre le langage. L’argument
était qu’on pouvait raconter une histoire à ordinateur et qu’il était capable
ensuite de répondre à des questions relatives à cette histoire bien que les
réponses ne soient pas expressément données dans le récit. L’histoire était la
suivante : un homme va au restaurant, commande un hamburger, on lui sert un
hamburger carbonisé, l’homme s’en va sans payer. On demande à l’ordinateur : «
a-t-il mangé le hamburger ? » Il répond par la négative. Les auteurs étaient
très contents de ce résultat, qui était censé prouver que l’ordinateur
possédait les mêmes capacités de compréhension que nous. C’est a ce moment-là
que j’ai conçu l’argument de la chambre chinoise : Supposons que je sois dans
une pièce fermée avec la possibilité de recevoir et de donner des symboles, par
l’intermédiaire d’un clavier et d’un écran, par exemple. Je dispose de
caractères chinois et d’instructions permettant de produire certaines suites de
caractères en fonction des caractères que vous introduisez dans la pièce. Vous
me fournissez l’histoire puis la question, toutes deux écrites en chinois.
Disposant d’instructions appropriées, je ne peux que vous donner la bonne
réponse, mais sans avoir compris quoique ce soit, puisque je ne connais pas le
chinois. Tout ce que j’aurais fait c’est manipuler des symboles qui n’ont pour
moi aucune signification. Un ordinateur se trouve exactement dans la même
situation que moi dans la chambre chinoise : il ne dispose que de symboles et
de règles régissant leur manipulation. (Entretien avec la revue « Le
Débat »)
Searle critique ici implicitement deux conceptions
classiques (mais erronées) en psychologie : le comportementalisme
(behaviourisme) et le fonctionnalisme. L’idée de Turing est en effet qu’un ordinaire
peut être dit pensant s’il est capable de se comporter comme un être pensant
ordinaire, à savoir un humain. Cette idée se double d’une autre : si un
ordinateur est capable d’accomplir les mêmes fonctions qu’un cerveau humain,
alors nous n’avons pas de raison de lui dénier la qualité d’être pensant.
Les comportementalistes considèrent que l’esprit est une
sorte de « boîte noire » et que seuls peuvent être investigués les
rapports entre stimuli et réponses (entrées/sorties). Un comportementaliste soutiendra
que je n’ai aucune preuve que les autres pensent sinon par le fait que leur
comportement peut être interprété en termes de pensées. Que du point de vue
cognitif, nous soyons plus ou moins réduit à l’observation des autres pour
savoir s’ils pensent ou s’ils sont des machines bien faites, c’est déjà
discutable. Tout d’abord, nous avons en fait plus de raisons de prêter la
capacité de pensée au poisson rouge qui tourne dans son bocal ou à la poule qui
traverse la route devant les autos qu’à un ordinateur. Nous prêtons aux animaux
des capacités de sentir que nous ne prêtons pas aux choses inertes. Maurice
Merleau-Ponty a écrit à ce sujet des développements plutôt irrésistibles.
L’expérience que nous faisons des autres vivants n’est en rien une expérience du
même type que celles que nous avons face aux choses. C’est une expérience
première, antérieure à tout réflexion : je n’ai pas eu besoin de faire
toutes sortes d’observations pour en tirer la conclusion « ce poisson
rouge est vivant ». Ceci vaut a fortiori
pour les autres êtres humains. Dans une lettre au marquis de Newcastle 16
novembre 1646, Descartes demande comment nous faisons pour distinguer un homme
d’un animal ou d’une machine bien faite. La réponse de Descartes à cette
question tient en un argument : nous reconnaissons l’homme doué d’une âme
capable de penser à ceci qu’il peut tenir une conversation, prononcer des
« paroles, ou autres signes faits à propos des sujets qui se présentent,
sans se rapporter à aucune passion ». L’inventeur du test de Turing est
bien Descartes ! Mais l’illustre philosophe se trompe
vraisemblablement : je n’ai pas besoin de tenir une conversation « à
propos » avec un locuteur chinois muet pour savoir qu’il est un humain
comme moi et que donc il a comme moi une âme alors que mon ordinateur n’a pas
« d’âme », lui qui paraît savoir tant de choses et peut donner des
réponses à une foule de question dont mon ami chinois ignore tout.
Merleau-Ponty emprunte une autre direction que celle de Descartes : selon
lui, il faut concevoir la conscience comme « être au monde » ou comme
« existence ». Parce que la vision me donne comme un regard en prise
sur le monde, il peut y avoir pour moi un regard d’autrui, « cet
instrument expressif que l’on appelle un visage peut porter une existence comme
mon existence est portée par l’appareil connaissant qu’est mon corps. » Il
y a dans la rencontre d’un autre humain une sorte d’intuition qui fait que je
donne sens à ses mimiques, à ses gestes, que je considère ses postures, ses
actions comme des actions qui sont des possibles pour moi. « L’évidence
d’autrui » dont parle Merleau-Ponty procède d’une relation interne qui
découle précisément de ce que nous sommes des corps expressifs de la même
manière.
Encore une fois, tout cela ne découle pas de la réflexion.
Ce n’est parce que je compare les mimiques d’autrui aux miennes que j’en déduis
par association qu’il doit avoir les mêmes états mentaux que moi quand j’use de
ces mimiques. Mais ce raisonnement par analogie ne peut expliquer que nous percevions
les sentiments des autres dans des mimiques ou des attitudes que nous n’avons
jamais eues ni observées. Comment les petits enfants apprendraient-ils s’il
fallait qu’ils mettent en œuvre ces raisonnements par analogie ? Il y a
quelque chose de préréflexif dans ce rapport à l’autre.
Ainsi la psychologie comportementaliste, qui plaît tant aux
scientifiques obnubilés par le modèle des sciences de la nature, manque-t-elle
l’essentiel, à savoir la subjectivité, ce primat de toute connaissance du monde
extérieur. Il n’en va pas mieux avec l’approche fonctionnaliste. Le
fonctionnaliste consiste à étudier les fonctions qui sont accomplies dans tout
dispositif que l’on pourrait qualifier d’intelligent, indépendamment du support
de cette intelligence. L’approche fonctionnaliste fut d’abord celle de Jerry
Fodor (notamment avec sa théorie modulaire de l’esprit) et de Hilary Putnam et
l’on doit remarquer que tous les deux, aux termes d’un travail sérieux en
viennent à critiquer leurs propres conceptions. Fodor écrit L’esprit, ça ne marche pas comme ça qui
est une critique radicale de la TCE (théorie computationnelle de l’esprit), la
théorie même de Fodor qui repose sur deux piliers : le caractère
computationnel de l’esprit (il traite des fonctions logiques) et son caractère
modulaire : il est composé de modules indépendants accomplissant chacun sa
propre tâche. Fodor dans dernier ouvrage critique ces deux piliers :
l’esprit accomplit bien d’autres choses que des fonctions logiques. Le problème
de l’abduction, par exemple, réfute et le caractère logique et la modularité.
Plus généralement, le fonctionnalisme est un type d’approche fort critiquable. L’explication
en termes de fonction n’est pas une explication puisqu’elle ne permet pas de
saisir les causes d’un phénomène. Elle peut s’apparenter aux explications par
les causes finales dont le rejet a permis la constitution des sciences modernes
de la nature.
SI l’on refuse et le comportementalisme et le
fonctionnalisme, il ne reste plus grand-chose de l’expérience de Turing (test
de Turing) et donc la question de la possibilité d’une intelligence
artificielle analogue à l’intelligence humaine devient très problématique. Distinguons
l’IA faible comme ensemble de techniques auxiliaires utilisables par l’homme
(systèmes experts, etc.) et l’IA forte comme intelligence créatrice et capable
d’intuitions. Au total, Searle, par son expérience de la « chambre
chinoise » ne prouve pas que l’IA « forte » est une
impossibilité. Il donne seulement de bons arguments pour refuser le test de
Turing comme test discriminant ultime.
On peut résumer ainsi les conclusions de Searle par quelques
propositions que nous devons admettre :
(1)
Les programmes informatiques sont formels
(syntaxiques). En fait ils n’indiquent que les opérations à effectuer et dans
quel ordre.
(2)
Les pensées humaines ont un contenu mental
(elles ont une sémantique). Deux phrases différentes du point de vue du
vocabulaire ou de la syntaxe peuvent avoir le même contenu mental (la même
référence) et inversement deux phrases identiques peuvent avoir des contenus
sémantiques différents, sans parler du problème de l’obscurité référentielle.
(3)
La sémantique n’est pas réductible à la syntaxe
et la syntaxe ne peut donner accès à la sémantique. La phrase « beaucoup
de gens croient à tort que Galilée a été brûlé parce qu’il soutenait la
rotondité de la Terre » est ambiguë du point de sémantique ; est-il faux
de croire qu’il a été brûlé ou qu’il défendait la rotondité de Terre … ou les
deux.
(4)
Et cependant c’est l’activité du cerveau qui
engendre la pensée. Cette dernière proposition est évidente par elle-même.
On peut résumer ainsi les conclusions de Searle :
(1)
les programmes ne sont ni constitutifs de la
pensée ni suffisants pour la produire.
(2)
tout système capable d'engendrer des pensées
devrait posséder un pouvoir causal au moins équivalent à celui du cerveau. Or,
aucun ordinateur ne possède le pouvoir causal d’un cerveau humain et pas même
celui d’un cerveau de chimpanzé ou de mouton.
(3)
un système artificiel ne produira de phénomène
mental que s'il reproduit les pouvoirs spécifiques déterminants du cerveau. Du
même coup, si l’on pouvait produire artificiellement une telle chose, elle
aurait aussi les mêmes défauts de le cerveau et n’aurait aucun intérêt.
(4)
la formation des phénomènes mentaux dans le
cerveau ne résulte pas seulement de l'exécution d'un programme informatique.
Elle suppose un rapport au monde qui s’appelle précisément subjectivité.
Pour Searle, l’opposition entre syntaxe et sémantique est
l'opposition fondamentale. Les machines ne traitent que la syntaxe, pas le sens.
Une machine ne se bloque jamais parce que ce qu’elle « dit » est
insensé mais uniquement parce qu’il y a eu une erreur de syntaxe dans la
programmation, c’est-à-dire une erreur de fonctionnement de la machine. Si
j’écris la célèbre phrase de Chomsky : « les vertes idées incolores
dormaient furieusement », cette phrase ne provoque aucune réaction de mon
analyseur syntaxique et pour cause : elle est syntaxiquement
impeccable ! En revanche, un humain verra très vite soit que cette phrase
n’a pas de sens, soit qu’elle vise quelque effet poétique – un peu comme dans
le poème du Jabberwocky dans Alice de
Lewis Caroll. Que les machines soient incapables de traiter cela découle d’une
raison fondamentale. Les machines ne peuvent effectuer que des opérations
logiques alors que le sens ne peut être déduit de la logique tout simplement
parce qu’il n’y a pas de logique formelle au-delà de la logique des
propositions (ou logique d’ordre 2), c'est-à-dire au-delà d’énoncés qui
obéissent au principe d’analycité, c'est-à-dire d’énoncés dont la valeur
logique ne dépend que de la valeur logique des composants de ces énoncés. Or
cette logique formelle, quelle que soit sa puissance, ne peut rendre que d’une
mince couche des énoncés linguistiques.
Le sens suppose la représentation du monde et de soi dans le
monde. Mais une machine n’étant pas un « soi » du fait qu’une machine
n’est qu’un assemblage de parties extérieures les unes aux autres, elle ne peut
donc pas avoir de « soi » et ne possède donc aucune représentation
d’elle-même ni du monde et encore moins d’elle-même dans le monde. Searle
distingue parmi toutes choses matérielles celles qui ont une existence
objective et celles qui n’existent que pour un cerveau capable de se les
représenter. La douleur que je ressens est « ontologiquement subjective »
et elle n’est pas susceptible d’une représentation objective.
Le problème de l'intentionnalité est au centre de la
réflexion de Searle. Il découle de ce caractère essentiel de l’esprit qu’est la
subjectivité et du fait que la subjectivité est irréductible à l’objectivité –
très vieille affaire : on ne passe pas par simple substitution du « je »
au « il ». L’affirmation « je pense » est radicalement différente
de l’affirmation « L’homme pense » ou « Descartes pense ».
L’intentionnalité exprime le fait qu’une action ou une chose n’a aucune valeur
par elle-même mais qu’est « au sujet de quelque chose » (elle a une aboutness comme disent les
anglo-saxons). On pourrait être tenté de voir dans ce privilège donné à
l’esprit humain le retour chez Searle d’un dualisme de type cartésien : il
y a d’un côté des corps mécaniques obéissant à la nécessité des lois de la nature
et de l’autre des âmes libres. Mais ce n’est pas le cas pour Searle. Pour lui
le cerveau est une chose naturelle et l’esprit n’est rien d’autre que
l’activité du cerveau. Mais d’une part, il y a une différence de nature entre
les choses « inertes » et les êtres vivants et d’autre part, à
l’intérieur du règne du vivant il y a également plusieurs sauts qualitatifs.
Searle peut être rattachés au courant partisan de l’« émergence »,
c'est-à-dire ceux qui pensent qu’il y a dans la nature des niveaux d’organisation
différents et les propriétés d’un certain niveau ne s’expliquent pas ou pas
toujours par les propriétés des composants de plus bas niveau. Il y a donc des
propriétés qui émergent à un certain niveau d’organisation et qui sont des
propriétés de l’organisation elle-même. La conscience, sous le nom de
l’intentionnalité, serait précisément quelque chose qui émerge à un haut niveau
de complexité neuronale. Searle pense qu’en suivant cette voie on pourrait
construire une théorie naturaliste de la conscience qui reste sur une solide
base matérialiste sans tomber dans le cognitivisme ou la théorie
computationnelle de l’esprit.
Simuler n’est pas comprendre
Revenons maintenant sur le fond de l’argumentaire de Turing.
Il réside en ceci : si une machine peut simuler la pensée au point qu’elle
trompe un humain, alors cette machine pense. Derrière cette affaire il y a une
question épistémologique essentielle. Nous travaillons fréquemment avec des
modèles, c'est-à-dire des idéalisations d’une partie du réel de sorte que l’on
puisse se faire une idée de la manière dont les choses pourraient réellement et
en vue de faire des prédictions qui confirmeront ou non la validité du modèle.
Une machine peut servir de modèle à une théorie scientifique – ainsi la machine
à vapeur, modèle de la thermodynamique. La modélisation fonctionne beaucoup à
l’analogie : on construit quelque chose que l’on maîtrise pour tenter de
prédire par analogie ce qui devrait se passer sans cette portion du réel que
l’on veut comprendre. Mais ce modèle peut vite se révéler encombrant et même,
dans certain cas devenir un véritable obstacle épistémologique (voir Gaston
Bachelard, La formation de l’esprit
scientifique). Le modèle ptolémaïque du monde, qui semblait parfaitement
intuitif a dû être rejeté. Le modèle de l’atome de Rutherford a été remplacé
par celui que l’atome de Bohr. Ces modèles permettent d’établir une
cartographie du réel et comme toutes les cartes ils permettent aussi, s’ils
sont de bons modèles, de naviguer. L’intelligence artificielle fonctionne en
partie comme un modèle du fonctionnement neuronale et ceux pour autant que l’on
peut assimiler le cerveau à une machine du type ordinateur. Mais on doit savoir
que lorsqu’on « imite » sur une machine un certain nombre
d’opérations dont est capable un cerveau humain, tout d’abord on ne sait pas
pour autant comment fonctionnement réellement cerveau et en second lieu on ne
« cartographie ainsi qu’une très mince partie de l’ensemble du cerveau.
Comme toujours, la carte n’est pas le territoire !
Inversement quand on étudie le fonctionnement biologique du
cerveau, on peut corréler une opération dont un sujet peut donner une
description verbale et un agencement d’opérations physico-chimique dans les
neurones, mais rien de plus. On peut demander à sujet d’effectuer une opération
(par exemple une suite de multiplications) et pendant ce temps enregistrer par
un système d’imagerie médicale ce qui se passe dans le cerveau. Mais on ne voit
pas sur l’écran la multiplication – par exemple on ne voit pas l’erreur de
calcul qu’a fait notre sujet (par exemple, il a compté 9x8=54) et évidemment on
n’a absolument aucune idée de ce qu’il faudrait faire dans le cerveau, quel
neurone stimuler par exemple, pour éviter cette erreur de calcul. En observant
le cerveau on peut comprendre la physiologie du cerveau mais pas l’arithmétique,
tout simplement parce que l’arithmétique n’est pas une question de physiologie,
même si en dernière analyse, ce sont bien des cerveaux humains qui ont fini par
inventer l’arithmétique. On ajoutera que les cerveaux humains n’ont inventé
l’arithmétique quand leurs rapports avec le monde extérieur et on devrait pour
être plus précis dire non que l’arithmétique est une invention des cerveaux
humains mais plutôt que l’arithmétique a émergé du rapport entre des humains
vivants et dotés de cerveaux et leur environnement vital, leur écoumène.
Quant à ce qu’on appelle en informatique « réseaux de
neurones formels » ou « réseaux neuronaux », c’est simplement
une analogie du même genre que celle qui a conduit à parler de « courant
électrique » par analogie avec de l’eau circulant dans un tuyau… ou comme
lorsque l’on parlait de « cerveaux électroniques » pour désigner les
premiers ordinateurs.
Maintenant voyons le problème sous une autre face : la
machine peut simuler une opération mentale, mais qu’elle simule ne signifie
absolument pas qu’elle « fasse » cette opération mentale. Elle n’est
aucunement active. Quand mon logiciel de traitement de texte souligne une
erreur de grammaire dans une phrase que je viens de taper, cela ne veut pas
dire « quelqu’un » s’est rendu de quoi que soit. Ne sont passées que
des opérations physiques, complexes, mais que l’on pourrait décomposer en
opérations simples, c'est-à-dire en changement d’états des mémoires à chaque
avancée du top d’horloge des microprocesseurs cachés à l’intérieur de ma
machine. On peut louer autant que l’on veut l’intelligence des programmeurs qui
ont ce correcteur de grammaire, il n’y a pas pour autant dans la machine
d’autre intelligence que celle des programmeurs.
Le langage naturel n’est pas formalisable
L’un des pierres de touche de l’IA concerne la
reconnaissance des phrases énoncées en « langage naturel ». Dans la
même catégorie de problèmes, on trouve la très vieille question de la
traduction automatique. Ces deux questions montrent en même temps et la puissance
des IA dédiées et l’incapacité essentielle d’une IA à réussir à 100% le test de
Turing, c'est-à-dire à imiter si bien un interlocuteur humain qu’elle tenir
avec lui une conversation « à propos des sujets qui se présentent », comme
le disait Descartes dans la lettre au marquis de Newcastle déjà citée. Si nous
reprenons le propos de Descartes, il dit quelque chose d’important. Pourquoi l’homme
n’est-il pas simplement une machine bien faite ? Parce qu’il parle, répond
Descartes et cette parole atteste de l’existence d’une âme (qui n’est que de la
pensée en acte) alors que les signaux qu’émettent les animaux ne sont dus qu’à
leurs « passions » et peuvent recevoir une explication physico-chimique.
Même si l’on n’adhère pas – et c’est mon cas – au dualisme cartésien, on doit
néanmoins reconnaître que le langage articulé présente un saut qualitatif considérable
dans le processus évolutif. On peut même dire que cette parole intelligente est
l’avantage adaptatif décisive qui a permis la survie du genre homo – et peut-être pas seulement de l’homo sapiens puisque l’on est à peu certain
aujourd’hui que nos ancêtres habilis,
qui vivaient voilà plus d’un million d’années, possédaient une aire de Broca (l’aire
cérébrale dédiée au langage) et un cerveau fonctionnellement dissymétrique, deux
caractéristiques dont nous pensons qu’elles sont nécessaires dans l’apparition
de l’intelligence humaine. Ainsi la question : « les machines
peuvent-elles parler ? » est-elle une question décisive comme le fut
en son temps la question : « les bêtes brutes peuvent-elles parler ? ».
Comme les IA sont des machines procédurales logiques, la
question peut se transformer en celle-ci : peut-on réduire la parole
humaine à un langage formel comme la logique puisque la logique peut être
implémentée sur une machine électronique (ou tout autre machine isomorphe à une
machine électronique. À cette question, on doit apporter une réponse négative
et ce pour plusieurs raisons.
La première est peut-être la plus importante est la
plasticité du langage humain dans son expression et la plasticité dans sa
compréhension. Cela peut paraître paradoxal : lorsque Leibniz imagine sa « caractéristique
universelle », il cherche à créer un langage de caractères (sur le modèle
du symbolisme mathématique) qui nous débarrasse des ambiguïtés et des malentendus
du « langage naturel ». Si l’on peut créer un tel langage, pense Leibniz,
alors tous les raisonnements ambigus et confus en matière de morale ou de droit
pourront être remplacés par un seul mot « calculons ! ». C’est
le projet leibnizien que l’on retrouve dans l’idéographie de Frege. Ces
langages formels (par exemple le formalisme de la logique des prédicats) sont
parfaitement adaptés pour modéliser les raisonnements logiques, c'est-à-dire tous
ceux qui sont calculables mais buttent dès que nous voulons modéliser des
raisonnements moins formels, par exemple les syllogismes incomplets (enthymèmes)
où l’une des prémisses est sous-entendue. Et quand il n’y a pas de raisonnement
du tout, c’est encore pire ! Il y a des occasions dans la vie où nous énonçons
des vérités sans avoir de raisons particulièrement convaincantes en faveur de
ces assertions. On dira que ce ne sont pas vérités mais de simples opinions, ce
qui est parfaitement exact, mais linguistiquement elles sont énoncées comme des
vérités.
Aucun langage formel ne peut fournir une description précise
de tout ce que peut exprimer la parole humaine naturelle. Prenons par exemple l’énoncé :
« Jeanne se prépare à commander mais, comme d’habitude, Pierre est en
retard ». Cet énoncé est composé de deux énoncé « atomique », p :
« Jeanne se prépare à commander » et q : « comme d’habitude,
Pierre est en retard ». Ces deux énoncés sont reliés par la conjonction « mais »
en français, laquelle n’est pas autre chose qu’un « et » logique. En effet
la valeur de vérité de l’énoncé dépend et ne dépend que de la valeur de vérité
des deux énoncés atomiques et cet énoncé est vrai si et seulement si p et q
sont vrais simultanément. Le problème est le que « et » logique est
logiquement équivalent au « mais » français, mais il ne l’est pas du
point de vue du sens. Et si logiquement, je ne peux rien tirer de l’énoncé, je
peux du point de vue de la sémantique en tirer beaucoup de conclusions, par exemple
que Jeanne doit être maintenant excédée par les retards systématiques de
Pierre, ou que, fataliste, elle se dise : « il est comme ça, on ne le
refera pas », etc. Tout ce que je peux émettre comme hypothèses vient de
ma capacité à me projeter dans l’esprit de Jeanne, parce que Jeanne est un être
vivant comme moi et qu’elle vit d’une même vie intérieure que moi, puisque j’ai
une approche immédiate, préréflexive de Jeanne (cf. Merleau-Ponty) ce qu’aucun programme
informatique ne pourra jamais faire. On peut certes simuler tout cela, c'est-à-dire
développer un programme qui disposera dans sa mémoire d’un répertoire des mots
exprimant les sentiments humains. On peut construire toutes les simulations que
l’on veut, mais ce ne seront jamais que des simulations informatiques, c'est-à-dire
des faux-semblants.
La plasticité du langage repose sur la capacité du locuteur
à comprendre le contexte. SI je dis « la petite brise la glace »,
cette phrase ne peut se décomposer grammaticalement qu’en fonction du contexte
puisqu’elle peut indifféremment considérer que le verbe « brise » ou « glace ».
Il faut donc une compréhension (donc une sémantique) du contexte pour
déterminer quelle lecture on doit faire de cette brève phrase. Il existe
également des phrases logiquement absurdes que nous comprenons pourtant très
bien : « j’ai mal à tes dents » veut seulement dire que je
partage (métaphoriquement !) ton mal de dents. On pourrait continuer ainsi
très longtemps. La philosophie analytique a produit sur ces questions des milliers
de pages.
Frege a montré une différence essentielle entre la logique
et la parole humaine : la logique est comme une règle et la parole comme
la main. Avec la main seule on a du mal à tracer des traits droits et donc la
règle est très utile, mais quand il s’agit de dessiner les contours de la
feuille d’un arbre, la règle ne sert plus à rien. Il en va de même de la
logique : elle très utile pour raisonner droit et valider nos
raisonnements (ou dénoncer nos paralogismes) mais elle est totalement inutile
quand il s’agit de parler, par exemple, de nos sentiments, de ce qu’on peut
tout de même appeler notre « vie intérieure » même si cette expression
est bien problématique.
L’intelligence n’est pas procédurale !
On parle d’intelligence artificielle, mais on est bien en
peine de définir l’intelligence. La définition la plus simple renvoie à la
capacité d’établir des liens. De ce point de vue les IA sont bien intelligentes
puisque la seule chose qu’elles puissent faire avec beaucoup d’efficacité, c’est
d’établir des liens entre des masses de données traitées dans la reconnaissance
de formes ou l’analyse des requêtes des utilisateurs d’internet. Mais d’un
autre côté l’intelligence s’oppose à ce qui est purement répétitif, ce qui est
mécanique et alors les IA sont surtout des machines stupides, quoique le qualificatif
ne puisse gère être quelque chose que l’on puisse prédiquer d’une machine (pas
plus que le qualificatif « intelligente », d’ailleurs).
L’intelligence (humaine, puisqu’en vérité il n’y en pas d’autre)
tout d’abord n’a pas besoin de « big
data ». On estime que celui à qui n’est pas besoin de dizaines et de
dizaines d’expériences pour tirer une leçon est plus intelligent que celui à
qui il faut répéter sans cesse les mêmes choses pour qu’il finisse par
comprendre ! Le programme Alphago zéro
ne manifeste pas beaucoup d’intelligence puisqu’il lui faut plusieurs millions
de parties pour savoir vraiment bien jouer au go. Un humain qui jouerait 10
parties de go par jour pendant 80 ans n’arriveraient pas à jouer 300.000
parties sa vie durant… mais aucun
programme ne pourrait apprendre à devenir champion de go en 300.000 parties. Un
enfant, en quelques parties, peut parfois se montrer très doué à ce jeu et gagner
contre des adultes plus expérimentés alors qu’en quelques parties aucune
machine ne peut même « savoir » jouer au go.
Par la métaphore sélectionniste, grande clé passe-partout
des tenants de l’IA forte, on veut nous persuader que les robots peuvent
évoluer et devenir autonomes et peut-être même qu’un jour ils deviendront de
bons compagnons … ou de cruels ennemis. Mais cette métaphore repose sur une
vision appauvrie et de plus en plus battue en brèche des processus
sélectionnistes dans la nature et elle ne manifeste pas une intelligence
particulière de ce qui est véritablement en cause. Le sélectionnisme des tenants
l’IA forte fait immanquablement penser aux Shadoks : ces curieux animaux voulaient
envoyer une fusée sur la planète Gibi ; ils savaient qu’ils n’avaient qu’une
chance sur un million de réussir cet envoi et donc se hâtaient de très bien
rater les 999.999 premiers essais. Mais dans cet excellent dessin animé des
années 69/70, les Shadoks, dont le langage se résumait à quatre signes
élémentaires, ga, zo, bu, meu, ne passaient pas pour des êtres particulièrement
intelligents !
Une machine IA est par construction une machine procédurale
(elle exécute un programme) et quel que soit le nombre de couches logicielles
qu’on empile, en dernier analyse, cette machine ne peut qu’exécuter pas-à-pas
des opérations logiques. Le principe de base du cognitivisme est que toutes les
opérations qu’accomplit un esprit peuvent en dernière instance être décomposées
dans ces opérations logiques élémentaires. J’ai donné quelques arguments contre
cette idée d’une intelligence procédurale. Dans À dire vrai (2013) j’ai tenté de faire une critique étendue du
procéduralisme qui s’étend malheureusement à de nombreux domaines de la pensée
et qui n’est rien d’autre qu’une manifestation de cette pensée
unidimensionnelle que dénonçait déjà Herbert Marcuse, une pensée unidimensionnelle
qui découlait de la réduction de tout savoir à des opérations (opérationnalisme).
Je peux ajouter ici un argument « kantien ». L’intelligence suppose
non seulement la capacité de faire des inférences mais aussi et surtout la « faculté
de juger », objet de la troisième critique kantienne. Contentons-nous du
jugement le plus simple (si on veut) qu’est le jugement déterminant : nous
disposons d’une règle et d’un cas particulier à examiner. Le problème du juger
consiste à savoir si le cas particulier rentre sous la règle (s’il peut être
subsumé sous la règle). C’est par exemple le problème qui se pose dans un
tribunal : comment savoir que cet individu particulier a commis effectivement
un acte susceptible d’être ramené à une typologie générale des actes dont on
déduit une peine à infliger. Dire que M.X est effectivement coupable d’un homicide
sans intention de donner la mort, c’est proprement cela juger. Quel est le
mécanisme du jugement ? On exhibe des preuves ; on entend des
argumentations, les plaidoiries puis on prend la décision. Mais de quel
mécanisme dépend cette décision ? Kant soutient que ce mécanisme restera à
jamais caché dans les plis de l’âme humaine. Supposons en effet qu’il y ait une
règle générale pour déterminer comment appliquer une règle générale à un cas
particulier, il faudrait donc une « métarègle » du jugement mais
ensuite il faudrait pouvoir déterminer comme s’applique cette métarègle permettant
de savoir comme s’applique la règle, puis nécessairement une méta-métarègle et ainsi
de suite dans une régression à l’infini. D’où il faudrait en déduire qu’il est
impossible de juger. Or, nous jugeons, bien ou mal, mais nous jugeons. À la
machine on pourrait dire « M.X a effectivement commis un homicide, on
pourrait lui indiquer les circonstances et l’algorithme en déduirait la peine,
mais en fait la machine n’aurait rien jugé : c’est l’opérateur humain qui
aurait jugé préalablement, mais sans le dire ! En dépit de cette
difficulté théorique évidente et connue depuis u moins deux siècles, on fait au
moment où ces lignes sont écrites, des essais de jugement assisté par
ordinateur, tout comme, dans un certain nombre de secteurs on teste de IA pour
prendre des décisions. Dans les deux cas, les machines IA ne jugent ni ne
décident ; elles ne font que faire ce pour quoi elles sont faites, effectuer
des opérations logiques mécaniquement, opérations qu’ensuite nous interprétons
en disant ; « voilà une décision, mais ce n’est pas parce que fait afficher
sur un écran « La décision est de lui couper la tête » qu’il s’agit
véritablement d’une décision. Admettre comme décision ce qu’affiche l’écran de
l’ordinateur, c’est renoncer à sa propre intelligence et agir machinalement (c'est-à-dire
très exactement le contraire d’agir intelligemment). Une IA ne pas remplacer
une intelligence (humaine) mais, en revanche, il est parfaitement possible que
les hommes acceptent de vivre et penser comme des machines.
L’intelligence n’est pas indépendante du corps
Le paradoxe des partisans de l’IA forte est le suivant :
ils se croient matérialistes en voulant montrer que la matière peut penser,
mais ils sont en fait des idéalistes radicaux, des dualistes cartésiens de l’espèce
la plus sectaire et d’un dualisme qui eût effrayé Descartes lui-même, lui qui
sait combien le corps et l’esprit sont étroitement conjoints. En effet estimer
qu’une machine composée de plastique, de fer, d’aluminium, de cuivre, de
silicium, etc. peut penser comme un humain composé de dizaines de milliards d’êtres
vivants élémentaires et vivant en lien avec des milliards et de milliards de bactéries
et de champignons peuvent tous les deux être le « support » à l’identique
de la pensée, c’est supposer en réalité que la pensée n’a aucun rapport avec la
matière elle-même. C’est un dualisme et même un idéalisme radical.
Il est vrai que tout le progrès des sciences de la nature au
cours des derniers siècles s’est en cherchant à abolir la frontière entre le
vivant et l’inerte. Une cellule est bien la brique élémentaire du vivant
(théorie cellulaire de Schleiden et Schwann, 1838) et la cellule n’est bien qu’une
organisation des acides aminés (des macromolécules organiques, c'est-à-dire à base
de radicaux CH) mais les propriétés de la cellule sont radicalement nouvelles
et radicalement différentes de celles des molécules qu’étudie la chimie organique.
Ce qui nous renvoie encore au problème de l’émergence. Une cellule est un « soi » :
la membrane sépare l’intérieur de l’extérieur et les mécanismes
physico-internes de la cellule en préservent l’unité et produisent sa
reproduction. Au contraire une pièce d’ordinateur n’a aucun « soi ». Elle
est de la matière inerte. Une mémoire RAM n’a pas plus de soi et pas même un
microprocesseur. L’être vivant, même le plus élémentaire, est affecté par le
monde environnant et il est apte à répondre à ces affections. Un animal doté de
quelques centaines de neurones ou de quelques milliers de neurones est capables
de bien plus d’opérations et de réactivité qu’un ordinateur très puissant, tout
simplement parce qu’il est vivant.
Les animaux sentent immédiatement alors que les ordinateurs
ne peuvent que capter des signaux, les analyser et les traiter comme n’importe
quelle donnée numérique. Encore faut-il préciser que les ordinateurs ne
disposent que de deux « sens », la vue et l’ouïe, si l’on peut parler
ainsi alors que les animaux ont souvent un odorat, un toucher, un goût et
parfois d’autres capteurs comme les « sonars » des dauphins ou les « radars
des chauves-souris. Si nous laissons de côté le type de conscience immédiate
dont disposent les animaux les plus évolués et que nous nous concentrons sur l’homme,
nous pouvons tout de suite voir le gouffre « ontologique » entre l’intelligence
humaine et « l’intelligence » de la machine. La machine traite des
signaux mais ne perçoit et on ne peut pas simuler toutes les sensations les
plus subjectives de l’être humain, comme le goût, l’odorat ou le toucher. On
peut imaginer un ordinateur doté d’un capteur capable de faire l’analyse
chimique d’un verre de bourgogne, mais l’analyse chimique d’un verre de
bourgogne ne dit rien de son goût. Il est d’ailleurs révélateur que nous ne disposions
d’aucun mécanisme électronique permettant de mémoriser les sensations autres
que visuelles et auditives. Dans la littérature sur l’IA, significativement, il
n’y a rien sur ce petit « détail ». Si on reprend l’expression de
Michel Henry qui fait du fondement ontologique de l’homme « laie qui s’éprouve
elle-même », alors il est évident qu’aucune machine n’en sera jamais
capable, précisément parce qu’elle n’est pas vivante !
L’intelligence humaine est inséparable de cette corporéité
ou plutôt de cette chair qui en constitue la substance même. L’IA n’est d’ailleurs
qu’un produit de cette activité du corps-esprit subjectif humain et au mieux
une prothèse comme les lunettes, les appareils auditifs ou les cannes pour
marcher. Le désir absurde de construire des machines qui égalent ou surpassent
l’homme n’est pas autre chose que désir du devenir machine de l’homme, c'est-à-dire
le désir du retour à l’état inorganique qui est,
L’IA est une technologie du renseignement
Si l’IA ne peut prétendre égaler et encore moins se
substituer à l’intelligence humaine, il reste que ses fascinantes possibilités
doivent être délimitées. Alors que l’IA est une discipline technoscientifique
assez ancienne, elle a percé dans l’opinion publique seulement assez récemment
(les années 2000). Cette percée est due à deux phénomènes étroitement mêlés :
la puissance des machines (vitesse de calcul aussi bien que capacité de mémoire)
et l’existence d’internet. La puissance des machines et la baisse considérable
de leurs coûts de production ont permis l’extension d’internet et surtout de ce
qu’on appelle le « web 2.0 ». Dans sa première version, l’internet,
issu du projet américain ARPANET, était essentiellement un système de messagerie
et un système de consultation ou d’achat (ce qu’était en France le MINITEL). Jean-Gabriel
Ganascia (dans Intelligence artificielle.
Vers une domination programmée) considère que le modèle économique du « web
1.0 » ne pouvait pas satisfaire les espérances que l’on avait mises dans
les « startup » qui promettaient de vendre tout par le net. Comme il
n’est toujours pas beaucoup plus facile de réserver un billet par internet que
par le bon vieux minitel, ce sont autres voies qui ont conduit au développement
de l’internet que la reconduction sous une forme électronique du catalogue de
La Redoute !
À partir du début des années 2000 le web est devenu plus
interactif, les utilisateurs ont été invités à enrichir les contenus des sites,
à évaluer les services, etc. Dans le même temps les outils de recherche
développés par Google et qui sont des outils d’IA permettaient de diversifier
les recherches, de faire des liens entre des termes qui ne sont pas liés a priori.
Tout cela a permis de constituer des gigantesques masses de données… sur les
utilisateurs d’internet, masses de données qui sont le bien le plus précieux
des fameux GAFA. Ces big data ,
traitées par les moyens de l’IA permet de prédire statistiquement les
comportements des usages du web, de devancer leurs désirs en leur proposant
toutes sortes de choses mirifiques à acheter ou d’orienter les votes : voir
l’affaire « Cambridge Analytics », une société qui a détourné les
profils de dizaines de millions d’utilisateurs de Facebook pour mieux cibler
les messages de campagne du candidat Trump en 2016. On peut se rassurer en
disant que ces big data ont essentiellement
une visée commerciale, que les GAFA ne veulent pas casser la confiance du public
en se mettant trop ouvertement au service des gouvernements, mais la vérité est
qu’aucun grand groupe n’opposera de résistance sérieuse quand les services de
renseignement des États le leur demanderont. D’autant plus que les États
protègent les intérêts de ces grands groupes. Or tout cela n’est possible que
par les techniques de l’IA, car évidemment aucun humain, aucun groupe d’humains
ne pourrait traiter de telles masses de donnés. Il y a quelques années, on
avait mis en cause le programme de surveillance des services américains qui espionnaient
(le système ECHELON) mais désormais ce sont les usagers qui volontairement se
font ficher auprès des grandes compagnies industrielles et financières. Et ce
faisant ils se transforment eux-mêmes en produits. La gestion de l’utilisation des
données personnelles de plusieurs milliards d’humains est le plus massif et le
plus extraordinaire succès de l’IA – bien que la plupart des gens n’en sache
rien.
À quoi peut bien servir l’IA ?
L’IA comme ensemble de technique devrait être soumise au
même examen que toutes les autres techniques. Tout ce qui est possible n’est
pas nécessaire souhaitable : il est techniquement possible de détruire l’humanité,
d’utiliser des virus comme armes de guerre ou de nourrir l’humanité uniquement
avec des produits issus de la chimie. Mais rien de tout cela n’est vraiment
souhaitable. De même on peut modifier le génome humain grâce aux techniques de
manipulations génétiques mais cette possibilité devrait ne jamais devenir actualité
et on devrait sans faiblir interdire d’exercer ceux qui s’avancent sur cette
voie. On sait que les techniques de traitement des big data surtout utiles pour le commerce, pour cibler les clients
potentiels et les inciter à acheter ou pour la surveillance policière des
citoyens selon le modèle chinois. Il y a bien sûr d’autres usages possibles,
comme ceux de l’aide au diagnostic médical – à condition qu’on n’en profite pas
pour se débarrasser des spécialistes – et d’autres dont l’utilité mériterait
pour le moins discussion, comme la voiture autonome. Quant à la justice
assistée par ordinateur ou la décision politique par IA, leur simple énoncé
devrait suffire à les bannir à jamais.
Sans risquer de trop se tromper, on peut dire que, du côté
des plus défavorisés, du côtés de ce qui travaillent, l’IA permettra une
surveillance accrue, une augmentation de la pression patronale, la suppression
massive d’emplois qualifiés et de grands progrès dans la voie de l’abrutissement
généralisé et côtés des seigneurs de notre société de nouveaux moyens de
renforcer leur domination, une domination qui sera d’autant mieux acceptée que
les classes subalternes trouveront moins de moyens de résister devant ces
machines qui représentent le stade suprême de la réification.
Conclusion
Les outils d’IA peuvent être précieux… mais tout aussi
dangereux. On sait que les médicaments sont aussi des poisons (et
réciproquement) et qu’il en va de même avec toutes les techniques (un couteau
peut découper la viande de l’animal dont on se nourrit aussi bien que le corps
du voisin). Cependant tous les outils sont clairement perçus comme subordonnés
à la volonté humaine ; ils sont simplement des prolongements des organes
humaines (outil se dit organon en
grec). Il n’en va pas de même avec l’IA puisqu’il ne s’agit plus de créer un
outil mais quelque chose qui égalerait et même dépasserait l’homme. Dans la
tradition juive, le golem, un être humanoïde fait d’argile et mis en mouvement par
des paroles magiques était clairement conçu pour aider les humains. La créature
de Frankenstein pourrait être inspirée du golem mais elle n’a pas de fonction
utilitaire : son but premier est de manifester le génie de son créateur.
Les androïdes imaginés par Philip K. Dick appartiennent à la même espèce que le
golem. Avec l’IA c’est autre chose que l’on voir se profiler, quelque chose de
différent d’un auxiliaire de l’homme, mais bien son dépassement. Les partisans
du « transhumanisme » ou du « post-humanisme » envisagent
l’IA comme le successeur de l’homme. Et évidemment nous n’avons nul besoin de
prendre cette fantaisie pour argent comptant. Le danger immédiat n’est pas que,
comme dans Matrix les machines
prennent le pouvoir et asservissent les hommes. Le danger réel est
différent : l’IA étant supposée un développement supérieur de l’intelligence
elle fournit un modèle sur lequel nous devions nous calquer. La transformation
des activités humaines en « procédures » à suivre dans la production,
dans les moyens de contrôle, mais aussi dans les relations entre les
commerciaux et leur client ou dans le système juridique est déjà bien
avancée. L’intelligence humaine est
éliminée au profit de l’obéissance mécanique. Faute de pouvoir construire des
machines plus intelligentes que les humains, nous faisons chaque jour de grand
progrès pour rendre les humains aussi stupides que des machines. Mais peut-être
était-cela le but caché de la science moderne dont les premiers triomphes
furent ceux de la mécanique.
Résumons. Il y a deux hypothèses :
1)
L’IA forte et toutes prédictions de ceux qui
prétendent qu’un jour un robot aura une conscience de soi sont des calembredaines.
Les machines ne sont que des machines qui ne peuvent être dangereuses que si
elles servent à certains humains à soumettre les autres.
2)
L’IA forte est possible et alors nous aurons
face à nous des concurrents impitoyables et donc il faut arrêter dès maintenant
toute recherche en ce domaine et mettre hors d’état de nuire les chercheurs qui
veulent faire disparaître l’humanité.
Je penche évidemment pour la première hypothèse mais je n’en
suis pas absolument certain (il y a une marge d’erreur). Si je me trompe alors
il faudra passer à l’examen de la deuxième hypothèse.
Denis COLLIN – le 3 février 2019
bonjour
RépondreSupprimerbonjour,
RépondreSupprimerdans l'expression "intelligence artificielle" je vois à peu près ce qu'est la notion "d'artificielle" mais pas du tout celle "d'intelligence".
faire en sorte qu'une machine soit dotée d'une intelligence humaine... il me semble que l'emploi de ce mot "intelligence" appliqué à l'homme est surtout une vue de l'esprit, il suffit d'ouvrir un journal ou un livre d'histoire pour voir que cette "intelligence humaine" n'a jamais existé.
et, comme on le trouve dans dans la sf ou même dans des séries tv comme Westworld, si l'on dotait une machine de la moitié d'une once d'intelligence, son dernier désir serait de ressembler à un être humain.
bien cordialement,
Maurice Freton