dimanche 3 février 2019

L'IA : réalité technique, fantaisie et idéologie


Les discours sur l’Intelligence Artificielle (IA) fleurissent, notamment dans les médias grand-public, dans les prêches managériaux et même dans les discours philosophiques. Il convient de distinguer les mythes et les réalités, ce à quoi s’emploient des penseurs honnêtes mais souvent peu entendus, il faut bien le dire. L’IA comme mythe d’ailleurs peut, comme tous les mythes, aider à penser le réel : les machines de Matrix sont des machines philosophiques redoutables en ce qu’elles reformulent les thèmes classiques en philosophie de la « caverne » platonicienne et du « malin génie » cartésien. La représentation des hommes asservis à des machines toutes-puissantes est typique de l’imaginaire consubstantiel au mode de production capitaliste et en tant quel pourrait être un élément important d’une critique sociale sérieuse[1]. Mais ce n’est pas ce problème que nous voulons aborder pour l’instant. Il s’agit de tenter de donner une définition rationnelle de l’IA, puis de comprendre quelle importance elle a pour le développement actuel du capital et enfin quel sens elle prend quand elle fonctionne comme idéologie.



Qu’est-ce que l’IA ?

L’histoire de l’IA est inséparable de celle de l’informatique, c'est-à-dire de tous les traitements automatisés de « l’information » (un terme que nous laisserons provisoirement dans le flou). Traitement automatisé de l’information : cela désigne toutes les formes de « mécanisation de la pensée ».  il est difficile de définir un point de départ des réflexions dans ce domaine. Par exemple, les moyens mnémotechniques des « arts de la mémoire », de Simonide de Céos jusqu’à Giordano Bruno en passant par Lulle partent de cette idée qu’une mécanique (en l’occurrence une mécanique mentale) pourrait venir au secours de notre mémoire défaillante. Lulle (1235-1316) part d’une expérience mystique : sur le mont Randa dans l’île de Majorque, il aperçut d’un coup tous les attributs de Dieu qui envahissent toute la création. De là il tira l’idée d’un « art universel » basé sur ces attributs, réduits à neuf (bonté, magnanimité, éternité, puissance, sagesse, volonté, vertu, vérité, gloire). Représentant chacun par une lettre, il invente une sorte de machine qui permet de combiner toutes ces lettres qui permettent de trouver et mémoriser les vérités divines. Cette combinatoire abstraite est très éloignée de moyens mnémotechniques classiques.
Tout cela peut paraître « tiré par les cheveux », mais l’idée que les processus intérieurs à la pensée humaine puissent d’une certaine manière être objectivés dans des dispositifs matériels est incontestablement l’une de ces présuppositions fortes sur laquelle est basée l’IA. On fait un grand saut en avant quand Leibniz imagine sa « caractéristique universelle » : comme les mathématiques permettent de faire des calculs simplement en suivant des règles de manipulation des caractères (par exemple dans une opération), Leibniz propose la constitution d’une langue formelle semblable au symbolisme mathématiques mais dans laquelle pourraient s’exprimer toutes les pensées clairement exprimées et ainsi on pourrait remplacer toutes les difficiles disputes par un seul mot « calculons ». Cette idée leibnizienne a trouvé une réalisation dans l’algèbre de Boole (la logique des propositions) puis dans les divers langages logiques comme l’idéographie de Frege, le formalisme de Russell et Whitehead dans les Principia Mathematica, ou la tentative d’une langue logique rigoureuse de Wittgenstein dans le Tractatus logico-philosophicus. Ajoutons à cela la théorie des systèmes formels d’Emil Post ou l’arithmétisation de la théorie des nombres que Gödel utilise dans la démonstration de son célèbre théorème. L’IA est née sur ce terreau du développement de la logique et des recherches sur la possibilité de mécaniser les raisonnements pour éviter les erreurs de raisonnement, les paralogismes dans lesquels nous tombons si facilement.
L’informatique elle-même est sortie de là. La « machine de Turing » est directement issu des développements à partir des problèmes de Hilbert. Pour la première fois un problème mathématique (le problème des fonctions calculables) trouve une solution « technique » : une fonction calculable est une fonction qui peut être calculée par une machine de Turing qui « termine », même s’il faut un temps de calcul très long. Bien avant que nous disposions des puissances de calcul phénoménales d’aujourd’hui, est pensée l’idée d’une sorte d’homologie entre le calcul logique effectué par un esprit humain et les opérations que l’on peut réaliser avec une machine. Il n’y a eu aucun changement fondamental depuis. Les machines « intelligentes » d’aujourd’hui sont des machines qui utilisent les deux mêmes recettes : une mémoire de stockage illimité et des algorithmes. Comme il y a un demi-siècle fleurissent les métaphores biologiques (réseaux de neurones, algorithmes génétiques, etc.) qui parlent à l’imagination mais rendent bien plus confuses les réflexions raisonnées.
On peut distinguer plusieurs types de machines informatiques. Une machine traitement de texte est de prime abord une machine à écrire ultra perfectionnée mais personne n’a songé à présenter Word ou SWriter comme des programmes « intelligents », et pourtant au sens de l’IA ce sont des programmes intelligents. La grande et peut-être seule vraie innovation qui s’est développée avec le micro-ordinateur est le tableur, popularisé par Lotus 1-2-3 aujourd’hui quasiment disparu. Ces machines bureautiques ont envahi le monde du travail qu’elles ont parfois simplifié et souvent normalisé : le PowerPoint est presque devenu un nom commun comme la mobylette ou le frigidaire et il a fini par imposer « la pensée PowerPoint ». Il y a une deuxième catégorie : les machines communicantes, c'est-à-dire l’ensemble du réseau internet. Toutes ces machines sont déjà à leur manière des « machines intelligentes ». Un retour trouve le meilleur chemin pour acheminer une requête. Un traitement de texte « corrige » les fautes d’orthographe, de grammaire, de ponctuation. Un tableur permet de comparer aisément des scénarios. Un logiciel de retouches d’images analyse une image et peut en séparer les composants, corriger la lumière, etc. L’IA est là comme elle l’est depuis longtemps dans les systèmes automatiques d’aide au pilotage des avions, dans les robots utilisés dans l’industrie et dans toutes machines qui sont programmées pour réagir à des situations aléatoires. Elle se développe avec la reconnaissance d’images, d’écriture et de voix ou encore les « systèmes experts » spécialisés dans l’encodage des connaissances humaines pour rendre aisé l’accès de ces connaissances à chacun ou pour déduire automatique de « nouvelles » connaissances par le moyen de chaînages logiques automatiques. Cybernétique et informatique : tout cela est de l’IA. On peut encore dire que dès l’origine l’informatique est conçue comme une intelligence « intelligence artificielle » puisque les premiers ordinateurs étaient encore surnommés « cerveaux électroniques ».

Les IA sont des machines

En fait, on doit commencer par poser que l’IA en général, ça n’existe pas. Existent des « machines IA » composée de processeurs, de mémoires, de périphériques d’acquisition ou commandés et de programmes spécifiques. Entre une machine qui lit un texte écrit (comme dans les systèmes de vérification de Word), une machine qui reconnaît les visages pour autoriser ou interdire l’accès (ce qui se fait de plus en plus sur les smartphones) et une machine capable d’extraire de l’information pertinente d’un cliché IRM pour détecter l’éventualité d’une tumeur cancéreuse, il y a de grandes différences. Autant de différence qu’entre une moissonneuse-batteuse, un bulldozer, une voiture de course ou une trottinette électrique ou une perceuse électrique.
Il est nécessaire de faire la distinction entre une machine et un outil. L’outil est un simple prolongement de la main : le menuisier travaille avec son maillet et son bédane pour réaliser son tenon. La scie électrique est déjà une machine puisque la main ne fait plus que guider alors que l’énergie provient du moteur électrique. Voilà une première distinction possible. Une deuxième distinction pourrait s’imposer : l’outil est en contact avec la main ou toute autre partie du corps alors que la machine ne se meut qu’avec des parties intermédiaires entre le corps et la partie de la machine qui agit effectivement. Une lance est outil, un propulseur est déjà une machine, très élémentaire, minimaliste même, mais une machine tout de même. Dans un sens plus ancien, une machine est une ruse (nous est resté « machination », autre nom du complot), comme l’était le cheval de Troie d’Ulysse. La machine est intimement liée à la metis grecque : cet art de la ruse qui permet de tromper les autres, de simuler ou de déjouer la force de la nature. L’homme qui conçoit ce cheval de Troie est celui même qui dit s’appeler « Personne » quand il est capturé par le cyclope Polyphème. Polyphème devra même le constater quand l’œil crevé il s’écrie : « c’est la ruse et non la force ! et qui me tue : Personne ! » (Odyssée, chant IX)
Donc les IA sont des machines qui permettent de ruser et de décupler la force (intellectuelle) humaine tout comme un levier ou un palan décuple sa force physique. Si on adopte un point de vue idéaliste, évidemment on se trouve époustouflé par la puissance de ces « cerveaux électroniques » alors qu’on est blasé devant la démultiplication de puissance que permet un simple levier – qui devrait permettre de soulever le monde à condition que l’on trouve un bon point d’appui. Une IA est machine très compliquée constituée d’un très grand nombre de composants interagissant les uns avec les autres (les millions de transistors qui constituent les processeurs et les mémoires) selon une cadence très rapide. De ce point de vue, une telle machine est un concentré d’intelligence humaine : intelligence de la conception d’ensemble, intelligence des théories physiques qui ont permis de construire les semi-conducteurs, intelligence des concepteurs de programme, et ainsi de suite.
Pourquoi les IA fascinent-elles plus que le levier ou la vis d’Archimède ? Évidemment, parce qu’elles semblent accomplir des opérations complexes réservées à l’esprit humain. Mais il est nécessaire de garder la raison. Les machines à jouer de la musique (automates de Vaucanson, boîtes à musique, liminaires) sont des machines qui imitent certaines fonctions d’un être humain. Si les deux premières sont des machines câblées et capables seulement de toujours répéter la même opération, le limonaire est une machine plus perfectionnée puisqu’il dispose d’un programme sous forme de plaques trouées qui peut être modifié à volonté. À la différence du phonographe et de ses successeurs (lecteurs MP3 inclus), le limonaire « joue » et ne se contente pas de transformer des signaux. Le métier à tisser Jacquard tisse des motifs à la demande, en fonction du « programme » (là encore des plaques perforées) qui lui est donné. On objectera à juste titre que ces programmes exécutent les algorithmes les plus simples puisqu’il n’y a qu’une suite d’instruction sans test ni boucle et a fortiori sans appel récursif possible. Le projet de « machine analytique » dite « le moulin) de Charles Babbage, projet qui ne fut jamais mené à son terme aurait du être une machine mécanique programmable (entraînée par une machine à vapeur !) qui préfigure le premier ordinateur.
Pour introduire ces fonctions dans une machine, il faut des dispositifs qui permettent de tester (par exemple le thermostat qui permet de définir jusqu’à quelle température on fait chauffer l’eau du lave-linge avant de lancer le programme lavage. Il faut aussi des compteurs (exécuter A pendant x cycles par exemple). On peut également ajouter des dispositifs de stockage d’information réutilisable. On peut mettre en place des systèmes d’autorégulation, comme le régulateur à boules inventé par Watt pour les machines à vapeur. La machine devient maintenant très compliquée, mais c’est une machine qui n’a rien de mystérieux et dont nous pouvons à chaque étape contrôler l’organisation et le fonctionnement. L’ingénierie de telles machines est précisément l’objet de la cybernétique. Le triomphe des machines numériques n’est d’ailleurs qu’assez récent. Pendant très longtemps on a développé des calculateurs analogiques qui sont devenus assez puissants avec l’invention des amplificateurs opérationnels. Ces machines étaient particulièrement bien adaptées pour traiter les systèmes d’équations différentielles. Dans les années 70-80 le CEA en France ou la NASA aux États-Unis disposaient de grands centres de calcul analogiques. Ce n’est qu’à partir des années 80 que les machines numériques ont affirmé leur supériorité en raison de leur polyvalence.

Les IA actuelles

On pourrait dire que toute machine à pilotage automatique est une sorte d’IA. Elle est capable d’effectuer la tâche pour laquelle elle a été conçue sans l’intervention d’un pilote humain. Mais les machines les plus fascinantes semblent évidemment non pas celle qui agissent (comme le programmeur du lave-linge) mais celles qui semblent produire de la connaissance. « Qui semblent » : en tant que telles les machines ne produisent aucune connaissance mais seulement des signaux qui nous apportent de la connaissance. Si je monte les interrupteurs A et B d’une lampe en va-et-vient, si j’appuie l’interrupteur A alors que lampe est éteinte, elle va s’allumer et si j’appuie sur B, elle va s’éteindra. Si nous avons convenu s’assigner à A la fonction F, B pourra alors être assigné à non-F. Un interrupteur monte en-va-et-vient est analogue à un inverseur logique (l’opération « négation qui à F fait correspondre non-F). Mais les interrupteurs ni la lampe ne sont des machines logiques par elles-mêmes, elles sont des machines conçues pour être dans le fonctionnement analogues aux opérations logiques que fait le cerveau humain, de la même façon qu’un amplificateur opérationnel monté convenablement peut me donner en sortir la dérivée de la tension sinusoïdale envoyée en entrée, sans que nous puissions dire que l’amplificateur « sache effectuer » le calcul d’une dérivée. Pour ces exemples très simples, on ne trouvera pas beaucoup d’esprits assez faibles pour parler de l’intelligence des interrupteurs ou des amplificateurs opérationnels : on voit immédiatement qu’ils ne sont pas plus intelligents que le boulier, la « pascaline » ou le régulateur à boules de Watt.   
Il en va peut-être autrement avec les machines IA qui font l’actualité, parce que leur complexité dépasse vite notre imagination et que l’imagination est limitée, à la différence de la capacité de conceptualisation dont nous n’éprouvons pas les limites – Descartes faisaient remarquer que nous ne pouvons pas nous faire l’image d’un chiliogone alors que nous n’avons aucun mal à concevoir un polygone à mille côtés. Les machines IA actuelles sont de divers types. Il y a d’abord tous les systèmes appelés « systèmes-experts ». Le système-expert le plus simple est composé d’une base de connaissances (qui est susceptible d’évoluer) et qui résulte d’abord de l’expertise humaine, et d’un moteur inférence qui permet de chaîne logiquement les propositions contenues dans la base de connaissances. Des langages informatiques comme le langage PROLOG ont été explicitement conçus pour implémenter la logique quantifiée (ordre 1). Les machines IA sont ensuite les machines capables de jouer à des jeux humains : machines à jouer aux échecs et tout récemment machine à jouer au go, un des jeux les plus compliqués qui soient (il y a environ 10620 partie possibles) bien que ses règles de base soient très simples. Ce sont enfin les systèmes de reconnaissance (images, formes, son, paroles, écriture, etc.) … mais aussi les moteurs de recherche sur le WEB ou les programmes de gestion du net ou du trafic routier.
Toutes ces machines supposent que soient élucidés deux types de problèmes : d’une part, la représentation des données en niveaux d’abstractions superposés et d’autre part les algorithmes de calcul. Les progrès décisifs ont pu être accomplis grâce à l’augmentation des capacités des mémoires qui permettent l’accès à des données massives (« big data ») et grâce à la puissance de calcul des machines. La machine « alphago zero » qui a réussi à battre la machine précédente qui elle-même battait les meilleurs joueurs de go du monde est devenue championne en jouant contre elle-même des millions de parties en trois jours. L’avantage de l’énorme puissance de calcul est ici évident. C’est cette puissance énorme qui permet la mise en œuvre des processus d’auto-apprentissage (ce qu’on appelle deep learning). Sans entrer dans le détail, ces systèmes reposent très largement sur des algorithmes sélectionnistes : on génère (aléatoirement) des suites d’instruction et on élimine progressivement celles qui échouent (c’est une application des principes sélectionnistes darwiniens) et ce qu’on appelle auto-apprentissage n’est jamais autre chose que ce type de procédé basé sur l’induction.
Toutes ces techniques dites « intelligentes » le sont seulement si on réduit le mot intelligence à sens anglais : comment obtenir des renseignements ? Mais aucune machine intelligente n’a manifesté l’intelligence ne serait-ce que d’un enfant en bas âge, si on entend intelligence en français dans le sens de capacité de comprendre, de « prendre avec soi », mais aussi astuce, intuition et créativité. Les anglo-saxons et nous à leur suite ont distingué une IA faible et une IA forte. L’IA faible regroupe toutes les techniques informatiques que l’ont peu mettre au service de l’homme, alors que l’IA forte est fondée sur le projet de construire une machine capable d’imiter de mieux en mieux les capacités intellectuelles d’un humain. Le problème est que l’IA faible est souvent conçue simplement comme le précurseur de l’IA forte qui nourrit tous les espoirs, tous les fantasmes et toutes les craintes plus ou moins vaines.

Les limites de l’IA : Searle

L’efficacité de ces techniques dites d’IA est patente et on a tendance à croire que leurs limites actuelles ne sont que provisoires et pourraient être dépassées par le progrès des méthodes et la puissance des machines. C’est pourtant une simple croyance qu’on aura bien du mal à étayer. Parce qu’une machine pourra effectuer un nombre d’opérations arithmétiques et logiques (au fond un ordinateur ne fait que cela) de plus en plus impressionnant et parce qu’elle disposera de capacités de stockage des données dépassant aujourd’hui notre imagination, pourrait-on déduire qu’elle est devenue intelligente ? Un cerveau humain, après tout, n’a que de faibles capacités de stockage des données (c’est la raison pour laquelle nous avons inventé toutes sortes de dispositifs qui servent de prothèses à notre défaillante mémoire) et notre vitesse de calcul est plutôt faible : l’impulsion nerveuse se propage environ à 300 m/s alors que les signaux électriques dans un circuit information se propagent avec des vitesses de l’ordre de celle de la lumière soit 300.000 km/s. Donc l’ordinateur est 106 fois plus rapide que le cerveau humain ! Il y a, à l’évidence, une différence essentielle entre le cerveau humain et l’ordinateur, entre l’intelligence humaine et la prétendue « intelligence artificielle » des machines. Ce qui pose d’abord la question des limites réelles de l’IA.
On peut fixer, plus ou moins arbitrairement des tests pour savoir une machine IA « pense ». Le plus connu est le fameux « test de Turing » dont on retrouve une version sophistiquée dans le roman de Philip K. Dick, Est-ce que les androïdes rêvent de moutons électriques ? adapté au cinéma par Ridley Scott sous le titre Blade Runner. Le principe est le suivant : si, dans une conversation tenue via un système de télécommunication, on ne peut pas distinguer la machine d’un interlocuteur humain, alors on pourra dire que la machine pense. Searle consacre de longs développements à la critique du « test de « Turing » afin de montrer que ce test ne peut pas prouver que les machines pensent.
Résumons l’argumentation de Searle. Il invente un autre test, sur le modèle de celui de Turing : une personne totalement ignorante de la langue chinoise est enfermée dans une pièce et communique par écrit avec un locuteur chinois situé à l’extérieur. Celui qui est enfermé dans la pièce dispose d’un catalogue de règles syntaxiques qui lui permet de choisir les caractères qui seront nécessaires pour répondre à telle question formulée en caractères chinois. Il raconte ainsi la genèse de son « expérience de pensée » :
 J’ai acheté un manuel au hasard, dont la démarche argumentative m’a sidéré par sa faiblesse. Je ne savais pas alors que ce livre allait marquer un tournant dans ma vie. Il expliquait comment un ordinateur pouvait comprendre le langage. L’argument était qu’on pouvait raconter une histoire à ordinateur et qu’il était capable ensuite de répondre à des questions relatives à cette histoire bien que les réponses ne soient pas expressément données dans le récit. L’histoire était la suivante : un homme va au restaurant, commande un hamburger, on lui sert un hamburger carbonisé, l’homme s’en va sans payer. On demande à l’ordinateur : « a-t-il mangé le hamburger ? » Il répond par la négative. Les auteurs étaient très contents de ce résultat, qui était censé prouver que l’ordinateur possédait les mêmes capacités de compréhension que nous. C’est a ce moment-là que j’ai conçu l’argument de la chambre chinoise : Supposons que je sois dans une pièce fermée avec la possibilité de recevoir et de donner des symboles, par l’intermédiaire d’un clavier et d’un écran, par exemple. Je dispose de caractères chinois et d’instructions permettant de produire certaines suites de caractères en fonction des caractères que vous introduisez dans la pièce. Vous me fournissez l’histoire puis la question, toutes deux écrites en chinois. Disposant d’instructions appropriées, je ne peux que vous donner la bonne réponse, mais sans avoir compris quoique ce soit, puisque je ne connais pas le chinois. Tout ce que j’aurais fait c’est manipuler des symboles qui n’ont pour moi aucune signification. Un ordinateur se trouve exactement dans la même situation que moi dans la chambre chinoise : il ne dispose que de symboles et de règles régissant leur manipulation. (Entretien avec la revue « Le Débat »)
Searle critique ici implicitement deux conceptions classiques (mais erronées) en psychologie : le comportementalisme (behaviourisme) et le fonctionnalisme. L’idée de Turing est en effet qu’un ordinaire peut être dit pensant s’il est capable de se comporter comme un être pensant ordinaire, à savoir un humain. Cette idée se double d’une autre : si un ordinateur est capable d’accomplir les mêmes fonctions qu’un cerveau humain, alors nous n’avons pas de raison de lui dénier la qualité d’être pensant.
Les comportementalistes considèrent que l’esprit est une sorte de « boîte noire » et que seuls peuvent être investigués les rapports entre stimuli et réponses (entrées/sorties). Un comportementaliste soutiendra que je n’ai aucune preuve que les autres pensent sinon par le fait que leur comportement peut être interprété en termes de pensées. Que du point de vue cognitif, nous soyons plus ou moins réduit à l’observation des autres pour savoir s’ils pensent ou s’ils sont des machines bien faites, c’est déjà discutable. Tout d’abord, nous avons en fait plus de raisons de prêter la capacité de pensée au poisson rouge qui tourne dans son bocal ou à la poule qui traverse la route devant les autos qu’à un ordinateur. Nous prêtons aux animaux des capacités de sentir que nous ne prêtons pas aux choses inertes. Maurice Merleau-Ponty a écrit à ce sujet des développements plutôt irrésistibles. L’expérience que nous faisons des autres vivants n’est en rien une expérience du même type que celles que nous avons face aux choses. C’est une expérience première, antérieure à tout réflexion : je n’ai pas eu besoin de faire toutes sortes d’observations pour en tirer la conclusion « ce poisson rouge est vivant ». Ceci vaut a fortiori pour les autres êtres humains. Dans une lettre au marquis de Newcastle 16 novembre 1646, Descartes demande comment nous faisons pour distinguer un homme d’un animal ou d’une machine bien faite. La réponse de Descartes à cette question tient en un argument : nous reconnaissons l’homme doué d’une âme capable de penser à ceci qu’il peut tenir une conversation, prononcer des « paroles, ou autres signes faits à propos des sujets qui se présentent, sans se rapporter à aucune passion ». L’inventeur du test de Turing est bien Descartes ! Mais l’illustre philosophe se trompe vraisemblablement : je n’ai pas besoin de tenir une conversation « à propos » avec un locuteur chinois muet pour savoir qu’il est un humain comme moi et que donc il a comme moi une âme alors que mon ordinateur n’a pas « d’âme », lui qui paraît savoir tant de choses et peut donner des réponses à une foule de question dont mon ami chinois ignore tout. Merleau-Ponty emprunte une autre direction que celle de Descartes : selon lui, il faut concevoir la conscience comme « être au monde » ou comme « existence ». Parce que la vision me donne comme un regard en prise sur le monde, il peut y avoir pour moi un regard d’autrui, « cet instrument expressif que l’on appelle un visage peut porter une existence comme mon existence est portée par l’appareil connaissant qu’est mon corps. » Il y a dans la rencontre d’un autre humain une sorte d’intuition qui fait que je donne sens à ses mimiques, à ses gestes, que je considère ses postures, ses actions comme des actions qui sont des possibles pour moi. « L’évidence d’autrui » dont parle Merleau-Ponty procède d’une relation interne qui découle précisément de ce que nous sommes des corps expressifs de la même manière.
Encore une fois, tout cela ne découle pas de la réflexion. Ce n’est parce que je compare les mimiques d’autrui aux miennes que j’en déduis par association qu’il doit avoir les mêmes états mentaux que moi quand j’use de ces mimiques. Mais ce raisonnement par analogie ne peut expliquer que nous percevions les sentiments des autres dans des mimiques ou des attitudes que nous n’avons jamais eues ni observées. Comment les petits enfants apprendraient-ils s’il fallait qu’ils mettent en œuvre ces raisonnements par analogie ? Il y a quelque chose de préréflexif dans ce rapport à l’autre.
Ainsi la psychologie comportementaliste, qui plaît tant aux scientifiques obnubilés par le modèle des sciences de la nature, manque-t-elle l’essentiel, à savoir la subjectivité, ce primat de toute connaissance du monde extérieur. Il n’en va pas mieux avec l’approche fonctionnaliste. Le fonctionnaliste consiste à étudier les fonctions qui sont accomplies dans tout dispositif que l’on pourrait qualifier d’intelligent, indépendamment du support de cette intelligence. L’approche fonctionnaliste fut d’abord celle de Jerry Fodor (notamment avec sa théorie modulaire de l’esprit) et de Hilary Putnam et l’on doit remarquer que tous les deux, aux termes d’un travail sérieux en viennent à critiquer leurs propres conceptions. Fodor écrit L’esprit, ça ne marche pas comme ça qui est une critique radicale de la TCE (théorie computationnelle de l’esprit), la théorie même de Fodor qui repose sur deux piliers : le caractère computationnel de l’esprit (il traite des fonctions logiques) et son caractère modulaire : il est composé de modules indépendants accomplissant chacun sa propre tâche. Fodor dans dernier ouvrage critique ces deux piliers : l’esprit accomplit bien d’autres choses que des fonctions logiques. Le problème de l’abduction, par exemple, réfute et le caractère logique et la modularité. Plus généralement, le fonctionnalisme est un type d’approche fort critiquable. L’explication en termes de fonction n’est pas une explication puisqu’elle ne permet pas de saisir les causes d’un phénomène. Elle peut s’apparenter aux explications par les causes finales dont le rejet a permis la constitution des sciences modernes de la nature.
SI l’on refuse et le comportementalisme et le fonctionnalisme, il ne reste plus grand-chose de l’expérience de Turing (test de Turing) et donc la question de la possibilité d’une intelligence artificielle analogue à l’intelligence humaine devient très problématique. Distinguons l’IA faible comme ensemble de techniques auxiliaires utilisables par l’homme (systèmes experts, etc.) et l’IA forte comme intelligence créatrice et capable d’intuitions. Au total, Searle, par son expérience de la « chambre chinoise » ne prouve pas que l’IA « forte » est une impossibilité. Il donne seulement de bons arguments pour refuser le test de Turing comme test discriminant ultime.
On peut résumer ainsi les conclusions de Searle par quelques propositions que nous devons admettre :
(1)    Les programmes informatiques sont formels (syntaxiques). En fait ils n’indiquent que les opérations à effectuer et dans quel ordre.
(2)    Les pensées humaines ont un contenu mental (elles ont une sémantique). Deux phrases différentes du point de vue du vocabulaire ou de la syntaxe peuvent avoir le même contenu mental (la même référence) et inversement deux phrases identiques peuvent avoir des contenus sémantiques différents, sans parler du problème de l’obscurité référentielle.
(3)    La sémantique n’est pas réductible à la syntaxe et la syntaxe ne peut donner accès à la sémantique. La phrase « beaucoup de gens croient à tort que Galilée a été brûlé parce qu’il soutenait la rotondité de la Terre » est ambiguë du point de sémantique ; est-il faux de croire qu’il a été brûlé ou qu’il défendait la rotondité de Terre … ou les deux.
(4)    Et cependant c’est l’activité du cerveau qui engendre la pensée. Cette dernière proposition est évidente par elle-même.
On peut résumer ainsi les conclusions de Searle :
(1)    les programmes ne sont ni constitutifs de la pensée ni suffisants pour la produire.
(2)    tout système capable d'engendrer des pensées devrait posséder un pouvoir causal au moins équivalent à celui du cerveau. Or, aucun ordinateur ne possède le pouvoir causal d’un cerveau humain et pas même celui d’un cerveau de chimpanzé ou de mouton.
(3)    un système artificiel ne produira de phénomène mental que s'il reproduit les pouvoirs spécifiques déterminants du cerveau. Du même coup, si l’on pouvait produire artificiellement une telle chose, elle aurait aussi les mêmes défauts de le cerveau et n’aurait aucun intérêt.
(4)    la formation des phénomènes mentaux dans le cerveau ne résulte pas seulement de l'exécution d'un programme informatique. Elle suppose un rapport au monde qui s’appelle précisément subjectivité.
Pour Searle, l’opposition entre syntaxe et sémantique est l'opposition fondamentale. Les machines ne traitent que la syntaxe, pas le sens. Une machine ne se bloque jamais parce que ce qu’elle « dit » est insensé mais uniquement parce qu’il y a eu une erreur de syntaxe dans la programmation, c’est-à-dire une erreur de fonctionnement de la machine. Si j’écris la célèbre phrase de Chomsky : « les vertes idées incolores dormaient furieusement », cette phrase ne provoque aucune réaction de mon analyseur syntaxique et pour cause : elle est syntaxiquement impeccable ! En revanche, un humain verra très vite soit que cette phrase n’a pas de sens, soit qu’elle vise quelque effet poétique – un peu comme dans le poème du Jabberwocky dans Alice de Lewis Caroll. Que les machines soient incapables de traiter cela découle d’une raison fondamentale. Les machines ne peuvent effectuer que des opérations logiques alors que le sens ne peut être déduit de la logique tout simplement parce qu’il n’y a pas de logique formelle au-delà de la logique des propositions (ou logique d’ordre 2), c'est-à-dire au-delà d’énoncés qui obéissent au principe d’analycité, c'est-à-dire d’énoncés dont la valeur logique ne dépend que de la valeur logique des composants de ces énoncés. Or cette logique formelle, quelle que soit sa puissance, ne peut rendre que d’une mince couche des énoncés linguistiques.
Le sens suppose la représentation du monde et de soi dans le monde. Mais une machine n’étant pas un « soi » du fait qu’une machine n’est qu’un assemblage de parties extérieures les unes aux autres, elle ne peut donc pas avoir de « soi » et ne possède donc aucune représentation d’elle-même ni du monde et encore moins d’elle-même dans le monde. Searle distingue parmi toutes choses matérielles celles qui ont une existence objective et celles qui n’existent que pour un cerveau capable de se les représenter. La douleur que je ressens est « ontologiquement subjective » et elle n’est pas susceptible d’une représentation objective.
Le problème de l'intentionnalité est au centre de la réflexion de Searle. Il découle de ce caractère essentiel de l’esprit qu’est la subjectivité et du fait que la subjectivité est irréductible à l’objectivité – très vieille affaire : on ne passe pas par simple substitution du « je » au « il ». L’affirmation « je pense » est radicalement différente de l’affirmation « L’homme pense » ou « Descartes pense ». L’intentionnalité exprime le fait qu’une action ou une chose n’a aucune valeur par elle-même mais qu’est « au sujet de quelque chose » (elle a une aboutness comme disent les anglo-saxons). On pourrait être tenté de voir dans ce privilège donné à l’esprit humain le retour chez Searle d’un dualisme de type cartésien : il y a d’un côté des corps mécaniques obéissant à la nécessité des lois de la nature et de l’autre des âmes libres. Mais ce n’est pas le cas pour Searle. Pour lui le cerveau est une chose naturelle et l’esprit n’est rien d’autre que l’activité du cerveau. Mais d’une part, il y a une différence de nature entre les choses « inertes » et les êtres vivants et d’autre part, à l’intérieur du règne du vivant il y a également plusieurs sauts qualitatifs. Searle peut être rattachés au courant partisan de l’« émergence », c'est-à-dire ceux qui pensent qu’il y a dans la nature des niveaux d’organisation différents et les propriétés d’un certain niveau ne s’expliquent pas ou pas toujours par les propriétés des composants de plus bas niveau. Il y a donc des propriétés qui émergent à un certain niveau d’organisation et qui sont des propriétés de l’organisation elle-même. La conscience, sous le nom de l’intentionnalité, serait précisément quelque chose qui émerge à un haut niveau de complexité neuronale. Searle pense qu’en suivant cette voie on pourrait construire une théorie naturaliste de la conscience qui reste sur une solide base matérialiste sans tomber dans le cognitivisme ou la théorie computationnelle de l’esprit.

Simuler n’est pas comprendre

Revenons maintenant sur le fond de l’argumentaire de Turing. Il réside en ceci : si une machine peut simuler la pensée au point qu’elle trompe un humain, alors cette machine pense. Derrière cette affaire il y a une question épistémologique essentielle. Nous travaillons fréquemment avec des modèles, c'est-à-dire des idéalisations d’une partie du réel de sorte que l’on puisse se faire une idée de la manière dont les choses pourraient réellement et en vue de faire des prédictions qui confirmeront ou non la validité du modèle. Une machine peut servir de modèle à une théorie scientifique – ainsi la machine à vapeur, modèle de la thermodynamique. La modélisation fonctionne beaucoup à l’analogie : on construit quelque chose que l’on maîtrise pour tenter de prédire par analogie ce qui devrait se passer sans cette portion du réel que l’on veut comprendre. Mais ce modèle peut vite se révéler encombrant et même, dans certain cas devenir un véritable obstacle épistémologique (voir Gaston Bachelard, La formation de l’esprit scientifique). Le modèle ptolémaïque du monde, qui semblait parfaitement intuitif a dû être rejeté. Le modèle de l’atome de Rutherford a été remplacé par celui que l’atome de Bohr. Ces modèles permettent d’établir une cartographie du réel et comme toutes les cartes ils permettent aussi, s’ils sont de bons modèles, de naviguer. L’intelligence artificielle fonctionne en partie comme un modèle du fonctionnement neuronale et ceux pour autant que l’on peut assimiler le cerveau à une machine du type ordinateur. Mais on doit savoir que lorsqu’on « imite » sur une machine un certain nombre d’opérations dont est capable un cerveau humain, tout d’abord on ne sait pas pour autant comment fonctionnement réellement cerveau et en second lieu on ne « cartographie ainsi qu’une très mince partie de l’ensemble du cerveau. Comme toujours, la carte n’est pas le territoire !
Inversement quand on étudie le fonctionnement biologique du cerveau, on peut corréler une opération dont un sujet peut donner une description verbale et un agencement d’opérations physico-chimique dans les neurones, mais rien de plus. On peut demander à sujet d’effectuer une opération (par exemple une suite de multiplications) et pendant ce temps enregistrer par un système d’imagerie médicale ce qui se passe dans le cerveau. Mais on ne voit pas sur l’écran la multiplication – par exemple on ne voit pas l’erreur de calcul qu’a fait notre sujet (par exemple, il a compté 9x8=54) et évidemment on n’a absolument aucune idée de ce qu’il faudrait faire dans le cerveau, quel neurone stimuler par exemple, pour éviter cette erreur de calcul. En observant le cerveau on peut comprendre la physiologie du cerveau mais pas l’arithmétique, tout simplement parce que l’arithmétique n’est pas une question de physiologie, même si en dernière analyse, ce sont bien des cerveaux humains qui ont fini par inventer l’arithmétique. On ajoutera que les cerveaux humains n’ont inventé l’arithmétique quand leurs rapports avec le monde extérieur et on devrait pour être plus précis dire non que l’arithmétique est une invention des cerveaux humains mais plutôt que l’arithmétique a émergé du rapport entre des humains vivants et dotés de cerveaux et leur environnement vital, leur écoumène.
Quant à ce qu’on appelle en informatique « réseaux de neurones formels » ou « réseaux neuronaux », c’est simplement une analogie du même genre que celle qui a conduit à parler de « courant électrique » par analogie avec de l’eau circulant dans un tuyau… ou comme lorsque l’on parlait de « cerveaux électroniques » pour désigner les premiers ordinateurs.
Maintenant voyons le problème sous une autre face : la machine peut simuler une opération mentale, mais qu’elle simule ne signifie absolument pas qu’elle « fasse » cette opération mentale. Elle n’est aucunement active. Quand mon logiciel de traitement de texte souligne une erreur de grammaire dans une phrase que je viens de taper, cela ne veut pas dire « quelqu’un » s’est rendu de quoi que soit. Ne sont passées que des opérations physiques, complexes, mais que l’on pourrait décomposer en opérations simples, c'est-à-dire en changement d’états des mémoires à chaque avancée du top d’horloge des microprocesseurs cachés à l’intérieur de ma machine. On peut louer autant que l’on veut l’intelligence des programmeurs qui ont ce correcteur de grammaire, il n’y a pas pour autant dans la machine d’autre intelligence que celle des programmeurs.

Le langage naturel n’est pas formalisable

L’un des pierres de touche de l’IA concerne la reconnaissance des phrases énoncées en « langage naturel ». Dans la même catégorie de problèmes, on trouve la très vieille question de la traduction automatique. Ces deux questions montrent en même temps et la puissance des IA dédiées et l’incapacité essentielle d’une IA à réussir à 100% le test de Turing, c'est-à-dire à imiter si bien un interlocuteur humain qu’elle tenir avec lui une conversation « à propos des sujets qui se présentent », comme le disait Descartes dans la lettre au marquis de Newcastle déjà citée. Si nous reprenons le propos de Descartes, il dit quelque chose d’important. Pourquoi l’homme n’est-il pas simplement une machine bien faite ? Parce qu’il parle, répond Descartes et cette parole atteste de l’existence d’une âme (qui n’est que de la pensée en acte) alors que les signaux qu’émettent les animaux ne sont dus qu’à leurs « passions » et peuvent recevoir une explication physico-chimique. Même si l’on n’adhère pas – et c’est mon cas – au dualisme cartésien, on doit néanmoins reconnaître que le langage articulé présente un saut qualitatif considérable dans le processus évolutif. On peut même dire que cette parole intelligente est l’avantage adaptatif décisive qui a permis la survie du genre homo – et peut-être pas seulement de l’homo sapiens puisque l’on est à peu certain aujourd’hui que nos ancêtres habilis, qui vivaient voilà plus d’un million d’années, possédaient une aire de Broca (l’aire cérébrale dédiée au langage) et un cerveau fonctionnellement dissymétrique, deux caractéristiques dont nous pensons qu’elles sont nécessaires dans l’apparition de l’intelligence humaine. Ainsi la question : « les machines peuvent-elles parler ? » est-elle une question décisive comme le fut en son temps la question : « les bêtes brutes peuvent-elles parler ? ».
Comme les IA sont des machines procédurales logiques, la question peut se transformer en celle-ci : peut-on réduire la parole humaine à un langage formel comme la logique puisque la logique peut être implémentée sur une machine électronique (ou tout autre machine isomorphe à une machine électronique. À cette question, on doit apporter une réponse négative et ce pour plusieurs raisons.
La première est peut-être la plus importante est la plasticité du langage humain dans son expression et la plasticité dans sa compréhension. Cela peut paraître paradoxal : lorsque Leibniz imagine sa « caractéristique universelle », il cherche à créer un langage de caractères (sur le modèle du symbolisme mathématique) qui nous débarrasse des ambiguïtés et des malentendus du « langage naturel ». Si l’on peut créer un tel langage, pense Leibniz, alors tous les raisonnements ambigus et confus en matière de morale ou de droit pourront être remplacés par un seul mot « calculons ! ». C’est le projet leibnizien que l’on retrouve dans l’idéographie de Frege. Ces langages formels (par exemple le formalisme de la logique des prédicats) sont parfaitement adaptés pour modéliser les raisonnements logiques, c'est-à-dire tous ceux qui sont calculables mais buttent dès que nous voulons modéliser des raisonnements moins formels, par exemple les syllogismes incomplets (enthymèmes) où l’une des prémisses est sous-entendue. Et quand il n’y a pas de raisonnement du tout, c’est encore pire ! Il y a des occasions dans la vie où nous énonçons des vérités sans avoir de raisons particulièrement convaincantes en faveur de ces assertions. On dira que ce ne sont pas vérités mais de simples opinions, ce qui est parfaitement exact, mais linguistiquement elles sont énoncées comme des vérités.
Aucun langage formel ne peut fournir une description précise de tout ce que peut exprimer la parole humaine naturelle. Prenons par exemple l’énoncé : « Jeanne se prépare à commander mais, comme d’habitude, Pierre est en retard ». Cet énoncé est composé de deux énoncé « atomique », p : « Jeanne se prépare à commander » et q : « comme d’habitude, Pierre est en retard ». Ces deux énoncés sont reliés par la conjonction « mais » en français, laquelle n’est pas autre chose qu’un « et » logique. En effet la valeur de vérité de l’énoncé dépend et ne dépend que de la valeur de vérité des deux énoncés atomiques et cet énoncé est vrai si et seulement si p et q sont vrais simultanément. Le problème est le que « et » logique est logiquement équivalent au « mais » français, mais il ne l’est pas du point de vue du sens. Et si logiquement, je ne peux rien tirer de l’énoncé, je peux du point de vue de la sémantique en tirer beaucoup de conclusions, par exemple que Jeanne doit être maintenant excédée par les retards systématiques de Pierre, ou que, fataliste, elle se dise : « il est comme ça, on ne le refera pas », etc. Tout ce que je peux émettre comme hypothèses vient de ma capacité à me projeter dans l’esprit de Jeanne, parce que Jeanne est un être vivant comme moi et qu’elle vit d’une même vie intérieure que moi, puisque j’ai une approche immédiate, préréflexive de Jeanne (cf. Merleau-Ponty) ce qu’aucun programme informatique ne pourra jamais faire. On peut certes simuler tout cela, c'est-à-dire développer un programme qui disposera dans sa mémoire d’un répertoire des mots exprimant les sentiments humains. On peut construire toutes les simulations que l’on veut, mais ce ne seront jamais que des simulations informatiques, c'est-à-dire des faux-semblants.
La plasticité du langage repose sur la capacité du locuteur à comprendre le contexte. SI je dis « la petite brise la glace », cette phrase ne peut se décomposer grammaticalement qu’en fonction du contexte puisqu’elle peut indifféremment considérer que le verbe « brise » ou « glace ». Il faut donc une compréhension (donc une sémantique) du contexte pour déterminer quelle lecture on doit faire de cette brève phrase. Il existe également des phrases logiquement absurdes que nous comprenons pourtant très bien : « j’ai mal à tes dents » veut seulement dire que je partage (métaphoriquement !) ton mal de dents. On pourrait continuer ainsi très longtemps. La philosophie analytique a produit sur ces questions des milliers de pages.
Frege a montré une différence essentielle entre la logique et la parole humaine : la logique est comme une règle et la parole comme la main. Avec la main seule on a du mal à tracer des traits droits et donc la règle est très utile, mais quand il s’agit de dessiner les contours de la feuille d’un arbre, la règle ne sert plus à rien. Il en va de même de la logique : elle très utile pour raisonner droit et valider nos raisonnements (ou dénoncer nos paralogismes) mais elle est totalement inutile quand il s’agit de parler, par exemple, de nos sentiments, de ce qu’on peut tout de même appeler notre « vie intérieure » même si cette expression est bien problématique.

L’intelligence n’est pas procédurale !

On parle d’intelligence artificielle, mais on est bien en peine de définir l’intelligence. La définition la plus simple renvoie à la capacité d’établir des liens. De ce point de vue les IA sont bien intelligentes puisque la seule chose qu’elles puissent faire avec beaucoup d’efficacité, c’est d’établir des liens entre des masses de données traitées dans la reconnaissance de formes ou l’analyse des requêtes des utilisateurs d’internet. Mais d’un autre côté l’intelligence s’oppose à ce qui est purement répétitif, ce qui est mécanique et alors les IA sont surtout des machines stupides, quoique le qualificatif ne puisse gère être quelque chose que l’on puisse prédiquer d’une machine (pas plus que le qualificatif « intelligente », d’ailleurs).
L’intelligence (humaine, puisqu’en vérité il n’y en pas d’autre) tout d’abord n’a pas besoin de « big data ». On estime que celui à qui n’est pas besoin de dizaines et de dizaines d’expériences pour tirer une leçon est plus intelligent que celui à qui il faut répéter sans cesse les mêmes choses pour qu’il finisse par comprendre ! Le programme Alphago zéro ne manifeste pas beaucoup d’intelligence puisqu’il lui faut plusieurs millions de parties pour savoir vraiment bien jouer au go. Un humain qui jouerait 10 parties de go par jour pendant 80 ans n’arriveraient pas à jouer 300.000 parties sa vie durant…  mais aucun programme ne pourrait apprendre à devenir champion de go en 300.000 parties. Un enfant, en quelques parties, peut parfois se montrer très doué à ce jeu et gagner contre des adultes plus expérimentés alors qu’en quelques parties aucune machine ne peut même « savoir » jouer au go.
Par la métaphore sélectionniste, grande clé passe-partout des tenants de l’IA forte, on veut nous persuader que les robots peuvent évoluer et devenir autonomes et peut-être même qu’un jour ils deviendront de bons compagnons … ou de cruels ennemis. Mais cette métaphore repose sur une vision appauvrie et de plus en plus battue en brèche des processus sélectionnistes dans la nature et elle ne manifeste pas une intelligence particulière de ce qui est véritablement en cause. Le sélectionnisme des tenants l’IA forte fait immanquablement penser aux Shadoks : ces curieux animaux voulaient envoyer une fusée sur la planète Gibi ; ils savaient qu’ils n’avaient qu’une chance sur un million de réussir cet envoi et donc se hâtaient de très bien rater les 999.999 premiers essais. Mais dans cet excellent dessin animé des années 69/70, les Shadoks, dont le langage se résumait à quatre signes élémentaires, ga, zo, bu, meu, ne passaient pas pour des êtres particulièrement intelligents !
Une machine IA est par construction une machine procédurale (elle exécute un programme) et quel que soit le nombre de couches logicielles qu’on empile, en dernier analyse, cette machine ne peut qu’exécuter pas-à-pas des opérations logiques. Le principe de base du cognitivisme est que toutes les opérations qu’accomplit un esprit peuvent en dernière instance être décomposées dans ces opérations logiques élémentaires. J’ai donné quelques arguments contre cette idée d’une intelligence procédurale. Dans À dire vrai (2013) j’ai tenté de faire une critique étendue du procéduralisme qui s’étend malheureusement à de nombreux domaines de la pensée et qui n’est rien d’autre qu’une manifestation de cette pensée unidimensionnelle que dénonçait déjà Herbert Marcuse, une pensée unidimensionnelle qui découlait de la réduction de tout savoir à des opérations (opérationnalisme). Je peux ajouter ici un argument « kantien ». L’intelligence suppose non seulement la capacité de faire des inférences mais aussi et surtout la « faculté de juger », objet de la troisième critique kantienne. Contentons-nous du jugement le plus simple (si on veut) qu’est le jugement déterminant : nous disposons d’une règle et d’un cas particulier à examiner. Le problème du juger consiste à savoir si le cas particulier rentre sous la règle (s’il peut être subsumé sous la règle). C’est par exemple le problème qui se pose dans un tribunal : comment savoir que cet individu particulier a commis effectivement un acte susceptible d’être ramené à une typologie générale des actes dont on déduit une peine à infliger. Dire que M.X est effectivement coupable d’un homicide sans intention de donner la mort, c’est proprement cela juger. Quel est le mécanisme du jugement ? On exhibe des preuves ; on entend des argumentations, les plaidoiries puis on prend la décision. Mais de quel mécanisme dépend cette décision ? Kant soutient que ce mécanisme restera à jamais caché dans les plis de l’âme humaine. Supposons en effet qu’il y ait une règle générale pour déterminer comment appliquer une règle générale à un cas particulier, il faudrait donc une « métarègle » du jugement mais ensuite il faudrait pouvoir déterminer comme s’applique cette métarègle permettant de savoir comme s’applique la règle, puis nécessairement une méta-métarègle et ainsi de suite dans une régression à l’infini. D’où il faudrait en déduire qu’il est impossible de juger. Or, nous jugeons, bien ou mal, mais nous jugeons. À la machine on pourrait dire « M.X a effectivement commis un homicide, on pourrait lui indiquer les circonstances et l’algorithme en déduirait la peine, mais en fait la machine n’aurait rien jugé : c’est l’opérateur humain qui aurait jugé préalablement, mais sans le dire ! En dépit de cette difficulté théorique évidente et connue depuis u moins deux siècles, on fait au moment où ces lignes sont écrites, des essais de jugement assisté par ordinateur, tout comme, dans un certain nombre de secteurs on teste de IA pour prendre des décisions. Dans les deux cas, les machines IA ne jugent ni ne décident ; elles ne font que faire ce pour quoi elles sont faites, effectuer des opérations logiques mécaniquement, opérations qu’ensuite nous interprétons en disant ; « voilà une décision, mais ce n’est pas parce que fait afficher sur un écran « La décision est de lui couper la tête » qu’il s’agit véritablement d’une décision. Admettre comme décision ce qu’affiche l’écran de l’ordinateur, c’est renoncer à sa propre intelligence et agir machinalement (c'est-à-dire très exactement le contraire d’agir intelligemment). Une IA ne pas remplacer une intelligence (humaine) mais, en revanche, il est parfaitement possible que les hommes acceptent de vivre et penser comme des machines.

L’intelligence n’est pas indépendante du corps

Le paradoxe des partisans de l’IA forte est le suivant : ils se croient matérialistes en voulant montrer que la matière peut penser, mais ils sont en fait des idéalistes radicaux, des dualistes cartésiens de l’espèce la plus sectaire et d’un dualisme qui eût effrayé Descartes lui-même, lui qui sait combien le corps et l’esprit sont étroitement conjoints. En effet estimer qu’une machine composée de plastique, de fer, d’aluminium, de cuivre, de silicium, etc. peut penser comme un humain composé de dizaines de milliards d’êtres vivants élémentaires et vivant en lien avec des milliards et de milliards de bactéries et de champignons peuvent tous les deux être le « support » à l’identique de la pensée, c’est supposer en réalité que la pensée n’a aucun rapport avec la matière elle-même. C’est un dualisme et même un idéalisme radical.
Il est vrai que tout le progrès des sciences de la nature au cours des derniers siècles s’est en cherchant à abolir la frontière entre le vivant et l’inerte. Une cellule est bien la brique élémentaire du vivant (théorie cellulaire de Schleiden et Schwann, 1838) et la cellule n’est bien qu’une organisation des acides aminés (des macromolécules organiques, c'est-à-dire à base de radicaux CH) mais les propriétés de la cellule sont radicalement nouvelles et radicalement différentes de celles des molécules qu’étudie la chimie organique. Ce qui nous renvoie encore au problème de l’émergence. Une cellule est un « soi » : la membrane sépare l’intérieur de l’extérieur et les mécanismes physico-internes de la cellule en préservent l’unité et produisent sa reproduction. Au contraire une pièce d’ordinateur n’a aucun « soi ». Elle est de la matière inerte. Une mémoire RAM n’a pas plus de soi et pas même un microprocesseur. L’être vivant, même le plus élémentaire, est affecté par le monde environnant et il est apte à répondre à ces affections. Un animal doté de quelques centaines de neurones ou de quelques milliers de neurones est capables de bien plus d’opérations et de réactivité qu’un ordinateur très puissant, tout simplement parce qu’il est vivant.
Les animaux sentent immédiatement alors que les ordinateurs ne peuvent que capter des signaux, les analyser et les traiter comme n’importe quelle donnée numérique. Encore faut-il préciser que les ordinateurs ne disposent que de deux « sens », la vue et l’ouïe, si l’on peut parler ainsi alors que les animaux ont souvent un odorat, un toucher, un goût et parfois d’autres capteurs comme les « sonars » des dauphins ou les « radars des chauves-souris. Si nous laissons de côté le type de conscience immédiate dont disposent les animaux les plus évolués et que nous nous concentrons sur l’homme, nous pouvons tout de suite voir le gouffre « ontologique » entre l’intelligence humaine et « l’intelligence » de la machine. La machine traite des signaux mais ne perçoit et on ne peut pas simuler toutes les sensations les plus subjectives de l’être humain, comme le goût, l’odorat ou le toucher. On peut imaginer un ordinateur doté d’un capteur capable de faire l’analyse chimique d’un verre de bourgogne, mais l’analyse chimique d’un verre de bourgogne ne dit rien de son goût. Il est d’ailleurs révélateur que nous ne disposions d’aucun mécanisme électronique permettant de mémoriser les sensations autres que visuelles et auditives. Dans la littérature sur l’IA, significativement, il n’y a rien sur ce petit « détail ». Si on reprend l’expression de Michel Henry qui fait du fondement ontologique de l’homme « laie qui s’éprouve elle-même », alors il est évident qu’aucune machine n’en sera jamais capable, précisément parce qu’elle n’est pas vivante !
L’intelligence humaine est inséparable de cette corporéité ou plutôt de cette chair qui en constitue la substance même. L’IA n’est d’ailleurs qu’un produit de cette activité du corps-esprit subjectif humain et au mieux une prothèse comme les lunettes, les appareils auditifs ou les cannes pour marcher. Le désir absurde de construire des machines qui égalent ou surpassent l’homme n’est pas autre chose que désir du devenir machine de l’homme, c'est-à-dire le désir du retour à l’état inorganique qui est,

L’IA est une technologie du renseignement

Si l’IA ne peut prétendre égaler et encore moins se substituer à l’intelligence humaine, il reste que ses fascinantes possibilités doivent être délimitées. Alors que l’IA est une discipline technoscientifique assez ancienne, elle a percé dans l’opinion publique seulement assez récemment (les années 2000). Cette percée est due à deux phénomènes étroitement mêlés : la puissance des machines (vitesse de calcul aussi bien que capacité de mémoire) et l’existence d’internet. La puissance des machines et la baisse considérable de leurs coûts de production ont permis l’extension d’internet et surtout de ce qu’on appelle le « web 2.0 ». Dans sa première version, l’internet, issu du projet américain ARPANET, était essentiellement un système de messagerie et un système de consultation ou d’achat (ce qu’était en France le MINITEL). Jean-Gabriel Ganascia (dans Intelligence artificielle. Vers une domination programmée) considère que le modèle économique du « web 1.0 » ne pouvait pas satisfaire les espérances que l’on avait mises dans les « startup » qui promettaient de vendre tout par le net. Comme il n’est toujours pas beaucoup plus facile de réserver un billet par internet que par le bon vieux minitel, ce sont autres voies qui ont conduit au développement de l’internet que la reconduction sous une forme électronique du catalogue de La Redoute !
À partir du début des années 2000 le web est devenu plus interactif, les utilisateurs ont été invités à enrichir les contenus des sites, à évaluer les services, etc. Dans le même temps les outils de recherche développés par Google et qui sont des outils d’IA permettaient de diversifier les recherches, de faire des liens entre des termes qui ne sont pas liés a priori. Tout cela a permis de constituer des gigantesques masses de données… sur les utilisateurs d’internet, masses de données qui sont le bien le plus précieux des fameux GAFA. Ces big data , traitées par les moyens de l’IA permet de prédire statistiquement les comportements des usages du web, de devancer leurs désirs en leur proposant toutes sortes de choses mirifiques à acheter ou d’orienter les votes : voir l’affaire « Cambridge Analytics », une société qui a détourné les profils de dizaines de millions d’utilisateurs de Facebook pour mieux cibler les messages de campagne du candidat Trump en 2016. On peut se rassurer en disant que ces big data ont essentiellement une visée commerciale, que les GAFA ne veulent pas casser la confiance du public en se mettant trop ouvertement au service des gouvernements, mais la vérité est qu’aucun grand groupe n’opposera de résistance sérieuse quand les services de renseignement des États le leur demanderont. D’autant plus que les États protègent les intérêts de ces grands groupes. Or tout cela n’est possible que par les techniques de l’IA, car évidemment aucun humain, aucun groupe d’humains ne pourrait traiter de telles masses de donnés. Il y a quelques années, on avait mis en cause le programme de surveillance des services américains qui espionnaient (le système ECHELON) mais désormais ce sont les usagers qui volontairement se font ficher auprès des grandes compagnies industrielles et financières. Et ce faisant ils se transforment eux-mêmes en produits. La gestion de l’utilisation des données personnelles de plusieurs milliards d’humains est le plus massif et le plus extraordinaire succès de l’IA – bien que la plupart des gens n’en sache rien.   

À quoi peut bien servir l’IA ?

L’IA comme ensemble de technique devrait être soumise au même examen que toutes les autres techniques. Tout ce qui est possible n’est pas nécessaire souhaitable : il est techniquement possible de détruire l’humanité, d’utiliser des virus comme armes de guerre ou de nourrir l’humanité uniquement avec des produits issus de la chimie. Mais rien de tout cela n’est vraiment souhaitable. De même on peut modifier le génome humain grâce aux techniques de manipulations génétiques mais cette possibilité devrait ne jamais devenir actualité et on devrait sans faiblir interdire d’exercer ceux qui s’avancent sur cette voie. On sait que les techniques de traitement des big data surtout utiles pour le commerce, pour cibler les clients potentiels et les inciter à acheter ou pour la surveillance policière des citoyens selon le modèle chinois. Il y a bien sûr d’autres usages possibles, comme ceux de l’aide au diagnostic médical – à condition qu’on n’en profite pas pour se débarrasser des spécialistes – et d’autres dont l’utilité mériterait pour le moins discussion, comme la voiture autonome. Quant à la justice assistée par ordinateur ou la décision politique par IA, leur simple énoncé devrait suffire à les bannir à jamais.
Sans risquer de trop se tromper, on peut dire que, du côté des plus défavorisés, du côtés de ce qui travaillent, l’IA permettra une surveillance accrue, une augmentation de la pression patronale, la suppression massive d’emplois qualifiés et de grands progrès dans la voie de l’abrutissement généralisé et côtés des seigneurs de notre société de nouveaux moyens de renforcer leur domination, une domination qui sera d’autant mieux acceptée que les classes subalternes trouveront moins de moyens de résister devant ces machines qui représentent le stade suprême de la réification.

Conclusion

Les outils d’IA peuvent être précieux… mais tout aussi dangereux. On sait que les médicaments sont aussi des poisons (et réciproquement) et qu’il en va de même avec toutes les techniques (un couteau peut découper la viande de l’animal dont on se nourrit aussi bien que le corps du voisin). Cependant tous les outils sont clairement perçus comme subordonnés à la volonté humaine ; ils sont simplement des prolongements des organes humaines (outil se dit organon en grec). Il n’en va pas de même avec l’IA puisqu’il ne s’agit plus de créer un outil mais quelque chose qui égalerait et même dépasserait l’homme. Dans la tradition juive, le golem, un être humanoïde fait d’argile et mis en mouvement par des paroles magiques était clairement conçu pour aider les humains. La créature de Frankenstein pourrait être inspirée du golem mais elle n’a pas de fonction utilitaire : son but premier est de manifester le génie de son créateur. Les androïdes imaginés par Philip K. Dick appartiennent à la même espèce que le golem. Avec l’IA c’est autre chose que l’on voir se profiler, quelque chose de différent d’un auxiliaire de l’homme, mais bien son dépassement. Les partisans du « transhumanisme » ou du « post-humanisme » envisagent l’IA comme le successeur de l’homme. Et évidemment nous n’avons nul besoin de prendre cette fantaisie pour argent comptant. Le danger immédiat n’est pas que, comme dans Matrix les machines prennent le pouvoir et asservissent les hommes. Le danger réel est différent : l’IA étant supposée un développement supérieur de l’intelligence elle fournit un modèle sur lequel nous devions nous calquer. La transformation des activités humaines en « procédures » à suivre dans la production, dans les moyens de contrôle, mais aussi dans les relations entre les commerciaux et leur client ou dans le système juridique est déjà bien avancée.  L’intelligence humaine est éliminée au profit de l’obéissance mécanique. Faute de pouvoir construire des machines plus intelligentes que les humains, nous faisons chaque jour de grand progrès pour rendre les humains aussi stupides que des machines. Mais peut-être était-cela le but caché de la science moderne dont les premiers triomphes furent ceux de la mécanique.
Résumons. Il y a deux hypothèses :
1)      L’IA forte et toutes prédictions de ceux qui prétendent qu’un jour un robot aura une conscience de soi sont des calembredaines. Les machines ne sont que des machines qui ne peuvent être dangereuses que si elles servent à certains humains à soumettre les autres.
2)      L’IA forte est possible et alors nous aurons face à nous des concurrents impitoyables et donc il faut arrêter dès maintenant toute recherche en ce domaine et mettre hors d’état de nuire les chercheurs qui veulent faire disparaître l’humanité.
Je penche évidemment pour la première hypothèse mais je n’en suis pas absolument certain (il y a une marge d’erreur). Si je me trompe alors il faudra passer à l’examen de la deuxième hypothèse.
Denis COLLIN – le 3 février 2019



[1] Voir Fredic Jameson, Penser avec la science-fiction, Max Milo, 2008

2 commentaires:

  1. bonjour,
    dans l'expression "intelligence artificielle" je vois à peu près ce qu'est la notion "d'artificielle" mais pas du tout celle "d'intelligence".
    faire en sorte qu'une machine soit dotée d'une intelligence humaine... il me semble que l'emploi de ce mot "intelligence" appliqué à l'homme est surtout une vue de l'esprit, il suffit d'ouvrir un journal ou un livre d'histoire pour voir que cette "intelligence humaine" n'a jamais existé.
    et, comme on le trouve dans dans la sf ou même dans des séries tv comme Westworld, si l'on dotait une machine de la moitié d'une once d'intelligence, son dernier désir serait de ressembler à un être humain.
    bien cordialement,
    Maurice Freton

    RépondreSupprimer

Sur la question des forces productives

  J’ai déjà eu l’occasion de dire tout le bien que je pense du livre de Kohei Saito, Moins . Indépendamment des réserves que pourrait entraî...