Pensée, calcul, logique

On sait depuis longtemps qu’une machine est capable d’effectuer des opérations mathématiques. Hobbes, dans les premières pages du Léviathan, l’affirme sans ambages : “ penser, c’est calculer ”. Pascal et Leibniz sont les inventeurs des machines à calculer modernes. Mais Leibniz ne se contente pas de cela ; il relie cette invention à une conception générale de la pensée : les opérations mathématiques ne sont qu’un cas particulier de la pensée rationnelle et si on peut trouver une représentation de toutes nos pensées dans un langage formel du même type que le langage mathématique, il devrait être possible de calculer avec les pensées de la même façon que nous calculons avec les nombres. Leibniz propose donc d’abord de mettre au point ce genre de langage symbolique des idées, qu’il nomme “ caractéristique universelle ”. Leibniz expose ainsi son projet : “ partout je procède par lettres d'une manière précise et rigoureuse comme dans l'algèbre ou dans les nombres. Si on poursuivait cette méthode, il y aurait moyen de finir bien des controverses et des disputes, en se disant  : comptons  ! On en pourrait encore donner des essais en , et j'en ai dans la jurisprudence. ” (Leibniz à Arnauld - 14 janvier 1688). Gottlob Frege reprendra le projet à travers son “ idéographie ” (Begriffsschrift). Le premier modèle en est “ le langage par formules de l’arithmétique ”, mais lui manquent les “ expressions pour les articulations logiques ”. Il s’agit donc créer un système permettant de “ donner l’expression d’un contenu au moyen de signes écrits et d’une manière plus précise et plus claire que cela n’est possible au regard des mots. ”
La calculabilité de nos pensées demande d’admettre que nos connaissances peuvent être réduites à des propositions atomiques (c'est-à-dire qui ne peuvent être décomposées en propositions plus simples) combinées au moyen des connecteurs logiques. Les raffinements de la logique formelle depuis la fin du xixe siècle ont visé à réaliser ce programme. L’algèbre de Boole (1854) permet de concevoir l’équivalence entre opérations logiques et circuits électriques : les opérations de base de la logique (conjonction, disjonction, négation, implication, etc.) peuvent être représentées par des circuits électriques correctement agencés. L’unité arithmétique et logique d’un ordinateur moderne n’est rien d’autre qu’un ensemble de circuits logiques de ce type. On doit pouvoir généraliser. “ Comme les états internes du programme d’un ordinateur, les pensées se définissent par leurs relations logiques et causales, c’est-à-dire “fonctionnelles”. Il n’est pas essentiel à la pensée qu’elle soit réalisée dans une substance mentale ou physique quelconque, tout comme un programme peut être “implanté” sur des machines de composition matérielle différente. ” (Pascal Engel : article “ Pensée ” dans l’Encyclopédia Universalis)

Raffinements du modèle

Ce modèle, très réducteur, définit ce qu’on appelle la “ théorie computationnelle de l’esprit ”. Évidemment, les ordinateurs actuels et le type de logique formelle dont nous disposons sont très loin de pouvoir représenter l’ensemble des fonctions d’un esprit humain. Mais Paul et Patricia Churchland soutiennent que “ Le cerveau est une sorte d'ordinateur dont les propriétés restent à explorer (…). Le cerveau calcule des fonctions très complexes, bien que d'une façon très différente de celle de l'intelligence artificielle classique. Les cerveaux peuvent être des ordinateurs sans être nécessairement séquentiels ni numériques, sans que le matériel soit dissocié des programmes et sans qu'ils ne manipulent que des symboles. Ce sont des ordinateurs d'un type très différent de ceux que nous utilisons aujourd'hui. ” (Paul et Patricia Churchland : Les machines peuvent-elles penser ? ” in “ Pour la Science ”, mars 1990)
Ainsi on a été contraint de poser que l’esprit n’est rien d’autre que le cerveau et que, par conséquent, on pourrait mieux le comprendre si on était capable de construire une machine bâtie sur les principes de fonctionnement du cerveau. Le modèle connexionniste (souvent assimilé aux “ réseaux de neurones ”) décrit un système constitué d’unités de traitement reliées par des connexions. Chaque unité de traitement reçoit par des connexions des informations d’activation en entrée et envoie à d’autres unités de traitement des informations en sortie. Les connexions sont caractérisées par leur poids qui détermine le niveau de l’activation. Ces réseaux d’unités et de connexions sont des objets mathématiques qui peuvent donc être “ implémentés ” par des programmes d’ordinateurs et peuvent être reliés à des domaines empiriques. Si on assimile les unités de traitement à des neurones et les connexions aux synapses, l’architecture connexionniste peut alors représenter le cerveau humain.
On voit la différence entre les deux approches. Dans la théorie computationnelle classique, on représente les fonctions intellectuelles de l’esprit humain par des opérations logiques qui peuvent être traitées par l’ordinateur. Le fonctionnement réel du cerveau humain est considéré comme secondaire. Dans la deuxième approche, ne cherche pas à représenter la pensée mais à représenter le cerveau, la proposition sous-jacente étant que la pensée n’est rien d’autre que le fonctionnement du cerveau.

Syntaxe et sémantique

Une des critiques majeure adressée à ce modèle par des auteurs comme John R. Searle est que les ordinateurs peuvent simuler certaines fonctions de l’esprit humain mais qu’il n’est pas possible de dire que l’esprit est quelque chose comme un ordinateur parce que les ordinateurs sont des machines syntaxiques alors que les symboles pour un esprit humain ont une signification. C’est l’argument dit de “ la chambre chinoise ” exposé par Searle. Alan Turing avait défini un test permettant de décider si une machine pense : supposons un opérateur humain A dialoguant par une ligne informatique avec un autre opérateur humain B et avec un ordinateur C. Si A ne peut pas distinguer lequel de B et C est un ordinateur, alors on pourra dire que l’ordinateur pense. Searle critique cette vision purement comportementaliste. Il lui oppose l’expérience suivante : supposons que A parle le chinois et envoie à B des idéogrammes chinois. Supposons que B sans savoir le chinois dispose d’un manuel lui permettant seulement de savoir quels symboles peuvent être envoyés en réponse à A. A pourra croire que B comprend le chinois alors que B sait seulement comment manipuler les symboles chinois. C’est la sémantique qui est donc éliminée dans le test de Turing.
Reprenons ce problème différemment. Quand je tape 2+3 sur mon clavier, l’ordinateur ne “ sait ” pas que j’utilise les nombres 2 et 3 et que je désire effectuer une addition. Taper 2+3, ce n’est rien d’autre, “ vu ” de l’ordinateur, qu’actionner des interrupteurs, action qui va déterminer un certain résultat physique, du même genre qu’allumer  une ampoule. Le résultat 5 affiché par l’ordinateur ne signifie donc pas 5, mais seulement positionnement d’une zone mémoire dans un certain état. Les processus physiques qui se produisent dans les circuits de l’ordinateur n’ont l’a signification de l’addition 2+3 que pour l’agent humain qui utilise l’ordinateur. La sémantique reste entièrement du côté de l’esprit humain. L’ordinateur peut simuler des comportements humains intelligents, mais il n’en a pas une représentation.
Dans une lettre au marquis de Newcastle, Descartes pose la question : comment distinguer une bête du genre perroquet ou un automate astucieux d’un individu doué d’une âme. La réponse est claire : “ Enfin, il n’y a aucune de nos actions extérieures, qui puisse assurer ceux qui les examinent, que notre corps n’est pas seulement une machine qui se remue de soi-même, mais qu’il y a aussi en lui une âme qui a des pensées, excepté les paroles, ou autres signes faits à propos des sujets qui se présentent, sans se rapporter à aucune passion. ” Tant qu’on reste dans des domaines bien définis et utilisant des langages stéréotypés, “ enrégimentés ” comme dirait Putnam, on peut faire en sorte que la machine semble produire des “ signes à propos des sujets qui se présentent ”, mais dès qu’on sort de ces cadres étroits, plus aucune illusion n’est possible sur l’aptitude d’un système algorithmique à penser au sens humain de ce terme.

Critiques de la théorie computationnelle de l’esprit

Pour admettre la théorie computationnelle de l’esprit, il faut donc souscrire entièrement au béhaviorisme, c'est-à-dire à l’idée que l’esprit ne peut être compris que comme une boîte noire dont seuls les comportements extérieurs observables peuvent être des objets pertinents d’investigation scientifique. Or, les individus, en tant qu’ils pensent et parlent, savent bien qu’ils ne sont pas des boîtes noires. Pour l’observateur extérieur, le problème de la conscience peut, à la limite, être éliminé. Mais pour le sujet, c’est évidemment impossible. La théorie computationnelle de l’esprit butte donc sur “ le point de vue de la première personne ”, ou encore sur ce qu’on appelle l’intentionnalité. Les diverses tentatives pour surmonter cette difficulté, soit qu’on affirme que l’intentionnalité est toujours prêtée par un observateur à un sujet, soit qu’on en cherche des formes élémentaires dans les organismes vivants élémentaires, ne parviennent pas à des solutions claires et convaincantes.
Hilary Putnam, un des premiers défenseur de cette théorie computationnelle, en est venu à la rejeter en montrant qu’elle suppose une conception fonctionnaliste de l’esprit. Il montre d’abord que tous les organismes physiques possibles sont susceptibles d’une infinité de “ descriptions fonctionnelles ” et que, donc, le fonctionnalisme n’explique rien – le fonctionnalisme nous ramène en fait aux causes finales de l’aristotélisme classique. Plus fondamentalement, Putnam s’attaque au fond de la théorie computationnelle, mais aussi aux thèses de Searle. Ce dernier, bien que rejetant le modèle de l’ordinateur, ne renonce pas à “ naturaliser ” la conscience ; il rejette le réductionnisme qui réduit la conscience à des états physiques mais proposent de considérer la conscience comme un ensemble de propriétés émergentes à partir de l’évolution biologique, ce qui l’amène à rejoindre les thèses sur le modèle connexionniste de l’esprit. Pour Putnam, c’est le problème qui est, à la racine, mal posé. Quand nous parlons ou pensons, nos paroles ou pensées ont une référence – quand je dis “ le chat est sur le tapis ”, cette phrase a pour référence le fait que le chat est (ou non) sur le tapis. Tous les partisans de la naturalisation de l’esprit doivent parvenir à expliquer que cette référence est une relation physique comme une autre. Mais s’il en est ainsi, dit Putnam, alors nous devons renoncer à la notion même de vérité … à laquelle on ne peut guère renoncer si on veut proposer une compréhension correcte de l’esprit humain. On peut, certes, redéfinir la vérité comme la propriété d’un état neurologique dans lequel nous disposons d’indications fiables quant à notre environnement. On est alors conduit à un relativisme du genre de celui développé par Richard Rorty, mais une telle position philosophique s’oppose radicalement à l’attitude de réalisme scientifique caractéristique des théories computationnelles et fonctionnalistes de l’esprit.
Putnam rappelle que ces questions ont déjà été posées philosophiquement, notamment par Kant quand il aborde le problème du schématisme, c'est-à-dire au mécanisme par lequel l’entendement peut se rapporter aux phénomènes. “ Le schématisme de notre entendement, relativement aux phénomènes et à leur simple forme, est un art caché dans les profondeurs de l'âme humaine et dont il sera toujours difficile d'arracher le vrai mécanisme à la nature ”, dit KantLe paradigme de l’esprit-machine est sans doute une idée utile technologiquement. Elle est encore utile dans la mesure où les simulations que peut effectuer les machines nous obligent à développer la logique et la réflexion sur la connaissance. Mais qu’un ordinateur doté d’un programme adéquat représente un esprit, ce n’est sans doute rien d’autre qu’une de ces idées métaphysiques dont Kant a montré qu’elles outrepassaient les pouvoirs de la raison.

Bibliographie

Collin (Denis): La matière et l'esprit (Armand Colin, 2004)
Descartes (René) : Lettre au Marquis de Newcastle (16 novembre 1646). Œuvres, tome IV, édition Adam et Tannery.
Frege  (Gottlob) : Écrits logiques et philosophiques, traduction de Claude Imbert, Le Seuil, 1971, réédition Points.
Putnam (Hilary) : Représentation et réalité. Gallimard, NRF-Essais, 1990, traduction de Claudine Engel-Tiercelin.
Searle (John R.): La redécouverte de l’esprit. Gallimard, NRF-Essais, 1995, traduction de Claudine Tiercelin