dimanche 29 juin 2025

La philosophie contre l'IA


L'épreuve de philosophie du baccalauréat 2025 fut classique. Parmi les sujets: « La vérité est-elle toujours convaincante?» Un professeur a eu l'idée de demander à chatGPT de rédiger sa propre "copie". Des professeurs sollicités donnèrent une excellente note à cette copie, entre 18 et 20! (voir la copie de chat GPT). J'ai sollicité l'avis éclairé de quelques collègues. Voici la réponse de Jean-Marie Nicolle.

Cette « copie » est effectivement affligeante de confusion et d’inintelligence. Bien qu’on y distingue à peu près la conviction et la persuasion, on n’en tient pas compte sur le fond et on y égrène des doctrines philosophiques comme autant d’opinions sur le sujet. Les correcteurs qui y voient une bonne copie ont-ils oublié que la réflexion n’est pas une récitation de références. Une dissertation est un exercice de résolution d’un problème et non une fiche d’histoire de la philosophie.  Et si l’IA lisait Descartes ?

 

Quelles sont les caractéristiques qui différencient définitivement la pensée humaine d’une machine ? Descartes a déjà envisagé ce problème :

« …s'il y avait de telles machines qui eussent les organes et la figure extérieure d'un singe ou de quelque autre animal sans raison, nous n'aurions aucun moyen pour reconnaître qu'elles ne seraient pas en tout de même nature que ces animaux ; au lieu que s'il y en avait qui eussent la ressemblance de nos corps, et imitassent autant nos actions que moralement il serait possible, nous aurions toujours deux moyens très certains pour reconnaître qu'elles ne seraient point pour cela de vrais hommes. »[1]

Selon Descartes, ces deux moyens sont l’intelligence et le langage : à la différence d’un automate, l’homme invente des solutions nouvelles aux problèmes qu’il rencontre, et il communique avec ses semblables par des signes qu’il combine sans cesse de manière nouvelle. Ce n’est pas parce qu’un robot semble avoir des gestes et des propos pertinents qu’il est intelligent. Une abeille produit des cellules de cire géométriquement parfaites, mais elle ne fait que répéter ce que son instinct lui dicte. De même un robot bien programmé et bien réglé travaille correctement, mais il ne fait qu’exécuter son programme. Il ne faut pas se laisser abuser par la précision des machines. Derrière l’apparente ressemblance entre une machine qui imite très bien l’homme et un être véritablement humain, il y a cette différente essentielle entre la répétition et l’invention.

Dépourvue de conscience, c’est-à-dire de savoir sur son savoir, l’IA ne peut accéder à une opération de second degré comme questionner une question, s’étonner de ses échecs ou de ses erreurs, évaluer ses méthodes, revenir sur son propre travail, pratiquer l’ironie, examiner son fonctionnement en adoptant un regard en surplomb sur ses opérations, remettre en cause ses choix, etc. Tout logiciel informatique ne peut que traiter des informations, et cela, de la seule manière prévue par le programmeur. Tout le matériel doit être prévu ; il n’y a aucune place pour la surprise, ni pour l’étonnement, donc ni pour l’improvisation, ni pour l’invention. Les réponses de ChatGPT sont des documents engendrés, non pas créés, de même nature que les données analysées. Certes, leur formulation et leur organisation sont tout à fait remarquables, mais elles ne comportent aucune invention.

 

Comment l’homme peut-il exercer la liberté de penser ? Nous pouvons encore consulter cet expert de l’intelligence humaine, René Descartes, qui, dans ses Règles pour la direction de l’esprit[2], nous a donné des instructions très utiles et toujours valables du fonctionnement de notre raison. Nous ne prendrons que quelques exemples, mais nous découvrirons que toutes ses règles vont exactement à l’encontre du fonctionnement de l’intelligence artificielle. Par exemple, « Nous rejetons par cette règle toutes ces connaissances qui ne sont que probables. » (Règle 2), alors que le coefficient de probabilité d’une proposition est le ressort essentiel dans l'apprentissage de l'IA. « II faut chercher sur l’objet de notre étude, non pas ce qu’en ont pensé les autres, ni ce que nous soupçonnons nous-mêmes, mais ce que nous pouvons voir clairement et avec évidence, ou déduire d’une manière certaine. C’est le seul moyen d’arriver à la science. » (Règle 3) C'est pourtant ce que fait l'IA générative qui ne fait que glaner ce que les autres ont déjà écrit sans jamais inventer, ni rien soumettre à une démonstration. L’IA fonctionne à rebours de l’inventivité et ne pourra jamais trouver des idées improbables comme l’orange bleue de Paul Eluard ou les petits bateaux qui ont des jambes de la chanson. « Il ne nous servirait de rien de compter les suffrages, pour suivre l’opinion qui a pour elle le plus grand nombre. » (Règle 3). Et que font les réseaux sociaux, sinon jouer sur l’opinion du plus grand nombre ? « Aussi disons-nous qu’il faut suppléer à la faculté de la mémoire par un exercice continuel de la pensée. » (Règle 7), alors que l'IA est conçue pour dispenser l'homme de cet exercice. Dans cette même règle 7, Descartes donne l’exemple d'un algorithme facilement programmable : « Ainsi, voulez-vous faire un anagramme parfait en transposant les lettres d’un mot ? […] il suffira seulement de se tracer, dans l’examen des transpositions que les lettres peuvent subir, un ordre tel qu’on ne revienne jamais sur la même, puis de les ranger en classes, de manière à pouvoir reconnaître de suite dans laquelle il y a le plus d’espoir de trouver ce qu’on cherche. » Et il conclut : « Ces préparatifs une fois faits, le travail ne sera plus long, il ne sera que puéril. » Effectivement, le travail qu’accomplit un logiciel n’est que « puéril » ; il consiste à répéter une suite ordonnée d’opérations simples (l’algorithme), mais il n’en invente aucune. Enfin, on parvient au cœur de l’intelligence humaine avec la règle 8 :

« Qu’un homme se propose pour question d’examiner toutes les vérités à la connaissance desquelles l’esprit humain peut suffire, question que, selon moi, doivent se faire, une fois au moins en leur vie, ceux qui veulent sérieusement arriver à la sagesse ; il trouvera, à l’aide des règles que j’ai données, que la première chose à connaître, c’est l’intelligence, puisque c’est d’elle que dépend la connaissance de toutes les autres choses, et non réciproquement. »

Autrement dit, la première chose que l’intelligence doit connaître, c’est elle-même ! L’intelligence artificielle sait-elle définir l’intelligence ? Se connaît-elle elle-même ? Et pourtant, c’est par là qu’il faut commencer pour être sage.

Aussi, un élève de Terminale qui apprend à philosopher est-il d’emblée bien au-delà de toute intelligence artificielle. En s’exerçant, il apprend qu’en philosophie, on ne pose pas une question de cours à laquelle il lui faudrait répondre en récitant par cœur ce qu’il a appris, mais qu’il doit d’abord comprendre une question telle qu’elle lui est posée. Or, l’IA cherche immédiatement des réponses, repère une fiche de cours ou en fabrique une, mais ne s’arrête pas pour saisir le sens d’une question parce qu’elle n’a aucun accès au sens. Elle n’examine pas la question, mais recherche immédiatement les réponses disponibles sur le Web. L’élève apprend ensuite à élaborer une problématique : tout énoncé recèle un problème, c’est-à-dire une difficulté essentielle qu'il s'agit de mettre à jour ; une fois identifié, le problème permettra d'élaborer une démarche de résolution. Le problème, c’est que l’IA ne sait construire aucun problème ! Elle ne peut avoir le sens du problème, et donc, si l’on en croit Bachelard, n’a aucun esprit scientifique :

« L'esprit scientifique nous interdit d'avoir une opinion sur des questions que nous ne comprenons pas, sur des questions que nous ne savons pas formuler clairement. Avant tout, il faut savoir poser des problèmes. Et quoi qu'on dise, dans la vie scientifique, les problèmes ne se posent pas d'eux-mêmes. C'est précisément ce sens du problème qui donne la marque du véritable esprit scientifique. »[3]

L’IA ne sait poser aucune véritable question puisque ce sont ses utilisateurs qui lui en posent ; elle ne travaille qu’avec des données qu’elle trouve comme allant de soi ; elle ne construit rien. En dehors de sa puissance de calcul, elle n’a aucune des qualités d’un esprit scientifique, et même, elle fonctionne à rebours d’un esprit scientifique. Par exemple, si Galilée a pu découvrir la loi de la chute des corps, c’est bien en pensant à l’encontre des données empiriques admises en son temps, grâce à une expérience de pensée (la chute d’un corps dans le vide) irréalisable à son époque. Or, puisque l’IA ne fonctionne qu’avec les données existantes, elle ne peut pas concevoir une expérience de pensée ; elle peut assister le travail des chercheurs, mais ne peut rien découvrir par elle-même. Comme le soutient Heidegger, la pensée calculante fonctionne à l’opposé de la pensée méditante.[4] Dans ces conditions, on aboutit à la conclusion la plus plate qui soit : le relativisme « Car en dernier lieu, c’est la disposition de chacun qui décidera si la vérité triomphe dans les esprits ou si, faute de combattants, le mensonge continuera de l’emporter. » Un élève sérieux en philosophie devrait avoir renoncé à la solution relativiste depuis Noël !

 



[1] René Descartes, Discours de la méthode, Partie V, Paris, Garnier-Flammarion, 1966.

[2] René Descartes, Les règles pour la direction de l’esprit, Paris, Vrin, 2000.

[3] Gaston Bachelard, La formation de l''esprit scientifique, 1938, p. 14.

[4] Martin Heidegger, « Sérénité » (1955), in Question III, Paris, Gallimard, 1966, p. 133-148.


Aucun commentaire:

Enregistrer un commentaire

La philosophie contre l'IA

L'épreuve de philosophie du baccalauréat 2025 fut classique. Parmi les sujets: « La vérité est-elle toujours convaincante?» Un professeu...