L'épreuve de philosophie du baccalauréat 2025 fut classique. Parmi les sujets: « La vérité est-elle toujours convaincante?» Un professeur a eu l'idée de demander à chatGPT de rédiger sa propre "copie". Des professeurs sollicités donnèrent une excellente note à cette copie, entre 18 et 20! (voir la copie de chat GPT). J'ai sollicité l'avis éclairé de quelques collègues. Voici la réponse de Jean-Marie Nicolle.
Cette
« copie » est effectivement affligeante de confusion et
d’inintelligence. Bien qu’on y distingue à peu près la conviction et la
persuasion, on n’en tient pas compte sur le fond et on y égrène des doctrines
philosophiques comme autant d’opinions sur le sujet. Les correcteurs qui y
voient une bonne copie ont-ils oublié que la réflexion n’est pas une récitation
de références. Une dissertation est un exercice de résolution d’un problème et
non une fiche d’histoire de la philosophie.
Et si l’IA lisait Descartes ?
Quelles sont les
caractéristiques qui différencient définitivement la pensée humaine d’une
machine ? Descartes a déjà envisagé ce problème :
« …s'il y avait de telles machines qui eussent
les organes et la figure extérieure d'un singe ou de quelque autre animal sans
raison, nous n'aurions aucun moyen pour reconnaître qu'elles ne seraient pas en
tout de même nature que ces animaux ; au lieu que s'il y en avait qui
eussent la ressemblance de nos corps, et imitassent autant nos actions que
moralement il serait possible, nous aurions toujours deux moyens très certains
pour reconnaître qu'elles ne seraient point pour cela de vrais hommes. »[1]
Selon Descartes, ces
deux moyens sont l’intelligence et le langage : à la différence d’un
automate, l’homme invente des solutions nouvelles aux problèmes qu’il
rencontre, et il communique avec ses semblables par des signes qu’il combine
sans cesse de manière nouvelle. Ce n’est pas parce qu’un robot semble avoir des
gestes et des propos pertinents qu’il est intelligent. Une abeille produit des
cellules de cire géométriquement parfaites, mais elle ne fait que répéter ce
que son instinct lui dicte. De même un robot bien programmé et bien réglé
travaille correctement, mais il ne fait qu’exécuter son programme. Il ne faut
pas se laisser abuser par la précision des machines. Derrière l’apparente
ressemblance entre une machine qui imite très bien l’homme et un être
véritablement humain, il y a cette différente essentielle entre la répétition
et l’invention.
Dépourvue de
conscience, c’est-à-dire de savoir sur son savoir, l’IA ne peut accéder à une
opération de second degré comme questionner une question, s’étonner de ses
échecs ou de ses erreurs, évaluer ses méthodes, revenir sur son propre travail,
pratiquer l’ironie, examiner son fonctionnement en adoptant un regard en
surplomb sur ses opérations, remettre en cause ses choix, etc. Tout logiciel
informatique ne peut que traiter des informations, et cela, de la seule manière
prévue par le programmeur. Tout le matériel doit être prévu ; il n’y a
aucune place pour la surprise, ni pour l’étonnement, donc ni pour
l’improvisation, ni pour l’invention. Les réponses de ChatGPT sont des
documents engendrés, non pas créés, de même nature que les données analysées.
Certes, leur formulation et leur organisation sont tout à fait remarquables,
mais elles ne comportent aucune invention.
Comment l’homme peut-il
exercer la liberté de penser ? Nous pouvons encore consulter cet expert de
l’intelligence humaine, René Descartes, qui, dans ses Règles pour la
direction de l’esprit[2],
nous a donné des instructions très utiles et toujours valables du
fonctionnement de notre raison. Nous ne prendrons que quelques exemples, mais
nous découvrirons que toutes ses règles vont exactement à l’encontre du
fonctionnement de l’intelligence artificielle. Par exemple, « Nous
rejetons par cette règle toutes ces connaissances qui ne sont que
probables. » (Règle 2), alors que le coefficient de probabilité d’une
proposition est le ressort essentiel dans l'apprentissage de l'IA. « II faut
chercher sur l’objet de notre étude, non pas ce qu’en ont pensé les autres, ni
ce que nous soupçonnons nous-mêmes, mais ce que nous pouvons voir clairement et
avec évidence, ou déduire d’une manière certaine. C’est le seul moyen d’arriver
à la science. » (Règle 3) C'est pourtant ce que fait l'IA générative qui
ne fait que glaner ce que les autres ont déjà écrit sans jamais inventer, ni
rien soumettre à une démonstration. L’IA fonctionne à rebours de l’inventivité
et ne pourra jamais trouver des idées improbables comme l’orange bleue de Paul
Eluard ou les petits bateaux qui ont des jambes de la chanson. « Il ne
nous servirait de rien de compter les suffrages, pour suivre l’opinion qui a
pour elle le plus grand nombre. » (Règle 3). Et que font les réseaux
sociaux, sinon jouer sur l’opinion du plus grand nombre ? « Aussi
disons-nous qu’il faut suppléer à la faculté de la mémoire par un exercice
continuel de la pensée. » (Règle 7), alors que l'IA est conçue pour
dispenser l'homme de cet exercice. Dans cette même règle 7, Descartes donne
l’exemple d'un algorithme facilement programmable : « Ainsi, voulez-vous
faire un anagramme parfait en transposant les lettres d’un mot ? […] il
suffira seulement de se tracer, dans l’examen des transpositions que les
lettres peuvent subir, un ordre tel qu’on ne revienne jamais sur la même, puis
de les ranger en classes, de manière à pouvoir reconnaître de suite dans
laquelle il y a le plus d’espoir de trouver ce qu’on cherche. » Et il
conclut : « Ces préparatifs une fois faits, le travail ne sera plus
long, il ne sera que puéril. » Effectivement, le travail qu’accomplit un
logiciel n’est que « puéril » ; il consiste à répéter une suite
ordonnée d’opérations simples (l’algorithme), mais il n’en invente aucune.
Enfin, on parvient au cœur de l’intelligence humaine avec la
règle 8 :
« Qu’un homme se propose pour question d’examiner
toutes les vérités à la connaissance desquelles l’esprit humain peut suffire,
question que, selon moi, doivent se faire, une fois au moins en leur vie, ceux
qui veulent sérieusement arriver à la sagesse ; il trouvera, à l’aide des
règles que j’ai données, que la première chose à connaître, c’est
l’intelligence, puisque c’est d’elle que dépend la connaissance de toutes les
autres choses, et non réciproquement. »
Autrement dit, la
première chose que l’intelligence doit connaître, c’est elle-même !
L’intelligence artificielle sait-elle définir l’intelligence ? Se
connaît-elle elle-même ? Et pourtant, c’est par là qu’il faut commencer
pour être sage.
Aussi, un élève de
Terminale qui apprend à philosopher est-il d’emblée bien au-delà de toute
intelligence artificielle. En s’exerçant, il apprend qu’en philosophie,
on ne pose pas une question de cours à laquelle il lui faudrait répondre en
récitant par cœur ce qu’il a appris, mais qu’il doit d’abord comprendre une
question telle qu’elle lui est posée. Or, l’IA cherche immédiatement des
réponses, repère une fiche de cours ou en fabrique une, mais ne s’arrête pas
pour saisir le sens d’une question parce qu’elle n’a aucun accès au sens. Elle
n’examine pas la question, mais recherche immédiatement les réponses
disponibles sur le Web. L’élève apprend ensuite à élaborer une
problématique : tout énoncé recèle un problème, c’est-à-dire une
difficulté essentielle qu'il s'agit de mettre à jour ; une fois identifié,
le problème permettra d'élaborer une démarche de résolution. Le problème, c’est
que l’IA ne sait construire aucun problème ! Elle ne peut avoir le sens du
problème, et donc, si l’on en croit Bachelard, n’a aucun esprit
scientifique :
« L'esprit scientifique nous interdit d'avoir une
opinion sur des questions que nous ne comprenons pas, sur des questions que
nous ne savons pas formuler clairement. Avant tout, il faut savoir poser des
problèmes. Et quoi qu'on dise, dans la vie scientifique, les problèmes ne se
posent pas d'eux-mêmes. C'est précisément ce sens du problème qui donne la
marque du véritable esprit scientifique. »[3]
L’IA ne sait poser
aucune véritable question puisque ce sont ses utilisateurs qui lui en
posent ; elle ne travaille qu’avec des données qu’elle trouve comme allant
de soi ; elle ne construit rien. En dehors de sa puissance de calcul, elle
n’a aucune des qualités d’un esprit scientifique, et même, elle fonctionne à
rebours d’un esprit scientifique. Par exemple, si Galilée a pu découvrir la loi
de la chute des corps, c’est bien en pensant à l’encontre des données
empiriques admises en son temps, grâce à une expérience de pensée (la chute
d’un corps dans le vide) irréalisable à son époque. Or, puisque l’IA ne
fonctionne qu’avec les données existantes, elle ne peut pas concevoir une
expérience de pensée ; elle peut assister le travail des chercheurs, mais
ne peut rien découvrir par elle-même. Comme le soutient Heidegger, la pensée
calculante fonctionne à l’opposé de la pensée méditante.[4]
Dans ces conditions, on aboutit à la conclusion la plus plate qui soit :
le relativisme « Car en dernier lieu, c’est la disposition de chacun qui
décidera si la vérité triomphe dans les esprits ou si, faute de combattants, le
mensonge continuera de l’emporter. » Un élève sérieux en philosophie
devrait avoir renoncé à la solution relativiste depuis Noël !
[1] René Descartes, Discours
de la méthode, Partie V, Paris, Garnier-Flammarion, 1966.
[2] René Descartes, Les
règles pour la direction de l’esprit, Paris, Vrin, 2000.
[3] Gaston Bachelard, La formation de l''esprit scientifique, 1938,
p. 14.
[4] Martin Heidegger,
« Sérénité » (1955), in Question III, Paris, Gallimard, 1966,
p. 133-148.
Aucun commentaire:
Enregistrer un commentaire