Affichage des articles dont le libellé est théorie de la connaissance. Afficher tous les articles
Affichage des articles dont le libellé est théorie de la connaissance. Afficher tous les articles

samedi 4 avril 2015

La vérité des apparences

Chez d'assez nombreux philosophes (mais aussi bien au-delà), l'apparence est systématiquement dévalorisée. L'apparence est toujours plus ou moins vue comme l'apparence trompeuse, l'apparat qui est là pour éblouir et pour empêcher de voir la réalité. L'apparence c'est l'ombre sur le mur de la caverne que les hommes enchaînés prennent pour la réalité elle-même. Mais dans le même temps, il faut bien reconnaître que l'essence cachée ne peut apparaître, que l'apparence est aussi la manifestation de l'essence. La philosophie ne peut dévoiler ce qui est caché que si ce qui est caché ne l'est pas complètement. Le dévoilement auquel se livre la philosophie ressemble fort à l'inauguration officielle des statues et monuments : la statue est cachée sous un drap mais le drap montre qu'elle est cachée et n'est là que pour ménager l'effet de surprise.

jeudi 19 février 2015

Faits et vérité

S’en tenir aux faits est la règle du journalisme qui prétend être véridique. Les sciences rendent compte des faits, tels qu’ils sont, sans adjonction extérieure, prétend-on. Il semblerait donc que la référence aux faits est bien la garantie ultime de la vérité. Sans cette référence aux faits nous sommes condamnés à demeurer dans le monde de la croyance. Mais ce bon sens largement partagé exigerait qu’on s’entende sur ce qu’est un fait. Si le fait est garant de la vérité, cela signifie que l’énonciation de la vérité est l’énonciation d’un fait. Vérité et fait semblent inséparables (I). Mais il peut s’en déduire que le fait n’existe pas indépendamment de l’énoncé qui le décrit : le fait serait donc une construction de la raison, le produit d’une opération de l’esprit (II). Si cette dernière proposition est vraie, comment alors s’assurer que l’esprit ne délire point, que le fait n’est pas imaginaire et finalement sans rapport avec cette réalité que la pensée tente de saisir ? (III)

(I)
En un premier sens, un fait est ce qui est fait ! Le vrai et le fait (verum-factum) peuvent se mettre l’un pour l’autre, soutient Vico. Tout ce qui est est le résultat de l’activité du grand ouvrier, de Dieu donc, qui l’a fait donc le connaît. Dieu connaît la vérité, il est la vérité elle-même, puisqu’il a fait ce qui est, il a fait que ce qui est est de telle ou telle sorte, il est comme le dit Vico, « le premier facteur ». Vico en déduit que nous ne connaissons véritablement que ce que nous avons fait nous-mêmes. Les mathématiques sont les produits de l’activité de l’esprit et c’est pourquoi nous connaissons en vérité, sans le moindre reste, les mathématiques. Nous pouvons connaître en vérité les sociétés humaines et leur droit, parce que nous les avons faits. Inversement, la nature que nous n’avons pas faite – nous-mêmes y compris – est nécessairement connue d’une connaissance plus incertaine. La vérité donc n’appartient pas à la chose, elle n’est pas déposée dans l’être, elle appartient à celui qui fait. En ce premier sens, la garantie de la vérité, c’est de l’avoir fait. Ainsi la vérité des sciences de la nature, c’est tout simplement d’être capable de produire le fait. Le chimiste qui produit par synthèse une molécule connaît la vérité au sujet de cette molécule.
Il y a ici quelque chose que l’on pourrait retrouver chez Hegel. La vérité ne saurait être une pure connaissance. Le vrai est l’effectif (Wirklich). L’effectif, ce n’est pas simplement la réalité, mais la réalité qui se fait  dans l’esprit, dans le travail de la pensée. Il y a aussi quelque chose de semblable chez Marx, qui suit au plus près Hegel sur ce point : le vrai est la reconstruction du réel par la pensée. Dans une première phase la pensée procède à des abstractions et dans une deuxième phase ces abstractions permettent de reconstruire le réel comme « réel pensé », non plus comme quelque chose qui se donne immédiatement au sens, mais comme la synthèse de nombreuses déterminations.
On pourrait donc dire que le vrai n’est que la puissance de production de l’esprit, la puissance de « faire ». La vérité, proprement, ne requiert donc pas « la référence aux faits », elle est le fait, en prenant ce mot dans son acception première qui renvoie à l’activité du sujet. Une telle pensée, à l’œuvre dans la Science nouvelle de Vico, s’oppose à la « science ancienne » qui cherche la vérité dans l’être – ainsi dans la métaphysique aristotélicienne.
Revenons maintenant à une vue plus traditionnelle, au point de vue de la connaissance pure.
Un fait est quelque chose qui se fait ou s’est fait. C’est quelque chose qui a été produit. Le fait s’est déposé dans l’épaisseur du réel – il est, si l’on veut parler le langage de Spinoza, un mode fini de la substance infinie, produit par l’enchevêtrement infini des causes et des effets. Le réel, ce n’est pas le chien, mais le chien aboie, le chien est dans sa niche, le chien monte la garde, etc. Le réel est posé dans son effectivité concrète comme l’objectivité elle-même face à la subjectivité de la pensée qui le pense. Considéré ainsi, le fait n’est pas une « apparence sensible » derrière laquelle se cacherait le réel. Il est le mode d’existence même de la réalité. Dans les Idées directrices pour une phénoménologie, Husserl commence par élucider le concept de « fait ». La connaissance naturelle, dit-il, commence avec l’expérience et demeure dans les limites de l’expérience. Et toutes les sciences se placent dans cette attitude naturelle pour laquelle on peut poser l’équivalence de trois concepts, « être réel », « être vrai » et « être dans le monde ». La réalité naturelle nous est originairement donnée. Et il s’en déduit que « le monde est la somme des objets d’une expérience possible et d’une connaissance possible par expérience ». Toutes les sciences issues de l’expérience sont « des sciences du fait ». L’expression est précise, elle écarte toutes les définitions vagues (sciences de la nature, etc.). En effet, « Dans l’expérience, les actes de connaissance fondamentaux posent la réalité naturelle sous forme individuelle » (Idées directrices…, I, 1, §2). Ce qui nous est donné nous est toujours donné dans une certaine existence spatio-temporelle – alors que la même réalité considérée dans son essence pourrait être ailleurs, à un autre moment, etc. De ce point de vue l’être individuel est contingent, et c’est cette contingence que Husserl nomme « facticité ». Mais cette contingence a un corrélat : la nécessité. Ce qui est contingent implique la possession d’une essence qu’il s’agira de saisir dans sa pureté, car ce qui est donné  dans l’expérience est toujours un « ceci là ». Nous laissons de côté les développements de Husserl sur la saisie de cette essence. Retenons seulement que ce qui se donne c’est d’abord le fait dans sa singularité empirique. Il n’est pas de science qui ne parte de là. Et en ce sens, la référence aux faits est donc le point de départ nécessaire de notre connaissance du monde.
Éclaircissons encore cette notion de fait. Le fait est à la fois ce qui est exprimé par une proposition et un certain état de choses. Dans le Tractatus logico-philosophicus, Wittgenstein commence par définir le fait. « 1. – Le monde est tout ce qui a lieu. 1.1 – Le monde est la totalité des faits, non des choses. 1.11 – Le monde est déterminé par les faits et par ceci qui sont tous les faits. […] 1.13 – Les faits dans l’espace logique sont le monde. 1.2 – Le monde se décompose en faits.» Et il précise : « 2 – Ce qui a lieu, le fait, est la subsistance d’états de choses. 2.01 – L’état de choses est une connexion d’objets (entités, choses). 2. 011 – Il fait partie de l’essence d’une chose d’être l’élément constitutif d’un état de choses. » Et ceci encore : « 6.13 – La logique n’est point une théorie mais une image qui reflète le monde. La logique est transcendantale. » Dans cette conception, les propositions sont des « images des faits » et la totalité des pensées vraies est l’image du monde (3.01). Wittgenstein renouvelle ici l’antique conception aristotélicienne qui veut que dire le vrai est dire ce qui est : « 2.221 – ce que l’image figure est son sens. 2.222 – C’est dans l’accord ou le désaccord de son sens avec la réalité que consiste sa vérité ou sa fausseté. 2.223 –Pour reconnaître si l’image est vraie ou fausse, nous devons la comparer avec la réalité. »  Et si la proposition est une image logique, elle représente un état de choses. Ainsi, une proposition qui ne réfère pas à un fait (sachant qu’une image est aussi un fait) est une proposition dénuée de sens. On le voit sans la moindre ambiguïté : la référence aux faits est tout simplement le sens de la proposition et donc aucune vérité n’est possible sans cette référence aux faits.
(II)
Dans la philosophie du Tractatus, les faits élémentaires sont des « faits atomiques » auxquels correspondent des propositions atomiques. Un fait atomique est un état élémentaire de la réalité. Mais on est bien en peine de dire ce qu’est un « fait atomique ». Une proposition atomique est assez simple à définir.  La proposition « le chat est sur le tapis » est atomique car je ne peux supprimer aucun des termes de cette proposition sans qu’elle ne devienne un énoncé privé de sens. Mais en quoi le fait que « le chat est sur le tapis » peut-il être considéré comme un fait atomique ? En rien car il n’y a rien d’élémentaire dans le fait que le chat est sur le tapis puisque le tapis est devant la cheminée et que le chat s’y met car il fait chaud, et ainsi de suite. Autrement dit, le fait n’est élémentaire que parce que la proposition qui le décrit est atomique. C’est donc la proposition qui définit le fait comme élémentaire ou atomique, mais un autre ensemble de propositions pourraient bien ne plus faire apparaître « le chat est sur le tapis » comme un fait atomique. L’idée de construire un langage qui permettrait de décrire de manière univoque les états de chose qui constituent le monde semble parfaitement chimérique. C’est d’ailleurs pour cette raison que Wittgenstein a renoncé à l’atomisme logique du Tractatus.
En vérité, les faits sont divers et ne prennent de sens qu’à partir d’une orientation de l’esprit. On parle parfois de faits bruts pour désigner les faits appréhendés directement, intuitivement, et non par l’entremise d’idées générales. Cela pourrait par exemple concerner tous les savoirs pratiques, techniques, découverts empiriquement par les artisans ou les paysans. Mais on peut se demander si de tels faits bruts existent, si les faits ne sont pas toujours en réalité des faits construits à partir d’idées générales et de schèmes interprétatifs sous-jacents. En science, il est clair que les faits bruts n’existent pas. Ce sont toujours des faits construits. « Lorsque Galilée fit descendre sur un plan incliné des boules avec une pesanteur choisie par lui-même ou que Torricelli fit porter à l’air un poids qu’il avait d’avance pensé égal à celui d’une colonne d’eau à lui connue, ou que, plus tard, Stahl transforma des métaux en chaux et celle-ci à son tour en métal en y restituant certains éléments, alors ce fut une illumination pour tous les physiciens. Ils comprirent que la raison n’aperçoit que ce qu’elle produit elle-même, d’après son projet, qu’elle doit prendre les devants avec les principes qui déterminent ses jugements suivant des lois constantes, et forcer la nature à répondre à ses questions, au lieu de se laisser conduire par elle comme à la laisse ; car, autrement, des observations faites au hasard et sans aucun plan  tracé d’avance ne se rassemblent pas en une loi nécessaire, ce que cherche pourtant la raison et dont elle a besoin. » (Kant, préface à la 2e édition de la Critique de la raison pure) La connaissance, donc, est ainsi conçue comme production, comme activité pratique de l’esprit humain. Pour les Anciens, la connaissance était du domaine de la theoria, de la contemplation. Le vrai devait se montrer de lui-même comme le « non-voilé ». Ici au contraire, le vrai est construit, il n’est pas déjà là, il est un résultat, l’achèvement d’un « projet ». C’est une idée qui peut choquer notre sentiment spontané de la vérité. Une vérité « construite », une connaissance qui n’est pas autre chose que ce que j’avais présupposé et projeté, n’est-elle pas une connaissance factice, un artifice ? Ce n’est évidemment pas le cas pour Kant. La connaissance n’est pas un produit de la fantaisie. Elle doit se projeter sur la réalité extérieure, elle doit structurer et rendre cohérentes nos sensations. Kant nous dit qu’elle « doit prendre les devants avec les principes qui déterminent ses jugements suivant des lois constantes ». Mais ceci n’est pas propre à la conception kantienne de la science. Bachelard le dit aussi : l’instrument de mesure est déjà une théorie, une expérimentation est une théorie et de ce point de vue c’est la théorie qui produit le fait.
Ceci est encore plus vrai, si c’est possible, dans le domaine des « sciences humaines ». Quand il cherche à fonder la sociologie comme science, Durkheim commence par définir le « fait social ». Ce dernier caractérise un certain type de comportements des hommes en société qui présente une certaine généralité dans la société donnée, qui résulte de la contrainte et qui est indépendant du psychisme individuel (voir Les règles de la méthode sociologique). Il n’y a cependant pas accord entre les sociologues sur ce qu’est un fait social. Pour Max Weber l’objet de la sociologie ce sont les « comportements par finalité » à partir desquels peuvent se stabiliser des comportements communautaires. Quelle que soit l’orientation, on voit ici que le fait est d’abord une construction théorique.
Si l’on sort du strict domaine de la connaissance scientifique, on aboutit aux mêmes conclusions. Les faits sont toujours des faits sélectionnés, plus ou moins consciemment dans l’enchevêtrement de ce qui se donne à nous dans l’expérience immédiate. Il est impossible de raconter la vie de quelqu’un ne serait-ce que pendant une journée. Il faudrait décrire dans le détail ses moindres gestes et pour accomplir une telle tâche, une vie n’y suffirait pas. Tout récit procède à une sélection des faits, c’est-à-dire choisit une certaine description au détriment d’un très grand nombre d’autres théoriquement possibles. Un fait n’existe que s’il peut s’exprimer par un énoncé, plus ou moins complexe. Qu’est-ce qui garantit la vérité du fait d’observation (la description d’observation) ? La réponse de Popper est sans ambiguïté : rien ! La cohérence des faits nous donne seulement de bonnes raisons de croire que le fait est bien ce que l’on en dit. Jusqu’à ce qu’un nouveau fait nous oblige à remanier notre « intrigue ».
Autrement dit, il est impossible que soutenir que la référence aux faits garantit la vérité. Ce sont les faits qui ont besoin d’être garantis et il semble qu’ils ne peuvent l’être que par la raison.
(III)
On pourrait être conduit, parvenu à ce point, à une certaine forme de scepticisme. Le fait en tant qu’énoncé prétendant décrire le réel ne serait qu’une interprétation, au sens strict du terme tel que Boèce le définit : « est interprétation toute énoncé qui signifie quelque chose par lui-même ». Nietzsche s’en prend à « l’idolâtrie des faits » et affirme même qu’il n’y a pas de faits mais seulement des interprétations. Il pourrait également sembler que l’on puisse avoir raison contre les faits ! L’histoire des grandes révolutions scientifiques l’atteste. Que la chaleur soit une substance particulière nommée « phlogistique », associée au feu, cela semblait un fait incontestable. C’est précisément contre ce fait que Lavoisier construit la chimie moderne.
À l’extrême limite, il semble que n’importe quel fait puisse être inséré dans un discours relativement cohérent rendant compte à sa manière de ce qui nous apparaît. Il est toujours possible de « sauver les apparences ». Inversement, nous savons que les nouvelles théories scientifiques ne sont pas toujours compatibles avec les faits et qu’elles doivent d’abord se soutenir d’hypothèses ad hoc (voir Paul Fayerabend, Contre la méthode). Bref que la référence aux faits ne soit ni suffisante ni même nécessaire comme garantie de la vérité, voilà où nous semblons arriver.
Les faits cependant sont inéliminables tant que l’on pense qu’il y a un sens à rechercher la vérité. Nous ne voyons souvent les faits que comme le point de départ « concret » qui conduit à une vérité générale, un point de départ que finalement on pourrait oublier, l’important étant la vérité générale. Mais il n’en va pas ainsi. Une bonne théorie n’est pas une théorie qui rend compte des faits observés, mais bien plutôt une théorie qui  prévoit l’apparition de nouveaux faits. La théorie de Le Verrier expliquant les anomalies de l’orbite d’Uranus par l’existence d’une planète inconnue permettait de prévoir la position de cette planète ce qu’a confirmé l’observation quelques mois après que Le Verrier eût proposé son hypothétique planète. Si on s’en tient à l’attitude « contemplative », rien ne permet jamais de garantir que les faits sont bien ceux que l’on dit et aucune vérité ne pourrait jamais être confirmée ! Et pourtant, comme le dirait Spinoza, nous avons des idées vraies. C’est qu’il faut comprendre la recherche de la vérité comme une interaction entre le sujet connaissant et l’objet de connaissance, une interaction comme celle dont Kant parle à propos de Galilée. Les faits ne sont donc plus simplement des objets d’expérience, des faits d’observation, mais des produits de l’activité de l’expérimentateur. Le fait n’est le garant de la vérité de nos pensées que parce qu’il est un fait produit. Évidemment, ce n’est pas Le Verrier qui a produit la planète Neptune ! Mais c’est la théorie de Le Verrier qui a produit le fait « observation de la planète Neptune à telle position tel jour ».
Cela ne serait-il vrai que des vérités scientifiques ?  Nullement. Nous ne pouvons évidemment pas nier que le monde extérieur à notre conscience existe : le nier est « la plus grande honte de l’esprit humain » disait Diderot. Mais ce que nous connaissons du monde, ce n’est pas la réalité elle-même mais la manière dont nous nous y rapportons. Nos idées sont toujours le produit de cette interaction entre le sujet humain et son environnement. Si j’affirme que « le chat est sur le tapis », c’est parce que je me rapporte à un certain moment à mon environnement dont j’explore toutes les possibilités. Tous nos concepts sont le résultat de l’activité de synthèse opérée par l’entendement (ici les concepts de chat et de tapis, par exemple), mais cette activité a pour présupposition et pour garantie ultime ce rapport entre moi et le monde, rapport qui fait exister le fait comme tel.
Quelles conclusions pouvons-nous formuler ? On pourrait dire que la vérité n’est toujours que l’accord de la raison avec elle-même par la médiation nécessaire de l’expérience des faits – cette expérience qui se présente toujours comme un donné et non comme une pure activité de la pensée : le fait serait ainsi le moment extra-logique du processus logique de la recherche de la vérité. Mais nous pouvons dire aussi, et ce ne serait qu’une manière de dire la même chose, que le fait est toujours ce qui est effectué par la raison et ainsi la référence au fait, comprise dans sa dimension de déploiement de l’activité de l’esprit, est-elle bien la garantie ultime de la vérité, c’est-à-dire de l’effectivité de la pensée, tant est-il que la tâche soit bien, comme le disait Hegel, de penser le réel.

mercredi 26 août 2009

Intelligence artificielle et représentation de l'esprit

Les bêtes peuvent-elles penser ? Voilà une des questions fondamentale que se posent les philosophes du xviie siècle. Descartes y répond clairement : les bêtes ne sont que des machines dénuées de pensée, à la différence des hommes dont les comportements manifestent qu’ils ont une âme. Le développement des technologies de l’informatique nous pose la même question sous une autre forme : les machines peuvent-elles penser ?En mettant au point, pendant la Seconde Guerre mondiale, une machine permettant de décrypter automatiquement les messages de l’armée allemande, le mathématicien Alan Turing a ouvert la voie à l’intelligence artificielle, c'est-à-dire à un ensemble de recherches visant à construire des machines aptes à reproduire (ou à simuler) les comportements humains intelligents. Ces recherches peuvent prendre deux directions : une direction technologique, par des applications informatiques spécifiques (reconnaissance de la voix ou de l’image, traduction automatique, systèmes experts, etc.) ; une direction théorique qui fait de l’ordinateur un modèle permet de comprendre le fonctionnement de l’esprit humain.

Pensée, calcul, logique

On sait depuis longtemps qu’une machine est capable d’effectuer des opérations mathématiques. Hobbes, dans les premières pages du Léviathan, l’affirme sans ambages : “ penser, c’est calculer ”. Pascal et Leibniz sont les inventeurs des machines à calculer modernes. Mais Leibniz ne se contente pas de cela ; il relie cette invention à une conception générale de la pensée : les opérations mathématiques ne sont qu’un cas particulier de la pensée rationnelle et si on peut trouver une représentation de toutes nos pensées dans un langage formel du même type que le langage mathématique, il devrait être possible de calculer avec les pensées de la même façon que nous calculons avec les nombres. Leibniz propose donc d’abord de mettre au point ce genre de langage symbolique des idées, qu’il nomme “ caractéristique universelle ”. Leibniz expose ainsi son projet : “ partout je procède par lettres d'une manière précise et rigoureuse comme dans l'algèbre ou dans les nombres. Si on poursuivait cette méthode, il y aurait moyen de finir bien des controverses et des disputes, en se disant  : comptons  ! On en pourrait encore donner des essais en , et j'en ai dans la jurisprudence. ” (Leibniz à Arnauld - 14 janvier 1688). Gottlob Frege reprendra le projet à travers son “ idéographie ” (Begriffsschrift). Le premier modèle en est “ le langage par formules de l’arithmétique ”, mais lui manquent les “ expressions pour les articulations logiques ”. Il s’agit donc créer un système permettant de “ donner l’expression d’un contenu au moyen de signes écrits et d’une manière plus précise et plus claire que cela n’est possible au regard des mots. ”
La calculabilité de nos pensées demande d’admettre que nos connaissances peuvent être réduites à des propositions atomiques (c'est-à-dire qui ne peuvent être décomposées en propositions plus simples) combinées au moyen des connecteurs logiques. Les raffinements de la logique formelle depuis la fin du xixe siècle ont visé à réaliser ce programme. L’algèbre de Boole (1854) permet de concevoir l’équivalence entre opérations logiques et circuits électriques : les opérations de base de la logique (conjonction, disjonction, négation, implication, etc.) peuvent être représentées par des circuits électriques correctement agencés. L’unité arithmétique et logique d’un ordinateur moderne n’est rien d’autre qu’un ensemble de circuits logiques de ce type. On doit pouvoir généraliser. “ Comme les états internes du programme d’un ordinateur, les pensées se définissent par leurs relations logiques et causales, c’est-à-dire “fonctionnelles”. Il n’est pas essentiel à la pensée qu’elle soit réalisée dans une substance mentale ou physique quelconque, tout comme un programme peut être “implanté” sur des machines de composition matérielle différente. ” (Pascal Engel : article “ Pensée ” dans l’Encyclopédia Universalis)

Raffinements du modèle

Ce modèle, très réducteur, définit ce qu’on appelle la “ théorie computationnelle de l’esprit ”. Évidemment, les ordinateurs actuels et le type de logique formelle dont nous disposons sont très loin de pouvoir représenter l’ensemble des fonctions d’un esprit humain. Mais Paul et Patricia Churchland soutiennent que “ Le cerveau est une sorte d'ordinateur dont les propriétés restent à explorer (…). Le cerveau calcule des fonctions très complexes, bien que d'une façon très différente de celle de l'intelligence artificielle classique. Les cerveaux peuvent être des ordinateurs sans être nécessairement séquentiels ni numériques, sans que le matériel soit dissocié des programmes et sans qu'ils ne manipulent que des symboles. Ce sont des ordinateurs d'un type très différent de ceux que nous utilisons aujourd'hui. ” (Paul et Patricia Churchland : Les machines peuvent-elles penser ? ” in “ Pour la Science ”, mars 1990)
Ainsi on a été contraint de poser que l’esprit n’est rien d’autre que le cerveau et que, par conséquent, on pourrait mieux le comprendre si on était capable de construire une machine bâtie sur les principes de fonctionnement du cerveau. Le modèle connexionniste (souvent assimilé aux “ réseaux de neurones ”) décrit un système constitué d’unités de traitement reliées par des connexions. Chaque unité de traitement reçoit par des connexions des informations d’activation en entrée et envoie à d’autres unités de traitement des informations en sortie. Les connexions sont caractérisées par leur poids qui détermine le niveau de l’activation. Ces réseaux d’unités et de connexions sont des objets mathématiques qui peuvent donc être “ implémentés ” par des programmes d’ordinateurs et peuvent être reliés à des domaines empiriques. Si on assimile les unités de traitement à des neurones et les connexions aux synapses, l’architecture connexionniste peut alors représenter le cerveau humain.
On voit la différence entre les deux approches. Dans la théorie computationnelle classique, on représente les fonctions intellectuelles de l’esprit humain par des opérations logiques qui peuvent être traitées par l’ordinateur. Le fonctionnement réel du cerveau humain est considéré comme secondaire. Dans la deuxième approche, ne cherche pas à représenter la pensée mais à représenter le cerveau, la proposition sous-jacente étant que la pensée n’est rien d’autre que le fonctionnement du cerveau.

Syntaxe et sémantique

Une des critiques majeure adressée à ce modèle par des auteurs comme John R. Searle est que les ordinateurs peuvent simuler certaines fonctions de l’esprit humain mais qu’il n’est pas possible de dire que l’esprit est quelque chose comme un ordinateur parce que les ordinateurs sont des machines syntaxiques alors que les symboles pour un esprit humain ont une signification. C’est l’argument dit de “ la chambre chinoise ” exposé par Searle. Alan Turing avait défini un test permettant de décider si une machine pense : supposons un opérateur humain A dialoguant par une ligne informatique avec un autre opérateur humain B et avec un ordinateur C. Si A ne peut pas distinguer lequel de B et C est un ordinateur, alors on pourra dire que l’ordinateur pense. Searle critique cette vision purement comportementaliste. Il lui oppose l’expérience suivante : supposons que A parle le chinois et envoie à B des idéogrammes chinois. Supposons que B sans savoir le chinois dispose d’un manuel lui permettant seulement de savoir quels symboles peuvent être envoyés en réponse à A. A pourra croire que B comprend le chinois alors que B sait seulement comment manipuler les symboles chinois. C’est la sémantique qui est donc éliminée dans le test de Turing.
Reprenons ce problème différemment. Quand je tape 2+3 sur mon clavier, l’ordinateur ne “ sait ” pas que j’utilise les nombres 2 et 3 et que je désire effectuer une addition. Taper 2+3, ce n’est rien d’autre, “ vu ” de l’ordinateur, qu’actionner des interrupteurs, action qui va déterminer un certain résultat physique, du même genre qu’allumer  une ampoule. Le résultat 5 affiché par l’ordinateur ne signifie donc pas 5, mais seulement positionnement d’une zone mémoire dans un certain état. Les processus physiques qui se produisent dans les circuits de l’ordinateur n’ont l’a signification de l’addition 2+3 que pour l’agent humain qui utilise l’ordinateur. La sémantique reste entièrement du côté de l’esprit humain. L’ordinateur peut simuler des comportements humains intelligents, mais il n’en a pas une représentation.
Dans une lettre au marquis de Newcastle, Descartes pose la question : comment distinguer une bête du genre perroquet ou un automate astucieux d’un individu doué d’une âme. La réponse est claire : “ Enfin, il n’y a aucune de nos actions extérieures, qui puisse assurer ceux qui les examinent, que notre corps n’est pas seulement une machine qui se remue de soi-même, mais qu’il y a aussi en lui une âme qui a des pensées, excepté les paroles, ou autres signes faits à propos des sujets qui se présentent, sans se rapporter à aucune passion. ” Tant qu’on reste dans des domaines bien définis et utilisant des langages stéréotypés, “ enrégimentés ” comme dirait Putnam, on peut faire en sorte que la machine semble produire des “ signes à propos des sujets qui se présentent ”, mais dès qu’on sort de ces cadres étroits, plus aucune illusion n’est possible sur l’aptitude d’un système algorithmique à penser au sens humain de ce terme.

Critiques de la théorie computationnelle de l’esprit

Pour admettre la théorie computationnelle de l’esprit, il faut donc souscrire entièrement au béhaviorisme, c'est-à-dire à l’idée que l’esprit ne peut être compris que comme une boîte noire dont seuls les comportements extérieurs observables peuvent être des objets pertinents d’investigation scientifique. Or, les individus, en tant qu’ils pensent et parlent, savent bien qu’ils ne sont pas des boîtes noires. Pour l’observateur extérieur, le problème de la conscience peut, à la limite, être éliminé. Mais pour le sujet, c’est évidemment impossible. La théorie computationnelle de l’esprit butte donc sur “ le point de vue de la première personne ”, ou encore sur ce qu’on appelle l’intentionnalité. Les diverses tentatives pour surmonter cette difficulté, soit qu’on affirme que l’intentionnalité est toujours prêtée par un observateur à un sujet, soit qu’on en cherche des formes élémentaires dans les organismes vivants élémentaires, ne parviennent pas à des solutions claires et convaincantes.
Hilary Putnam, un des premiers défenseur de cette théorie computationnelle, en est venu à la rejeter en montrant qu’elle suppose une conception fonctionnaliste de l’esprit. Il montre d’abord que tous les organismes physiques possibles sont susceptibles d’une infinité de “ descriptions fonctionnelles ” et que, donc, le fonctionnalisme n’explique rien – le fonctionnalisme nous ramène en fait aux causes finales de l’aristotélisme classique. Plus fondamentalement, Putnam s’attaque au fond de la théorie computationnelle, mais aussi aux thèses de Searle. Ce dernier, bien que rejetant le modèle de l’ordinateur, ne renonce pas à “ naturaliser ” la conscience ; il rejette le réductionnisme qui réduit la conscience à des états physiques mais proposent de considérer la conscience comme un ensemble de propriétés émergentes à partir de l’évolution biologique, ce qui l’amène à rejoindre les thèses sur le modèle connexionniste de l’esprit. Pour Putnam, c’est le problème qui est, à la racine, mal posé. Quand nous parlons ou pensons, nos paroles ou pensées ont une référence – quand je dis “ le chat est sur le tapis ”, cette phrase a pour référence le fait que le chat est (ou non) sur le tapis. Tous les partisans de la naturalisation de l’esprit doivent parvenir à expliquer que cette référence est une relation physique comme une autre. Mais s’il en est ainsi, dit Putnam, alors nous devons renoncer à la notion même de vérité … à laquelle on ne peut guère renoncer si on veut proposer une compréhension correcte de l’esprit humain. On peut, certes, redéfinir la vérité comme la propriété d’un état neurologique dans lequel nous disposons d’indications fiables quant à notre environnement. On est alors conduit à un relativisme du genre de celui développé par Richard Rorty, mais une telle position philosophique s’oppose radicalement à l’attitude de réalisme scientifique caractéristique des théories computationnelles et fonctionnalistes de l’esprit.
Putnam rappelle que ces questions ont déjà été posées philosophiquement, notamment par Kant quand il aborde le problème du schématisme, c'est-à-dire au mécanisme par lequel l’entendement peut se rapporter aux phénomènes. “ Le schématisme de notre entendement, relativement aux phénomènes et à leur simple forme, est un art caché dans les profondeurs de l'âme humaine et dont il sera toujours difficile d'arracher le vrai mécanisme à la nature ”, dit KantLe paradigme de l’esprit-machine est sans doute une idée utile technologiquement. Elle est encore utile dans la mesure où les simulations que peut effectuer les machines nous obligent à développer la logique et la réflexion sur la connaissance. Mais qu’un ordinateur doté d’un programme adéquat représente un esprit, ce n’est sans doute rien d’autre qu’une de ces idées métaphysiques dont Kant a montré qu’elles outrepassaient les pouvoirs de la raison.

Bibliographie

Collin (Denis): La matière et l'esprit (Armand Colin, 2004)
Descartes (René) : Lettre au Marquis de Newcastle (16 novembre 1646). Œuvres, tome IV, édition Adam et Tannery.
Frege  (Gottlob) : Écrits logiques et philosophiques, traduction de Claude Imbert, Le Seuil, 1971, réédition Points.
Putnam (Hilary) : Représentation et réalité. Gallimard, NRF-Essais, 1990, traduction de Claudine Engel-Tiercelin.
Searle (John R.): La redécouverte de l’esprit. Gallimard, NRF-Essais, 1995, traduction de Claudine Tiercelin


lundi 22 septembre 2008

Théorie et représentation dans la physique contemporaine

En quel sens la science physique représente-t-elle le monde ? Si connaître c’est représenter, la science doit représenter le “ monde réel ” comme “ monde pensé ”. Du réalisme naïf de la physique péripatéticienne à la physique classique, cette réponse semble aller de soi. Mais la révolution du tournant du xxe siècle détruit définitivement cette certitude. Certains physiciens et philosophes ne vont-ils pas jusqu’à affirmer qu’il faut renoncer à l’idée que les entités de la physique ne correspondraient pas à des entités du monde réel ?

I.      Perception, représentation, imagination

A.   La géométrisation du monde

Pour la physique qui domine jusqu’au xvie siècle, la science est recherche des principes et des causes et elle doit élucider l’essence et les qualités des entités qui composent la nature. La physique classique, au contraire, délaisse progressivement cette recherche des qualités et des essences et se construit comme une représentation géométrique du monde, réduisant les différences qualitatives à des figures, des lignes ou des mouvements. Idéaliser l’orbite d’une planète par une ellipse et la donner à voir ainsi, c’est se placer d’emblée au cœur même de la science des Copernic, Kepler et Galilée. Représenter les corps comme des “ points matériels ”, les forces comme des vecteurs, etc., c’est donner directement accès à la conception scientifique du monde. Mais cette représentation géométrique dans un espace tridimensionnel correspond à l’espace de notre perception ordinaire. Nous savons, sans grande difficulté, représenter l’espace tridimensionnel sur un tableau noir – c'est-à-dire dans un espace à deux dimensions. Nous pouvons facilement imaginer un corps aussi petit que l’on peut pour obtenir un point matériel.
Autrement dit, si la connaissance scientifique se construit contre la connaissance commune, si les représentations scientifiques du monde physique sont en rupture avec nos représentations sensibles, elles peuvent être cependant être accordées avec les pouvoirs de notre imagination. Les phénomènes perçus par les sens peuvent donc avoir une représentation géométrique adéquate et être imaginés à partir de cette représentation. Mais dès qu’on entre dans la physique contemporaine, cet accord entre perception des phénomènes, représentation géométrique et imagination se défait.

B.   Un exemple : la question de la nature de la lumière

Pendant trois siècles ont alterné les représentations corpusculaires et les représentations ondulatoires de la lumière. Certaines expériences conduisaient à des interprétations “ atomistes ” de la lumière qui serait composée de petits “ grains ”. D’autres, au contraire, conduisaient à concevoir la lumière comme une onde. Newton avait soutenu une théorie corpusculaire, alors que Huygens défendait une conception ondulatoire. Les expériences de Young au début du xixe siècle, puis les travaux d’Augustin Fresnel firent pencher la balance en faveur des conceptions ondulatoires.
À la fin du xixe siècle, l’affaire semblait tranchée en faveur de la théorie ondulatoire grâce à Maxwell. Un système simple d’équations différentielles pouvait rendre compte avec élégance de tous les phénomènes ondulatoires, la lumière étant définie comme une forme particulière d’ondes électromagnétique. Le raisonnement de Maxwell est un raisonnement mathématique qui laisse de côté toutes les interprétations physiques antérieures. Mais il est difficile de se représenter une onde sans un milieu de propagation. L’onde sonore se propage dans les couches d’air. L’onde produite par la chute d’une pierre dans un étang calme est la propagation du mouvement de l’eau. Comment une onde pourrait-elle se propager dans le vide ? C’est pourquoi on inventa un milieu ad hoc, l’éther censé baigner tout l’univers et permettant la propagation des ondes. Les qualités de cet éther étaient contradictoires – il devait être à la fois si subtil qu’il était indétectable et si massif qu’il n’était ébranlé par aucun autre corps – en faisait un milieu matériel fantomatique. Et pour cause : on l’inventait pour rendre cohérente notre représentation du monde matériel alors que rien dans les équations de la physique de Maxwell n’en exigeait la réalité.
C’est précisément en recherchant cet éther – plus exactement le “ vent d’éther ” – à partir des mesures de la vitesse de la lumière que Michelson et Morley contribuent à ouvrir la voie à la physique nouvelle. Si l’univers tout entier est baigné dans l’éther et si l’éther est le milieu de propagation de la lumière, alors la vitesse de la lumière devrait varier suivant le repère à partir duquel on la mesure – en application du principe de relativité de Galilée. Or, l’expérience de Michelson et Morley ne détecte aucune différence : la vitesse de la lumière est constante quel que soit le repère. On est conduit ainsi à admettre deux paradoxes : l’éther existe, mais la circulation de la Terre ne produit aucun vent d’éther ; la vitesse de la lumière mesurée d’une terre en mouvement est toujours constante. Ces paradoxes ne peuvent être résolus qu’au prix d’une nouvelle bizarrerie : on doit admettre que les distances se contractent dans le sens du mouvement, contraction qui ne peut être mise en évidence puisqu’il faudrait la mesurer avec une règle qui subirait, elle aussi cette contraction.
Les équations de transformation de Lorentz, permettaient de rendre compte mathématiquement de ces résultats étonnants. Mais pour en rendre compte rationnellement, il fallut bouleverser toute la représentation du monde sur laquelle reposait la physique classique et c’est au génie d’Einstein qu’on le doit. À la place d’un espace tridimensionnel, on devait penser un continuum espace-temps à quatre dimensions. Or, un espace à quatre dimensions, s’il peut être pensé ne peut pas être représenté sinon par analogie. La perspective permet de donner à voir un espace tridimensionnel sur un plan, mais il est impossible de donner à voir un espace-temps dans un espace à trois dimensions et, a fortiori, sur un plan. 
Ce bouleversement allait se combiner avec d’autres. Avec la théorie de l’effet photoélectrique, Einstein redonnait en 1905 une nouvelle vigueur à la conception corpusculaire de la lumière. On était débarrassé de l’éther, mais il fallait maintenant admettre comme simultanément “ vraie ” deux représentations des phénomènes qui, pourtant s’excluent mutuellement dès qu’on passe des équations mathématiques à la représentation. Plus : les difficultés devaient atteindre toutes nos représentations du monde physique : voilà que les particules élémentaires constituant la matière se révélaient avoir un comportement ondulatoire. Entre la science ancienne et la science galiléenne demeure une continuité : la physique décrit le monde et en donne une image. La physique contemporaine semble devoir y renoncer : elle ne pourrait que prédire les effets mais non décrire les réalités.

II.    La physique quantique et l’image de la matière

A.   Paradoxes de la microphysique

Les transformations de la conception de la matière permettent de bien cerner ce qui est en cause. L’hypothèse des atomes déjà formulée par les atomistes grecs (Leucippe, Démocrite, Épicure) fut reprise d’abord par la chimie avant de redevenir le fondement de la conception générale du monde physique à la fin du xixe siècle. Mais loin d’être l’élément simple et insécable des Anciens, l’atome se présentait d’emblée comme une réalité complexe que des modèles successifs devaient permettre d’approcher. Le modèle le plus connu, encore largement utilisé aujourd’hui est celui de Niels Bohr qui représente l’atome comme un système dont le centre serait  le noyau constitué des composants “ lourds ”, protons et neutrons et autour duquel tourneraient, sur des orbites différentes, les électrons conçus à la manière des planètes tournant autour du soleil.
Mais entre ce modèle pédagogique et les conceptions que les physiciens se sont faites de l’atome, il existe un abîme. La physique quantique renverse non seulement nos idées intuitives les mieux établies, mais encore rend inadéquates nos manières ordinaires de parler du monde.
La théorie de la relativité a éliminé des notions intuitives aussi évidentes que la simultanéité de deux évènements – à quoi, avec Einstein il faut substituer la notion de coordonnées spatio-temporelles. Tant que le temps est considéré comme un absolu sans rapport avec l’espace, il y a du sens à dire qu’un événement (1) sur terre est simultané à un événement (2) dans une galaxie très lointaine. Mais si nous raisonnons dans un continuum spatio-temporel, il devient impossible de séparer les mesures temporelles et les mesures spatiales, puisque le temps lui-même est relatif au repère à partir duquel il est mesuré. Dans un repère qui se déplace à une vitesse proche de la vitesse de la lumière, le temps se “ dilate ” par rapport au temps mesuré par un observateur terrestre. Cette conception inclut de nombreux paradoxes qui ont alimenté la littérature de science-fiction, mais elle a reçu de nombreuses confirmations expérimentales.
En physique quantique, les notions de séparabilité, de causalité et localité sont remaniées au point de perdre leur signification courante. Bernard d’Espagnat résume ainsi l’état de la théorie physique :
L’idée que le monde est constitué d’objets localisés et dont l’existence ne dépend pas de la conscience humaine s’avère être incompatible avec certaines prédictions de la mécanique quantique et avec des faits aujourd’hui établis par l’expérience. (Bernard d'Espagnat : Théorie quantique et réalité in Pour la Science ; Janvier 1980)
Évidemment, lorsque Heisenberg s’assied, il a parfaitement localisé sa chaise et il ne sort jamais de chez lui simultanément par la porte et par fenêtre. Dans le monde de l’expérience sensible, qui celui de tous les hommes, la localisation des objets et la matérialité de la matière sont des évidences premières, qu’on ne peut mettre cause sauf en cas de psychose grave. Mais les observations scientifiques des phénomènes microphysiques interdisent que nous nous représentions le monde subatomique comme analogue au nôtre. Les atomes, tels que le premier modèle de Bohr les représente, restent des entités physiques qui se comportent comme les réalités de notre monde commun. Mais la physique quantique quand elle parle de particules n’entend plus ce que notre langage courant entend par ce mot. C’est ainsi que deux physiciens peuvent écrire :
Le fait que les morceaux de matière se soient révélés n’être en réalité que des abstractions mathématiques, non locales c’est-à-dire pouvant s’étendre sur tout l’espace et de plus n’obéissant pas au déterminisme, a porté un coup fatal à ce matérialisme classique. Certes, le matérialisme est encore possible, mais un matérialisme “quantique” qu’il faudrait appeler “matérialisme fantastique” ou “matérialisme de science-fiction”.(ibid.)

B.   La disparition de la matière

Ainsi la physique moderne abandonne toute représentation concrète de la réalité à très petite échelle. Elle utilise des modèles ayant une valeur heuristique, mais ces modèles n’ont aucune prétention à “ représenter ” la réalité physique telle qu’elle existerait indépendamment de nos théories. Ce renoncement est d’emblée assimilé à une disparition de la matière. Ainsi Bernard d’Espagnat affirme que, quel que soit le point de vue adopté, la matière se dissout dans un être mathématique. La définition de la matière comme ce qui subsiste sous le changement conduit dans la physique moderne à définir la matière comme énergie et cette énergie elle-même est une composante d’un quadrivecteur (voir Bernard d'Espagnat : Matière et réalité in La matière aujourd'hui, Seuil, 1981). Si on se réfère à la matière comme ce qui tombe sous les sens, on est conduit à la définir comme la synthèse de ce qui est communicable dans l’expérience humaine. C’est pourquoi il conviendrait de remplacer la matière par la catégorie beaucoup plus large de réalité.
On peut dire que l’énergie est décrite comme une composante d’un quadrivecteur mais peut-on dire qu’elle est la composante du quadrivecteur comme Aristote dit que “ l’homme est un animal raisonnable ” ? Pourtant, la majorité des physiciens est prête à partager l’affirmation radicale de Bernard d’Espagnat. Ainsi, la description mathématique serait l’essence des choses.
Si Diogène le Cynique m’assène un coup de gourdin sur la tête, je n’aurai reçu qu’un coup de gourdin, et non de l’énergie cinétique et 1/2mv2 n’a jamais fait de mal à personne ! Par contre, l’effet du coup de gourdin peut être décrit en termes d’énergie cinétique et la formule me permettra de mesurer l’énergie absorbée par mon crâne et d’en déduire la taille de la bosse. Les objets de la science décrivent le réel, mais ils ne sont pas le réel. En tout cas, c’est là ce qu’affirmerait un réaliste, c'est-à-dire quelqu’un qui continue de croire que la science représente une réalité existant per se.
Cassirer explique ce qui est en cause. Les théories physiques donnent des mesures des phénomènes, mesures qui deviennent objectives lorsqu’elles peuvent être ramenées à un ensemble de lois mathématiques, cohérentes entre elles. Mais, note-t-il, “ Chaque époque créative de la physique (…) court le risque de considérer ces mesures relatives, qui ne sont jamais que provisoires, ces instruments intellectuels de mesure qui sont à la pointe de leur époque, comme l'expression définitive de la réalité ontologique ”. Et ceci, ajoute Cassirer, vaut non seulement pour les matérialistes prompts à substantialiser les entités théoriques de la physique, mais aussi pour les idéalistes, tels Descartes, où l’on peut souvent noter “ un passage semblable du concept logicomathématique au concept ontologique ”. On pourrait croire, à lire certains passages d’auteurs comme d’Espagnat que la tentation de cette physique est pythagoricienne : la réalité ultime du monde serait nombre.
Mais ce serait aller trop loin. Même si la formulation de d’Espagnat peut prêter à confusion, il s’agit seulement de dire nous pouvons appréhender les réalités physiques uniquement par l’intermédiaire d’entités mathématiques qui permettent de formuler des prédictions vérifiables empiriquement. Une particule n’est donc pas quelque chose que je puisse me représenter ; elle n’est “ décrite ”, si on peut encore parler de description, que par un certain nombre d’opérateurs qui permettent de définir un effet attendu (par exemple une trace sur un cliché dans une chambre à bulles) dans des conditions déterminées. Comme le dit encore Cassirer, l’atome (il vaudrait mieux dire la particule) “ se présente justement non pas comme un minimum absolu de l'être, mais comme un mini­mum relatif de la mesure ”. Bernard d’Espagnat, du reste, défend une certaine forme de réalisme, ce qu’il appelle le “ réel voilé ” : la physique ne donne pas une description directe de la réalité, mais elle ne peut se comprendre qu’on présupposant qu’elle renvoie un certain genre de réalité auquel notre entendement ne peut avoir accès. Une position qu’il n’est pas sans rappeler celle défendue par Kant : nous ne pouvons connaître que les phénomènes saisis dans l’expérience, mais nous devons penser – sans la connaître – la chose en soi (le noumène).

C.   Le retour de la matière

Est-ce à dire que la matière disparaît avec la disparation de nos représentations communes en physique ? Ce serait là encore passer indûment du point de vue de la théorie de la connaissance au point de vue ontologique. Le caractère “ matériel ” des objets étudiés par la physique est attesté par l’énormité même des moyens techniques mis en oeuvre à travers les accélérateurs de particules par exemple et par la consommation d’énergie considérable nécessaire aux expérimentations dans le domaine de la physique subatomique. L’expérimentation est par  elle-même une reconnaissance de l’extériorité et de la matérialité de l’objet de la physique. Pour Bachelard, la philosophie idéaliste se fourvoie parce qu’elle oublie le fait fondamental de la résistance de la matière, alors qu’inversement le matérialisme rationnel soutient que cette résistance témoigne de “ l’essentielle solidarité objet-matière ” (Gaston Bachelard : Le matérialisme rationnel, Quadrige PUF, 1990 p.10). La matière n’est ni l’atome, ni l’électron, ni le quark, ni l’énergie, ni la fonction d’onde, mais la matérialité de l’atome, de l’électron, du quark, etc., est indubitable en ce qu’ils ne peuvent être conçus sans expérimentation, c’est-à-dire sans un déploiement de la subjectivité humaine vers ce qui n’est pas elle, vers le monde transcendant. Ainsi la matière doit tout à la fois être conçue comme un objet de pensée et comme ce qui s’impose à l’esprit et l’oblige à penser.

III.   Modèles et représentations

A.   Connaissance et modèles

Pour expliquer leurs théories ou pour élaborer certaines hypothèses, les scientifiques font souvent appel aux modèles. Un modèle peut être compris de deux manières, à la manière platonicienne – le modèle est la réalité idéale dont les phénomènes ne sont qu’une copie plus ou moins approximative (être un modèle à suivre) – ou à la manière positiviste : un modèle n’est qu’une simplification du réel de manière à faciliter l’analyse. Un modèle est comme une carte qui permet de s’orienter dans le réel sans pour autant être l’essence du réel.
Si on adopte la deuxième définition, pour une réalité donnée, il n’y a aura pas un seul modèle mais plusieurs, suivant le niveau de détail souhaité. On peut reprendre la définition de Marvin Minsky : “ Pour un observateur O, un objet M est un modèle d’un objet A dans la mesure où  O peut utiliser M pour répondre aux questions qui l’intéressent au sujet de A. ” On peut comparer le rapport du modèle à la réalité modélisée au rapport entre la carte et le territoire. La modélisation constitue une systématisation du raisonnement par analogie.
En physique, on peut distinguer deux utilisations du terme modèle. D’une part, sont des représentations visuelles qui permettent de raisonner par analogie – par exemple le modèle atomique de Bohr. D’autre part, une théorie physique elle-même peut être considérée comme un modèle. Les signes utilisés dans une théorie physique sont susceptibles d’une interprétation mathématique et d’une interprétation physique. Ainsi m est à la fois un nombre (un scalaire) et un signe qui peut être interprété comme la masse d’un corps donné (voir Mario Bunge : Philosophie de la physique, Seuil, 1975, traduction de l’anglais par Françoise Balibar).

B.   Modèles et représentations concrètes

Certains auteurs, s’ils admettent qu’une théorie physique soit un modèle au deuxième sens, condamnent cependant les représentations concrètes. Ainsi Pierre Duhem définit la théorie physique “ système de propositions mathématiques déduites d’un petit nombre de principes ” (La théorie physique ;  Jean Vrin 1989 p.24) et, pour lui, chercher à interpréter les descriptions de la physique dans le langage naturel, c’est non seulement renoncer à la raison au profit de l’imagination mais aussi subordonner la physique à une métaphysique qui prétend la dominer. De fait, l’évolution de la physique semble donner raison à l’idéalisme de Duhem puisque la physique contemporaine n’a pris son essor que lorsqu’on a résolu de se débarrasser de la représentation concrète de l’éther qui semblait indispensable pour comprendre les équations de Maxwell.
Cependant, cette position tranchée semble ignorer superbement la science telle qu’elle se fait. Louis de Broglie, tout en partageant les conceptions théoriques nouvelles, invoque des nécessités pratiques : “ les représentations concrètes ont joué un rôle des plus utiles dans le développement des théories physiques ; sans elles, le progrès de ces théories  aurait été dans beaucoup de cas considérablement ralenti, si ce n’est définitivement entravé. ”(Théories abstraites et représentations concrètes dans la physique moderne in Continu et discontinu en physique moderne, Albin Michel,  1941, p.98)  Constatation qui conduit à cette question paradoxale : “ comment se peut-il que des représentations concrètes dont le caractère fallacieux est certain puissent rendre de tels services ? ” (ibid.) Louis de Broglie conclut que “ en somme, nous ne pouvons penser qu’à l’aide d’images extraites de notre intuition sensible. ”(op. cit. p.107) En effet, en principe la science condamne ces représentations concrètes mais, en pratique, elle les doit les utiliser. Seule une physique qui ne serait pas oeuvre humaine pourrait intégralement remplir le programme de Duhem, pourrait trancher définitivement entre l’abstraction mathématique et l’imagination.
Ainsi, la science moderne, c'est-à-dire au premier chef la physique qui a été l’éclaireur et le modèle de toutes les sciences, s’est construite par une double émancipation : à l’égard des représentations sensibles communes et à l’égard des images métaphysiques du monde. Elle se veut non pas explicative, ni représentative, mais uniquement orientée vers la prédiction et donc vers l’action ou l’activité technologique. Pourtant, il semble bien que nous continuions d’attendre de la science qu’elle nous fournisse une représentation du monde dont la valeur va bien au-delà de la valeur strictement instrumentale à laquelle un certain positivisme la réduit. C’est pourquoi certains scientifiques continuent de considérer que la physique quantique n’est qu’un “ bricolage ” temporaire, voire un “ scandale intellectuel ” (voir René Thom : Prédire n'est pas expliquer, Flammarion, Champs, 1993)

mercredi 30 avril 2003

Science et croyance aujourd’hui. Croyance en la science, croyances des scientifiques



Le triomphe de la science aurait dû faire reculer la croyance. Non seulement la croyance sous ses formes religieuses ou superstitieuses, mais aussi sous ses formes plus communes. Mais l’opposition de la science à la croyance laisse dans l’ombre la véritable question épineuse, celle de la croyance dans la science. Car la distinction théorique entre science et croyance n’est pas aussi claire qu’on pourrait le croire. S’il est assez aisé de séparer science et superstition, si la science dans ses théories fondamentales peut marcher d’un pas assuré et produire non pas des croyances plus ou moins douteuses mais des certitudes indubitables, ce « tranquille royaume des lois » qui est la vérité de l’entendement (Hegel) ne recouvre qu’un petit territoire de la science. En réalité, science et croyance s’entrecroisent, s’opposent et se conditionnent mutuellement : 1° il y a des croyances fondamentales concernant le monde, comme conditions de l’activité scientifique ; 2° certaines théories scientifiques sont de simples conjectures et l’adhésion massive de la communauté scientifique ne les transforme pas ipso facto en théories scientifiques ; 3° les scientifiques ont des croyances en tous genres qui semblent à peu près imperméables à leurs propres théories scientifiques ; 4° il peut y avoir une dimension de croyance religieuse dans la science ; 5° la science produit de nouvelles croyances.

I.     Présuppositions et croyances de la science

Dans les sciences comme en philosophie se pose la question du fondement. C’est une propriété de l’esprit humain, disait Kant, que d’être toujours à la recherche de l’inconditionné, sans jamais pouvoir l’atteindre ! Le fondement absolu est un de ces inconditionnés. La première véritable science est la mathématique, dit encore Kant. La première, elle trouva les méthodes lui permettant de produire des énoncés indubitables. Pendant longtemps, les Éléments d’Euclide furent le modèle de toute certitude rationnelle. Mais déjà Platon faisait remarquer que la vérité des théorèmes des mathématiques était suspendue à celle des axiomes : Les mathématiques sont une science hypothétique et ne sont donc pas la science suprême, car ce qu’il faut chercher, c’est une science an-hypothétique qui puisse nous mener jusqu’à l’essence des choses. Les axiomes d’Euclide étaient tenus pour vrais pour deux raisons : ils sont évidents par eux-mêmes et aucune contradiction n’en découle. Bien qu’indémontrables directement, on avait donc de bonnes raisons pour ne pas les ravaler au rang de simples croyances ou d’hypothèses plus ou moins contingentes. Cependant, lorsque, dans le courant du xixe siècle, Lobatchevski et Riemann construisent les géométries non euclidiennes, on doit convenir que les axiomes d’Euclide dépendent d’un choix. En l’occurrence, en remplaçant l’axiome des parallèles (par un point prix hors d’une droite, il passe une parallèle à cette droite et une seule) par un autre axiome (par exemple, par un point prix hors d’une droite, il ne passe aucune parallèle à cette droite), on peut construire une géométrie tout aussi cohérente que la géométrie euclidienne.
Les vérités que l’esprit reconnaît évidemment comme telles – pour employer ici une formule cartésienne – et qui pourraient servir de « point d’Archimède » pour l’édifice d’un savoir irréfutable, ne sont que des chimères. Les sciences partent de présuppositions tout à la fois indémontrables et contestables. Ces présuppositions ne peuvent que faire valoir leur productivité théorique. La géométrie euclidienne est parfaitement adaptée à la description du monde physique qui est le nôtre. Et c’est dans ce langage qu’est exprimée la grande œuvre de la physique newtonienne. Mais la géométrie de Riemann va se révéler comme la seule qui puisse sortir de la crise la physique classique au tournant du xxe siècle : dans la théorie de la relativité d’Einstein, l’espace n’a plus trois dimensions « immergées » en quelque sorte dans un temps absolu ; on doit au contraire le concevoir comme un « continuum spatio-temporel » à quatre dimensions.
De toutes ces aventures de la science moderne et contemporaine, va naître l’idée que la connaissance scientifique ne nous donne pas à voir la réalité physique elle-même mais seulement des descriptions variables de cette même réalité qui reste postulée comme un absolu insaisissable. On doit bien reconnaître qu’une théorie scientifique ressemble à la géométrie par bien des aspects. On suppose quelques principes fondateurs, indémontrables sinon par leur pouvoir explicatif et les conséquences qu’on en peut prédire.
Einstein présente ainsi la réalité du travail du physicien : « Les concepts physiques sont des créations libres de l’esprit humain et ne sont pas, comme on pourrait le croire, uniquement déterminés par le monde extérieur. Dans l’effort que nous faisons pour comprendre le monde, nous ressemblons quelque peu à l’homme qui essaie de comprendre le mécanisme d’une montre fermée. Il voit le cadran et les aiguilles en mouvement, il entend le tic-tac, mais il n’a aucun moyen d’ouvrir le boîtier. S’il est ingénieux, il pourra se former quelque image du mécanisme, qu’il rendra responsable de tout ce qu’il observe, mais il ne sera jamais sûr que son image soit la seule capable d’expliquer ses observations. Il ne sera jamais en état de comparer son image avec le mécanisme réel et il ne peut même pas se représenter la possibilité et la signification d’une telle comparaison. Mais le chercheur croit certainement qu’à mesure que ses connaissances s’accroîtront, son image de la réalité deviendra de plus en plus simple et expliquera des domaines de plus en plus étendus de ses impressions sensibles. Il pourra aussi croire à l’existence d’une limite idéale de la connaissance que l’esprit humain peut atteindre. Il pourra appeler cette limite idéale la vérité objective. » (Einstein & Infeld : L’évolution des idées en physique.)
La répétition du verbe « croire » ne doit pas du tout être prise à la légère. La physique teste des croyances. Est encore une croyance l’idée que l’image que nous nous faisons du monde s’améliore au fur et à mesure, car une telle croyance est celle de l’existence d’une limite idéale que l’esprit humain peut atteindre ou du moins approcher. Cette croyance est efficace et sans doute est-elle ce que Platon appellerait une « opinion droite », mais elle reste une croyance. La science présuppose donc deux genres de croyances : 1° des croyances concernant les principes fondamentaux à partir desquels on peut construire une théorie robuste ; 2° des croyances concernant la validité et le sens de l’entreprise scientifique en tant que telle. La croyance au caractère absolu du temps qui est à la base de la physique de Newton est une croyance du premier genre ; la croyance en la possibilité d’approcher progressivement un certain idéal de la connaissance objective est une croyance du second genre. Les croyances du premier genre sont aisément modifiables puisqu’elles ne sont au fond que des auxiliaires nécessaires à la construction d’une théorie qui doit prouver sa valeur dans le champ expérimental par la démonstration de ses capacités prédictives. Par contre, il semble que la science se relèverait mal de l’abandon des croyances du second genre. Qu’il y ait une réalité objective dont nous pouvons nous rapprocher, c’est là une idée sans doute indémontrable mais qui présente un intérêt pour la raison.

II.   Conjectures et lois physiques

Vue en quelque sorte de l’extérieur, une théorie scientifique apparaît comme un ensemble homogène. En fait, il n’en est rien. On doit distinguer au moins deux catégories de théories scientifiques : des théories locales solides et à peu près « insubmersibles » et des théories beaucoup plus larges qui comportent une large partie conjecturale assez fragile. À la première catégorie appartient, par exemple, la cinétique des gaz. Les grandes théories cosmologiques, comme les diverses variantes du « big bang », ou encore la théorie standard de l’évolution font partie de la deuxième catégorie. L’énoncé de l’équation du gaz parfait – (1) PV/T= constante – qui lie température volume, et pression pour un gaz monoatomique n’a pas du tout le même statut que l’énoncé affirmant que (2) l’âge de l’univers est approximativement de 15 milliards d’années. L’énoncé (1) est, en un sens, absolument certain. Dans un champ donné et moyennant des approximations maîtrisées, cet énoncé est « éternellement vrai », du moins si on admet que les lois de la nature ne changeront pas dans le futur. L’énoncé (2) est une conjecture éminemment contestable.
Ce qui sépare ces deux genres d’énoncés, ce n’est pas seulement une question de « vérité ». Par exemple, lorsqu’il étudie la chute des corps, Galilée en arrive à la formule x = – ½gt2 qui lie distance parcourue par un corps en chute libre dans le vide et temps écoulé. La théorie de Newton démontre que, stricto sensu, la formule de Galilée est fausse puisque l’accélération que subit un corps en chute libre n’est pas constante mais varie en proportion inverse du carré de la distance entre le centre de gravité du corps en question et celui de la Terre… Mais relativement à la masse de n’importe quel corps qu’on peut étudier dans une expérience de physique, la masse de la Terre est si grande et les variations des distances entre centre de gravité si faibles, qu’on peut faire « comme si » la formule de Galilée était valable. Théoriquement fausse, elle est pratiquement tout à fait fiable et donne une approximation largement suffisante pour les applications classiques. Par contre, ce qui pose problème dans un énoncé de type (2), portant sur l’âge de l’univers, ce n’est pas que 15 milliards d’années soit une bonne ou une mauvaise approximation ; c’est tout simplement la question de savoir si la recherche de l’âge de l’univers est une question sensée !
On peut supposer que l’immense majorité des savants fait la différence entre les énoncés de type (1) et les énoncés de type (2). Les théories produisant des énoncés de type (1) sont des outils de base auxquels on fait confiance, sans qu’ils suscitent beaucoup d’interrogations – sinon qu’on peut leur donner des perfectionnements de détail ou les appliquer dans des domaines non prévus initialement. Les énoncés de type (2) sont l’objet de discussions et de contestations. Ils définissent éventuellement des programmes de recherche, au sens de Imre Lakatos : la théorie du « big bang » est un programme de recherche en compétition avec un autre programme de recherches, celui de l’état stationnaire de l’univers défendu par quelques astronomes plus minoritaires. Mais comme on ne décide pas de la validité d’une théorie scientifique par un vote à la majorité qualifiée, il est impossible de soutenir sans abus des propositions du genre : « la science a démontré que l’univers est né il y a 15 milliards d’années ». La science a démontré qu’un corps en chute libre dans le vide, parcourt des distances proportionnelles au carré du temps écoulé, pour des distances assez faibles et des corps peu massifs par rapport à la Terre. Mais la science n’a rien démontré concernant le prétendu âge de l’univers.
La confusion entre ces deux types d’énoncés, entre les conjectures et les lois physiques conduit tout à la fois à la surestimation scientiste des pouvoirs de la science – la science devient presque surhumaine – et à la réaction irrationaliste : puisque les théories scientifiques changent sans cesse et se contredisent, cela prouve bien qu’elles ne nous disent rien de vrai ! Pour éviter ces dérives, le mieux est donc de séparer rigoureusement conjectures théoriques et lois de la nature, non pour éliminer les conjectures, mais pour leur restituer leur caractère problématique, bref pour défendre l’esprit critique propre à toute démarche scientifique authentique.

III. Croyance des scientifiques

En droit, les croyances métaphysiques ou religieuses des savants n’ont pas de rapport avec leurs productions théoriques. En fait, il en va très différemment. Aussi bien positivement que négativement, les croyances non scientifiques des savants jouent un rôle clé dans l’élaboration des théories scientifiques. Kant a montré de manière à peu près définitive que nous n’avons aucune chance de donner une solution théorique à des questions comme celles de l’existence de Dieu ou de la liberté. Les grandes questions métaphysiques traditionnelles – qu’elles soient théologiques ou cosmologiques renvoient donc à la croyance. La doctrine officielle sépare par une cloison étanche deux domaines : le savant dans son laboratoire, scientifique pur, obéissant aux principes du positivisme, et le scientifique chez lui, athée ou religieux, matérialiste ou idéaliste. Cette image d’Épinal n’a que des rapports finalement assez lointain avec l’activité scientifique réelle.
L’idée qu’il y a une finalité dans la nature est non seulement une idée indémontrable mais, en outre, il a fallu mettre cette croyance entre parenthèses quand Galilée et Descartes ont jeté les bases de la science moderne. Cependant l’œuvre proprement scientifique d’Aristote aurait difficilement imaginable sans cette croyance que « la nature ne fait rien en vain ». C’est cette croyance qui le guide quand il conçoit la première grande classification du vivant, selon des catégories et des principes qui demeureront pratiquement jusqu’à nos jours. Nous avons donc l’exemple d’une croyance erronée (du point de vue de la science moderne) qui se révéla pourtant productive scientifiquement. On devrait également s’interroger sur le rôle de la foi religieuse dans l’œuvre de Descartes ou de Leibniz. La preuve de l’existence de Dieu chez Descartes n’en est, bien sûr, pas une. Mais c’est cette recherche métaphysique qui donne à Descartes l’audace de renverser l’édifice de la philosophie scolastique. La fonction apologétique que Leibniz donne à son travail philosophique et scientifique est patente : la science fait voir la plus grande gloire de Dieu.
Inversement, les croyances et les préjugés furent souvent ce qui empêcha les savants de voir ce qu’ils avaient devant les yeux. Buffon était persuadé que le récit biblique de la création du monde ne correspondait pas à la vérité historique et il accumule les premiers indices de ce qui pourrait donner la théorie de l’évolution. Mais il se refuse à tirer les conclusions de son travail scientifique. La théorie de l’évolution ne pouvait peut-être trouver sa première formulation scientifique que chez esprit aussi indifférent à la religion que Darwin.
Enfin, la science n’immunise pas contre des croyances plus irrationnelles. Le passé de la science en donne de très nombreux exemples. Copernic était astronome et astrologue et Newton consacrait une partie de son temps à l’alchimie. Mais c’est encore vrai aujourd’hui. En 1979, un colloque se tint à Cordoue qui réunissait de nombreux scientifiques sur le thème « science et conscience ». Il s’agissait de « réconcilier la démarche scientifique et la démarche mystique ». Un tel énoncé laisse rêveur : en dépit du soutien que lui apportaient certains prix Nobel, l’objectif même de ce colloque était absolument dépourvu de sens. Les modes ont changé. Après l’intrusion en physique du spiritualisme – et parfois même du spiritisme puisque à Cordoue on discuta de l’action possible à distance de la conscience sur la matière physique – c’est le « principe anthropique » qui énonce que l’Univers a été conçu dans des conditions extrêmement spéciales dans le but d’abriter la vie. Ce principe anthropique est une véritable régression intellectuelle vers l’anthropomorphisme et le finalisme aristotéliciens, c'est-à-dire les deux obstacles que la science moderne a dû renverser.
Ces croyances irrationnelles ne découlent pas de la pratique scientifique et ne lui apportent rien – à la différence des conjectures évoquées plus haut. Il n’y a pas des esprits rationnels et des esprits irrationnels comme il y a des chiens et des chats. Le scientifique est aussi prompt que n’importe qui à tomber dans les illusions anthropomorphes et les superstitions parce qu’il n’est nullement immunisé contre la domination des affects.
Mais peut-être la croyance scientifique la plus répandue est-elle la croyance dans la vérité scientifique. Nietzsche le dit : « Dans la science, les convictions n'ont pas droit de cité, voilà ce que l'on dit à juste titre : ce n'est que lorsqu'elles se décident à s'abaisser modestement au niveau d'une hypothèse, à adopter le point de vue provisoire d'un essai expérimental, d'une fiction régulatrice, que l'on peut leur accorder l'accès et même une certaine valeur à l'intérieur du domaine de la connaissance ‑ avec cette restriction toutefois, de rester sous la surveillance policière de la méfiance. Mais si l'on y regarde de plus près, cela ne signifie-t-il pas que la conviction n'est admissible dans la science que lorsqu'elle cesse d'être conviction ? La discipline de l'esprit scientifique ne débuterait-elle pas par le fait de s'interdire dorénavant toutes convictions ? Il en est probablement ainsi : reste à savoir s'il ne faudrait pas, pour que pareille discipline pût s'instaurer, qu'il y eût déjà conviction, conviction si impérative et inconditionnelle qu'elle sacrifiât pour son compte toutes autres convictions. On le voit, la science elle aussi se fonde sur une croyance, il n'est point de science « sans présupposition ». La question de savoir si la vérité est nécessaire ne doit pas seulement avoir trouvé au préalable sa réponse affirmative, cette réponse doit encore l'affirmer de telle sorte qu'elle exprime le principe, la croyance, la conviction que « rien n'est aussi nécessaire que la vérité et que par rapport à elle, tout le reste n'est que d'importance secondaire ». (F.Nietzsche, Le Gai Savoir, § 344)

IV. La science comme croyance religieuse

La science a souvent été perçue comme opposée aux croyances religieuses. Pourtant, elle se présente aussi très souvent comme  une nouvelle religion, une religion alternative aux religions basées sur la révélation.
L’exemple le plus connu de cette tentative de reconstruire la science comme religion est celui du positivisme d’Auguste Comte. La conception comtienne du développement de la pensée humaine est connue sous le nom de loi des trois états. L’humanité qui a commencé par l’état religieux, est passée à l’état métaphysique pour atteindre enfin l’état positif, celui de la science moderne.  Dans l’état théologique, les hommes expliquent les phénomènes naturels par l’action d’être surnaturels. Dans l’état métaphysique, les êtres surnaturels font place à des principes abstraits. C’est l’état le moins productif du point de vue de la pensée. Enfin, dans l’état positif ou scientifique, la connaissance s’en tient aux faits établis dont elle recherche les lois générales, en délaissant la question des causes ultimes de toutes choses. Mais Comte ne s’en tient pas là. À chaque état de la connaissance correspond un état social. L’état positif est celui de la société industrielle, qui est bien la société conforme à l’âge des sciences. La « physique sociale » vise à donner les linéaments d’une sociologie. Mais cette dernière doit déboucher sur une action organisatrice. L’organisation sociale de l’âge industriel nécessite une religion nouvelle, la religion de l’humanité qui concerne aussi bien sa réforme morale que sa discipline physique.
Avec un esprit et des objectifs très différents, Einstein présente, lui aussi, la science comme la religion véritable. Selon lui, la religion est d’abord fondée sur la crainte : les représentations religieuses visent à « pallier l’angoisse de la faim, la peur des animaux sauvages, des maladies, de la mort. » Le second stade de la religion est celui de la religion morale. Enfin, Einstein essaie de définir un troisième stade qui, seulement pour des individus particuliers, dépasse ces deux premières formes de la religion. Ce troisième stade, Einstein l’appelle « religiosité cosmique », une notion nouvelle à laquelle ne correspond aucun Dieu anthropomorphe. « L’être éprouve le néant des souhaits et volontés humaines, découvre l’ordre et la perfection là où le monde de la nature correspond au monde de la pensée. L’être ressent alors son existence individuelle comme une sorte de prison et désire éprouver la totalité de l’étant comme un tout parfaitement intelligible. »  (Comment je vois le monde, Flammarion, 1979)
Einstein soutient que « les génies religieux de tous les temps » ont partagé cette religiosité face au cosmos. La religiosité cosmique n’est enseignée par aucune Église, elle n’a ni dogme ni Dieu à l’image de l’homme. « Nous imaginons aussi que les hérétiques de tous les temps de l’histoire humaine se nourrissaient de cette forme supérieure de la religion. Pourtant leurs contemporains les suspectaient souvent d’athéisme mais parfois, aussi, de sainteté. Considérés ainsi, des hommes comme Démocrite, François d’Assise, Spinoza se ressemblent profondément. »
Einstein fonde cette religiosité cosmique dans la connaissance scientifique, c'est-à-dire dans la connaissance rationnelle des liens de causalité entre les choses. Et c’est pourquoi cette religiosité refuse la religion conventionnelle et ses rituels. « Pour le scientifique, en effet, les mêmes lois générales causales de la physique gouvernent tous les évènements naturels : de la chute d’une pierre, au lancer d’un projectile et jusqu’à la volonté humaine elle-même. En ce sens, la nécessité physique exclut par principe l’existence d’un être d’un être supérieur, semblable à nous et qui, sur un mode semblable au nôtre peut agir dans la nature et en dehors de ces lois nécessaires. Les religions traditionnelles, basées sur une telle image de l’être suprême sont donc tout simplement dans l’erreur ; un accord entre science et religion est alors impossible et, dans la confrontation, la dernière doit succomber. » (Gustavo Cevolani : Einstein et Spinoza)
Au contraire de la religion traditionnelle, la religiosité cosmique d’Einstein se confond avec l’amour intellectuel de Dieu spinoziste. La connaissance des lois de la nature et de sa propre nature et la joie qui naît de cette connaissance : telle est, pour Spinoza, la réalité de cet amour de Dieu. Mais là où Spinoza reste encore très général, Einstein définit précisément cette religiosité scientifique : « le savant, lui, convaincu de la loi de causalité de tout évènement, déchiffre l’avenir et le passé soumis aux mêmes règles de nécessité et de déterminisme. La morale ne lui pose pas un problème avec les dieux, mais simplement avec les hommes. Sa religiosité consiste s’étonner, à s’extasier devant l’harmonie des lois de la nature dévoilant une intelligence si supérieure que toutes les pensées humaines et leur ingéniosité ne peuvent révéler, face à elle, que le néant dérisoire. Ce sentiment développe la règle dominante de sa vie, de son courage, dans la mesure où il surmonte la servitude de ses désirs égoïstes. »
La religiosité cosmique est donc un sentiment de la nature qui accompagne le dévoilement de l’ordre de la nature. Il s’agit cependant bien d’une véritable croyance : le scientifique einsteinien croit que l’ordre des lois de la nature n’est l’ordre que l’esprit humain met dans la diversité du donné phénoménologique, mais bien l’expression (provisoire et à améliorer) de l’ordre profond d’une nature qui manifeste une intelligence – bien que cette intelligence ne soit pas pour lui celle d’un esprit transcendant mais bien la nature elle-même.

V.  La science produit de nouvelles croyances

Pour conclure, on doit remarquer que la science non seulement ne peut se penser indépendamment des croyances qui lui servent de fondement ou qui lui donnent des mobiles, mais encore qu’elle produit à son tour des croyances. En premier lieu, alors que la science ancienne était réservée aux initiés – elle était par nature ésotérique – la science moderne est à la fois ésotérique et exotérique. Elle manifeste sa puissance à travers la technique qui n’est plus le « savoir immanent à l’action » dont parlait Platon mais l’application de la science. En second lieu, l’efficacité des résultats obtenus par les sciences de la nature a nourri l’illusion de la maîtrise et entretenu toutes les tentations d’étendre cette maîtrise à l’espèce humaine elle-même.
La science, par ses succès même, produit donc une croyance dans la science, une croyance aveugle qui a tous les traits des croyances irrationnelles. Ainsi toute application de la science est plus ou moins conçue comme bienfaitrice puisque découlant de la science elle-même bienfaitrice. On en a vu et on en voit encore de nombreux exemples dans le domaine des biotechnologies. Celui qui s’opposerait à telle ou telle application de la science est ipso facto dénoncé comme un obscurantiste qui refuse le progrès. La religion du progrès technique, confondu avec le progrès humain en général est devenue une des religions les plus influentes de notre époque.
-          Elle confronte la faiblesse humaine à la toute puissance d’une force mystérieuse.
-          Elle console du présent par des espoirs irraisonnés dans l’avenir : on ne fera pas la liste des promesses jamais tenues par les thuriféraires du progrès.
-          Elle est imperméable à la critique rationnelle. De même que le mal dans le monde est nécessaire pour prouver la bonté de Dieu, de même les dégâts du progrès seront l’occasion de prouver la capacité du progrès technique à réparer leurs propres dégâts.
La science exotérique, destinée au grand public, a aussi produit quelques-unes des idéologies les plus redoutables de l’époque contemporaine. Ainsi, le racisme, sous ses diverses formes, n’est pas le témoin des préjugés du passé mais le produit, presque en ligne directe, des préjugés de la science moderne. Les vieux fantasmes de la « pureté du sang » ont repris vigueur sous l’influence des théories de l’hérédité. L’application des principes darwiniens de la sélection naturelle à la « gestion du parc humain » (pour reprendre l’expression du Peter Sloterdijk) et la tentative scientiste de réduire l’humain au biologique forment la matrice de la grande catastrophe du xxe siècle, ainsi que l’a montré André Pichot (cf. bibliographie).
Il s’agit d’une exploitation abusive de la science. Chez Darwin lui-même, on ne trouvera rien pour justifier, de quelque manière que soit, les théories du « darwinisme social ». Au contraire, ainsi que l’a montré Patrick Tort, Darwin explique comment avec l’apparition de l’homme l’évolution naturelle est en quelque sorte inversée avec l’apparition du phénomène moral et son développement chez l’homme civilisé. Reste à comprendre dans ce cas, comme dans de nombreux autres, comment l’œuvre d’un savant peut ainsi être contrefaite et pervertie en une idéologie radicalement étrangère à l’esprit et à la lettre de cette œuvre. Un des grands savants de notre temps, Francis Crick, co-découvreur avec James Watson de la structure en double hélice de l’ADN, a fait dans un congrès cette déclaration stupéfiante: « Aucun nouveau-né ne devrait être reconnu humain avant d’avoir passé un certain nombre de tests portant sur sa dotation génétique… S’il ne réussit pas ces tests, il perd son droit à la vie. » Il n’y a, théoriquement, aucun rapport entre la découverte de la structure de l’ADN et ces affirmations insensées. Mais cela en dit long sur une certaine ivresse de la science et sur la manière dont la science et la technique peuvent fonctionner comme idéologie.

Bibliographie

Albert Einstein : Comment je vois le monde, Flammarion, collection Champs
André Pichot : La Société pure, De Darwin à Hitler. Flammarion, 2000


Communisme et communautarisme.

Par  Carlos X. Blanco Le communautarisme de Costanzo Preve se démarque de tout mouvement intellectuel nostalgique qui cherche à rétrograde...