lundi 3 décembre 2018

Les ordinateurs ont-ils une mémoire ?


La mémoire des ordinateurs surpasse infiniment la nôtre : une bibliothèque entière tient sur une clé USB. La mémoire de l’ordinateur est infaillible (sauf problème technique) et quand nous doutons de notre propre mémoire, nous faisons confiance à ces prothèses faites de plastiques et métaux plus ou moins rares, accessibles par des réseaux d’ordinateurs connectés. Face à ces produits conçus rationnellement et si parfaitement adéquats aux objectifs qui leur sont fixés, nous éprouvons nous, pauvres humains, ce sentiment que Gunther Anders a désigné sous le nom de « honte prométhéenne », nous qui ne sommes que le résultat aléatoire des lois de la biologie. Notre mémoire est si fragile relativement à la mémoire des ordinateurs !

Explosion de la mémoire

Si les hommes ont toujours inventé des dispositifs techniques permettant d’objectiver leur mémoire, avec l’avènement de l’informatique, c’est à une nouvelle explosion de la mémoire que nous assistons. On peut donner une idée : un livre comme Matière Et Mémoire de Bergson contient environ 400.000 caractères. Une mémoire informatique de 1 Mo peut donc contenir près de trois livres comme cette œuvre de Bergson. Un disque dur d’un ordinateur grand public est de 1 To (240 octets) soit environ 3 millions de livres comme Matière et Mémoire et sans doute beaucoup plus si on utilise des algorithmes de compression de données ! Chacun pourrait donc posséder facilement toutes les plus grandes bibliothèques du monde. On peut mémoriser non seulement les mots, mais aussi les images et les sons, qui annonce sans doute des bouleversements considérables de la culture humaine : pour raconter un événement, il fallait passer par le travail d’abstraction du langage ; désormais un clip vidéo peut suffire. Cette explosion de la mémoire transforme fondamentalement la condition des hommes. Le passage de la « graphosphère » à la « vidéosphère » (cf. les travaux de Régis Debray) n’est pas un simple changement de médium.
Le contrôle de ces mémoires externes devient du même coup un enjeu non seulement économique mais aussi politique autour duquel se livrent les batailles d’aujourd’hui. Qui contrôle les mémoires externes pourrait bien contrôler les mémoires de chacun d’entre nous.
La survie et le développement de l’humanité ont toujours nécessité la production d’informations. Le progrès technique est le développement d’une mémoire externe, c’est-à-dire de toutes sortes de dispositifs utilisés pour le stockage de l’information.
Le mot « calcul » (en latin, « petit caillou ») vient de premières méthodes employées pour compter les entrées et les sorties dans les magasins de la cité. On pourrait ainsi compter les informations produites par l’humanité au cours de sa propre histoire et on estime ainsi que l’humanité à produit au cours des deux dernières années plus d’informations qu’elle n’en a produites dans toute son histoire antérieure ! Avant la fin du XIXe, les informations étaient stockées sous une forme écrite et on ne pouvait mémoriser que les images fixes, par la peinture et la sculpture ! L’invention de la photographie démultiplie la mémorisation des images, puis le cinéma permettra la mémorisation du mouvement, la chronophotographie pouvant ici tenir lieu de « chaînon intermédiaire ». L’invention du phonographe permet la mémorisation du son.
Les trois autres sens, en revanche, ne laissent aucune trace. Se pose la question de savoir pourquoi il en est ainsi revient à savoir si l’incapacité dans laquelle nous sommes de stocker des informations de nature olfactive, par exemple, découle de problèmes techniques qui pourront peut-être résolus un jour ou si, au contraire, cela tient à la nature même de cette information olfactive, gustative ou tactile. Il semble que la deuxième hypothèse soit la bonne. Nous pouvons faire des représentations imagées d’un paysage : cette représentation a une réalité objective, indépendante de notre perception (subjective), mais ni les odeurs ni les saveurs ne sont susceptibles de ce genre de représentation et donc ne peuvent être mémorisés. Je peux envoyer à un ami une photographie de ma résidence de vacances, mais nullement les odeurs des plantes ou le goût d’un met.
Nonobstant cette limitation, il semble que rien ne puisse arrêter notre boulimie d’information mais nos supports actuels, essentiellement les disques des ordinateurs, atteignent leurs limites. En outre on sait qu’il s’agit de support dont la durée de vie est limitée : le papier résiste mieux aux outrages du temps que les disques optiques (CD, DVD) et autres disques magnétiques. On envisage d’utiliser l’ADN comme dispositif de stockage : des essais ont permis de stocker un million de caractères sur un picogramme d’ADN (10-12g). Cette macromolécule peut, en effet, être considérée comme une mémoire qui contient les informations qui commandent la production des molécules d’ARN à partir desquelles se construisent tous les êtres vivants. Cette information est « codée » par une suite de combinaisons de quatre bases qui permettent de définir toute l’information génétique. Nous savons aujourd’hui « décoder » le code génétique de tous les vivants et singulièrement celui de l’homme – qui nous donne de nouvelles informations sur notre passé, le nôtre comme celui de l’espèce. Mais on peut se servir de ces suites de combinaisons pour coder d’autres informations. 

Mémoire objectivée et métaphore de la mémoire

Pourtant il n’est pas certain que l’on puisse dire que les ordinateurs « ont » une mémoire. Pour parler d’un homme qui a une bonne mémoire, on dit encore qu’il a une mémoire d’éléphant et pas une mémoire d’ordinateur ! La langue dit nos réticences à accorder une « vraie » mémoire aux ordinateurs. Nous avons le pressentiment que le mot mémoire est utilisé de manière métaphorique par l’industrie informatique.
Tout d’abord commençons par remarquer que la civilisation humaine, au plus loin que nous puissions remonter laisse des traces et des marques qui rappellent aux humains toutes sortes de choses utiles à la vie. Laisser une trace sur un tronc d’arbre ou sur un rocher sera utile pour se ressouvenir du chemin à emprunter. Le fil d’Ariane qui aide Thésée à s’échapper du labyrinthe, c’est le fil de la mémoire. Et d’ailleurs quand un peu plus tard Thésée appareille en laissant Ariane il se trouve dans un épais brouillard car il a perdu la mémoire de la route à suivre. Le totem est le rappel de la mémoire des ancêtres. Tous ces moyens de garder la mémoire restent très limités. C’est l’invention de l’écriture qui va permet la première explosion des moyens de mémoriser. Tout ce qui était confié à la mémoire subjective des individus enseignant ce qu’ils savaient à d’autres individus qui devaient à leur tour le garder en mémoire peut maintenant être objectivé dans une chose matérielle.
Les grottes peintes rappelaient aux hommes de la préhistoire quelques secrets, quelques vérités initiatiques et nous rappellent à nous combien ces hommes si lointains étaient nos semblables. Mais on ne dira pas que la grotte peinte a une mémoire bien qu’elle soit à certains égards l’enregistrement des faits ou des croyances de nos ancêtres. Les livres n’ont pas de mémoire, ils sont de la mémoire objectivée et de la mémoire qui ne sera véritablement mémoire qui s’ils trouvent des hommes pour les lire et les inscrire dans leur mémoire. Peut-on dire alors qu’il en est de même avec  les ordinateurs ? À certains égards on peut comparer un ordinateur à une bibliothèque stockant des livres de toutes sortes : des livres encryptés en code binaire, des livres qui définissent le fonctionnement de l’ordinateur et un ensemble d’engrenages qui permettent d’effectuer des opérations arithmétiques et des recherches dans la bibliothèque. On a souvent comparé les ordinateurs à des machines à calculer mécaniques comme la célèbre « pascaline » inventée par Blaise Pascal au XVIIe siècle ou encore à l’antique boulier, venu sans doute de Chine. Ce n’est pas faux ; mais la comparaison la plus pertinente est celle qui rapproche l’ordinateur du métier Jacquard ou du limonaire.

Le métier Jacquard est un métier à tisser mécanique qui peut être manipulé par un seul ouvrier et dont les motifs sont « programmés » sur des cartes perforées qui déterminent quelle aiguille sera actionnée et donc quel fil sera utilisé. Il suffit de changer les cartes pour changer de motif. Les cartes sont comme un programme d’ordinateur ou plutôt les programmes d’ordinateurs sont semblables aux cartes d’un métier Jacquard. Le limonaire fonctionne sur le même principe, mais ici il ne s’agit plus de tisser de la toile mais de produire de la musique. Au lieu de reproduire le son à partir d’un dispositif qui mémorise les sons (disque vinyle ou CD), le limonaire produit le son à partir de son programme que l’on peut changer à l’envi.
Où se trouve la mémoire ? Pas dans la mécanique : un batteur pour monter les monter les œufs en neige n’a aucune mémoire et pourtant quand je m’en sers adéquatement, il exécute toujours les mêmes opérations et me permet d’obtenir ce que je voulais, à savoir des œufs en neige. On voit tout de suite qu’il n’y a guère de sens à parler de « mémoire » quand une machine exécute les mouvements en vue desquels elle a été construite. Que l’on puisse à volonté modifier ces mouvements par des dispositifs ingénieux comme celui de Jacquard ne modifie pas fondamentalement la nature de la machine. Après tout, de nombreuses machines sont réglables et on peut changer les réglages en fonction des tâches à accomplir. Si on s’intéressait spécifiquement à l’histoire des techniques, le point de vue serait extrêmement différent : une technique du genre métier Jacquard est une évolution importante des techniques. Les grandes machines automatiques qu’étaient les « mule-jenny » inventées à la fin du XVIIIe n’étaient pas aussi évoluées que le métier Jacquard ! Mais il n’y a ni plus ni moins de mémoire dans la « mémoire morte » des mule-jenny que dans la « mémoire réinscriptible » des Jacquard. D’ailleurs on ne parle jamais de mémoire à leur sujet.
On pourrait aussi évoquer la mémoire dans les processus physiques. La courbe d’hystérésis pourrait apparaître comme une forme de « mémoire ». La courbe d’aimantation d’un noyau de fer doux sous l’effet d’un courant électrique est différente de la courbe de désaimantation dans on coupe le courant. Tout se passe comme si noyau de fer conservait la « mémoire » du cycle d’aimantation. Mais là on voit bien que le mot de mémoire dans un sens qui nous interdit de dire que le fer doux « a » de la mémoire. Il en va de même lorsque l’on parle d’effet-mémoire dans les accumulateurs ou encore de « mémoire de forme » pour les matelas ou les alliages à « mémoire de forme » : ici la mémoire désigne seulement la propriété d’un matériau à revenir à sa forme antérieure.
On s’est mis à parler de mémoire avec les ordinateurs pour une raison qu’on a un peu oubliée : les premiers ordinateurs s’appelaient calculateurs mais aussi souvent « cerveaux électroniques », puisqu’ils étaient censés effectuer des opérations mathématiques aussi complexes que celles d’un cerveau humain. Mais pendant un temps assez long, c’est sur des cartes perforées (comme dans le métier Jacquard) qu’étaient stockés programmes et données et sur cartes perforées que sortaient les résultats avant qu’on ne les remplace par des téléimprimeurs.

L’information

Nous voyons donc que le mot de mémoire ne peut s’appliquer aux ordinateurs que dans un sens faible, plutôt relâché et pas dans le sens où « j’ai de la mémoire ». La mémoire des ordinateurs est simplement un dispositif de stockage. Je vais prendre un exemple. Voici ce que dit Wikipedia dans l’entrée consacrée à la mémoire en informatique. « En informatique, la mémoire est un dispositif électronique qui sert à stocker des informations (stockage de données). » Il n’y a rien à dire à cette définition … sinon qu’elle fait comme s’il allait de soi que l’on stocke des informations dans une mémoire. Si vous mettez l’interrupteur de votre radiateur électrique sur (o) ou sur (i) comme « out » ou « in », vous n’avez pas l’impression d’avoir stocké de l’information et pourtant dans une mémoire d’ordinateur il n’y a que des positionnements d’interrupteurs (un élément de mémoire est tout simplement un transistor fonctionnant comme un interrupteur que l’on peut mettre en position « bloqué » ou « saturé ». Pourquoi ce qui objectivement n’est que l’état physique d’un système devient-il de l’information ?
La notion d’information est le produit d’un travail conceptuel. L’information n’existe pas comme existent les choses matérielles, c’est une abstraction. Une chose matérielle peut nous donner une information, c’est-à-dire que nous associons une idée à la présence de cette chose. Si je trouve des petites crottes dans mon sous-sol, me voilà informé de la présence de souris ! Autrement dit l’information n’est ni les déjections de rongeurs (qui ne sont une information que pour qui sait ce que c’est) ni le rongeur lui-même. Elle est le rapport qu’un esprit humain établit entre les deux.
On peut essayer de donner une théorie plus formelle de l’information qui nous permettra ensuite de redéfinir la mémoire comme dispositif de stockage de l’information. Shannon a construit une théorie de l’information statistique. C’est cette théorie qui est à l’origine des dispositifs d’encodage et décodage qui sont les pièces de base de ce qu’on appelle (avec un air presque mystérieux mais entendu) le « numérique ». Mais là encore, il faut bien comprendre ce qui est en question.
On dira qu’une suite de 0 et de 1 forme un message et ce message transporte de l’information. À quelle condition ? Premièrement que cette suite de 0 et de 1 soit le produit d’un encodage et faut donc disposer d’un code et, encore une fois, un code n’est chose matérielle mais bien une chose mentale. La phrase que je viens de prononcer je peux l’encoder en écriture alphabétique latine. Ces signes sur un papier demandent à être décodés – par exemple, il faut savoir lire ! Et pour stocker cette phrase sur mon ordinateur, il m’a fallu procéder à un deuxième en codage : transformer ma phrase ne code « ASCII » étendu. La phrase « un code n’est chose matérielle » s’écrit en ASCII qui est un codage hexa décimal qu’on peut ensuite très facile transformer en codage binaire qui lui-même peut s’inscrire dans une « mémoire informatique ». Quand je lis cette phrase sur mon papier, il a donc fallu à la fois procéder à ce codage et ensuite au décodage. Ces opérations d’encodage et de décodage peuvent être faites par des machines ; elles sont des opérations « matérielles », des processus physiques, entièrement descriptibles par les lois de la physique. Mais cette opération, en tant que processus physique permet de transmettre un message qui du sens uniquement pour un utilisateur humain de cette machine à encoder et décoder qu’est mon ordinateur doté d’un logiciel de traitement de texte et peut-être même d’un logiciel de reconnaissance vocale. Si j’écris la phrase : « Jules César est un nombre premier », l’ordinateur l’encode sans protester alors que l’humain qui lira cette phrase se demandant si je ne suis pas tombé sur la tête. La machine en tant que « médium » manipule des signes dont seule la syntaxe importe (c’est un peu ce que fait le correcteur de grammaire). Mais les cerveaux humains ont accès au sens ! si je tape « A » sur mon clavier, on peut dire que j’ai « informé » le microprocesseur de mon ordinateur mon intention d’afficher la lettre « A », mais c’est une manière métaphorique et passablement douteuse de parler. Ou alors il faudrait admettre que lorsque je bascule l’interrupteur des lampes de ma cuisine j’ai informé l’installation électrique de mon intention d’un voir plus clair ou encore si je bêche mon jardin, je manifeste à la terre mon intention de planter des patates !
La philosophie analytique nous a appris que bien souvent les problèmes philosophiques n’étaient que des confusions dans l’usage du langage. C’est un peu exagéré, mais il y a du vrai là-dedans.

Pourquoi les ordinateurs n’ont pas de mémoire

Si la mémoire est du « stockage de l’information », on voit alors que « stricto sensu » l’ordinateur n’a pas de mémoire. Il ne se souvient de rien, non pas parce qu’il a perdu la mémoire mais tout simplement parce qu’il n’est pas quelque chose qui pourrait avoir une mémoire et parce qu’il n’est quelque chose qui pourrait être sujet du verbe « se souvenir ». Nous avons une tendance à personnifier les ordinateurs et à en faire le sujet de pensées analogues aux pensées des humains. C’est un processus psychologique facile à comprendre qui a une origine infantile (l’enfant qui parle à son ours en peluche). Grâce à ces ordinateurs dont nous ne comprenons pas le fonctionnement interne nous pouvons réaliser des tâches complexes et fastidieuses sans même avoir à nous demander comment ces opérations sont effectuées. Mais l’ordinateur ne « fait » rien, au sens strict du terme. Le déroulement mécanique d’un ensemble d’opérations planifiées par une humain en fonction de buts humains n’est pas une action de l’ordinateur ! Elle est une action humaine réalisée au moyen d’un outil qu’est l’ordinateur. L’ordinateur n’agit pas plus que la bêche du jardinier !
Tout ceci nous amène à comprendre pourquoi l’ordinateur n’a pas de mémoire même s’il est un outil de mémorisation. Pour avoir une mémoire, il faut être capable de se souvenir. Il faut donc être un sujet, c'est-à-dire un être qui possède en lui une représentation de lui-même. Je sais qu’aujourd’hui de la même façon qu’on affirme qu’il n’y a pas de véritable distinction entre l’homme et l’animal, on prétend qu’il faudra admettre les robots (des IA) au rang de compagnons disposant de droit. C’est évidemment une position folle (voir JF Braunstein, La philosophie devenue folle) qui se soustrait à l’avance au simple bon sens.
Si nous reprenons les thèses de Locke, en effet, c’est la mémoire qui constitue le sujet. Un souvenir qui me revient donne en même une image et la certitude que ce souvenir est « mon » souvenir et que c’est un souvenir temporellement situé. Ce qui fait qu’un souvenir est un souvenir, c’est précisément qu’il appartient à un faisceau de souvenirs qui, unifiés forment le « moi ». Certes, les souvenirs ne sont possibles que parce qu’il y a un processus physiologique de mémorisation dont on connait assez bien le détail maintenant. Mais ces processus physiologiques ne sont pas le souvenir à proprement parler. Par exemple, on peut mémoriser un paysage : il y a quelque part dans notre cerveau un ensemble de processus physico-chimiques qui les traces mnésiques de la sensation qu’a produite le paysage. Mais dire « je me souviens de ce paysage » et dire « j’ai des traces mnésiques produites alors que j’étais à tel endroit tel jour » ne sont pas du tout des assertions substituables l’une à l’autre. Les identifier c’est commettre une erreur de catégorie comme le dit Gilbert Ryle. Les traces mnésiques caractérisent un état présent de mon cerveau, alors que le souvenir rend présent quelque chose que je situe ailleurs et dans le passé. Les traces mnésiques sont dans mon cerveau et pas les montagnes et le lac dont je me souviens. « Avoir la mémoire de », c’est bien « se souvenir de » ou « se rappeler », ce n’est pas avoir un certain état du cerveau.
Supposons maintenant que je prenne une photo de ce paysage pour m’en ressouvenir quand je serai rentré de vacances. Qu’il y ait maintenant dans mon appareil photo une pellicule à développer ou une carte SD à transférer, je ne dirai pas que mon appareil photo a de la mémoire et encore moins qu’il a la mémoire du lac et des montagnes. Ce sont des mémoires externes, dont la valeur est subordonnée à ma capacité de me ressouvenir quand je regarde quelques mois ou quelques années après la photo. Mais il se pourrait très bien que cette photo ne me dise rien du tout, que je ne me souvienne plus ni du lieu, ni temps où elle a été prise. Dans ce cas, elle n’est même pas un souvenir mais une photo analogue à celles que l’on peut trouver en feuilletant un magazine consacré aux voyages. Il se peut aussi que la photo vienne contredire ce dont je me souvenais ou que j’y découvre un détail que je n’avais pas perçu.
On me dira qu’un appareil photo n’est pas un ordinateur. Mais comment faire la différence ? Les appareils photo d’aujourd’hui sont d’ailleurs justement des petits ordinateurs spécialisés dans la prise de photos et automatisant toutes les tâches qui étaient à la charge du photographe.
On voit donc, par extension, que l’ordinateur est certes un dispositif externe de mémorisation mais qu’on ne pas peut dire au sens strict qu’il a de la mémoire. Quand on utilise le mot mémoire ici, c’est un raccourci qui désigne seulement le nombre d’interrupteurs élémentaires qui peuvent être positionnés sur la position 1 ou sur la position 0. Rien de plus.

L’enjeu de ces réflexions

Pourquoi l’ordinateur n’a pas de mémoire ? Parce qu’il n’est pas capable de « se représenter » quoi que ce soit. Il peut nous présenter quelque chose et nous amener à nous représenter quelque chose Mais « lui » – si ce pronom personnel sujet a ici un sens autre que grammatical – ne se représente rien. Pas plus que l’horloge qui marque l’heure ne se représente l’heure. Mais si l’ordinateur ne se représente rien, il n’a évidemment pas de conscience de quoi que ce soi et encore moins de conscience de soi.
On pourra me rétorquer : soit, mais on ne sait pas quel effet ça fait d’être un ordinateur ? En parodiant Thomas Nagel, on pourrait remplacer la question « How to be a bat ? » par « How to be a computer ? ». À quoi il se pourrait que l’on n’ait rien à répondre, sinon de demander à son interlocuteur de moins lire de SF et de faire preuve d’un minimum de bon sens ! L’esprit est prompt à s’inventer toutes sortes de fantasmagories dans lesquels il s’enferme. Personne n’irait imaginer que sa machine à laver est un être conscient, même à un bas degré de conscience, sauf dans le monde fantaisiste des dessins animés.
Sans développer plus ce point, je veux faire une remarque qui permettra de sérier les questions. Leibniz disait en substance qu’un être est un. Être, c’est former une unité. Les êtres vivants forment des unités « organiques ». Les ordinateurs ne sont pas des unités, mais simplement des compositions de machines agencées de différentes manières. Je n’ai pas dit que tous les êtres vivants ont une conscience – quoi que ce soit exactement ce que dit Leibniz – mais une chose est certaine les ordinateurs (ou les robots humanoïdes) ne sont pas le genre d’entités auxquelles nous pourrions attribuer une conscience. Peut-être fais-je preuve de « chauvinisme carboné » (comme diraient Paul et Patricia Churchland), mais là aussi je ne peux que renvoyer au simple bon sens. Après avoir tenté d’abolir la limite entre l’homme et l’animal, on ne va non plus abolir la limite entre homme et machine. Sauf à vouloir transformer les hommes en machines.
Le 3 décembre 2018


mardi 20 novembre 2018

Après la gauche...

Une intervention à l'université d'automne du Pardem (2014)

La présentation de mon livre "Après la gauche" (2018)


lundi 12 novembre 2018

Intelligence et stupidité artificielles

Un essai de Tony Andréani

L’ainsi nommée « intelligence artificielle » fascine et donne lieu aux spéculations les plus extravagantes. Entre autres celles-ci :
En copiant les facultés de l’esprit humain et en les portant à une puissance supérieure, elle ouvrirait une nouvelle ère pour l’humanité, celle où les machines feraient de plus en plus le travail à la place des hommes, et bien mieux qu’eux, ce qui, par voie de conséquence, réduirait drastiquement le nombre des emplois et élargirait le champ du loisir. Elles accroîtraient leurs capacités (c’est « l’intelligence augmentée ») au point de leur ouvrir, avec des progrès technologiques inouïs, de nouveaux espaces, par exemple la possibilité de coloniser d’autres planètes.
Mieux encore : l’intelligence artificielle pourrait transformer l’homme lui-même en un être surhumain, potentiellement immortel (c’est le « transhumanisme »). Version beaucoup plus inquiétante, popularisée par la science fiction : elle pourrait prendre le pas sur l’homme en permettant la création d’un univers de robots doués de pouvoirs surhumains. Perspective plus proche : elle remplacerait avantageusement les relations humaines, si hasardeuses et si imparfaites, grâce à des robots humanoïdes sensibles, amicaux, attentionnés, voire excellents partenaires sexuels. Et j’en passe.
L’intérêt dans toute cette affaire est bien au contraire de nous montrer ce en quoi les machines « intelligentes » ne peuvent pas et ne seront jamais des quasi-humains, donc de nous renvoyer à des questions d’anthropologie, de morale, et finalement de politique. On va ici simplement poser quelques jalons de cette problématique.
Commençons par le commencement. Les machines intelligentes sont-elles si « intelligentes » que cela ?

En quoi les machines intelligentes sont stupides

« Intellegerer », c’est, étymologiquement, relier pour discerner, et, à cet égard les machines sont capables de rassembler et de traiter un nombre de données infiniment supérieur à ce qu’un intellect humain est capable de faire, mais elles le font dans un champ donné, toujours très circonscrit. On sait qu’elles peuvent battre le meilleur joueur aux échecs ou au jeu de go –il est vrai au prix d’un matériel impressionnant (des superordinateurs énormes et très voraces en énergie). Elles en appliquent les règles et tirent des inférences de millions de parties jouées par des humains. Le progrès a constitué en ce que les machines intelligentes sont devenues capables d’apprentissage, tout comme l’homme, et même déjà l’animal, quand ils  procèdent par essais et erreurs. Ce deep learning s’est développé en imitant les réseaux de neurones du cerveau. Fort bien. Et cela donne effectivement une puissance de calcul et d’analyse supérieure à la nôtre. Par exemple, en compilant des millions de dossiers médicaux, des milliards de radiographies, des millions de dossiers d’assurance, et en traitant ces données, un superordinateur peut établir, pour telle personne, un diagnostic de cancer plus sûr que celui d’un médecin et suggérer le traitement le plus approprié à son cas. On ne saurait que s’en féliciter.
Mais ce n’est pas tout un cerveau artificiel qui travaille, c’est seulement l’équivalent d’une infime partie du cortex. Il est à noter d’ailleurs qu’un cerveau humain est aussi capable d’une grande puissance, s’il parvient à se déconnecter de toutes les autres stimulations qu’il reçoit, et plus encore si une physiologie particulière l’y dispose (on sait que des autistes peuvent, par exemple, effectuer des opérations arithmétiques complexes à toute vitesse et sans se tromper). Mais, dès que le champ s’élargit, la machine devient « stupide ». Ce qui a fait dire à des spécialistes qu’elle serait incapable de réaliser ce que fait un rat, et peut-être même une fourmi. Elle est également incapable de faire tout ce qu’un petit enfant fait spontanément lorsqu’il apprend à se mouvoir, à saisir des objets, à reconnaître des formes. On est donc très long des capacités d’un cerveau animal, même rudimentaire, et a fortiori de celles d’un cerveau humain, avec ses  presque 100 milliards de  neurones et ses 10.000 milliards de synapses par cm3.
Admettons que les machines se perfectionneront. Après tout la voiture autonome peut avoir appris les mouvements de la conduite et reconnaître son environnement, au point, dit-on, qu’elle serait moins accidentogène qu’un conducteur humain, ignorant la fatigue et ne se laissant distraire par rien. Elle fera disparaître, prévoit-on, les métiers de chauffeur de taxi et de chauffeurs livreurs. Elle nous transportera d’un lieu  à un autre sans intervention humaine. Mais, on le voit bien, il s’agit toujours d’une activité limitée et ciblée. Si accident il y a, ou tout autre évènement imprévisible, la machine ne saura quoi faire. Et, surtout, les machines intelligentes ne savent que  copier nos activités dans la mesure même où elles sont machiniques.

Les machines intelligentes ne reproduisent qu’une facette du travail humain

C’est une vieille histoire. Le premier outil a été un prolongement de la main, ou plus généralement du geste humain. A partir de là on peut raconter l’évolution de la force productive du travail (car les dites « forces productives » ne sont rien d’autre que des facteurs qui accroissent, parfois très indirectement, la productivité du travail). Le machinisme simple, celui qui suit l’activité manuelle complexe de la manufacture, remplace des gestes par des dispositifs que le travailleur se contente de surveiller : c’est le contrôle au premier degré. Puis vient l’automation : le travailleur contrôle non la machine, mais un dispositif qui contrôle la machine (elle devient par exemple une machine à « commande numérique »). Alors oui, on peut parler avec la machine intelligente, d’un nouveau stade, d’une nouvelle époque dans le machinisme, d’une nouvelle révolution technologique, quand c’est la machine qui se contrôle elle-même. C’est ce que fait un robot. Son programme lui dicte les mouvements qu’il a à faire, et ce en fonction d’informations qu’il reçoit de son champ d’opération. On peut voir aujourd’hui, par exemple, un robot imiter parfaitement les gestes d’un opérateur manuel qui travaille à côté de lui, et qu’il pourra donc rapidement remplacer, quand son coût d’amortissement et de fonctionnement sera moins élevé que le salaire versé à ce dernier, compte tenu aussi d’autres avantages (il peut fonctionner jour et nuit, ne se fatigue pas, n’est distrait par rien, ne fait pas grève etc.). Il n’y a pas de doute : tout travail plus ou moins standardisé et répétitif sera un jour effectué par une machine intelligente (c’est déjà vrai pour certains travaux de secrétariat, de réponse téléphonique à des questions standardisées etc.). Il n’y aurait qu’à s’en féliciter, dès lors qu’un opérateur humain serait là pour intervenir quand la machine ne sait plus quoi faire ou répète stupidement ce qu’elle sait faire - ce qui n’est malheureusement pas toujours le cas, comme nous en faisons l’expérience tous les jours.
On discute beaucoup la question de savoir si la généralisation des machines intelligentes ne va pas mettre au chômage des centaines de millions de travailleurs. Même s’il se créera de nouveaux emplois pour produire ces machines, les entretenir et les régler, il est probable qu’il en ira ainsi, et ce serait une formidable occasion de réduire le temps de travail pour tous si ce n’était contraire à la logique du système capitaliste. Mais la question que nous voulons souligner n’est pas là.
L’autre grande facette du travail humain, à côté de l’usage de l’outil (au sens le plus large du terme) est la coopération. Marx l’a particulièrement analysée à peu près en ces termes. Il y a une forme de coopération « objective » qui correspond à une division des tâches, que le machinisme peut parfaitement suppléer (cela devient une « chaîne » d’opérations ou de machines, qui fonctionnent selon un dispositif préétabli - aujourd’hui un programme informatique), mais aussi une coopération « subjective », qui se traduit, par des phénomènes comme l’émulation, l’information mutuelle, l’apprentissage mutuel, et d’autres choses encore comme l’ambiance de travail (pause  café comprise). Le management le sait bien, qui essaie de les exploiter, tout en les réduisant au maximum, de peur des effets d’insubordination qu’ils peuvent produire. Or de ces formes de coopération intersubjective les machines intelligentes sont incapables, car ces formes sont constituées et constitutives de liens interhumains. On verra tout-à-l’heure comment on tente de copier de tels liens, et avec quel succès…

Pourquoi les machines intelligentes sont incapables d’inventer

On l’a dit cent fois, ces machines ne savent résoudre que les problèmes pour la solution desquels elles sont programmées. Elles ne « pensent pas ». Mais pourquoi donc ? Une raison très simple et très souvent oubliée en est qu’elles ne peuvent se détacher de leur mémoire pour aller voir ailleurs, dans des zones inconnues ou inexplorées. Une grande faculté humaine, ce que Nietzsche avait bien vu, est la faculté d’oubli. Les machines artificielles n’oublient jamais et n’oublient rien. Quand nous oublions, cela ne veut pas dire que nous ne souvenons de rien, mais que nous n’avons conservé que des traces, qu’on pourra éventuellement retrouver et à partir desquelles on pourra reconstituer tout ou partie de ce que nous avons oublié, ceci dit en restant pour le moment au niveau de ce qu’on pourra appeler le préconscient. Or il faut bien oublier pour désencombrer des régions de notre cortex et ainsi aller vers d’autres régions, de nouvelles connexions. C’est ce que les philosophes appelaient l’imagination, et c’est elle qui nous permet d’inventer, souvent à l’improviste, et parfois, comme certains exemples célèbres l’ont montré, dans un état flottant, voire pendant un rêve, quand il ne dissipe par complètement au réveil.

Mais pourquoi sommes-nous « bêtes » ?

Nous n’avons pas, certes, la puissance calculatrice et déductive des machines artificielles. Celle-ci repose sur les quantités phénoménales de données qu’elles peuvent enregistrer et traiter. Prenons l’exemple de la reconnaissance faciale. Nous avons beau être physionomistes, nous ne ferons jamais aussi bien que les machines, parce que celles-ci ont appris à traiter des milliards d’images recueillies par des  caméras, dont celles produites par les internautes et voyageant sur un réseau (comme  Facebook), et elles le font de façon bien plus sûre que nous. A preuve : on peut aujourd’hui, dans certains pays, payer ses achats en scannant des produits et en utilisant son téléphone mobile pour les faire débiter sur son compte, sans risque d’erreur. De même les machines savent reconnaître un chien d’un chat sans risque de se tromper (on dit alors, un peu abusivement, qu’elles ont le « concept » d’un chat). Mais tout cela est dans la continuité de tout ce que les machines plus simples peuvent nous apporter, et l’histoire des sciences est jalonnée de dispositifs techniques qui ont rendu notre perception du monde plus fine (par exemple lorsque l’on est passé de la vision simple au microscope, puis au microscope électronique), plus rapide et plus sûre. La question que nous voulons soulever est pourquoi, en dépit de tout cela, nous agissons souvent comme des bêtes, c’est-à-dire en deçà de nos capacités.
On est en effet surpris que des esprits formidablement instruits, capables précisément souvent de résoudre des équations très compliquées à l’aide de machines, soient aussi aveugles à des réalités qui tombent sous le sens. On considère en général que c’est l’effet de préjugés relevant notamment de leur position dans la société, et en particulier de leurs intérêts de classe. Sans doute, mais cet effet d’aveuglement reste quelque peu mystérieux.
Alors vient à l’esprit l’idée que c’est là l’effet de notre vieille animalité. Nous avons été dressés par l’évolution à répondre à des situations d’urgence par des réflexes de sauvegarde ou de survie, ce que fait tout animal, mais que nous faisons plus encore parce que nous avons une conscience vive de notre fragilité et de notre mortalité. La machine intelligente, elle, n’a pas conscience qu’elle peut dysfonctionner ou même mourir (tomber définitivement en panne), et, de toute façon, elle s’en fout, car elle n’est pas un être sensible. Elle peut réagir à des signaux d’alerte, mais ne saurait se protéger ni s’auto-réparer.
Cet ancrage dans notre animalité est un point est tellement important que l’on pourrait y trouver l’origine de toutes sortes de biais cognitifs, notamment dans la science économique standard (biais lumineusement analysés par Jacques Généreux dans La déconnomie). Un destin qui n’est pas irrémédiable, mais aux conditions d’une prise de conscience, d’actes de volonté, et de toute une politique éducative.
Il est frappant que, à l’inverse, les hérauts de l’intelligence artificielle ne s’en préoccupent pas, et soient au contraire portés au déni de notre fragilité et de notre mortalité, eux qui voudraient que nous puissions fonctionner comme des machines parfaites, c’est-à-dire potentiellement immortelles. Vieux rêve de l’humanité, et fantasme renouvelé par la croyance dans des vertus miraculeuses de la science.
Mais ce n’est pas tout. Nos savants fous se sont mis à imaginer que nous pouvons fonctionner effectivement comme et aussi bien qu’une machine.

L’homo oeconomicus, machine intelligente

Il est étonnant de constater la similitude. Une machine intelligente doit traiter un grand nombre de données pour en extraire la solution optimale (ainsi, dans l’un de nos exemples précédents, la reconnaissance d’un visage). Un consommateur rationnel doit de même choisir la liste de produits qui satisferont ses besoins – une donnée pour eux de nature purement individuelle – compte tenu de son budget, et il choisira la solution optimale, celle qui, sous contrainte, maximisera sa satisfaction – un terme vague, emprunté au registre de l’apaisement de la soif ou de la faim. Il fera encore mieux, car il procédera à des « anticipations rationnelles » : il aura en effet calculé ce que sera le marché de demain et ce qu’il aura en moins dans sa bourse en fonction des impôts qu’il aura versés. Même chose pour l’entrepreneur « rationnel » qui prendra des décisions d’investissement en fonction de ses ressources financières, de l’état du marché et de ses évolutions à prévoir.
Tout cela, a-t-on fini par remarquer, ne tient aucun compte de la « complexité humaine ». Comme l’économie « comportementale » aura montré que divers facteurs autres que la préférence individuelle et la taille du porte-monnaie interviennent (des facteurs sociaux, culturels etc.), et qu’elle l’aura vérifié en laboratoire, sinon on ne la croirait pas, on se déclare prêt aujourd’hui à injecter des doses d’autres sciences humaines (la psychologie, la sociologie, la science politique) dans le modèle de base, autrement dit à complexifier un peu les équations pour se rapprocher des comportements effectifs. Mais voilà, on reste dans la perspective machiniste de l’optimisation sous contrainte, en ajoutant des facteurs.
Or, comme on l’a dit, les machines intelligentes ne fonctionnent que si leur domaine est à la fois strictement limité et doté de complétude. Rien de tel chez l’être humain d’abord parce qu’il n’a pas la puissance de calcul d’une machine (il ne peut comparer en un bref instant des quantités de produits et de prix), ensuite et surtout parce qu’il est mû par ce que Adam Smith appelait des « passions » parfaitement déraisonnables. Par exemple la passion de ce collectionneur qui n’a nullement l’intention d’être un vendeur ou un spéculateur, est totalement incompréhensible, puisque son « besoin » semble illimité. A y réfléchir, on s’aperçoit que la plupart des choix humains sont « irrationnels », n’en déplaise à ceux qui voient le choix d’un conjoint ou l’acte délinquant, voire criminel, comme le résultat d’un calcul coût/avantage. Et le plus fort est que les publicitaires le savent bien : ils ne vont pas seulement vous vanter les qualités d’un produit par rapport aux produits concurrents, ils vont lui associer les fantasmes les plus invraisemblables ou les plus délirants. Le choix rationnel existe certes,  mais il est de faible portée et très subordonné. C’est pourquoi une politique qui ne prendrait pas en considération les passions humaines serait vouée à l’échec ou ne réussirait que par une dictature sur les besoins, dictature dont le ciblage des centres d’intérêt du consommateur par les géants de l’internet à des fins publicitaires est déjà une forme.
Mais que faut-il entendre par « passions » ? Soyons simples. Au moins deux choses : des affects et des pulsions, ce dont toute machine est dénuée.

Les machines intelligentes ne peuvent que simuler des affects

Les concepteurs de machines ont voulu faire comme si elles avaient des émotions. De très nombreux laboratoires dans le monde s’attachent à créer des robots humanoïdes, avec lesquels on puisse communiquer comme avec des êtres humains. Le marché potentiel est immense, face à toutes les privations ou frustrations de liens interhumains. On crée donc des robots pour tenir compagnie à des personnes âgées et esseulées, pas forcément humanoïdes d’ailleurs (ils peuvent simuler un chien de compagnie), on crée des robots pour que les enfants puissent jouer avec comme de petits amis, on crée pour des adolescents attardés ou timides une « bonne copine » virtuelle ou matérielle (plus rarement un bon copain) afin de remplacer une copine réelle, on fabrique des robots sexuels pour des jeunes hommes (plus rarement des jeunes femmes) en panne de rapports réels (les Japonais sont très souvent vierges jusqu’à la trentaine). Est-il besoin de le dire, ces robots n’éprouvent aucune émotion, car ils n’ont que l’équivalent d’un bout de cortex, mais pas d’hypothalamus, pas de zones de plaisir. Ils ne présentent donc que des signes d’émotion (sourires, mouvements des yeux, quelques expressions langagières, et naturellement pas de signaux de stress ou de peur). Admettons que la reproduction des émotions humaines dans des robots « bio-inspirés » puisse aider les neurosciences à progresser, cela risque quand même de favoriser la robotisation des relations et des services les plus indispensables à l’équilibre psychique et de pousser les individus vers une forme d’autisme social (les enfants, eux, savent très bien faire la différence entre leurs jouets les plus imitatifs et les relations réelles).
La dérive machinique est encore plus grave quand on aborde le domaine des pulsions.

Les machines intelligentes n’ont ni inconscient ni désir

Le behaviorisme autrefois essayait de reconstruire toute l’activité humaine en termes de stimuli et de réponses, à partir de l’observation de comportements animaux tels que ceux du rat de laboratoire. C’était réducteur et de peu d’intérêt dès qu’on allait vers l’étude des primates, mais, s’agissant de l’homme, cela devenait franchement stupide, car le psychisme humain a une particularité dont on ne va pas ici expliquer la genèse (contentons-nous de dire qu’elle s’origine en particulier dans la prématuration de l’enfant humain), celle de posséder un inconscient profond,  lieu des pulsions du «ça », en langage freudien, et des fantasmes liés à leur refoulement (par exemple le fantasme de toute puissance, dont l’élucidation sert à expliquer bien des choses). Et de là il résulte que le moteur des comportements humains n’est que secondairement le besoin, qui peut être satisfait, mais fondamentalement le désir, qui ne connaît pas de finitude. Alors apparaît toute l’absurdité de la conception de l’homme rationnel  des économistes, sorte d’avatar du behaviorisme et pilier idéal du calcul capitaliste. Il y aurait plein de leçons politiques à en tirer, mais nous voudrions mettre en évidence un dernier point.

Les machines intelligentes ne délibèrent pas et n’ont aucun sens moral

C’est pourtant une évidence, le moindre de nos gestes, en dehors des pures routines et des cas d’urgence vitale, appelle une délibération intime : vais-je faire ceci ou cela, maintenant ou plus tard, ou pas du tout ? Et qui dit délibération dit usage de la contradiction. Or, pour qu’il y ait contradiction, il faut un contradicteur, ce contradicteur étant moi-même. Cela signifie, pour faire simple, que nous sommes doubles, et que le double du « sujet » s’est constitué à travers un jeu d’identifications à autrui, toute la foule de personnages qui inconsciemment nous ont fait ce que nous sommes. La machine intelligente, elle, n’a pas de double, n’a pas de distance à soi, et c’est pourquoi, tout en étant capable de raisonnement déductif, elle ne réfléchit pas et finalement ne pense pas, ne peut pas et ne pourra jamais penser. C’est pourquoi aussi elle ne peut avoir aucun surmoi, et a fortiori aucun sens moral, même rudimentaire. Ce qui nous fait penser à « l’homme aux écus ».
Faisons un dernier pas. Si nous sommes des êtres fondamentalement contradictoires, il faut alors non pas nier cette réalité native, mais l’assumer et la faire jouer positivement : mettre la raison au service de nos passions, et nos passions au service de notre raison, être un « individu social », comme disait Marx, sans cesser d’être un individu, bien au contraire. Maxime qui vaut au niveau politique : il s’agit de combiner le privé et le collectif pour qu’ils se renforcent l’un l’autre. Maxime qui vaut au niveau environnemental : il faut non pas dominer ou maîtriser la nature, mais construire une relation harmonique avec elle, faute de quoi l’humanité est condamnée à sa disparition.

mercredi 17 octobre 2018

L’UE contre l’Europe


Les adversaires de ce qu’on appelle par antiphrase la construction européenne (alors qu’il s’agit en fait de la destruction de l’Europe) sont souvent considérés comme des nationalistes obtus, des chauvins, des fauteurs de guerre et même de vrais fascistes. C’est l’inverse qui est vrai, sinon toujours, du moins très souvent. Si je prends cette question à la première personne, je peux y répondre très clairement.
J’aime la France, « ma France » comme chantait si bien Ferrat, j’aime sa langue et sa culture, ses paysages et sa cuisine, j’allais dire que je l’aime en bloc, je me sens installé dans cette histoire et son destin est le mien. Communauté de vie et de destin, disait Otto Bauer pour définir la nation. Avec Marc Bloch, je peux dire : « Je suis né en France, j'ai bu aux sources de sa culture, j'ai fait mien son passé ». Et tout Français d’où que viennent ses parents ou ses aïeux à la 15e génération peut dire la même chose.
Mais je me sens tout autant complétement européen. L’Europe est mon histoire comme elle est celle de tout Français. La Grèce antique, c’est notre histoire et quand les Grecs affrontent les Perses, nous ne sommes pas des spectateurs impartiaux, nous sommes du côté des Grecs et leurs victoires militaires contre leur puissant ennemi sont un peu nos victoires. Imaginons que les Perses aient réussi à occuper la Grèce, nous n’aurions pas eu la démocratie athénienne, ni la philosophie, ni tout ce monde qui est toujours en arrière-plan de nos paroles et de nos pensées. Les Romains aussi sont notre histoire, puisque les Français furent il y a longtemps les Gallo-Romains, ces tribus celtes romanisées. L’Europe que nous connaissons aujourd’hui fut largement façonnée par Rome. Les Germains, ces fameux Barbares, ont aussi toute leur place dans cette généalogie, dans cette destinée commune, eux qui, selon Hegel, ont apporté la liberté au monde romain. Et avec eux ces envahisseurs du Nord, Danois que nous avons appelés « Normands ». Notre histoire se dessine aussi négativement, par ceux à qui nous nous sommes opposés, envahisseurs maures ou menaces ottomanes. L’histoire de la Chine, de l’Inde, du Japon, aussi passionnante soit-elle nous importe beaucoup moins, nous ne sommes pas concernés directement, nous ne pouvons pas dire « nous ». Elle nous importe au moment où les Européens les rencontrent. La Chine, c’est d’abord Marco Polo. Cette histoire commune, ce ne sont pas seulement les Européens contre les autres, mais aussi les Européens les uns contre les autres. Allemands et Français devraient bien se connaître tant ils se sont entretués ! Pour ne rien dire de la « perfide Albion ». Il y a bien une unité historique qui s’appelle Europe, qui a forgé nos consciences jusqu’au plus profond de nous-mêmes. Cette unité donne une vision politique partagée. L’Angleterre de la Magna Carta (1215) commence à imposer ce qui formera le corps des libertés civiles. Les communes libres de l’Italie du Nord à la fin du Moyen Âge furent le laboratoire de la pensée politique moderne du républicanisme qui trouve ensuite sa terre d’élection dans l’Angleterre de la révolution de 1642, avant de passer aux insurgés américains pour trouver son plein épanouissement en France, dans la Grande Révolution. Montrer l’entrelacement de ces histoires et les influences des uns et des autres, des centaines d’ouvrages ont déjà écrits à ce sujet.
Européocentrisme ? Sans aucun doute. Puisque c’est notre histoire. L’historien d’aujourd’hui doit certes voir les choses de plus haut et de plus loin, il doit savoir être persan – et voilà encore Montesquieu – s’intéresser à ce qui n’est point dans nos coutumes (Montaigne). Mais cette capacité d’ouverture, cette curiosité pour les autres, c’est aussi une des particularités de l’esprit européen tel que les Lumières nous le montrent.
Nous partageons un espace et une culture communs, nous les Européens. Italien à temps partiel, en Italie je suis ailleurs, dans une autre histoire, d’autres paysages, une autre culture qui est aussi la mienne. Dante est-il un Italien ? Et mon cher Machiavelli ? Leur pensée a d’autres lieux de naissance que nos grands poètes et nos grands penseurs français, mais il suffit de se décaler légèrement pour se retrouver chez soi avec eux. Verdi met en musique des pièces de Victor Hugo, et ceux qui connaissent un peu l’histoire savent que Louis XIV parlait couramment l’italien, aussi bien que le français. Ce que je dis de l’Italie, je pourrais le dire de l’Allemagne. Leibniz, Kant, Hegel, Marx, Husserl et tant d’autres ne sont pas des philosophes allemands mais tout simplement des maîtres auxquels je dois retourner toujours, tout autant que le Juif hollandais, Bento Spinoza, qui commence par un exposé de la philosophie de Descartes, lequel a passé une très grande partie de sa vie dans ces Provinces Unies où la liberté prenait son envol.
Je passe par Munich où des églises baroques ont été érigées sur le modèle des églises des Jésuites de Rome, Munich où le Blau Reiter vient nous rappeler que l’art du XXe siècle ne se résume pas aux « performances » et autres « kooneries ». Je pousse vers Prague, qui, en dépit du flot des touristes, garde cette atmosphère un peu vieillotte et si douce. À l’entrée de la grande bibliothèque du Clementinium des gravures représentent Tycho Brahé, Nicolas Copernic, Kepler et Galilée, un Danois, un Polonais, un Allemand et un Italien, réunion de ce génie européen qui inventa la science moderne. Poussons vers Cracovie, religieuse, trop religieuse mais encore une expression de ce génie de la ville qui est propre à l’Europe. Varsovie, c’est encore très différent, c’est encore une autre façon de voir la Pologne, avant d’arriver à Gdansk et de se croire juste à côté d’Amsterdam. À Riga, on rencontre l’art nouveau et si les Romains ne sont pas allés jusqu’aux pays baltes comme l’a dit un peu bêtement Mélenchon, personne ne peut douter qu’on est bien en Europe, pas bien loin des Pays Bas ou de l’Est de la France. Et Berlin, donc, avec à chaque coin de rue l’histoire de notre siècle, ce cimetière des philosophes où Hegel côtoie Marcuse et le Tiergarten où furent assassinés Rosa Luxemburg et Karl Liebknecht. Je pourrais évoquer toutes ces autres capitales européennes qui ravissent les sens et stimulent l’esprit : Londres et Amsterdam, Madrid, Lisbonne… Partout nous avons des variations sur des thèmes communs. Partout on est chez soi et ailleurs. Pour le dépaysement, il ne faut pas voyager en Europe mais pour se retrouver, rien de tel.
Nous sommes imprégnés de cette culture. Elle a façonné nos manières de voir et d’aimer les belles choses. Évidemment l’Europe ce sont aussi les affrontements les pires qu’ait connus l’humanité.  Deux guerres mondiales pour clore les conquêtes coloniales. Le sublime y côtoie l’horreur. L’esprit humain s’élève aux sommets pour retomber dans la fange. Mais si les autres civilisations n’ont pas à leur passif des crimes aussi grands, c’est uniquement parce que leur science et leur industrie étaient trop arriérées pour ça. Pas par grandeur d’âme. Les Arabes ont pratiqué la traite négrière bien avant les Européens et pendant bien plus longtemps. Les Ottomans ont été des conquérants féroces et ont imposé leur loi aux Arabes. Mais là encore il y a une supériorité de l’Europe : c’est ici et ici seulement que se sont élevées des voix pour l’abolition de l’esclavage, pour dénoncer les conquêtes coloniales, pour proposer même la paix perpétuelle. Condorcet, à la veille de la révolution fonde une société des amis des Noirs. Dans l’Histoire de deux Indes attribuée à l’abbé Raynal, Diderot dénonce en termes vigoureux le colonialisme et de partout en Europe souffle l’air de la liberté. Nous sommes critiques contre nous-mêmes parce que nous avons une haute idée de ce que doit être l’humanité, cette haute idée qu’ont élaborée les philosophes des Lumières, ces Lumières qui sont hollandaises, anglaises, allemandes ou italiennes tout autant que françaises.
L’idéal des États-Unis d’Europe que défendait Victor Hugo s’enracinait dans cet héritage européen. Et si les peuples européens, du moins ceux des six premières nations signataires du traité de Rome ont globalement soutenu, pendant les premières décennies, la « construction européenne », c’est parce qu’ils espéraient qu’elle était une étape nécessaire vers cette Europe pacifiée apportant au monde ses Lumières, son sens de la justice et du progrès social avec son indéfectible attachement à la liberté. Mais la construction européenne est l’inverse de cette aspiration. Alors que les différences nationales, cet esprit d’indépendance et cet attachement à la souveraineté des peuples, composent les éléments d’une unité plus haute, l’UE est une entreprise de rabotage de toute différence, sur le plan institutionnel, juridique et linguistique au profit d’un modèle unique, l’américain. L’UE détruit l’Europe parce qu’elle s’attaque à la civilisation européenne développée de manière si différenciée dans chacune des nations qui composent cet ensemble. La langue d’Europe, c’est le latin dans ses variantes française, italienne, espagnole, portugaise, roumaine, sarde, romanche, etc. C’est aussi l’allemand, langue officielle de plus d’un Européen sur quatre (Allemagne, Autriche, Suisse, partiellement Belgique et Luxembourg) et cette variante de l’allemand qu’est le néerlandais. Ce sont aussi les langues scandinaves et les langues slaves (Pologne, Bulgarie, Tchéquie, Slovaquie, et toute l’ex-Yougoslavie) et évidemment le grec, sans parler de ces exceptions : le hongrois, le finnois, le basque. Et c’est aussi l’anglais, non pas la langue du business mais celle de Shakespeare, de Milton ou de Bertrand Russell. Cette diversité qui s’est exprimée dans la littérature, la poésie, le théâtre, la poésie, l’UE la remplace, et c’est la logique de la marchandise, par l’équivalent général qu’est le globish.
Chaque nation d’Europe se gouverne selon son génie propre. L’UE tend à imposer des normes générales privant les peuples de la possibilité de choisir eux-mêmes les lois auxquelles ils veulent obéir. Mais c’est devenu impossible. S’applique la « règle de Juncker » qui veut que la démocratie ne peut pas être supérieure aux traités européens. Cette UE nous apporte-t-elle au moins la paix ? Rien n’est moins sûr. Les peuples européens ne manifestent aucune volonté de se faire la guerre. Ils ont appris à se connaître et à s’apprécier. Seuls certains politiciens et une certaine presse usent volontiers de la manipulation des passions les plus viles, dénonçant ici ces paresseux du Sud, là ces Allemands incorrigibles. Mettre sa propre impéritie sur le dos du voisin est une pratique humaine courante. Et l’UE ne nous met pas à l’abri de ces haines funestes, bien au contraire. D’ailleurs à l’intérieur du grand marché, la concurrence continue, y compris sur le terrain militaire. Au moment de la guerre dans l’ex-Yougoslavie, la France soutenait plus ou moins ouvertement ses vieux alliés serbes, alors que l’Allemagne et le Vatican ne ménageaient pas leur peine en faveur des Croates. Et surtout, cette UE qui n’a aucune politique extérieure commune est entièrement alignée derrière les États-Unis et suit docilement les entreprises douteuses des maîtres de Washington.
Par quelque côté que l’on aborde la question, l’UE a une grande réussite à mettre à son actif : elle est en voie de faire détester l’Europe. Impulsant une politique de destruction de l’« État social » elle contribue fortement à l’appauvrissement des classes laborieuses – celles que l’on appelle aujourd’hui, on ne sait trop pourquoi, « classes moyennes ».  Quant aux défis des prochaines décennies, l’UE est totalement incapable d’y faire face car dès qu’il s’agit de budgets prospectifs, il n’y a plus aucune entente et chacun tire la couverture à soi. L’UE n’est donc pas une construction et elle est au fond américanophile et non européenne.
Pour ceux qui prennent la nation au sérieux sans être des nationalistes, pour ceux qui tiennent pour particulièrement précieux l’héritage de la civilisation européenne, tant sur le plan des arts, de la pensée ou des langues que sur le plan politique proprement dit, il n’est pas d’autre voie que de rompre avec cette UE et ses disciplines mortifères pour construire une confédération des nations libres d’Europe.
Le 17 octobre 2018
Denis Collin

vendredi 5 octobre 2018

Jean Birnbaum, La religion des faibles. Ce que le djihadisme dit de nous. (Seuil, 2018)


Avec ce livre, Jean Birnbaum a certainement pris un billet pour monter dans le train des « nouveaux réacs ». Au demeurant c’est l’édito de Julliard dans Marianne qui m’a incité à acheter ce livre. C’est tout dire ! Rien ne prédisposait pourtant Birnbaum à se retrouver en si mauvaise compagnie. Rédacteur en chef du Monde des Livres, il a réalisé sur France-Culture une série consacrée au trotskisme, un courant qu’il connaît visiblement très bien : il est le portrait type d’un militant ou sympathisant de la Ligue Communiste ancienne manière – à ne pas confondre avec ce truc informe qui s’appelle NPA. Vu du « camp du bien », Birnbaum a donc un « bio » impeccable. C’est pourquoi son livre est d’autant plus fort, se gardant bien de tomber dans les excès et l’unilatéralisme de certains contempteurs de l’islamisme. Ce que conduit Birnbaum, c’est une critique clairement « de gauche », une critique menée du point de vue de la tradition du mouvement ouvrier révolutionnaire antistalinien.
Son dernier livre fait suite à La gauche face au djihadisme" (2016). Même quand on a de long temps critiqué les complaisances envers l’islamisme (ou l’islam) de ceux qui y voient la religion des déshérités, on prend ce livre en pleine figue car l'auteur n'y va pas par quatre chemins. Le credo occidental, surtout de la gauche occidentale, cette « religion des faibles », c'est que l’islamisme n'est rien d'autre qu’une forme déguisée de « désir d’Occident » car nous croyons que la seule civilisation possible est l’Occidentale et que les islamistes nous reprochent ce que nous faisons ou ce que nous avons fait. Erreur, dit Birnbaum, ils nous haïssent pour ce que nous sommes et non pas pour ce que nous leur avons fait. Et ils veulent nous détruire. J'en suis arrivé à ces conclusions voilà quelques temps, mais je n'osais pas (reste de la « religion des faibles » ?) le dire aussi nettement. Aussi brutalement et c'est pourquoi j'ai reçu ce livre comme un coup de poing dans la figure. Regarde-toi, regarde ta croyance au miroir du croyant, nous dit-il.
Il faut lire le rappel que fait Birnbaum des séquences précédentes, celles de faits sans précédents, l'assassinat méthodique de la rédaction de Charlie Hebdo, assassinat rendu possible parce que tout le monde avait laissé tomber Charlie après qu'il a publié les caricatures de Mahomet en solidarité avec les Danois. Assassinat du provo gauchiste Theo Van Gogh, affaire Rushdie. Tout y est détaillé et Birnbaum dresse le réquisitoire implacable contre cette gauche qui abandonne tous ses principes quand il s'agit de l'islam prétendue religion des opprimés. On lira aussi avec intérêt sa critique des études « post-coloniales ».
Mais Birnbaum donne a ses analyses un épaisseur historique. Il consacre à l’histoire du mouvement ouvrier de nombreux développements et rappelle que pour les « pères fondateurs », pour Marx et Engels et pour le mouvement ouvrier dans son ensemble, le cœur du mouvement ouvrier est occidental tout simplement parce que le mouvement ouvrier a pour « mission » d’accomplir les promesses de la civilisation occidentale. C’est ce qui explique qu’il ait pu y avoir des complaisances à l’égard du colonialisme (Birnbaum rappelle ici certains textes de Marx que les marxistes gardent bien cachés dans les placards) : le colonialisme est horrible mais il fait entrer les sociétés archaïques dans le monde moderne et rend possible et même nécessaire leur émancipation. À la civilisation occidentale, Marx opposait le « despotisme asiatique » et au fond l’histoire humaine se jouait pour lui entre ces deux pôles – restes de la philosophie de l’histoire de Hegel ?
Birnbaum consacre également de nombreuses pages à Victor Serge, militant intraitable, révolutionnaire sa vie durant, auteur de romans forts dont le S’il est minuit dans le siècle et également de ces très riches Mémoires d’un révolutionnaire. Serge qui parlait de « notre vieil ccident de chrétiens, de socialistes, de révolutionnaires, de démocrates ». De Serge, comme de Marx, Birnbaum trouve des arguments en faveur de cette idée qu’il y a un exceptionnalisme de l’Europe Occidentale, un goût de la liberté, un air qu’on y respire et qu’on ne respire nulle part ailleurs.  Et cet exceptionnalisme mérite d’être défendu.
Birnbaum montre bien que dans la complaisance envers l’islam, il y a chez toutes nos belles âmes un vieux fond de colonialisme et de mépris occidentalo-centré. On passe sur les atteintes au droit des femmes dans les pays musulmans parce qu’on estime, au fond, que « c’est assez bon pour eux » et que, de toute façon, il suffit de laisser faire et ils deviendront comme « nous ». Sur ce point, Birnbaum nous livre des analyses critiques qui tapent justes, aussi bien des thèses de Todd sur l’évolution du monde musulman que sur celle de Badiou. Il faut aussi lire ce que Birnbaum rapporte du colloque Derrida tenu à Alger et dont il devait rendre compte pour le journal Le Monde, ou encore ce rappel de la honte de Simone Signoret d’avoir méprisé les appels de sa cousine de Bratislava, un épisode de rapporte l’actrice dans ses souvenirs, La nostalgie n’est plus ce qu’elle était. Le « on ne vaut pas mieux » qui sert à légitimer toutes les petites et grandes saloperies, hier l’indifférence sinon l’approbation du système stalinien et aujourd’hui la défense du régime des mollahs… ou la complaisance à l’égard du système FLN en Algérie.
Sur quoi débouchent les analyses de Birnbaum ? Sur une prise de conscience chez les « gens de gauche », du moins on peut l’espérer. Quels que soient les crimes des impérialismes occidentaux, et ils sont immenses, il reste dans notre civilisation (il faut réapprendre ici à dire « nous ») quelque chose d’irremplaçable, une certaine idée de la liberté dans toutes ses dimensions, de l’égalité et de la fraternité. Quelque chose qui est radicalement absent de toutes les formes du « despotisme asiatique ». Peut-être que le jour où nous déciderons de reprendre ce drapeau nous serons mieux en mesure de nous opposer aux brutes et aux racistes qui reprennent un peu partout du poil de la bête.
Denis Collin, le 8 octobre 2018

jeudi 4 octobre 2018

Note de lecture : Libérons-nous du féminisme ! par Bérénice Levet, éditions de l’Observatoire, 2018



Sa critique de la « théorie du genre » avait valu une certaine notoriété à Bérénice Levet (voir ma recension sur ce blog). Philosophe, mais surtout préoccupée des liens entre philosophie et littérature (c’était le thème de sa thèse de doctorat sur Hannah Arendt), elle s’intéresse tout particulièrement à la configuration des idées (et des idéologies) dans le monde contemporain. Son dernier ouvrage, Libérons-nous du féminisme !  Sous-titré Nation française galante et libertine ne te renie pas ! (éditions de l’Observatoire). Ce livre présente une sorte de tableau des mœurs de notre époque. Le féminisme impose sa loi et soumet une par une par une toutes les institutions sociales et organise le contrôle des bonnes mœurs.  Si l’ouvrage précédent s’intéressait à l’aspect théorique de la question, ici on a travail plus journalistique qui établit la réalité de cette emprise du nouveau féminisme, à travers les lois prétendument contre le harcèlement, une notion qui a pris une telle extension que la plus innocente drague, voire un simple sourire peut être assimilé à du harcèlement. L’auteur met clairement en relief les conséquences de ce nouveau féminisme ardemment défendu par les derniers gouvernements français (celui de Hollande et celui de Macron) : un incroyable retour au puritanisme, une tentative d’éliminer les hommes de sexe masculin en tant que tels – il faut vraiment que les hommes deviennent des femmes comme les autres – et enfin un véritable séparatisme. Il y a des choses que l’on savait (notamment tous les délires qui ont suivi le mouvement #metoo et #balancetonporc. Elle analyse aussi comment les nouveaux censeurs sont à l’œuvre pour épurer la littérature et les Beaux-Arts de tout ce qui pourrait être en contradiction avec la nouvelle religion : réécrire la fin de Carmen, faire décrocher des musées les tableaux de Balthus, liquider Baudelaire, Breton et Aragon dont les errances dans Paris les conduisent au bordel, etc. Elle montre aussi la complémentarité totale, bien qu’en apparence paradoxale, entre l’islam et ce féminisme-là.  Si les hommes sont des violeurs en puissance, il faut bien cacher les femmes pour éviter de susciter cet abominable désir !  
Bérénice Levet n’aborde pas le sujet du point de vue réactionnaire. Elle est d’accord avec Simone de Beauvoir, les rôles sociaux des femmes ne sont déterminés par le sexe biologique, mais en même temps demeure une différence essentielle entre hommes et femmes, une polarité qui est la vie elle-même, manière dialectique de poser le problème. Pour elle l’égalité des hommes et des femmes dans tous les domaines de la vie sociale est un acquis tout comme le droit des femmes au plaisir et au libertinage. Son idéal est à la fois celui de la galanterie à la mode de l’Ancien régime – son siècle rêvé est visiblement le xviiie siècle – et l’idéal républicain universaliste. On pourra lui reprocher une vision un peu naïve et irénique même de l’idéal français des rapports entre hommes et femmes et d’oublier que l’amour courtois (une forme raffinée de la drague !) a aussi des sources arabo-andalouses  qu’appréciait tant Aragon. Mais tout cela est un secondaire.  Après avoir dressé l’état des lieux, il faudrait maintenant essayer d’en comprendre les racines anthropologiques, psychanalytiques et sociales. Que signifie cette véritable éradication des pères qui est cours et risque d’aller beaucoup plus loin encore avec la PMA pour toutes ? Quel sens a cette manie de l’indifférenciation ? Une approche globale s’impose qui mériterait d’être vraiment engagée. Philosophe, Bérénice Levet doit maintenant aller plus loin.

Notes de lecture : Le loup dans la bergerie, par Jean-Claude Michéa, éditons Climats, 2018


Le dernier livre de Jean-Claude Michéa, Le loup dans la bergerie a pour point de départ une conférence de novembre 2015 qui est agrémentée sur les habitudes de cet auteur d’assez nombreux scolies explicitant sa pensée. Il poursuit ici son chemin dans la critique du libéralisme comme complément nécessaire du capitalisme, dans la dénonciation de la vacuité de l’opposition droite-gauche qui n’est qu’un trompe-l’œil masquant la lutte des classes et l’opposition fondamentale entre le peuple (le petit peuple) et les puissants. Contre les divagations sociétales, il réhabilite la « common decency » d’Orwell.
 Comme toujours clair, c’est et incisif et je ne trouve guère de désaccords sérieux. Si Michéa est dans le camp des « nouveaux réacs », je me trouve assez bien avec lui. Au fond, son livr est composé d’une série de variations sur un passage important du Capital de Marx: «En réalité, la sphère de la circulation ou de l’échange des marchandises, entre les borens de laquelle se meuvent l’achat et la vente de la force de travail, était un véritable Eden des droits innés de l’homme. Ne règnent ici que la Liberté, l’Égalité, la Propriété et Bentham. Liberté ! car l’acheteur et le vendeur d’une marchandise, par exemple de la force de travail, ne sont déterminés que par leur libre volonté. Ils passent un contrat entre personnes libres, à parité de droits. Le contrat est le résultat final dans lequel leurs volontés se donnent une expression juridique commune. Égalité ! car ils n’ont de relations qu’en tant que possesseurs de marchandises, et échangent équivalent contre équivalent. Propriété ! car chacun ne dispose que de son bien. Bentham ! car chacun d’eux ne se préoccupe que de lui-même. La seule puissance qui les réunisse et les mette en rapport est celle de leur égoïsme, de leur avantage personnel, de leurs intérêts privés. Et c’est justement parce qu’ainsi chacun ne pense qu’à lui, personne ne s’inquiète de l’autre, et c’est précisément pour cela qu’en vertu d’une harmonie préétablie des choses, ou sous les auspices d’une providence tout ingénieuse, travaillant chacun pour soi, chacun chez soi, ils travaillent du même coup à l’utilité générale, à l’intérêt commun. » (Capital, Livre I, section II, chapitre IV) Il s’agit pour Michéa de critiquer l’idéologie des droits de l’homme aujourd’hui en s’emparant des analyses de Marx, un Marx d’ailleurs bien plus présent au fil de ses ouvrages. Comme il le fait remarquer : « on ne trouvera jamais un seul texte de Marx où celui-ci aurait eu l’étrange idée de se définir comme «un homme de gauche» (un point que la plupart des universitaires de gauche aujourd’hui continuent pourtant de dissimuler sans vergogne à leurs lecteurs moutonniers. » (p.80)
Haut du formulaire
On y trouOnOn On y trouvera aussi une bonne critique de Foucault, Deleuze, Guattari, et tutti quanti montrant leur parenté avec les libertariens et les apologistes du capitalisme absolu. On en déduira une proposition pour les amateurs de déconstruction: déconstruire toutes les idoles post-modernes, les Foucault, Derrida, et autres philosophes du même acabit et tous ceux qui croient qu'on peut éternellement leurrer les pauvres idiots ordinaires par une langue précieuse, contournée et aussi incompréhensible que possible. Je veux bien admettre qu’il y a quelque chose à sauver dans tout ce fatras de la « French Theory », Deleuze quand il se fait professeur et essaie d’expliquer Leibniz ou Bergson, mais pas L’Anti-Œdipe ou Mille plateaux. Peut-être le concept de « biopolitique » chez Foucault, mais pas grand-chose d’autre.
Je note encore ce passage désopilant sur le manque d'imagination des héros de la déconstruction. (pp 93 à 96) quand il propose en exemple de l’absurdité de la déconstruction des préjugés de sexe, de « race », etc., les préjugés « âgistes ».   Après tout, s’il suffit de se sentir femme pour être une femme, pourquoi ne suffirait-il pas de sentir jeune pour l’être. En effet, personnellement je me sens victime des stéréotypes « âgistes » puisqu'on me met à la retraite alors que mon âge ressenti n'est pas du tout mon âge sur l'état civil. Du reste puisque d'un homme qui se sent femme peut demander à être considéré comme femme sur l'état civil, pourquoi ne pourrais-pas demander qu'on recule de 10 ans ma date de naissance? Et nous, les victimes de préjugés âgistes, nous sommes nombreux !
Donc un livre à lire. Cependant, certains points me chiffonnent et ils concernent sans doute plus l’histoire de la philosophie que les conséquences qu’on en pourrait tirer aujourd’hui. Michéa fait des Lumières plus ou moins un « bloc libéral » qui serait responsable de la conception de la société comme agglomération d’individus menant des existences séparées et régie seulement par des règles « neutres » de coexistence des libertés individuelles. Cependant, cette vision est erronée car il y a plusieurs « Lumières ». Entre Voltaire et Rousseau, il y a un gouffre et pourtant Rousseau est bien un philosophe des Lumières. Jonathan Israël a soutenu de manière assez convaincante cette opposition entre les Lumières modérées et les Lumières radicales, courant qu’il fait remonter à Spinoza et aux penseurs hollandais proches de lui. Si le point commun des Lumières est la « foi dans le progrès », ce « progressisme » doit être conçu dialectiquement. Il est effectivement le porteur du mode de production capitaliste comme le soutient Michéa, mais aussi le porteur de la critique du mode de production capitaliste, il contient en lui « la conscience malheureuse » dont Hegel nous a donné la description. Ce caractère essentiellement contradictoire du progressisme permet de jeter sur l’histoire de la « gauche » en tant qu’elle s’identifie au progressisme un regard moins unilatéral que celui de Michéa. Un peu de dialectique ne nuit pas.
Denis Collin – 4 octobre 2018

lundi 1 octobre 2018

Faut-il légaliser l'euthanasie?

Cet article a été publié pour la première fois en décembre 2008. Je le publie à nouveau sans modification. Mais tout cela mériterait d'être développé au moment où ce débat refait surface et où la cause des euthanasieurs semble encore avoir progressé.

Il n'y a pas de politique scientifique

 Le «   socialisme scientifique   » fut une catastrophe intellectuelle et politique. Cette catastrophe trouve, pour partie, ses origines dan...