Un essai de Tony Andréani
L’ainsi nommée « intelligence artificielle »
fascine et donne lieu aux spéculations les plus extravagantes. Entre autres
celles-ci :
En copiant les facultés de l’esprit humain et en les
portant à une puissance supérieure, elle ouvrirait une nouvelle ère pour
l’humanité, celle où les machines feraient de plus en plus le travail à la
place des hommes, et bien mieux qu’eux, ce qui, par voie de conséquence,
réduirait drastiquement le nombre des emplois et élargirait le champ du loisir.
Elles accroîtraient leurs capacités (c’est « l’intelligence
augmentée ») au point de leur ouvrir, avec des progrès technologiques
inouïs, de nouveaux espaces, par exemple la possibilité de coloniser d’autres
planètes.
Mieux encore : l’intelligence artificielle pourrait transformer l’homme lui-même en un être surhumain, potentiellement immortel (c’est le « transhumanisme »). Version beaucoup plus inquiétante, popularisée par la science fiction : elle pourrait prendre le pas sur l’homme en permettant la création d’un univers de robots doués de pouvoirs surhumains. Perspective plus proche : elle remplacerait avantageusement les relations humaines, si hasardeuses et si imparfaites, grâce à des robots humanoïdes sensibles, amicaux, attentionnés, voire excellents partenaires sexuels. Et j’en passe.
Mieux encore : l’intelligence artificielle pourrait transformer l’homme lui-même en un être surhumain, potentiellement immortel (c’est le « transhumanisme »). Version beaucoup plus inquiétante, popularisée par la science fiction : elle pourrait prendre le pas sur l’homme en permettant la création d’un univers de robots doués de pouvoirs surhumains. Perspective plus proche : elle remplacerait avantageusement les relations humaines, si hasardeuses et si imparfaites, grâce à des robots humanoïdes sensibles, amicaux, attentionnés, voire excellents partenaires sexuels. Et j’en passe.
L’intérêt dans toute cette affaire est bien au
contraire de nous montrer ce en quoi les machines « intelligentes »
ne peuvent pas et ne seront jamais des quasi-humains, donc de nous renvoyer à
des questions d’anthropologie, de morale, et finalement de politique. On va ici
simplement poser quelques jalons de cette problématique.
Commençons par le commencement. Les machines
intelligentes sont-elles si « intelligentes » que cela ?
En quoi les
machines intelligentes sont stupides
« Intellegerer », c’est, étymologiquement, relier
pour discerner, et, à cet égard les machines sont capables de rassembler et de
traiter un nombre de données infiniment supérieur à ce qu’un intellect humain
est capable de faire, mais elles le font dans un champ donné, toujours très circonscrit. On sait qu’elles
peuvent battre le meilleur joueur aux échecs ou au jeu de go –il est vrai au
prix d’un matériel impressionnant (des superordinateurs énormes et très voraces
en énergie). Elles en appliquent les règles et tirent des inférences de
millions de parties jouées par des humains. Le progrès a constitué en ce que
les machines intelligentes sont devenues capables d’apprentissage, tout comme
l’homme, et même déjà l’animal, quand ils procèdent par essais et erreurs. Ce deep learning s’est développé en imitant
les réseaux de neurones du cerveau. Fort bien. Et cela donne effectivement une
puissance de calcul et d’analyse supérieure à la nôtre. Par exemple, en
compilant des millions de dossiers médicaux, des milliards de radiographies,
des millions de dossiers d’assurance, et en traitant ces données, un
superordinateur peut établir, pour telle personne, un diagnostic de cancer plus
sûr que celui d’un médecin et suggérer le traitement le plus approprié à son
cas. On ne saurait que s’en féliciter.
Mais ce n’est pas tout un cerveau artificiel qui
travaille, c’est seulement l’équivalent d’une infime partie du cortex. Il est à
noter d’ailleurs qu’un cerveau humain est aussi capable d’une grande puissance,
s’il parvient à se déconnecter de toutes les autres stimulations qu’il reçoit,
et plus encore si une physiologie particulière l’y dispose (on sait que
des autistes peuvent, par exemple, effectuer des opérations arithmétiques
complexes à toute vitesse et sans se tromper). Mais, dès que le champ
s’élargit, la machine devient « stupide ». Ce qui a fait dire à des
spécialistes qu’elle serait incapable de réaliser ce que fait un rat, et peut-être
même une fourmi. Elle est également incapable de faire tout ce qu’un petit
enfant fait spontanément lorsqu’il apprend à se mouvoir, à saisir des objets, à
reconnaître des formes. On est donc très long des capacités d’un cerveau
animal, même rudimentaire, et a fortiori de celles d’un cerveau humain, avec
ses presque 100 milliards de neurones et ses 10.000 milliards de synapses
par cm3.
Admettons que les machines se perfectionneront. Après
tout la voiture autonome peut avoir appris les mouvements de la conduite et reconnaître
son environnement, au point, dit-on, qu’elle serait moins accidentogène qu’un
conducteur humain, ignorant la fatigue et ne se laissant distraire par rien.
Elle fera disparaître, prévoit-on, les métiers de chauffeur de taxi et de
chauffeurs livreurs. Elle nous transportera d’un lieu à un autre sans intervention humaine. Mais,
on le voit bien, il s’agit toujours d’une activité limitée et ciblée. Si
accident il y a, ou tout autre évènement imprévisible, la machine ne saura quoi
faire. Et, surtout, les machines intelligentes ne savent que copier nos activités dans la mesure même où elles
sont machiniques.
Les machines
intelligentes ne reproduisent qu’une facette du travail humain
C’est une vieille histoire. Le premier outil a été un
prolongement de la main, ou plus généralement du geste humain. A partir de là
on peut raconter l’évolution de la force productive du travail (car les dites « forces
productives » ne sont rien d’autre que des facteurs qui accroissent,
parfois très indirectement, la productivité du travail). Le machinisme simple,
celui qui suit l’activité manuelle complexe de la manufacture, remplace des
gestes par des dispositifs que le travailleur se contente de surveiller :
c’est le contrôle au premier degré. Puis vient l’automation : le
travailleur contrôle non la machine, mais un dispositif qui contrôle la machine
(elle devient par exemple une machine à « commande numérique »).
Alors oui, on peut parler avec la machine intelligente, d’un nouveau stade,
d’une nouvelle époque dans le machinisme, d’une nouvelle révolution technologique,
quand c’est la machine qui se contrôle elle-même. C’est ce que fait un robot.
Son programme lui dicte les mouvements qu’il a à faire, et ce en fonction
d’informations qu’il reçoit de son champ d’opération. On peut voir aujourd’hui,
par exemple, un robot imiter parfaitement les gestes d’un opérateur manuel qui
travaille à côté de lui, et qu’il pourra donc rapidement remplacer, quand son
coût d’amortissement et de fonctionnement sera moins élevé que le salaire versé
à ce dernier, compte tenu aussi d’autres avantages (il peut fonctionner jour et
nuit, ne se fatigue pas, n’est distrait par rien, ne fait pas grève etc.). Il
n’y a pas de doute : tout travail plus ou moins standardisé et répétitif
sera un jour effectué par une machine intelligente (c’est déjà vrai pour
certains travaux de secrétariat, de réponse téléphonique à des questions
standardisées etc.). Il n’y aurait qu’à s’en féliciter, dès lors qu’un opérateur
humain serait là pour intervenir quand la machine ne sait plus quoi faire ou
répète stupidement ce qu’elle sait faire - ce qui n’est malheureusement pas
toujours le cas, comme nous en faisons l’expérience tous les jours.
On discute beaucoup la question de savoir si la
généralisation des machines intelligentes ne va pas mettre au chômage des centaines
de millions de travailleurs. Même s’il se créera de nouveaux emplois pour
produire ces machines, les entretenir et les régler, il est probable qu’il en
ira ainsi, et ce serait une formidable occasion de réduire le temps de travail
pour tous si ce n’était contraire à la logique du système capitaliste. Mais la
question que nous voulons souligner n’est pas là.
L’autre grande facette du travail humain, à côté de
l’usage de l’outil (au sens le plus large du terme) est la coopération. Marx
l’a particulièrement analysée à peu près en ces termes. Il y a une forme de
coopération « objective » qui correspond à une division des tâches,
que le machinisme peut parfaitement suppléer (cela devient une
« chaîne » d’opérations ou de machines, qui fonctionnent selon un dispositif
préétabli - aujourd’hui un programme informatique), mais aussi une coopération
« subjective », qui se traduit, par des phénomènes comme l’émulation,
l’information mutuelle, l’apprentissage mutuel, et d’autres choses encore comme
l’ambiance de travail (pause café
comprise). Le management le sait bien, qui essaie de les exploiter, tout en les
réduisant au maximum, de peur des effets d’insubordination qu’ils peuvent
produire. Or de ces formes de coopération intersubjective les machines
intelligentes sont incapables, car ces formes sont constituées et constitutives
de liens interhumains. On verra tout-à-l’heure comment on tente de copier de
tels liens, et avec quel succès…
Pourquoi les
machines intelligentes sont incapables d’inventer
On l’a dit cent fois, ces machines ne savent résoudre
que les problèmes pour la solution desquels elles sont programmées. Elles ne
« pensent pas ». Mais pourquoi donc ? Une raison très simple et
très souvent oubliée en est qu’elles ne peuvent se détacher de leur mémoire
pour aller voir ailleurs, dans des zones inconnues ou inexplorées. Une grande
faculté humaine, ce que Nietzsche avait bien vu, est la faculté d’oubli. Les
machines artificielles n’oublient jamais
et n’oublient rien. Quand nous oublions, cela ne veut pas dire que nous ne
souvenons de rien, mais que nous n’avons conservé que des traces, qu’on pourra
éventuellement retrouver et à partir desquelles on pourra reconstituer tout ou
partie de ce que nous avons oublié, ceci dit en restant pour le moment au niveau
de ce qu’on pourra appeler le préconscient. Or il faut bien oublier pour
désencombrer des régions de notre cortex et ainsi aller vers d’autres régions,
de nouvelles connexions. C’est ce que les philosophes appelaient l’imagination,
et c’est elle qui nous permet d’inventer, souvent à l’improviste, et parfois,
comme certains exemples célèbres l’ont montré, dans un état flottant, voire
pendant un rêve, quand il ne dissipe par complètement au réveil.
Mais
pourquoi sommes-nous « bêtes » ?
Nous n’avons pas, certes, la puissance calculatrice et
déductive des machines artificielles. Celle-ci repose sur les quantités
phénoménales de données qu’elles peuvent enregistrer et traiter. Prenons
l’exemple de la reconnaissance faciale. Nous avons beau être physionomistes,
nous ne ferons jamais aussi bien que les machines, parce que celles-ci ont
appris à traiter des milliards d’images recueillies par des caméras, dont celles produites par les
internautes et voyageant sur un réseau (comme
Facebook), et elles le font de façon bien plus sûre que nous. A
preuve : on peut aujourd’hui, dans certains pays, payer ses achats en
scannant des produits et en utilisant son téléphone mobile pour les faire
débiter sur son compte, sans risque d’erreur. De même les machines savent
reconnaître un chien d’un chat sans risque de se tromper (on dit alors, un peu
abusivement, qu’elles ont le « concept » d’un chat). Mais tout cela
est dans la continuité de tout ce que les machines plus simples peuvent nous
apporter, et l’histoire des sciences est jalonnée de dispositifs techniques qui
ont rendu notre perception du monde plus fine (par exemple lorsque l’on est
passé de la vision simple au microscope, puis au microscope électronique), plus
rapide et plus sûre. La question que nous voulons soulever est pourquoi, en
dépit de tout cela, nous agissons souvent comme des bêtes, c’est-à-dire en deçà
de nos capacités.
On est en effet surpris que des esprits formidablement
instruits, capables précisément souvent de résoudre des équations très
compliquées à l’aide de machines, soient aussi aveugles à des réalités qui
tombent sous le sens. On considère en général que c’est l’effet de préjugés
relevant notamment de leur position dans la société, et en particulier de leurs
intérêts de classe. Sans doute, mais cet effet d’aveuglement reste quelque peu mystérieux.
Alors vient à l’esprit l’idée que c’est là l’effet de
notre vieille animalité. Nous avons été dressés par l’évolution à répondre à
des situations d’urgence par des réflexes de sauvegarde ou de survie, ce que
fait tout animal, mais que nous faisons plus encore parce que nous avons une
conscience vive de notre fragilité et de notre mortalité. La machine
intelligente, elle, n’a pas conscience
qu’elle peut dysfonctionner ou même mourir (tomber définitivement en
panne), et, de toute façon, elle s’en fout, car elle n’est pas un être
sensible. Elle peut réagir à des signaux d’alerte, mais ne saurait se protéger
ni s’auto-réparer.
Cet ancrage dans notre animalité est un point est
tellement important que l’on pourrait y trouver l’origine de toutes sortes de
biais cognitifs, notamment dans la science économique standard (biais lumineusement
analysés par Jacques Généreux dans La
déconnomie). Un destin qui n’est pas irrémédiable, mais aux conditions d’une
prise de conscience, d’actes de volonté, et de toute une politique éducative.
Il est frappant que, à l’inverse, les hérauts de
l’intelligence artificielle ne s’en préoccupent pas, et soient au contraire portés
au déni de notre fragilité et de notre mortalité, eux qui voudraient que nous puissions
fonctionner comme des machines parfaites, c’est-à-dire potentiellement
immortelles. Vieux rêve de l’humanité, et fantasme renouvelé par la croyance
dans des vertus miraculeuses de la science.
Mais ce n’est pas tout. Nos savants fous se sont mis à
imaginer que nous pouvons fonctionner effectivement comme et aussi bien qu’une
machine.
L’homo
oeconomicus, machine intelligente
Il est étonnant de constater la similitude. Une
machine intelligente doit traiter un grand nombre de données pour en extraire
la solution optimale (ainsi, dans l’un de nos exemples précédents, la
reconnaissance d’un visage). Un consommateur rationnel doit de même choisir la
liste de produits qui satisferont ses besoins – une donnée pour eux de nature
purement individuelle – compte tenu de son budget, et il choisira la solution
optimale, celle qui, sous contrainte, maximisera sa satisfaction – un terme
vague, emprunté au registre de l’apaisement de la soif ou de la faim. Il fera
encore mieux, car il procédera à des « anticipations rationnelles » :
il aura en effet calculé ce que sera le marché de demain et ce qu’il aura en
moins dans sa bourse en fonction des impôts qu’il aura versés. Même chose pour
l’entrepreneur « rationnel » qui prendra des décisions d’investissement
en fonction de ses ressources financières, de l’état du marché et de ses évolutions
à prévoir.
Tout cela, a-t-on fini par remarquer, ne tient aucun
compte de la « complexité humaine ». Comme l’économie « comportementale »
aura montré que divers facteurs autres que la préférence individuelle et la
taille du porte-monnaie interviennent (des facteurs sociaux, culturels etc.),
et qu’elle l’aura vérifié en laboratoire, sinon on ne la croirait pas, on se
déclare prêt aujourd’hui à injecter des doses d’autres sciences humaines (la
psychologie, la sociologie, la science politique) dans le modèle de base,
autrement dit à complexifier un peu les équations pour se rapprocher des
comportements effectifs. Mais voilà, on reste dans la perspective machiniste de
l’optimisation sous contrainte, en ajoutant des facteurs.
Or, comme on l’a dit, les machines intelligentes ne
fonctionnent que si leur domaine est à la fois strictement limité et doté de
complétude. Rien de tel chez l’être humain d’abord parce qu’il n’a pas la
puissance de calcul d’une machine (il ne peut comparer en un bref instant des
quantités de produits et de prix), ensuite et surtout parce qu’il est mû par ce
que Adam Smith appelait des « passions » parfaitement déraisonnables.
Par exemple la passion de ce collectionneur qui n’a nullement l’intention
d’être un vendeur ou un spéculateur, est totalement incompréhensible, puisque
son « besoin » semble illimité. A y réfléchir, on s’aperçoit que la
plupart des choix humains sont « irrationnels », n’en déplaise à ceux
qui voient le choix d’un conjoint ou l’acte délinquant, voire criminel, comme
le résultat d’un calcul coût/avantage. Et le plus fort est que les
publicitaires le savent bien : ils ne vont pas seulement vous vanter les
qualités d’un produit par rapport aux produits concurrents, ils vont lui
associer les fantasmes les plus invraisemblables ou les plus délirants. Le
choix rationnel existe certes, mais il
est de faible portée et très subordonné. C’est pourquoi une politique qui ne
prendrait pas en considération les passions humaines serait vouée à l’échec ou
ne réussirait que par une dictature sur les besoins, dictature dont le ciblage
des centres d’intérêt du consommateur par les géants de l’internet à des fins
publicitaires est déjà une forme.
Mais que faut-il entendre par
« passions » ? Soyons simples. Au moins deux choses : des
affects et des pulsions, ce dont toute machine est dénuée.
Les machines
intelligentes ne peuvent que simuler des affects
Les concepteurs de machines ont voulu faire comme si
elles avaient des émotions. De très nombreux laboratoires dans le monde
s’attachent à créer des robots humanoïdes, avec lesquels on puisse communiquer
comme avec des êtres humains. Le marché potentiel est immense, face à toutes
les privations ou frustrations de liens interhumains. On crée donc des robots
pour tenir compagnie à des personnes âgées et esseulées, pas forcément
humanoïdes d’ailleurs (ils peuvent simuler un chien de compagnie), on crée des
robots pour que les enfants puissent jouer avec comme de petits amis, on crée pour
des adolescents attardés ou timides une « bonne copine » virtuelle ou
matérielle (plus rarement un bon copain) afin de remplacer une copine réelle,
on fabrique des robots sexuels pour des jeunes hommes (plus rarement des jeunes
femmes) en panne de rapports réels (les Japonais sont très souvent vierges
jusqu’à la trentaine). Est-il besoin de le dire, ces robots n’éprouvent aucune
émotion, car ils n’ont que l’équivalent d’un bout de cortex, mais pas
d’hypothalamus, pas de zones de plaisir. Ils ne présentent donc que des signes
d’émotion (sourires, mouvements des yeux, quelques expressions langagières, et
naturellement pas de signaux de stress ou de peur). Admettons que la
reproduction des émotions humaines dans des robots « bio-inspirés »
puisse aider les neurosciences à progresser, cela risque quand même de
favoriser la robotisation des relations et des services les plus indispensables
à l’équilibre psychique et de pousser les individus vers une forme d’autisme
social (les enfants, eux, savent très bien faire la différence entre leurs
jouets les plus imitatifs et les relations réelles).
La dérive machinique est encore plus grave quand on
aborde le domaine des pulsions.
Les machines
intelligentes n’ont ni inconscient ni désir
Le behaviorisme autrefois essayait de reconstruire
toute l’activité humaine en termes de stimuli et de réponses, à partir de
l’observation de comportements animaux tels que ceux du rat de laboratoire.
C’était réducteur et de peu d’intérêt dès qu’on allait vers l’étude des
primates, mais, s’agissant de l’homme, cela devenait franchement stupide, car
le psychisme humain a une particularité dont on ne va pas ici expliquer la
genèse (contentons-nous de dire qu’elle s’origine en particulier dans la
prématuration de l’enfant humain), celle de posséder un inconscient
profond, lieu des pulsions du
«ça », en langage freudien, et des fantasmes liés à leur refoulement (par
exemple le fantasme de toute puissance, dont l’élucidation sert à expliquer
bien des choses). Et de là il résulte que le moteur des comportements humains
n’est que secondairement le besoin, qui peut être satisfait, mais
fondamentalement le désir, qui ne connaît pas de finitude. Alors apparaît toute
l’absurdité de la conception de l’homme rationnel des économistes, sorte d’avatar du
behaviorisme et pilier idéal du calcul capitaliste. Il y aurait plein de leçons
politiques à en tirer, mais nous voudrions mettre en évidence un dernier point.
Les machines
intelligentes ne délibèrent pas et n’ont aucun sens moral
C’est pourtant une évidence, le moindre de nos gestes,
en dehors des pures routines et des cas d’urgence vitale, appelle une
délibération intime : vais-je faire ceci ou cela, maintenant ou plus tard,
ou pas du tout ? Et qui dit délibération dit usage de la contradiction.
Or, pour qu’il y ait contradiction, il faut un contradicteur, ce contradicteur
étant moi-même. Cela signifie, pour faire simple, que nous sommes doubles, et
que le double du « sujet » s’est constitué à travers un jeu
d’identifications à autrui, toute la foule de personnages qui inconsciemment
nous ont fait ce que nous sommes. La machine intelligente, elle, n’a pas de
double, n’a pas de distance à soi, et c’est pourquoi, tout en étant capable de
raisonnement déductif, elle ne réfléchit pas et finalement ne pense pas, ne
peut pas et ne pourra jamais penser. C’est pourquoi aussi elle ne peut avoir
aucun surmoi, et a fortiori aucun sens moral, même rudimentaire. Ce qui nous
fait penser à « l’homme aux écus ».
Faisons un dernier pas. Si nous sommes des êtres
fondamentalement contradictoires, il faut alors non pas nier cette réalité
native, mais l’assumer et la faire jouer positivement : mettre la raison
au service de nos passions, et nos passions au service de notre raison, être un
« individu social », comme disait Marx, sans cesser d’être un
individu, bien au contraire. Maxime qui vaut au niveau politique : il
s’agit de combiner le privé et le collectif pour qu’ils se renforcent l’un
l’autre. Maxime qui vaut au niveau environnemental : il faut non pas
dominer ou maîtriser la nature, mais construire une relation harmonique avec
elle, faute de quoi l’humanité est condamnée à sa disparition.
Aucun commentaire:
Enregistrer un commentaire