Inflexions : Vous vous intéressez depuis longtemps au trans et au posthumanisme. Avec une fascination initiale, puis une réflexion de plus en plus critique. Dans le cadre de ce numéro d’Inflexions, quelle réflexion vous inspire ce sujet ?
Jean-Michel Besnier : La guerre a changé, c’est devenu un lieu commun. En faisant ce constat, on met en évidence le fait que les conflits sont devenus asymétriques. Cette asymétrie me semble le fait dominant. Finie la guerre avec deux armées qui se donnent rendez-vous sur un terrain pour s’affronter régulièrement. J’ai assisté à l’une des dernières conférences de Raymond Aron. Il y exprimait une espèce de nostalgie de ces guerres qui se déclaraient, qui s’organisaient, qui obéissaient à une rationalité cherchant à protéger les populations civiles.
L’asymétrie dans les conflits modernes est liée à l’utilisation croissante des technologies. Loin d’avoir été un facteur d’homogénéisation et d’augmentation de l’égalité des conditions, celles-ci ont créé ce déséquilibre qui est un problème dont on n’a pas fini de mesurer l’ampleur. Qu’a donc produit la technologie dans la guerre ? D’abord, le sentiment que la puissance est tout entière dans un seul camp et son corollaire, le dramatique slogan du « zéro mort », c’est-à-dire zéro mort dans le camp hypertechnologisé. Elle a ensuite vraisemblablement suscité l’avènement du terrorisme. Les guerres « zéro mort » ont des effets collatéraux qui touchent forcément les populations civiles. Naît par conséquent une sorte de mobilisation de ces dernières par la haine, qui réagissent sur le mode de l’insurrection. Or ce caractère insurrectionnel des peuples agressés produit presque inévitablement le phénomène terroriste. Ce zéro mort acquis par des procédés inaccessibles à l’adversaire est perçu par les non-nantis victimes de cette guerre technologique comme une invitation à tuer, à marquer des points contre la puissance qui se croit invulnérable. Plus il y a de morts provoquées par des moyens rudimentaires (machette, décapitation à l’arme blanche, lance-flammes, le tout enregistré sur YouTube) et plus le traumatisme infligé au camp du zéro mort est grand. Il y a un effet en cascade.
Du fait du développement des technologies, on n’a pas fini de mesurer le côté immaîtrisable des guerres. C’est pour cela que le sujet du soldat augmenté pose des questions considérables. Il faut essayer de réfléchir sur le terrain philosophique et anthropologique à la nature de la guerre et au comportement des combattants dotés de technologies, car là, à mon sens, nous sommes en présence d’un phénomène déjà annoncé comme alarmant par Tocqueville et Hegel, qui voyaient dans l’avènement de l’arme à feu quelque chose qui avait changé radicalement l’esprit des conflits puisque celle-ci permet d’éviter le corps à corps et, par conséquent, introduit cette distance entre les belligérants qui équivaut à un progrès dans l’abstraction. Cette « abstractisation » de l’ennemi allait devenir un facteur ouvrant la porte à davantage de cruauté, à un comportement fait de mépris à l’égard de la vie humaine. Avec la fin du corps à corps, où chacun faisait œuvre de courage, la préservation de la distance devient le ressort de la guerre. Or qui dit distance dit abstraction mais dit aussi élémentarisation. Les belligérants, les peuples, n’ont plus qu’à se confier à une représentation élémentaire d’eux-mêmes. Je crois que, dans la prospective du soldat augmenté, c’est cette élémentarisation de l’humain qui va se développer de plus en plus. Simplifier, voire réduire le soldat à des comportements sensorimoteurs ou à des facultés cognitives extrêmement restreintes grâce à des dispositifs misant sur des automatismes : c’est cela qui va triompher.
L’homme augmenté est un individu que l’on dote d’un certain nombre d’adjuvants technologiques destinés à le rendre capable de gérer des activités devenues des automatismes. C’est donc l’automatisation qui est sa vertu cardinale. Toutes les enquêtes, toutes les études qui ont pu être faites le démontrent. Donner du Modafinil ou de la Ritaline à un soldat, c’est le rendre apte à des fonctions de mémorisation sans intelligence, de concentration sur des activités répétitives… C’est solliciter en lui de la mécanique, une mécanique qui l’animalise en accordant davantage à la réactivité instinctive qu’à la délibération consciente. Vouloir augmenter, c’est vouloir élémentariser les comportements en les réduisant à l’infrastructure psychophysiologique. L’ambition de l’augmentation va même plus loin en ce sens, puisque l’on envisage de doter des individus de facultés résolument nouvelles, inspirées de celles du monde animal. Par exemple, s’il est possible d’identifier chez le requin le gène correspondant à son hypersensibilité aux ondes électriques, pourquoi ne pas le transférer à l’homme afin qu’il possède lui aussi cette capacité ? Pourquoi ne pas en faire autant avec l’aptitude à l’écholocation de la chauve-souris ? Pour le coup, on aurait là une vraie augmentation de l’humain !
Inflexions : On pourrait aussi trouver dans cet exemple une vulnérabilité accrue : si on augmente la sensibilité auditive, on augmente aussi le risque de traumatisme sonore. Pourquoi ne pas créer alors une arme qui trouverait sa justification dans la sensibilité exacerbée à des ondes auditives ?
Jean-Michel Besnier : Chaque augmentation est en effet susceptible de créer un dommage collatéral. Tant que l’organisme humain obéit à sa stricte normativité, il peut s’accommoder de ses déficits, les surmonter et les compenser. Mais dans les stratégies d’augmentation, la normativité vient de l’extérieur et génère une obsession de conformité qui débouche sur une sorte de normopathie. On s’expose donc, à chaque fois que l’on augmentera artificiellement l’humain, à le fragiliser. Ainsi, je suis persuadé que l’homme augmenté est fragile sur le terrain, simplement parce que le raisonnement n’est plus une vertu pour lui et qu’il perd en plasticité adaptative. C’est la réactivité qui est développée en lui plutôt que l’aspect délibératif, d’où une fragilité prévisible.
Inflexions : L’intelligence, au sens de discernement cognitif, disparaît donc au lieu de s’accroître, parce que le discernement est le fruit d’une réflexion incessante sur soi beaucoup plus qu’une prothèse greffée ?
Jean-Michel Besnier : Je crois qu’il est exclu que l’on puisse penser le discernement en termes de prothèse, car ce qui le caractérise, c’est le consentement à l’ambiguïté, à la complexité. Or la prothèse est sans détour. Philosophiquement, on place toujours le discernement du côté où la foi résiste ; il entretient une sagesse pratique. Sur le terrain militaire, pour en revenir à lui, on risque d’être fragilisé si l’on substitue des automatismes de comportement au discernement impliqué dans les stratégies. Les armées savent bien que nombre de paramètres les privent d’une situation de clairvoyance, qu’elles doivent faire avec une certaine opacité. Cette aptitude des militaires à composer avec des phénomènes complexes pour prendre les bonnes décisions et, éventuellement, exprimer une action innovante, c’est la vertu même. Or le soldat augmenté, qui est quand même un être très proche du robot, qui interagit avec des systèmes d’armes autonomes, perd cette aptitude qu’on est tenté de nommer créativité.
Inflexions : Ne serait-on pas devant une fin de l’histoire traditionnelle de la guerre ? Pendant des siècles, on a cherché à augmenter la puissance prothétique du soldat grâce à un armement ou à des capacités augmentées de tolérance à l’effort, or on s’aperçoit aujourd’hui qu’il est vain de penser que l’on pourra toujours augmenter ces capacités, que, peut-être, le futur de la guerre, c’est, à rebours, une réflexion qui fait appel aux sciences humaines plutôt qu’aux sciences mathématiques et physiques ?
Jean-Michel Besnier : Ce serait effectivement un avenir pour la guerre d’introduire des considérations nourries de sciences humaines et sociales, si seulement on affrontait le questionnement que constitue sa technologisation. Or, pour l’instant, je ne vois qu’une ébauche de réflexion autour des robots, des drones, sur fond d’un consentement croissant à ce que la stratégie laisse la place aux arbres de décision dictés par les techniques. Ils me semblent très peu nombreux les militaires qui, aujourd’hui, revendiquent la stratégie comme le cœur de leur métier. Ils sont plus enclins à mettre en place des instruments permettant une réactivité propice à la tactique. Donc, idéalement, il faudrait qu’ils s’avisent de cette transformation de la guerre qui induit des effets pervers, du type terrorisme ou atteinte d’objectifs dits non stratégiques ; il faudrait qu’ils affrontent la question de la complexité qui relève avant tout des sciences humaines et sociales, avec la mobilisation de chercheurs de disciplines variées pour aider aux décisions toujours prises en situation d’incertitude. Ce qui a été mis en œuvre dans les sciences humaines et sociales, dans le domaine de l’intelligence artificielle par exemple, devrait pouvoir servir dans le domaine militaire.
Ce que l’on a appris de l’« échec » de la première intelligence artificielle serait très pédagogique pour eux. La déception provoquée par sa stricte application au champ social fut grande. On a d’abord cru que l’intelligence devait n’être conçue que comme la faculté de résoudre des problèmes avant d’en faire une faculté d’adaptation automatique d’un organisme à son environnement. Je considère que cette extension conceptuelle a été extrêmement importante. Les cybernéticiens ont alors changé leur fusil d’épaule : il ne s’agissait plus seulement de produire des objets capables de résoudre des problèmes dont les données appelaient la transformation en langage machine et la réponse d’experts. Ils se sont inspirés de théories mathématiques modélisant des situations qui révélaient que l’intelligence est toujours le résultat d’une abstraction réfléchissante à partir de l’action. Ils ont alors décidé de construire des petites machines élémentaires qui avancent, reculent, sautent, et de les doter de moteurs d’inférence permettant de complexifier leur comportement au gré de l’environnement. Les machines « intelligentes » prouvent leur efficacité en révélant comme une vertu d’être privées de représentation, de conscience, d’intention. Cela a été vraiment une évolution décisive dans l’histoire de l’intelligence artificielle — une évolution qui a été rendue possible précisément par l’investissement des sciences humaines et sociales dans le champ de la technique.
Inflexions : Selon vous, l’avenir est-il plus du côté des cyberguerres ou de l’augmentation simplement technologique ?
Jean-Michel Besnier : Je crois que la perspective de la cyberguerre est en train de s’imposer aujourd’hui. C’est pour cela que les jours du soldat augmenté sont comptés.
Inflexions : Le soldat augmenté, n’est-ce pas la découverte des limites du soldat ?
Jean-Michel Besnier : C’est évidemment la construction du contraste qui rend évidentes les limites de l’humain « naturel ». Mais plus que ça, et les problématiques transhumanistes l’annoncent, l’homme augmenté, c’est une transition vers le posthumain. Dans le domaine militaire, le soldat augmenté, c’est le renforcement de l’hégémonie de la machine dans le contexte de guerre. Une machine qui va être activée pour prendre des décisions parfaitement conformes au dessein non pas de l’homme, mais d’une intelligence artificielle.
Inflexions : Mais alors, l’ennemi au sens abstrait du terme ne peut-il pas entrer facilement à l’intérieur du système de la cyberguerre et le neutraliser ? La cyberguerre n’est-elle pas fragile dans ses composantes informatiques ? N’est-elle pas aussi un leurre ?
Jean-Michel Besnier : La cyberguerre est un leurre si elle s’entretient de l’illusion de l’invulnérabilité qu’elle affiche. Toute technologie fonctionnant sur la base de systèmes d’information est exposée à être envahie, détournée, « hackée ». D’une façon générale, il faut être conscient du caractère aléatoire des productions issues de cette technologie, alors même que l’on pense tenir avec elle l’oméga des progrès imaginables. Que l’on ne s’avise pas que la planète pourrait être menacée à cause d’un orage solaire qui couperait les sources d’électricité, plongeant l’humanité dans une détresse effroyable, me semble étrange, étonnant. Il n’y a que les auteurs de science-fiction pour affronter cette hypothèse catastrophique. Quant aux politiques et autres décideurs, ils ne pensent qu’en termes de concurrence, de réactivité, de temps réel, de court terme, de tactique… Le culte de l’innovation à tout prix résume cette cécité aux fragilités fondamentales d’un monde construit sur les seules technologies numériques. De fait, la cyberguerre n’inspire la sécurité qu’aux esprits superficiels.
Inflexions : Autrement dit, si vous étiez responsable des stratégies du futur, vous investiriez dans une réflexion en profondeur sur ce qu’est l’humain, sa fragilité, sa complexité, plutôt que dans l’amélioration de technologies sans fin, comme si vous vous méfiiez d’une sorte de progrès technique qui comporte en son sein sa propre déception ?
Jean-Michel Besnier : Ma position par rapport à cette question d’un progrès paradoxal revient à affirmer le risque que nous prenons à désymboliser notre existence à force de techniques. Ce que j’appelle symbolisation concerne évidemment le langage et tout ce qui est source d’institution sociale, tout ce qui mise sur les échanges, les relations culturelles et artistiques. Les technologies se développent aujourd’hui en mettant à distance cette dimension qui fut proprement humanisante dans l’histoire de l’espèce. C’est catastrophique et cela fragilise considérablement les sociétés modernes. Il faut affirmer haut et fort que les sociétés qui se développeraient uniquement en se confiant à des outils ne seraient pas viables. Platon l’avait bien argumenté dans sa version du mythe de Prométhée : Zeus a eu la sagesse d’envoyer Hermès pour ajouter l’art politique à la dotation des hommes et leur permettre d’éviter la démesure engendrée par les techniques que Prométhée et Athéna leur ont offertes. Nous sommes les produits des outils mais, tout autant, de la parole. Ne l’oublions pas au moment où nous écrasons tout ce qui procède du symbolique sous prétexte d’efficacité pragmatique.
Inflexions : Pourquoi cette évidence, partagée par la plupart des penseurs, ne change-t-elle rien à l’investissement technologique toujours perçu comme n’allant que dans le sens de l’efficacité ? Comment cet écart grandissant entre la lucidité et la naïveté peut-il exister ?
Jean-Michel Besnier : Je pense que, malheureusement, les philosophes sont très peu mobilisés sur cette réflexion, à cause d’une sorte d’angélisme, de conformisme ou bien d’un catastrophisme indigent. Nous ne sommes pas culturellement préparés à résister au monde que nous laissons se développer. Je suis surpris de voir à quel point, au contraire, la réflexion sur ce monde est de plus en plus profonde chez les militaires, en tout cas au sein du personnel d’encadrement. Peut-être pour des raisons discutables, mais peu importe, car c’est le résultat qui compte. Ils s’alarment d’être de plus en plus dépossédés de l’initiative par leurs machines. Mais j’observe aussi chez eux une prise de conscience qui les conduit à considérer qu’en les privant de faire l’épreuve du courage sur le terrain, on les dépossède de leur dignité. Un sentiment qui suppose toujours la préservation de l’aptitude à dire « je veux ». Or on met en place des machines autonomes qui doivent nous dispenser d’être volontaires. Avec un risque de soumission, de subordination. Les machines sont réfractaires à la réflexion. Elles obéissent à une temporalité qui exclut la réflexion et la mise en discussion.
Inflexions : Voulez-vous dire que la mise en place de ces machines efface le temps de la conception ?
Jean-Michel Besnier : Non, c’est surtout l’exécution de l’action qu’elles permettent qui ne laisse plus le temps à la réflexion. Voyez le drone piloté à distance depuis la Californie. Après le moment de la mise au point du viseur sur la cible par le pilote, il s’écoule sept ou dix secondes pendant lesquelles celui-ci n’a plus la possibilité de faire quoi que ce soit, de rectifier, et doit assister passivement au tir qu’il a ajusté. La délibération est a priori complètement exclue. Il y a là une situation de dépossession vraiment tangible. Un film intitulé Good Kill a bien décrit cette situation. Il suggérait en même temps le désarroi du militaire qui a été un aviateur normal, c’est-à-dire courageux, et qui se retrouve tout à coup sédentarisé dans une salle de pilotage et invité à obéir passivement aux prises de mesures décrétées par une hiérarchie invisible.
Inflexions : D’où l’importance de la notion de désarroi. Si la Grande Guerre est apparue comme un moment d’absurdité, de boucherie, le chef militaire d’aujourd’hui a de plus en plus le souhait de protéger ses hommes, mais aussi d’avoir une intelligence de l’environnement, des paramètres divers que la machine éventuellement n’aura pas interprétés. Avoir une relative autonomie de pensée. N’est-ce pas contradictoire avec ce qui se prépare ?
Jean-Michel Besnier : La déception (c’est un terme vraiment un peu léger) du chef est grande. Car disqualifier complètement ce plaisir de la guerre, ce vertige de la décision inédite, toujours prise sur la base d’une incertitude, c’est ruiner l’image de soi du soldat. Il doit aujourd’hui faire avec des machines qui sont complètement réfractaires à l’incertitude alors que le propre d’un militaire humain est de faire avec elle, de louvoyer dans un monde contingent. On a à se soumettre à des machines qui fonctionnent à l’information, et l’information, c’est toujours la levée mécanique de l’incertitude. L’humain ne fonctionne jamais sur ce modèle. Il accepte l’incertitude comme une donnée inéluctable, mais il sait que toute décision est un risque, car on aurait toujours pu faire autrement ; la machine, elle, n’envisage pas de faire autrement ce qu’elle fait.
Inflexions : Le paradoxe ne serait-il pas que les travaux sur l’homme augmenté finissent par conclure à la nécessité de la formation de l’intelligence, au sens traditionnel du terme ?
Jean-Michel Besnier : Bien sûr. Mais il faudrait pour cela restituer à l’intelligence un sens qui ne la réduise pas à la seule faculté de résoudre des problèmes par du calcul. Car cette conception, excellemment prise en charge par des machines, s’expose à n’être pas différenciable de l’instinct, que l’on a raison de définir comme une science naturelle de satisfaction, excluant par conséquent la réflexion. L’idéal de la cybernétique s’est parfois exprimé comme la volonté de supprimer l’intelligence et de la remplacer par l’instinct. Il va sans dire que son concept d’intelligence était plutôt rudimentaire. Il y a d’autres manières d’envisager l’intelligence, qui mettent en échec les prétentions de la machine à les réaliser.
Inflexions : Vous ne pensez pas que l’homme du futur puisse développer des ressources d’intelligence inconnues aujourd’hui.
Jean-Michel Besnier : On s’efforce d’accréditer comme intelligents les seuls comportements qui admettent des définitions strictement fonctionnelles. Mais des psychologues cognitivistes comme Howard Gardner ont raison d’objecter l’existence d’intelligences multiples (spatiale, logico-mathématique, interpersonnelle, corporelle, musicale…).
Inflexions : Mais ces intelligences ne se neutralisent-elles pas mutuellement ? Ne capturent-elles pas à leur profit la totalité de l’intelligence ? On constate qu’il est rare qu’un peintre soit musicien, qu’un musicien soit sculpteur… Leur cerveau est adapté au développement d’un type d’activité. On sait également que les sourds voient mieux que les voyants, que les aveugles entendent mieux… Pourrait-on imaginer que l’homme augmenté développe simultanément des capacités extraordinairement larges sans perdre d’autres capacités ?
Jean-Michel Besnier : Avoir des limites à sa capacité cérébrale, dont on dit trop vite qu’elle est indéfiniment plastique, est peut-être un handicap de l’humain. Les roboticiens ont beau jeu de prétendre le dépasser en produisant des machines capables de mobiliser les différents aspects de l’intelligence afin d’effectuer de multiples tâches en simultané. Elles susciteront la confiance des décideurs et contribueront à marginaliser l’humain, incapable d’apprendre sans désapprendre, c’est-à-dire de préserver l’intégralité de ses possibilités lorsqu’il est confronté à une tâche particulière. Les projets des transhumanistes s’appuient sur cette perspective d’une intelligence non biologique qu’ils baptisent « la singularité » et qui consacrera l’obsolescence de l’intelligence biologique. Cette intelligence multidimensionnelle est censée éviter l’enfermement dans les impasses actuelles.
Inflexions : L’avenir de l’homme augmenté fondé sur les technologies n’oblige-t-il pas paradoxalement à un investissement majeur dans la réflexion sur l’homme ?
Jean-Michel Besnier : Complètement ! D’ailleurs, passer du temps à réfléchir sur les projets du transhumanisme, c’est d’abord prendre conscience du type d’humain avec lequel il s’agirait d’en finir, c’est révéler en négatif la représentation dominante de l’homme dans un contexte de technologisation, c’est une invitation à réfléchir à la condition qui est la nôtre. Par exemple, on n’aurait pas mis philosophiquement autant l’accent sur la composante de vulnérabilité qui est indissociable de l’humain si les recherches biologiques n’avaient pas été portées par une ambition eugéniste dès le début du xxe siècle. Donc les technologies contraignent à penser l’avenir de l’homme, dans la mesure même où elles secrètent la vision d’un posthumain. Personnellement, c’est la seule chose qui m’intéresse : comprendre ce que le refus transhumaniste de l’humain nous oblige à défendre en lui comme une richesse. Je ne suis pas expert en anticipation, mais je suis désireux d’identifier les contenus anthropologiques, métaphysiques ou même religieux que véhiculent ces projets. Le soldat augmenté est en ce sens un terrain d’analyse passionnant.
Propos recueillis par Didier Sicard