Le fil Inflexions

Les 19 et 20 juillet, Inflexions sera au salon du livre de Saint-Cyr Coëtquidan

20 juin : mise en place du comité scientifique pour la commémoration du 150e anniversaire de la guerre de 1870

N°7 | Le moral et la dynamique de l’action – II

Jacques Sapir

Agir dans l’incertain : de l’économie au militaire

La nécessité d’une théorie subjectiviste de l’acteur

La question de la réaction des individus sous incertitude est un problème central dans deux disciplines en apparence très éloignée, l’économie et l’art de la guerre. ces deux disciplines ont un point commun, elles essayent de comprendre l’interaction entre des décisions individuelles et des actions collectives, et inversement entre des situations collectives et des réactions individuelles1. elles se séparent, du moins au départ, dans le fait que si la notion de surprise ou d’incertitude est centrale pour ceux qui étudient le conflit armé, elle a été rejetée hors d’un courant de l’analyse économique. la rupture induite par la révolution néo-classique (léon walras et vilfredo pareto) de la fin du xixe siècle n’est pas comme on le croit le recours à la formalisation mathématique2, mais le rôle central donné à l’hypothèse d’un acteur omniscient et prenant ses décisions dans un univers de connaissance parfaite.

Le modèle de l’équilibre général issu de cette « révolution » est devenu progressivement le mode de pensée dominant (mais heureusement non unique) de l’économie entre les années 1950 et 1980, en partie grâce à la rigueur apparente de la formalisation mathématique que l’hypothèse de connaissance parfaite rendait possible3. En réalité, la tradition de l’économie politique classique était celle d’un monde de l’incertitude. L’importance de cette dernière n’a cependant pas pu être totalement occultée, et le rejet des hypothèses néoclassiques était sensible depuis le début des années 19904. Les travaux les plus récents insistent donc sur cette dimension centrale de l’économie5, et sur son effet sur les comportements des acteurs6.

Le retour à une vision plus réaliste de l’économie a conduit les chercheurs à revenir sur une des hypothèses centrales de la théorie économique non néoclassique, l’hypothèse subjectiviste.

Cette hypothèse, que l’on retrouve chez des auteurs aussi différents que Marx, Keynes ou von Hayek, peut s’exprimer de la manière suivante : un acteur économique prend ses décisions non par rapport à la réalité objective des processus économiques parce qu’il ne peut accéder directement et parfaitement à une connaissance totalement objective de la réalité qui l’entoure, mais par rapport aux représentations subjectives qu’il se fait de cette réalité.

On retrouve ici un des aphorismes de L. Wittgenstein :

« De ce qu’à moi, ou à tout le monde, il en semble ainsi, il ne s’ensuit pas qu’il en est ainsi. Mais ce que l’on peut fort bien se demander, c’est s’il y a sens à en douter7. »

Ceci peut se comprendre tout à la fois comme une mise en garde contre toute identification entre les perceptions et les réalités et comme une seconde mise en garde contre l’illusion qu’une révélation pleine et complète de la réalité soit possible ou simplement utile du point de vue de la compréhension de l’action des agents.

Karl Marx n’affirmait rien d’autre quand il écrivait que quand une idée s’empare des foules, elle devient une force matérielle. La force du paradigme subjectiviste s’affirme ici clairement.

Cette hypothèse n’est possible que si l’on récuse la possibilité d’une connaissance immédiate et parfaite du monde réel. Elle s’exprime chez Marx dans la théorie de l’aliénation, chez Keynes dans celle des comportements mimétiques tel qu’il les décrit dans la métaphore du « concours de beauté », chez Hayek dans la nécessité du marché comme processus de convergence des représentations.

L’hypothèse subjectiviste modifie en profondeur notre compréhension des mécanismes de rationalité, ce qui fut montré par Herbert Simon8.

Dès lors, se pose la question de savoir comment les représentations se construisent et comment elles influent sur les acteurs. L’hypothèse subjectiviste permet à l’économie de se rapprocher de manière décisive de l’art de la guerre. La notion de « surprise » devient alors centrale, comme le montra un économiste qui fut l’élève et de Keynes et de von Hayek, George Shackle9.

Il faut donc comprendre, pour analyser les actions des agents économiques, comment ils ont formé leurs décisions à partir de la rencontre entre leur subjectivité et des effets des processus objectifs au sein desquels ils baignent. Cette rencontre implique de poser la question de la lecture ex-ante et ex-post d’une décision. Comment un acteur prévoit-il les résultats possibles de son action avant d’agir (vais-je réussir ou non dans mes projets) et comment juge-t-il le résultat de son action (est-il satisfait, déçu ou surpris). La distinction entre une situation antérieure à l’action et une situation postérieure aux résultats de cette dernière, introduite par l’économiste suédois Gunnar Myrdal10, est d’une importance capitale. Elle permet de penser le cadre conceptuel de la « surprise » et de concevoir dans quelles conditions les représentations antérieures de l’agent peuvent être validées ou inversement radicalement invalidées.

L’importance de la notion de « surprise »
dans l’analyse de la subjectivité des acteurs

La convergence entre une pensée économique subjectiviste et l’analyse de l’art de la guerre s’éclaire de manière particulièrement intéressante à travers le statut de la surprise.

Dans l’art opérationnel, cette dernière joue un rôle capital, qu’elle soit tactique ou stratégique, qu’elle porte sur un événement ou la maîtrise d’une technique. Or, toutes les surprises ne sont pas équivalentes. Le point le plus intéressant de ce que Shackle apporte à une confrontation entre économie et art de la guerre est une théorie rigoureuse de l’effet de la surprise.

L’inattendu et le peu probable

Shackle fait ici une différence, fondamentale, entre un événement que l’on a rejeté après l’avoir envisagé (Counter-expected – que l’on traduira par peu probable), et l’événement dont la possibilité n’a même pas été envisagée (Unexpected – que l’on traduira par inattendu). Comme il l’indique alors :

« La structure des anticipations d’une personne est plus détruite par un événement inattendu que par un événement rejeté. Le premier ne révèle pas seulement une erreur de jugement, mais souligne le fait que la personne a non seulement été incapable de connaître un élément essentiel de la situation, mais qu’elle a de plus été ignorante de l’existence et de l’ampleur de sa propre ignorance11. »

L’événement inattendu engendre alors un effondrement de la structure des anticipations, qui a pour l’agent les conséquences suivantes :

« Il ne peut instantanément remplacer l’ancien système d’appréciations par un nouveau, émergeant d’un processus détaillé d’investigation de l’événement surprenant… car une telle investigation prend du temps. Mais… il doit être possible pour lui à n’importe quel moment de répondre si la réalisation de telle ou telle hypothèse serait surprenante. Il s’ensuit que dans la période intermédiaire entre l’abandon de l’ancien système d’appréciations mûrement réfléchies et l’adoption d’un nouveau système, il doit avoir à l’esprit une forme de système intermédiaire12. »

Cette structure intermédiaire se présente alors comme un système ouvert au plus grand nombre possible d’hypothèses. Ce processus de remise en cause radical des systèmes de jugement et d’appréciation est pénible à l’agent. Ceci explique pourquoi il cherche une forme de stabilité. Dans la mesure où ce qui a été invalidé n’est pas seulement un jugement mais toute une procédure cognitive, l’agent voudra tester, autant que faire se peut, la nouvelle structure avant de prendre une décision significativement importante. Il en résulte une asymétrie dans le comportement des agents dont le rôle est essentiel pour comprendre la dynamique macroéconomique.

Si la surprise est favorable le système antérieur est globalement validé par les acteurs. Ils auront ainsi tendance, dans leur majorité, à reproduire les décisions passées. Par contre, si la surprise est défavorable, l’inquiétude est immédiate à travers la représentation de possibles pertes catastrophiques. Le système de représentation est d’autant plus invalidé que la surprise relève de l’inattendu (Unexpected). Voici pourquoi, selon Shackle, le processus de retournement de la conjoncture est plus brutal quand on passe d’une phase d’expansion à une phase de récession, que dans le cas inverse13.

Surprise et représentations dans le domaine militaire :
le cas de Pearl Harbor

Un exemple classique et bien connu de surprise est celui de Pearl Harbor le 7 décembre 194114. Il est établi que les opérateurs de l’un des six radars appartenant à l’armée (l’aviation américaine étant à cette époque rattachée à l’armée de terre) détectèrent de 6 h 45 à 6 h 58 l’hydravion de reconnaissance catapulté depuis un des croiseurs japonais escortant les porte-avions, et qui venait de confirmer la présence de la flotte américaine à sa base, puis, de 7 h 02 à 7 h 40 le trajet de la formation composant la première vague de l’attaque japonaise15. Celle-ci commença son attaque vers 7 h 55.

L’opérateur radar communiqua à deux reprises ses observations à l’officier de garde au quartier général, sans que ce dernier ne les prenne en compte. L’un des responsables de la commission d’enquête, l’amiral King, devait conclure à :

« Un sentiment injustifié d’une immunité quant à une attaque… qui semble avoir pénétré tous les grades à Pearl Harbor, de la marine comme de l’armée16. »

La surprise réside ici d’une représentation collective qui imprégnait les acteurs américains, quant à l’impossibilité matérielle d’une attaque ennemie sur Hawaii. L’historien américain Samuel Eliot Morison remarque, quant à lui, que les tentatives de sous-marins de poche japonais de pénétrer dans la rade de Pearl Harbor avaient été détectées dès 6 h du matin. Rien, dans ces conditions, ne peut légitimement justifier l’inaction des officiers de garde. Pourtant, une déconstruction de la séquence des événements permet de mieux comprendre ce qui s’est passé.

Si l’on met de côté pour l’instant l’incident relatif aux sous-marins, la séquence à la forme suivante :

(i) Un opérateur détecte non directement un avion mais ce que l’on nomme en argot technique un « écho » ou un « blip ». Cet opérateur a cependant suffisamment confiance en son radar pour attribuer cet « écho » à un objet matériel et non à un dysfonctionnement du système. Le premier signal humainement perçu a ainsi été traité par une connaissance technique pour aboutir à une information quant à la détection d’un avion.

(ii) L’opérateur communique son information par téléphone à l’officier de garde au quartier général de la flotte. Pour ce dernier, l’appel constitue un signal et non point une information. De plus, ce signal est indirect car il ne voit pas matériellement l’écran radar et doit s’en remettre à la description que lui en fait l’opérateur. Pour traiter ce signal, il fait appel à des connaissances dont certaines sont de nature objective et d’autres relèvent de sa subjectivité. Les éléments objectifs à sa disposition sont alors :

(a) Les radars sont des instruments nouveaux, réputés fiables mais testés depuis peu de temps. Leur précision est peu connue et leur usage est loin d’être entré dans les mœurs.

(b) Des bombardiers américains se dirigeant vers les Philippines doivent faire escale à Pearl Harbor. Ils sont attendus à peu de chose près dans la tranche horaire qui correspond à la seconde détection. De fait, ces B-17 arriveront bien en plein milieu de l’attaque japonaise et en suivant une route fort proche de celle de la première vague des attaquants.

(c) L’officier de garde est seul – on est dimanche matin – et de grade peu élevé. Il sait qu’il sera relevé par des officiers de grade supérieur dans quelques minutes (la relève est prévue pour 8 h et, de fait, les officiers de la relève se présenteront vers 7 h 50).

Les éléments subjectifs qui sont intervenus ce matin fatidique sont plus délicats à identifier. Les responsables militaires présents à Pearl Harbor, s’ils s’attendaient à une ouverture prochaine des hostilités avec le Japon17, étaient convaincus que les opérations seraient concentrées sur les Philippines et sur la Malaisie. La détection de convois japonais depuis le 5 décembre confirmait la forte probabilité d’actions japonaises dans ces deux directions.

L’idée d’une attaque sur Pearl Harbor, même si elle avait été évoquée dans plusieurs exercices menés dans les années trente, était progressivement tombée en désuétude en raison des signes évidents de la préparation d’une attaque massive sur les Philippines. C’est ici que l’on retrouve le « sentiment d’immunité » que dénoncera l’amiral King.

L’élément subjectif de la connaissance de l’officier de garde va modeler son attitude quant aux éléments « objectifs ». Ainsi va-t-il privilégier l’hypothèse que l’écho radar correspond aux B-17 attendus. Mais, cet élément subjectif est lui-même influencé par deux éléments objectifs : la solitude de l’officier de garde en ce dimanche matin (il doit prendre sa décision seul, sans en débattre avec un autre officier) et son peu de familiarité avec la technique nouvelle du radar.

Il va donc moduler sa réponse à l’opérateur radar qui vient de l’appeler en fonction de sa situation, qu’il juge délicate, pour prendre une décision. Quant à l’opérateur, ce matin-là un simple soldat en train de s’entraîner au maniement du radar, il lui est psychologiquement impossible d’aller contre l’avis d’un officier supérieur qui se réfère par ailleurs à une connaissance d’ordre secrète (l’arrivée prochaine des B-17).

L’importance de la subjectivité des acteurs est donc essentielle pour comprendre le déroulement des chaînes cognitives qui aboutissent à des surprises radicales. L’information peut bien « objectivement » exister. Elle n’est pas intégrable dans les chaînes de raisonnement des acteurs car trop en dehors des représentations constituées.

Chercher à développer la capacité à collecter des informations, si cela ne s’accompagne pas d’un effort équivalent visant à rendre les représentations des acteurs capables de traiter ces informations, peut se révéler ainsi contre-productif. Loin de réduire le risque de surprise il l’accroît.

La surprise prend ici la forme la plus radicale, celle où l’agent est confronté à l’« unexpected » pour reprendre la classification de Shackle. La crise des représentations dominantes qui en résulte est dévastatrice. On sait que les forces armées américaines ont sur-réagi à l’événement, s’attendant à des attaques japonaises sur le territoire continental des États-Unis ou surestimant dans une large proportion les capacités de l’ennemi. On peut ici remarquer que la facilité apparente des premiers succès (face aux Américains ou face aux forces du Commonwealth à Singapour) va aussi constituer une surprise pour le commandement japonais. Elle conduira à réviser (à tort…) la représentation des difficultés de la guerre et conduira au syndrome de la « maladie de la victoire » durant une bonne partie de l’année 1942.

De la guerre du Kippour à la crise de ltcm en 1998 :
une « surprise » qui n’aurait jamais dû être

La capacité matérielle à collecter et transmettre plus de signaux se traduit, pour les opérateurs, par une montée proportionnelle des incertitudes quant à la nature de l’objectif à atteindre et de la responsabilité potentielle du décideur.

L’accès en temps réel à des signaux plus complexes et au contenu potentiellement surprenant fait brutalement surgir de nouvelles opportunités qui n’avaient pas nécessairement été prises en compte au début du processus de spéculation. Les termes initiaux du choix sont alors remis en cause, tant par les nouvelles opportunités que parce que leur nouveauté signifie un nouveau contexte susceptible de provoquer une variation dans l’échelle des préférences du décideur. Cet accès en apparence illimité à l’information permet de soumettre le décideur à un contrôle qualitativement renforcé. Or, ceci n’est pas nécessairement une bonne chose.

Le renforcement des éléments susceptibles d’être mobilisés ex-post pour contester une décision accroît la pression sur le décideur de manière asymétrique. Ses futurs critiques ont à leur disposition plus de temps qu’il n’en aura. Ils vont apprécier les éléments de sa décision dans un univers fondamentalement différent de celui dans lequel il a dû la prendre, et ce pour la simple raison qu’une décision a été prise, qui a modifié de manière irréversible l’environnement.

De fait, un des grands théoriciens contemporains de la stratégie, Martin van Creveld a montré l’existence de « pathologies informationnelles » que les systèmes de transmission et de commandement peuvent engendrer18. Comme le flot de signaux collectables est difficile à analyser en dehors de tout traitement initial, il se produit alors une forte tendance à vouloir transformer ces signaux en statistiques. Le coût cognitif de la réduction d’éléments qualitatifs en éléments quantitatifs est généralement sous-estimé :

« Les statistiques, même quand elles sont précises, ne peuvent se substituer à une connaissance en profondeur d’un environnement […]. Son absence tend à transformer de réels problèmes militaires ou politiques en de faux problèmes techniques. Quoique les assemblages de chiffres qui sur une imprimante d’ordinateur puissent sembler exhaustifs et précis, leur signification est souvent ambiguë : par exemple une baisse du nombre d’incidents peut signifier (entre autres choses) soit que l’ennemi est en passe d’être défait soit que les forces amies ne sont pas heureuses dans leurs tentatives pour le localiser et le forcer à se battre. Comme le modèle qui est l’objet de l’analyse statistique ne devient perceptible qu’à un niveau relativement élevé de la hiérarchie, la confiance en une telle analyse est en elle-même une contribution à la centralisation et à la pathologie informationnelle dont la centralisation peut être la cause19. »

Martin van Creveld écrivait ces réflexions à partir de son analyse de la guerre du Viêtnam. Michael Schrage aboutit en 2003 à des conclusions identiques, à partir de sa comparaison entre la faillite du fond spéculatif ltcm en 1998 et les formes de commandement développées dans l’armée américaine lors des opérations au Kosovo (1999) et en Afghanistan (2001/2002)20. Le risque de sur-centralisation, avec son effet de pathologie informationnelle, a été plutôt renforcé qu’amoindri par le développement et la diffusion des moyens informatiques.

Le tableau comparatif que dresse van Creveld des guerres de 1967 et 1973 au Moyen-Orient est aussi extrêmement instructif. En 1967, dans une armée israélienne qui n’avait pas encore été inondée par le flot matériel de l’aide américaine, le recours à l’information humaine, au contact direct, permis aux commandants en chef des principaux secteurs de se doter d’un « télescope directionnel ». Ce terme, signifie la capacité de concentrer la collecte de signaux sur certaines sources au détriment d’autres, qui sont délibérément ignorées.

Le général Gavish considérait « qu’il n’y a pas d’alternative à regarder un subordonné dans les yeux, à entendre le son de sa voix22 ».

Ainsi, des éléments implicites, peuvent s’avérer plus importants que des éléments explicites.

À l’inverse, durant les deux premiers jours de la guerre de 1973, les structures de commandement israéliennes furent noyées dans une mer de signaux, souvent discordante et difficile à interpréter. L’accès à des moyens radios bien plus sophistiqués qu’en 1967 accentua l’effet pervers de cette masse. Le fait qu’un officier supérieur tenta (et réussit) une reconnaissance aérienne en hélicoptère pour essayer de se faire une idée plus précise de la situation – ce qui n’est pas sans rappeler la fameuse reconnaissance aérienne faite par le général Weygand en juin 1940 – montre que l’accroissement des moyens de collecte quantitative des signaux ne diminue pas l’incertitude.

Il est extrêmement intéressant de constater que l’histoire de la spectaculaire faillite en 1998 du fond spéculatif ltcm contient des éléments convergents avec l’analyse militaire sur ce point.

La structure de ltcm était basée sur l’hypothèse d’une maîtrise supérieure du marché des titres obligataires par la combinaison de l’expérience de son fondateur, John Meriwether, et des techniques d’analyse quantitative développées par les deux prix Nobel, Robert Merton et Myron Scholes, qui étaient ses associés.

ltcm était certainement la firme la mieux équipée, techniquement et intellectuellement, pour collecter les signaux émis par le marché financier global résultant des diverses dérégulations des années 1980. Le problème, bien identifié par Ian Kaplan un spécialiste des logiciels de finance quantitative, est que ces instruments sont incapables de prévoir les changements de régime qui surviennent dans les marchés financiers23. L’analyse de David Schireff du Risk Institute n’est pas différente.

Il est ici trop facile de se cacher derrière l’argument de l’irrationalité des marchés durant une crise spéculative. Cette irrationalité est connue depuis longtemps et aurait dû être prise en compte.

Ensuite, cette irrationalité n’est qu’un mot qui recouvre, sans le décrire parfaitement, une situation où les structures mentales des acteurs sont brutalement déstabilisées. En fait, on assiste, suite à un événement qui constitue une « surprise » au sens donné par Shackle à ce terme, à l’émergence d’un nouveau contexte au sein d’une communauté d’opérateurs. Ce nouveau contexte modifie brutalement la structure des préférences individuelles, substituant une priorité à une autre. En ce sens, une analyse fondée sur les travaux mobilisés au chapitre I récuse le terme d’irrationalité dans ce qu’il peut avoir ici de péjoratif.

Les acteurs ne sont pas devenus « fous ». Ils basculent de modèles de représentations à d’autres. S’il y a une irrationalité ici, au sens pathologique, c’est celle des analystes qui postulent que de tels basculements n’arrivent jamais et que les tendances issues des études quantitatives décrivent l’équivalent de lois naturelles.

Ici, la surprise, au sens le plus fort de l’unexpected provient d’une représentation forte, et culturellement dominante, d’un modèle. Ce dernier peut être militaire (le modèle de l’acteur arabe qui s’était constitué au sein de l’armée israélienne) ou économique (le modèle du marché financier efficient). Cette représentation vient alors s’articuler à une autre, qui joue sur un mode mineur, la croyance en la capacité absolue de traitement de l’information dont disposeraient les systèmes informatiques.

Devant le rôle joué par des modèles, implicites ou explicites, enracinés dans des doctrines, pour la constitution de représentations trompeuses, on pourrait penser que la solution serait de se passer de tels instruments. En fait, cette solution est encore plus dangereuse que ce à quoi elle prétend remédier. L’idée d’un accès au réel sans modèle ou système constitué de représentations n’est autre que le mythe de la « transparence » du réel. Il impliquerait toutes les hypothèses sur l’omniscience de l’agent, que l’on a vues réfutées au début de ce texte.

La doctrine : objet trompeur et pourtant nécessaire

Confrontés à des situations de forte incertitude, les agents individuels pourraient être submergés par l’immensité de la tache cognitive à laquelle ils sont confrontés. Ceci pourrait les conduire à l’immobilité. En fait, pour faire face à cette situation, ils réagissent en tentant de mobiliser ce qui les unit à un groupe social, des éléments de culture ou des modèles cognitifs.

La notion de culture est chère aux économistes institutionnalistes comme à Shackle. Ce dernier insiste sur le fait que la perception de l’incertitude, la surprise, et la dissonance cognitive qui en résulte, peuvent être affectées par la culture de l’agent24.

Il y a des cultures économiques, techniques ou militaires et non une culture uniforme vers laquelle on convergerait dans un grand mouvement de progrès. Ces cultures ont des espaces de prégnance différents et peuvent être en conflit quand elles se développent. L’articulation entre des cultures locales en une culture globale, sur un espace de référence particulier, est donc un problème pertinent pour tenter de comprendre au niveau empirique des tendances de comportement. C’est donc sur la dimension doctrinale de toute culture, qu’elle soit locale ou globale, qu’il faut maintenant s’attarder.

Doctrine et règles

Un premier niveau est constitué par ce qu’on peut considérer, en continuant ici le parallèle avec l’art de la guerre et la science militaire, une « doctrine opérationnelle25 ».

Cet art spécifique s’articule à une doctrine, étant entendu qu’on parle ici de la doctrine opérationnelle, c’est-à-dire de l’ensemble des concepts et des règles qui encadrent le développement des forces et des moyens. On peut affirmer d’ailleurs que, compte tenu du caractère toujours déclaratoire pour une longue période d’un art militaire, sauf à n’étudier que les périodes de guerre, cet art s’incarne dans une doctrine, et ses conditions de mise en œuvre. Il est alors tentant d’établir un parallèle entre la doctrine, comme ensemble de règles strictes encadrant l’autonomie des agents, et les règles dans la vision hayekienne. Pourtant, ce parallèle met en lumière une limite propre à la logique hayekienne26, en particulier à sa propension aux règles situées au-delà des capacités de modification des agents, c’est-à-dire l’équivalent d’une Constitution.

Appliquée au domaine militaire, une telle logique nous conduirait à ce que les théoriciens militaires soviétiques ont en leur temps qualifié de doctrine stéréotypée et prévisible, deux qualificatifs très négatifs à leurs yeux. En fait, la capacité à modifier les règles, à les faire évoluer est importante et ne peut être laissée aux opérateurs directs sous peine d’introduire un facteur d’incohérence. On est donc obligé de penser l’intervention discrétionnaire, qu’il s’agisse de celle de l’état-major ou du gouvernement. Mais c’est de l’interaction permanente entre représentations et éléments matériels, qu’ils constituent des contraintes ou des opportunités, que découlent les processus d’évolution avec leur part d’irréversibilité.

C’est pourquoi l’écart entre doctrine proclamée et politiques mises en œuvre ne saurait se réduire à des scories, des impuretés, des frictions dues à la faiblesse des hommes comme à la dureté des temps. Il est l’essence même d’un processus dynamique témoignant du double mouvement d’abstraction des expériences passées et de critique par les faits des théorisations présentes. Il s’enracine dans l’inévitable décalage temporel entre le rythme des ajustements intellectuels, les transformations des systèmes de représentations à la suite de surprises plus ou moins radicales, et celui des transformations des appareils suscitées par ces ajustements même. En ce sens, toute doctrine est par nature inachevée, en crise. C’est l’évolution de cet écart, l’analyse de possibles dérapages soit vers l’empirisme soit vers le doctrinaire ou au contraire nous informe sur l’émergence des pathologies que l’on a évoquées.

Il est donc important de repérer ce qui peut constituer un « style » dans une activité donnée. Suite à S.R. Barant27, on appellera ainsi un ensemble de pratiques et de comportements, explicites ou implicites, particuliers à une communauté, et que l’on retrouve de manière régulière dans la solution de problèmes donnés. Le « style » joue ici le rôle d’un acte réflexe, alors que la doctrine apparaît comme une construction plus consciente. Ce qui caractérise tout art militaire, c’est la combinaison des deux, du style et de la doctrine, du réflexe et de la décision consciente. Cette articulation se retrouve dans les cultures économiques, qu’elles soient locales ou globales.

Le processus de formation de cet ensemble doctrine-style passe par une dimension de connaissance implicite qui peut être en partie collective. Il incorpore aussi un processus d’apprentissage, ce dernier étant compris comme un processus qualitatif où les agents concernés adoptent de nouvelles règles de pensée qui modifient leur perception du monde28. Mais il passe encore par des formulations explicites, des moments d’institutionnalisation, la production de textes de référence.

Ce problème dépasse l’opposition classique entre théorie et pratique. Les différences entre les processus et les systèmes de représentation ne sont pas uniquement dues aux innombrables frictions qui naissent en permanence de la confrontation avec le monde réel. Une dimension essentielle tient aussi à la mystification des représentations. L’irruption permanente d’événements imprévus, les innovations qui naissent spontanément de la confrontation entre les actions des agents, introduisent une incertitude irréductible qui n’est nulle part plus sensible que sur le champ de bataille29. Cette incertitude interdit le recours à des plans savamment structurés, sous peine d’échec30. Mais, elle interdit aussi de laisser les agents libres d’agir à leur entière initiative, car leurs capacités cognitives seraient rapidement saturées par la quantité même des informations tout comme par la diversité de leur nature et leur hétérogénéité, qui surgissent du conflit comme de la compétition31. Cela découle de notre conception de la connaissance construite socialement, même si elle peut s’approprier individuellement.

La dimension sociale est incontestablement première. C’est pourquoi une prise en compte sérieuse du problème de l’incertitude invalide par contre la démarche de l’individualisme méthodologique. Le mouvement ne va pas de manière univoque de l’individu au collectif mais en permanence et simultanément du collectif à l’individu et vice versa. Le problème de l’agrégation des comportements a donc pour contrepartie celui des déterminations collectives. Ce perpétuel double mouvement n’est pas régi, si ce n’est à long terme, par une quelconque loi de l’équilibre entre les deux pôles. Il admet des moments historiques, de dimension comme de fréquences variables, où l’un des pôles devient dominant.

Il faut donc penser les périodes spécifiques où l’un domine l’autre, comme les états de ferveur collective qu’elle soit religieuse, politique, sportive ou guerrière ou encore ceux induits par les grandes bulles spéculatives, ainsi que les basculements d’une période à l’autre. C’est ici qu’il faut revenir à l’incertitude, à la fois comme ignorance des états futurs et de leur probabilité d’occurrence.

Règles et systèmes

L’incertitude qui menace en permanence les agents individuels comme collectifs d’un risque de saturation de leurs capacités cognitives conduit donc à produire des systèmes de règles, codifiés de manière plus ou moins formelle en doctrine. Ces règles entrent immédiatement en interaction dynamique avec l’institution, le « système » qui les produit. Il en découle un nouveau niveau de problèmes, suivant que l’on est en présence d’un système dit « centralisé » ou « décentralisé32 ».

Le premier cas de figure trouve son illustration dans l’armée britannique, de la Première ou de la Seconde Guerre mondiale. Une planification minutieuse assujettit les acteurs à un scénario qui cesse, à un moment donné, de correspondre à la réalité. Il est intéressant de constater que, même après quatre années de combats, cette tradition de l’armée britannique perdura dans la Seconde Guerre mondiale33, comme le montre le cas de l’offensive menée au sud-ouest de Caen le 26 juin, l’opération Epsom. En dépit d’une impressionnante supériorité matérielle, et d’un contrôle absolu des opérations aériennes, l’opération ne réussit pas à percer la défense allemande du fait de son caractère bien trop rigide35.

Le second cas de figure correspond au commandement américain au Viêtnam. La facilité même avec laquelle l’armée américaine pouvait collecter des informations, combinée à une excessive centralisation, a abouti à ce que cet historien appelle une « pathologie informationnelle36 ». C’est bien cette notion que l’on voit aujourd’hui resurgir dans le travail sur les effets pervers des systèmes d’information, que ce soit dans le domaine militaire ou dans le domaine financier, travail que l’on a analysé au chapitre III37.

Dans ces deux exemples, on a un style qui plonge ses racines à la fois dans les traditions des institutions concernées, mais aussi dans une certaine culture du rapport au fait matériel (et dans le cas américain du rapport aux objets incorporant une technique avancée).

Certains individus concernés en sont conscients et cherchent à se dégager de ce style. Pour ce qui concerne l’armée américaine, le débat sur la « révolution dans les affaires militaires » engagée à partir des années 1980 en a été un exemple. Cependant, au moment même où ces lignes sont écrites38, l’incapacité de l’institution militaire américaine à gérer la situation en Irak en dépit de la croissance exponentielle des systèmes d’information et de gestion de cette dernière, semble montrer la persistance du style. Encore une fois l’institution militaire s’est laissée noyer dans une accumulation de signaux dont elle n’arrive pas à tirer le sens. La « pathologie informationnelle », elle-même issue de la fascination pour les techniques avancées et de cette croyance, profondément ancrée dans la culture américaine, en l’existence de solutions techniques à des problèmes politiques, perdure en dépit des leçons historiques.

Inversement, la recherche de marges de flexibilité face à l’incertitude, comme on peut la trouver dans l’armée israélienne, n’est pas toujours une garantie de succès. Ce système fut qualifié par Moshe Dayan lui-même de « chaos organisé39 ». S’il permet la mise en place d’un processus d’apprentissage flexible tenant compte de l’évolution des situations locales, il peut aussi aboutir à une perte brutale de coordination conduisant à des échecs plus ou moins graves, comme dans la guerre de 197340.

Le recours à une large décentralisation impose alors le recours à des règles qui sont justement constitutives du « style » que l’on a évoqué. Une large décentralisation impose aussi de recourir à des structures d’organisation standardisées, issues elles de la doctrine. Ces règles et structures ne sont rien d’autre que des connaissances accumulées et coagulées41, où des systèmes visant à réaliser cette accumulation des connaissances42.

Ces règles et structures permettent de stabiliser les lignes informationnelles entre des acteurs auxquels on a laissé des très grandes marges d’autonomie dans la décision. Elles permettent, ou sont censées permettre, une convergence des anticipations et des représentations. Encore faut-il que ces règles et structures conservent leur statut d’instruments heuristiques. Cela impose l’existence de conditions de stabilité qui, à en croire les récits des combats de 1973, n’ont pas toujours été réunies. Les règles d’action se sont transformées en une idéologie infectant le processus de décision. La volonté de certains officiers israéliens de contre-attaquer à tout prix dès les premières heures du conflit – la doctrine officielle de l’armée israélienne consistant à privilégier l’offensive – aboutit à des échecs tactiques sanglants. La doctrine a cessé de fonctionner comme un corps de représentations partagées, permettant de faire converger les analyses d’une situation donnée entre agents décentralisés, pour se transformer en une production de représentations mystifiées de cette réalité.

« Les tankistes de Gonen43 fonçaient un peu au hasard le long des axes menant au canal ; […] L’infanterie égyptienne était censée prendre ses jambes à son cou. Bien au contraire, elle résista et alla jusqu’à clouer au sol les blindés israéliens ; le phénomène apparut tellement inouï qu’il fut ressenti comme déloyal44. »

Cette transformation du rôle de la doctrine ne remet pas en cause son fonctionnement comme cadre cognitif collectif. On peut, au contraire, considérer qu’elle en est une apothéose. Mais cette transformation, telle qu’elle a été analysée par Martin van Creveld, renvoie aussi à des phénomènes institutionnels et organisationnels qui ont affecté les forces israéliennes entre 1967 et 197345. Les responsables militaires et politiques ont bien été les acteurs de ces phénomènes, mais l’impact de ces derniers les a dépassés. La conscience individuelle de ces transformations fut, au mieux, parcellaire. Le fonctionnement des structures collectives s’est imposé, même à leur insu, à ces acteurs pour produire un résultat allant à l’inverse de leurs objectifs.

La stabilité des systèmes cognitifs permettant la convergence des représentations et des anticipations ne peut donc se donner d’elle-même. Si l’on renonce au mythe dangereux de la connaissance parfaite et d’un monde sans incertitude, il nous faut penser le problème de la construction de cette convergence. Elle implique la constitution d’un corps de règles, à la fois procédures et hiérarchisation de ces dernières. Seulement, une fois construites ces règles et procédures, elles tendent à prendre une autonomie par rapport aux acteurs humains. Le phénomène est d’autant plus rapide et brutal que le rapport entre l’organisation des forces humaines et l’organisation des forces matérielles, le rapport entre les personnes et les artefacts et la technique qui leur est associée, se modifie rapidement. Ce processus est donc un processus social, au sens où il implique non pas la juxtaposition d’acteurs individuels, mais leur intégration dans un ensemble collectif.

Les cultures locales, confrontées à des changements qualitatifs majeurs, renvoient les acteurs à une culture plus générale, plus globale. L’analyse des processus décisionnels implique la mobilisation des notions de culture et de style, non pas comme des hypothèses saturantes ou des explications résiduelles mais comme des notions centrales à la compréhension des réponses aux phénomènes de la saturation cognitive et de l’incertitude.

Les forces morales au cœur des... | B. Dary