N°55 | Vaincre

Gilles Haberey

Baie des cochons

« Comment avons-nous pu être aussi stupides ? »

19 avril 1961, 17h30, Playa Girón : les derniers membres de la brigade 25062 déposent les armes. Fidel Castro jubile. L’opération Zapata de libération de l’île de Cuba par des opposants soutenus par les États-Unis s’achève en fiasco. Après un bombardement des aéroports et des bases castristes par des avions américains B26 repeints aux couleurs de l’armée de l’air cubaine, mille cinq cent onze hommes avaient débarqué le 16 avril dans la nuit dans la baie des Cochons. Moins de soixante-douze heures plus tard, cent quatorze ont été tués et mille cent quatre-vingt-dix-sept faits prisonniers. Aucune tentative de soulèvement intérieur n’a été observée. Le gouvernement de Castro en ressort renforcé, y compris sur la scène internationale. Pire : le 24 avril, le président John Fitzgerald Kennedy est obligé en conférence de presse de reconnaître l’entière responsabilité des États-Unis dans cette invasion ratée.

Rapidement, une première commission d’enquête est mise en place, dirigée par le général Maxwell Taylor, qui pointe les erreurs de conception tactique avant qu’une seconde, menée par l’inspecteur général Lyman Kirkpatrick3, ne conclue à un défaut des méthodes utilisées par la Central Intelligence Agency (cia)4. Les raisons de l’échec avancées sont multiples : difficulté à évaluer la résistance du gouvernement cubain, déficit de moyens, manque de renseignement sur l’armée cubaine, problèmes d’organisation… Mais l’explication de ce revers est, sans doute, prioritairement à trouver dans les conditions de la prise de décision, ce que reconnaît implicitement le président des États-Unis dans les propos tenus à son plus proche conseiller.

  • Un processus de décision biaisé
  • Le poids d’un renseignement trop orienté

Pour ce qui est du renseignement préalable à la prise de décision, il est acquis que la cia n’a pas été vigilante et rigoureuse. Les réfugiés anticastristes en exil, révolutionnaires trahis ou fervents anticommunistes, ont été considérés comme pleinement fiables. L’Agence a notamment repris à son compte sans la vérifier l’idée que la population se soulèverait à l’annonce du débarquement5. Tout renseignement contradictoire a été écarté, seuls les éléments allant dans le sens d’une opération ont été retenus et validés.

Or il est évident que sans une appréhension rigoureuse de l’environnement et de l’ennemi, toute tentative de prise de décision est instable. Le renseignement a pour tâche de percevoir au plus juste la réalité du périmètre d’action ; le cadre ainsi établi est fondamental pour préciser et orienter la prise de décision. Dans la masse d’informations reçues, parfois contradictoires, il convient de trier ce qui est du ressort de l’essentiel et ce qui est accessoire. Mais qui dit « tri » dit « choix » et « renoncement ». Le sociologue américain Robert Jervis a relevé6 combien une information devient d’autant plus acceptable qu’elle renforce une intuition ou le fruit d’un raisonnement initial. Ainsi les personnes sont fortement influencées par leurs propres attentes, et tendent à ne voir et à ne considérer que ce qui alimente leurs désirs : toute donnée les validant sera jugée appropriée tandis qu’un fait ou un facteur s’y opposant sera estimé non pertinent7. Dès lors, le processus de prise de décision est biaisé d’emblée.

  • Des conseillers individuellement brillants…

Le 17 mars 1960, le président Eisenhower signe un décret autorisant des tentatives de déstabilisation du régime de Fidel Castro, mais sans implication directe des forces armées américaines. Lorsqu’il accède au pouvoir en janvier 1961, John F. Kennedy hérite donc d’un plan déjà avancé8 et doit composer avec des acteurs engagés sur le sujet, mais à des degrés divers. Irving Janis9, ancien psychologue de l’université de Yale, relève que certains d’entre eux sont considérés comme faisant partie de l’élite intellectuelle des États-Unis : Robert McNamara, Douglas Dillon, Robert Kennedy, McGeorge Bundy, Arthur Schlesinger, Dean Rusk, Allen Dulles10, sans oublier les chefs d’état-major des armées. Tous sont des experts. Certains sont en place depuis longtemps, d’autres sont arrivés avec le président nouvellement élu. Théoriquement, des personnalités intelligentes ne peuvent produire que des décisions parfaitement adaptées. Or rien n’est moins sûr. Ainsi le journaliste scientifique britannique David Robson souligne que « les personnes intelligentes et instruites sont, par exemple, moins disposées à apprendre de leurs erreurs ou à recevoir des conseils d’autrui. Et lorsqu’elles se trompent, elles sont davantage en mesure d’élaborer des arguments complexes pour justifier leur raisonnement de sorte qu’elles se montrent de plus en plus dogmatiques »11.

  • … qui mènent à une réflexion de groupe bancale

La mise en commun des compétences vise à essayer d’obtenir, par une approche collective et le croisement des avis, des décisions au plus proche de la réalité. Intuitivement, cette démarche serait de nature à limiter les extrêmes pour obtenir une approche raisonnée et raisonnable. Or la « réflexion de groupe » produit parfois des résultats étonnants. Selon Irving Janis, elle génère, notamment en période de stress individuel et collectif, des déviances qui s’articulent autour de huit caractéristiques :

- l’illusion de l’invulnérabilité : les individus ont le sentiment que le groupe est le plus compétent pour prendre la décision et ne peut se tromper ;

- le sentiment de rationalité : plus le groupe est soudé autour de compétences multiples et croisées, plus il est persuadé de couvrir toute la complexité d’un problème ;

- la croyance en une supériorité morale et intellectuelle : le groupe est convaincu de la justesse de la cause à étudier, phénomène renforcé par le fait de réfléchir sur délégation et au profit d’une très haute autorité. L’isolement (groupe restreint qui ne communique pas avec le reste de l’organisation) renforce ce phénomène ;

- la transformation de l’opposant et de l’environnement en stéréotypes : du fait de préjugés, l’adversaire ou le milieu sont estimés incapables de s’opposer ou de contraindre les orientations et décisions prises par le groupe ;

- la pression de la conformité : les individus doivent se soumettre et s’aligner sur la volonté du groupe au titre de la cohérence d’ensemble12 ;

- l’autocensure : les membres du groupe ne veulent pas déplaire et être exclus ; ils préfèrent donc garder leurs préventions et divergences d’opinions pour eux ;

- l’illusion de l’unanimité : les dissensions internes sont cachées afin de donner le sentiment d’un système puissant, pertinent et cohérent ;

- les gardiens de la pensée : certains membres du groupe s’engagent activement à protéger celui-ci de toute dissidence ou information contraire à ce qu’ils considèrent de nature à remettre en cause la cohésion de l’ensemble13.

Ainsi, pendant les travaux relatifs à l’opération de la baie des Cochons, non seulement le directeur de la cia, Allen Dulles, dirige les débats, mais, en raison de sa personnalité et de sa supposée maîtrise du renseignement, impose le cadre de réflexion. Lorsque le conseiller Dean Acheson souligne le problème du rapport de force initial14, sa remarque est balayée sans qu’aucun membre du groupe ne l’appuie. Arthur Schlesinger, peu convaincu du succès du projet, rédige un mémorandum soulignant les fragilités de l’opération, mais subit la pression du groupe et décide de ne pas le remettre au Président. Kennedy décide donc de suivre les recommandations du groupe et déclenche l’opération qui se révèle être une catastrophe. Au-delà des explications propres à ce cas très spécifique, quels enseignements utiles pouvons-nous en tirer pour aujourd’hui ?

  • Quelles préventions mettre en œuvre ?
  • Considérer l’échec comme une option probable…

Le rapport au risque et la part accordée à la prise de risque sont par nature intégrés à tout choix d’autorité. Dans les méthodes de prise de décision modernes, une fois le but à atteindre défini et les modalités pour y parvenir élaborées, sont étudiés des cas dits « de conduite » visant à préparer des options où la manœuvre serait entravée par l’ennemi ou par des facteurs externes. Ces what if, intégrés dans la planification15, permettent d’anticiper un éventuel blocage de la manœuvre générale. Pour autant, il ne s’agit que d’un procédé pour ajuster un plan sans en remettre en cause l’économie générale.

Le chercheur américain Gary Klein a réfléchi à une technique complémentaire de consolidation de la décision16. Il a développé l’idée d’une premortem analysis intégrée à l’étape d’analyse des modes d’action. Partant du postulat que l’accumulation de données autour d’une méthodologie robuste génère un sentiment dangereux de overconfidence (« sur-confiance »), et fort de l’idée que le plan choisi n’est jamais véritablement contesté au sein d’une organisation, il introduit le besoin d’une méthodologie alternative : il pose comme présupposition qu’au final le plan a échoué, et propose une réflexion pour déterminer les causes de l’échec et identifier les recours de nature à l’éviter.

Pour cela, la mise sur pied d’une équipe externe est privilégiée. Celle-ci, forte d’une compétence professionnelle et d’une expérience opérationnelle avérée, veille à estimer les raisons réalistes pour expliquer l’échec en déclinant les causes sous une forme très concrète, faisant ressortir ce qui est du domaine d’une absence ou d’une mauvaise application de procédures ou de principes. Par ailleurs, les techniques ou les délais de mise en œuvre, l’organisation ou les processus de prise de décision pourront être interrogés. In fine, les raisons de l’échec seront transmises à l’équipe qui a réalisé la planification, non pour réfuter l’approche choisie, mais pour l’obliger à s’interroger sur les failles possibles17. Dans le cas de la prise de décision préalable au lancement de l’opération Zapata, ce processus a été inexistant ; appliqué, sans doute aurait-il suscité une attention plus forte des décideurs, en particulier en matière de renseignement.

  • Choisir un fou… comme garde-fou…

Dans son rapport avec son équipe de planification, qui plus est lorsque celle-ci est composée de personnalités aux talents incontestés, le décideur est parfois démuni et entre dans une asymétrie de compétences voire dans un renversement des légitimités. Le professeur Jean Lebreton, directeur scientifique du mastère spécialisé (mpis) à Centrale Supélec, introduit la nécessité d’intégrer un troisième acteur dans la prise de décision, qu’il nomme « fou du roi »18. Il souligne en particulier que cette personne « devra, par ses commentaires et ses questionnements, déranger, bousculer, chavirer ce que l’on tient trop pour acquis et ce que l’on évite d’affronter dans nos organisations ».

Appelé aussi candide19, ce nouvel acteur doit disposer d’une liberté de ton avec l’autorité responsable et d’une liberté structurelle par rapport aux équipes d’experts. L’idée sous-jacente n’est pas de remettre en cause par principe ou de contrebalancer un travail de groupe, mais d’apporter un regard désinhibé sur les processus ou les décisions retenues, souvent techniquement justes mais parfois peu opératoires. Traditionnellement, le fou du roi vivait à la Cour, ce qui lui permettait d’en maîtriser les codes et d’en identifier les travers et les fragilités20. Dans le même esprit, les armées anglo-saxonnes ont développé le concept de red teaming défini comme « une approche cognitive flexible de la pensée et de la planification spécifiquement adaptée à chaque organisation et à chaque situation. […] Elle utilise des outils et des techniques structurés pour aider à se poser des questions plus pertinentes, à remettre en question les hypothèses explicites et implicites, à exposer des informations que nous aurions manquées sans cela et à développer des alternatives dont nous n’aurions peut-être pas soupçonné l’existence. […] Cela conduit à une meilleure compréhension, à disposer de plus d’options générées par plus d’intervenants (quels que soient le rang ou la fonction tenus), à de meilleures décisions et à un niveau de protection contre les préjugés et les tendances invisibles inhérents à chacun de nous »21.

  • … et un chef pour leader

Les notions de chef et de leader sont souvent confondues : la première renvoie à une position hiérarchique, investie d’une autorité de nature à prendre des décisions au profit d’un groupe, la seconde aux qualités et au caractère d’une personne qui sait conduire un collectif dans une direction donnée. Dans les armées, les deux sont censées être confondues. Or, dans les faits, il arrive qu’un chef ne dispose pas forcément des capacités charismatiques de nature à faire de lui un leader, de même qu’un leader soit limité dans ses actions par le simple fait qu’il n’a pas l’autorité nécessaire pour décider et imposer ses choix.

Pour sa part, un expert est une personne réputée maîtriser la connaissance technique d’un domaine donné pour résoudre des problèmes afférents avec la plus grande efficience22. L’expertise est censée être reconnue par des pairs ou sanctionnée par un niveau de maîtrise. Elle apporte de nombreux bénéfices, parmi lesquels une habitude à analyser tout problème à partir de procédures méthodiques, l’astreinte à une forme de rigueur intellectuelle et une stimulation mentale constante. Les positionnements de l’expert dans la prise de décision sont donc attendus comme rationnels.

Le rapport entre décideur et expert s’éclaire sous l’angle utilitariste : théoriquement, puisque celui qui décide, le chef, est investi d’une autorité, il ne peut y avoir de débat sur le positionnement de l’un par rapport à l’autre. Or l’épisode de la baie des Cochons met en relief le fait que la hiérarchie peut être facilement brouillée. En effet, ainsi que le souligne le chercheur Howard Zinn23, la majeure partie des personnes considère que les experts, au-delà de leurs connaissances scientifiques, seraient toujours plus lucides que les autres citoyens quant aux solutions à apporter et toujours dignes de confiance. Rassurants au travers de l’emploi de termes techniques, formules ou sigles qu’eux seuls semblent maîtriser, ils peuvent aisément capter le processus de prise de décision dans le sens qui leur convient. C’est le cas de la cia lors de la planification de l’opération Zapata. Irving Janis24 relève ainsi que « lors de chaque réunion, au lieu d’introduire l’ordre du jour pour permettre l’expression d’avis contradictoires, le président Kennedy permettait aux représentants de la cia de prendre la direction de tous les échanges. Le président leur octroyait ainsi la possibilité de réfuter immédiatement chaque doute que l’un des autres membres pouvait exprimer, au lieu de demander si quelqu’un d’autre avait le même doute ou voulait creuser les implications du point qui avait été soulevé ».

De toute évidence, le président (le chef) n’oriente pas son équipe et la laisse entre les mains d’un expert qui se trouve, par ailleurs, être un leader, en l’occurrence Allen Dulles. L’autorité de fait s’étant déplacée du chef vers l’expert, la prise de risque n’est plus contrebalancée par un juste sens des responsabilités. En ce sens, le président Kennedy est bien le premier responsable de l’échec de l’opération.

L’opération de la baie des Cochons est un fiasco pour des raisons multiples. Depuis 1961, nombreux sont les spécialistes et les historiens qui ont souligné la faiblesse du renseignement, les erreurs tactiques, le manque de coordination des acteurs, le refus d’intégrer les capacités des forces armées américaines. L’analyse par la distorsion du processus de prise de décision a été moins avancée, tant du fait de l’absence de sources – le rapport Lyman Kirkpatrick met trente-six ans à être publié – que de la sensibilité politique des acteurs concernés.

Cet exemple historique ne remet pas en cause le principe de la prise de risque ou l’essence même de la réflexion de groupe. En revanche, il permet de souligner combien les fragilités des hommes et des processus peuvent peser sur la pertinence des choix et sur le résultat final. La question du discernement est posée, tout autant que la capacité à accepter des conflits pertinents dans une équipe, à les résoudre complètement et équitablement par le jeu de débats et d’informations complémentaires, puis à arbitrer. Quitte à renoncer, in fine, au projet initial25. Fort de cet échec, en octobre 1962, à l’occasion d’une nouvelle crise avec Cuba, le président Kennedy saura démontrer qu’il a tiré, au plan décisionnel, toutes les leçons de l’opération Zapata…


1Propos attribués au président John Fitzgerald Kennedy par son conseiller, Ted Sorensen, au lendemain de l’échec de l’opération de débarquement de la baie des Cochons.

2Formation militaire composée d’exilés cubains anticastristes entraînée et formée par la cia en mai 1960 en vue d’attaquer et de renverser le régime communiste cubain.

3Lire Bay of Pigs declassified: the Secret cia Report on the Invasion of Cuba (National Security Archive Documents), The New Press, 1998.

4Son directeur, Allen Dulles, est limogé le 28 novembre 1961 ; son adjoint, Charles Cabell, et l’adjoint en charge de la planification, Richard Bissell, sont également écartés.

5Le rapport Lyman Kirkpatrick confirme que la cia ne disposait d’aucun élément avéré permettant d’assurer qu’une part significative de la population rejoindrait les anticastristes.

6Lire R. Jervis, How Statesmen think: the Psychology of International Politics, Princeton University Press, 2017, et Perception and Misperception in International Politics, nouvelle édition Princeton University Press, 2017.

7Penser, à l’occasion de la planification de l’opération aéroportée Market Garden (septembre 1944), à la réaction du chef du 1er corps aéroporté, le général Browning, qui refuse de valider le renseignement transmis par les Américains et la population hollandaise concernant un regroupement de blindés aux alentours d’Arnhem. Il n’hésite pas, devant son état-major, à considérer que les opposants à cette opération risquée ont perdu leurs nerfs. L’avenir confirmera la présence des 9e ss Panzer Division Hohenstaufen et 10e ss Panzer Division Frundsberg sur les lieux. Lire en particulier D. P. Houghton “Understanding Groupthink: The Case of Operation Market Garden”, The us Army War College Quarterly: Parameters, vol. 45-3, 2015.

8Des anticastristes s’entraînent déjà au Guatemala sous le contrôle de la cia.

9I. L. Janis, Victims of Groupthink: a Psychological Study of Foreign-policy Decisions and Fiascoes, Houghton Mifflin, 1972.

10Respectivement secrétaire d’État à la Défense, secrétaire du Trésor, ministre de la Justice, conseiller à la sécurité, assistant spécial, secrétaire d’État et chef de la cia.

11D. Robson, Pourquoi l'intelligence rend idiot, Paris, Fayard, 2020.

12Penser à l’expérience du psychologue Solomon Asch (1951) qui démontre, avec ses lignes témoin, la puissance du conformisme de groupe.

13Graham Allison, professeur à l’université de Harvard, complète cette approche en ajoutant que certains acteurs du groupe peuvent volontairement ne pas faire preuve de raison, mais assurer un jeu dont les ambitions personnelles ne sont pas absentes (autorité, influence ou prestige). Lire G. Allison, Essence of Decision: explaining the Missile Cuban Crisis, LittleBrown and Company, 1971.

14Mille cinq cents anticastristes contre deux cent mille militaires cubains.

15Ce point est en particulier intégré dans la Military Decision making Process de l’armée de terre américaine. Lire https://militarydecisiongr.files.wordpress.com/2015/05/a-guide-to-the-mdmp.pdf, en particulier pp. 39-52.

16G. Klein, Sources of Power. How People make Decisions, mit Press, 1999.

17L’analyse premortem est encore très peu utilisée dans les états-majors français alors qu’elle est connue et couramment employée chez leurs alliés d’outre-Atlantique. Ce constat s’explique sans doute par un aspect organisationnel qui amène, en France, à concentrer l’état-major sur la production d’ordres plutôt que sur la consolidation des travaux en amont de la planification, un frein intellectuel qui rend encore aujourd’hui la critique positive de travaux sensible et comprise comme une remise en cause des responsables, mais aussi peut-être par une culture militaire qui ne privilégie pas, dans les cursus, la maîtrise de l’art de la planification opérationnelle…

18Lire les actes du colloque « Face à la haute intensité, quel chef tactique pour demain ? », organisé par le Centre de doctrine et d’enseignement du commandement (cdec) à l’École militaire, à Paris, le 6 février 2020. Dans l’esprit du professeur Lebreton, l’objectif de ce fou du roi ou bouffon n’est pas uniquement de faire rire, mais d’utiliser l’humour et la proximité pour asséner des perceptions ou des vérités masquées par le poids de la hiérarchie.

19Le mot « candide » vient du latin candidus qui signifie « blanc » et a pour second sens « de bonne foi, avec candeur, simplement ». Voltaire donne ce prénom au héros de son ouvrage Candide ou l'optimisme paru en 1759. Il le décrit en ces termes : « Il avait le jugement assez droit, avec l’esprit le plus simple : c’est je crois, pour cette raison qu’on le nommait Candide. » L’enfant des Habits neufs de l’empereur, fameux conte d’Andersen, remplit la même fonction, désinhibé car externe aux liens hiérarchiques.

20Le recours à des cabinets d’audit externes pour juger de la pertinence d’un système ou d’une organisation bute souvent sur la minoration ou l’absence de prise en compte des cultures, souvent non écrites, internes.

21Lire tradoc G2 Operational Environment Entreprise, The Army’s Guide to making Better Decisions, v. 9, 2019, p. 23. https://community.apan.org/wg/tradoc-g2/ufmcs-red-team-central/

22Pour Philippe Roqueplo, « il y a expertise dès lors que les sciences sont convoquées pour éclairer, justifier ou fonder au moins partiellement une décision. L’expression d’une connaissance scientifique ne revêt donc une valeur d’expertise que dans la mesure où elle s’articule à un processus décisionnel et c’est précisément cette articulation qui lui confère valeur d’expertise » (Entre savoir et décision, l’expertise scientifique, inra Éditions, 1997).

23Lire H. Zinn, Désobéissance civile et démocratie, Marseille, Agone, 2010.

24I. L. Janis, op. cit., p. 42.

25« Une des qualités les plus essentielles d’un général, c’est de ne pas s’entêter de projets qui frappent et qui séduisent, parce qu’ils peuvent avoir des suites très fâcheuses. On renonce avec peine à une entreprise une fois commencée, parce qu’on s’expose, en quelque manière, de manquer de prévoyance ou de constance, ce qui est également mortifiant pour l’amour-propre ; cependant il y a plus de gloire à revenir sur ses pas qu’à persister dans ses fautes » (H. Lloyd, Histoire des guerres d’Allemagne, Paris, Economica, 2001).

POUR NOURRIR LE DÉBAT

A. Paillard | Les Athéna en guerre