N°50 | Entre virtuel et réel

Ronan Doaré

La robotisation du champ de bataille : un modèle juridique en question

Depuis le début des années 2000, l’usage de drones armés est devenu de plus en plus fréquent. Mobilisés pour lutter contre le terrorisme et dotés, le cas échéant, de fonctions létales, ces « aéronefs non habités » sont à la fois parés de toutes les vertus et accablés d’autant de maux, car ils favorisent, entre autres, des opérations extra judiciaires telles que les éliminations ciblées. L’usage de systèmes armés robotisés ne se limite naturellement pas aux drones aériens, mais concerne également des engins terrestres qui peuvent être déployés sur des théâtres, nationaux ou non, au cours d’opérations menées par les forces de police et de gendarmerie, et, le cas échéant, par des militaires. Dès lors se pose la question de l’encadrement juridique du déploiement de systèmes robotisés aux côtés de ces forces, alors même que la doctrine a longtemps été peu intéressée par la question1.

La Revue stratégique de défense et de sécurité nationale de 2017 a mis en avant de nouvelles formes de guerre et de conflictualité. Le texte souligne « la croissance des menaces dites asymétriques, la montée en puissance d’États et d’organisations non étatiques, via en particulier la prolifération de systèmes conventionnels sophistiqués voire d’armes de destruction massive, et l’émergence d’une compétition militaire intensifiée entre grandes puissances ». Parallèlement, les auteurs mentionnent le risque fort de ruptures technologiques et numériques. Ainsi, « la révolution numérique en cours, stimulée par les usages publics et professionnels, devrait apporter les ruptures technologiques les plus importantes. L’hyper-connectivité, les technologies du big data, l’Internet des objets et la robotique sont quelques exemples d’opportunités majeures pour la défense. L’intelligence artificielle, en particulier, est amenée à jouer un rôle central dans les systèmes de défense, où elle contribuera de façon significative à la supériorité opérationnelle, mais induira de nouveaux risques ». Le développement de nouvelles technologies en matière de défense et de sécurité (robotisation, soldat augmenté, intelligence artificielle et cyberdéfense) entraîne des interrogations quant au cadre juridique applicable, qui mobilise, suivant les cas, le droit français, le droit de l’Union européenne et le droit international. Si le contentieux, pour l’heure, est faible, les mutations attendues sur le champ de bataille imposent d’examiner quels sont les cadres juridiques applicables, notamment en matière de responsabilités.

Si la pleine mesure de la dimension cyber et de ses implications a été prise en compte2, de nombreux débats sont en cours sur l’encadrement à adopter pour d’autres technologies, aux confins du réel (le champ de bataille) et de l’irréel3. La robotisation du champ de bataille est emblématique des questions soulevées en matière juridique, mais aussi, et peut-être d’abord, en matière éthique. En effet, les évolutions des armements, tout comme leurs conditions d’emploi, ont toujours suscité méfiance et inquiétudes. Le Comité d’éthique de la défense, installé le 10 janvier 2020 par Florence Parly, ministre des Armées, et présidé par Bernard Pêcheur, président de section honoraire au Conseil d’État, a rendu deux avis importants, l’un, en décembre 2020, sur le soldat augmenté, et un second, le 29 avril 2021, sur les systèmes d’armes létaux autonomes (sala). Le premier prend en compte la nécessité « de maintenir la supériorité opérationnelle de nos armées dans un contexte stratégique exigeant », mais aussi les règles applicables, dont le droit international humanitaire, sans oublier le « respect des valeurs fondamentales de notre civilisation, notamment le respect de la dignité de la personne humaine ». Le second s’attache à distinguer les sala des systèmes d’armes létaux intégrant de l’autonomie (salia), qui doivent demeurer sous contrôle de l’homme. Ces systèmes robotisés imposent de s’interroger sur la pertinence de leur statut, mais aussi sur le système de responsabilité à mobiliser et les évolutions souhaitables.

  • Quel statut pour les robots militaires ?

Dans une résolution du 16 février 20174, le Parlement européen a considéré qu’il « est possible, en fin de compte, qu’à long terme, l’intelligence artificielle surpasse les capacités intellectuelles de l’être humain », ajoutant qu’« un développement et une utilisation accrus des processus décisionnels automatiques et algorithmiques ont sans aucun doute une incidence sur les choix opérés par les personnes privées (comme les entreprises ou les internautes) et les autorités administratives, judiciaires ou autres autorités publiques lorsqu’elles prennent une décision […] qu’il est nécessaire d’intégrer des garanties et des possibilités de contrôle et de vérification par l’homme dans les processus décisionnels automatiques et algorithmiques ».

Aujourd’hui, en application de la distinction classique en droit civil qui oppose les personnes et les biens, les robots doivent être considérés comme des biens meubles par nature au sens de l’article 527 du Code civil5. De manière là aussi classique, le robot, bien meuble, est, par conséquent, placé sous la responsabilité de son gardien. N’étant pas un sujet de droit, il n’a ni responsabilité civile ni responsabilité pénale. Sur un plan militaire, le robot militaire terrestre, s’il appartient à l’État, engagera la responsabilité de ce dernier à l’occasion des préjudices que pourra générer son activité. La doctrine est aujourd’hui divisée sur la nécessité ou non de faire évoluer un tel statut. Il s’agirait, pour certains, de doter les robots de la personnalité morale et donc d’un statut juridique propre. On assigne habituellement à la personnalité morale deux finalités : la recherche de l’efficacité dans l’action et « l’aménagement des responsabilités pécuniaires »6. La reconnaissance d’une personnalité juridique confère à son titulaire des droits classiques, notamment subjectifs, et lui impose également des obligations dont, en particulier, celle de répondre sur son patrimoine des conséquences de son action ou, le cas échéant, de son inaction. Dès lors, quel peut être l’intérêt de transposer aux robots une telle institution ? Les éléments du débat doivent être articulés autour de deux considérations : la question de la légalité d’une telle évolution et celle de son opportunité. Faire évoluer le droit est possible. Mais est-ce souhaitable ? Au terme de la confrontation des différentes opinions7, la réponse est a priori négative. L’objectif de cette évolution ne serait-il pas, de manière avouée ou inavouée, de soustraire le propriétaire (le gardien de la chose) du système automatisé à une quelconque forme de responsabilité ?

Finalement, la question centrale n’est pas tant celle du statut du robot que celle du système de responsabilité qui doit être retenu lors de la mise en œuvre de robots de défense et de sécurité sur le territoire national et hors de ce territoire à l’occasion d’opérations extérieures (opex).

  • Quel système de responsabilité ?

L’utilisation de systèmes robotisés sur le champ de bataille impose de concilier deux impératifs. Le premier est la possibilité de préserver le potentiel humain8. Un rapport du Sénat de 2006 portant sur le rôle des drones dans les armées9 soulignait que le déploiement de tels systèmes permet de « s’affranchir des contraintes inhérentes à l’avion piloté, qui tiennent, pour l’essentiel, aux dangers pesant sur la vie de l’équipage et aux limites physiques de ce dernier, tout en bénéficiant des atouts spécifiques au renseignement aérien ». Le second est de considérer que l’usage de systèmes robotisés est soumis au droit. Cependant, si leur usage génère des préjudices, des problèmes d’imputabilité peuvent se poser. En l’état du droit, que l’on espère constant sur ce point, la responsabilité ne peut pas être imputée au robot, mais, suivant les cas, à son propriétaire (l’État), à son utilisateur (un militaire), à un supérieur hiérarchique (un chef militaire) ou, encore, au fabricant (un industriel). Dans certains cas, il sera possible de mobiliser la responsabilité du validateur ou du certificateur qui n’auraient pas bien effectué leur campagne de test ou de certification.

Les questions gravitant autour des régimes de responsabilités pourraient devenir encore plus pertinentes si devaient être un jour déployés des sala définis comme « un système d’arme qui, une fois activé, est capable de décider seul, c’est-à-dire, sans intervention ni supervision humaine, du ciblage et du déclenchement de la frappe, en fonction d’un environnement changeant auquel il s’adapte »10. La question des régimes de responsabilités s’impose comme la question centrale, une fois réglées les interrogations politiques et éthiques. Jusqu’à présent, les robots ont tous en commun d’être télé-opérés. On parle de salia (avec présence de l’homme dans la boucle) pour écarter l’hypothèse de robots strictement autonomes, qui ne répond pas à une simple spéculation mais qui rend compte de l’état de l’art technologiquement très avancé. D’ailleurs, il faut constater qu’à « la différence des forces aériennes équipées de drones d’attaque, les forces terrestres demeurent encore réticentes pour employer des robots avec des capacités d’attaque. La maîtrise du feu au sol reste l’apanage humain sans interface technologique »11.

Le point de départ de la réflexion autour des questions de responsabilités liées à la mise en œuvre d’engins robotisés est de considérer que si le préjudice est occasionné par un robot, la responsabilité est humaine. L’imputation se fera, sauf textes contraires, selon les règles classiques. La notion de responsabilité renvoie à l’obligation faite aux personnes physiques et morales de réparer les dommages occasionnés par leurs activités. Le spectre des questions de responsabilités est large. En effet, la question ne se réduit pas à la seule dimension réparatrice, mais s’étend également aux dimensions disciplinaire et pénale.

Dans le cas d’une intervention sur un théâtre extérieur, le Conseil d’État a adopté et applique une position de principe suivant laquelle « les opérations militaires ne sont pas, par nature, susceptibles d’engager la responsabilité de l’État y compris sur le fondement de la rupture d’égalité devant les charges publiques »12. Cependant, agissant le plus souvent sur des théâtres extérieurs sous mandat d’une organisation internationale (onu, otan), le patrimoine de cette organisation internationale pourra, sous conditions, être sollicité13.

L’article L.4122-1 du Code de la défense fixe très précisément les obligations et les responsabilités des militaires. Il prévoit que « les militaires doivent obéissance aux ordres de leurs supérieurs et sont responsables de l’exécution des missions qui leur sont confiées. Toutefois, il ne peut leur être ordonné et ils ne peuvent accomplir des actes qui sont contraires aux lois, aux coutumes de la guerre et aux conventions internationales. La responsabilité propre des subordonnés ne dégage leurs supérieurs d’aucune de leurs responsabilités ». Il faut analyser la mise en œuvre de systèmes robotisés en envisageant le militaire comme un opérateur et le système robotisé, armé ou non, comme un engin télé-opéré. Par conséquent, le militaire occupe une position décisive, inséré dans une chaîne de commandement dont il applique les ordres. Sauf hypothèse de faute personnelle14, qui reste exceptionnelle en raison de la force attractive de la faute de service, le militaire sera éventuellement inquiété sur le plan pénal. Sont appliquées, ici, les dispositions du Code pénal, du Code de procédure pénale et du Code de justice militaire15.

Enfin, la responsabilité du fabricant ne peut être ignorée. Vis-à-vis des systèmes robotisés, celui-ci intervient à plusieurs stades : à la conception puis à la fabrication. Il assure, le plus souvent, des actions de formation. En examinant sa responsabilité, il faut bien entendu distinguer la responsabilité contractuelle (de l’industriel vis-à-vis de l’État) de la responsabilité délictuelle (du militaire ou du fabricant vis-à-vis d’une victime tierce au contrat).

La doctrine, relativement peu abondante sur les questions de responsabilité en matière de robotique, s’intéresse principalement à la mise en cause des militaires au combat. Concernant les responsabilités du fabricant seront appliquées les règles classiques16 des responsabilités contractuelle17 et extra-contractuelle.

  • Les évolutions attendues

La première évolution à venir est, sans nul doute, la prise en compte par le droit interne et par les instruments internationaux de la révolution attendue avec la mise en œuvre de robots pour des usages civils et militaires (robots médicaux, drones de surveillance, fonctions létales…). Les fonctions en matière de sécurité et de défense sont déjà nombreuses (lutte contre la piraterie, missions de reconnaissance, déminage, surveillance des frontières) et sont amenées à être étendues (drones armés). La première nécessité, tant en matière aérienne que terrestre, est de lever, le cas échéant, les barrières juridiques à la circulation de ces différents engins. En effet, leur particularité est d’être, juridiquement, des véhicules non habités. Or la législation s’applique, sauf exception, aux véhicules habités. En matière aérienne, il faut rendre compatible le vol de drones avec les aéronefs civils. Les robots terrestres se heurtent, pour leur part, à un obstacle de taille : le Code de la route ne prévoit pas la circulation de véhicules non habités. Dès lors, le développement des usages, notamment en matière de sécurité, de systèmes robotisés impose une adaptation des règles actuellement en vigueur.

La deuxième nécessité réside dans l’étude d’un régime de responsabilité adapté, qui permettrait de lever les réticences voire les inhibitions fortes à l’introduction de systèmes robotisés en matière civile comme en matière militaire. Il s’agit d’autant de freins à l’introduction de technologies existantes auxquelles peuvent désormais prétendre les forces de sécurité et de défense, et dont on sait tout le profit qu’elles pourraient en tirer.

Enfin, on parle toujours du robot comme d’un objet unique. Or nous aurons, à terme, des systèmes de robots, des essaims avec une intelligence collective. En termes de responsabilité, il sera nécessaire d’examiner le comportement de chaque robot mais aussi de l’ensemble de la « meute », qui aura ses propres codes de déplacement et ses propres missions.

Deux évolutions majeures peuvent être évoquées. Il s’agit tout d’abord de la responsabilité du fait des choses énoncée par le Code civil dans son article 1242 nouveau, qui dispose que l’« on est responsable non seulement du dommage que l’on cause par son propre fait, mais encore de celui qui est causé par le fait des personnes dont on doit répondre, ou des choses que l’on a sous sa garde »18. Différents régimes spécifiques ont été installés. Il en va ainsi, tout d’abord, pour les animaux. Ainsi l’article 1243 nouveau du Code civil prévoit que « le propriétaire d’un animal, ou celui qui s’en sert, pendant qu’il est à son usage, est responsable du dommage que l’animal a causé, soit que l’animal fût sous sa garde, soit qu’il fût égaré ou échappé ». À ce régime spécifique très ancien ont été ajoutés plus récemment d’autres régimes. C’est le cas du régime spécial d’indemnisation des victimes d’accidents de circulation consacré par la loi du 5 juillet 198519 ou encore de la loi du 19 mai 1998 qui transpose en droit interne la directive communautaire du 25 juillet 1985 sur la responsabilité des produits défectueux20.

Plusieurs arguments plaident en faveur du développement d’une responsabilité du fait des choses à l’occasion d’un dommage causé par un robot. Premièrement, ce régime a le mérite de la simplification de règles complexes. Ainsi, « le fait que le dommage ait été causé non pas par le militaire directement mais par le robot a une double incidence : d’abord au niveau du lien de causalité entre l’infraction, ses conséquences et son auteur, la relation se trouvant fragilisée par l’introduction de l’intermédiaire robotisé, ce qui complique la tâche du juge ; au niveau de l’existence de l’intention du militaire ensuite, celle-ci s’avérant difficile à prouver dans le cadre d’une semi-autonomie de l’engin »21. Deuxièmement, un tel régime spécifique, construit sur le modèle de la responsabilité du fait des animaux, présente le grand avantage d’apporter une réponse adaptée à la problématique complexe de la responsabilité des systèmes robotisés autonomes22. Appliquée à la robotisation, la responsabilité du fait des choses trouve son pendant, en matière administrative, dans la responsabilité sans faute fondée sur le risque. L’essentiel est bien de déterminer un régime de responsabilité apte à satisfaire la revendication légitime d’une réparation des préjudices et à sécuriser leur emploi.

Reste une dernière hypothèse formulée à plusieurs reprises, qui réside dans la mise en place de mécanismes de substitution à la responsabilité civile incarnés par les assurances qui répondent, finalement, à la demande de socialisation des risques.

L’onu elle-même réfléchit à un cadre juridique23 pour l’utilisation des armes létales autonomes. La question ne fait pas l’unanimité au sein des États-membres et différentes ong, dont Human Rights Watch, ont adopté une position d’interdiction. La doctrine française, à la suite de l’avis du Comité d’éthique de la défense24, plaide pour une interdiction des sala, mais semble être en faveur de systèmes d’armes semi-autonomes, c’est-à-dire avec l’homme dans la boucle.

1 Altran, « Réflexions juridiques sur les conflits opposant les robots et les soldats », Les cahiers du chear, septembre 2004. De manière plus récente, deux ouvrages sont entièrement consacrés aux questions juridiques gouvernant la robotique : A. Bensoussan et J. Bensoussan, Droit des robots, Larcier, 2015, et N. Devejans, Traité de droit d’éthique de la robotique civile, leh Édition, 2017.

2 En particulier par la loi de programmation militaire du 18 décembre 2013.

3 Voir le Rapport d’information de l’Assemblée nationale, par la Commission de la Défense nationale et des forces armées en conclusion des travaux d’une mission d’information sur les systèmes d’armes létaux autonomes, Cl. de Ganay et F. Gouttefarde, 22 juillet 2020, n° 3248.

4 Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015-2013, inl).

5 « Les biens sont meubles par leur nature ou par la détermination de la loi. »

6 J.-P. Gridel, « La personne morale en droit français », Revue internationale de droit comparé, vol. 42, n° 2, 1990, p. 496.

7 P. W. Singer, « Ethical Implications of Military Robotics », 2009 ; P. M. Asaro, « Robots and Responsability from a Legal Perspective ».

8 V. Altran, op. cit.

9 Rapport d’information du Sénat, fait au nom de la Commission des Affaires étrangères, de la Défense et des forces armées, à la suite d’une mission sur le rôle des drones dans les armées, M. Bergé-Lavigne et Ph Nogrix, session ordinaire de 2005-2008, n° 215.

10 J.-B. Jeangène Vilmer, « Terminator Ethics. Faut-il interdire les “robots tueurs” ? », Politique étrangère, 2014/4, pp. 151 et s.

11 F. Cornut-Gentille, « Avis présenté au nom de la commission de la Défense nationale et des forces armées sur le projet de loi de finances pour 2012 », enregistré à la présidence de l’Assemblée nationale le 25 octobre 2011, n° 3775, p. 169.

12 CE 23 juillet 2010, Sociétés Touax et Touax rom, req. n° 328757 ; H. Belrhali-Bernard, « L’îlot de l’irresponsabilité de l’État du fait des opérations militaires », ajda, 2010, p. 2269.

13 J.-M. Sorel, « La responsabilité des Nations unies dans les opérations de maintien de la paix », International Law Forum du droit international, vol. 3, n° 2, 2001, p. 127 et s.

14 Sur le fondement de l’article 1242 nouveau du Code civil (article 1384 al. 1 ancien).

15 Ibid.

16 Voir l’article 1242 nouveau du Code civil.

17 Le fabricant a notamment une obligation de sécurité vis-à-vis de l’utilisateur dès lors qu’il en fait une utilisation conforme aux prescriptions qui lui ont été communiquées.

18 Article 1384, alinéa 1er ancien.

19 Article nouveau du Code civil (article). Loi n° 85-677 du 5 juillet 1985 tendant à l’amélioration de la situation des victimes d’accidents de la circulation et à l’accélération de procédures d’indemnisation.

20 Articles 1245 à 1245-17 du Code civil (articles 1386-1 à 1386-18 anciens).

21 Altran, op. cit.

22 N. Devejans, op. cit.

23 Sixième conférence d’examen de la Convention des Nations unies sur l’emploi de certaines armes classiques, Genève, décembre 2021.

24 Op. cit.

Le commandement militaire au d... | T. Marchand
A. Bourguilleau | Modéliser le réel. la naissanc...