Les Lundis de l'IHEDN sont maintenant disponibles en version audio !
Cliquez ci-dessous pour écouter :
Dans la guerre russo-ukrainienne, l’opération Toile d’araignée, menée en juin 2025 en source ouverte, a marqué les esprits. Préparée pendant plus d’un an sous la supervision directe du Président Zelensky, l’opération consistait en des frappes coordonnées de drones kamikazes lancées profondément en territoire russe depuis des camions « Cheval de Troie » partis d’Ukraine. Ces frappes ont permis de détruire ou de sérieusement endommager une quarantaine d’aéronefs russes, dont de nombreux vecteurs stratégiques comme des bombardiers à très long rayon d’action (Tupolev Tu-22M, Tu-95 et Tu-160), sur cinq bases aériennes russes. Parmi elles, la base de Belaïa, située près d’Irkoutsk, au nord de la frontière mongole… à quelque 6000 kilomètres de Kiev !
Pour pallier la possible perte de flux de données (notamment en cas de brouillage empêchant les appareils d’atteindre leurs cibles) lors de cette attaque de drones longue distance, les forces ukrainiennes ont embarqué de l’IA à bord des drones kamikazes, après l’avoir entraînée sur des bombardiers russes grandeur nature exposés dans un musée de Kiev. L’idée était simple : si le contrôle humain des pilotes de drones était perdu, l’IA prendrait le relais pour diriger les drones vers leur cible, un avion aux contours préidentifiés. Mais un problème est vite apparu : incapable d’intégrer la présence imprévue de civils (personnels de piste, mécaniciens, pompiers…) sur le terrain lors des entraînements, l’IA a poursuivi sa mission sans tenir compte des dommages collatéraux potentiels.
Cet exemple illustre parfaitement le dilemme actuel : l’IA peut accroître l’efficacité militaire, mais elle ne sait pas (encore ?) anticiper toutes les situations imprévues. Et surtout, il pose une question centrale : qui est responsable en cas de violation du droit international humanitaire (DIH), cadre juridique des conflits armés ?
DES DÉFIS JURIDIQUES FONDAMENTAUX
L’IA promet d’accélérer la prise de décision militaire, mais elle peut aussi fragiliser l’application des principes fondamentaux du DIH : distinction entre civils et combattants, proportionnalité des attaques et précaution dans la conduite des opérations. Un commissaire en chef des armées, conseiller juridique aux opérations (LEGAD, dans le jargon militaire) de l’état-major des armées (EMA), détaille ce défi posé par l’IA :
Des disparités socio-économiques entre les différents pays peuvent aussi expliquer le brigandage en mer, contextualise l’officier :
« Un système totalement autonome n’est pas possible. Ce serait illicite et nous placerait en porte-à-faux vis-à-vis de nos obligations conventionnelles. La notion de contrôle humain « approprié » est centrale pour la France. Le défi est que l’aide représentée par l’IA dans la décision militaire grâce au traitement d’un flux conséquent d’informations ne doit pas pour autant éclipser le besoin de toute analyse humaine.
Ce que l’on pourrait faire manuellement (humainement) prendrait beaucoup plus de temps, or le temps est un facteur critique. Mais il ne faut pas tomber dans la facilité et que l’utilisation de l’IA conduise à une forme de paresse intellectuelle, notamment lorsque l’on est sous pression dans les circonstances d’un conflit de haute intensité. »
Autrement dit, déléguer entièrement la décision d’engagement létal à une machine autonome reviendrait à nier l’examen de licéité prescrit par le DIH avant chaque engagement, ce qui induirait un risque de sentiment de déresponsabilisation des décideurs.
Mais le danger est plus insidieux : l’IA ne doit pas devenir une béquille pour le décideur. « Tout ce qui va permettre d’accélérer la décision ne doit pas se traduire en fainéantise intellectuelle et en abaissement du niveau critique d’analyse de licéité », ajoute le LEGAD de l’état-major français. Derrière cette mise en garde se cache la crainte que la rapidité offerte par l’IA pousse les décideurs à valider mécaniquement des options sans exercer le discernement nécessaire, surtout dans des contextes de pression opérationnelle.
Une juriste civile, conseillère juridique en droit des conflits armés à l’EMA, complète :
« Il y a deux points : d’une part l’emploi de systèmes d’aide à la décision, et d’autre part ce que cela signifie en termes de perte de contrôle, de surconfiance ou de surdéfiance. »
En d’autres termes, l’IA peut être utile, mais elle ne doit jamais remplacer le jugement humain. Le véritable enjeu est donc celui de l’équilibre : comment profiter de la puissance de calcul et d’analyse de l’IA sans tomber dans la surconfiance qui conduirait à déléguer trop, ni dans la défiance qui empêcherait d’exploiter ses avantages ?
En filigrane, la problématique est claire : l’IA introduit une tension entre efficacité opérationnelle et exigence juridique. Plus elle accélère la décision, plus elle risque de réduire l’espace de réflexion critique indispensable au respect du DIH.
EN RESPONSABILITÉ JURIDIQUE, L’HUMAIN RESTE AU CENTRE
La question de la responsabilité est centrale, car elle touche au cœur du DIH : qui doit rendre des comptes lorsque des civils sont touchés par une attaque ? Les exemples ukrainiens montrent, comme l’opération Toile d’araignée, que des drones entraînés par IA peuvent poursuivre leur mission malgré la présence de civils, sans se poser la question du caractère « excessif » des dommages collatéraux, faute d’avoir intégré ce cas dans leur programmation. Cette incapacité à anticiper toutes les situations imprévues révèle une limite fondamentale : l’IA ne peut pas examiner seule toutes les phases du ciblage.
En effet, « cela ne doit rien changer à la responsabilité du chef », indique le LEGAD de l’EMA. Même si l’IA prend le relais, c’est toujours l’autorité humaine qui doit répondre des conséquences a fortiori, car l’IA n’est pas en soi un sujet de droit : elle n’a pas de personnalité juridique. Autrement dit, l’IA peut exécuter, mais elle ne peut pas assumer. La responsabilité reste indissociable de la chaîne de commandement, car c’est elle qui garantit la légitimité et la licéité des opérations.
La conseillère juridique va dans le même sens :
« L’objectif est de ne pas affecter l’attribution de la responsabilité et de ne pas limiter toutes formes de responsabilité. »
Il est donc nécessaire de maintenir une boucle de rétroaction : vérifier après chaque engagement si la cible était licite et donner un retour au système, afin de préserver le contrôle humain. Cette exigence n’est pas seulement technique, elle est aussi juridique : elle préserve le contrôle humain et permet d’éviter que l’IA devienne une zone grise où la responsabilité se dilue.
La problématique est donc double : d’un côté, l’IA accroît la complexité des opérations et multiplie les risques de défaillance ; de l’autre, elle ne doit jamais servir d’alibi pour échapper aux obligations du DIH. En cas de violation, ce ne sera pas « la machine » qui sera jugée, mais bien les décideurs humains – chefs militaires et autorités politiques – qui auront choisi de l’utiliser.
ADOPTER DE NOUVELLES RÈGLES OU ADAPTER LE DROIT EXISTANT ?
L’essor de l’IA dans les conflits armés relance un débat ancien : faut-il créer des instruments juridiques spécifiques pour encadrer les systèmes autonomes, ou se contenter d’appliquer les règles existantes ? Certains plaident pour un nouveau traité international, estimant que les Conventions de Genève, bases du droit international humanitaire rédigées au milieu du XXe siècle, ne peuvent pas anticiper les défis posés par des technologies capables d’apprendre et de décider en temps réel. L’argument est séduisant : un cadre ad hoc offrirait une réponse claire et adaptée. Mais il comporte aussi un risque majeur : celui de fragmenter le corpus juridique existant et de fragiliser son autorité.
La position française, que rappelle la conseillère de l’état-major des armées, est claire : « Les Conventions de Genève et leurs Protocoles additionnels sont suffisamment larges pour s’adapter à de nouveaux systèmes. » Le DIH n’est donc pas figé ; il a déjà montré sa capacité à évoluer et à s’appliquer à des contextes nouveaux. Créer une règle spécifique pourrait ouvrir la porte à des divergences d’interprétation, voire des désaccords politiques, qui affaibliraient la force contraignante du DIH.
Le LEGAD partage cette approche pragmatique :
« Mieux vaut se concentrer sur ce qu’on a, en poussant au maximum l’interprétation des textes dans des manuels, des conférences… C’est la voie la plus réaliste, d’autant plus que la possibilité de conclure de nouveaux instruments universellement reconnus est très incertaine dans le contexte géopolitique actuel. »
La priorité n’est pas de réinventer le droit, mais de renforcer son application concrète : former les militaires, développer des guides pratiques, et multiplier les forums internationaux pour clarifier l’interprétation des règles existantes.
Pour la France, on le voit, mieux vaut consolider que disperser. Le défi n’est donc pas l’absence de règles, mais leur mise en œuvre effective face à des technologies qui évoluent plus vite que les négociations diplomatiques.
L’IA COMME FACTEUR DE CONFORMITÉ… SOUS CONDITIONS
L’IA est parfois présentée comme une solution aux limites humaines : réduction des erreurs, neutralisation des biais, capacité à traiter des volumes massifs de données. En théorie, elle pourrait donc renforcer le respect du DIH. Mais cette promesse ne peut être tenue qu’à une condition : maintenir un contrôle humain adapté.
Le commissaire en chef en poste à l’état-major insiste sur ce point :
« Il faudrait un contrôle humain « approprié » dont les contours peuvent être discutés. Si l’on suit la doctrine française, l’IA peut être un plus en termes de processus de ciblage par exemple, sous réserve qu’on ait bien ce contrôle humain « approprié ». »
Selon lui, l’IA peut accélérer le traitement des cibles à faible risque comme des objectifs militaires parfaitement discriminés et isolés, sans pour autant les automatiser, et libérer du temps pour concentrer l’analyse humaine sur les cas les plus sensibles comme du ciblage de biens potentiellement duaux, en zone urbaine notamment. Mais il met en garde contre toute tentation de déléguer l’analyse critique : l’IA doit rester un outil, pas un décideur.
Il y a également des usages positifs, comme le souligne la conseillère civile de l’EMA : « On peut penser au déminage avec IA qui participe, en droit des conflits armés, à la sécurisation. » L’IA peut ainsi contribuer à protéger les civils en réduisant les dangers liés aux mines en améliorant la cartographie des zones sensibles.
La problématique est donc double : l’IA peut être un facteur de conformité si elle est utilisée pour renforcer la vigilance humaine, mais elle devient un risque si elle est perçue comme une garantie en soi. En d’autres termes, l’IA ne corrige pas les failles du jugement humain, elle ne fait que les déplacer : si elle est mal encadrée, elle peut introduire de nouveaux biais, ignorer des situations imprévues et fragiliser les principes de distinction et de proportionnalité.
UNE TENSION PERMANENTE ENTRE EFFICACITÉ OPÉRATIONNELLE ET EXIGENCE JURIDIQUE
En amont du cycle de ciblage, le LEGAD rappelle que l’IA peut aider à établir une liste de cibles restreintes pour éviter de frapper des cibles protégées par le DIH, comme des ouvrages dangereux ou des édifices cultuels par exemple. Mais là encore, la machine ne fait que compiler et recouper des données ; c’est l’humain qui doit décider in fine. La véritable question est donc : voulons-nous d’une IA qui assiste la conformité de l’action au regard du DIH, ou d’une IA qui prétend la garantir ? Dans le premier cas, elle est un atout. Dans le second, elle devient un danger.
L’intégration de l’IA dans les conflits armés révèle une tension permanente entre efficacité opérationnelle et exigence juridique. L’IA peut accélérer la décision, améliorer la conformité et réduire certains risques, mais elle ne peut ni anticiper tous les cas non conformes, ni assumer la responsabilité des conséquences.
Le contrôle humain reste indispensable tant pour des raisons juridiques qu’opérationnelles et éthiques : c’est lui qui garantit le respect du DIH et qui porte, in fine, la responsabilité des choix opérés.
Le défi n’est donc pas de remplacer l’humain par la machine, mais de s’assurer que l’IA reste un outil au service du droit, et non une échappatoire face à ses obligations.
Pour aller plus loin :
Général Baratz : « Avec ou sans IA, le chef militaire restera responsable de son action »