Principaux enseignements des dialogues sur l'IA militaire, la paix et la sécurité 2025

Principaux enseignements des Dialogues sur l'IA militaire, la paix et la sécurité 2025

Téléchargez la version PDF ici

Les dialogues 2025 sur l'IA militaire, la paix et la sécurité (MAPS), organisés par le Bureau des affaires de désarmement des Nations unies (UNODA) et financés par la République de Corée, visent à offrir aux États une plateforme de partage des connaissances et de sensibilisation aux implications de l'IA dans le domaine militaire pour la paix et la sécurité internationales. L'initiative sert les discussions multilatérales en cours en fournissant un cadre neutre dans lequel les États peuvent s'engager avec les organisations internationales, la société civile, les chercheurs et l'industrie, échanger des points de vue et identifier des domaines pratiques de coopération.

Cette note présente les contributions et les conclusions de deux webinaires publics, Military AI : Opportunities, Risks, and International Peace & Security et Capacity-Building and International Cooperation on AI in the Military Domain, tenus respectivement les 12 et 25 mars 2025, et d'une réunion en personne tenue le 2 juillet 2025 dans le cadre de la règle de Chatham House. Il recense les thèmes susceptibles d'alimenter le dialogue ultérieur entre les États membres, y compris les domaines dans lesquels des échanges à court terme pourraient s'avérer utiles.

Les deux webinaires publics ont réuni neuf experts et respectivement 205 et 187 participants, provenant d'États membres (50 %), d'organisations de la société civile (30 %) et d'organisations internationales et régionales (20 %). La réunion en personne a été suivie par 33 délégués. Les trois événements ont bénéficié d'une forte participation des pays du Sud.

Dans tous les cas, les participants ont reconnu que les technologies de l'IA peuvent être intégrées dans une série de fonctions et de tâches, et que les risques et les opportunités qui y sont associés dépendent du contexte d'utilisation.

Contributions potentielles à la paix et à la sécurité

Les participants ont identifié plusieurs domaines dans lesquels l'utilisation responsable de l'IA pourrait contribuer à la paix et à la sécurité. Ils ont souligné l'importance de maintenir une distinction entre les possibilités stratégiques et humanitaires (telles que la protection des civils dans les conflits), tout en reconnaissant qu'une pratique responsable peut soutenir les deux types de cas d'utilisation lorsqu'elle est menée délibérément.

Premièrement, l'IA peut améliorer le traitement de l'information et l'aide à la décision, en permettant aux opérateurs et aux commandants de traiter de grandes quantités de données, d'identifier des modèles et d'allouer l'attention de manière plus efficace. Cela est lié à des gains potentiels en matière de connaissance de la situation et de prise de décision éclairée dans des environnements cinétiques et virtuels.

Deuxièmement, l'IA peut réduire les risques pour le personnel en permettant ou en améliorant les tâches dans des environnements dangereux, tels que la recherche d'engins explosifs, le nettoyage d'itinéraires ou les opérations où les communications sont dégradées. Ces fonctions sont considérées comme offrant des avantages en termes de sécurité et d'efficacité lorsque les limites de performance sont comprises et respectées.

Troisièmement, plusieurs participants ont souligné les contributions potentielles à la protection des civils. Il s'agit par exemple d'outils permettant de caractériser l'environnement civil, de soutenir une planification qui minimise les dommages accidentels ou d'améliorer la rapidité et la précision des alertes. Il a été souligné que ces avantages ne sont pas automatiques. Ils dépendent de la qualité des données, de leur robustesse et des mesures de contrôle qui garantissent que les jugements légaux et éthiques sont faits par des humains.

Enfin, des domaines tels que la logistique, la maintenance et la formation ont été fréquemment mis en avant comme étant applicables et comparativement moins controversés. Même dans ces domaines, les participants ont souligné l'importance d'une pratique disciplinée, y compris les tests et la formation des opérateurs, afin de se prémunir contre une confiance excessive et des effets involontaires.

Dynamique des risques et préoccupations opérationnelles

Parallèlement aux opportunités, les participants ont examiné les risques qui surviennent ou sont amplifiés dans les contextes militaires. Tout d'abord, la fiabilité et la robustesse techniques ont été au cœur des préoccupations. Les systèmes probabilistes peuvent se comporter de manière imprévisible lorsque les données sont rares, bruyantes ou non représentatives de l'environnement opérationnel. Les vulnérabilités aux manipulations adverses et à l'empoisonnement des données ont été discutées, de même que les limites pratiques de l'explicabilité dans des contextes où le temps est compté. La confidentialité des données et les risques plus généraux liés à la cybersécurité affectent à la fois le développement et l'intégration de l'IA dans le domaine militaire. Des facteurs en amont ont également été relevés : la formation sur des données synthétiques ou non construites à des fins spécifiques peut renforcer les préjugés ou dégrader les performances. Les besoins énergétiques liés à la formation et à l'exploitation de grands modèles d'IA ont également des incidences sur l'environnement, par exemple en termes d'émissions de carbone ou de consommation d'énergie ; il est donc important que les États entreprennent une planification de la durabilité et de la résilience.

Deuxièmement, les participants ont également examiné les risques associés à l'interaction homme-machine. L'excès de confiance, le biais d'automatisation et la baisse de vigilance peuvent conduire les utilisateurs à s'en remettre excessivement aux résultats des systèmes, en particulier lorsque les interfaces véhiculent des certitudes injustifiées. À l'inverse, une confiance insuffisante peut réduire à néant des avantages potentiels, comme le fait de ne pas tenir compte d'informations précises générées par l'IA parce qu'elles vont à l'encontre des croyances ou des attentes de l'opérateur humain. Plusieurs participants ont donc mis l'accent sur les choix de conception et la formation qui permettent de calibrer la confiance de manière appropriée, y compris des indications claires sur le moment où il faut se désengager ou passer à un examen humain. Il a également été observé qu'une grande efficacité des systèmes basés sur l'IA dans l'exécution des tâches (telles que le traitement des données ou le soutien opérationnel) peut involontairement encourager une confiance excessive et créer un sentiment de "distance" par rapport à l'impact humain des décisions.

Troisièmement, les risques d'utilisation abusive ont été évoqués tout au long du cycle de vie des systèmes d'IA. Il s'agit notamment de l'utilisation malveillante lors du déploiement par des menaces internes ou d'autres "mauvais acteurs", de la perspective d'opérations cybernétiques offensives renforcées par l'IA et de l'utilisation par des acteurs non étatiques, y compris des sociétés militaires privées opérant en dehors des cadres de responsabilité habituels. Certains participants ont notamment mis en garde contre les contextes à fort enjeu tels que les structures de commandement, de contrôle et de communication nucléaires (NC3), où une mauvaise interprétation ou un mauvais calcul pourrait avoir des conséquences particulièrement graves.

Un autre thème récurrent est celui de la compression du temps de décision. Si certains outils d'IA visent à accélérer le processus d'interprétation d'informations complexes, l'accélération des cycles de décision peut réduire le temps disponible pour les délibérations humaines et compromettre la capacité des commandants à comprendre le raisonnement qui sous-tend les résultats et les mesures prises par les systèmes dotés d'IA. Cela accroît le risque d'erreur, d'escalade ou de mauvais calcul, en particulier en cas de stress et de crise. Dans le même ordre d'idées, la dynamique de la course aux armements a été citée comme un facteur de risque supplémentaire. La perception de la concurrence stratégique et les croyances psychologiques concernant l'obtention d'un avantage sur un adversaire peuvent créer des pressions en faveur d'une mise en service rapide des capacités, ce qui risque de dépasser les processus d'assurance, d'essai et de gouvernance.

Ancrages juridiques, éthiques et politiques

Les participants ont affirmé que les obligations juridiques pertinentes existantes, notamment la charte des Nations unies, le droit international humanitaire et le droit international des droits de l'homme, s'appliquent au développement et à l'utilisation des capacités militaires basées sur l'IA. L'accent a été mis sur la nécessité de conserver le jugement et le contrôle humains sur les décisions relatives à l'usage de la force, et de veiller à ce que la responsabilité et l'obligation de rendre compte restent du ressort des acteurs humains tout au long du cycle de vie. Les États ont décrit ou mentionné les examens juridiques prévus à l'article 36 du protocole additionnel n° 1 aux conventions de Genève, indiquant que ces pratiques s'appliquent également à l'IA, y compris les examens de suivi lorsque les systèmes sont mis à jour ou réaffectés, ainsi qu'au rôle des conseillers juridiques militaires.

L'importance de la responsabilité et de l'obligation de rendre compte a été soulignée. Il a été souligné que les déterminations juridiques, telles que celles liées aux principes de nécessité, de proportionnalité et de distinction, ne devraient pas être codées dans des systèmes opaques, et que les outils d'aide à la décision devraient permettre, et non pas remplacer, la légalité et le raisonnement éthique. Au fur et à mesure que les systèmes sont mis à jour ou composés à partir d'autres modèles ("AI training AI"), l'attribution et la traçabilité peuvent devenir plus complexes, ce qui souligne le besoin de documentation, d'auditabilité et de rôles clairs pour les opérateurs, les développeurs et les commandants. Des préoccupations d'ordre éthique ont été exprimées au sujet de la délégation à l'IA de décisions de vie ou de mort. Certains participants ont également souligné la complexité cognitive de la prise de décision dans le monde réel, qui repose souvent sur le jugement tacite et l'intuition, et se sont interrogés sur la mesure dans laquelle les systèmes actuels peuvent reproduire de manière significative ces facultés humaines. Il a été noté que le droit humanitaire international exigeait que les individus soient tenus pour responsables des crimes de guerre.

Pratiques d'assurance et d'évaluation

Les mesures d'assurance ont souvent été présentées comme permettant de faire confiance aux systèmes d'IA, notamment grâce à des tests, des évaluations, des vérifications et des validations (TEVV) fondés sur des données probantes tout au long du cycle de vie de l'IA. Les participants ont souligné la valeur des données d'essai représentatives, des essais en équipe et des essais fondés sur des scénarios pour comprendre les limites de performance, les modes de défaillance et la robustesse en cas de changement de distribution. Les pratiques de documentation, telles que l'articulation claire de l'utilisation prévue, des limites opérationnelles et des limitations connues, ont été considérées comme des facilitateurs de la surveillance et de l'apprentissage.

Les participants ont indiqué que l'assurance n'est pas un label mais un processus continu. Les mises à jour des modèles, des données ou des voies d'intégration peuvent modifier considérablement le comportement. C'est pourquoi la gestion du changement et la réévaluation périodique ont été soulignées. Les interfaces qui transmettent l'incertitude, les intervalles de confiance et les signaux d'avertissement appropriés ont été considérés comme faisant partie de l'assurance dans l'utilisation. La formation des opérateurs a fait partie de cette discussion. La formation peut contribuer à atténuer les pièges cognitifs, notamment le biais d'automatisation et la confiance excessive, et devrait inclure des exercices sur les critères de désengagement et les procédures d'escalade vers un examen humain. Plusieurs participants ont suggéré que l'assurance et la formation se renforcent mutuellement, les résultats de l'évaluation étant pris en compte dans les programmes et les procédures opérationnelles standard.

Besoins en matière de renforcement des capacités et de coopération

Les participants ont identifié des besoins prioritaires en matière de ressources humaines, de processus et de technologie.

En ce qui concerne les personnes, une main-d'œuvre multidisciplinaire est considérée comme essentielle. Il s'agit d'opérateurs, de commandants et de planificateurs, d'ingénieurs et de spécialistes des données, de juristes et de responsables politiques. La formation à l'identification des biais cognitifs et des limites des systèmes d'intelligence artificielle est considérée comme importante pour tous ces groupes, et pas seulement pour les spécialistes techniques.

En ce qui concerne les processus, les participants ont discuté des éléments partageables de la pratique d'examen juridique des systèmes d'IA, des protocoles TEVV de base et des approches d'acquisition qui mettent l'accent sur l'assurance. Plusieurs contributions ont souligné la valeur du partage des connaissances et des technologies, ainsi que de l'apprentissage par les pairs au niveau régional, pour réduire les écarts de capacités et promouvoir des pratiques compatibles. Ces approches pourraient également permettre à tous les États de participer de manière significative aux discussions multilatérales liées à l'IA. La coopération a été définie comme proportionnée et respectueuse des contextes de sécurité et des niveaux de développement et de diffusion de l'IA, l'accent étant mis sur les méthodes pratiques et les enseignements tirés.

En ce qui concerne la technologie, plusieurs participants ont souligné la nécessité de disposer d'outils d'évaluation accessibles et transparents, ainsi que d'accords d'accès aux données sécurisés qui respectent la souveraineté et la vie privée. La possibilité de tester des conditions représentatives au moyen d'ensembles de données, de scénarios ou de méthodologies partagées a été considérée comme un outil pratique pour de nombreux États.

Convergence et pistes pratiques pour la poursuite des échanges

Pistes au niveau des objets

Dans l'ensemble des discussions, plusieurs thèmes ont été considérés comme des moyens concrets de traduire des principes de haut niveau en pratiques réalisables. Les domaines de convergence comprennent l'applicabilité du droit international, la nécessité de conserver la responsabilité humaine des décisions relatives à l'utilisation de la force, l'importance de l'assurance et de la gestion du cycle de vie, ainsi que la valeur du renforcement des capacités. Il a été largement reconnu que la pratique responsable nécessite un investissement délibéré plutôt que d'être un sous-produit automatique de la modernisation technologique.

L'intersection de l'IA et des armes nucléaires a été identifiée comme un domaine à haute conséquence où les mesures de confiance et la transparence sont considérées comme essentielles mais insuffisamment développées. Les suggestions se sont concentrées sur des mesures pratiques et proportionnées visant à réduire les perceptions erronées tout en tenant compte des sensibilités. Certaines contributions ont mis en évidence des lignes rouges potentielles concernant l'intégration de l'IA dans le processus décisionnel nucléaire.

Pistes au niveau du processus

Plusieurs participants ont suggéré que des travaux préliminaires visant à clarifier le champ d'application et la terminologie pourraient conduire à des discussions productives sur l'opérationnalisation des principes d'une IA responsable dans le domaine militaire. L'IA étant à double usage et les risques dépendant du contexte, il a été noté que le champ d'application ne devrait pas être défini uniquement par la technologie ou par le type d'opérateur, mais également par le contexte d'utilisation. D'autres échanges pourraient porter sur des critères pratiques de délimitation du champ d'application afin de fonder les discussions et d'aider à identifier les lacunes éventuelles en matière de gouvernance.

Les participants ont également observé que le cadre et les modalités du dialogue déterminent les résultats. Les formats multipartites peuvent favoriser la transparence et la confiance à différents niveaux, tandis que les discussions ciblées tendent à produire des résultats plus bénéfiques sur le plan opérationnel. Il a été suggéré que les États envisagent de passer de principes généraux à des cadres sur mesure - qu'il s'agisse d'approches axées sur les applications, sur les risques ou d'autres approches pragmatiques - afin d'examiner comment les caractéristiques spécifiques de certaines technologies, utilisées dans des contextes opérationnels particuliers, interagissent avec les obligations juridiques et les pratiques opérationnelles existantes.

Enfin, la coordination avec des processus parallèles a été encouragée pour éviter les doubles emplois ou l'élaboration de normes divergentes, ainsi que pour tirer parti des synergies. Les échanges pourraient faire le lien entre les travaux sur la gouvernance civile de l'IA et les discussions sur les systèmes d'armes autonomes létaux, en identifiant les domaines dans lesquels des approches, des pratiques et des enseignements compatibles sont transférables et ceux dans lesquels un traitement distinct est justifié. Des suivis régionaux ou thématiques ont également été suggérés pour consolider l'apprentissage, refléter les divers contextes opérationnels et approfondir la collaboration entre les communautés techniques, juridiques et politiques.

Conclusion

Les réunions ont mis en évidence les promesses et les risques de l'IA dans le domaine militaire. Les possibilités - en matière de traitement de l'information, de sécurité et d'efficacité - sont réelles mais dépendent de mesures de protection délibérées. Les risques - d'erreur, d'escalade, de fragilité et d'utilisation abusive - ne sont gérables qu'avec un investissement soutenu dans l'assurance, le jugement et le contrôle humains, et la coopération.

L'UNODA a identifié plusieurs domaines de travail futurs dans le cadre des dialogues MAPS, y compris des discussions approfondies pour construire une compréhension commune des opportunités et des risques, des lignes rouges potentielles (par exemple en ce qui concerne le désarmement, le contrôle des armes et les régimes de non-prolifération), et des outils diplomatiques pour soutenir le dialogue entre les États. À cette fin, l'UNODA recherche actuellement des financements pour le dialogue MAPS 2026.


Pour plus d'informations sur les dialogues MAPS, veuillez contacter M. Ulysse Richard à l'adresse ulysse.richard1@un.org