Aider les praticiens de l'IA à faire face aux risques critiques - lancement du manuel sur l'innovation responsable en matière d'IA pour la paix et la sécurité internationales

Grâce à des facteurs tels que les percées dans le domaine de l'apprentissage automatique, l'accès aux données et les innovations matérielles, les progrès de l'IA sont utilisés dans des domaines allant de la découverte de médicaments à la gestion de la chaîne d'approvisionnement. Toutefois, ces mêmes avancées présentent également des risques réels pour la paix et la sécurité internationales.

Si certains de ces risques découlent du potentiel de l'IA à des fins militaires, même les développements de l'IA destinés uniquement à un usage civil peuvent être détournés à des fins malveillantes ou nuisibles, allant des campagnes de désinformation aux cyberattaques en passant par les opérations terroristes. La technologie n'est pas neutre en soi, et les décisions prises tout au long du cycle de vie de l'IA, ainsi que les actions que l'IA facilite, sont également susceptibles d'avoir un impact sur la paix et la sécurité internationales.

Il peut être difficile pour les praticiens de l'IA de prévoir comment leur travail peut avoir des conséquences négatives involontaires. Pourtant, compte tenu de leur position dans le cycle de vie de l'IA, ils sont particulièrement bien placés pour aider à faire face à ces risques et peuvent jouer un rôle essentiel pour les atténuer. Depuis le début de l'année 2023, le Bureau des affaires de désarmement des Nations unies (UNODA) et l'Institut international de recherche sur la paix de Stockholm (SIPRI) ont travaillé avec des praticiens de l'IA, notamment dans les milieux universitaires, la société civile et l'industrie, du monde entier pour tester et élaborer des supports pédagogiques qui peuvent être introduits dans l'enseignement des STIM et aider les futurs praticiens de l'IA à traiter les risques pour la paix et la sécurité internationales à leur source.

Sur la base de ces travaux, l'UNODA et le SIPRI ont lancé en juillet le Handbook on Responsible Innovation in AI for International Peace and Security, une ressource précieuse pour les enseignants et les étudiants en IA qui cherchent à innover de manière responsable. Ce manuel a été conçu pour aider les praticiens de l'IA à prendre conscience de la manière dont leur travail peut avoir des conséquences en aval sur la paix et la sécurité internationales, à atténuer les risques que leur travail peut présenter et à engager des discussions sur le lien entre l'IA et la paix et la sécurité internationales. Le manuel est destiné aux éducateurs qui souhaitent l'intégrer dans leur programme d'études, ainsi qu'aux lecteurs individuels. Le manuel est l'un des résultats d'un projet plus large, Promouvoir l'innovation responsable dans l'intelligence artificielle pour la paix et la sécurité, mené par le Bureau des affaires de désarmement des Nations unies (UNODA) et l'Institut international de recherche sur la paix de Stockholm (SIPRI), avec le soutien généreux de l'Union européenne.

Pour de plus amples informations sur la promotion d'une innovation responsable en matière d'intelligence artificielle au service de la paix et de la sécurité, veuillez contacter M. Charles Ovink, responsable des affaires politiques,à l'adresse suivante : charles.ovink@un.org.