Aider les praticiens de l'IA à faire face aux risques critiques - lancement du manuel sur l'innovation responsable en matière d'IA pour la paix et la sécurité internationales

5 août 2025

Grâce à des facteurs tels que les percées en matière d'apprentissage automatique, l'accès aux données et les innovations matérielles, les progrès de l'IA sont utilisés dans des domaines allant de la découverte de médicaments à la gestion de la chaîne d'approvisionnement. Toutefois, ces mêmes avancées présentent également des risques réels pour la paix et la sécurité internationales.

Si certains de ces risques découlent du potentiel de l'IA à des fins militaires, même les développements de l'IA destinés uniquement à un usage civil peuvent être détournés à des fins malveillantes ou nuisibles, allant des campagnes de désinformation aux cyberattaques en passant par les opérations terroristes. La technologie n'est pas neutre en soi, et les décisions prises tout au long du cycle de vie de l'IA, ainsi que les actions que l'IA facilite, sont également susceptibles d'avoir un impact sur la paix et la sécurité internationales.

Il peut être difficile pour les praticiens de l'IA de prévoir comment leur travail peut avoir des conséquences négatives involontaires. Pourtant, compte tenu de leur position dans le cycle de vie de l'IA, ils sont particulièrement bien placés pour aider à faire face à ces risques et peuvent jouer un rôle essentiel pour les atténuer. Depuis le début de l'année 2023, le Bureau des affaires de désarmement des Nations unies (UNODA) et l'Institut international de recherche sur la paix de Stockholm (SIPRI) ont travaillé avec des praticiens de l'IA, notamment dans les milieux universitaires, la société civile et l'industrie, du monde entier pour tester et élaborer des supports pédagogiques qui peuvent être introduits dans l'enseignement des STIM et aider les futurs praticiens de l'IA à traiter les risques pour la paix et la sécurité internationales à leur source.

Sur la base de ces travaux, l'UNODA et le SIPRI ont lancé en juillet le Handbook on Responsible Innovation in AI for International Peace and Security, une ressource précieuse pour les enseignants et les étudiants en IA qui cherchent à innover de manière responsable. Ce manuel a été conçu pour aider les praticiens de l'IA à prendre conscience de la manière dont leur travail peut avoir des conséquences en aval sur la paix et la sécurité internationales, à atténuer les risques que leur travail peut présenter et à engager des discussions sur le lien entre l'IA et la paix et la sécurité internationales. Le manuel est destiné aux éducateurs qui souhaitent l'intégrer dans leur programme d'études, ainsi qu'aux lecteurs individuels. Le manuel est l'un des résultats d'un projet plus large, Promoting Responsible Innovation in Artificial Intelligence for Peace and Security, mené par le Bureau des affaires de désarmement des Nations unies (UNODA) et l'Institut international de recherche sur la paix de Stockholm (SIPRI), avec le soutien généreux de l'Union européenne.

Making AI safe for AI for Good - aborder les risques présentés pour la paix et la sécurité internationales par l'utilisation abusive de l'intelligence artificielle civile

10 juillet 2025

Est-il possible de s'attaquer à la source des risques que présente l'utilisation abusive de l'intelligence artificielle (IA) civile pour la paix et la sécurité internationales ? L'UNODA s'est rendu sur la scène des solutions du sommet annuel AI for Good à Genève, organisé par l'Union internationale des télécommunications, pour répondre à cette question.

De nombreux membres de la communauté civile de l'IA ne réalisent pas que les innovations actuelles en matière d'IA pourraient avoir de graves conséquences pour la paix et la sécurité internationales. Pourtant, les praticiens de l'IA peuvent eux-mêmes jouer un rôle essentiel dans l'atténuation des risques, notamment en cas de mauvaise utilisation des produits d'IA civile, et ce dès le début du cycle de vie de l'IA.

Devant un public de plus de 200 personnes, Charlie Ovink (UNODA), Jules Palayer (Stockholm International Peace Research Institute) et Vivianne Manlai(Talos Network) ont souligné que le changement doit commencer par la formation des praticiens de l'IA et ont présenté les perspectives d'experts, d'éducateurs et d'étudiants en IA sur ce qui est nécessaire. Avec le soutien généreux du Service européen pour l'action extérieure, le SIPRI et l'UNODA ont travaillé avec des éducateurs et des étudiants en IA du monde entier pour relever ce défi, ainsi que d'autres, dans le cadre du projet "Promouvoir l'innovation responsable dans l'IA pour la paix et la sécurité".

Comment l'enseignement des STIM peut-il aider les futurs praticiens de l'IA à s'attaquer aux risques qui pèsent sur la paix et la sécurité internationales ? Des experts civils de l'IA se réunissent à New York

10 mai 2025

Les 8 et 9 mai 2025, l'UNODA, le SIPRI et l'Université de New York ont réuni des chercheurs, des éducateurs et des étudiants de premier plan dans le domaine de l'IA à l'Université de New York Tandon et au siège des Nations Unies pour un atelier de deux jours consacré à l'innovation responsable en matière d'IA et à la fourniture à la communauté civile de l'IA - en particulier à la prochaine génération de praticiens de l'IA - des connaissances et des moyens nécessaires pour s'engager dans l'innovation responsable et contribuer à garantir l'application pacifique de la technologie civile de l'IA. La première journée a été consacrée à l'intégration de la sensibilisation au double usage et à d'autres risques dans les programmes d'enseignement des STIM et a permis aux participants de partager les meilleures pratiques en matière d'enseignement de l'IA. Le deuxième jour a été consacré à un dialogue de haut niveau avec des membres de la communauté politique, notamment Amandeep Gill (secrétaire général adjoint et envoyé spécial du secrétaire général pour les technologies numériques et émergentes, ODET), Adedeji Ebo (directeur et adjoint du haut représentant pour les affaires de désarmement, UNODA) et Maritza Chan Valverde (présidente de la première commission de l'Assemblée générale des Nations unies). L'atelier a été rendu possible grâce au soutien généreux de l'Union européenne et a été réalisé dans le cadre du projet "Promouvoir l'innovation responsable dans l'intelligence artificielle pour la paix et la sécurité".

Engager la communauté civile de l'IA pour aider à prévenir l'utilisation abusive des technologies de l'IA

8 mai 2025

Comment la communauté civile de l'IA peut-elle contribuer à prévenir l'utilisation abusive des technologies de l'IA ? Le 7 mai 2025, l'UNODA, le SIPRI, le NYU Center for Responsible AI et le NYU Center for Robotics and Embodied Intelligence ont réuni un groupe de praticiens internationaux de l'IA, d'universitaires, de délégués des États membres et d'autres personnes pour une discussion animée sur l'atténuation des risques d'utilisation abusive de l'IA à des fins civiles. L'événement comprenait une visite interactive du NYU Center for Robotics & Embodied Intelligence, suivie d'un panel dynamique et d'une discussion ouverte au cours de laquelle des experts ont partagé leurs points de vue sur l'innovation responsable, les défis liés au double usage et le rôle de l'éducation et de la collaboration internationale dans le processus d'atténuation des risques. Cet événement fait partie du projet "Promouvoir l'innovation responsable dans l'intelligence artificielle pour la paix et la sécurité", rendu possible grâce à la généreuse contribution de l'Union européenne.


L'UNODA, le SIPRI et l'UE mènent le dialogue sur l'IA responsable lors d'un événement parallèle de la Première Commission de l'AGNU

8 novembre 2024

De droite à gauche : Mme Julia Stoyanovich, M. Mark Meserole, Mme Kerstin Vignard, M. Charles Ovink, M. Vincent Boulanin et Mme Marketa Homolkova

18 octobre 2024
Le 18 octobre, le Bureau des affaires de désarmement des Nations Unies (UNODA), en partenariat avec l'Institut international de recherche sur la paix de Stockholm (SIPRI) et l'Union européenne, a organisé un événement parallèle de la Première Commission de l'Assemblée générale des Nations Unies axé sur l'innovation responsable en matière d'intelligence artificielle (IA) pour la paix et la sécurité. L'événement, intitulé "L'IA responsable au service de la paix et de la sécurité : Répondre aux risques posés par l'utilisation abusive de l'IA civile", a rassemblé plus de 60 parties prenantes issues du monde universitaire, de la société civile, de l'industrie et d'organisations internationales.

Remarques préliminaires :
Mme Marketa Homolkova, chef de la section politique pour le désarmement et la non-prolifération, délégation de l'UE à Genève, et Mme Radha Day, chef du service régional du désarmement, de l'information et de la sensibilisation de l'UNODA, ont ouvert l'événement. Mme Homolkova a évoqué le soutien de l'UE aux projets de désarmement, soulignant la nécessité d'adapter les efforts de maîtrise des armements aux technologies émergentes et la menace croissante d'une utilisation abusive de l'IA dans des domaines tels que les armes chimiques et biologiques. Mme Day a insisté sur le fait que l'IA est un "domaine brûlant" dans les discussions sur le désarmement, soulignant la nécessité d'un engagement multilatéral et d'une expertise pour relever les défis que l'IA pose à la paix et à la sécurité internationales.

Discussion principale :
Le panel a exploré trois questions centrales posées par le modérateur, M. Charles Ovink, responsable des affaires politiques à l'UNODA : l'impact de l'IA civile sur la paix et la sécurité internationales, les efforts de gouvernance actuels et les moyens de renforcer les liens entre les structures de gouvernance.

Les panélistes examinent comment les efforts de gouvernance actuels traitent les risques découlant de l'IA civile

M. Vincent Boulanin, directeur du programme de gouvernance de l'IA du SIPRI, a présenté trois catégories de risques : les risques accidentels liés aux défaillances de conception de l'IA, les risques politiques liés à une mauvaise utilisation de l'IA et les risques physiques, y compris ceux liés à son intégration dans la robotique militaire. Il a cité la loi européenne sur l'intelligence artificielle et la loi californienne sur la transparence de l'IA comme exemples d'avancées réglementaires récentes et significatives. M. Boulanin a également mentionné l'Organe consultatif de haut niveau sur l'IA du Secrétaire général des Nations unies comme un développement essentiel pour superviser l'impact des applications civiles de l'IA, y compris pour la paix et la sécurité internationales.

Du côté du secteur privé, M. Chris Meserole, directeur exécutif du Frontier Model Forum, a évoqué les leçons tirées des avancées technologiques antérieures et a souligné que les entreprises sont prêtes à s'engager dans des pratiques responsables en matière d'IA. Il a mis en avant la récente collaboration du gouvernement américain avec les principales entreprises d'IA pour promouvoir les principes de sûreté, de sécurité et de confiance dans le développement de l'IA. Selon M. Meserole, cet engagement illustre la reconnaissance par l'industrie de la nécessité de fixer des limites réglementaires pour garantir la sécurité des progrès de l'IA.

Mme Julia Stoyanovich, professeur associé à la Tandon School of Engineering & Center for Data Science de l'Université de New York, a abordé les défis de la sécurité de l'IA automatisée. Elle a souligné l'importance d'une conversation intersectorielle pour établir des valeurs communes dans le développement de l'IA. Mme Stoyanovich a fait remarquer que la responsabilité de l'éducation à l'IA incombe à la fois aux développeurs et aux décideurs politiques et qu'un dialogue équilibré est essentiel pour garantir la sécurité et les considérations éthiques dans les systèmes d'IA.

Mme Kerstin Vignard, analyste principale au laboratoire de physique appliquée de l'université Johns Hopkins, a critiqué la notion selon laquelle l'"innovation" est intrinsèquement fragile ou bénéfique. Elle a insisté pour que le développement de l'IA soit guidé par des normes réglementaires solides et pour que l'innovation s'aligne sur un ensemble commun de valeurs éthiques, en particulier dans les applications militaires. M. Vignard a noté que de nombreux chercheurs ne sont pas conscients de l'intérêt de la gouvernance pour la coopération et a souligné la nécessité pour les décideurs politiques de communiquer efficacement sur les défis de l'IA.

Thèmes et résultats clés :
En réponse aux questions sur l'amélioration de la collaboration entre les parties prenantes, les panélistes se sont accordés sur la nécessité d'une surveillance réglementaire et d'une approche multidirectionnelle de la connaissance de l'IA. Mme Stoyanovich a souligné l'importance de l'éducation et d'une perspective prospective sur les incidences de l'IA, tandis que M. Meserole a insisté sur le fait que les connaissances en matière de réglementation devraient être comprises à la fois par la communauté de l'IA et par les utilisateurs finaux. Mme Vignard a souligné l'importance d'attirer l'expertise technique pour soutenir les efforts politiques et communiquer les complexités de l'IA au niveau international.

L'événement s'est conclu par un appel au dialogue et à la coopération entre les parties prenantes afin de garantir que l'innovation en matière d'IA soutienne la paix et la sécurité, renforçant ainsi l'engagement des Nations unies en faveur d'une gouvernance responsable de l'IA.

Cet événement parallèle faisait partie du projet Promouvoir l'innovation responsable dans l'intelligence artificielle pour la paix et la sécurité, rendu possible grâce au financement généreux de l'Union européenne. Pour plus d'informations, veuillez contacter M. Charles Ovink, responsable des affaires politiques, à l'adresse charles.ovink@un.org


Appel aux étudiants : atelier éducatif sur l'IA responsable pour la paix et la sécurité

Le Bureau des Nations unies pour les affaires de désarmement (UNODA) et l'Institut international de recherche sur la paix de Stockholm (SIPRI)
L'Institut international de recherche sur la paix de Stockholm (SIPRI) offrent à un groupe d'étudiants
l'opportunité de participer à un atelier éducatif de deux jours sur l'IA responsable pour la paix et la sécurité
et la sécurité.

Quand et où: 20-21 novembre 2024, VUB AI Experience Centre, Bruxelles
Qui peut postuler: Étudiants en doctorat et en master en IA, robotique et disciplines connexes en sciences, technologie, ingénierie et mathématiques (par exemple, informatique, science des données, génie mécanique) affiliés à des universités en Europe, en Afrique, en Amérique centrale et du Sud, au Moyen-Orient, en Océanie et en Asie.
Comment: Les frais de voyage et d'hébergement des étudiants non locaux seront couverts par l'initiative Promouvoir l'innovation responsable en matière d'IA pour la paix et la sécurité

Comme pour les impacts de l'intelligence artificielle (IA) sur la vie quotidienne des gens, les impacts pour la paix et la sécurité internationales comprennent des opportunités et des défis importants et de grande envergure. L'IA peut contribuer à la réalisation des objectifs de développement durable des Nations unies, mais sa nature à double usage signifie que les applications pacifiques peuvent également être détournées à des fins néfastes telles que la désinformation politique, les cyberattaques, le terrorisme ou les opérations militaires. Dans le même temps, ceux qui étudient et développent l'IA dans le secteur civil restent trop souvent inconscients des risques que l'utilisation abusive de la technologie de l'IA civile peut poser pour la paix et la sécurité internationales et ne sont pas sûrs du rôle qu'ils peuvent jouer pour y remédier.

Dans ce contexte, l'UNODA et le SIPRI ont lancé, en 2023, une initiative éducative de trois ans sur la promotion de l'innovation responsable en matière d'IA pour la paix et la sécurité. Cette initiative, qui bénéficie du soutien du Conseil de l'Union européenne, vise à favoriser un plus grand engagement de la communauté civile de l'IA dans l'atténuation des conséquences involontaires de la recherche et de l'innovation en matière d'IA civile pour la paix et la sécurité.

Dans le cadre de cette initiative, le SIPRI et l'UNODA organisent une série d'ateliers de renforcement des capacités pour les étudiants des STEM (au niveau du doctorat et du master). Ces ateliers visent à donner l'occasion aux praticiens de l'IA en devenir de travailler ensemble et avec des experts pour apprendre a) comment la recherche et l'innovation en matière d'IA pacifique peuvent générer des risques pour la paix et la sécurité internationales ; b) comment ils peuvent aider à prévenir ou à atténuer ces risques par une recherche et une innovation responsables ; c) comment ils peuvent soutenir la promotion d'une IA responsable pour la paix et la sécurité.

Le quatrième atelier de la série se tiendra à Bruxelles, en Belgique, les 20 et 21 novembre 2024, en collaboration avec le centre d'expérience en IA de la VUB.

L'atelier est ouvert aux étudiants affiliés à des universités d'Europe, d'Amérique centrale et du Sud, du Moyen-Orient et d'Afrique, d'Océanie et d'Asie.

Les étudiants intéressés sont invités à soumettre leur intérêt via ce formulaire en ligne :
https://forms.office.com/e/Wb1t8bEE6F

Le SIPRI et l'UNODA sélectionneront les participants sur la base de leur motivation et de la diversité (y compris la représentation géographique, l'équilibre entre les sexes, l'orientation disciplinaire, les aspirations professionnelles). Notez qu'une connaissance préalable de l'éthique de l'IA ou de la paix et de la sécurité internationales n'est pas nécessaire et qu'aucun travail ne sera assigné en dehors de l'atelier. L'initiative couvrira les frais de voyage et fournira un hébergement aux étudiants qui doivent se rendre à Bruxelles.

Tous les participants qui auront suivi les ateliers avec succès recevront un certificat de participation des Nations Unies.

L'atelier est organisé en collaboration avec le AI Experience Centre de la VUB et est financé par l'Union européenne (
)


Table ronde à l'Instituto Superior Técnico sur l'innovation responsable pour la paix et la sécurité et la formation des futurs praticiens de l'IA

16 août 2024

Le Bureau des affaires de désarmement des Nations unies (UNODA) et l'Institut international de recherche sur la paix de Stockholm (SIPRI), en collaboration avec l'Instituto Superior Técnico de l'Université de Lisbonne, ont organisé une table ronde après la conclusion de la4e conférence Foundation of Trustworthy AI : Integrating Learning, Optimisation and Reasoning (TAILOR). La table ronde s'est déroulée selon la règle de Chatham House le 5 juin 2024, à l'Instituto Superior Técnico de l'Université de Lisbonne au Portugal. La réunion a rassemblé un groupe diversifié comprenant des experts en IA, des éducateurs spécialisés dans l'élaboration de programmes d'enseignement de l'IA et des représentants de la gouvernance.

Les participants à la table ronde discutent de l'intégration des considérations de paix et de sécurité dans la formation à l'IA à l'Instituto Superior Técnico, Université de Lisbonne.

Les participants à la table ronde ont discuté de l'intégration des considérations de paix et de sécurité dans la formation à l'IA à l'Instituto Superior Técnico, Université de Lisbonne. Les participants à la table ronde ont discuté de l'intégration des considérations de paix et de sécurité dans la formation à l'IA avec le personnel du projet. Les discussions ont porté sur l'intégration des risques liés à la paix et à la sécurité dans la formation des futurs praticiens de l'IA. Les participants ont exploré des stratégies pour intégrer l'éthique de l'IA et les principes de l'innovation responsable dans les cadres éducatifs, tout en abordant les défis de gouvernance liés à la prévention de l'utilisation abusive des technologies civiles de l'IA.

La table ronde a souligné le rôle essentiel de la collaboration et du dialogue dans l'élaboration de pratiques responsables en matière d'IA, en mettant en évidence l'engagement des parties prenantes à faire progresser les normes éthiques dans le développement de l'IA.

Restez à l'écoute pour d'autres mises à jour sur les initiatives qui façonnent l'avenir de l'éducation et de la gouvernance en matière d'IA. Pour plus d'informations sur les activités du Bureau des affaires de désarmement relatives à l'innovation responsable et à l'IA, veuillez contacter M. Charles Ovink, responsable des affaires politiques, à l'adresse suivante : charles.ovink@un.org


Renforcement des capacités des jeunes praticiens de l'IA lors d'un atelier sur la paix et la sécurité à Lisbonne

16 août 2024

Dans le cadre des efforts internationaux visant à favoriser le développement responsable de l'intelligence artificielle (IA), le Bureau des affaires de désarmement des Nations unies (UNODA) et l'Institut international de recherche sur la paix de Stockholm (SIPRI) ont organisé un atelier de renforcement des capacités sur l'IA responsable pour la paix et la sécurité, du 6 au 7 juin 2024, à Lisbonne, au Portugal. Cet événement a marqué une étape importante dans un projet en cours visant à traiter les risques posés par la recherche et l'innovation en matière d'IA civile pour la paix et la sécurité internationales.

De jeunes praticiens de l'IA du monde entier se sont réunis pour célébrer leurs progrès dans le développement de compétences en matière d'IA responsable.

L'atelier, organisé avec l'aide de l'Instituto Superior Técnico de l'Université de Lisbonne, a rassemblé un groupe sélectionné de jeunes praticiens de l'IA du monde entier à Lisbonne pour un atelier de renforcement des capacités de deux jours.

Cet atelier, le troisième d'une série de quatre organisée par l'UNODA et le SIPRI, visait à doter les jeunes praticiens de l'IA des connaissances et des compétences nécessaires pour faire face aux risques que la recherche et l'innovation en matière d'IA civile peuvent poser pour la paix et la sécurité internationales. Pendant deux jours, les participants ont pris part à des sessions interactives conçues pour améliorer leur compréhension des risques potentiels posés par la recherche et l'innovation en matière d'IA civile pour la paix et la sécurité internationales. Les méthodes de prévention ou d'atténuation de ces risques par une recherche et une innovation responsables, et la manière de contribuer à la promotion d'une IA responsable pour la paix et la sécurité, ont été des sujets de discussion importants.

L'atelier a permis aux participants de se familiariser avec les pratiques d'IA responsable grâce à des discussions et des sessions interactives, y compris un exercice d'équipe rouge et bleue. En plus d'offrir aux participants la possibilité de mener leurs propres évaluations des risques, de remettre en question des idées et de faire preuve de créativité, les participants à l'atelier ont également exploré les implications pour la paix et la sécurité d'une mauvaise utilisation potentielle de l'IA civile et le paysage de la gouvernance internationale.

L'événement a réuni 18 participants de 11 pays, dont l'Allemagne, le Brésil, la Chine, la France, l'Inde, l'Italie, le Mexique, le Portugal, la République de Corée, la Syrie et le Viêt Nam. Le groupe, composé de huit femmes et de dix hommes, représentait une cohorte diversifiée et inclusive.

Cet atelier s'inscrit dans le cadre d'une initiative financée par l'UE visant à promouvoir l'innovation responsable en matière d'IA pour la paix et la sécurité. Cette initiative s'inscrit dans le cadre d'un effort plus large visant à impliquer les étudiants en sciences, technologie, ingénierie et mathématiques (STEM) et à leur offrir des possibilités de renforcement des capacités en personne. L'objectif est de leur présenter les risques pour la paix et la sécurité posés par le développement de l'IA civile et la manière dont ces risques peuvent être identifiés, prévenus ou atténués grâce à des processus de recherche et de gouvernance responsables.

Le prochain et dernier atelier comprendra des sessions axées sur les éducateurs, les concepteurs de programmes d'études, l'industrie de l'IA et d'autres parties prenantes concernées.

Pour plus d'informations sur les activités du Bureau des affaires de désarmement relatives à l'innovation responsable et à l'IA, veuillez contacter M. Charles Ovink, responsable des affaires politiques, à l'adresse suivante : charles.ovink@un.org


Dialogue public multipartite : Aborder le risque d'utilisation abusive : que peut apprendre la communauté de l'IA de l'industrie biotechnologique ?

29 mai 2024

Notre récent événement public s'est penché sur le chevauchement fascinant entre l'intelligence artificielle et la biotechnologie. Nous avons réuni d'éminents experts, dont Eleonore Pauwels, Rik Bleijs et Clarissa Rios, pour disséquer la convergence de ces domaines et les risques qu'elle implique. Grâce à des discussions animées, nous avons exploré des stratégies d'innovation responsable et d'atténuation des risques.

Enregistrez ici


La prochaine génération de praticiens de l'IA du monde entier se réunit en Estonie pour s'informer sur l'innovation responsable de l'IA au service de la paix et de la sécurité

Mars 2024

Les 14 et 15 février, un groupe sélectionné de jeunes praticiens de l'intelligence artificielle (IA) du monde entier s'est réuni à Tallinn pour un atelier de renforcement des capacités de deux jours sur l'IA responsable pour la paix et la sécurité, organisé par le Bureau des affaires de désarmement des Nations unies (UNODA) et l'Institut international de recherche sur la paix de Stockholm (SIPRI), en coopération avec l'Université de technologie de Tallinn.

De jeunes praticiens de l'IA du monde entier célèbrent le développement de leurs compétences en matière d'IA responsable.

L'atelier - le deuxième d'une série de quatre - visait à donner aux praticiens de l'IA en devenir l'occasion d'apprendre à gérer les risques que la recherche et l'innovation en matière d'IA civile peuvent poser pour la paix et la sécurité internationales. Pendant deux jours, les jeunes participants d'horizons divers ont participé à des activités interactives visant à mieux comprendre (a) comment la recherche et l'innovation en matière d'IA civile peuvent présenter des risques pour la paix et la sécurité internationales ; (b) comment ils peuvent contribuer à prévenir ou à atténuer ces risques par une recherche et une innovation responsables ; et (c) comment ils peuvent contribuer à la promotion d'une IA responsable au service de la paix et de la sécurité.

Grâce à des séminaires interactifs, des sondages en direct et des exercices en équipe rouge et équipe bleue basés sur des scénarios, l'atelier a permis aux participants de se familiariser avec le domaine de l'IA responsable, les dimensions particulières de l'utilisation abusive de l'IA civile pour la paix et la sécurité, l'environnement de gouvernance internationale, et de travailler sur leurs propres évaluations des risques, de remettre en question des idées et de s'engager de manière créative.

L'événement a rassemblé 18 participants de 13 pays, à savoir la Chine, l'Égypte, l'Estonie, la Grèce, l'Inde, l'Indonésie, l'Iran, l'Italie, la Lituanie, les Philippines, la Roumanie, Singapour et la Turquie.

De jeunes praticiens de l'IA discutent de la gestion des risques au cours d'un exercice basé sur un scénario.

L'atelier fait partie d'une initiative financée par l'UE sur la promotion de l'innovation responsable en matière d'IA pour la paix et la sécurité, et s'inscrit dans le cadre d'un pilier permanent axé sur la participation de divers groupes d'étudiants en sciences, technologies, ingénierie et mathématiques (STIM) et sur le renforcement des capacités en personne afin de leur présenter la manière dont les risques pour la paix et la sécurité posés par le détournement et l'utilisation abusive du développement de l'IA civile par des acteurs irresponsables peuvent être identifiés, prévenus ou atténués dans le processus de recherche et d'innovation ou par le biais d'autres processus de gouvernance.

La série d'ateliers à succès se poursuivra tout au long de l'année 2024, ainsi que des piliers axés sur les éducateurs et les concepteurs de programmes d'études, ainsi que sur l'industrie de l'IA et d'autres acteurs.

Pour plus d'informations sur les activités du Bureau des affaires de désarmement relatives à l'innovation responsable et à l'IA, veuillez contacter M. Charles Ovink, responsable des affaires politiques, à l'adresse charles.ovink@un.org.


Des experts en IA du monde entier se réunissent pour un dialogue multipartite sur l'IA responsable pour la paix et la sécurité

25 septembre 2023

Les 13 et 14 septembre, le Bureau des affaires de désarmement des Nations unies et ses partenaires de l'Institut international de recherche sur la paix de Stockholm (SIPRI) ont réuni 15 experts en intelligence artificielle (IA) issus de l'industrie, du monde universitaire, de la société civile et de la gouvernance pour deux jours de discussion. Au cours de ce dialogue multipartite, les participants ont exploré les tendances de la recherche et de l'innovation en matière d'IA susceptibles de générer des risques pour la paix et la sécurité, et ont examiné les moyens d'atténuer ces risques, notamment par la promotion de pratiques d'innovation responsables (en anglais) lire la suite..


Engagement du SIPRI et de l'UNODA auprès des praticiens de l'IA de la prochaine génération

4 décembre 2023

Les 16 et 17 novembre, l'Institut international de recherche sur la paix de Stockholm (SIPRI) et le Bureau des affaires de désarmement des Nations Unies (UNODA) ont organisé un atelier de renforcement des capacités de deux jours sur " l'IA responsable pour la paix et la sécurité " à l'intention d'un groupe sélectionné d'étudiants en STEM.

Cet atelier, le premier d'une série de quatre, visait à donner aux praticiens de l'intelligence artificielle (IA) en devenir l'occasion d'apprendre comment faire face aux risques que la recherche et l'innovation en matière d'IA civile peuvent poser pour la paix et la sécurité internationales.

L'événement, organisé à Malmö en collaboration avec l'université de Malmö et l'université d'Umeå, a réuni 24 participants de 17 pays, dont l'Allemagne, l'Australie, le Bangladesh, la Chine, l'Équateur, les États-Unis, la France, la Finlande, la Grèce, l'Inde, le Mexique, les Pays-Bas, Singapour, le Royaume-Uni et la Suède.

Pendant deux jours, les participants ont participé à des activités interactives visant à mieux comprendre(a) comment la recherche et l'innovation en matière d'IA pacifique peuvent présenter des risques pour la paix et la sécurité internationales ;(b) comment ils peuvent aider à prévenir ou à atténuer ces risques par une recherche et une innovation responsables ; et(c) comment ils peuvent contribuer à la promotion d'une IA responsable pour la paix et la sécurité.

Des professeurs de l'université d'Umeå et de l'université de Malmö ont participé à l'événement.

La série d'ateliers, qui se poursuivra jusqu'en 2024, fait partie d'une initiative financée par l'Union européenne sur "l'innovation responsable dans l'IA pour la paix et la sécurité", menée conjointement par le SIPRI et l'UNODA.

La prochaine itération de l'atelier se tiendra du 14 au 15 février 2024, à Tallinn, en Estonie, en partenariat avec l'Université de technologie de Tallinn.


Déclaration de financement

Ce programme a été rendu possible grâce au soutien généreux de l'Union européenne