Поддержка специалистов-практиков в области ИИ при устранении критических рисков - запуск Руководства по ответственным инновациям в области ИИ для международного мира и безопасности

5 августа 2025 года

Благодаря таким факторам, как прорыв в машинном обучении, доступ к данным и аппаратные инновации, достижения в области ИИ используются в самых разных областях - от открытия лекарств до управления цепочками поставок. Однако эти же достижения представляют реальную опасность для международного мира и безопасности.

Хотя частично это связано с потенциалом ИИ для военных целей, даже разработки ИИ, предназначенные исключительно для гражданского использования, могут быть использованы в злонамеренных или вредных целях, начиная от кампаний по дезинформации и кибератак и заканчивая террористическими операциями. Технология не является нейтральной по своей сути, и решения, принимаемые на протяжении всего жизненного цикла ИИ, а также действия, которым ИИ способствует, также могут повлиять на международный мир и безопасность.

Специалистам по ИИ бывает трудно предугадать, как их работа может привести к непредвиденным негативным последствиям, однако, учитывая их положение в жизненном цикле ИИ, они имеют все возможности для того, чтобы помочь устранить эти риски, и могут сыграть решающую роль в их снижении. С начала 2023 года Управление ООН по вопросам разоружения (UNODA) и Стокгольмский международный институт исследования проблем мира (SIPRI) сотрудничают со специалистами-практиками в области ИИ, включая представителей академических кругов, гражданского общества и промышленности, со всего мира для тестирования и разработки образовательных материалов, которые можно внедрить в STEM-образование и помочь будущим специалистам в области ИИ устранить риски для международного мира и безопасности в самом их источнике.

На основе этой работы в июле ЮНОДА и СИПРИ выпустили Руководство по ответственным инновациям в области ИИ для международного мира и безопасности- ценный ресурс для преподавателей и студентов, изучающих ИИ и стремящихся к ответственному подходу к инновациям. Руководство было разработано для того, чтобы помочь практикам ИИ осознать, как их работа может повлиять на международный мир и безопасность, помочь снизить риски, которые может представлять их работа, и принять участие в обсуждении взаимосвязи между ИИ и международным миром и безопасностью. Справочник предназначен для использования преподавателями, желающими включить материалы в свои учебные программы, а также для индивидуальных читателей. Справочник является одним из результатов более широкого проекта "Продвижение ответственных инноваций в области искусственного интеллекта в интересах мира и безопасности", осуществляемого Управлением ООН по вопросам разоружения (UNODA) и Стокгольмским международным институтом исследования проблем мира (SIPRI) при щедрой поддержке Европейского Союза.

Сделать ИИ безопасным для ИИ во благо - устранение рисков, которые представляет для международного мира и безопасности неправильное использование гражданского искусственного интеллекта

10 июля 2025 г

Можно ли устранить риски, представляющие угрозу международному миру и безопасности в результате неправомерного использования гражданского искусственного интеллекта (ИИ), в самом их источнике? УНП ООН вышло на сцену решений на ежегодном саммите AI for Good Summit в Женеве, организованном Международным союзом электросвязи, чтобы ответить на этот вопрос.

Многие представители сообщества гражданского ИИ не осознают, что сегодняшние инновации в области ИИ могут иметь серьезные последствия для международного мира и безопасности. Тем не менее, специалисты по ИИ могут сами играть важную роль в снижении рисков, особенно в случае неправильного использования гражданских продуктов ИИ, и делать это на ранних этапах жизненного цикла ИИ.

Перед аудиторией, насчитывающей более 200 человек, Чарли Овинк (UNODA), Жюль Палайер (Стокгольмский международный институт исследования проблем мира) и Вивианна Манлай(Talos Network) подчеркнули, что изменения должны начинаться с обучения специалистов-практиков в области ИИ, и предложили взгляды экспертов, преподавателей и студентов, изучающих ИИ, на то, что для этого необходимо. При щедрой поддержке Европейской службы внешних действий SIPRI и UNODA работают с преподавателями и студентами в области ИИ со всего мира над решением этой и других проблем в рамках проекта "Продвижение ответственных инноваций в области ИИ для мира и безопасности".

Как образование в области НТИМ может помочь будущим специалистам в области ИИ справиться с рисками для международного мира и безопасности? Встреча гражданских экспертов по ИИ в Нью-Йорке

10 мая 2025 г

8-9 мая 2025 года УНП ООН, СИПРИ и Нью-Йоркский университет собрали ведущих исследователей ИИ, преподавателей и студентов в Нью-Йоркском университете Тэндон и штаб-квартире ООН на двухдневный семинар, посвященный ответственным инновациям в области ИИ и предоставлению сообществу гражданских специалистов по ИИ - особенно следующему поколению практиков ИИ - необходимых знаний и средств для участия в ответственных инновациях и обеспечения мирного применения технологий гражданского ИИ. Первый день был посвящен интеграции осознания двойного назначения и других рисков в учебные программы STEM и предоставил участникам платформу для обмена передовым опытом в области обучения ИИ. Во второй день состоялся диалог на высоком уровне с представителями политического сообщества, включая Амандипа Гилла (заместителя Генерального секретаря и специального посланника Генерального секретаря по цифровым и новейшим технологиям, ODET), Адедеджи Эбо (директора и заместителя Высокого представителя по вопросам разоружения, UNODA) и Маритцу Чан Вальверде (председателя Первого комитета Генеральной Ассамблеи ООН). Семинар стал возможен благодаря щедрой поддержке Европейского Союза и проводился в рамках проекта "Продвижение ответственных инноваций в области искусственного интеллекта для мира и безопасности".

Привлечение гражданского сообщества ИИ для предотвращения неправильного использования технологий ИИ

8 мая 2025 г

Как гражданское сообщество ИИ может помочь предотвратить неправильное использование технологий ИИ? 7 мая 2025 года УНП ООН, СИПРИ, Центр ответственного ИИ Нью-Йоркского университета и Центр робототехники и воплощенного интеллекта Нью-Йоркского университета собрали группу международных специалистов-практиков в области ИИ, ученых, делегатов государств-членов и других участников для мощной дискуссии о снижении рисков неправильного использования ИИ в гражданских целях. Мероприятие включало в себя интерактивную экскурсию по Центру робототехники и искусственного интеллекта Нью-Йоркского университета, после чего состоялась динамичная дискуссия и открытое обсуждение, в ходе которого эксперты поделились мнениями об ответственных инновациях, проблемах двойного назначения, а также о роли образования и международного сотрудничества в процессе уменьшения рисков. Это мероприятие является частью проекта "Продвижение ответственных инноваций в области искусственного интеллекта для мира и безопасности", который стал возможен благодаря щедрому вкладу Европейского Союза.


UNODA, SIPRI и ЕС возглавили диалог об ответственном искусственном интеллекте на параллельном мероприятии Первого комитета ГА ООН

8 ноября 2024 г

Справа налево: Г-жа Юлия Стоянович, г-н Марк Месерол, г-жа Керстин Виньяр, г-н Чарльз Овинк, г-н Винсент Буланин и г-жа Маркета Гомолкова

18 октября 2024 г
18 октября Управление ООН по вопросам разоружения (UNODA) в партнерстве со Стокгольмским международным институтом исследования проблем мира (SIPRI) и Европейским Союзом провело параллельное мероприятие Первого комитета Генеральной Ассамблеи ООН, посвященное ответственным инновациям в области искусственного интеллекта (ИИ) для мира и безопасности. Мероприятие, озаглавленное "Ответственный ИИ для мира и безопасности: Как справиться с рисками, связанными с неправильным использованием ИИ в гражданских целях", собрало более 60 различных заинтересованных сторон из научных кругов, гражданского общества, промышленности и международных организаций.

Вступительное слово:
Г-жа Маркета Гомолкова, руководитель Политического отдела по вопросам разоружения и нераспространения, Представительство ЕС в Женеве, и г-жа Радха Дэй, руководитель Сектора регионального разоружения, информации и информационно-просветительской работы УНП ООН, открыли мероприятие. Г-жа Гомолькова рассказала о поддержке ЕС проектов в области разоружения, отметив необходимость адаптации усилий по контролю над вооружениями к появляющимся технологиям и растущую угрозу неправильного использования ИИ в таких областях, как химическое и биологическое оружие. Г-жа Дэй подчеркнула, что ИИ является "горячей зоной" в дискуссиях по разоружению, указав на необходимость многостороннего участия и экспертизы для решения проблем, которые ИИ создает для международного мира и безопасности.

Основная дискуссия:
Участники дискуссии рассмотрели три основных вопроса, поставленных модератором г-ном Чарльзом Овинком, сотрудником по политическим вопросам УНП ООН: влияние гражданского ИИ на международный мир и безопасность, текущие усилия по управлению и пути укрепления связей между структурами управления.

Участники дискуссии рассмотрят, как текущие усилия по управлению справляются с рисками, связанными с гражданским ИИ

Г-н Винсент Буланин (Vincent Boulanin), директор Программы СИПРИ по управлению ИИ, выделил три категории рисков: случайные риски, связанные с ошибками в проектировании ИИ, политические риски, связанные с неправильным использованием ИИ, и физические риски, в том числе в результате его интеграции в военную робототехнику. Он отметил Закон ЕС об искусственном интеллекте и Закон Калифорнии о прозрачности ИИ в качестве примеров значительных последних изменений в нормативно-правовой базе. Г-н Буланин также упомянул Консультативный орган высокого уровня по ИИ при Генеральном секретаре ООН как важнейшее событие для контроля за влиянием гражданских приложений ИИ, в том числе на международный мир и безопасность.

Выступая от частного сектора, Крис Месерол, исполнительный директор Frontier Model Forum, рассказал об уроках, извлеченных из предыдущих технологических достижений, и подчеркнул, что компании готовы к ответственному подходу к ИИ. Он рассказал о недавнем сотрудничестве правительства США с крупнейшими компаниями, занимающимися разработкой ИИ, с целью продвижения принципов безопасности, защиты и доверия при разработке ИИ. По словам г-на Месерола, это обязательство иллюстрирует признание индустрией необходимости введения регулятивных ограничений для обеспечения безопасного развития ИИ.

Г-жа Джулия Стоянович, доцент Инженерной школы Тандона и Центра науки о данных Нью-Йоркского университета, рассказала о проблемах безопасности автоматизированного ИИ. Она заявила о важности межсекторного обсуждения, чтобы установить общие ценности в развитии ИИ. Стоянович отметила, что ответственность за обучение ИИ лежит как на разработчиках, так и на политиках, и что сбалансированный диалог необходим для обеспечения безопасности и соблюдения этических норм в системах ИИ.

Г-жа Керстин Виньярд, старший аналитик Лаборатории прикладной физики Университета Джонса Хопкинса, подвергла критике мнение о том, что "инновации" по своей сути хрупки или полезны, призвав к тому, чтобы разработка ИИ велась в соответствии с надежными нормативными стандартами, и чтобы инновации соответствовали общему набору этических ценностей, особенно в военных приложениях. Виньярд отметил, что многие исследователи не знают о заинтересованности руководства в сотрудничестве, и подчеркнул, что политикам необходимо эффективно информировать о проблемах ИИ.

Ключевые темы и результаты:
Отвечая на вопросы об улучшении сотрудничества заинтересованных сторон, участники дискуссии сошлись во мнении о необходимости нормативного надзора и разнонаправленного подхода к повышению грамотности в области ИИ. Г-жа Стоянович подчеркнула важность образования и перспективного взгляда на влияние ИИ, а г-н Месерол подчеркнул, что нормативная грамотность должна быть взаимно понятна как сообществу ИИ, так и конечным пользователям. Г-жа Виньярд подчеркнула важность привлечения технических специалистов для поддержки политических усилий и разъяснения сложностей ИИ на международном уровне.

Мероприятие завершилось призывом к постоянному диалогу и сотрудничеству между заинтересованными сторонами для обеспечения того, чтобы инновации ИИ поддерживали мир и безопасность, укрепляя обязательства ООН по ответственному управлению ИИ.

Данное мероприятие было проведено в рамках проекта "Продвижение ответственных инноваций в области искусственного интеллекта для мира и безопасности", который стал возможен благодаря щедрому финансированию Европейского Союза. За дополнительной информацией обращайтесь к г-ну Чарльзу Овинку, сотруднику по политическим вопросам, по адресу charles.ovink@un.org


Призыв для студентов: образовательный семинар по ответственному ИИ для мира и безопасности

Управление ООН по вопросам разоружения (UNODA) и Стокгольмский
Международный институт исследования проблем мира (SIPRI) предлагают избранной группе студентов технических специальностей
студентам возможность принять участие в 2-дневном образовательном семинаре по теме "Ответственный ИИ для мира и безопасности
и безопасности.

Когда и где: 20-21 ноября 2024 г., VUB AI Experience Centre, Брюссель
Кто может подать заявку: Докторанты и магистранты, изучающие ИИ, робототехнику и смежные дисциплины в области науки, техники, инженерии и математики (например, информатику, науку о данных, машиностроение) в университетах Европы, Африки, Центральной и Южной Америки, Ближнего Востока, Океании и Азии.
Как: Расходы на проезд и проживание неместных студентов будут покрыты за счет инициативы "Продвижение ответственных инноваций в области искусственного интеллекта для мира и безопасности"

Как и влияние искусственного интеллекта (ИИ) на повседневную жизнь людей, его воздействие на международный мир и безопасность включает в себя широкие и значительные возможности и проблемы. ИИ может помочь в достижении Целей устойчивого развития ООН, но его двойное назначение означает, что мирные приложения также могут быть использованы во вредных целях, таких как политическая дезинформация, кибератаки, терроризм или военные операции. Между тем, те, кто исследует и разрабатывает ИИ в гражданском секторе, слишком часто не знают о рисках, которые неправильное использование технологий гражданского ИИ может представлять для международного мира и безопасности, и не уверены в том, какую роль они могут сыграть в их устранении.

На этом фоне УНП ООН и SIPRI запустили в 2023 году трехлетнюю образовательную инициативу "Продвижение ответственных инноваций в области ИИ для мира и безопасности". Эта инициатива, поддержанная Советом Европейского Союза, направлена на содействие более активному участию гражданского сообщества ИИ в смягчении непредвиденных последствий исследований и инноваций в области гражданского ИИ для мира и безопасности.

В рамках этой инициативы SIPRI и UNODA организуют серию семинаров по наращиванию потенциала для студентов STEM (на уровне PhD и Master). Цель этих семинаров - дать возможность начинающим специалистам в области ИИ поработать вместе с экспертами, чтобы узнать: а) как мирные исследования и инновации в области ИИ могут создавать риски для международного мира и безопасности; б) как они могут помочь предотвратить или смягчить эти риски с помощью ответственных исследований и инноваций; в) как они могут поддержать продвижение ответственного ИИ в интересах мира и безопасности.

Четвертый семинар из этой серии будет проведен в Брюсселе, Бельгия, 20-21 ноября 2024 года в сотрудничестве с центром VUB AI Experience.

Семинар открыт для студентов, обучающихся в университетах Европы, Центральной и Южной Америки, Ближнего Востока и Африки, Океании и Азии.

Заинтересованные студенты могут подать заявку через эту онлайн-форму:
https://forms.office.com/e/Wb1t8bEE6F

SIPRI и UNODA будут отбирать участников на основе мотивации, а также с учетом разнообразия (включая географическое представительство, гендерный баланс, дисциплинарную направленность, карьерные устремления). Обратите внимание, что предварительное знание этики ИИ или международного мира и безопасности не является обязательным требованием, и никакая работа вне семинара задаваться не будет. Инициатива покроет дорожные расходы и предоставит жилье студентам, которым необходимо будет приехать в Брюссель.

Все участники, успешно прошедшие семинары, получат сертификат об участии от Организации Объединенных Наций.

Семинар организован в сотрудничестве с Центром опыта искусственного интеллекта VUB и финансируется Европейским Союзом


Круглый стол в Высшем техническом институте по вопросам ответственных инноваций для мира и безопасности и обучения будущих специалистов по ИИ

16 августа 2024 г

Управление ООН по вопросам разоружения (UNODA) и Стокгольмский международный институт исследования проблем мира (SIPRI) в сотрудничестве с Высшим техническим институтом при Лиссабонском университете организовали круглый стол после завершения4-й конференции Foundation of Trustworthy AI: Integrating Learning, Optimisation and Reasoning (TAILOR). Круглый стол проходил в соответствии с правилом Чатем-Хаус 5 июня 2024 года в Высшем техническом институте Лиссабонского университета в Португалии. На встрече собралась разнообразная группа, включая экспертов по ИИ, преподавателей, специализирующихся на разработке учебных программ по ИИ, и представителей органов управления.

Участники круглого стола обсуждают интеграцию соображений мира и безопасности в обучение ИИ в Высшем техническом институте Лиссабонского университета.

Участники круглого стола обсудили интеграцию соображений мира и безопасности в обучение искусственному интеллекту в Высшем техническом институте Лиссабонского университета. Участники круглого стола обсудили с сотрудниками проекта интеграцию соображений мира и безопасности в обучение искусственному интеллекту. Обсуждения были посвящены включению вопросов, связанных с рисками для мира и безопасности, в программу подготовки будущих специалистов по ИИ. Участники изучили стратегии интеграции этики ИИ и принципов ответственных инноваций в образовательные рамки, а также рассмотрели проблемы управления, связанные с предотвращением неправомерного использования гражданских технологий ИИ.

Круглый стол подчеркнул важнейшую роль сотрудничества и диалога в формировании ответственной практики ИИ, подчеркнув приверженность заинтересованных сторон к продвижению этических стандартов в разработке ИИ.

Следите за новостями об инициативах, определяющих будущее образования и управления в области ИИ. Для получения дополнительной информации о деятельности Управления по вопросам разоружения в области ответственных инноваций и ИИ, пожалуйста, свяжитесь с г-ном Чарльзом Овинком, сотрудником по политическим вопросам, по адресу charles.ovink@un.org


Расширение возможностей молодых специалистов по ИИ на семинаре по вопросам мира и безопасности в Лиссабоне

16 августа 2024 г

В рамках международных усилий по содействию ответственному развитию искусственного интеллекта (ИИ) Управление ООН по вопросам разоружения (UNODA) и Стокгольмский международный институт исследования проблем мира (SIPRI) организовали семинар по наращиванию потенциала на тему "Ответственный ИИ для мира и безопасности", который прошел с 6 по 7 июня 2024 года в Лиссабоне, Португалия. Это мероприятие стало важной вехой в текущем проекте, направленном на устранение рисков, которые представляют собой исследования и инновации в области гражданского ИИ для международного мира и безопасности.

Молодые специалисты-практики в области ИИ со всего мира собрались вместе, чтобы отметить свой прогресс в развитии ответственных навыков ИИ.

Семинар, проведенный при содействии Высшего технического института при Лиссабонском университете, собрал избранную группу молодых специалистов-практиков в области ИИ со всего мира в Лиссабоне на двухдневный семинар по развитию потенциала.

Семинар, третий в запланированной серии из четырех, организованных УНП ООН и СИПРИ, был нацелен на то, чтобы вооружить молодых специалистов-практиков в области ИИ знаниями и навыками, необходимыми для устранения рисков, которые исследования и инновации в области гражданского ИИ могут представлять для международного мира и безопасности. В течение двух дней участники участвовали в интерактивных сессиях, призванных углубить их понимание потенциальных рисков, которые представляют собой гражданские исследования и инновации в области ИИ для международного мира и безопасности. Важными темами для обсуждения стали методы предотвращения или уменьшения этих рисков с помощью ответственных исследований и инноваций, а также то, как внести свой вклад в продвижение ответственного ИИ для мира и безопасности.

Семинар предоставил участникам возможность ознакомиться с практикой ответственного ИИ в ходе интерактивных обсуждений и сессий, включая упражнение "красная и синяя команда". Помимо того, что участникам предоставили возможность провести собственную оценку рисков, оспорить идеи и творчески подойти к работе, участники семинара также изучили последствия для мира и безопасности потенциального злоупотребления гражданским ИИ и ландшафт международного управления.

В мероприятии приняли участие 18 человек из 11 стран, включая Бразилию, Китай, Францию, Германию, Индию, Италию, Мексику, Португалию, Республику Корея, Сирию и Вьетнам. Группа, состоящая из восьми женщин и десяти мужчин, представляла собой разнообразную и инклюзивную когорту.

Этот семинар является частью финансируемой ЕС инициативы, направленной на продвижение ответственных инноваций в области ИИ для мира и безопасности. Эта инициатива является частью более широких усилий по привлечению студентов, изучающих естественные науки, технологии, инженерию и математику (STEM), и предоставлению им возможностей для личного обучения. Цель состоит в том, чтобы познакомить их с рисками для мира и безопасности, которые несет в себе развитие гражданского ИИ, и с тем, как эти риски можно выявить, предотвратить или смягчить с помощью ответственных исследований и процессов управления.

На следующем и заключительном семинаре будут проведены сессии, ориентированные на преподавателей, разработчиков учебных программ, представителей индустрии ИИ и других заинтересованных сторон.

Для получения дополнительной информации о деятельности Управления по вопросам разоружения в области ответственных инноваций и ИИ, пожалуйста, свяжитесь с г-ном Чарльзом Овинком, сотрудником по политическим вопросам, по адресу charles.ovink@un.org


Публичный диалог с участием многих заинтересованных сторон: Устранение риска неправомерного использования: чему сообщество ИИ может научиться у биотехнологической индустрии?

29 мая 2024 г

Наше недавнее публичное мероприятие было посвящено увлекательному переплетению искусственного интеллекта и биотехнологий. Мы собрали известных экспертов, включая Элеонору Паувельс, Рика Блейса и Клариссу Риос, чтобы обсудить слияние этих областей и связанные с этим риски. В ходе увлекательных дискуссий мы изучили стратегии ответственного подхода к инновациям и снижению рисков.

Запись здесь


Следующее поколение специалистов-практиков в области ИИ со всего мира встречается в Эстонии, чтобы узнать об ответственных инновациях в области ИИ для мира и безопасности

Март, 2024 г

14 и 15 февраля избранная группа молодых специалистов-практиков в области искусственного интеллекта (ИИ) со всего мира собралась в Таллинне на двухдневный семинар по развитию потенциала на тему "Ответственный ИИ для мира и безопасности", организованный Управлением ООН по вопросам разоружения (UNODA) и Стокгольмским международным институтом исследования проблем мира (SIPRI) в сотрудничестве с Таллиннским технологическим университетом.

Молодые специалисты-практики в области ИИ со всего мира отмечают свое развитие навыков ответственного ИИ.

Цель семинара - второго в серии из четырех - предоставить начинающим специалистам в области ИИ возможность узнать, как устранить риски, которые исследования и инновации в области гражданского ИИ могут представлять для международного мира и безопасности. В течение двух дней молодые участники, представляющие различные слои общества, участвовали в интерактивных мероприятиях, направленных на углубление понимания того, (а) как исследования и инновации в области гражданского ИИ могут создавать риски для международного мира и безопасности; (б) как они могут помочь предотвратить или смягчить эти риски с помощью ответственных исследований и инноваций; и (в) как они могут внести свой вклад в продвижение ответственного ИИ для мира и безопасности.

Благодаря интерактивным семинарам, опросам, а также упражнениям "красной" и "синей" групп, основанным на сценариях, участники получили представление об ответственном ИИ, об особых аспектах неправомерного использования гражданского ИИ в интересах мира и безопасности, о международной среде управления, а также возможность провести собственную оценку рисков, проверить идеи и творчески подойти к работе.

Мероприятие собрало 18 участников из 13 стран, а именно из Китая, Египта, Эстонии, Греции, Индии, Индонезии, Ирана, Италии, Литвы, Филиппин, Румынии, Сингапура и Турции.

Молодые специалисты-практики в области ИИ обсуждают, как управлять рисками во время упражнения, основанного на сценарии.

Семинар является частью финансируемой ЕС инициативы "Продвижение ответственных инноваций в области ИИ для мира и безопасности" и представляет собой часть постоянного компонента, направленного на привлечение различных групп студентов, изучающих естественные науки, технологии, инженерию и математику (STEM), и предоставление им возможности лично ознакомиться с тем, как можно выявить, предотвратить или смягчить риски для мира и безопасности, возникающие в результате перенаправления и неправильного использования гражданских разработок ИИ безответственными субъектами в процессе исследований и инноваций или с помощью других процессов управления.

Успешная серия семинаров будет продолжаться в течение 2024 года, наряду с основными направлениями, ориентированными на преподавателей и разработчиков учебных программ, а также на представителей индустрии ИИ и других организаций.

За дополнительной информацией о деятельности Управления по вопросам разоружения в области ответственных инноваций и ИИ обращайтесь к г-ну Чарльзу Овинку, сотруднику по политическим вопросам, по адресу charles.ovink@un.org.


Эксперты в области ИИ со всего мира объединяются для участия в многостороннем диалоге по ответственному ИИ для мира и безопасности

25 сентября 2023 г

13 и 14 сентября Управление ООН по вопросам разоружения и его партнеры из Стокгольмского международного института исследования проблем мира (SIPRI) собрали 15 экспертов в области искусственного интеллекта (ИИ) из промышленности, научных кругов, гражданского общества и органов управления для двухдневного обсуждения. В ходе многостороннего диалога участники изучили тенденции в исследованиях и инновациях в области ИИ, которые могут создавать риски для мира и безопасности, и рассмотрели способы снижения таких рисков, в том числе с помощью продвижения ответственной инновационной практики Читать далее..


SIPRI и UNODA взаимодействуют с практиками нового поколения в области ИИ

4 декабря 2023 г

С 16 по 17 ноября Стокгольмский международный институт исследования проблем мира (SIPRI) и Управление ООН по вопросам разоружения (UNODA) организовали двухдневный семинар по развитию потенциала на тему "Ответственный ИИ для мира и безопасности" для избранной группы студентов, изучающих технические науки.

Цель семинара - первого в серии из четырех - предоставить начинающим специалистам в области искусственного интеллекта (ИИ) возможность узнать, как устранить риски, которые исследования и инновации в области гражданского ИИ могут представлять для международного мира и безопасности.

В мероприятии, проведенном в Мальме в сотрудничестве с Университетом Мальме и Университетом Умео, приняли участие 24 человека из 17 стран, включая Австралию, Бангладеш, Китай, Эквадор, Францию, Финляндию, Германию, Грецию, Индию, Мексику, Нидерланды, Сингапур, Швецию, Великобританию и Соединенные Штаты.

В течение двух дней участники участвовали в интерактивных мероприятиях, направленных на углубление понимания того,) как мирные исследования и инновации в области ИИ могут создавать риски для международного мира и безопасности;) как они могут помочь предотвратить или смягчить эти риски с помощью ответственных исследований и инноваций; и) как они могут внести свой вклад в продвижение ответственного ИИ для мира и безопасности.

В мероприятии приняли участие профессора из Университета Умео и Университета Мальмё.

Серия семинаров, которая продлится до 2024 года, является частью финансируемой Европейским Союзом инициативы "Ответственные инновации в области ИИ для мира и безопасности", проводимой совместно SIPRI и UNODA.

Следующая итерация семинара пройдет с 14 по 15 февраля 2024 года в Таллинне, Эстония, в партнерстве с Таллиннским технологическим университетом.


Заявление о финансировании

Эта программа стала возможной благодаря щедрой поддержке Европейского Союза