

دعم ممارسي الذكاء الاصطناعي في التصدي للمخاطر الحرجة - إطلاق دليل الابتكار المسؤول في مجال الذكاء الاصطناعي من أجل السلام والأمن الدوليين
5 أغسطس 2025
مدفوعًا بعوامل مثل الاختراقات في التعلم الآلي، والوصول إلى البيانات، وابتكارات الأجهزة، يتم استخدام التقدم في الذكاء الاصطناعي في مجالات من اكتشاف الأدوية إلى إدارة سلسلة التوريد. ومع ذلك، فإن هذا التقدم نفسه يمثل أيضًا مخاطر حقيقية على السلام والأمن الدوليين.
وبينما ينبع بعض هذه المخاطر من إمكانية استخدام الذكاء الاصطناعي لأغراض عسكرية، إلا أنه حتى تطورات الذكاء الاصطناعي المخصصة للاستخدام المدني فقط يمكن إعادة توظيفها لأغراض خبيثة أو ضارة، بدءًا من حملات التضليل والهجمات الإلكترونية إلى العمليات الإرهابية. إن التكنولوجيا ليست محايدة بطبيعتها، والقرارات المتخذة عبر دورة حياة الذكاء الاصطناعي، وكذلك الإجراءات التي يسهلها الذكاء الاصطناعي، لا بد أن تؤثر أيضًا على السلام والأمن الدوليين.
قد يكون من الصعب على ممارسي الذكاء الاصطناعي التنبؤ بكيفية تأثير عملهم على العواقب السلبية غير المقصودة، ولكن نظراً لمواقعهم في دورة حياة الذكاء الاصطناعي، فإنهم في وضع جيد للمساعدة في معالجة هذه المخاطر، ويمكنهم القيام بأدوار حاسمة في التخفيف من حدتها. منذ أوائل عام 2023، عمل مكتب الأمم المتحدة لشؤون نزع السلاح (UNODA) ومعهد ستوكهولم الدولي لبحوث السلام (SIPRI) مع ممارسي الذكاء الاصطناعي، بما في ذلك في الأوساط الأكاديمية والمجتمع المدني والصناعة، من جميع أنحاء العالم لاختبار وتطوير مواد تعليمية يمكن إدخالها في تعليم العلوم والتكنولوجيا والهندسة والرياضيات، ومساعدة ممارسي الذكاء الاصطناعي في المستقبل على معالجة المخاطر التي تهدد السلام والأمن الدوليين في مصدرها.
واستنادًا إلى هذا العمل، أطلق مكتب الأمم المتحدة المعني بالمخدرات والجريمة ومعهد ستوكهولم الدولي لبحوث السلام في يوليو دليل الابتكار المسؤول في مجال الذكاء الاصطناعي من أجل السلام والأمن الدوليين، وهو مورد قيّم لمعلمي الذكاء الاصطناعي والطلاب الذين يتطلعون إلى الابتكار المسؤول. وقد صُمم الكتيب لدعم ممارسي الذكاء الاصطناعي في الانتباه إلى الكيفية التي يمكن أن يكون لعملهم عواقب على السلم والأمن الدوليين، والمساعدة في التخفيف من المخاطر التي قد يمثلها عملهم، والمشاركة في المناقشات حول العلاقة بين الذكاء الاصطناعي والسلم والأمن الدوليين. صُمم الكتيب ليستخدمه المعلمون الذين يتطلعون إلى دمج المواد في مناهجهم الدراسية، وكذلك القراء الأفراد. هذا الكتيب هو أحد مخرجات مشروع أوسع نطاقًا بعنوان " تعزيز الابتكار المسؤول في مجال الذكاء الاصطناعي من أجل السلام والأمن"، الذي ينفذه مكتب الأمم المتحدة لشؤون نزع السلاح ومعهد ستوكهولم الدولي لبحوث السلام (SIPRI)، بدعم سخي من الاتحاد الأوروبي.
جعل الذكاء الاصطناعي آمنًا للذكاء الاصطناعي من أجل الخير - التصدي للمخاطر التي يتعرض لها السلام والأمن الدوليين بسبب إساءة استخدام الذكاء الاصطناعي المدني
10 يوليو 2025
هل من الممكن التصدي للمخاطر التي يتعرض لها السلم والأمن الدوليين من جراء إساءة استخدام الذكاء الاصطناعي المدني في مصدرها؟ اعتلى مكتب الأمم المتحدة المعني بالمخدرات والجريمة منصة الحلول في القمة السنوية للذكاء الاصطناعي من أجل الخير في جنيف، التي نظمها الاتحاد الدولي للاتصالات، للإجابة على هذا السؤال.
لا يدرك الكثيرون في مجتمع الذكاء الاصطناعي المدني أن ابتكارات الذكاء الاصطناعي اليوم يمكن أن يكون لها عواقب وخيمة على السلام والأمن الدوليين. ومع ذلك، يمكن لممارسي الذكاء الاصطناعي أنفسهم أن يلعبوا أدوارًا حاسمة في التخفيف من المخاطر، لا سيما إساءة استخدام منتجات الذكاء الاصطناعي المدني، والقيام بذلك في وقت مبكر من دورة حياة الذكاء الاصطناعي.
أكد كل من تشارلي أوفينك (مكتب الأمم المتحدة المعني بالمخدرات والجريمة)، وجول بالايير (معهد ستوكهولم الدولي لأبحاث السلام)، وفيفيان مانلاي(شبكة تالوس) أمام جمهور يزيد عن 200 شخص، على أن التغيير يجب أن يبدأ بتعليم ممارسي الذكاء الاصطناعي، وعرضوا وجهات نظر الخبراء والمعلمين وطلاب الذكاء الاصطناعي حول ما هو مطلوب. وبدعم سخي من الدائرة الأوروبية للعمل الخارجي، يعمل معهد ستوكهولم الدولي لبحوث السلام ومعهد الأمم المتحدة لبحوث السلام في الشرق الأوسط مع معلمي وطلاب الذكاء الاصطناعي من جميع أنحاء العالم لمواجهة هذا التحدي وغيره من التحديات، وذلك في إطار مشروع "تعزيز الابتكار المسؤول في مجال الذكاء الاصطناعي من أجل السلام والأمن".




كيف يمكن لتعليم العلوم والتكنولوجيا والهندسة والرياضيات أن يساعد ممارسي الذكاء الاصطناعي في المستقبل على التعامل مع المخاطر التي تهدد السلام والأمن الدوليين؟ اجتماع خبراء الذكاء الاصطناعي المدنيين في نيويورك
10 مايو 2025
في يومي 8 و9 مايو 2025، جمع مكتب الأمم المتحدة المعني بالمخدرات والجريمة ومعهد ستوكهولم الدولي لبحوث السلام ومعهد ستوكهولم الدولي لبحوث السلام وجامعة نيويورك باحثين ومعلمين وطلاب رائدين في مجال الذكاء الاصطناعي في جامعة نيويورك تاندون ومقر الأمم المتحدة في ورشة عمل استمرت يومين ركزت على الابتكار المسؤول في مجال الذكاء الاصطناعي، وتزويد مجتمع الذكاء الاصطناعي المدني - وخاصة الجيل القادم من ممارسي الذكاء الاصطناعي - بالمعرفة والوسائل اللازمة للمشاركة في الابتكار المسؤول والمساعدة في ضمان التطبيق السلمي لتكنولوجيا الذكاء الاصطناعي المدني. استكشف اليوم الأول دمج الوعي بمخاطر الاستخدام المزدوج والمخاطر الأخرى في مناهج العلوم والتكنولوجيا والهندسة والرياضيات ووفر منصة للمشاركين لتبادل أفضل الممارسات في تعليم الذكاء الاصطناعي. شهد اليوم الثاني حوارًا رفيع المستوى مع أعضاء مجتمع السياسات، بما في ذلك أمانديب جيل (وكيل الأمين العام والمبعوث الخاص للأمين العام للتكنولوجيات الرقمية والناشئة، مكتب الأمم المتحدة لشؤون نزع السلاح)، وأديديجي إيبو (مدير ونائب الممثل السامي لشؤون نزع السلاح، مكتب الأمم المتحدة لشؤون نزع السلاح)، وماريتزا تشان فالفيردي (رئيسة اللجنة الأولى للجمعية العامة للأمم المتحدة). عُقدت ورشة العمل بدعم سخي من الاتحاد الأوروبي، ونُفذت في إطار مشروع "تعزيز الابتكار المسؤول في مجال الذكاء الاصطناعي من أجل السلام والأمن".




إشراك مجتمع الذكاء الاصطناعي المدني للمساعدة في منع إساءة استخدام تقنيات الذكاء الاصطناعي
8 مايو 2025
كيف يمكن لمجتمع الذكاء الاصطناعي المدني المساعدة في منع إساءة استخدام تقنيات الذكاء الاصطناعي؟ في 7 مايو 2025، جمع مكتب الأمم المتحدة المعني بالمخدرات والجريمة ومعهد ستوكهولم الدولي لبحوث السلام ومعهد ستوكهولم الدولي لبحوث السلام ومعهد ستوكهولم الدولي لبحوث السلام في الشرق الأوسط ومركز جامعة نيويورك للذكاء الاصطناعي المسؤول ومركز جامعة نيويورك للروبوتات والذكاء المجسد مجموعة من ممارسي الذكاء الاصطناعي الدوليين والأكاديميين ومندوبي الدول الأعضاء وغيرهم لإجراء مناقشة قوية حول التخفيف من مخاطر إساءة استخدام الذكاء الاصطناعي المدني. وتضمنت الفعالية جولة تفاعلية في مركز جامعة نيويورك للروبوتات والذكاء المجسد، تلتها جلسة نقاش ديناميكية ومناقشة مفتوحة تبادل فيها الخبراء الرؤى حول الابتكار المسؤول، وتحديات الاستخدام المزدوج، ودور التعليم والتعاون الدولي في عملية التخفيف من المخاطر. هذا الحدث هو جزء من مشروع "تعزيز الابتكار المسؤول في مجال الذكاء الاصطناعي من أجل السلام والأمن"، الذي أصبح ممكناً بفضل المساهمة السخية للاتحاد الأوروبي.



مكتب الأمم المتحدة المعني بالمخدرات والجريمة ومعهد ستوكهولم الدولي لبحوث السلام والأمن والاتحاد الأوروبي يقودون حوارًا حول الذكاء الاصطناعي المسؤول في الحدث الجانبي للجنة الأولى للجمعية العامة للأمم المتحدة
8 نوفمبر 2024

18 أكتوبر 2024
في 18 أكتوبر، استضاف مكتب الأمم المتحدة لشؤون نزع السلاح (UNODA)، بالشراكة مع معهد ستوكهولم الدولي لبحوث السلام (SIPRI) والاتحاد الأوروبي، حدثًا جانبيًا للجنة الأولى للجمعية العامة للأمم المتحدة ركز على الابتكار المسؤول في مجال الذكاء الاصطناعي من أجل السلام والأمن. وكان الحدث بعنوان "الذكاء الاصطناعي المسؤول من أجل السلام والأمن: مواجهة اللحظة الراهنة في التصدي للمخاطر الناجمة عن إساءة استخدام الذكاء الاصطناعي المدني"، جمعت أكثر من 60 من أصحاب المصلحة المتنوعين من الأوساط الأكاديمية والمجتمع المدني والصناعة والمنظمات الدولية.
الكلمة الافتتاحية:
افتتحت الفعالية السيدة ماركيتا هومولكوفا، رئيسة القسم السياسي لنزع السلاح وعدم الانتشار في وفد الاتحاد الأوروبي في جنيف، والسيدة رادها داي، رئيسة فرع نزع السلاح الإقليمي والمعلومات والتوعية التابع لمكتب الأمم المتحدة لشؤون نزع السلاح. وناقشت السيدة هومولكوفا دعم الاتحاد الأوروبي لمشاريع نزع السلاح، مشيرةً إلى الحاجة إلى تكييف جهود الحد من التسلح مع التكنولوجيات الناشئة والتهديد المتزايد لإساءة استخدام الذكاء الاصطناعي في مجالات مثل الأسلحة الكيميائية والبيولوجية. وشددت السيدة داي على أن الذكاء الاصطناعي هو "مجال ساخن" في مناقشات نزع السلاح، مشيرة إلى الحاجة إلى المشاركة المتعددة الأطراف والخبرة لمواجهة التحديات التي يفرضها الذكاء الاصطناعي على السلم والأمن الدوليين.
المناقشة الرئيسية:
بحثت حلقة النقاش ثلاثة أسئلة أساسية طرحها مدير الجلسة السيد تشارلز أوفينك، مسؤول الشؤون السياسية في مكتب الأمم المتحدة لشؤون نزع السلاح، وهي: تأثير الذكاء الاصطناعي المدني على السلم والأمن الدوليين، وجهود الحوكمة الحالية، وسبل تعزيز الروابط بين هياكل الحوكمة.

أوجز السيد فنسنت بولانين، مدير برنامج حوكمة الذكاء الاصطناعي في معهد ستوكهولم الدولي لبحوث السلام والأمن، ثلاث فئات من المخاطر: المخاطر العرضية الناجمة عن فشل تصميم الذكاء الاصطناعي، والمخاطر السياسية الناجمة عن سوء استخدام الذكاء الاصطناعي، والمخاطر المادية، بما في ذلك المخاطر الناجمة عن دمجه في الروبوتات العسكرية. وسلط الضوء على قانون الاتحاد الأوروبي للذكاء الاصطناعي وقانون كاليفورنيا للشفافية في مجال الذكاء الاصطناعي كأمثلة على التطورات التنظيمية الهامة التي حدثت مؤخرًا. كما أشار السيد بولانين إلى الهيئة الاستشارية رفيعة المستوى للأمين العام للأمم المتحدة بشأن الذكاء الاصطناعي باعتبارها تطورًا مهمًا للإشراف على تأثير تطبيقات الذكاء الاصطناعي المدني، بما في ذلك على السلام والأمن الدوليين.
أما من القطاع الخاص، فقد ناقش السيد كريس ميسيرول، المدير التنفيذي لمنتدى النموذج الحدودي، الدروس المستفادة من التطورات التكنولوجية السابقة، وأكد على أن الشركات مستعدة للانخراط في ممارسات الذكاء الاصطناعي المسؤولة. وسلط الضوء على تعاون الحكومة الأمريكية مؤخرًا مع شركات الذكاء الاصطناعي الكبرى لتعزيز مبادئ السلامة والأمن والثقة في تطوير الذكاء الاصطناعي. ويوضح هذا الالتزام، وفقًا للسيد ميسيرول، اعتراف الصناعة بالحاجة إلى وضع حدود تنظيمية لضمان التقدم الآمن للذكاء الاصطناعي.
وتناولت السيدة جوليا ستويانوفيتش، الأستاذة المساعدة في كلية تاندون للهندسة ومركز علوم البيانات بجامعة نيويورك، تحديات سلامة الذكاء الاصطناعي الآلي. ودافعت عن أهمية إجراء محادثة عبر القطاعات المختلفة لإرساء قيم مشتركة في تطوير الذكاء الاصطناعي. وأشارت السيدة ستويانوفيتش إلى أن مسؤولية تعليم الذكاء الاصطناعي تقع على عاتق كل من المطورين وصانعي السياسات، وأن الحوار المتوازن ضروري لضمان السلامة والاعتبارات الأخلاقية في أنظمة الذكاء الاصطناعي.
وانتقدت السيدة كيرستين فيجنارد، كبيرة المحللين في مختبر الفيزياء التطبيقية بجامعة جونز هوبكنز، فكرة أن "الابتكار" هش أو مفيد بطبيعته، وحثت على أن يسترشد تطوير الذكاء الاصطناعي بمعايير تنظيمية قوية وأن يتماشى الابتكار مع مجموعة مشتركة من القيم الأخلاقية، لا سيما في التطبيقات العسكرية. وأشار فيغنارد إلى أن العديد من الباحثين غير مدركين لاهتمام الحوكمة بالتعاون، وشدد على ضرورة أن يقوم صانعو السياسات بالإبلاغ الفعال عن تحديات الذكاء الاصطناعي.
المواضيع الرئيسية والنتائج:
ردًا على الأسئلة المتعلقة بتحسين التعاون بين أصحاب المصلحة، اتفق المتحدثون في الجلسة على الحاجة إلى الرقابة التنظيمية واتباع نهج متعدد الاتجاهات لمحو أمية الذكاء الاصطناعي. شددت السيدة ستويانوفيتش على أهمية التعليم والمنظور الاستشرافي لتأثيرات الذكاء الاصطناعي، بينما أكد السيد ميسيرول على ضرورة أن يكون محو الأمية التنظيمية مفهوماً بشكل متبادل من قبل مجتمع الذكاء الاصطناعي والمستخدمين النهائيين. وشددت السيدة فيغنارد على أهمية استقطاب الخبرات الفنية لدعم جهود السياسات وتوصيل تعقيدات الذكاء الاصطناعي على المستوى الدولي.
واختتمت الفعالية بالدعوة إلى الحوار والتعاون المستمر بين أصحاب المصلحة لضمان أن يدعم الابتكار في مجال الذكاء الاصطناعي السلام والأمن، مما يعزز التزام الأمم المتحدة بالحوكمة المسؤولة للذكاء الاصطناعي.
كان هذا الحدث الجانبي جزءًا من مشروع تعزيز الابتكار المسؤول في مجال الذكاء الاصطناعي من أجل السلام والأمن، والذي أصبح ممكنًا بفضل التمويل السخي من الاتحاد الأوروبي. للمزيد من المعلومات يرجى الاتصال بالسيد تشارلز أوفينك، مسؤول الشؤون السياسية، على البريد الإلكتروني charles.ovink@un.org
دعوة للطلاب: ورشة عمل تعليمية حول الذكاء الاصطناعي المسؤول من أجل السلام والأمن
ينظم مكتب الأمم المتحدة لشؤون نزع السلاح (UNODA) ومعهد ستوكهولم الدولي لبحوث السلام في ستوكهولم
يقدم معهد ستوكهولم الدولي لبحوث السلام (SIPRI) لمجموعة مختارة من الطلاب الفنيين
فرصة الانضمام إلى ورشة عمل تعليمية لمدة يومين حول الذكاء الاصطناعي المسؤول من أجل السلام والأمن
والأمن.
■ الزمان والمكان: 20-21 نوفمبر 2024، مركز خبرة الذكاء الاصطناعي في جامعة فونكوفر، بروكسل
■ من يمكنه التقديم: طلاب الدكتوراه وطلاب الماجستير في الذكاء الاصطناعي والروبوتات والتخصصات ذات الصلة في العلوم والتكنولوجيا والهندسة والرياضيات (مثل علوم الكمبيوتر وعلوم البيانات والهندسة الميكانيكية) المنتسبين إلى جامعات في أوروبا وأفريقيا وأمريكا الوسطى والجنوبية والشرق الأوسط وأوقيانوسيا وآسيا.
■ كيف: سيتم تغطية نفقات السفر والإقامة للطلاب غير المحليين من خلال مبادرة تعزيز الابتكار المسؤول في الذكاء الاصطناعي من أجل السلام والأمن
كما هو الحال بالنسبة لتأثيرات الذكاء الاصطناعي على الحياة اليومية للناس، فإن تأثيرات الذكاء الاصطناعي على السلام والأمن الدوليين تشمل فرصًا وتحديات كبيرة وواسعة النطاق. يمكن للذكاء الاصطناعي أن يساعد في تحقيق أهداف الأمم المتحدة للتنمية المستدامة، لكن طبيعته ذات الاستخدام المزدوج تعني أن التطبيقات السلمية يمكن أن يُساء استخدامها أيضًا لأغراض ضارة مثل التضليل السياسي أو الهجمات الإلكترونية أو الإرهاب أو العمليات العسكرية. وفي الوقت نفسه، لا يزال أولئك الذين يبحثون ويطورون الذكاء الاصطناعي في القطاع المدني غير مدركين في كثير من الأحيان للمخاطر التي قد يشكلها سوء استخدام تكنولوجيا الذكاء الاصطناعي المدني على السلم والأمن الدوليين، وغير متأكدين من الدور الذي يمكن أن يلعبوه في التصدي لها.
في ظل هذه الخلفية، أطلق مكتب الأمم المتحدة المعني بالمخدرات والجريمة ومعهد ستوكهولم الدولي لبحوث السلام والأمن، في عام 2023، مبادرة تعليمية مدتها ثلاث سنوات حول تعزيز الابتكار المسؤول في مجال الذكاء الاصطناعي من أجل السلام والأمن. تهدف المبادرة، التي يدعمها مجلس الاتحاد الأوروبي، إلى دعم مشاركة أكبر لمجتمع الذكاء الاصطناعي المدني في التخفيف من العواقب غير المقصودة لأبحاث وابتكارات الذكاء الاصطناعي المدني من أجل السلام والأمن.
وكجزء من تلك المبادرة، ينظم معهد ستوكهولم الدولي لبحوث السلام ومكتب الأمم المتحدة لشؤون نزع السلاح سلسلة من ورش العمل لبناء القدرات لطلاب العلوم والتكنولوجيا والهندسة والرياضيات (على مستوى الدكتوراه والماجستير)، وتهدف ورش العمل هذه إلى إتاحة الفرصة لممارسي الذكاء الاصطناعي الصاعدين للعمل معًا ومع الخبراء للتعرف على (أ) كيف يمكن أن تؤدي بحوث وابتكارات الذكاء الاصطناعي السلمية إلى مخاطر على السلم والأمن الدوليين؛ (ب) كيف يمكنهم المساعدة في منع أو تخفيف تلك المخاطر من خلال البحث والابتكار المسؤول؛ (ج) كيف يمكنهم دعم تعزيز الذكاء الاصطناعي المسؤول من أجل السلام والأمن.
ستُعقد ورشة العمل الرابعة في هذه السلسلة في بروكسل ببلجيكا يومي 20 و21 نوفمبر 2024 بالتعاون مع مركز خبرة الذكاء الاصطناعي في جامعة فيكتوريا في بروكسل.
ورشة العمل مفتوحة للطلاب المنتسبين إلى جامعات في أوروبا وأمريكا الوسطى والجنوبية والشرق الأوسط وأفريقيا وأوقيانوسيا وآسيا.
الطلاب المهتمون مدعوون لتقديم اهتماماتهم عبر هذا النموذج عبر الإنترنت:
https://forms.office.com/e/Wb1t8bEE6F
سيختار معهد SIPRI ومكتب الأمم المتحدة لبحوث نزع السلاح المشاركين على أساس الحافز وكذلك مراعاة التنوع (بما في ذلك التمثيل الجغرافي والتوازن بين الجنسين والتركيز على التخصصات والتطلعات المهنية). تجدر الإشارة إلى أن المعرفة المسبقة بأخلاقيات الذكاء الاصطناعي أو السلام والأمن الدوليين ليست شرطًا، ولن يتم تكليف أي عمل خارج ورشة العمل. ستغطي المبادرة نفقات السفر وتوفير الإقامة للطلاب الذين يحتاجون للسفر إلى بروكسل.
سيحصل جميع المشاركين الذين يكملون ورش العمل بنجاح على شهادة مشاركة من الأمم المتحدة.
تُنظَّم ورشة العمل بالتعاون مع مركز خبرة الذكاء الاصطناعي في جامعة فونتانا في بروكسيل، ويتم تمويلها من الاتحاد الأوروبي

مائدة مستديرة في المعهد العالي للتكنولوجيا حول الابتكار المسؤول من أجل السلام والأمن وتعليم ممارسي الذكاء الاصطناعي في المستقبل
16 أغسطس 2024
نظّم مكتب الأمم المتحدة لشؤون نزع السلاح (UNODA) ومعهد ستوكهولم الدولي لبحوث السلام (SIPRI)، بالتعاون مع المعهد العالي التقني في جامعة لشبونة، مائدة مستديرة بعد اختتام مؤتمر التأسيسالرابع للذكاء الاصطناعي الجدير بالثقة: دمج التعلم والتحسين والاستدلال (TAILOR). وعُقدت المائدة المستديرة بموجب قاعدة تشاتام هاوس في 5 يونيو 2024، في المعهد العالي للتكنولوجيا بجامعة لشبونة في البرتغال. وقد ضم الاجتماع مجموعة متنوعة تضم خبراء في الذكاء الاصطناعي ومعلمين متخصصين في تطوير مناهج الذكاء الاصطناعي وممثلين عن الحوكمة.

ناقش المشاركون في اجتماع المائدة المستديرة دمج اعتبارات السلام والأمن في التدريب على الذكاء الاصطناعي في المعهد العالي للتكنولوجيا في جامعة لشبونة. ناقش المشاركون في المائدة المستديرة دمج اعتبارات السلام والأمن في التدريب على الذكاء الاصطناعي مع موظفي المشروع. ركزت المناقشات على تعميم اعتبارات مخاطر السلام والأمن في تدريب ممارسي الذكاء الاصطناعي المستقبليين. واستكشف المشاركون استراتيجيات إدماج أخلاقيات الذكاء الاصطناعي ومبادئ الابتكار المسؤول في الأطر التعليمية، مع معالجة تحديات الحوكمة المتعلقة بمنع إساءة استخدام تقنيات الذكاء الاصطناعي المدنية.
أكدت الطاولة المستديرة على الدور الحاسم للتعاون والحوار في تشكيل ممارسات الذكاء الاصطناعي المسؤول، وسلطت الضوء على التزام أصحاب المصلحة بتعزيز المعايير الأخلاقية في تطوير الذكاء الاصطناعي.
ترقبوا المزيد من التحديثات حول المبادرات التي تقود مستقبل تعليم الذكاء الاصطناعي وحوكمته. للمزيد من المعلومات عن أنشطة الابتكار المسؤول والذكاء الاصطناعي التي يضطلع بها مكتب شؤون نزع السلاح، يرجى الاتصال بالسيد تشارلز أوفينك، مسؤول الشؤون السياسية، على البريد الإلكتروني charles.ovink@un.org
تمكين الممارسين الشباب في مجال الذكاء الاصطناعي في ورشة عمل السلام والأمن في لشبونة
16 أغسطس 2024
في إطار الجهود الدولية الرامية إلى تعزيز التنمية المسؤولة للذكاء الاصطناعي، نظم مكتب الأمم المتحدة لشؤون نزع السلاح ومعهد ستوكهولم الدولي لبحوث السلام ورشة عمل لبناء القدرات حول الذكاء الاصطناعي المسؤول من أجل السلام والأمن، في الفترة من 6 إلى 7 يونيو 2024، في لشبونة بالبرتغال. وشكلت هذه الفعالية علامة فارقة في مشروع مستمر يهدف إلى معالجة المخاطر التي تشكلها بحوث وابتكارات الذكاء الاصطناعي المدنية على السلام والأمن الدوليين.

جمعت ورشة العمل، التي نُظمت بمساعدة المعهد التقني العالي في جامعة لشبونة، مجموعة مختارة من ممارسي الذكاء الاصطناعي الشباب من جميع أنحاء العالم في لشبونة في ورشة عمل لبناء القدرات استمرت يومين.
وهدفت ورشة العمل، وهي الثالثة في سلسلة من أربع ورش عمل من المقرر أن ينظمها مكتب الأمم المتحدة لشؤون نزع السلاح ومعهد ستوكهولم الدولي لبحوث السلام والأمن، إلى تزويد ممارسي الذكاء الاصطناعي الشباب بالمعرفة والمهارات اللازمة لمواجهة المخاطر التي قد تشكلها بحوث وابتكارات الذكاء الاصطناعي المدنية على السلم والأمن الدوليين. وعلى مدار يومين، انخرط المشاركون في جلسات تفاعلية مصممة لتعزيز فهمهم للمخاطر المحتملة التي قد تشكلها بحوث وابتكارات الذكاء الاصطناعي المدنية على السلم والأمن الدوليين. وكانت طرق منع هذه المخاطر أو التخفيف من حدتها من خلال البحث والابتكار المسؤول، وكيفية المساهمة في تعزيز الذكاء الاصطناعي المسؤول من أجل السلام والأمن، من المواضيع المهمة التي تم مناقشتها.
وقد أتاحت ورشة العمل للمشاركين فرصة التعرف على ممارسات الذكاء الاصطناعي المسؤول من خلال المناقشات والجلسات التفاعلية، بما في ذلك تمرين الفريق الأحمر والأزرق. وبالإضافة إلى إتاحة الفرص للمشاركين لإجراء تقييمات المخاطر الخاصة بهم وتحدي الأفكار والمشاركة بشكل خلاق، استكشف المشاركون في ورشة العمل أيضاً الآثار المترتبة على السلام والأمن من جراء إساءة الاستخدام المحتملة للذكاء الاصطناعي المدني ومشهد الحوكمة الدولية.
جمعت الفعالية 18 مشاركًا من 11 دولة، بما في ذلك البرازيل والصين وفرنسا وألمانيا والهند وإيطاليا والمكسيك والبرتغال وجمهورية كوريا وسوريا وفيتنام. ومثلت المجموعة، التي ضمت ثماني نساء وعشرة رجال، مجموعة متنوعة وشاملة.
تعد ورشة العمل هذه جزءًا من مبادرة ممولة من الاتحاد الأوروبي تهدف إلى تعزيز الابتكار المسؤول في مجال الذكاء الاصطناعي من أجل السلام والأمن. وتعد هذه المبادرة جزءًا من جهد أوسع نطاقًا لإشراك طلاب العلوم والتكنولوجيا والهندسة والرياضيات وتزويدهم بفرص بناء القدرات الشخصية. والهدف من ذلك هو تعريفهم بمخاطر السلام والأمن التي يشكلها تطوير الذكاء الاصطناعي المدني وكيف يمكن تحديد هذه المخاطر أو منعها أو التخفيف من حدتها من خلال عمليات البحث والحوكمة المسؤولة.
وستتضمن ورشة العمل التالية والأخيرة جلسات تركز على المعلمين ومطوري المناهج الدراسية وصناعة الذكاء الاصطناعي وغيرهم من أصحاب المصلحة المعنيين.
للمزيد من المعلومات عن أنشطة الابتكار المسؤول والذكاء الاصطناعي لمكتب شؤون نزع السلاح، يرجى الاتصال بالسيد تشارلز أوفينك، مسؤول الشؤون السياسية، على البريد الإلكتروني charles.ovink@un.org
الحوار العام لأصحاب المصلحة المتعددين: معالجة مخاطر إساءة الاستخدام: ما الذي يمكن أن يتعلمه مجتمع الذكاء الاصطناعي من صناعة التكنولوجيا الحيوية؟
29 مايو 2024
تناولت فعاليتنا العامة الأخيرة التداخل الرائع بين الذكاء الاصطناعي والتكنولوجيا الحيوية. جمعنا خبراء بارزين، بما في ذلك إليونور باولس وريك بليز وكلاريسا ريوس، لتشريح التقارب بين هذين المجالين والمخاطر التي ينطوي عليها. ومن خلال المناقشات التفاعلية استكشفنا استراتيجيات الابتكار المسؤول وتخفيف المخاطر.
يجتمع الجيل القادم من ممارسي الذكاء الاصطناعي من جميع أنحاء العالم في إستونيا للتعرف على الابتكار المسؤول للذكاء الاصطناعي من أجل السلام والأمن
مارس، 2024
في 14 و15 فبراير/شباط، اجتمعت مجموعة مختارة من ممارسي الذكاء الاصطناعي الشباب من جميع أنحاء العالم في تالين في ورشة عمل لبناء القدرات لمدة يومين حول الذكاء الاصطناعي المسؤول من أجل السلام والأمن، نظمها مكتب الأمم المتحدة لشؤون نزع السلاح ومعهد ستوكهولم الدولي لبحوث السلام بالتعاون مع جامعة تالين للتكنولوجيا.

وتهدف ورشة العمل - وهي الثانية في سلسلة من أربع ورش عمل - إلى إتاحة الفرصة لممارسي الذكاء الاصطناعي الصاعدين لتعلم كيفية التصدي للمخاطر التي قد تشكلها أبحاث وابتكارات الذكاء الاصطناعي المدنية على السلام والأمن الدوليين. على مدار يومين، شارك المشاركون الشباب من خلفيات متنوعة في أنشطة تفاعلية تهدف إلى زيادة فهمهم (أ) كيف يمكن أن تشكل بحوث وابتكارات الذكاء الاصطناعي المدنية مخاطر على السلم والأمن الدوليين؛ (ب) كيف يمكنهم المساعدة في منع أو تخفيف تلك المخاطر من خلال البحث والابتكار المسؤول؛ (ج) كيف يمكنهم المساهمة في تعزيز الذكاء الاصطناعي المسؤول من أجل السلام والأمن.
ومن خلال الحلقات الدراسية التفاعلية، واستطلاعات الرأي المباشرة، وتمارين الفريق الأحمر والفريق الأزرق القائمة على سيناريوهات مختلفة، أتاحت ورشة العمل للمشاركين فرصة التعرف على مجال الذكاء الاصطناعي المسؤول، والأبعاد الخاصة بالسلام والأمن لإساءة استخدام الذكاء الاصطناعي المدني، وبيئة الحوكمة الدولية، وفرصة العمل من خلال تقييمات المخاطر الخاصة بهم، وتحدي الأفكار، والمشاركة بشكل خلاق.
جمعت الفعالية 18 مشاركًا من 13 دولة، وهي الصين ومصر وإستونيا واليونان والهند وإندونيسيا وإندونيسيا وإيران وإيطاليا وليتوانيا والفلبين ورومانيا وسنغافورة وتركيا، بالإضافة إلى اليونان.

تندرج ورشة العمل في إطار مبادرة ممولة من الاتحاد الأوروبي حول تعزيز الابتكار المسؤول في مجال الذكاء الاصطناعي من أجل السلام والأمن، وتشكل جزءاً من ركيزة مستمرة تركز على التواصل مع مجموعات متنوعة من طلاب العلوم والتكنولوجيا والهندسة والرياضيات وتوفير بناء القدرات الشخصية لتعريفهم بكيفية تحديد مخاطر السلام والأمن التي يشكلها تحويل مسار تطوير الذكاء الاصطناعي المدني وإساءة استخدامه من قبل جهات فاعلة غير مسؤولة أو منعها أو التخفيف من حدتها في عملية البحث والابتكار أو من خلال عمليات الحوكمة الأخرى.
ستستمر سلسلة ورش العمل الناجحة طوال عام 2024، إلى جانب ركائز تركز على المعلمين ومطوري المناهج، بالإضافة إلى صناعة الذكاء الاصطناعي وغيرها.
للمزيد من المعلومات عن أنشطة الابتكار المسؤول والذكاء الاصطناعي لمكتب شؤون نزع السلاح، يرجى الاتصال بالسيد تشارلز أوفينك، مسؤول الشؤون السياسية، على العنوان التالي: charles.ovink@un.org.
خبراء الذكاء الاصطناعي من جميع أنحاء العالم يتواصلون في حوار بين أصحاب المصلحة المتعددين بشأن الذكاء الاصطناعي المسؤول من أجل السلام والأمن
25 سبتمبر 2023
في 13 و14 سبتمبر/أيلول، جمع مكتب الأمم المتحدة لشؤون نزع السلاح وشركاؤه في معهد ستوكهولم الدولي لبحوث السلام (SIPRI) 15 خبيرًا في مجال الذكاء الاصطناعي من الصناعة والأوساط الأكاديمية والمجتمع المدني والحوكمة لمدة يومين من المناقشات. وعلى مدار الحوار بين أصحاب المصلحة المتعددين، استكشف المشاركون في الحوار الاتجاهات في بحوث الذكاء الاصطناعي والابتكار التي قد تولد مخاطر على السلام والأمن، وبحثوا في كيفية التخفيف من هذه المخاطر، بما في ذلك من خلال تعزيز ممارسات الابتكار المسؤول اقرأ المزيد..
مشاركة معهد ستوكهولم الدولي لبحوث السلام ومكتب الأمم المتحدة لشؤون نزع السلاح مع الجيل القادم من ممارسي الذكاء الاصطناعي
ديسمبر 4, 2023

نظّم معهد ستوكهولم الدولي لبحوث السلام (SIPRI) ومكتب الأمم المتحدة لشؤون نزع السلاح (UNODA) ورشة عمل لبناء القدرات لمدة يومين حول "الذكاء الاصطناعي المسؤول من أجل السلام والأمن" لمجموعة مختارة من طلاب العلوم والتكنولوجيا والهندسة والرياضيات (STEM).
هدفت ورشة العمل - وهي الأولى في سلسلة من أربع ورش عمل - إلى إتاحة الفرصة لممارسي الذكاء الاصطناعي الصاعدين لتعلم كيفية التصدي للمخاطر التي قد تشكلها أبحاث وابتكارات الذكاء الاصطناعي المدنية على السلام والأمن الدوليين.
شارك في هذا الحدث، الذي عُقد في مالمو بالتعاون مع جامعة مالمو وجامعة أوميو، 24 مشاركًا من 17 دولة، بما في ذلك أستراليا وبنغلاديش والصين والإكوادور وفرنسا وفنلندا وألمانيا واليونان والهند والمكسيك وهولندا وسنغافورة والسويد وفرنسا وفنلندا والمملكة المتحدة والولايات المتحدة الأمريكية.
وعلى مدار يومين، انخرط المشاركون في أنشطة تفاعلية تهدف إلى زيادة فهمهم لـ(أ) كيف يمكن أن تشكل البحوث والابتكارات السلمية في مجال الذكاء الاصطناعي مخاطر على السلم والأمن الدوليين؛(ب) كيف يمكنهم المساعدة في منع أو تخفيف تلك المخاطر من خلال البحوث والابتكارات المسؤولة؛(ج) كيف يمكنهم المساهمة في تعزيز الذكاء الاصطناعي المسؤول من أجل السلام والأمن.
وشهد الحدث مشاركة أساتذة من جامعة أوميو وجامعة مالمو.
وتعد سلسلة ورش العمل، التي ستستمر حتى عام 2024، جزءًا من مبادرة يمولها الاتحاد الأوروبي حول "الابتكار المسؤول في مجال الذكاء الاصطناعي من أجل السلام والأمن"، والتي ينظمها معهد ستوكهولم الدولي لبحوث السلاموالأمن بالاشتراك مع مكتب الأمم المتحدة لبحوث السلام والأمن.
ستُعقد الدورة التالية من ورشة العمل في الفترة من 14 إلى 15 فبراير 2024 في تالين بإستونيا بالشراكة مع جامعة تالين للتكنولوجيا.
بيان التمويل
أصبح هذا البرنامج ممكنًا بفضل الدعم السخي من الاتحاد الأوروبي
