النتائج الرئيسية لحوارات الذكاء الاصطناعي العسكري والسلام والأمن 2025

تحميل نسخة PDF هنا
تهدف حوارات الذكاء الاصطناعي العسكري والسلام والأمن لعام 2025، التي يعقدها مكتب الأمم المتحدة لشؤون نزع السلاح (UNODA) بتمويل من جمهورية كوريا، إلى توفير منصة للدول لتبادل المعرفة وزيادة الوعي بشأن الآثار المترتبة على السلام والأمن الدوليين للذكاء الاصطناعي في المجال العسكري. وتخدم هذه المبادرة المناقشات الجارية متعددة الأطراف من خلال توفير إطار محايد يمكن للدول من خلاله التفاعل مع المنظمات الدولية والمجتمع المدني والباحثين والقطاع الصناعي وتبادل وجهات النظر وتحديد المجالات العملية للتعاون.
تلخص هذه المذكرة المدخلات والنتائج المستخلصة من ندوتين إلكترونيتين عامتين بعنوان " الذكاء الاصطناعي العسكري: الفرص والمخاطر والسلام والأمن الدوليين " و" بناء القدرات والتعاون الدولي في مجال الذكاء الاصطناعي في المجال العسكري"، اللتين عقدتا على التوالي في 12 و25 مارس 2025، واجتماع شخصي لاحق عُقد في 2 يوليو 2025 بموجب قاعدة تشاتام هاوس. ويسجل هذا التقرير المواضيع التي يمكن أن يسترشد بها الحوار اللاحق بين الدول الأعضاء، بما في ذلك المجالات التي يمكن أن يكون فيها تبادل الآراء على المدى القريب مفيدًا.
شارك في الندوتين العلنيتين العلنيتين تسعة خبراء، وحضرهما على التوالي 205 و187 مشاركًا من الدول الأعضاء (50%) ومنظمات المجتمع المدني (30%) والمنظمات الدولية والإقليمية (20%). وحضر الاجتماع الشخصي 33 مندوباً. وشهدت الفعاليات الثلاث مشاركة عالية من الجنوب العالمي.
وخلال جميع الفعاليات، أدرك المشاركون أن تقنيات الذكاء الاصطناعي يمكن دمجها في مجموعة من الوظائف والمهام، وأن المخاطر والفرص المرتبطة بها تعتمد على سياق الاستخدام.
المساهمات المحتملة في السلام والأمن
حدد المشاركون العديد من المجالات التي يمكن أن يسهم فيها الاستخدام المسؤول للذكاء الاصطناعي في تحقيق السلام والأمن. وشددوا على أهمية الحفاظ على التمييز بين الفرص الاستراتيجية والإنسانية (مثل حماية المدنيين في النزاعات)، مع الإقرار بأن الممارسة المسؤولة يمكن أن تدعم كلا النوعين من حالات الاستخدام عند السعي إلى تحقيقها بشكل مدروس.
أولاً، يمكن للذكاء الاصطناعي أن يعزز التعامل مع المعلومات ودعم اتخاذ القرار، مما يمكّن المشغلين والقادة من معالجة كميات كبيرة من البيانات، وتحديد الأنماط، وتخصيص الاهتمام بشكل أكثر فعالية. وقد ارتبط ذلك بالمكاسب المحتملة في الوعي الظرفي واتخاذ القرارات المستنيرة عبر البيئات الحركية والافتراضية.
ثانيًا، قد يقلل الذكاء الاصطناعي من المخاطر التي يتعرض لها الأفراد من خلال تمكين أو تعزيز المهام في البيئات الخطرة، مثل البحث عن الذخائر المتفجرة أو تطهير الطرق أو العمليات التي تتدهور فيها الاتصالات. وقد اعتُبرت هذه الوظائف بأنها توفر مزايا السلامة والكفاءة عندما يتم فهم حدود الأداء واحترامها.
ثالثاً، أشار العديد من المشاركين إلى المساهمات المحتملة في حماية المدنيين. وشملت الأمثلة على ذلك الأدوات التي تساعد في توصيف البيئة المدنية، ودعم التخطيط الذي يقلل من الأضرار العرضية، أو تحسين توقيت ودقة التحذيرات. وتم التأكيد على أن هذه الفوائد ليست تلقائية. فهي تعتمد على جودة البيانات وقوتها وتدابير الرقابة التي تضمن إصدار أحكام قانونية وأخلاقية من قبل البشر.
أخيرًا، تم تسليط الضوء في كثير من الأحيان على مجالات مثل اللوجستيات والصيانة والتدريب باعتبارها قابلة للتطبيق وأقل إثارة للجدل نسبيًا. حتى في هذه المجالات، أكد المشاركون على أهمية الممارسة المنضبطة، بما في ذلك الاختبار وتدريب المشغلين، للحماية من الاعتماد المفرط والآثار غير المقصودة.
ديناميكيات المخاطر والمخاوف التشغيلية
إلى جانب الفرص، نظر المشاركون في المخاطر التي تنشأ أو تتضخم في البيئات العسكرية. أولاً، كانت الموثوقية والمتانة التقنية من الشواغل الرئيسية. فقد تتصرف الأنظمة الاحتمالية بشكل غير متوقع عندما تكون البيانات متناثرة أو صاخبة أو غير ممثلة لبيئة التشغيل. كما نوقشت نقاط الضعف أمام التلاعب العدائي وتسميم البيانات، وكذلك الحدود العملية لقابلية التفسير في السياقات الحرجة زمنياً. وتؤثر سرية البيانات ومخاطر الأمن السيبراني الأوسع نطاقًا على كل من تطوير ودمج الذكاء الاصطناعي في المجال العسكري. كما تمت الإشارة إلى العوامل الأولية: فالتدريب على البيانات الاصطناعية أو غير المصممة لغرض معين يمكن أن يرسخ التحيز أو يقلل من الأداء. كما أن متطلبات الطاقة الناتجة عن التدريب وتشغيل نماذج الذكاء الاصطناعي الكبيرة تُحدث تأثيرات بيئية، مثل انبعاثات الكربون أو استهلاك الطاقة؛ لذا، من المهم أن تقوم الدول بالتخطيط للاستدامة والمرونة.
ثانياً، درس المشاركون أيضاً المخاطر المرتبطة بالتفاعل بين الإنسان والآلة. فقد يؤدي الإفراط في الثقة، والتحيز الأوتوماتيكي، وتراجع اليقظة إلى أن يفرط المستخدمون في التسليم بمخرجات النظام، خاصة عندما تنقل الواجهات البينية يقيناً لا مبرر له. وعلى العكس من ذلك، يمكن أن يؤدي ضعف الثقة إلى إبطال الفوائد المحتملة، مثل تجاهل الرؤى الدقيقة التي يولدها الذكاء الاصطناعي لأنها تتعارض مع معتقدات أو توقعات المشغل البشري. ولذلك، ركز العديد من المشاركين على خيارات التصميم والتدريب التي تعمل على معايرة الثقة بشكل مناسب، بما في ذلك الإشارات الواضحة لوقت فك الارتباط أو التصعيد إلى المراجعة البشرية. ولوحظ أيضًا أن الكفاءة العالية للأنظمة المدعومة بالذكاء الاصطناعي في أداء المهام (مثل معالجة البيانات أو الدعم التشغيلي) يمكن أن تشجع عن غير قصد على الاعتماد المفرط وخلق شعور "بالبعد" عن التأثير البشري للقرارات.
ثالثًا، أثيرت مخاطر إساءة الاستخدام عبر دورة حياة أنظمة الذكاء الاصطناعي. وشملت هذه المخاطر الاستخدام الخبيث عند النشر من قبل التهديدات الداخلية أو غيرها من "الجهات الفاعلة السيئة"، واحتمال تعزيز العمليات السيبرانية الهجومية بواسطة الذكاء الاصطناعي، واستخدامها من قبل جهات فاعلة من غير الدول، بما في ذلك الشركات العسكرية الخاصة التي تعمل خارج أطر المساءلة القياسية. حذر بعض المشاركين، على وجه الخصوص، من السياقات عالية المخاطر مثل هياكل القيادة والسيطرة والاتصالات النووية (NC3)، حيث يمكن أن يكون لسوء التفسير أو سوء التقدير عواقب وخيمة بشكل خاص.
وكان الموضوع الآخر المتكرر هو ضغط وقت اتخاذ القرار. في حين أن بعض أدوات الذكاء الاصطناعي تهدف إلى تسريع عملية تفسير المعلومات المعقدة، إلا أن دورات اتخاذ القرار الأسرع يمكن أن تقلل من الوقت المتاح للمداولات البشرية وتضعف قدرة القادة على فهم الأساس المنطقي وراء المخرجات والإجراءات التي تتخذها الأنظمة المدعومة بالذكاء الاصطناعي. وهذا يزيد من احتمالية الخطأ أو التصعيد أو سوء التقدير، خاصة تحت الضغط وفي أوقات الأزمات. وفي سياق متصل، ذُكرت ديناميكيات سباق التسلح كمحرك إضافي للمخاطر. قد تخلق تصورات المنافسة الاستراتيجية والمعتقدات النفسية حول اكتساب الأفضلية على الخصم ضغوطاً من أجل نشر القدرات بسرعة، مما قد يتجاوز عمليات الضمان والاختبار والحوكمة.
المرتكزات القانونية والأخلاقية والسياساتية
أكد المشاركون على أن الالتزامات القانونية القائمة ذات الصلة، بما في ذلك ميثاق الأمم المتحدة والقانون الإنساني الدولي والقانون الدولي لحقوق الإنسان، تنطبق على تطوير واستخدام القدرات العسكرية المدعومة بالذكاء الاصطناعي. وتم التركيز على الاحتفاظ بالحكم والسيطرة البشريين على قرارات استخدام القوة، وعلى ضمان بقاء المسؤولية والمساءلة على عاتق الجهات الفاعلة البشرية طوال دورة الحياة. ووصفت الدول أو أشارت إلى المراجعات القانونية عملاً بالمادة 36 من البروتوكول الإضافي الأول لاتفاقيات جنيف، مشيرة إلى أن هذه الممارسات تنطبق أيضًا على الذكاء الاصطناعي، بما في ذلك مراجعات المتابعة عند تحديث الأنظمة أو إعادة استخدامها، وكذلك دور المستشارين القانونيين العسكريين.
وتم التأكيد على أهمية المسؤولية والمساءلة. وتم التحذير من أن التحديدات القانونية، مثل ما يتعلق بمبادئ الضرورة والتناسب والتمييز، لا ينبغي أن تكون مشفرة في أنظمة مبهمة، وأن أدوات دعم اتخاذ القرار يجب أن تمكّن من تمكين الشرعية والمنطق الأخلاقي وليس استبدالها. وبينما يتم تحديث الأنظمة أو تركيبها من نماذج أخرى ("الذكاء الاصطناعي لتدريب الذكاء الاصطناعي"، يمكن أن يصبح الإسناد والتتبع أكثر تعقيدًا، مما يؤكد الحاجة إلى التوثيق وقابلية التدقيق والأدوار الواضحة للمشغلين والمطورين والقادة. تم تسجيل مخاوف أخلاقية فيما يتعلق بأي تفويض للذكاء الاصطناعي في اتخاذ قرارات الحياة والموت. كما أشار بعض المساهمين إلى التعقيد المعرفي لعملية صنع القرار في العالم الحقيقي، والتي تعتمد في كثير من الأحيان على الحكم الضمني والحدس، وتساءلوا عن مدى قدرة الأنظمة الحالية على محاكاة هذه القدرات البشرية بشكل هادف. ولوحظ أن القانون الإنساني الدولي يتطلب مساءلة الأفراد عن جرائم الحرب.
ممارسات الضمان والتقييم
تم تأطير تدابير الضمان في كثير من الأحيان على أنها تمكين الثقة في أنظمة الذكاء الاصطناعي، بما في ذلك من خلال الاختبار والتقييم والتحقق والتحقق والمصادقة (TEVVV) القائم على الأدلة عبر دورة حياة الذكاء الاصطناعي. أكد المشاركون على قيمة بيانات الاختبار التمثيلية، وإعادة التشغيل، والتجارب القائمة على السيناريوهات في فهم حدود الأداء، وأنماط الفشل، والمتانة في ظل تحولات التوزيع. وتم النظر إلى ممارسات التوثيق، مثل التوضيح الواضح للاستخدام المقصود والحدود التشغيلية والقيود المعروفة، على أنها عوامل تمكين للرقابة والتعلم.
أشار المشاركون إلى أن الضمان ليس علامة بل عملية مستمرة. يمكن أن تؤدي التحديثات التي يتم إدخالها على النماذج أو البيانات أو مسارات التكامل إلى تغيير السلوك بشكل كبير. على هذا النحو، تم تسليط الضوء على إدارة التغيير وإعادة التقييم الدوري. اعتُبرت الواجهات التي تنقل عدم اليقين وفترات الثقة والإشارات التحذيرية المناسبة جزءًا من الضمان في الاستخدام. كان تدريب المشغلين جزءًا من هذه المناقشة. يمكن أن يساعد التدريب في التخفيف من العثرات المعرفية، بما في ذلك التحيز الأوتوماتيكي والاعتماد المفرط على الأتمتة، ويجب أن يشمل التدريب على معايير فك الارتباط وإجراءات التصعيد إلى المراجعة البشرية. اقترح العديد من المشاركين أن الضمان والتدريب يعززان بعضهما البعض، مع تغذية نتائج التقييم في المناهج الدراسية وإجراءات التشغيل الموحدة.
احتياجات بناء القدرات والتعاون
حدد المشاركون الاحتياجات ذات الأولوية عبر الأشخاص والعمليات والتكنولوجيا.
فيما يتعلق بالأشخاص، اعتُبر وجود قوة عاملة متعددة التخصصات أمراً ضرورياً. ويشمل ذلك المشغلين والقادة والمخططين والمهندسين وأخصائيي البيانات والمحامين ومسؤولي السياسات. كما اعتُبر التدريب على تحديد التحيزات المعرفية وحدود أنظمة الذكاء الاصطناعي أمرًا مهمًا لجميع هذه المجموعات، وليس فقط للمتخصصين التقنيين.
وفيما يتعلق بالعمليات، ناقش المشاركون العناصر القابلة للمشاركة لممارسة المراجعة القانونية للأنظمة المدعومة بالذكاء الاصطناعي، وبروتوكولات خط الأساس للتحقق من صحة البيانات والمشتريات التي تبرز الضمانات. وسلطت عدة مساهمات الضوء على قيمة تبادل المعرفة والتكنولوجيا، فضلاً عن التعلم من الأقران الإقليميين، في تضييق الفجوات في القدرات وتعزيز الممارسات المتوافقة. ويمكن لهذه النُهج أيضًا أن تتيح المشاركة الفعالة في المناقشات المتعددة الأطراف المتعلقة بالذكاء الاصطناعي من قبل جميع الدول. وقد تم تأطير التعاون على أنه متناسب ومحترم للسياقات الأمنية ومستويات تطوير الذكاء الاصطناعي ونشره، مع التركيز على الأساليب العملية والدروس المستفادة.
فيما يتعلق بالتكنولوجيا، سلط العديد من المشاركين الضوء على الحاجة إلى أدوات تقييم شفافة يسهل الوصول إليها، بالإضافة إلى ترتيبات آمنة للوصول إلى البيانات تحترم السيادة والخصوصية. وقد اعتُبرت القدرة على الاختبار في ظل ظروف تمثيلية من خلال مجموعات البيانات أو السيناريوهات أو المنهجيات المشتركة عامل تمكين عملي للعديد من الدول.
التقارب والسبل العملية لمزيد من التبادل
السبل على مستوى الموضوع
عبر المناقشات، تم النظر إلى العديد من المواضيع على أنها وسائل عملية لترجمة المبادئ رفيعة المستوى إلى ممارسات عملية. وتشمل مجالات التقارب قابلية تطبيق القانون الدولي، والحاجة إلى الاحتفاظ بالمسؤولية البشرية عن قرارات استخدام القوة، وأهمية الضمان وإدارة دورة الحياة، وقيمة بناء القدرات الشاملة. كان هناك اعتراف واسع النطاق بأن الممارسة المسؤولة تتطلب استثمارًا متعمدًا بدلًا من أن تكون نتيجة ثانوية تلقائية للتحديث التكنولوجي.
وتم تحديد التقاطع بين الذكاء الاصطناعي والأسلحة النووية كمجال شديد الأهمية حيث اعتُبرت تدابير بناء الثقة والشفافية ضرورية لكنها غير متطورة. ركزت الاقتراحات على خطوات عملية ومتناسبة للحد من سوء الفهم مع مراعاة الحساسيات. وسلطت بعض المساهمات الضوء على الخطوط الحمراء المحتملة فيما يتعلق بإدماج الذكاء الاصطناعي في عملية صنع القرار النووي.
السبل على مستوى العملية
اقترح العديد من المشاركين أن العمل التمهيدي لتوضيح النطاق والمصطلحات يمكن أن يؤدي إلى مناقشات مثمرة في تفعيل مبادئ الذكاء الاصطناعي المسؤول في المجال العسكري. ونظرًا لأن الذكاء الاصطناعي مزدوج الاستخدام والمخاطر تعتمد على السياق، فقد لوحظ أن النطاق لا ينبغي أن يُحدد فقط من خلال التكنولوجيا أو نوع المشغل، ولكن أيضًا من خلال سياق الاستخدام. يمكن لمزيد من التبادلات أن تستكشف معايير عملية لتحديد النطاق لتأسيس المناقشات والمساعدة في تحديد الثغرات التي قد تكون موجودة في الحوكمة.
كما لاحظ المشاركون أيضًا أن إعداد الحوار وطريقة الحوار يشكلان النتائج. ويمكن لصيغ أصحاب المصلحة المتعددين أن تعزز الشفافية والثقة على مختلف المستويات، بينما تميل المناقشات المركزة إلى تحقيق نتائج أكثر فائدة من الناحية التشغيلية. واقتُرح أن تنظر الدول في الانتقال من المبادئ العامة إلى أطر عمل مصممة خصيصًا - سواء كانت تركز على التطبيق، أو تستجيب للمخاطر، أو غيرها من النهج العملية - لدراسة كيفية تفاعل الخصائص المحددة لتكنولوجيات معينة، تُستخدم في سياقات تشغيلية محددة، مع الالتزامات القانونية القائمة والممارسة التشغيلية.
وأخيراً، تم التشجيع على التنسيق مع العمليات الموازية لتجنب الازدواجية أو وضع معايير متباينة، وكذلك للاستفادة من أوجه التآزر. يمكن لعمليات التبادل أن تربط بين العمل على الحوكمة المدنية للذكاء الاصطناعي والمناقشات حول أنظمة الأسلحة الفتاكة ذاتية التشغيل، وتحديد المجالات التي يمكن فيها نقل النهج والممارسات والدروس المتوافقة، والمجالات التي تستدعي معالجة متميزة. كما اقتُرح إجراء متابعات إقليمية أو مواضيعية لتعزيز التعلم، وعكس سياقات التشغيل المتنوعة، وتعميق التعاون بين المجتمعات التقنية والقانونية والسياساتية.
الخاتمة
أكدت الاجتماعات على كل من الوعود والمخاطر التي ينطوي عليها الذكاء الاصطناعي في المجال العسكري. فالفرص - في التعامل مع المعلومات والسلامة والكفاءة - حقيقية ولكنها مرهونة بالضمانات المدروسة. والمخاطر - في الخطأ والتصعيد والهشاشة وسوء الاستخدام - لا يمكن التحكم فيها إلا من خلال الاستثمار المستدام في الضمانات والحكم والسيطرة البشرية والتعاون.
وحدد مكتب الأمم المتحدة لشؤون نزع السلاح عدة مجالات عمل مستقبلية في إطار حوارات خارطة الطريق، بما في ذلك المناقشات المتعمقة لبناء فهم مشترك للفرص والمخاطر، والخطوط الحمراء المحتملة (مثل ما يتعلق بنزع السلاح، وأنظمة الحد من التسلح وعدم الانتشار)، والأدوات الدبلوماسية لدعم الحوار بين الدول. وتحقيقًا لهذه الغاية، يسعى مكتب الأمم المتحدة لشؤون نزع السلاح حاليًا إلى الحصول على تمويل لحوار MAPS 2026.
للمزيد من المعلومات عن حوارات MAPS، يرجى الاتصال بالسيد أوليس ريتشارد على العنوان التالي: ulysse.richard1@un.org