رأي

الأمم المتحدة تفقد السيطرة على «الروبوتات القاتلة»

كتب خالد أبو بكر في صحيفة الشروق.

 ‎منذ عدة سنوات لا ينقطع الحديث عن استخدام الذكاء الاصطناعى فى المجالات كافة، والتبشير بأنه سوف يساهم فى إلغاء وظائف بعينها، أو أنه سيلغى الدور البشرى فيها، وأن على الشباب أن يواكب هذه الثورة التكنولوجية كى يضمن له وظيفة فى عالم سوف يخضع لسيطرة «الروبوتات».. لكن السؤال الذى يؤرق دولا ومنظمات دولية بحجم الأمم المتحدة: هل يمكن أن نترك العنان لهذه «الروبوتات» فى مجالات حساسة ودقيقة متعلقة بحياة البشر مثل الأعمال الحربية فى مسارح العمليات؟ هل يمكن أن نترك «الآلات» لتتخذ قرارات متعلقة بقتل الناس من دون أى خضوع لمعايير أخلاقية أو إنسانية أو أى التزام بالقانون الدولى الإنسانى؟

‎كان هذا السؤال بالضبط هو موضوع مؤتمر دولى نظمته وزارة الخارجية النمساوية مؤخرا وشارك فيه  900  مسئول من 143 دولة، أكد فيه الخبراء على أن تطوير «الأسلحة المستقلة» التى يقل أو ينعدم فيها التدخل البشرى، ويترك الأمر فى إدارتها إلى الذكاء الاصطناعى والمعروفة باسم «الروبوتات القاتلة» هو الثورة الثالثة فى مسارح العمليات الحربية بعد اختراع البارود والأسلحة النووية.

*

‎شدد المؤتمر على أن ظهور أنظمة «الأسلحة المستقلة» يبشر بتحول دراماتيكى فى الصراعات المسلحة، وفى الوقت نفسه، فإن عدم إشراك البشر فى القرارات المتعلقة بحياة وموت الناس فى الحروب يثير أسئلة عميقة تتعلق بالسياسة القانونية والأخلاقية والإنسانية والأمنية على كوكب الأرض. ومن الضرورى اتخاذ إجراءات عاجلة على المستوى الدولى لتنظيم استخدام هذه الأسلحة فى إطار القانون الدولى؛ لأن الفشل فى القيام بذلك يهدد بانتشار هذه الأنظمة التسليحية واستخدامها بشكل غير منضبط فى الصراعات فى جميع أنحاء العالم، مع ما قد يترتب على ذلك من عواقب خطيرة وغير متوقعة.

‎وزير خارجية النمسا ألكسندر شالنبرج قال فى افتتاح المؤتمر: «إن القانون الدولى يدور حول مسألة المسئولية، فيحمّل القانون الإنسانى الدولى الأشخاص المسئولية عن أفعالهم. ولكن من المسئول عندما يقتل الروبوت الناس عن طريق الخطأ؟ إن نظام القانون الدولى الذى بنيناه على مدى الأعوام المائة والخمسين الماضية سوف ينتهى فجأة إلى لا شىء. ولهذا السبب فإن الأمر يتطلب قواعد دولية واضحة وملزمة فيما يخص استخدام الأسلحة المستقلة فى مسارح العمليات الحربية».

‎وقالت رئيسة اللجنة الدولية للصليب الأحمر، ميريانا سبولياريتش، خلال حلقة نقاش فى المؤتمر: «من المهم للغاية أن نتحرك وأن نتحرك بسرعة كبيرة.. ما نراه اليوم فى سياقات العنف المختلفة فى العالم هو إخفاقات أخلاقية.. ولا نريد أن نرى مثل هذه الإخفاقات تتسارع من خلال إعطاء المسئولية عن العنف والسيطرة عليه إلى الآلات والخوارزميات».

‎وشدد الخبراء على أنه يتم استخدام الذكاء الاصطناعى بالفعل فى ساحة المعركة حاليا، ودللوا على ذلك بأن الطائرات بدون طيار فى أوكرانيا مصممة لإيجاد طريقها الخاص إلى هدفها عندما تنجح تكنولوجيا التشويش فى إنهاء سيطرة مشغلها عليها. ونوهوا كذلك بالتقارير الأمريكية بشأن استخدام الجيش الإسرائيلى الذكاء الاصطناعى للمساعدة فى تحديد أهداف القصف فى غزة.

*

‎هل يرتكب الذكاء الاصطناعى أخطاء؟ الإجابة نعم، وفى ذلك قال جان تالين، وهو مستثمر فى مجال التكنولوجيا: «لقد رأينا بالفعل أن الذكاء الاصطناعى يرتكب أخطاء فى الاختيار بطرق متفاوتة، ويجب أن نكون حذرين للغاية بشأن الاعتماد على دقة هذه الأنظمة، سواء فى القطاع العسكرى أو المدنى».

‎على الرغم من سنوات من المناقشات الدولية حول أنظمة الأسلحة المستقلة أو «الروبوتات القاتلة»، لا يزال المجتمع العالمى يفتقر إلى العزم على تحقيق التقدم التنظيمى اللازم لمواكبة الوتيرة السريعة للتطور التكنولوجى. إن الأمر يتطلب قدرا أعظم من الزخم، وعلى وجه الخصوص، زيادة الوعى العالمى بالحاجة الملحة إلى العمل الدولى الموحد لمواجهة ترك الآلات لتقرر من يعيش ومن يموت فى مسارح العمليات الحربية.

‎ولم تسفر سنوات من المناقشات فى الأمم المتحدة إلا عن القليل من النتائج الملموسة، وقال العديد من المشاركين فى المؤتمر الذى استمر يومين فى فيينا إن نافذة العمل تتضاءل بسرعة.

أخبار مرتبطة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

شاهد أيضاً
إغلاق
زر الذهاب إلى الأعلى