نُظم الأسلحة المستقلة الفتاكة في القانون الدولي

مقاربة قانونية حول مشكلة حضرها دوليًا

العشعاش إسحاق أستاذ بجامعة الجزائر -1-، الجزائر
Abstract

Military robotics have always been part of science fiction in films, magazines and books. However, recent years have shown that modern technology has moved from the realm of science fiction to practical reality. Thus, the concepts of self-command of machines and weapons, or what has come to be known as “Lethal Autonomous Weapon Systems” have generated a great deal of debate among specialists and decision-making circles at the international level, because of the real problems, not the least legal, ethical, military and technological.The rise of technological development in the field of weapons development raises the possibility of a total reduction or elimination of direct human control of weapons systems and the use of force, especially in its sensitive functions of target selection and attack, as a result of a huge surge in robotics and computer science.

This study is particularly interested in clarifying as far as possible the concepts related to LAWS, as these interlocking terms such as Autonomous weapons systems or Semi-autosome weapons systems should be considered, highlighting their respective characteristics with realistic examples. The study demonstrates the Applicability of the rules and principles of the current law of armed conflict in the case of the use of such technology, the consequent doubts about the latter’s ability to respect international humanitarian law and human rights, the ambiguity surrounding accountability mechanisms in the case of non-compliance with these rules. Finally, the international community in trying to regulate and restrict the use of such technology, in modern diplomacy to negotiate within the framework of theConvention on Prohibitions or Restrictions on the Use of Certain Conventional Weapons which may be deemed to be Excessively Injurious or to have Indiscriminate Effects, and the application of Article 36 of the Additional Protocol I in 1977 to the four Geneva Conventions of 1949.

Keywords: Lethal Autonomous Weapon Systems – Robots’ killers – Autonomous weapons

مُلخّص

لطالما كانت الروبوتات العسكرية جزء من الخيال العلمي في الأفلام والمجلات والكتب، بيد ان السنوات الأخيرة أثبتت أن هذه التكنولوجيا الحديثة قد انتقلت من عالم الخيال إلى الواقع العملي، وبالتالي أضحت مفاهيم الحكم الذاتي للآلات والأسلحة أو ما أصبح يُصطلح عليه بنُظم الأسلحة التلقائية أو ذاتية التشغيل – تُــــثير- قدرًا كبيرًا من النقاش لدى المختصين ودوائر صُنع القرار على المُستوى الدولي، لِما تثيره من إشكالات واقعية ليس اقلها القانونية والأخلاقية والعسكرية والتكنولوجية. ان تصاعد التطوّر التقني في ميدان تطوير الأسلحة، يُثير احتمال خفض أو إزالة تامة لتحكم الانسان المباشر بمنظومات الأسلحة واستخدام القوة خاصة في وظائفها الحسّاسة التي تُعنى باختيار الأهداف والمهاجمة، وذلك نتيجة فورة هائلة في علم الروبوتات والحوسبة.

تهتمّ هذه الدراسة على وجه الخصوص بإيضاح ما أمكن من المفاهيم ذات الصلة بنُظم الأسلحة المُستقلة، ذلك انه من الواجب النظر في تلك المُصطلحات المتداخلة مثل نظم الأسلحة التلقائية أو نظم الأسلحة شبه التلقائية، وإبراز خصائص كل منها بأمثلة واقعية، كما تهتم الدراسة بمناقشة قابلية تطبيق قواعد ومبادئ قانون النزاعات المسلحة الحالية في حالة ما استُخدمت تلك التكنولوجيا، وما يترتبّ عنها من شكوك حول قدرة الأخيرة على احترام القانون الدولي الإنساني وحقوق الانسان، والغموض الذي يكتنف آليات المسائلة في حالة عدم احترامها لتلك القواعد، كما تعالج الدراسة جهود المجتمع الدولي في محاولة تنظيم وتقييد استعمال تلك التكنولوجيا في إطار الدبلوماسية الحديثة للتفاوض في اطار اتفاقية حظر أو تقييد أسلحة معينة يمكن اعتبارها مفرطة الضرر أو عشوائية الأثر، إضافة إلى متطلّبات تطبيق المادة 36 من البروتوكول الإضافي الأول سنة 1977 لاتفاقيات جنيف الأربع لسنة 1949.

الكلمات المفتاحية: الأسلحة التلقائية الفتاكة – الروبوتات القاتلة – نظم الأسلحة ذاتية الحكم.

مقدمة
يُحرّم القانون الدولي المعاصر استخدام القوّة، بل حتى التهديد باستخدامها ضدّ سلامة الأراضي أو الاستقلال السياسي لأي دولة أخرى، أو على أي وجه لا يتفق ومقاصد الأمم المتحدة، غير اننّا نشهد يوميا حروبًا ضارية مدمّرة تستخدم فيها ما جادت به عبقرية الانسان من وسائل تدمير وايذاء تتفنّن فيها الجيوش باستخدام أعتى وسائل البطش والاضطهاد والمعاملة القاسية لفئات عريضة وواسعة منالافراد والاعيان، في تأكيد للقول انّ الحرب شرٌّ لا بدّ منه.

وقد أحدثت التكنولوجيات الحديثة نقلة هائلة في مجال إدارة النزاعات المسلحة الحديثة، وتطوّرت من اختراع العربات ثم البارود، إلى الملاحة الجوية الحربية والقنبلة النووية، وصولاً الروبوتات العسكرية أو الأسلحة ذاتية الحكم والتشغيل والجيل جديد من الأسلحة والأساليب التي تعتمد على الذكاء الاصطناعي وأدوات الحرب السيبرانية.

ومنذ اعلان سان بطرسبرغ سنة 1868 ([1])الذي حظر استخدام بعض الأسلحة ذات الإصابات المفرطة والآلام التي لا مُبرّر لها، بدأ المجتمع الدولي يسعى إلى تنظيم التكنولوجيات الجديدة المستخدمة اثناء إدارة المعارك وفق تطوّر قواعد القانون الدولي الإنساني الداعية إلى أنسنة الحرب والتقليل من الضرر اللاحق بغير المُشاركين فيها، وبذلك استجاب القانون لعديد التحدّيات التي يطرحها ظهور الأسلحة الجديدة إلّا انّه بقي مُتعثّرًا في مجاراة التطوّرات.

وبالرغم من ان هذا الإعلان قد حظر نوعًا واحدًا من الأسلحة المُستخدمة إلّا انّه وضع عددًا من المبادئ التي استُنِدَ إليها لاحقاً عند تطوير قواعد قانون الحرب. أحد اهم تلك المبادئ هوالذي ينص على ما يلي “إن الهدف الوحيد المشروع الذي يجب على الدول ان تحترمه خلال الحرب، هو إضعاف قوّات العدوّ، وان تجاوزه باستخدام أسلحة محضورة سيؤدي إلى تفاقم المعاناة بلا داعٍ، ويُسبِّبُ في الموت المحتّم”.

يُفهم من هذه العبارة ان تنظيم وسائل الحرب وأساليبها قد تطوّر من خلال نهجين متوازيين: أولهما، وجوب تبني قواعد ومبادئ عامة تطبّق على جميع تلك الوسائل والأساليب وسلوك المقاتلين على افتراض ان قواعد القانون الدولي الإنساني تفرض قيودًا على اختيارها واستخدامها، والثاني هو النهج الذي يسعى إلى الحدّ من استخدام أو حضر بعض الأسلحة المعنية نظرًا لخطورتها، والذي تجلى من خلال اتفاقيات دولية عديدة. ([2])

بيد ان السنوات العشر الأخيرة اثبتت ان تلك القواعد لم تعُد توائم تطبيقات النُظم الروبوتية التي تعمل في الجوّ والبرّ والبحر التي تثير احتمال خفض أو إزالة تامة لتحكّم الانسان المباشر بمنظومات الأسلحة واستخدام القوّة خاصة في الوظائف الحسّاسة التي تُعنى باختيار الأهداف ومهاجمتها، وبالتالي ظهرت الحاجة إلى إيجاد مناقشات واعية حول تلك المسائل ما يرتّب تكييفًا للقواعد الحالية أو إيجاد قواعد جديدة بما يضمن احترامًا لمبادئ القانون الدولي الإنساني المتعارف عليها والمنصوص عليها في عديد المعاهدات الدولية.

تتناول هذه الدراسة على الأخص بعض تلك المسائل دون التعمّق فيها نظرًا لحداثة القضية وغموضهاوندرة الدراسات السابقة وانعدامها خاصة بالنسبة إلى التي تتناول الموضوع باللغة العربية وغياب احكام واضحة بخصوص الأسئلة التي لا شكّ انها تتفوّق عددا عن الاجوبة، فلا نطمح إلى معالجة شاملة أو اقتراح قواعد جديدة، وإنما رسم صورة للمخاطر والصعوبات الرئيسية التي تكتنف الموضوع، غير اننا نأمل ان تكون الدراسة نقطة انطلاق لإيجاد حلّ لهذه القضية، واضافة علمية جديدة للفقه القانوني العربي.وتنطلق الدراسة من طرح الاشكالية المركبة التالية.مـــاهي المسائل القانونية التي تُثيرها نُظم الأسلحة التلقائية؟ وما هي سُبل حظرها أو تقييد استخدامها دُوليًا في إطار جهود المجتمع الدولي؟ وحتى يتسنى الإجابة عنها فقد وضعنا لكل عنصر عنوان خاص به، فالأحرى بنا أولا إيضاح بعض المفاهيم المتعلقة بنظم الأسلحة ذاتية الحكم والتباين الحاصل في التعاريف وخصائصهامن خلال(المحور «1») ثم النظر في المسائل التي تثير قلق المجتمع الدولي في حالة استخدامها خاصة المرتبطة بمبادئ القانون الدولي الإنساني والنهج المتبع في سبيل الوصول إلى توافق دولي حول تقييد استخدامها أو حظرها تمامًا(المحور «2»)

المحؤر الأول:تباين المفاهيم المتعلقة بنُظم الأسلحة المستقلة وخصائصها.

في مايو 2013، قامت طائرة بأجنحة خفاشيهغير مأهولة،برحلتها الجوية الأولى، حين أقلعت من على متن حاملة الطائرات «USS George Walker Bush» على مسافة قصيرة من ساحل الولايات المتحدة بالقرب من العاصمة الأمريكية واشنطن.تُعرَف هذه الطائرة اليعسوبية (غير المأهولة) باسم«X-47B» تفوق سرعتها الطائرة غير المأهولة الأخرى المعروفة بالمفترسة MQ-1 Predatorاو الحاصدة MQ-9، بيد انّ عاملا آخر جعل من هذه الرحلة الجوية فريدة من نوعها بل تاريخية، حيث ان الطائرة صُمِّمتْ لتنفيذ المهام دون تدخّل بشري في جميع وسائط التنقل والهجوم وتفادي الهجوم، في نفس الإطار أعلنت الحكومة البريطانية فيما سبق انها انتجت طائرة شبح تجريبية سميت بــ”تارانيس” Taranis([3]) وأكدت الجهة المصنّعة أنها طائرة غير مأهولة ذاتية التشغيل والحكم، إلّا ان بريطانيا اصرّت على ان مشغّل بشريًا هو الذي سيتحقق من الأهداف قبل شنّ أي هجوم. ([4])

لا يعدّ ما سبق الإشارة إليه إلّا نبذة مختصرة عما يجري تصميمه وانتاجه في العديد من دول العالم في ثورة مماثلة لا تقتصر على الجوّ بل تمتد إلى البرّ من خلال نشر الروبوتات والطائرات اليعسوبية النانو ([5]) بل وتمتد إلى البحر واغواره بغواصات غير مأهولة ذاتية التحكم.انطلاقًا مما سبق تبرز الحاجة إلى ابراز بعض المفاهيم والخصائص المتعلقة بالموضوع.

مفهوم نُظم الأسلحة التلقائية:
يقول ويليام جودي الحائز على جائزة نوبل للسلام سنة 1997 “لكي نتجنب مستقبلا يشوبه حكم الآلة منفردة بقتل البشر، على الدول ان تسعى إلى فهم معنى الاستقلالية في عمل الاسلحةثم العمل من اجل التفاوض على معاهدة تحضر تلك الروبوتات القاتلة”([6])

من هنا تبرز الحاجة لإيضاح تلك المفاهيم، التي تساعد على التفرقة بين المصطلحات من اجل تكييف القواعد القانونية أو وضع قواعد جديدة، دون فقدان أي من الحقوق الذي يضمنها القانون الدولي للنزاعات المسلحة، ففي هذا الإطار تضاربت التعاريف بشأن نظم الأسلحة المستقلة الفتاكة ([7]) بحيث يمَكِّنُ التعريف من وضع أساسيات فرض القيود القانونية.بالرغم من حداثة الموضوع إلا ان عددًا قليلًا من الدول والمنظمات غير الحكومية والهيئات الدولية قد وضعت تعاريف مختلفةباختلاف المنظور الذي يُنظر منه لتلك الأسلحة وفيما يلي سوف نرصد أهم التعاريف التي أتت في هذا الشأن:

1) اللجنة الدولية للصليب الأحمر: اقترحت اللجنة الدولية ([8]) ان مصطلح “منظومات الأسلحة المستقلة” هو مصطلح شامل من شأنه ان يشمل أي نوع من أنواع الأسلحة سواء كانت تعمل في الجوّ أو على البرّ أو في البحر بتلقائية في وظائفها الحسّاسة، وهذا يعني سلاحًا يمكنه ان يختار (أي يبحث ويكتشف ويحدّد ويتعقّب) ويُهاجم (أي يستخدم القوة ضد العدوّ أو يُعطّل أو يُضرّ أو يُدمّر) أهدافًا دون تدخّل بشري (أي بعد التشغيل الأولي، تقوم منظومة السلاح بنفسها -باستخدام أجهزة الاستشعار والبرمجة والقوة- بعمليات الاستهداف والاعمال التي عادة ما يتحكّم فيها البشر([9]).
2) هيومنرايتسووتش: تضطلع هذه المنظمة غير الحكومية في دور محوري حول القضية حيث كانت السبّاقة إلى اثارة الموضوع على الساحة الدولية عن طريق تقاريرها التي تعنى بحقوق الانسان وأنسنة الحرب ([10])، ولم تضع المنظمة تعريفًا دقيقًا لنُظم الأسلحة التلقائية غير انّها وضعت مفاهيم محدّدة للروبوتات([11]) يتم من خلالها تصنيف تلك الأنظمة، “فالروبوتات هي في الأساس آلات تمتلك القدرة على الإحساس (الشعور) والتفكير([12]) والتصرّف (الفعل) بناءً على كيفية برمجتها، بدرجة من الاستقلالية مما يعني قدرة الآلة على العمل دون اشراف الانسان، وتختلف مستويات الاستقلالية حسب دور الانسان وغالبًا ما تنقسم الآلات غير المأهولة إلى ثلاث فئات استنادا إلى مقدار المشاركة البشرية فيها:
الانسان ضمن الحلقة Human in the Loopوهو مقدرة الروبوت على اختيار الهدف أو القيام باي وظيفة ما عدا التصرفثم يتوقف تلقائيا أو يوقف ليتسلّم الانسان الحكم التالي.
الانسان فوق الحلقة Human on the Loopوهو مقدرة الروبوت على اختيار الهدف والتصرّف واستعمال القوّة تحت مراقبة الانسان الذي يمكن له تجاوز الإجراءات وتوقيفها والتحكم بها في أي مرحلة كانت.
الانسان خارج الحلقة Human Out the Loopوهو قدرة الروبوت على تحديد الأهداف واستخدام القوّة دون مقدرة الانسان على التدخّل ضمن أي مرحلة.
يبرز لنا التعريف المقدم ان هنالك درجات من الاستقلالية لدى الآلات وهنا يظهر الاختلاف بين المصطلحات، فالأسلحة التلقائية حسب ما اتى به التعريف الأكثر تعارفًا المقدّم من قبل اللجنة الدولية للصليب الأحمر هي نظم الأسلحة التي تجعل الانسان خارج حلقة القتل.([13])أي الأسلحة التي لا يتدخّل الانسان في اية مرحلة([14])اثناء اشتغالها والتي يصطلح عليها البعض بالأسلحة الفتاكة المستقلة تمامًا Fully Lethal Autonomous Weapons وهي آخر درجة في الاستقلالية والتينرى انها توائم مصطلح نظم الأسلحة المستقلة الفتاكة. ([15])

3) تعريف المملكة المتحدة UK: في مايو 2011 قامت المملكة المتحدة بوضع تعريف لنظُم ([16]) الأسلحة المستقلة الفتاكة في تنظيماتها العسكرية تحت عنوان “مقاربة المملكة المتحدة لأنظمة الطائرات غير المأهولة” وينص التعريف على ما يلي:
“النظم ذاتية الحكم هي أنظمة قادرة على فهم وتحليلٍ ذو مستوى عالي، انطلاقًا من معالجة البيئة المحيطة بها، والقدرة على اتخاذ إجراءات ملائمة لإحداث حالة مرغوبة، قادرة على تحديد مسار العمل، واختيار البدائل، دون الاعتماد أو اشراف الانسان ومراقبته، على الرغم من انه متواجد بالحلقة وقادر على التنبؤ بأفعالها” ([17])

4) الولايات المتحدة الامريكية: في نوفمبر 2012 أصبحت الولايات المتحدة الامريكية اول دولة تصدر سياسة واضحة بخصوص نظم الأسلحة المستقلة، وقد أوردت ثلاث مفاهيم:
نظم الأسلحة المستقلةAutonomous Weapon System:هي نظام السلاح الذي بمجرّد تفعيله يمكنه تحديد الأهداف والتفاعل معها دون تدخّل إضافي من قبل مشغّل بشري.
نظم الأسلحة المستقلة التي تعمل تحت إشراف بشري Human-supervised Autonomous Weapon System:هي أنظمة يتم تصميمها لتزويد المشغّل البشري بالقدرة على التدخّل وانهاء التشغيل المستقل في حالة ما فشل النظام في تحقيق الهدف قبل وقوع تجاوزات غير مقبولة من الضرر.
نظم الأسلحة شبه المستقلة Semi-Autonomous Weapon System: هو النظام الذي بمجرّد تشغيله يمكنه تحديد الأهداف مُنفردة أو مجتمعة والتي تم برمجتها من قبل مشغل بشري.
ترى الولايات المتحدة الامريكية انه من غير الضروري ان يُعتمد تعريفًا محددًا لقوانين نظم الأسلحة المستقلة بدل ذلك تؤيد الولايات المتحدة الامريكية وتشجع على فهم عام لخصائصها، وان عدم وجود تعريف محدد لا يشكّل عائقا امام الخبراء، كون التعريف القانوني وبوجه عام له أغراض خاصة كوضع قاعدة قانونية تمسّ جوانب التعريف مثل الطائرات غير المأهولة ذاتية التشغيل يجب ان يشمل تعريفها أنواعها وخصائها، وبالتالي على الدول العمل من اجل فهم خصائص تلك الأسلحة.

وقد أصدرت الولايات المتحدة توجيها ([18]) في هذا الإطار ما أصبح يعتبر سياسة الولايات المتحدة الممتدة من الفترة 2012 إلى 2036 ([19]) وأكدت فيه على الحفاظ على المشغّل البشري كجزء مُشرفْ في حلقة القتل، وتوضح سياسة الولايات المتحدة الامريكية ان الاستعراض القانوني للأسلحة هو افضل الممارسات في هذا الاطار بالرغم من انها ليست طرفًا في البروتوكول الإضافي الأول لعام 1977 وبالتالي فهي غير ملزمة به، غير انها احترمت ما تمليه المادة 36 من البروتوكول بخصوص المراجعة القانونية عند دراسة أو تطوير وتبني أي سلاح جديد أو أسلوب للحرب، وفي هذا الصدد أصدرت وزارة الدفاع الامريكية عددا من التوجيهات لإجراءات المراجعة القانونية مثل التوجيه DOD 5000.01 الذي ينص على ان تطوير الأسلحة أو اقتناءها يجب ان يكون متسقا مع القانون المحلي والدولي المعمول به بما في ذلك قانون الحرب، بحيث يقوم بهذا محامي مفوّض بإجراء مثل هذه المراجعات. ([20])

5) دول عدم الانحياز والجزائر: اكدت دول عدم الانحياز في وثيقتها الختامية التي اعتمدت في القمة السابعة عشر لحركة عدم الانحياز التي عقدت في فنزويلا في سبتمبر 2016، على وجوب اخضاع تلك التكنولوجيا إلى القانون الدولي الإنساني.([21])
كما اكدت الجزائر على انه يجب ان تتم المناقشات بشأن نظم الأسلحة المستقلة الفتاكة SALA ([22]) في إطار احترام ميثاق الأمم المتحدة وقواعد القانون الدولي الإنساني، ومثل سابقتها من دول عدم الانحياز لم تضع تعريفًا لهذه النظم من الأسلحة ولم تُبدي رأيها في خصائصها إلّا انّها أيّدت الجهود الرامية إلى حظر نظم الأسلحة المستقلة الفتّاكة، وقد عقدت وزارة الدفاع الجزائرية ندوة علمية بخصوص علم الروبوت بالمدرسة الوطنية متعددة التقنيات في 30 نوفمبر 2016.

6) المقرر الخاص المعني بالإجراءات القضائية والاعدامات خارج القضاء: في ابريل 2013 كتب كريستوف هينز المقرر الخاص المعني بالإجراءات القضائية والاعدامات خارج القضاء التابع لمجلس حقوق الانسان التابع لهيئة الأمم المتحدة -تقريرًا- عرّف فيه نظم الأسلحة المستقلة الفتاكةبأنها “انظمة أسلحة آلية يمكن بمجرّد تنشيطها تحديد الأهداف واشراكها دون تدخّل إضافي من المشغّل البشري، والعنصر الأهم هو الاختيار (الاستهداف)Targeting واستخدام القوّة المميتة”
يضيف كريستوف هينز([23]) ان ثورة الروبوتات هي الأكبر في مجال الشؤون العسكرية وان نشرها لن يفضي إلى تحسين الأسلحة المستخدمة فقطبل سيؤدي إلى تغيير هوية من يستخدمها.

ويجادل كريستوف هينزحول البعد الأخلاقي والإنساني ويطرح إشكالية التضحية بالمدنيين على حساب المقاتلين العسكريين حيث يصف السياسات في هذا الإطار بأنها تسعى إلى التقليل من الوفيات في صفوف الجنود على حساب التضحية بالمدنيين.ويرى المدافعون عن حقوق الانسان مثل منظمة العفو الدولية ان مثل هذه الأنظمة تنتهك بدون شك حق الانسان في الحياة والكرامة وتضرب الاخلاق الإنسانية ضرب الحائط، وقد اغتنمت هذه المنظمات حادثة قتل أحد المواطنين الأمريكيين Micah Xavier Johnsonلتأكّد معارضتها.الحادثة وقعت حينما قام المواطن الأمريكي (الجندي السابق) بإطلاق النار على الشرطة عن طريق قناصته ليقتل خمسة ضبّاط في مدينة دالاس على إثر احتقان بين السود والبيض، وينتهي به الامر مقتولاً بعد ان استخدمت الشرطة روبوتًاارضيا تنقل إلى مخبأ القناص ووضع قنبلة اردته قتيلا، وقالت الشرطة الامريكية ان الروبوت مستقل لكنه يعمل تحت اشراف بشري وان الروبوت لم يكن ليُستخدم لأغراض القتل لولا قتل زملائهم.([24])

للإشارة فإن عددًا آخر من الدول حاولت وضع تعريف لنظم الأسلحة المستقلة الفتاكة وليس هذا المقام مناسبًا لرصد كافتها، إلّا ان الموضوع يحتاج إلى مناقشة مستفيضة لفهمه.

ولأغراض هذه الدراسة يستخدم الباحث مُصطلح “نظم الأسلحة المستقلة الفتاكة” بدل المصطلحات الأخرى التي تم رصدها، لما يدلّ على الجزالة والوقار والهيبة في اللفظ خاصة واننا بصدد الحديث عن أسلحة وأساليب حرب تؤدي إلى تهشيم الكيان البشري ونشر القتل بغض النظر عن مشروعيتها، فالغرض من عبارة “مُستقلة” هو لاستقلال نظام السلاح عن الحكم البشري في القرار Decide والفعل Act أي اتخاذ القرار بصفة منفردة، فقد يأتي ان تكون الوظائف الأخرى مثل المعالجة والمراقبة مستقلة عن تدخل البشر بالرغم من انها وظائف حسّاسة وحرجة إلّا انها قد توجد في بعض الأنظمة (خاصة في الدفاعات الجوية) لها نفس الوظائف المستقلة بل وحتى التصرّف واستخدام القوّة بيد انها لا تُعدّ مستقلة بالكامل Fully كون المشغّل البشري يمكنه إيقاف المسار في أي مرحلة، وان هذا المصطلح يجنّبنا من الخوض في درجةالاستقلالية المسموح بها بموجب القانون الدولي الإنساني الذي يؤدّي إلى الاعتماد على المراجعات الوطنية للأسلحة الحديثة بموجب المادة 36 وبالتالي خلق معايير غير متجانسة بين كافة الدول مما يضفي مزيدًا من الإفلات من القانون، كما يتفق هذا الرأي مع ما المطلب الذي تنادي به المنظمات غير الحكومية وهو الحظر الاستباقي لهذه الأسلحة المستقلة تمامًا وتنظيم التحكم البشري الهادف، كما ان الباحث يرى ضرورة الإبقاء على عبارة “الفتاكة” وهذا لتمييزها عن النظم المستقلة التي لا يكون غرضها الفتك والقتل مثل ماسحات الألغام. ([25]) في كل الاحوال فإن المصطلحات القانونية لها طبيعة خاصة وتُفسّر حسب أغراضها مثل ما تنصّ عليه المادة 31 من اتفاقية فيينا 1969 لقانون المعادات.

كما ان المطلّع على التعاريف يلحظ انها تركّز وبدرجة كبيرة على علاقة الانسان بالآلة خاصة في مشاركته باستخدام القوّة،واللفظ الخاص المعتمد له دلالته القطعية باستقلالية السلاح عن الانسان ما لم يدلّ دليل على صرفه عنها، فهو بذلك مدلول شائع في جنسه ويكون مُطلقًا على هذه الأسلحة ما لم يقترن به قيد مثل (شبه المستقلة)، وبالتالي فإن الدقة في هذا المُصطلح قد بلغت درجة يتعذّر معها إساءة فهمه أو الانحراف بمدلوله، وهو لفظ مرن غير مُبهم دون ان يذهب إلى حدّ الغموض والالتباس الذي نجده في عبارة”التلقائية” التي يمكن ان توحي إلى بعض الأسلحة التي لها وظائف تلقائية مثل الصواريخ المتتبعة للهدف غير انها ليس مستقلة بالكامل، ولعلّ المصطلح الأقرب الثاني هو نظم الأسلحة الفتاكة ذاتية الحكم وهو يرتبط أكثر بالحكم أي القرار أي يدلّ على وظيفة واحدة فقط، ونُضيف إلى انّ انسياقنا وراء هذه التسمية ليس إيمانًا منّا بها يقينًا انمّا انسياقًا عمّا شاع ودرج خاصة في وثائق الأمم المتحدة.

وتجدر الإشارة أيضا إلى ان التعاريف المأخوذة تنطلق من مقاربات مختلفة على اختلاف توجّهات الأطراف الفاعلة ([26]) في الموضوع،ويمكن حصرها من خلال:([27])

أوّلاً، المقاربة التكنولوجية في التعريف وهي التي تأخذ بالجانب التقني كمنطلق لوضع تعريف جامع ومانع ويهتم هذا التوجّه بالمواصفات التقنية والفنية، وهو النهج الذي سارت عليه اتفاقية حظر أو تقييد أسلحة تقليدية معينة، وتعالج هذه المقاربة أسئلة تعتبر الأصعب في الموضوع مثل طبيعة الأسلحة هل هي روبوتات منفصلة ام آلات افتراضية؟، وهل يمكن ان يتحكم فيها البشر (الاشراك البشري الهادف) عن طريق محاكاة الشبكات العصبونية للإنسان مثلا؟ وترى المقاربة ان نظم الأسلحة التلقائية يمكن ان تخضع إلى مستويين من الاستقلالية يتعلق الأول بالبرمجة المسبقة للمسارات التشغيلية اما الثانية فهي الذكاء الاصطناعي والتعلم، وقد اعتمدت هذه المقاربة المملكة المتحدة.

ثانيا، المقاربة التي تنظر إلى المشغّل البشري أو التي تعرّف نظام السلاح انطلاقًا من التفويض البشري ومستوى التحكّم أو التي تم رصدها سابقا حول موقع الانسان في حلقة ومسارات الآلة اثناء تشغيلها سواء كان ضئيلا أو منعدما أو حيويا، وهي المقاربة التي اعتمدتها الولايات المتحدة الامريكية.

ثالثا، المقاربة بالوظائف التي تؤديها الآلة وهي الوظائف الحسّاسة التي سبق الإشارة إليها وهذه المقاربة الشائعة فالتعريف المقدّم من قبل اللجنة الدولية للصليب الأحمر يأخذ بها.

خصائص نظم الأسلحة المستقلة الفتاكة.
كما سبق الإشارة اليه فإن خطر نظم الأسلحة المستقلة الفتاكة قد يكمن في عدم مراعاتها لمبادئ القانون الدولي الإنساني بصفة عامة وهي التي تتعلّق بالتناسب والتفريق بين العسكري والمدني وعشوائية الضرر وغيرها، بالإضافة إلى الجانب الأخلاقي الذي يكمن في ترك الآلة تقرّر من تقتل وكيف تقتله ما يثير قلق ورعب المجتمع الدولي من نشوء هذه التكنولوجيات.

يولي هذا الجزء من الدراسة اهتمامًا إلى خصائص هذه النظم بإيجاز دقيق حسب ما جاد به الفقه الغربي من مفاهيم حديثة: ([28])

الأتمتة اوالاستقلالية Automation or autonomy:
في المناقشات الدولية التي جرت داخل أروقة مكتب الأمم المتحدة بجنيف ذكر عديد المندوبون ان معنى “الاستقلالية” هو معنى واسع قد يشمل حتى الألغام الأرضية كونها سلاح مستقل لا اشراف بشري عنه، غير ان الخبراء اكّدوا ان هذه النظم تعمل باستقلالية في الحكم والتنفيذ على عكس أنظمة الأسلحة (ليست بالجديدة) التي تعتمد على البرمجة المُسبقة أي التي تعتمد على منطق “إذا حدث هذا.. افعل هذا” “if this, do that” فاللغم الأرضي لا يقرّر الانفجار إذا توفر له شرط الحمولة المثبتة سابقًا بل ينفجر تلقائيا، وبهذا فإن الأتمتة([29])هي النظام الذي يقرّر التصرّف أو عدمه حتى وان توفّرت الشروط، وبالرغم من توفّر بعض نظم الأسلحة في فترات ليست قريبة (مثل قاذفات الصواريخ التي تنطلق ذاتيا بمجرّد رصدها للهدف) إلى انها ليست موضوع النقاشات فالقلق الدولي ينصبّ حول النظم المستقلة في وظائفها الحرجة ولا تحتاج إلى مشغّل بشري إضافي. ([30])بل اصبح البعض يناقش نظم الأسلحة المستقلة السيبرانية التي أضحت هي الأخرى تشتغل بذاتية في الحكم.

التعلّم والتكيف مع الأوضاع:
يتم تعلّم النظام من خلال المحاكاة والتجربة المباشرة، من اجل التكيّف مع الأوضاع الجديدة وتصحيح الأخطاء وقد يكون هذا التعلّم دون الخضوع للمشغّل البشري وقد يكون باتصال أو بغير اتصال، فالتكيّف هو القدرة على التغيير في المسارات عن طريق استشعار البيئة المحيطة.

وقد أثار بعض المناقشون هذه المسألة من خلال طرح تساؤلات قانونية حول التكيف بالنظر إلى التزامات الدول من خلال المادة 36.حيث يضيف التكيف والتعلّم طيفا جديدًا من القدرات التي تحدث بصفة آنية ولن يتأنىللدول مراجعتها قانونيًا وفق ما التزمت به اتجاه القانون الدولي.

التحسّن والتحكم المثالي:
تعمل نظم الأسلحة الذاتية عن طريق خاصية التحسين الذاتي (التطوير من القدرات ذاتيا) بالاعتماد على نماذج معقّدة من الخوارزميات الرياضية وكمية هائلة من البيانات التي يتم تحليلها لتحديد الاجراء السريع ويُعرف هذا المسار بالذكاء الاصطناعي.([31])

لذلك يرى الخبراء ان القدرة على التحسين يجب ان تكون تحت اشراف البشر حتى لا يحيد النظام باختياره، ومثال ذلك ان يتم تحسين طريقة اختيار الأهداف العسكرية أو عدد القتلى أو ما يمكن ان يقلّصه من الاضرار الجانبية وغير ذلك حسب برمجة تراعي القواعد القانونية، وقد تمّ حقًا تطوير نظام سُمي بــ”الحاكم الأخلاقي” كنموذج اولي يمكن استخدامه في تطبيق القوة المميتة في الحرب بواسطة الروبوت الذي صمُمّ لضمان امتثال النظام لقواعد القانون الدولي الإنساني وقواعد الاشتباك ومبادئه الذي طوّره عالم الروبوتيك رونالد اركين Ronald Arkin.([32])

Ronald Arkin, Ibid, P 157.

التعقيد:
يصعب فهم المسار الذي اتخذه الجهاز لتفسير مخرجاته Out Put (تصرّفاته) ومن الصعب أيضا تقييمها خاصة إذا اعتمدت على طبقات عميقة من الشبكات العصبية (الذكاء الاصطناعي المتطوّر) وبالتالي لا يمكن تعقّب الخطأ، وقد أشار المختصون إلى إمكانية تطوير ذكاء اصطناعي قابل للتفسير Explainable AI([33])وهو ما يخلق تضاد في المفاهيم، الأول، يتعلق بالحاجة إلى تفسير وتعقّب الخطأ الامر الذي يساعد على قيام أساس مسؤولية أي انتهاك قد يحدث والتي يمكن لها ان تقع على المطوّر أو المبرمج أو المصمم أو القائد العسكري أو غير ذلك من المفاهيم الحديثة للمسؤوليةوالمحاسبةالتي اوجدها الموضوع، أو ترك النظام مثل الصندوق الأسود Black Boxes.

الفتك:
من الخصائص الرئيسية في هذه النظم من الأسلحة خاصية الفتك أو القتل، ولعلّ عبارة “الفتك” Lethal تشير إلى عدم اعتداد الآلة بالأحاسيس الإنسانية فهي لا تخضع لاعتبارات الضمير الإنساني في تنفيذ مهامها وبالتالي فلا تتراجع في الحالات الإنسانية القُصوى، وقد ابدا العديد من المعارضين لهذه النظم مخاوف إضافية إلى تلك الأسلحة الموجّهة للأفراد مثل السلاح المستقل Super eEgis 2الفتاك الذي انتجه الفرع العسكري لشركة Samsungوتم نشره في المنطقة منزوعة السلاح بين الكوريتين، اذ يُعتبر روبوتمُدرّع مزوّد بمجسّات ورشّاش ناري يمكنه الاستهداف عن طريق تقنيات التعرّف على الوجه بالأشعة تحت الحمراء من مسافة 2 كلم. ويثير هذا إشكالية بخصوص مبدأ التمييز.

عدم القدرة على التنبؤ والموثوقية:
هو عدم القدرة على معرفة ما سيُقدم عليه الجهاز وبالتالي يثير عدم الموثوقية التي تُعتبر جوهر قلق المجتمع الدولي خاصة المنظمات غير الحكومية.

المسائلة والمحاسبة:
في النظم التقليدية العسكرية تتم المسائلة بطريقة هرمية اذ يتم تدريب الجنود على طاعة الأوامر بصرامة وتضلّ المسائلة في هذه النظم غير واضحة المعالم وكثير من الدراسات تناولت المسألة وظهرت عديد النظريات الحديثة مثل الشخصية القانونية الثالثة أو الشخص الافتراضي.

في نهاية هذا الجزء يمكن استنتاج ان كل الأسلحة صُنعت للقتل لكن السؤال الذي نطرحه، هل ستحافظ هذه التكنولوجيا العسكرية على حياة المدنيين أكثر من الأسلحة التقليدية؟ فإذا كانت الإجابة بنعم، فهذا امر جيّد، اما الإجابة بالنفي فالحاجة تبقى ملحة إلى حظر استباقي

المحور الثاني: جهود المجتمع الدولي في مجال حظر نظم الأسلحة المستقلة الفتاكة

يزداد قلق المجتمع الدولي بكامل اشخاصه من خطورة تطوير وإنتاج أسلحة مستقلة فتاكة وغالبا ما يرجع هذا الخطر إلى الدواعي ذات الجوانب الأخلاقية والقانونية والتكنولوجية والعسكرية ولهذا فإن هذا الجزء من الدراسة سيدرس دواعي قلق المجتمع الدولي إزاء قابلية تطبيق قواعد ومبادئ القانون الدولي الإنساني (دون التعمّق)، ثم النظر في الجهود الرامية إلى تقييد أو حظر استخدام هذه النظم من الأسلحة في العمل الدولي في إطار اتفاقية حظر وتقييد بعض الأسلحة التقليدية CCW.

قابلية تطبيق مبادئ القانون الدولي الإنساني:
انتشر في السنوات الأخيرة مفهوم “القتل المُستهدف” وأخذ الدارسون له يسترسلون في البحث عن مدى مشروعية القتل المُستهدف وما يرتّبه من إشكالات قانونية، وقد شاع خطأً([34]) الخلط بين تلك المفاهيم اعتقادًا ([35])بأن استخدام الطائرات غير المأهولةهو استخدام نظم أسلحة مُستقلة بالضرورة غير اننا اوضحنا فيما سبق الفرق بينها وان تلك الطائرات مثل Predator وغيرها ما هي إلّا آلات حربية أو نُظم أسلحة شبه مُستقلة يُتحكّم فيها عن بُعد وتخضع دائمًا إلى المُشغّل البشري ولا يستوي وصفها بالروبوت المستقل الذي فصّلنا في الوظائف التي يتعيّن ان يتمتّع بها.

فيما يخص القانون الدولي الإنساني فإن القانون الدولي المعاصر يميّز بين الأسباب التي تجيز اللجوء إلى الحرب والنظام القانوني الذي يحكم سير النزاع المسلّح، ويكتسي هذا الفصل أهمية بالغة بالنسبة لاحترام القواعد التي تحمي المدنيين وضمان المبادئ التي تحكم سير العمليات العدائية.

دون الخوض في المفاهيم المتعلقة بالسلاح فنفترض ان مفهومه يسري على كافة هذه الأنظمة المستقلة سواء كانت طائرات ام مدرّعات ما دامت تُستخدم كأداة للهجوم والدفاع فالقانون الدولي الإنساني لم يُشر إلى تعريف محدّد للسلاح غير انّه ولأغراض تلك القواعد ذكر كلّ سلاح حسب سماته ومواصفاته مثل أسلحة الليزر، الأسلحة البيولوجية أو غير ذلك.

بالرغم من ان نظم الأسلحة المستقلة الفتاكة لا تخضع لأي قواعد قانونية دولية إلّا انها تبقى خاضعة لسلطان المبادئ العامة لقانون النزاعات المسلحة.([36])

الضرورة العسكريةMilitary Necessity:
يُعتبر هذا المبدأ مبدأً له خصوية في القانون الدولي الإنساني فالحالة الطبيعية هي السلم ولا تسوغ هذه الحالة (أي اللجوء إلى القوة) الاّ بوجود ضرورة فالقوة ليست هدفًا في حدّ ذاته وإنّما هي وسيلة يكمن هدفها في اخضاع العدوّ وليس القضاء عليه كما سبق وأشرنا في بداية الدراسة، فما زاد عن هذا الهدف أصبح عنفًا لا غرض له بل عمل وحشي وهمجي. ([37])ومبادئ الإنسانية تنادي بغير ذلك، فالإنسانية تنادي بالأسر بدل الجرح والجرح بدل القتل، الجرح الاخف بدل تسبيب المعاناة وغير ذلك ([38]) وقد نظم القانون الدولي الإنساني قيودًا للضرورة العسكرية من خلال المادة 50 من اتفاقية جنيف الأولى والمادة 51 من اتفاقية جنيف الثالثة واحكام أخرى من البروتوكولات الإضافية لسنة 1977 وهذا لغرض تحقيق التوازن بين الضرورات العسكرية والمتطلّبات الإنسانية.

وعلاوة على ذلك فإن الخروج عن هذا المبدأ لا يكون بغير قيد بل يحكمه مبدأ التناسب وتقييد وضبط وسائل وأساليب القتال وتحقيق المزايا العسكرية بتمييزها عن المدنيين والاعيان المحمية والبيئة المحيطة، والضرورة العسكرية بهذا المعنى هي حُكمٌ أو قرار حاسم يتخذه القائد العسكري، والسؤال هنا كيف لنُظم الأسلحة المستقلة الفتاكة ان تحدّد ما إذا كان عليها التصرّف وان الحالة التي تواجهها تتطّلب اللجوء إلى القوّة ثم هل اللجوء إلى القوّة يقدّم ميزة عسكرية؟ ويرى المناهضون لهذه الأسلحة ان الأخيرة ستجد صعوبة في تقدير الضرورة العسكرية وربما يستحيل عليها تقديرها نضرًا لخصوصية المبدأ الذي يرتبط بالكيان والفكر البشري ([39]) غير ان المؤيدين لهذه الأسلحة يجادلون بأنها إذا ما استخدمت ستكون إلّا للضرورة العسكرية.([40])

مبدأ التمييز Distinction:
يعتبر مبدأ التمييز حجر الأساس لأحكام البرتوكولان الإضافيان لاتفاقيات جنيف لسنة 1977 حيث نصتالمادة 48 من البروتوكول الأول على أن “تعمل أطراف النزاع على التمييز بين السكان المدنيين والمقاتلين،وبين الأعيان المدنية والأهداف العسكرية، ومن ثم توجه عملياتها ضد الأهداف العسكرية دون غيرها وذلك من أجلتأمين احترام وحماية السكان المدنيين والأعيان المدنية”.هذا المبدأ المنبثق عن العرف الدولي الذي هو أساسقوانين الحرب وأعرافها، وفي صياغته وإدراجه بمعاهدة دولية تأكيدٌ على أهميته أيًا كانت ظروف النزاعاتالمسلحة دولية أم غير دولية. ويتطلب هذا المبدأ من أطراف النزاع المسلح التمييز بين السكان المدنيينوالمقاتلين وبين الأعيان المدنية والأهداف العسكرية ومراعاة هذا المبدأ لا غنى عنه لكفالة حماية المدنيين.

بالتوازي مع ذلك يُعدّ هذا المبدأ جوهر المناقشات الحاصلة حول نظم الأسلحة المُستقلة ويُشكّل أكبر عقبة امامها، فانعدام الإحساس أوالتمحيص Sense Or Interpret لتميّز بين المقاتل وغير المقاتل خاصة في البيئة الحربية المعاصرة التي تتسم بالامتثالية وحرب العصابات في المناطق الحضرية بحيث يصعب وبدرجة كبيرة التمييز بين المدني والعسكري خاصة وأن الدول التي تمتلك هذه التكنولوجيا العسكرية مثل الولايات المتحدة الامريكية والكيان الصهيوني لا تُواجه في الغالب حروبًا تقليدية بل حالات من الحركات الثورية والمقاومة أو كما تدعيه هي بــ”الإرهاب”، ويتطلّب التمييز تحديد سلوك الخصم ان كان مُشاركًا في الاعمال العدائية، فقد يكون من السهل التعرّف على المقاتل من زيّه العسكري إلّا انّه يصعب التعرّف على الفرد ان كان يحمل رشّاشًا أو عصًا يتوكأ عليها، كما تكمن محدوديتها في إمكانية خداعها كمن يخبئ حزامًا ناسفًا أو عبوة ناسفة، وبالتالي فهي غير قادرة على تقييم نوايا الافراد أو التفرقة بين الجريح وغير الجريح وفهم الحالة العاطفية للفرد وهو تقييم أساسي لتمييز الأهداف، ويقول “نويل شاركي”Noel E. Sharkeyعالم الذكاء الاصطناعي والعضو المؤسّس لحملة “أوقفوا الروبوتات القاتلة” ان هذه الأنظمة تفتقر إلى العناصر الأساسية للامتثال لمبدأ التمييز، وقد اعطى مثالاً في هذا الشأن بخصوص هروب أمّ مع ابنها الذي يحمل بندقية مُزيفة للعب بها، فالجندي البشري له القدرة على تفسير الوضع بأنّه لا يشكّل خطرًا بينما الآلة من غير المعقول انّها تحوز على تلك القدرة. ([41])

مبدأ التناسب Proportionality:
يقصد بهذا المبدأ مراعاة التناسب ما بين الضرر الذي قد يلحق بالخصم والمزايا العسكرية الممكن تحقيقيها نتيجةً لاستخدام القوة أثناء سير العمليات العسكرية، ويتجسد هذا المبدأ للتوازن بين مفهومين متعارضين نشأ عنهما مبدأ القانون الدولي الإنساني، القاضي باحترامالفرد واحترام سلامته إلى أقصى حد ممكن، ليوازن النظام العام في وقت الحرب مع المتطلبات العسكرية. فالإنسانية تفرض احترام الضحايا وعدم الثأر منهم، والضرورة تقيدها الضوابط الإنسانية والتي لا يجوز معها الاستخدام غير المتناسب للقوة من خلال الاحتجاج بالمقتضيات العسكرية المجردة. ([42])

ويذكر Michael Schmitt([43])ان مبدأ التناسب من بين أكثر القواعد تعقيدًا في القانون الدولي الإنساني ويرى انه من المُستبعد ان تتم برمجة نُظم الأسلحة المستقلة الفتاكة للتعامل مع كافة الأوضاع والسيناريوهات التي قد تحدث اثناء سير المعارك، كما اكّد Sharkeyان زجّ هذه النظم في ساحات المعارك يُمكن ان يُحدث سلوكًا روبوتيًا فوضويًا له عواقب مُميتة.([44])

وقد علّقت اللجنة الدولية للصليب الأحمر على هذا المبدأ بأنّه يتسّمُ “بالموضوعية والعقلانية” في التقييم وهو بذلك مسألة ذات حسّ سليم وحسن نية من قبل القائد العسكري([45]) وهو نفس المعيار الذي اعتمدته المحاكم الجنائية الدولية مثل المحكمة المختصة بالجرائم المرتكبة في يوغوسلافيا سابقًا في قضية Stanislav Galicسنة 2003.

مبدأ الإنسانية Humanity:
مبدأ الإنسانية واملاءات الضمير العام أو “شرط مارتينز” هو الغاية والوسيلة في آن واحد بالنسبة للقانون الدولي الإنساني، ويقصد به حماية كرامة الإنسان في جميع الأحوال بما في ذلك وقت الحرب. ولا يمكن الحديث عن قانون “إنساني” دون الرجوع إلى أصل هذا المبدأ، أي “الإنسانية”. فالحرب حالة واقعية من صنع البشر، وإذا لم نستطع أن نمنعها فإنه بالإمكان الحد من آثارها، والعمل على عدم انتهاك الإنسانية المتأصلة لدى كل الناس. وهذا ما تؤكده بوضوح الأحكام الدولية، عرفية كانت أم مكتوبة، إذ تقضي بوجوب “معاملة الضحايا بإنسانية” من خلال احترام شرفهم ودمهم ومالهم وصيانة الذات البشرية وكرامتها حتى في أشد الظروف قسوة وأكثرها ضراوة.([46])

يقول Ronald Arkin في نهاية كتابه انّه يطمح لأن تكون ابحاثه بداية لما اسماه “تركيب الاخلاق في الآلات” وانّ الهدف الرئيسي هو فرض قواعد القانون الدولي الإنساني، ويُؤيّد “أركين” فكرة صنع روبوتات مُقاتلة لا تمتثل إلى القانون فقط، بل تكون أكثر أخلاقية من البشر أنفسهم ([47]) والكثير من الدول اليوم تؤيّد هذا الفكر مثل الولايات المتحدة الامريكية وروسيا والصين، إلّا انّ المُعارضين لهته النُظم من الأسلحة يشكّون في نوايا هذه الدُولويرون([48]) أنّ استخدامها هو إنحياد عن الإنسانية في حدّ ذاتها،فالآلات حسبهم لا توفّر ادنى شروط الضمير الإنساني العام Public Conscienceويستشهدون بالاستطلاع الذي اجراه Arkin في بحثه حول مقبولية استخدام هذه النظم لدى رأي الجمهور العاديين والباحثين وصانعي القرار والافراد العسكريين،لتأتي أتت النتائج ان الرأي السائد هو “كلما تقلّص الاشراف البشري على الأسلحة كلمّا تضاءلت الموثوقية بها”([49]) والغريب في دراسة Arkin ان فئة السياسيين هم الفئة الأكثر تأييدًا لنُظم الأسلحة الفتاكة.

وقد حدّد الخبراء التحدّيات التي تُواجه نظم الأسلحة المستقلة الفتاكة والتي تمنعها من ان تكون سلاحًا يمتثل لقواعد القانون الدولي الإنساني، وتتلخصّ اساسًا في الموثوقة وعدم اليقين بمآلات التشغيل في غياب الاشراف البشري، بالإضافة إلى مخاطر التداخل وقابلية الكشف (إمكانية اختراق البرنامج بناء على هجوم سيبراني)، والتأخر في معالجة الخوارزميات في الحالات المعقدة، وأخيرًا البحث في مفاهيم التعلّم الذاتي وتطوير الذكاء الاصطناعي سواء بعد التصنيع سواء كان عبر الفضاء السيبراني أو غيرها ثم التقييم الذاتي والتدريب([50])

يُجدر التنويه إلّا ان النقاشاتالمتعلقة بمبادئ القانون الدولي الإنساني ترتبط أساسًا بالتكنولوجيا العسكرية وتُناقش على هذا المُستوى، وقد تتخذ المُناقشات منحى آخر متى ثبت ان التكنولوجيا الحديثة أو المُستقبلية بإمكانها الامتثال إلى تلك المبادئ غير ان المشكل الأخلاقي يبقى مطروحًا وهو الذي يتلخّص أساسًا بضمير الإنسانية وترك الآلة تقرّر قتل الذات الإنسانية.([51])

نحو إطار قانوني دولي لحظر نُظم الأسلحة المستقلة الفتاكة.
اثار احتمال نشر نظم أسلحة مُستقلة فتاكة عددًا من الأسئلة المثيرة للقلق خاصة منها القانونية والتي تثير مآزق أخلاقية ومعنوية على غرار المسائل التكنولوجية والتي تتعلّق بالسلم والأمن الدوليين والواقع حقًا ان عديد هذه النُظم قد أنتجت فعلا بغضّ النظر عما لم يظهر بعدُ للإعلام.

والحق فإن المجتمع الدولي اليوم مُنقسمٍ بين مُؤيّد ومُعارض لهذه النُظم من الأسلحة، فالفئة الأولى ترى انّه من الواجب وضع قواعد قانونية دولية لحظر استباقي يشمل انتاج وتطوير نُظم الأسلحة المُستقلة بالكامل الفتاكة مع إمكانية الإبقاء على مفهوم “الاشراف البشري الهادف أو المناسب” هذا المفهوم الذي لم تظهر ابعاده بعد، وعلى النقيض من ذلك ترى الفئة الأخرى من ان هذه النُظم من الأسلحة ليس لها وجود في الوقت الحاضر، وحتى ان كان كذلك فهي تخضع لسلطان الدولة في تقييمها وتكييفها حسب مقتضيات القانون الدولي الإنساني وفق احكام المادة 36 من البروتوكول الإضافي الأول سنة 1977 لاتفاقيات جنيف الأربع لسنة 1949.

وقد أبرز الباحث فيما سبق بعض الحجج التي أتى بها كلّ طرف، ومن المؤكّد ان تنظيم التسلّح الدولي أمر ينظمه القانون الدولي العام والأكيد ان الاتفاقيات الدولية في هذا الشأن قد مرّت بمراحل عصيبة ومتعدّدة إلى ان تبلورت في شكل قواعد قانونية آمرة تحكم تنظيم الأسلحة وسير الاعمال العدائية، ويقول المختصون ان اتفاقية حظر أو تقييد أسلحة معينة يمكن اعتبارها مفرطة الضرر أو عشوائية الأثر التي أبرمت سنة 1982 والبروتوكولات اللاحقة بها هي افضل إطار تُناقش فيه هذه النُظم من الأسلحة وهو ما تأكّد عندما قرّرت الأطراف السامية المتعاقدةCCW في ديسمبر 2016 انشاء فريق خبراء حكومي GGE بعد ثلاث سنوات من المناقشات غير الرسمية، عُهدت له مهام دراسة مُختلف الابعاد القانونية والأخلاقية والتكنولوجية والعسكرية والأمنية، خلص في أوّل تقرير له نُشر في 4 سبتمبر 2017 تحت عنوان “دراسة الابعاد المختلفة للتكنولوجيا الناشئة في مجال منظومات الأسلحة المستقلة الفتاكة في سياق اهداف ومقاصد الاتفاقية”.([52])

والمُلاحظ ان المُناقشات الحالية حول نظم الأسلحة المستقلة الفتاكة قد أدرجت دبلوماسيتًا فريدة تختزل مختلف الفواعل (الأطراف الفاعلة وأصحاب المصالح) في هذا المجال، من هيئات حكومية أو غير حكومية إلى المهندسين والخبراء في العلوم الفيزيائية والروبوتيك والمعلوماتية وغيرهم وهذا ما يدلّ على تعقيد الموضوع وتشعّب مجالاته. ([53])

انطلاقًا من السوابق التي ميّزت مسارات صياغة البروتوكولات الخمس الإضافية لاتفاقية حظر أو تقييد أسلحة معينة يمكن اعتبارها مفرطة الضرر أو عشوائية الأثر، خاصة البروتوكول الرابع الخاص بأسلحة الليزر المُسببّة للعمى واتعاظاً بالتجارب السابقة والعبر، فإنّ الباحث يرى ان بروتوكولًا اضافياً سيكون كفيلاً لفرض تقييد أو حظرٍ استباقي لنُظم الأسلحة المستقلة الفتاكة نظرًا للتشابه في المضوعين، فبداية البروتوكول الإضافي الرابع بدأت النداءات لحظر أسلحة الليزر في سبعينيات القرن الماضي حين دعا مندوب السويد خلال مؤتمر الصليب والهلال الأحمر إلى حظر انتاج تلك الأسلحة بحجة انها ستُسبّب العمى وبالتالي آلام ومُعاناة لا داعي لها بالنسبة للمُقاتلين، الا ان المناقشات فشلت في احراز تقدّم واضح، وواصلت السويد في مسعاها خاصة من خلال المؤتمر الدولي الخامس والعشرون للصليب الأحمر والهلال الأحمر سنة 1989، لتنظم إليها سويسرا إلى ان قُبل الموضوع للنظر في اتفاقية الأسلحة التقليدية، وقد أصدرت عديد المنظمات غير الحكومية آنذاك عدّة تقارير بخصوص أسلحة الليزر مثل اللجنة الدولية للصليب الأحمر وهيومنرايتسووتش التي أصدرت تقريرين سنة 1995 يبينان أسباب الحظر([54]) وانضمت اليها العديد من المنظمات غير الحكومية والمجتمع المدني، وقد كانت المناهضون لتلك الأسلحة ينادون خاصة بالجانب الأخلاقي والقانوني، وقد عارضت القوى العسكرية العُظمى مثل الولايات المتحدة الامريكية الحظر على أوسع نطاق، إلّا ان الأمين العام للأمم المتحدة وافق على عقد مؤتمر استعراضي لاتفاقية الأسلحة التقليدية في 24 سبتمبر 1995 ليُنشأ من خلاله فريق خبراء حكومي أعدّ مشروع بروتوكول إضافي، ثم احالته على لجنة الصياغة، ليتم لاحقًا الاتفاق على الوثيقة يوم 13 أكتوبر 1995 ويصبح بروتوكولًا اضافيًا رابع دخل حيّز النفاذ في 30 يوليو سنة 1998 بعد تصديق 20 دولة.

ويحتوي البروتوكول الإضافي الرابع على عديد أوجه الشبه مع نُظم الأسلحة المستقلة الفتاكة، فهو صكّ قانوني وقائي، يقي من انتهاكات القانون الدولي الإنساني ويمنع من انتشار التسلّح وكبحه وهو الامر الواقع في نظم الأسلحة الروبوتية التي تسعى العديد من الدول إلى تطويرها، والخطر يكن في فوات الأوان بعد تصنيعها حيث يُصبحُ من الصّعب تقييدها أو نزعا وهو ما حدث بالنسبة لعديد الأسلحة التقليدية أو الشاملة مثل القُنبلة النووية، ومثلها مثل البروتوكول الرابع الذي لم يسعى إلى تمنع استخدام تطوير استخدامات الليزر في النزاعات المسلحة مثل الليزر الموجّه للقنابل، بل حظرت استعماله ضدّ الافراد، وهو كذلك بالنسبة لنظم الأسلحة المستقلة فإنّ المنظمات غير الحكومية تُنادي باستخدام الأنظمة الروبوتية للأغراض الشبه العسكرية والإنسانية والمدينة بدل القتالية ضد الافراد والمنشآت وغير ذلك.

الخاتمة

في المناقشات التي جرت ضمن اعمال فريق الخبراء الحكومي المعني بُنظم الأسلحة المُستقلة الفتاكة في إطار اتفاقية حظر أو تقييد أسلحة معينة يمكن اعتبارها مفرطة الضرر أو عشوائية الأثر، حصلت مُناظرة بين عالمي التكنولوجيا رونالد اركين ونويل تشاركي حول كفاءة وضرورة استخدام الروبوت القاتل، ويرى المؤيدون لفكرة “اركين” ان القانون الدولي الإنساني والمراجعات القانونية بموجب المادة 36 كافية للتعامل مع أي مشكل قد يطرأ حال نشر تلك الأسلحة، في حين يرى المعارضون له ان استخدام الأسلحة الروبوتية يشكل تهديدًا للبشرية نظرًا لأنه من غير المعقول التنبؤ بما قد تُقدم عليه خاصة مع تطوّر الذكاء الاصطناعي، ويرى الباحث انّه من الممكن ان يكون رأيٌ ثالث وسط لا يأخذ بالحظر ولا بالإباحة بل التعليق، أي تعليق استخدام نُظم الأسلحة المستقلة الفتاكة لفترة يُمكن التأكّد من خلالها مدى مراعاتها لمبادئ القانون الدولي الإنساني، ويبقى الجانب الأخلاقي إشكالاً حقيقيًا لا يتوقف عند الجانب القانوني أو التكنولوجي بل يتعدّاه إلى الاجتماعي والنفسي والفلسفي بصفة عامة.

وخلاصة لما تم التطرّق اليه فإن موضوع نُظم الأسلحة المُستقلة الفتاكة يحتاج إلى معالجة المعوّقات التالية:

إشكالية التعريفات والمفاهيم خاصة (المستقلة والشبه المستقلة)
إشكالية المشغّل البشري ودرجة الاستقلالية المسموح بها في القانون الدولي الإنساني.
وضع إطار واضح للمسؤولية في حالة استُخدمت نُظم الأسلحة المستقلة الفتاكة.
حظر أو عدم حظر أو تعليق نُظم الأسلحة المستقلة الفتاكة.
قائمة المصادر

باللغة العربية

اتفاقية حظر أو تقييد أسلحة معينة يمكن اعتبارها مفرطة الضرر أو عشوائية الأثر لسنة 1980.
اللجنة الدولية للصليب الأحمر، آراء اللجنة الدولية للصليب الأحمر بشأن نظم الأسلحة ذاتية التشغيل، ورقة مقدمة إلى اجتماع الخبراء المعني بأسلحة تقليدية معينة بشأن نظم الأسلحة التلقائية القاتلة (LAWS)، 11 أبريل 2016.
فريتسكالسهوفن وإليزابيث تسغفلد، ضوابط تحكم خوض الحرب، مدخل للقانون الدولي الإنساني، منشورات اللجنة الدولية للصليب الأحمر، 2010.
جان بكيتيه، القانون الدولي الإنساني تطوره ومبادئه، ورقة عمل مدرجة في كتاب “مدخل في القانون الإنساني الدولي والرقابة الدولية على استخدام الأسلحة”، تحرير أ. محمود شريف بسيوني، طبعة 1999.
اعلان بعثة الجزائر الدائمة لدى مكتب الأمم المتحدة المنظمات الدولية بسويسرا، في 11 افريل 2016.
فراس الكساسبة، نبيلة كردي، الوكيل الذكي من منظور قانوني، تطوّر تقني ام انقلاب على القواعد، بحث منشور بمجلة الشريعة والقانون، العدد 55، يوليو 2013، كلية القانون، الامارات العربية المتحدة.
د.حسام عبد الأمير خلف، القتل المُستهدف باستخدام الروبوت (الطائرات بدون طيّار) في القانون الدولي، مقال منشور بمجلة العلوم القانونية، كلية القانون، جامعة بغداد، 2017.
باللغة الاجنبية

Peter Warren Singer, Wired for War “the robotics revolutionand conflict in the twenty first century”The Pengunpresse, New York, 2009.
Eric Sholes, Evolution of a UAV AutonomyClassification Taxonomy, at 1 (remarks at the 2007 IEEE Aerospace Conference).
Assistant Head, Air and Space (Development, Concepts and Doctrine), Joint Doctrine Note 2/11: The UK Approach to Unmanned Aircraft Systems (Shrivenham: The Development, Concepts and Doctrine Centre, Ministry of Defence, 30 March 2011.
US Department of Defense, Unmanned Systems Integrated Road Map FY2011-2036.
Christof Heyns, Report of the Special Rapporteur on Extrajudicial, Summary or Arbitrary Executions. A/HRC/23/47 (New York: UN General Assembly, 9 April 2013.
William C. Marra& Sonia K. Mcneil, Understanding “The Loop”: Regulating The Next Generation Of War Machines Lawfare Research Paper Series No. 1-2012.
Vincent Boulanin, 2016, Mapping the Development of Autonomy in Weapon Systems: A Primer on Autonomy, SIPRI.
UNIDIR RESOURCES, The Weaponization of Increasingly Autonomous Technologies: Concerns, Characteristics and Definitional Approaches, No. 6, 2017
Ronald Arkin, Governing Lethal Behavior in Autonomous Robots, Chapman & Hall/CRC, Taylor & Francis Group, United States of America, 2009.
John K. HawleyM “Patriot Wars: Automation and the Patriot Air and Missile Defense System” ،Center for a New American Security, 2017.
LAVIGNE et M. Philippe NOGRIX, Rapport d’information sur le rôle – BERGE des drones dans les armées, SENAT, Session ordinaire de 2005 – 2006. p. 8.
Gary Marchant et al., International Governance of Autonomous Military Robots, 12 COLUM. SCL & TECH. L. REV. 272, 315 (2011).
HUMAN RIGHTS WATCH, Losing Humanity «The Case Against Killer Robots» , 2012, United States of America.
Cesáreo Gutiérrez Espada,María José CervellHortal, Autonomous Weapons Systems, Drones And International Law, Revista del Instituto Español de EstudiosEstratégicos, N°2/2013.
Noel Sharkey, “Automated Killers and the Computing Profession,” Computer، 40, issue 11 (2007).
Alan schuller, At the Crossroads of Control: The Intersection of Artificial Intelligence in AutonomousWeaponSystemswith International Humanitarian Law، Harvard National Security Journal / Vol. 8, 379-430.
Jean Baptiste jeangéneVilmer, Diplomatie des armes autonomes, les débats de Genève, Politique étrangère 2016/3 (autonome)، P 119-130.
Human Rights Watch Arms Project, “U.S. Blinding Laser Weapons, 1995” http://www.hrw.org/legacy/reports/1995/Us2.htm.
([1]) نصّ الإعلان على حضر استخدام القذائف التي يقلّ وزنها عن 400 غرام، وحظر ايضًا الرصاصات التي تتفلطح ما أن تخترق جسم الإنسان. وفي 1925، اعتمدت الحكومات بروتوكول جنيف الذي يحظر استعمال الغازات السامة ووسائل الحرب الجرثومية. وتم تعديل هذه المعاهدة باعتماد اتفاقية الأسلحة البيولوجية عام 1972 واتفاقية الأسلحة الكيمائية عام 1993 اللتين جاءتا لتعزيز بروتوكول عام 1925.

([2]) مثالها اتفاقية حظر أو تقييد أسلحة معينة يمكن اعتبارها مفرطة الضرر أو عشوائية الأثر لسنة 1980، وبروتوكولاتها.

([3]) سُميت تارانيسTaranis نسبة إلى آلهة السماء والعواصف لدى شعوب السلتك في بلاد الغال القديمة.

Le UK donne enfin plus de détails sur son drone de combat Taranis

([4]) للمزيد اطلع على موقع المصنّع BAE SYSTEMS.https://www.baesystems.com

([5])في 22 يوليو 2016 عقد مؤتمر عسكري في ولاية هاواي على المحيط الهادئ من اجل استعراض أحدث أدوات القتال واساليبها وكان الحدث لاختبار اول تقنية تتمثل في طائرة غير مأهولة (نانو) بحجم اليد البشرية قادرة على الإقلاع والهبوط والتقاط صور كاشفة غير مرئية، تعمل بحكم ذاتي عن طريق برمجة مُسبقة.

https://humanoides.fr/us-army-black-hornet-mini-drones/ .

([6])Jody Williams مؤسّس ومشارك في الحملة العالمية أوقفوا الروبوتات القاتلة، وهي ائتلاف عالمي تشارك فيه عديد المنظمات غير الحكومية والشخصيات الدولية، وتعمل على فرض حظر استباقي للأسلحة ذاتية التحكم بالكامل.

([7]) تختلف المصطلحات المستعملة في الإشارة إلى هذه النظم، وتشمل “منظومات الأسلحة التلقائية القاتلة” و”الروبوتات القاتلة” و”الأسلحة ذاتية الحكم” و”الأسلحة المستقلة الفتاكة” أو “الأسلحة المستقلة” أو ” بالأسلحة الفتاكة المستقلة تمامًا”

([8]) يُعتبر الدور الذي تضطلع به اللجنة الدولية للصليب الأحمر في هذا المجال، دورًا أساسيا ومحوريا كونها حارسة للقانون الدولي الإنساني، اين تعكف على دراسة وتطوير ونشر وانفاذ قواعده في المجال القانوني والدبلوماسي والعملي وقد شاركت اللجنة الدولية للصليب الأحمر في عديد المحافل بخصوص نُظم الأسلحة التلقائية، ولعلّ اهم دور تؤديه هو الدور التاريخي الذي أُسند لها من اجل وضع أسس الاتفاقيات الدولية الخاصة بالقانون الدولي الإنساني، وفي هذا الخصوص فإن المجتمع الدولي قد أولى دراسة موضوع الأسلحة التلقائية ضمن الإطار القانوني للاتفاقية الإطار لحظر أو تقييد أسلحة معينة يمكن اعتبارها مفرطة الضرر أو عشوائية الأثر الاتفاقية التي تسعى إلى تحقيق التوازن بين الضرورة العسكرية والإنسانية، الذي اضطلعت ولازالت -اللجنة الدولية- بالدور المحوري في الدراسات الاستشرافية والارشادية لمشاريع البروتوكولات اللاحقة بها، هذا على غرار الاتفاقيات الأخرى الخاصة بالقانون الدولي الإنساني خاصة اتفاقيات جنيف الأربع 1949 وبروتوكولاتها الإضافية لسنة 1977.

([9]) اللجنة الدولية للصليب الأحمر، آراء اللجنة الدولية للصليب الأحمر بشأن نظم الأسلحة ذاتية التشغيل، ورقة مقدمة إلى اجتماع الخبراء المعني بأسلحة تقليدية معينة بشأن نظم الأسلحة التلقائية القاتلة (LAWS)، 11 أبريل 2016. متاح بالإنجليزية على الرابط التالي:

https://www.icrc.org/en/document/views-icrc-autonomous-weapon-system

([10]) من أبرز تقاريرها: الأول الذي صدر سنة 2012 تحت عنوان “فقدان الإنسانية، القضية ضد الروبوتات القاتلة” ثم الثاني سنة 2016 تحت عنوان “صُنع القضية، مخاطر الروبوتات القاتلة والحاجة إلى حظر استباقي”، كما تعتبر المنظمة العالمية غير الحكومية عضوًا فعّالا في النقاشات الدائرة في المحافل الدولية بخصوص الموضوع باعتبارها جزءً من الائتلاف العالمي “أوقفو الروبوتات القاتلة”.

([11]) ظهرت كلمة “روبوت” لأول مرة سنة 1920 في مسرحية الكاتب التشيكي “كارل تشابيك” وترمز إلى العمل الشاق.

([12]) حسب مفهوم Noel Sharkey (عالم المعلوماتية والروبوتيك والذكاء الاصطناعي) يتولد الشعور Sense عند الآلة انطلاقًا من المستقبلات التي زوّدت بها مثل المجسّات أو آلات التصوير (أجهزة الاستشعار) التي تراقب البيئة وتكتشف المحيط، ثم التفكير Think عن طريق نظام الحوسبة أو المعالج الذي زوّدت به أو الذي ترتبط به مثل أنظمة الذكاء الاصطناعي التي تقرر كيفية الاستجابة، ثم الفعل Act عن طريق أعضائها وادواتها، وحسب رأي الباحثين فإن المكوّنات الثلاثة تُكسب الآلة صفة الروبوت، ومثال ذلك اختلاف جهاز الكمبيوتر عن الروبوت في افتقاده لعنصر الفعل المادي.

للمزيد يُرجى الاطلاع على المؤلف الذي ألّفه “بيتر وارن سينغر” Peter Warren Singer تحت عنوان “مجهّز من اجل الحرب، ثورة علم التحكم الآلي والصراع في القرن 21″، الفصل الثالث تحت عنوان “الروبوتيك للدُمى”، ص 60.

([13])تختلف الحلقة الثلاثية التي رصدتها “هيومنرايتسووتش” عن مفاهيم أخرى مثل الحلقة الرباعية OODADecisionMaking Loop والتي تعني المراقبة Observe والتوجيه والمعالجة Orient والقرار Decide والفعل Act، للمزيد انظر Andrew Williams في مقاله Defining Autonomy in Systems, Challenges and Solutions في الكتاب المشترك الذي اخرجه حلف شمال الأطلسي Nato تحت عنوان AutonomousWeapons ; Issues For DefencePolicymakers متوفر على الرابط:

http://www.act.nato.int/images/stories/media/capdev/capdev_02.pdf

([14]) للمزيد أنــــظر المقال المتاح على الرابط:

Eric Sholes, Evolution of a UAV AutonomyClassification Taxonomy, at 1 (remarks at the 2007 IEEE Aerospace Conference).

http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=4161585

([15]) لأغراض هذه الدراسة سيوضح الباحث براهين اعتماده على هذا المصطلح في الصفحات التالية من الورقة البحثية.

([16]) في هذا الصدد فإن النظام له معنى دقيق يرتبط بالمسار الذي يصمم للحلقة التي تنتهجها الآلة بدأً من الاستشعار أو المراقبة وصولاً إلى الفعل وقد يكون هذا النظام منصبًا في الآلة نفسها أو مرتبط بها مثل ارتباط الآلة بالفضاء السيبراني بمعنى ان يكون هنالك نظام حاسوبي متصل بالآلة يقوم بالمعالج واتخاذ القرار سواء كان ذاتي الحكم أو غير ذلك. ومثال ذلك ارتباط الطائرات غير المأهولة بنظام حاسوبي عبر الفضاء السيبراني بما يشمل الانترنت والاقمار الصناعية وشبكات الاتصال الداخلية اين ترتبط الطائرة بالنظام المشغّل لها الذي يتحكم بها المشغّل البشري (على الأقل اغلبها حاليا) مثل البريداتو أو الغلوبال هاوك.

([17]) انظر بخصوص سياسة المملكة المتحدة حول نظم الأسلحة ذاتية الحكم:

Assistant Head, Air and Space (Development, Concepts and Doctrine), Joint Doctrine Note 2/11: The UK Approach to Unmanned Aircraft Systems (Shrivenham: The Development, Concepts and Doctrine Centre, Ministry of Defence, 30 March 2011), page 2–3.

ينظر البعض إلى ان سياسة المملكة المتحدة في هذا الشأن لا تزال ملتزمة بما انها اقرت عدم نيتها انتاج أو تطوير أسلحة فتاكة مستقلة تمامًا، غير ان البعض الآخر مثل المنظمة غير الحكومية المسماة “المادة 36″ بريطانية المنشأ -يرى- ان المملكة المتحدة تعارض تطوير قواعد القانون الدولي بخصوص الموضوع وتجادل بأن القانون الوطني وحده يكفي لاحترام قوانين واعراف الحرب بموجب احكام المادة 36 من البروتوكول الإضافي الأول سنة 1977 وبالتالي -يرى هؤلاء- ان هذا سيشجّع على الإفلات من القانون كون ان اغلبية الدول المطوّرة لتكنولوجيات الأسلحة لم تنظم إلى اتفاقيات جنيف وبالتالي فهي غير ملزمة بالمراجعة الوطنية القانونية للأسلحة الحديثة بموجب المادة المذكورة وعلى رأس هذه الدول الولايات المتحدة الامريكية. وان المملكة المتحدة قد تتخذ تعريفًا بالمعنى الضيق وهو ترك الانسان فوق الحلقة Human on the Loop أي ترك الآلة تشتغل ذاتيا دون التدخل البشري إلا في الحالات التي يراها مناسبة، هو ما يفتح النقاش حول درجة الاستقلالية والمعايير التي سيتم الاخذ بها، في حين ان المنظمات غير الحكومية تدعو إلى حظر استباقي للأسلحة المستقلة تماما Fullyautonomousweapons والتوجّه إلى إبقاء السيطرة البشرية على نظم الأسلحة أو ما أصبح يُسمى The Effective Controle أي التحكّم البشري الهادف أو الحكم الإنساني المناسب، بمعنى آخر فان الحظر سيشمل الأسلحة المستقلة تمامًا والاقرار بمعايير السيطرة البشرية نظرًا لخطورتها وتعارضها مع مبادئ القانون الدولي الإنساني والأخلاق والضمير الإنساني.

([18]) التوجيه رقم 3000.09 الصادر في 21 نوفمبر 2012. وزارة الدفاع الامريكية DOD تحت عنوان “الاستقلالية في نظم الأسلحة” وتلح الولايات المتحدة الامريكية على ان هذا التوجيه لن يشمل بعض النظم على غرار أنظمة الفضاء السيبراني المستقلة أو شبه المستقلة، ومنصات الأسلحة غير المأهولة. وقد وضع التعريف عددًا من التعريفات مثل التي وضعها للمشغّل البشري “هو الانسان الذي يشرف على نظام السلاح” ويستخدم التوجيه الصادر مصطلح “التفرّد” أو Singularity

([19]) US Department of Defense, Unmanned Systems Integrated Road Map FY2011-2036, p. 50. http://publicintelligence.net/dod-unmanned-systems-integrated-roadmap-fy2011-2036

([20]) للمزيد راجع ورقة الولايات المتحدة الامريكية المقدمة اثناء المناقشات التي أجريت بخصوص نظم الأسلحة المستقلة في إطار اعمال فريق الخبراء الحكوميين للأطراف السامية المتعاقدة في اتفاقية حظر أو تقييد أسلحة تقليدية معينة يمكن اعتبارها مفرطة أو عشوائية الضرر، CCW/GGE.1/2017/WP.6، بتاريخ 10 نوفمبر 2017.

([21]) الورقة الختامية لأعمال القمة 17 لدول عدم الانحياز متاحة على الرابط: http://namvenezuela.org/?p=6317

([22]) من هنا يتضح لنا المصطلح الذي اخذت به الجزائر في نقاشاتها وهو نظم الأسلحة المستقلة الفتاكة وهو نفسه الذي تعتمده هيئة الأمم المتحدةSystèmes d’armes létaux autonomes (SALA).

اعلان بعثة الجزائر الدائمة لدى مكتب الأمم المتحدة المنظمات الدولية بسويسرا، في 11 افريل 2016.

([23]) Christof Heyns, Report of the Special Rapporteur on Extrajudicial, Summary or Arbitrary Executions. A/HRC/23/47 (New York: UN General Assembly, 9 April 2013), pages 7.

([24]) للمزيد اطلع على تقرير CNN: https://edition.cnn.com/2016/07/08/us/philando-castile-alton-sterling-protests/index.html

([25])William C. Marra* & Sonia K. Mcneil, Understanding “The Loop”: Regulating The Next Generation Of War Machines Lawfare Research Paper Series No. 1-2012, p 54.

([26]) تتعدد الأطراف التي تهتم بالموضوع وتشمل كل من الدول والمنظمات الحكومية وغير الحكومية ومكونات المجتمع المدني والأكاديميين ومعاهد الدراسات السياسية والقانونية والاجتماعية وغيرها والشركات والمطوّرين وغير ذلك.

([27]) Vincent Boulanin, 2016, Mapping The Development of Autonomy in Weapon Systems: A Primer on Autonomy, SIPRI, pp. 29–30.

https://www.sipri.org/sites/default/files/Mapping-development-autonomy-in-weapon-systems.pdf.

([28])منشور معهد الأمم المتحدة لبحوث نزع السلاح، تحت عنوان “التسلح الطرّد نحو التكنولوجيا المستقلة” رقم 06 “المخاوف والخصائص والمقاربات التعريفية”، ص 09 وما بعدها.

UNIDIR RESOURCES, The Weaponization of Increasingly Autonomous Technologies: Concerns, Characteristics and Definitional Approaches, No. 6, 2017

([29]) يعتبر مصطلح “أتمتة” Automationمصطلح جديد على اللغة العربية وقد ظهر لأوّل مرّة في وثائق لجنة الأمم المتحدة للقانون التجاري Unicitral الصادرة باللغة العربية، ثم استخدمته بعد ذلك بعض الدول العربية في قوانين المعاملات الالكترونية لديها، ومن بينها قانون دبي للمعاملات والتجارة الالكترونية (المادة 02 والمادة 15(ب) وكذلك القانون الأردني للمعاملات الالكترونية في المادة 02.

([30]) معهد الأمم المتحدة لبحوث نزع السلاح، نفس المرجع، ص 19.

([31]) فراس الكساسبة، نبيلة كردي، الوكيل الذكي من منظور قانوني، تطوّر تقني ام انقلاب على القواعد، بحث منشور بمجلة الشريعة والقانون، العدد 55، يوليو 2013، كلية القانون، الامارات العربية المتحدة، ص 127-193.

([32]) Ronald Arkin, Governing Lethal Behavior in Autonomous Robots, Chapman & Hall/CRC, Taylor & Francis Group, United States of America, 2009, P 115.

([33])John K. HawleyM “Patriot Wars: Automation and the Patriot Air and Missile Defense System” ،Center for a New American Security, 2017, P 03. https://www.cnas.org/publications/reports/patriot-wars.

([34]) انظر على سبيل المثال: د.حسام عبد الأمير خلف، القتل المُستهدف باستخدام الروبوت (الطائرات بدون طيّار) في القانون الدولي، مقال منشور بمجلة العلوم القانونية، كلية القانون، جامعة بغداد، 2017، ص 6.

([35]) الطائرات غير المأهولة أو “الطائرات بدون طيّار” هي مفهوم مرداف لمركبة جویة تعمل بالطاقة، لا تحمل المشغل الإنساني، تستخدم القوى الدینامیكیةالھوائیةلتوفیررفعللمركبة،یمكنأنتطیربشكلمستقلأویتمتوجیھھاعنبعد،یمكنأنتكونقابلة للاستهلاك أو للاسترداد، وتحمل حمولة قاتلة أو غیر قاتلة. أنظر:

LAVIGNE et M. Philippe NOGRIX, Rapport d’information sur le rôle – BERGE des drones dans les armées, SENAT, Session ordinaire de 2005 – 2006. p. 8.

([36]) Gary Marchant et al., International Governance of Autonomous Military Robots, 12 COLUM. SCL & TECH. L. REV. 272, 315 (2011).

([37])فريتسكالسهوفن وإليزابيث تسغفلد، ضوابط تحكم خوض الحرب، مدخل للقانون الدولي الإنساني، منشورات اللجنة الدولية للصليب الأحمر، 2010. ص 15.

([38]) جان بكيتيه، القانون الدولي الإنساني تطوره ومبادئه، ورقة عمل مدرجة في كتاب “مدخل في القانون الإنساني الدولي والرقابة الدولية على استخدام الأسلحة”، تحرير أ. محمود شريف بسيوني، طبعة 1999. ص 25.

([39])HUMAN RIGHTS WATCH, Losing Humanity «The Case Against Killer Robots» , 2012, United States of America, p 34.

([40])Ibid. P 35.

([41])Cesáreo Gutiérrez Espada,María José CervellHortal, Autonomous Weapons Systems, Drones And International Law, Revista del Instituto Español de EstudiosEstratégicos, N°2/2013, P 8.

HUMAN RIGHTS WATCH, Losing Humanity, op. cit., p 42. ([42])

([43]) أستاذ في الكلية الحربية البحرية للولايات المتحدة الامريكية، ويُعتبر من اكثر الفقهاء القانونيين بروزًا في هذا المجال “استخدام التكنولوجيات الحديثة في النزاعات المسلحة”، وكان من وراء اعداد “دليل تالين” 1,0 لقواعد القانون الدولي الإنساني المنطبقة في الحرب السيبرانية الذي اخرج تحت إشراف فقهاء وخبراء قانونيين وعسكريين من بينهم اللجنة الدولية للصليب الأحمر تحت إشراف معهد الدراسات المتقدمة بتالين “استونيا” التابع لحلف شمال الأطلسي سنة 2013، ثم “دليل تالين” 2,0 الذي اخرج سنة 2016 الذي عالج موضوع الحرب السيبرانية في القانون الدولي العام.

([44])Noel Sharkey, “Automated Killers and the Computing Profession,” Computer، vol. 40, issue 11 (2007)، p. 122.

([45]) سبقت الإشارة إلى ان اللجنة الدولية للصليب الأحمر تُعدّ من بين المنظمات الدولية غير الحكومية الفريدة من نوعها، فهي تحرص على نشر وإنفاذ القانون الدولي الإنساني، وفي هذا الصدد فاللجنة الدولية كانت قد فسّرت قواعد اتفاقيات جنيف الأربع لسنة 1949 في وقت مضى عن طريق تعليقاتها سنة 1957، إلّا ان تطوّر النزاعات المسلحة الدولية وغير الدولية جعلتها تقوم بتحيين تعليقاتها حسب المقتضيات الجديدة للحرب، وفي سنة 2013 أعلنت اللجنة الدولية بالتعاون مع خُبراء القانون الدولي الانساني عن بدئها مشروعًا جديدًا يهدف إلى وضع تعليقات حديثة تضمّ مُختلف الجوانب المُعاصرة للقانون بما فيها الحرب السيبرانية ونظم الأسلحة التكنولوجية المستعملة في النزاع المسلح.

([46]) جان بكيتيه، القانون الدولي الإنساني تطوره ومبادئه، المرجع السابق، ص 25.

([47])Ronald Arkin, Governing Lethal Behavior in Autonomous Robots, op. cit., P 211.

([48]) HUMAN RIGHTS WATCH, Losing Humanity, op. cit., p 37.

([49])Ronald Arkin, Governing Lethal Behavior in Autonomous Robots, op. cit., P 49.

([50])Alan schuller, At the Crossroads of Control: The Intersection of Artificial Intelligence in Autonomous Weapon Systems with International Humanitarian Law، Harvard National Security Journal / Vol. 8, 379-430, P 415.

([51]) ترى بعض المنظمات غير الحكومية مثل المكتب الدولي للتحقيقات الصُحفية أو اللجنة الدولية لمراقبة الأسلحة الروبوتية أو المعهد الدولي لنزع السلاح وبحوث النزاعات المسلحة أو الجمعية الدولية لمراقبة التسلّح، وغيرها- ترى- ان الطائرات غير المأهولة المستخدمة حاليا تحت إشراف المشغّل البشري قد أدّت إلى مقتل 210 من المدنيين من بينهم 50 طفلا في اليمن منذ 2012، و4597 في أفغانستان وحدها منذ 2015 فقط، و4026 في باكستان منذ 2004، و713 شخص في الصومال من بينهم 41 طفل منذ 2007، وتقول تلك المنظمات انه اذا كانت الطائرات غير المأهولة التي يُشرف عليها الانسان قد أودت بحياة كل هؤلاء خطأً فكيف هو حال ما اذا استُخدمت نُظم الاسلحة المستقلة الفتاكة؟

للمزيد: https://www.thebureauinvestigates.com/projects/drone-war

([52]) الوثيقة رقم CCW/GGE.1/2017/WP.1

([53])Jean Baptiste jeangéneVilmer, Diplomatie des armes autonomes, les débats de Genève, Politique étrangère 2016/3 (autonome)، P 119-130.

([54])Human Rights Watch Arms Project, “U.S. Blinding Laser Weapons, 1995” http://www.hrw.org/legacy/reports/1995/Us2.htm.

إعادة نشر بواسطة محاماة نت