كان هذا الفيديو مرعباً وكاشفاً للجرائم التي يمكن أن يسببها استخدام الروبوتات في الحروب، والاعتماد على الذكاء الاصطناعي في المعارك المستقبلية.
رجلان يبدو عليهما الخطر يقفان بجوار شاحنة بيضاء في حقل، ممسكَين بجهازي تحكم عن بعد. يفتحان بابَي الشاحنة الخلفيَّين، وينبعث طنين طائرات مسيرة طوافة. يحركان مفتاحاً، وتنطلق الطائرات المسيرة في سربٍ أشبه بوطاويط خارجةٍ من كهف. وتندفع الروبوتات القاتلة عبر نوافذ وفتحات تهوية. يصرخ الطلاب في ذعر، محاصرين بالداخل، بينما تهجم الطائرات المسيرة بقوة مميتة.
الدرس الذي يحاول الفيلم القصير "Slaughterbots" توصيله واضح: الروبوتات القاتلة الضئيلة إما موجودة بالفعل وإما يفرق بيننا وبينها تقدم تكنولوجي بسيط. ويمكن للإرهابيين استخدامها. ووسائل الدفاع الحالية تكاد لا تُذكر.
ويرى بعض الخبراء العسكريين أن فيلم "Slaughterbots" -من صنع منظمة Future of Life الأمريكية الباحثة في التهديدات الوجودية ضد البشرية- يبالغ في تصوير مشكلة جادة، مثيراً الذعر في وقتٍ يتطلَّب التفكير الرصين.
ولكن في ما يتعلق بمستقبل الحرب، غالباً ما يكون الخط الفاصل بين الخيال العلمي والواقع الصناعي مبهماً، حسبما ورد في تقرير لصحيفة The Guardian البريطانية.
فقد تنبأت القوات الجوية الأمريكية بمستقبلٍ "ترسل فيه فرق التدخل السريع حشرات ميكانيكية مزودة بكاميرات فيديو لتتسلل إلى داخل بنايةٍ ما في مواقف احتجاز الرهائن".
فيما أطلق مشروع تعاوني بالفعل اختراع Octoroach، وهو "روبوت شديد الضآلة ذو كاميرا وجهاز إرسال لاسلكي يستطيع تغطية ما يصل إلى 100 متر على الأرض". وهو مجرد واحد من عدة أسلحة "محاكاة حيوية" تلوح في الأفق.
الخيال العلمي يقترب من التحقق.. حرب آلية بين الصين وأمريكا والروبوتات قد تتمرد؟
ومن يدري كم يوجد من نماذج أخرى لمخلوقات ضارة يستخدمها مبتكرو العلوم العسكرية النظرية. في رواية للمؤلفين بي دبليو سينغر وأوغست كول تدور أحداثها في مستقبل قريب يشهد حرباً بين الولايات المتحدة من جانب، والصين وروسيا من جانب، يقدِّم الراويان صورة مفصلة للطائرات المسيرة المستقلة ذاتياً، وأجهزة الليزر، والأقمار الصناعية المختطفة. ولا يمكن تجاهل الكتاب باعتباره فانتازيا تقنية عسكرية؛ فهو يحتوي على مئات الهوامش الموثِّقة لتطوير كل من المعدات والبرمجيات التي يصفها.
ولا تقل التقدمات المحققة في نمذجة الآلات الروبوتية القاتلة خطورة. إذ وصفت رواية خيال علمي روسية من الستينيات، بعنوان "Crabs on the Island"، مسابقة شبيهة بأفلام "Hunger Games" لأجهزة الذكاء الاصطناعي، حيث تتقاتل الروبوتات من أجل الموارد. ثم يجري نسف الخاسرين ونقل الفائزين إلى المرحلة التالية، حتى يتطور بعضها لتصير أفضل آلات قاتلة.
وعندما عرض أحد كبار علوم الحاسوب سيناريو مشابهاً على وكالة مشاريع البحوث المتطورة الدفاعية الأمريكية (DARPA)، مشبهاً إياه بأفلام "Jurassic Park" للروبوتات، وصفه أحد قادة الوكالة بأنه "يمكن حدوثه". ولا يتطلب الأمر الكثير من التفكير لتدرك أن تجربةً كهذه من المحتمل أن تخرج عن السيطرة بشكل بالغ الخطورة. ولا يوجد عائق أمام أي قوة عظمى لإجراء تجارب على آلات مدمرة كهذه سوى التكاليف المادية. لكن النمذجة البرمجية قد تمحو حتى ذلك العائق، سامحةً بإجراء محاكياتٍ افتراضيةٍ مختبرةٍ في المعارك تكون مصدر إلهامٍ لاستثمارات عسكرية مستقبلية.
هل يمكن فرض حظر على استخدام الروبوتات في الحروب؟
سبق في الماضي أن اجتمعت الدول القومية لحظر بعض الأسلحة الجديدة المروعة أو الوحشية على وجه الخصوص. وبحلول منتصف القرن العشرين، كانت المواثيق الدولية قد حرَّمت استخدام الأسلحة البيولوجية والكيماوية.
وكذلك حظر المجتمع الدولي استخدام تقنية الليزر المُعمي. فيما نجحت شبكة متينة من المنظمات غير الحكومية في دفع منظمة الأمم المتحدة إلى جمع دولها الأعضاء للموافقة على فرض حظرٍ مشابهٍ على الروبوتات القاتلة والأسلحة الأخرى القادرة على التصرف من تلقاء نفسها، دون تحكم بشري مباشر، لتدمير أحد الأهداف (المعروفة أيضاً باسم أنظمة الأسلحة المستقلة ذاتياً، أو LAWS).
وبينما جرى عديد من النقاشات حول تعريف هذه التقنية، فيمكننا جميعاً تصوُّر أنواع مروعةٍ على وجه الخصوص من الأسلحة التي على جميع الدول الموافقة على الامتناع عن تصنيعها أو استخدامها. إذ إن طائرةً مسيرةً تبعث حرارةً تدريجيةً تحرق جنود الأعداء حتى الموت تُعد انتهاكاً للمواثيق الدولية ضد التعذيب، والأسلحة الصوتية المصممة لإتلاف سمع العدو أو إحساسه بالتوازن يُفترض أن تُقابَل بمعاملة مماثلة. وينبغي أن تُنبَذ أية دولةٍ تصمِّم وتستخدم أسلحةً كهذه من المجتمع الدولي.
على العموم، يمكننا في الغالب الاتفاق على أن النبذ -والعقوبات الأغلظ- تلزم أيضاً لمصممي ومستخدمي الروبوتات القاتلة. فمجرد فكرة وجود آلة لها حرية القتل فكرة تدب الرعب في القلوب.
الردع يتغلب على الأخلاق
ومع ذلك، يبدو أن بعض أكبر الأنظمة العسكرية في العالم تميل نحو تطوير أسلحةٍ كهذه، اعتماداً على مبدأ الردع: إذ يخشون التعرض لهزيمة ماحقة على يد الذكاء الاصطناعي للأعداء في حال عجزهم عن التسلُّح بنفس المستوى من القوة. وقد يكمن مفتاح حل سباق التسلُّح الضاري هذا في إبرام الاتفاقيات العالمية، بدلاً من توخي الحذر وإعادة التفكير في الاستخدامات المحتملة لأنظمة الذكاء الاصطناعي الحربية.
وفي ظل امتداد آثار الحروب إلى أراضي أصحابها، فإن تبني دولٍ مثل الولايات المتحدة والصين للذكاء الاصطناعي في الحروب يُعد إنذاراً صارخاً لمواطنيها: فأي تقنيات سيطرة وتدمير تسمحون لحكومتكم بشرائها لاستخدامها بالخارج من المرجَّح الآن أن تُستعمل ضدكم مستقبلاً.
البعض يراهن على استخدامها في منع المذابح الجماعية
فهل الروبوتات القاتلة على نفس قدر بشاعة الأسلحة البيولوجية؟ ليس بالضرورة، في رأي بعض كبار العلماء العسكريين النظريين وعلماء الحاسوب. إذ يزعم مايكل شميت -من الكلية الحربية للبحرية الأمريكية- أن الروبوتات العسكرية يمكنها مراقبة السماء للحيلولة دون تنفيذ مذابح أخرى مثل التي ارتكبها صدام حسين في حق الأكراد وعرب الأهوار.
بينما يؤمن رونالد أركين -من معهد جورجيا للتكنولوجيا- بأن أنظمة السلاح المستقلة ذاتياً بوسعها "الحد من وحشية الإنسان ضد أخيه الإنسان بواسطة التكنولوجيا"، استناداً إلى أن الروبوت لن يكون عرضةً لنوبات الغضب والسادية والقسوة التي تصيب البشر.
أي أنه يقترح استثناء البشر من عملية اتخاذ قرارات الاستهداف، بجانب برمجة قيود أخلاقية بداخل الروبوتات. يُذكر أن أركين قد نجح كذلك في تطوير آلية تصنيفٍ للأهداف لحماية مواقع مثل المستشفيات والمدارس.
من الناحية النظرية، قد يبدو تحبيذ العنف الآلي المنظَّم عن العنف البشري الذي يستحيل التنبؤ به أمراً منطقياً. إذ إن معظم المجازر المرتكَبة في أثناء الحروب ترتكز على عواطف غير عقلانية. ومع ذلك، فنحن غالباً ما نخصص أشد خطابات التنديد لا للعنف المرتكب في خضم المعركة، بل للقاتل المتعمد الذي خطط لهجومه بدمٍ باردٍ.
ولنا في تاريخ الحروب عديد الأمثلة على مجازر كان مخططاً لها.
لماذا تعد محاولة وضع برمجة أخلاقية للروبوتات أمر غير ذي جدوى؟
لا شك في أن أي نظام أسلحة روبوتية سيكون على الأرجح مصمماً بخاصيةٍ من نوعٍ ما لتخطِّي برمجته، ويمكن أن يتحكم بها بشر معرَّضون لجميع أنواع الاندفاع واللاعقلانية البشرية.
وتشكِّل أية محاولةٍ لبرمجة القانون والأخلاق في الروبوتات القاتلة صعوباتٍ عمليةً جمَّةً.
إذ يرى أستاذ علم الحاسوب نويل شاركي أنه من المحال برمجة ردود أفعالٍ بالروبوت المحارب لجميع أنواع المواقف التي لا حصر لها والتي قد تنشأ في خضم المعركة؛ لأن نظام السلاح المستقل ذاتياً يكون خطيراً في ضبابية الحرب، مثله مثل سيارةٍ مستقلةٍ ذاتياً تصير بلا حيلةٍ في ظل تدخل الثلوج المتساقطة على مستشعراتها.
حروب العصابات تزيد الارتباك
أضف إلى ذلك أن القانون الإنساني الدولي، الذي يحكم الصراع المسلَّح، يمثِّل مزيداً ومزيداً من التحديات لمطوِّري الأسلحة المستقلة ذاتياً. فمن المبادئ الأخلاقية الأساسية للحرب مبدأ التمييز، الذي يفرض على المهاجمين التفرقة بين المقاتلين والمدنيين. لكن حروب العصابات أو حروب الجماعات المتمردة قد ازداد شيوعها في العقود الأخيرة، ونادراً ما يرتدي مقاتلو هذه الحروب أزياءً موحدةً، ما يصعِّب من تمييزهم عن المدنيين.
وبناءً على الصعوبات التي يواجهها الجنود البشريون في هذا الجانب، فمن السهل أن نرى الخطر الأكبر الذي تمثله أنظمة الأسلحة الروبوتية.
ولكن مؤيدي هذه الأسلحة يصرُّون على أن قدرات التمييز لدى الآلات ما زالت تتحسن. وحتى لو كان هذا صحيحاً، فإنه من غير المعقول أن نفترض أن القادة العسكريين سيستخدمون هذه التقدمات التكنولوجية لتطوير مبادئ عادلةٍ للتمييز في وسط ضجيج الحرب وارتباكها. كما كتب المفكر الفرنسي غريغوار شامايو، فإن تصنيف "المقاتل" (الهدف الشرعي) قد تعرض بالفعل "للتشويه بحيث يجري تطبيقه على أي صنفٍ من العضوية في منظمة عسكريةٍ ما، أو التعاون معها، أو التعاطف المفترض تجاهها".
إن مبدأ التمييز بين المقاتلين والمدنيين ليس سوى واحدٍ من عدة قوانين دوليةٍ تحكم أصول الحرب. وهناك أيضاً قاعدة تفرض على العمليات العسكرية أن تكون "متناسبة"؛ أي ينبغي تحقيق توازن بين الأضرار المحتملة على المدنيين والأفضلية العسكرية التي قد تنجم عن العملية. وقد سبق أن وصفت القوات الجوية الأمريكية مسألة التناسب بأنها "قرار ذاتي في جوهره يُتخذ في كل حالةٍ على حدة". فمهما أجادت التكنولوجيا رصد التهديدات والتعرف عليها وتحييدها، فلا دليل على أن بمقدورها اتباع أسلوب الاستدلال الدقيق والمرن والضروري في تطبيق حتى أكثر القوانين أو العادات غموضاً.
الروبوتات تشجع الحروب لأنها تقلل خسائر الجيوش البشرية
وحتى لو افترضنا أن التقدمات التكنولوجية قادرةٌ على تقليص استعمال القوة القاتلة في الحروب، فهل سيكون هذا أمراً طيباً على الدوام؟
استطلع المؤرخ سامويل موين النفوذ المتنامي لحقوق الإنسان في الصراعات الحربية، لافتاً الانتباه إلى وجود مفارقة: لقد أصبحت الحرب على الفور "أكثر إنسانيةً وأصعب في إنهائها". فبالنسبة إلى الغزاة، تريح الروبوتاتُ السياسيين من قلق الخسائر البشرية التي تثير المعارضة في أوطانهم. وبوجود قبضة حديدية في صورة تقنية متقدمة رحيمة، يمكن للطائرات المسيرة القيام بعمليات مراقبة تكفي لإخماد ثورة المحتلين، بينما تتجنب سفك الدماء الذي من شأنه إحداث ثورةٍ أو تدخل دولي.
في هذه الرؤية الروبوتية "للهيمنة البشرية"، ستكون الحرب أشبه بأعمال شرطة خارجة عن القانون المحلي. وسيحل محل الأعداء أشخاص مثيرون للشبهات يتعرضون للاحتجاز المميكن عوضاً عن القوة القاتلة.
ويشير موين إلى أنه مهما حافظ هذا على أرواح البشر، فإن التفاوت الهائل في القوى الذي يُعد الركيزة الأساسية للاحتلال المعتمد على الوسائل التكنولوجية لا يشكل أساساً لائقاً لإرساء نظام دولي شرعي.
البعض يطالب منعه من اتخاذ قرار القتل، مع فعل كل الأشياء الأخرى
كيف ينبغي لقادة دول العالم أن يستجيبوا للخطر المحتمل الذي تشكِّله تقنيات الأسلحة الحديثة هذه؟ أحد الخيارات أن يحاولوا الاتفاق على تحريم بعض وسائل القتل تحريماً صريحاً.
تفضل المؤسسة العسكرية الأمريكية تنظيم استعمال الروبوتات القاتلة عوضاً عن حظرها. وقد أسفرت المخاوف بشأن الأعطال أو اختلال التشغيل أو أية عواقب أخرى غير مقصودة للأسلحة المؤتمتة عن تداول الأحاديث عن الإصلاح المحيط بعلم الروبوتات العسكرية. على سبيل المثال، ينوي بي دبليو سينغر من مؤسسة New America السماح للروبوت بـ"الاستخدام المستقل ذاتياً للأسلحة غير القاتلة فقط".
أي يمكن لطائرة مسيّرة مستقلة ذاتياً تنفيذ دورية في الصحراء وتصويب سلاح صاعق -مثلاً- ضد أحد المقاتلين أو تقييده بشبكة، لكن "قرار القتل" يرجع إلى البشر وحدهم. وبموجب هذه القاعدة، حتى إذا حاول المقاتل تدمير الطائرة المسيرة، لا يمكن للطائرة المسيرة تدميره.
ومن شأن قواعد كهذه الإسهام في تحويل الحرب إلى حفظ السلام، وفي النهاية إلى صنفٍ من صنوف رقابة الشرطة. إذ قد يسمح الوقت المارُّ بين قرارَي الاعتقال والقتل بتنفيذ الإجراءات اللازمة لتقدير حجم الإذناب وتحديد نوع العقاب. ويشدد سينغر كذلك على أهمية المحاسبة، قائلاً إنه "إذا تسبب مبرمج بتفجير قرية كاملة عن طريق الخطأ، ينبغي أن يُلاحق جنائياً".
وبينما يريد بعض العلماء العسكريين النظريين برمجة الروبوتات بأخلاقيات خوارزمية، يستند سينغر بحكمةٍ إلى خبرة البشر الممتدة إلى قرونٍ في فرض القانون على الأفراد. ولأجل ضمان المحاسبة على تطبيق "خوارزميات الحرب"، سيكون على الجيوش الحرص على قابلية الاستدلال على هوية صانعي الروبوتات والأدوات الخوارزمية.
وفي السياق المحلي، فقد اقترح علماء وضع "لوحة رخصة للطائرات المسيرة"، بهدف ربط أية أفعال متهورة أو متهاونة بصاحب الطائرة المسيرة أو المتحكم فيها.
ومن المنطقي أن توضع قاعدة مماثلة -مثل "على الروبوت في جميع الأوقات الإشارة إلى هوية صانعه، أو المتحكم فيه، أو صاحبه"- باعتبارها قاعدةً أساسيةً للحروب، وأن يواجَه انتهاكها بعقوبات مشددة.
لكن ما هو الاحتمال الحقيقي لمعاقبة مبرمجي الروبوتات القاتلة فعلياً؟ في 2015، قصف الجيش الأمريكي مستشفى في أفغانستان، ما أدى إلى مقتل 22 شخصاً. وفي أثناء حدوث عملية القصف، هُرع موظفو المستشفى للاستنجاد بجهات اتصالهم داخل الجيش الأمريكي، راجين إياهم أن يتوقفوا. وسبق أن كان البشر مسؤولية بصورة مباشرة عن هجمات بطائرات مسيرة على مستشفيات ومدارس وحفلات زفاف وأهداف أخرى غير لائقة، دون أية عواقب تتناسب مع حجم تلك الجرائم.
إذ إن "ضبابية الحرب" تبرر مختلف أنواع القصور. ويبدو من المستبعد أن تفرض الأنظمة القانونية المحلية أو الدولية مزيداً من المسؤولية على المبرمجين المتسببين بأصناف مماثلة من الدمار.
الدول الكبرى سوف تستخدمه ضد مواطنيها
لا يُستخدم الذكاء الاصطناعي العسكري أو الرقابي حصرياً، ولا حتى أساسياً، ضد الأعداء الخارجيين فقط. بل قد أُعيد تطويعه لتمييز الأعداء والتصدي لهم محلياً. ورغم عدم تكرار أية حوادث شبيهة بهجمات 11 سبتمبر/أيلول على مدار ما يقارب العقدين في الولايات المتحدة، فقد دأبت قوى أمن الوطن الأمريكية في صمتٍ على تحويل دفة الأدوات المضادة للإرهاب وتوجيهها نحو المجرمين، ومحتالي مجال التأمين، وحتى المتظاهرين.
وفي الصين، دقَّت الحكومة أجراس الخطر من تهديد ما تسميه بأنه "الإرهاب الإسلامي" بهدف اعتقال نسبةٍ كبيرةٍ من مواطني الأويغور والزجِّ بهم في معسكرات إعادة التعليم وترهيب الآخرين بالتفتيشات المستمرة للهواتف وجمع المعلومات عنهم تلافياً للخطر.
إن التقدم في استخدام الذكاء الاصطناعي في الجيش والشرطة والسجون والأجهزة الأمنية أقرب إلى مشروع عالمي مثمر للمؤسسات والنُخَب الحكومية للتمسك بالسيطرة على الشعوب المضطربة محلياً وخارجياً من كونه خصومةً بين القوى العظمى. فأولاً، يجري تطبيقها ضد الأقليات غير المحبوبة أو عديمة الحيلة نسبياً، ثم تمتد إلى الشرائح الأخرى ( أي في النهاية المواطنين بما فيهم دافعي الضرائب سيكونون هم الهدف النهائي لهذه الروبوتات).
فقد سبق أن وهب مسؤولو وزارة الأمن الوطني الأمريكية دباباتٍ ودروعاً لأقسام الشرطة المحلية.
ومن المتوقع أن يزيد مديرو شرطة البلدات استخدام أنظمة الاستهداف وتقدير حجم التهديد القائمة على الذكاء الاصطناعي. لكن من المهم تذكُّر أن هناك عدة طرقٍ لحل المشاكل الاجتماعية. ولا يتطلب جميعها الجمع بين الرقابة والتهديد المميكن للقوة.
الطائرات المسيّرة تطيل فترات الاحتلال وتجعل تكلفته ضئيلة، ولكن تؤجج المقاومة
مكَّنت الطائرات المسيرة الولايات المتحدة من الاحتفاظ بحضورها في عدة مناطق محتلةٍ لوقتٍ أطول بكثيرٍ مما كان ممكناً لأي جيش.
ويُعد الوجود المستمر لحارس روبوتي قادر على إخطار الجنود بأي سلوك مهدِّد شكلاً من أشكال القمع. وقد تصرُّ قوى الدفاع الأمريكية على أن التهديدات القادمة من مناطق في العراق وباكستان خطيرةٌ بما يكفي لتبرير الحراسة الدائمة، لكنهم يتجاهلون الطرق التي تؤدي بها هذه الأفعال الاستبدادية إلى إشعال نار الغضب نفسه الذي من المفترض أن تخمده.
لكسر هذه الحلقة المفرغة ذاتية التدمير، علينا التشكيك في الخطاب الإصلاحي لإضفاء الأخلاق على الروبوتات العسكرية برمته. وبدلاً من إجراء تحسينات هامشية على الطريق إلى التنافس في القدرات الحربية القتالية، نحتاج إلى سبيل أخرى نحو التعاون والسلام، مهما كان هشاً ومهما صعب تحقيقه.
في كتابها "How Everything Became War and the Military Became Everything"، تصف مسؤولة البنتاغون السابقة روزا بروكس تزايد الإدراك بين صفوف خبراء الدفاع الأمريكيين؛ لأن التنمية والحوكمة والمساعدات الإنسانية على القدر نفسه من الأهمية بالنسبة إلى الأمن الأمريكي، مثلها مثل استعراض القوة، إن لم تكن أهم منه. إذ إن عالماً يتمتع بمزيد من الموارد الحقيقية لن يكون له دافعٌ بنفس القوة للسعي وراء حروبٍ بلا غالب ولا مغلوب. وسيكون كذلك أكثر جاهزيةً للتصدي للأعداء الطبيعية، مثل فيروس كورونا.