2026-05-03

١٦ يوليو ٢٠١٨
نشر مختبر أبحاث الجيش الأمريكي عام 2014 تقريرًا يتنبأ فيه بما ستبدو عليه ساحة المعركة في العام 2050. لن نستغرب لو عرفنا أنه سيناريو تتحكم فيه التكنولوجيا إلى حد بعيد، فقد وصف التقرير نوعًا من الحرب ترتبط في أذهان معظمنا بألعاب الفيديو أو أفلام الخيال العلمي – قوى مشتركة من بشر في الواقع المعزز وأسراب من الروبوتات، وأسلحة ليزر وأنظمة استخبارات وروبوتات سيبرانية تقاتل في بيئة معلومات يحتدم فيها النزاع باستخدام أساليب الانتحال والقرصنة والتضليل المعلوماتي وغيرها من وسائل الحرب الإلكترونية.
ليس هذا بالأمر الجديد، فالطرق التي تدار بها الحروب تتغير دائمًا بتغير التكنولوجيا. لكن البشر أنفسهم لا يتغيرون بهذه السرعة. أنا لواء متقاعد من القوات الجوية ولدي اهتمام خاص بالتكنولوجيا والأخلاقيات العسكرية، لذا فإني قلق من مسألة محددة؛ بما أن تقنيات الأسلحة الجديدة تجعل الجندية أكثر فتكًا، فإن جنودنا سيواجهون صعوبات لم يعهدوها في التصرف الأخلاقي والالتزام بالقواعد الأخلاقية والاتفاقيات المتعارف عليها بشأن قواعد الحرب.
وباعتبارنا دولة تمتلك أقوى جيش على وجه الأرض، فإننا ملزمون بالاعتراف بهذه التغيرات الأساسية العميقة في تجربة الجندية، وملزمون بمواجهتها والاستعداد للتكيف معها.
كان القتل في ساحات المعارك في الماضي عملَا متعمَّدًا ومرتبطًا أشد الارتباط بشخص الجندي. أما في المستقبل فإن الطبيعة الآلية للقتال وتعزيز الجنود بالذكاء الاصطناعي وسرعة القتال ومسافاته تنذر بتقويض روح الجندي المحارب. ولا ينطبق ذلك على تصرفات الجنود المتقاتلين فحسب، بل ينطبق كذلك على الجنود الذين يقاتلون جنبًا إلى جنب. كان الجنود في الماضي يخاطرون من أجل بعضهم، لكن ليس واضحًا على الإطلاق كيف ستتغير هذه الديناميكية مع دخول آلات الحرب ذاتية التحكم. هل سيكون الجندي على استعداد للوثوق بالآلة ويسلم حياته لها؟ وهل سيعرّض حياته أو حياة جنود آخرين للخطر لإنقاذ روبوت مهم يقاتل في صفهم؟ وهل يجب عليه ذلك؟
لن يضطر الجنود بعد الآن إلى الخوف من الاشتباك في القتال لأن بإمكانهم نشر روبوتات ومركبات غير مأهولة على نطاقات واسعة. غير أن الخوف يعمل على ضبط السلوك، وإذا زال الخوف فمن المحتمل أيضًا أن تزول القيود المفروضة على السلوك غير الأخلاقي. إذا لم يتمكن الجندي من فهم سياق المعركة أو المواجهة ورؤية التفاصيل وسماعها، فمن غير المرجح أن يهتم بالقرارات التي تتطلب مثل هذه التفاصيل الدقيقة.
قد تستطيع الآلة إجراء حسابات نفعية بشأن مدى تناسب القوة، ولكن هل يمكنها اتخاذ قرار فيه شيء من التعاطف؟ وهل ستكون الآلة قادرة على استشعار تدهور عزيمة القوات المعادية على سبيل المثال، والتراجع عن مهاجمتها للحد من وقوع خسائر في الأرواح لا داعي لها؟ يشعر القادة والقوات بتعقيدات ساحة المعركة عند مواجهتهم للعدو على الأرض، وهو شعور لا يمكن للآلة أن تصل إليه.
ستخلق الحواسيب والذكاء الاصطناعي والروبوتات والأنظمة ذاتية التحكم بيئة يتعذر على البشر مواكبة تعقيداتها وسرعتها، ناهيك عن التحكم فيها.
وسوف تتجاوز الحرب طاقة الحواس البشرية على جمع البيانات ومعالجتها على نحو متزايد. تقول سياسة وزارة الدفاع بشأن أنظمة الأسلحة ذاتية التحكم إن الإنسان سيكون على الدوام جزءًا من عملية صنع القرار في هذه الأسلحة الفتاكة، ولكن البنتاغون أنفق 2.5 مليار دولار عام 2017 على أنظمة الذكاء الاصطناعي، وتقوم كل وحدة عسكرية بتمويل مشاريع متعلقة بالأنظمة ذاتية التحكم. وتتوقع وزارة الدفاع أن تنفق 9.4 مليار دولار عام 2019على الأنظمة غير المأهولة، وأكثر من 800 مليون دولار على الأنظمة ذاتية التحكم وعلى التعاون بين الإنسان والآلة وكذلك على أبحاث الأسراب.
شيئًا فشيئًا وربما على نحو غير ملحوظ ستعمل الأنظمة الآلية بكفاءة أكبر بكثير إلى أن يصير البشر مجرد متفرجين. سيصبح الجندي أبطأ عناصر الاشتباك أو ببساطة عنصرًا غير ذي أهمية، كما أن الالتزام بقواعد الحرب سيفقد أهميته هو الآخر.
وهناك مجموعة أخرى من الأسئلة الأخلاقية تثيرها تقنيات “التعزيز” البشري، التي تشمل تحسين قوة الجندي البدنية وجَلَده وتحمله للألم، وكذلك استخدام الشرائح العصبية والمحفزات التي تعمل على استعادة وظائف المخ وتعزيز التعلم.
هل يمكن محاسبة الجنود على أفعالهم إذا كانوا تحت تأثير عقاقير أو إلكترونيات تؤثر على سلوكهم؟ إذا كان الجندي يستخدم عقاقير لتعزيز الإدراك وتقليل الخوف، فما دور الإرادة الحرة؟ هل يمكن للجندي الذي لا يخاف من شيء أن يعرّض نفسه أو وحدته أو المحيطين به من الأبرياء لأخطار لا داعي لها؟ وماذا عن تأثير العقاقير التي تعدل الذاكرة على شعور الجندي بالذنب، والتي قد يكون لها دور مهم في اتخاذ القرارات المتعلقة بالخسائر غير الضرورية والخسائر التي لا داعي لها؟
هذه قرارات مهمة في الحرب، وهي قرارات تشكل الأساس للعديد من مبادئ نظرية “الحرب العادلة”. يؤيد الجنرال بول سيلفا، نائب رئيس هيئة الأركان المشتركة “الحفاظ على القواعد الأخلاقية للحرب وإلا فإننا سنطلق على البشرية مجموعة من الروبوتات لا نعرف كيف نسيطر عليها”.
ينبغي أن تتم مراجعة هذه الاتفاقيات وتعاد صياغتها على أعلى المستويات الحكومية. لم يحدث ذلك حتى الآن. ولم تعترف لجنة الذكاء الاصطناعي التابعة للبيت الأبيض المشكّلة في مايو الماضي بما يحف بالذكاء الاصطناعي من مسائل أخلاقية كبرى حذّر منها عدد كبير من العلماء وخبراء التكنولوجيا مثل إيلون ماسك وبيل جيتس وستيفن هوكينج.
ومع أن من الأهمية بمكان أن يعترف القادة صراحة بالطبيعة الحساسة لهذه القضايا، إلا أن وزارة الدفاع تحتاج إلى متابعة توجيهاتها الصادرة عام 2012 بشأن الأنظمة ذاتية التحكم، بالإضافة إلى متابعة المبادئ التوجيهية الخاصة بالباحثين والقادة العسكريين. ويتعين عليها أن تلزم الباحثين والقادة العسكريين – طوال عملية تطوير هذه الأنظمة وقبل أن تصبح جاهزة للنشر بوقت طويل – بالتأكد من كيفية استخدامها وما إذا كان هذا الاستخدام ينتهك أيًا من قوانين النزاعات المسلحة والقانون الإنساني الدولي.
تاريخياً، تصدّرت الولايات المتحدة العالم في تطوير التكنولوجيا، وبالتالي فإن استخدامنا لأسلحة أو أساليب مشكوك فيها سيكون محط أنظار الآخرين. ومما يؤسف له أن الولايات المتحدة لجأت في الفترة التي أعقبت هجمات 11 سبتمبر إلى تعذيب المعتقلين. صحيح أن معظم القادة الكبار أدانوا هذه الممارسة، إلا أن الأمة في الواقع تخطت عتبة أخلاقية مهمة. أما وقد صار ذلك معلوما، فإن أعداءنا في المستقبل – حتى المتحضرين منهم – قد لا يحجمون عن استخدام نفس الأساليب ضدنا. وينطبق الشيء نفسه على التقنيات المتقدمة.
مع تكنولوجيات الحرب الجديدة، أمامنا الآن فرصة لإثبات قيادتنا مرة أخرى في مجال حقوق الإنسان بضمان معرفة جنودنا الشباب كيفية استخدام الأسلحة الجديدة استخدامًا أخلاقيًّا وإنسانيًّا.
الكاتب: لواء متقاعد من القوات الجوية ومؤلف كتاب “حرب المستقبل: الاستعداد لساحة المعركة العالمية الجديدة”.
المترجم: أستاذ اللغويات المساعد بجامعة أم القرى، عضو مؤسس جمعية الفلسفة.
المراجع: أستاذ جامعي في الأصول الفلسفية للتربية في جامعة الملك سعود. عضو مؤسس ورئيس مجلس إدارة جمعية الفلسفة السعودية. له عدة ترجمات ومؤلفات في الفلسفة من ضمنها كتابيّ فلسفة الآخرية و الفلسفة حين تنصت في الظلام.
Rebooting the Ethical Soldier
Robert H. Latiff
“الآراء والأفكار الواردة في المجلة/المقال تمثل وجهة نظر المؤلف فقط”
