تُرجمت هذه المقالة بدعم من مبادرة “ترجم”، إحدى مبادرات هيئة الأدب والنشر والترجمة
٢٥ ديسمبر ٢٠١١
دخل روبوت إلى إحدى الحانات وقال للساقي: “ناولني مفك براغي”. نكتة سيئة بالفعل؛ لكن الأقل منها طرافة لو أن الروبوت قد قال: “ناولني ما لديك في ماكينة النقود”.
إن الفكرة الخيالية لانقلاب الروبوتات على البشر أقدم من كلمة “روبوت” نفسها، التي ظهرت لأول مرة في عنوان مسرحية للكاتب المسرحي التشيكوسلوفاكي كاريل تشابيك عام 1920، إذ تدور أحداثها حول عمال مصنع آليين ينتفضون ضد أسيادهم البشر. ابتكر الروائي الأمريكي إسحاق عظيموف، بعد 22 عامًا، “القوانين الثلاثة للروبوتات” لتكون بمثابة قانون أخلاقي هرمي للروبوتات في قصصه: أولاً، لا تؤذِ إنسان أبدًا بأي عملٍ أو امتناع عن عمل؛ ثانياً، أطع أوامر الإنسان؛ أخيرًا، احمِ نفسك. استكشف عظيموف، منذ القصة الأولى التي وردت فيها القوانين، تناقضاتها المتأصلة فيها. لقد كانت رواية عظيمة لكنها تبقى نظرية لا يمكن تطبيقها.
إن احتمالية وجود آلات قادرة على اتباع المبادئ الأخلاقية، ناهيك عن فهمها، تبدو بعيدة اليوم كقدم كلمة روبوت. يستدل بعض التقنيين – بحماس – من الملاحظة أن قوة الحوسبة تتضاعف كل 18 شهرًا ليتنبؤوا بوشوك بلوغ ما يُسمى بـ “التفرد التكنولوجي” حينما تتجاوز الآلات فجأةً عتبة الذكاء الإنساني الفائق. يفترض المؤمنون بالتفرد التكنولوجي الكثير من الأفكار، وليس أقلها أن الذكاء في أساسه ما هو إلا عملية حسابية. كما يعتقد المتفائلون بالتكنولوجيا من بينهم أن مثل هذه الآلات ستكون بشكلٍ أساسي صديقة للبشر. شخصيًا، أنا أحد المتشككين في فكرة التفرد التكنولوجي، وحتى وإن لم أعتبر أن مصطلح “الذكاء الاصطناعي” يحمل تناقضًا لفظيًا، فسيتطلب “الذكاء الاصطناعي الودود” قفزة علمية كبيرة في عددٍ من الجبهات.
تتطور حاليًا العلوم العصبية والمعرفية بسرعة، ما يدفع بتأكيد فكرة استعارة عمل العقل بعمل الكمبيوتر. وتعترض نظرية النظم الديناميكية، وعلوم الشبكة، ونظرية التعلم الإحصائي، وعلم النفس التنموي وعلم الأعصاب الجزيئي جميعها على بعض الافتراضات المؤسِّسة للذكاء الاصطناعي، وللعلوم المعرفية بشكلٍ عام في الخمسين سنة الأخيرة. تحلل وتوظف هذه الأساليب الحديثة البنيةَ السببية المُعقَّدة للأنظمة المُجسَّدة ماديًا والمُضمَنة بيئيًا في كل المستويات، بدءًا من المستوى الجزيئي حتى المستوى الاجتماعي. لقد أظهرت هذه الأساليب عدم كفاية الخوارزميات شديدة التجريد التي تعمل على رموز منفصلة ذات معانٍ ثابتة لالتقاط المرونة التكيفية للسلوك الذكي وإدراكها. ولكن، بالرغم من تقويض فكرة أن العقل هو في الأساس جهاز كمبيوتر رقمي، فقد حسَّنت هذه الأساليب من قدرتنا على استخدام أجهزة الكمبيوتر لمزيدٍ من إجراءات المحاكاة القوية للعوامل الذكية، المحاكاة التي ستتحكم تحكمًا متزايدًا في الآلات التي تحتل مكانتنا المعرفية. وإن كنت لا تصدقني؛ فاسأل سيري.
أرى، لذلك، أننا في حاجة للتفكير مطولاً وبعمقٍ أكثر في موضوع أخلاقيات الآلة. يستخف العديد من زملائي بفكرة الآلات الأخلاقية ويصرون على أن الآلات لا تفعل إلا ما تُؤمرُ به؛ ويؤكدون أن الروبوت السارق للحانة في طرفتنا تلك سيكون من الواجب توجيهه أو تصميمه تمامًا لهذا الغرض. تُعتبر الأخلاق، وفقًا لوجهة النظر هذه، مسألة خاصة بمخلوقات مثلنا يمكنها اختيار ارتكاب الخطأ، فلا يكون الإنسان صالح أخلاقيًا إلا بقدر مغالبته لرغبته الشديدة في ارتكاب الأخطاء. كما يؤكدون على أننا أخلاقيون لأننا أحرار في اختيار مساراتنا الخاصة.
تتضمن هذه الفكرة عدة موضوعات مهمة: حرية الإرادة، وعفوية الإنسان وإبداعه، ودور العقل في اتخاذ خياراته الخيرة، ناهيك عن طبيعة الأخلاق نفسها. تتطلب محاكاة الفاعلية الأخلاقية بمستوى إنساني بالكامل وجميع المسؤوليات المصاحبة لها تطورات في مجال الذكاء الاصطناعي، أو الحياة الاصطناعية، التي هي في الواقع ماتزال في صعيد الخيال العلمي. ورغم ذلك..
تتناقص حاجة الآلات للإشراف البشري لأداء الأعمال التي نؤديها في نفس المساحات المادية التي نعمل بها. إذ يعمل رواد الأعمال بهمَّةٍ عالية على تطوير روبوتات لأداء أعمال العناية المنزلية للمسنين. وقد أصبحت المكانس الروبوتية وجزارات العشب بالفعل من المنتجات المسوقة على نطاق واسع، والسيارات الذاتية القيادة ليست ببعيدةٍ عن ذلك. تزوِّدُ شركة مرسيدس سياراتها من الفئة إس (S-Class) المنتجة عام 2013، بنظام يمكِّنها من القيادة بشكلٍ مستقل أثناء حركة المرور في المدينة بسرعة تصل إلى 25 ميلاً في الساعة. كما أن أسطول غوغل من السيارات الذاتية القيادة قد سجل ما يقارب 200.000 ميل دون وقوع حادث واحد في ولايتي كاليفورنيا ونيفادا في ظروف تتراوح من الشوارع العادية إلى الطرق السريعة. لم تحتاج السيارات إلى تدخل “المساعد البشري” إلا مرة واحدة كل مليون ميل، وذلك حسب تقدير غوغل. فكم تبقى من الوقت حتى يملك سارق المصرف التالي سيارة هروب ذاتية القيادة؟
إنه مفهوم الاستقلالية كما يفهمه المهندسون لا الفلاسفة. فلن يكون لدى السيارات شعورٌ بالإرادة الحرة، ولا حتى شعورًا وهميًا. قد تتمكن السيارات من اختيار مساراتها الخاصة عبر المدينة، لكنها لن تتمكن حتى المستقبل المنظور من اختيار مساراتها الخاصة في الرحلة الكبرى لحياتها بدءًا من وكالة البيع إلى ساحة الخردة. لا نأمل، أن ترحل عنا سياراتنا بإراداتها لتنضم لفيلق السلام مثلًا، في أي وقتٍ لاحق. ولكن تصبح آلاتنا مستقلة على نحوٍ متزايد عن تحكمنا المباشر مع تكدس طبقات البرامج بيننا وبينها. فقد حلَّت في الأوساط العسكرية عبارة “إنسان على الحلقة” محل عبارة “إنسان في الحلقة” مما يشير إلى تناقص دور المشرفين البشريين في التحكم بالطائرات المُسيَّرة والروبوتات الأرضية التي تعمل على بُعد مئات أو آلاف الأميال من القاعدة العسكرية. تحتاج هذه الآلات إلى التكيف مع الظروف المحلية بشكلٍ أسرع مما يمكن الإشارة إليه ومعالجته من خلال مشغلي الاتصالات عن بُعد من البشر. تلتزم وزارة الدفاع بشكلٍ كافٍ باستخدام الأنظمة المستقلة ذاتيًا التي دعمها المهندسون والفلاسفة بصياغتهم للحوكمة الأخلاقية للآلات الحربية (تقرير بهيئة PDF، في 108 صفحات)، وذلك رغم عدم وجود من يوصي حتى الآن بتسليم قرارات استخدام القوة الفتاكة للبرامج.
وُضِعت أخلاقيات الآلة لتبقى، سواء كان ذلك على سبيل الدعابة أم لا. حتى القدر المتواضع من الاستقلالية المُهندَسة تستوجب “ضرورة” تحديد بعض الأهداف “المتواضعة” لتصميم آلات ذات فاعلية أخلاقية اصطناعية. نقول “متواضعة” لأننا لا نتحدث عن أنظمة التوجيه الخاصة بروبوت مُدمِّر كما في فيلم أرنولد شوارزنيجر (The Terminator)، أو تقنية أخرى غير موجودة بعد. ونقول “ضرورة” لأن الآلات ذات الاستقلالية المحدودة تعمل في كثيرٍ من الأحيان أكثر من ذي قبل في بيئات مفتوحة، فيصبح من المهم بشكلٍ متزايد تصميم نوعية من الأخلاق الوظيفية الحساسة لميزات ذات صلة أخلاقيًا بتلك المواقف. ومتواضعة، مرة أخرى، لأن هذه الأخلاق الوظيفية لا تتعلق بالفاعلية الأخلاقية التأملية الذاتية، ما يمكن أن نطلق عليها فاعلية أخلاقية “كاملة”، ولكن ببساطة هي محاولة لجعل الفاعلين الأخلاقيين الذاتيين أفضل في تعديل أفعالهم لتقترب من المعايير الإنسانية. يمكن إجراء ذلك باستخدام التكنولوجيا المتاحة حاليًا أو المتوقعة في غضون السنوات الخمس إلى العشر القادمة.
يثير مشروع تصميم آلات ذات فاعلية أخلاقية اصطناعية مجموعة متنوعة من ردود الفعل السلبية، من ضمنها الاعتقاد أنه منافٍ للعقل أو مروع أو تافه. لقد اتُهمنا أنا ووينديل والاش المؤلف المشارك لي في كتابنا “الآلات الأخلاقية”، بأن نظرتنا حول الأخلاق تمحورت حول الإنسان بشكلٍ غير متخيل، وبأننا مفرطين في التفاؤل بشأن الحلول التكنولوجية، وبأننا قد ركزنا بشكلٍ كبير على هندسة الآلات ذاتها بدلاً من النظر إلى السياق الكامل الذي تعمل فيه هذه الآلات.
وردًا على تهمة منافاة هذا المشروع للعقل، فإنني مستعد أن أضاعف الرهان عليه. إن الانخراط الجاد في مشروع لتصميم فاعل أخلاقي اصطناعي، بعيدًا عن كونه تمرينًا في الخيال العلمي، يمكن أن يُفجر ثورة في الفلسفة الأخلاقية بنفس الطريقة التي يؤدي بها تفاعل الفلاسفة مع العلم إلى إحداث ثورات باستمرار في فهم الإنسان لذاته. يُحتمَل أن نكسب رؤىً جديدة عند مواجهة سؤال حول ما إذا كانت هندسة تحكم الروبوتات يمكن أن تستخدم (أو تتجاهل) المبادئ العامة التي أوصت بها النظريات الأخلاقية الرئيسية؟ وكيف يمكنها ذلك؟ لعل النظرية الأخلاقية للفاعل الأخلاقي مثل الفيزياء للاعبي كرة البيسبول، تلك المعرفة النظرية التي لا حاجة لها لتقديم أداء جيد داخل الملعب، لكنها قد تظل مفيدة بعد المباراة لتحليل الأداء في المستقبل وضبطه.
حتى وإن صَعُبَ قياس النجاح في بناء فاعل أخلاقي اصطناعي، فقد تساعد هذه الجهود في منع انتشار التقنيات غير المرنة والعمياء أخلاقياً. إذا كانت السيارة، على نحوٍ ملموس، ذكية بما يكفي للتنقل عبر شوارع المدينة، فهي بالتأكيد ذكية بما يكفي لتعرف كم من الوقت قد قضت خارج الحانة في انتظار صاحبها (يمكن الوصول إلى هذه المعلومة بسهولة من خلال ربط نظام تحديد المواقع العالمي GPS بالإنترنت)، وقد تطلب منك، بصفتك السائق، إثبات أنك غير سكران قبل الشروع في تشغيل المحرك كي تضمن لك عودةً آمنة للمنزل. ستظل هناك، على المدى القريب (من 5 إلى 10 سنوات مثلًا)، حاجة إلى مسؤول بشري للإشراف على هذه السيارات “الذكية”، لذلك من الأفضل أن تكون متيقظًا دائمًا. هل يتطلب هذا حقًا أخلاقًا اصطناعية، في حين أنه يمكن للمرء ببساطة أن يُثبِّتَ جهازًا لقياس نسبة الكحول في النَفَس بين مفتاح السيارة ومشغل المحرك؟ سيكون لهذا النظام البسيط غير الذكي وغير المرن نوعٌ من الأخلاق التشغيلية التي قرر المهندس من خلالها عدم تشغيل أي سيارة من خلال شخص بمستوى مُعين من الكحول في دمه؛ لكنه يبقى أعمى من الناحية الأخلاقية، عاجز، على سبيل المثال، عن إدراك الفرق بين الشخص الذي قد يحتاج إلى سيارته لمجرد العودة إلى منزله، وذاك الذي تناول مشروبيْن كحولييْن مع العشاء، لكنه في حاجة ماسة للسيارة لأن لديه طفلًا ذا أربع سنوات يحتاج إلى عناية طبية عاجلة في المقعد الأخير من السيارة.
نستطيع في الوقت الحالي تصميم آلات قادرة على تحديد مدى احتمالية أن يؤدي موقف ما إلى وقوع حادث مروري، وذلك بناءً على المعلومات الآنية لأوضاع حركة المرور والوصول إلى جداول اكتوارية. يمكن لذلك، بالطبع، أن يؤجل السؤال الأخلاقي عن كيفية الموازنة بين احتمال الضرر الذي يمثله أي من خيارين مختلفين، ولكن النظام المصمم جيدًا للتفاعل بين الإنسان والآلة يمكن أن يسمح بتسجيل التجاوز اليدوي تسجيلاً مؤقتًا في “صندوق أسود” على غرار ذاك المستخدم في الطائرات. وستقدم هذه التسجيلات، في حالة وقوع حادثٍ ما، دليلًا على مسؤولية السائق. يمكننا أن نتصور آلات تتضمن ضوابطها درجات متزايدة من الحساسية للأشياء المهمة أخلاقيًا، مثلما يمكننا أن نتصور آلات ذات درجات متزايدة من الاستقلالية عن الرقابة البشرية. ليست آلات مثالية بالتأكيد، لكنها حتمًا ستكون آلات أفضل.
هل الحديث عن الفاعل الأخلاقي الاصطناعي مغالىً فيه، وهل سيسهم ذلك حقًا في تجريدنا من إنسانيتنا، وتقليل حدود استقلاليتنا، ورفع احتمالية الحروب؟ إذا كان الأمر كذلك، فهل يمهد هذا الأمر إلى مستقبلٍ ديستوبي مروَّع؟ أنا حساس للمخاوف، لكنني متفائل بما يكفي للاعتقاد بأن هذا النوع من التشاؤم التقني قد سُوِّق بشكلٍ مبالغٍ فيه على مر القرون. كانت حكايات حركة محطمي الآلات يبدو بها شيءٌ من الطرافة، إلا عندما أصبحوا خطرين. يكمن التحدي الذي يواجه الفلاسفة والمهندسين على حدٍ سواء في معرفة ما يجب إجراؤه وما يمكن إجراؤه بشكلٍ معقول في المساحة البينية بين آلات مستقلة وآلات حساسة جزئيًا من الناحية الأخلاقية. قد يعتقد البعض أن استكشاف هذا المجال أمرٌ خطير للغاية ويجب ألا يُسمح به. وقد ينجح المنادون بالحظر في بعض المجالات، مثل الحد من تسليح الروبوتات، لكنهم، على ما أعتقد، لن يستطيعوا احتواء الانتشار المتزايد للروبوتات المستقلة المُهيَّأة للأغراض المنزلية، ولدور رعاية المسنين والأماكن العامة، ناهيك عن المساحات الافتراضية التي تعمل فيها الكثير من البرامج بالفعل دون تدخل بشري. نرغب في آلات تقوم بالأعمال والمهام الروتينية دون الحاجة إلى مراقبتها باستمرار. إذ يعتمد تجار التجزئة والبنوك على البرامج التي تتحكم في جميع أنواع الإجراءات، من شراء بطاقات الائتمان إلى مراقبة المخزون، مما يسمح للبشر بإجراء أمور أخرى لم نعرف حتى الآن كيفية بناء آلات لإجرائها.
أين يكمن التحدي إذن؟ قد يتساءل مهندس برمجيات: “أليست الحوكمة الأخلاقية للآلات مجرد حل مُقيَّد للمشكلة؟ وإن كان هناك غموض حول طبيعة ذاك التقييد، ألا تُعتبر هذه المشكلة ضمن المشكلات الفلسفية لا الهندسية؟ علاوةً على ذلك، لماذا ننظر إلى الأخلاق البشرية كمعيارٍ ذهبي لأخلاقيات الآلة؟”. جوابي هو أنه إن ترك المهندسون الأمر للفلاسفة للتوصل إلى نظريات يمكنهم تنفيذها فسينتظرون طويلًا؛ ولكن إذا تَرك الفلاسفة الأمر للمهندسين لتنفيذ ما هو عملي، فمن المحتمل أن يصابوا بخيبة أمل في نهاية المطاف. يتمثل التحدي إذن في التوفيق بين هاذين المنظورين المختلفين للتعامل مع العالم، وذلك لتحقيق فهم أفضل للكيفية التي تمكِّننا بها طبيعة التفاعل القائم بين الإنسان وبيئته، أحيانًا، لاتخاذ مسار مُبرر يتخلل المتطلبات المتضاربة لمكانتنا الأخلاقية. نحن في حاجة ضرورية إلى أنواع أخرى من الصرامة الفلسفية والدقة الهندسية على حدٍ سواء لبناء آلات، عند تضمينها في أنظمة جيدة التصميم للتفاعل بين الإنسان والآلة، يمكنها إصدار قرارات مُبرَّرة أخلاقياً حتى في المواقف التي تؤدي فيها قوانين عظيموف إلى طريقٍ مسدود.
المقال هو موضوع المناقشة لهذا الأسبوع في منتدى “On the Human” القائم بين المشتغلين بالعلوم الإنسانية والعلماء، وهو مشروع تابع للمركز الوطني الأمريكي للعلوم الإنسانية National Humanities Center.
الكاتب: يوجَّه كولين ألين برنامج العلوم المعرفية في جامعة إنديانا بلومنغتون، حيث يشغل منصب أستاذ عميد في العلوم المعرفية والتاريخ وفلسفة العلوم. ويعمل في معرفة الحيوان، والأسس الفلسفية للعلوم المعرفية والتطبيقات الحاسوبية للفلسفة.
المترجم: كاتب ومترجم في فلسفة التقنية وتاريخها.
The Future of Moral Machines
Colin Allen
“الآراء والأفكار الواردة في المجلة/المقال تمثل وجهة نظر المؤلف فقط”