2025-10-26

١٠ يونيو ٢٠١٩
لنعد العدة لما سيأتي، سننتج مقاطع فيديو واقعية مزيفة بكل يُسر، تمامًا كما نكذب.
في غرة يونيو 2019، نشرت صحيفة ديلي بيست خبرًا حول مُنتج مقطع الفيديو الشهير الذي ظهرت فيه رئيسة مجلس النواب نانسي بيلوسي ثملة مُتَتعتِعة في حديثها، أُنتج الفيديو باقتطاع جزء من مقطع حقيقي، وإبطائه، ثم ضبط درجة صوتها لإخفاء التلاعب.
بالنظر إلى تعليقات وسائل التواصل الاجتماعي، ستجدُ أن الكثير قد صدقَّ ما جاء في المقطع، معتقدين أن السيدة بيلوسي كانت في حالة سكر أثناء حديثها إلى وسائل الإعلام، (وإن كنت تظن أنه من السخف تصديق ذلك، فتذكر فضيحة بيزاجيت Pizzagate؛ فالناس مستعدون لتصديق السخافات عن السياسيين الذين يكرهونهم).
أنتجَ المقطع المزيف مواطن عادي يُدعى شون بروكس، ويبدو أنه كان ناشطًا سياسيًا مستقلاً، ينتج محتوىً يدعم حملة ترامب الانتخابية، ورغم تأكيد فيسبوك على أنه أول من قام بتحميل الفيديو، وفقًا لصحيفة ديلي بيست، إلا أن السيد بروكس نفى ذلك، وسرعان ما ألمح بعض المعلقين إلى أن الصحيفة أخطأت في الكشف عن السيد بروكس، فهو حسب رأيهم فرد بسيط، وليس عميلًا سريًا روسيًا أو شركة علاقات عامة قوية؛ مُعيبين على مؤسسة إخبارية كبرى أن تسلط الضوء على أحد الهواة المخالفين للقواعد، حتى أن سيث ماندل، محرر في صحيفة واشنطن إكزامينر، تساءل: “ألم تعاود صحيفة ديلي بيست فعلتها للمرة الثالثة بتعمد التشهير بشخص دون سبب وجيه ؟”
أقدر هذا القلق، وأرى مشروعيته، لكنه يغفل نقطة مهمة: فهناك سبب وجيه لميل الصحفيين للكشف عن هوية صنّاع المحتوى المزيف، وليس فقط للتمتع بإرباك مثيري الجدل، فنحن نعيش في وقت تضارع فيه معرفة مصدر المحتوى أهميةً معرفة المحتوى نفسه.
تسهّلُ التكنولوجيا الرقمية إنتاج فيديوهات زائفة مقنعة، فالفيديو الذي أنشأه السيد بروكس بسيط للغاية؛ ربما يمكنك انتاجه بنفسك بعد مشاهدة القليل من مقاطع يوتيوب حول تحرير الفيديوهات، لكن التزييف الأكثر تعقيدًا الذي يسمى أحيانًا بالتزييف العميق، يستخدم تقنيات تعتمد على الخوارزميات لإظهار الشخصيات وهم يفعلون أشياء لم يفعلوها من قبل – لا يقتصر الأمر على إبطاء سرعة أصواتهم أو تغيير درجتها، بل يصل إلى إظهارهم وكأنهم يقولون أشياء لم يقولوها على الإطلاق وقد اقترح مقال بحثي حديث تقنية لإنشاء رسوم حيوية بكامل الجسد ما يمكنها أن تُنتجُ بكفاءة، مطابقة للواقع، شخوصًا رقمية لتجسيد أي شخصية شهيرة.
حتى الآن، لا يبدو أن هذه التكنولوجيا قد استخدمت في السياسة الأمريكية، رغم احتمال أنها لعبت دورًا ما في أزمة سياسية في جمهورية الغابون الأفريقية في وقت سابق من هذا العام، لكن من الواضح أن النقاش الدائر حول الأخبار المزيفة ليست سوى لمحة بسيطة لما سيحدث عندما تكون الأصوات والصور، وليس الكلمات فقط، مُتاحة للتلاعب من قبل أي شخص لديه جهاز حاسب آلي مناسب.
أضف هذه النقطة إلى النظرة الثاقبة التي تقدمها لنا نظرية المعرفة – فرع فلسفي يتناول موضوع المعرفة – وسترى لماذا كانت الصحيفة محقةً في فضح صانع المقطع المزيف، يصنف الفلاسفة المعاصرون أنواع الأدلة وفقًا لموثوقيتها، فيتساءلون: إلى أي مدىً يمكننا أن نثق بعقلانية في معتقدٍ من المعتقدات بالنظر إلى نوع المعلومات التي يبنى عليها؟
عادة ما نميل إلى الاعتقاد بأن إدراكنا الحسّي – شهادة أعيننا وآذاننا- يقدم مسوغًا قويًا جدًا لمعتقداتنا، إذا رأيت شيئًا بعينيك، فالأرجح أن تصدقه، وبالمقارنة، فإن الادعاءات التي يقدمها الآخرون – والتي يسميها الفلاسفة “الإفادة” – تقدم بعض التبرير المعرفي، ولكن ليس بالقدر نفسه الذي يقدمه الإدراك المباشر، بالطبع، أحيانًا قد تخدعنا حواسنا، لكن هذا أقل احتمالًا من خداع الآخرين لنا.
حتى وقت قريب، كانت أدلة مقاطع الفيديو تضاهي إلى حد ما أدلة الإدراك، فغالبًا ما يمكنك الوثوق في أن الكاميرا قد التقطت تقريبًا ما كنت ستراه بأم عينيك، لذلك إن كنت تثق في إدراكك، فلديك نفس القدر من الأسباب للثقة في مقاطع الفيديو، نعلم جميعًا أن استوديوهات هوليوود، بإمكانياتها الهائلة من الوقت والمال، يمكنها استخدام تقنيات إنتاج الصور بالحاسب (CGI) لتجسيد أي شيء تقريبًا، ولكن ما هي احتمالات أن يكون مقطع فيديو عابر على الإنترنت قد جاء من هوليوود؟
أما اليوم، مع ظهور تقنية التزييف العميق، ستصبح القدرة على إنتاج فيديو مزيف قريب للواقع شائعة كشيوع القدرة على الكذب، وحين يحدث ذلك، يجب أن نفكر في الصور على أنها أقرب إلى “الإفادة” منها إلى الإدراك، بعبارة أخرى، يجب أن تثق في المقطع فقط إذا كنت تثق في الشخص الذي أنتجه.
ما يعني أنه من المهم أن نعرف من أين أتى مقطع نانسي بيلوسي المزيف، وغيره من المقاطع المشابهة، هذه المرة علمنا أن المقطع كان مزيفًا لأننا تمكنا من الوصول إلى المقطع الأصلي، ولكن في المستقبل، مع التزييف العميق، لن يكون هناك أصلٌ يمكن الرجوع إليه، ولنتيقن من حقيقة المقطع المشكوك فيه، سنحتاج إلى معرفة من أنتجه.
من الجيد أن يبدأ الصحفيون في تعقب منشئي محتويات الويب الغامضة، ومن الجيد لبقيتنا أن نبدأ في مطالبة وسائل الإعلام بالمثل، فعندما يصل التزييف العميق لكامل إمكانياته، سنكون ممتنين لأننا أعددنا له عدتنا.
أما في الوقت الحالي، حتى وإن لم نكن راضين عن تعرض أحد النشطاء السياسيين الهواة لغضب المجتمع على الإنترنت، فذلك أسلم من أن نستمر في التصرف وكأن بوسعنا أن نثق بعدُ في مقاطع الفيديو الكاذبة.
الكاتبة: (rinireg@) تدرس الفلسفة في جامعة يورك في تورنتو، حيث تشغل كرسي كندا للأبحاث في فلسفة الإدراك الأخلاقي والاجتماعي.
المترجم: كاتب ومترجم في فلسفة التقنية وتاريخها.
المراجعة: مترجمة حاصلة على ماجستير في دراسات الترجمة من جامعة أدنبرة، متخصصة في ترجمة النصوص الفلسفية، وعضوة في جمعية الفلسفة.
Deepfakes Are Coming. We Can No Longer Believe What We See
Regina Rini
“الآراء والأفكار الواردة في المجلة/المقال تمثل وجهة نظر المؤلف فقط”
