حربٌ عالميةٌ ثالثة قد تندلع بسبب تكنولوجيا «الفبركة العميقة».. سنبلغ نقطة اللاعودة في غضون عامين!
الأربعاء, 12 ديسمبر 2018
تكنولوجيا

حربٌ عالميةٌ ثالثة قد تندلع بسبب تكنولوجيا «الفبركة العميقة».. سنبلغ نقطة اللاعودة في غضون عامين!

صورة تخيّلية لجنود في الحرب العالمية الثانية / iStock
عربي بوست

في مقطع فيديو مصوّر يعود للعام 2017 بثته قناة CNN الأميركية قبل ساعات، يظهر الرئيس الروسي فلاديمير بوتين في اجتماع سري مع المرشح للرئاسي الأميركي (آنذاك) دونالد ترمب.

تبدو الصورة مشوشةً نوعاً ما، إلا أن صوتهما واضحٌ جداً! حوارهما يؤكد بما لا يدع مجالاً للشك أنهما يتفقان على دعم روسيا لترمب في السباق الانتخابي الأميركي، نظير تغيير رجل الأعمال السبعيني لسياسة بلاده الخارجية تجاه قضايا مختلفة بعد فوزه بالانتخابات بمساعدة الروس.

وكما يوضّح الفيديو الذي حصلت عليه CNN وبثته ليلة أمس، يتفق الرجلان على تسريب أجهزة المخابرات الروسية مقاطع فيديو حقيقية ومفبركة تُضعف من شعبية منافِسة ترمب في الانتخابات هيلاري كلينتون.

الفيديو المسرّب يتسبب في أكبر أزمة واجهتها السياسة الأميركية منذ تأسيس الجمهورية؛ الحزب الديمقراطي يدعو لخلع ترمب ومحاكمته بتهم التخابر والغش والتزوير. شوارع الولايات الديموقراطية تغصّ بالمتظاهرين، والمحكمة الدستورية تجتمع للنظر في الأمر.

تقارير إخبارية تفيد أن قيادات الجيش الأميركي عقدوا اجتماعاً طارئاً بدعوة من قيادات الديموقراطيين والجمهوريين في مجلس الشيوخ للنظر في مصير ترمب.

في المقابل، يحشد الروس قواتهم المتاخمة لمناطق حلف شمال الأطلسي، ويرفعون حالة التأهب استعداداً للأسوأ. والعالم يبدو وكأنه على شفا حربٍ لا تُبقي ولا تذر!


لكن مهلاً، كل ما قرأتَه أعلاه لم يحدث بالفعل. ليس سوى سيناريو تخيُّلي يمكن أن تنفيذه باستخدام تقنية «الفبركة العميقة» للفيديوهات والمقاطع المصوّرة، والتي يتوقع العلماء أن تقطع أشواطاً طويلةً في التطور وتسبب فوضى عارمة خلال عامين.


موقع Daily Star Online نشر عن ادّعاء المدافعين عن نظرية المؤامرة، المتعلق بتزوير الصين هبوطها الأخير على سطح القمر باستخدام صور منشأة بالحاسوب.

وحذر أحد الخبراء من أن التغييرات التكنولوجية ستؤدي إلى نهاية العالم؛ بسبب النهاية المروعة  لمثل هذه التطبيقات الخطيرة المعتمدة على الذكاء الاصطناعي للآلة.

جرِّب مشاهدة هذا المقطع مثلاً:

ما هي  تقنية «الفبركة العميقة» للفيديوهات؟

تشكل عملية «التزييف العميق – Deep Fake» (أو التزييف الاحترافي، وهو مصطلح يدمج بين التعلم المتعمق deep learning، والزيف، وهو استخدام الذكاء الاصطناعي في عملية التزييف)، تشكل حالياً مصدر قلق كبيراً للنواب الأميركيين؛ إذ يخشون أن تشكل مقاطع الفيديو المُعدلة باستخدام الذكاء الاصطناعي، والتي تصور الناس وهم يقولون أو يفعلون ما لم يقولوه أو يفعلوه، خطراً على الأمن القومي.

قضى الأستاذ المشارك في علوم الكمبيوتر بجامعة ألباني الأميركية ليو سيوي، سنوات في العمل على إنشاء برنامج صممه لاكتشاف ما يسمى «فبْركة الفيديوهات»، وهي عبارة عن مقاطع فيديو تبدو مقنعة للغاية يتم فيها استخدام رأس شخص في فيديو آخر لجعله يبدو كما لو كان يقول ويفعل أشياء لم يفعلها في الأصل. وتعد بعض مقاطع الفيديو متطورة للغاية، بحيث يمكنها محاكاة أشكال الوجه وتعابيره، على غرار عملية الرَّمش.

لقد أثارت القوة المحتملة لتكنولوجيا «فبركة الفيديوهات» العديد من الهواجس بشأن احتمال استخدام القادة العدائيين إياها لأغراض دعائية. كما أن هناك مخاوف من إمكانية استخدام هذه التكنولوجيا لابتزاز الناس، على غرار فبركة أشرطة فيديو إباحية، أو المساومة بغية الحصول على تسجيلات أخرى.

فلا تتعجب إذن، إن وجدت مقطع فيديو لك وأنت تقول أو تفعل أشياء لا تعرف عنها شيئاً، فقد تكون ضحية لتقنية «التزييف العميق» الجديدة.

وعبّر سيوي، في مقابلة لصحيفة Daily Star البريطانية، عن مخاوفه الجديّة بخصوص التقنية المرعبة.

إنه تطبيق أو برنامج، لكنه خطير للغاية

لقد شهدت تكنولوجيا «فبركة الفيديوهات»، بالإضافة إلى تطبيقات على غرار FakeApp، تطوراً كبيراً، حيث باتت هذه التكنولوجيا تسمح لأي شخص لديه إمكانية الاتصال بالإنترنت بارتكاب عمليات احتيال، من السهل تصديقها.

فبعض مقاطع الفيديو الحقيقية التي نشرتَها على حساباتك بالشبكات الاجتماعية قد تكون كافية لعمل نسخة أو نموذج لك يبدو حقيقياً، ويورّطك في كلام وأفعال لا تعرف عنها شيئاً!

نقطة تحوّل هائلة ومخيفة!

أصبح من الصعب حتى بالنسبة للخبراء أنفسهم، على غرار د. ليو، التعرف على مقاطع الفيديو المزيفة.

وقد شرح د. ليو السبب الذي يجعله يؤمن بأننا نقترب من نقطة تحوُّل في هذا المجال، حيث لن يتمكن أي شخص بعد الآن من تصديق أي فيديو يشاهده على الإنترنت.

وقد طوّرت جامعة ستانفورد تقنية «وجهاً لوجه»، القادرة على تركيب تعابير وجه شخص لآخر مباشرة عبر الكاميرا فيما يشبه البث المباشر لشخص آخر، ونجح باحثون بجامعة ألاباما في تصنيع الأصوات بتغيير نبرة صوت المتكلم واستبداله بشخص آخر مباشرةً، مثل هذا المقطع.

وسيبدو الأمر حقيقياً جداً

وفي هذا الصدد، قال ليو إن «مُعِدّ مقاطع الفيديو المزوَّرة، الذي يتمتع بمهارة عالية في عمله، يمكنه إعداد فيديو مزيف يبدو كأنه حقيقي للغاية، بمساعدة هذه الأدوات التي تعتمد على الذكاء الاصطناعي».

ويتابع قائلاً، «تستمر التكنولوجيا التي تهتم بتجميع مقاطع الفيديو في التطور، حيث سنبْلغ مرحلة بالمستقبل القريب، لنقُل من 2 إلى 4 سنوات، تصبح فيها مقاطع الفيديو المزيفة أكثر واقعية، ويمكن أن تنطلي بسهولة على الأشخاص المبتدئين. لذلك، هناك حاجة مُلحّة لاستخدام التقنيات المعتمدة في الأدلة الجنائية لمساعدة المستخدمين على التحقق من صحة هذه المقاطع».

وسيصعب علينا التحقق أكثر

وفي عصر الشبكات الاجتماعية الذي يصعب فيه التحقق من الشائعات الكثيرة المتداولة تبدو الخطورة مضاعفة، خاصة أن كثيرين لا يبذلون جهداً للتحقق مما يقرأونه أو يشاهدونه على الشبكة العنكبوتية، والأدهى أن التقنية الجديدة ستفاقم الأمر بشدة وتجعل من التحقق عملية أكثر تعقيداً بكثير.

و»نظراً إلى ضيق الوقت الذي نقضيه كمستخدمين للهواتف المحمولة والإنترنت في التثبت من صحة معظم مقاطع الفيديو، إلى جانب نقص الموارد المخصصة لذلك، من المرجح للغاية أن تضللنا هذه المقاطع المزيفة»، يضيف ليو.

وبالعودة لقصة الانتخابات الأميركية التخيلية، فقد يستغرق الكشف عن حقيقة الفيديو المفبرك وقتاً يكفي لحدوث اضطرابات وفوضى كبيرة في الولايات المتحدة – بل في العالم بأسره – قبل كشف الحقيقة!

ويجب توخي الحذر من الآن

ويضيف د. ليو في مقابلته مع Daily Star، «لم تبلغ التكنولوجيا المستخدمة في الوقت الراهن تلك المرحلة بعد».

وعندما سئل عما إذا كان ينبغي للمستخدمين في الوقت الراهن عدم الوثوق بكل فيديو يشاهدونه على الإنترنت، قال «أنا لا أنصح بعدم تصديق كل مقاطع الفيديو الموجودة، لكن يجب توخّي الحيطة اللازمة، كما يجب ألا نعتبر مصداقية هذه المقاطع من المسلّمات»، مثلاً هنا مقاطع مفبركة بالذكاء الاصطناعي لقادة عالميين مثل أوباما وميركل».

وأشار الدكتور ليو إلى أن هذه التكنولوجيا لم تكن مصمَّمة في البداية لغايات سيئة، حيث تم إنشاؤها «لإظهار قدرة خوارزميات الذكاء الاصطناعي على فهم هياكل الصور المعقدة. ن المؤسف أن يتم استعمالها وإساءة استخدامها من قِبل منفذي مقاطع الفيديو المزورة لأغراض خبيثة».

فيسبوك يصارع لكشف التزييف بشكل آلي

تبدو فيسبوك في سباق مع الزمن لجعل عملية التعرف على المعلومات المضللة في الصور والفيديوهات أوتوماتيكية، فمنصة التواصل الاجتماعي قد تكون بيئة خصبة وخطيرة لهذه المقاطع المزيفة

وأعلنت فيسبوك، حين سُئلت رئيسة العمليات بالشركة شيريل ساندبيرغ، عن كيفية تحذير الشركة المستخدمين بشأن مقاطع الفيديو عميقة التزييف، أنها تتوسع بالوقت الراهن في عملية مراجعتها المقالات، بالتعاون مع شركائها العاملين، وفي فحص صحة البيانات، لتشمل كلاً من الصور ومقاطع الفيديو.

تعاون لجعل عملية فحص الفيديوهات فعالة

سيتمكن شركاء فيسبوك الـ 27، العاملون في فحص صحة البيانات، والموزعون في 17 دولة، من المشاركة في عملية المراجعة. وتشمل قائمة المتعاونين مع فيسبوك في فحص صحة البيانات بالولايات المتحدة وكالة أسوشييتد برس، ومنظمات factcheck.org، وPolitifact، وSnopes، ومجلة The Weekly Standard المحافظة.

وقد صرحت فيسبوك أنها أسست نموذجاً للتعلم الآلي، يكشف عن الصور ومقاطع الفيديو التي يُحتمل أن تكون مزيفة؛ ومن ثم يرسلها إلى شركاء فيسبوك المتخصصين في فحص صحة البيانات لمراجعتها. يمكن أن يفحص شركاء صحة البيانات المستقلون استخدام تقنيات التحقق المرئي، ومن ضمنها البحث باستخدام الصور (بحث الصور العكسي)، والتحليل التَّلوي للصور لمراجعة المحتوى.

وقالت مديرة المنتج بفيسبوك أنطونيا وودفورد، «بإمكان العاملين في فحص صحة البيانات التحقق من صحة أو زيف الصور أو مقاطع الفيديو، من خلال الجمع بين هذه المهارات والممارسات الصحافية الأخرى، مثل الاستعانة بأبحاث الخبراء، أو الأكاديميين، أو الوكالات الحكومية».

وقالت تيسا ليونز، من إدارة فيسبوك، إن منصتهم «جيدة جداً» في العثور على نسخ طبق الأصل من الصور، ولكن عندما تخضع الصور لقليل من التلاعب أو التعديل، يُصبح كشفها آلياً أكثر صعوبة.

وأضافت ليونز: «نحن بحاجة إلى مواصلة الاستثمار في التكنولوجيا التي ستساعدنا على تحديد النسخ المتشابهة التي خضعت لعمليات تغيير طفيفة».

ورغم التقدم في مواجهة تقنية التزييف الخطيرة، لا يزال الأمر مقلقاً!

تعتزم فيسبوك استخدام مجموعة تقييمات مراجعيها للصور ومقاطع الفيديو، لتطوير دقة نموذج التعلم الآلي في التعرف على المعلومات المزيفة بهذا النوع من الوسائط (أي الفيديوهات والصور).

يمكن التعرف على 3 أنواع من البيانات المزيفة في الصور ومقاطع الفيديو، وهي المحتوى المفبرك أو المُتلاعَب به، والمحتوى المقدَّم خارج السياق، والادعاءات الكاذبة في النصوص والمقاطع الصوتية.

تطرح شركة فيسبوك نظرة عامة رفيعة المستوى لصعوبات التعرف على المعلومات المزيفة في محتوى الفيديو والصور مقارنةً بالمحتوى النصي، وبعض التقنيات التي تستخدمها الشركة للتغلب على تلك الصعوبات. لكن إجمالاً، يبدو أن شركة فيسبوك لم تقترب بعدُ حتى من امتلاك نظام آلي لكشف التزييف في مقاطع الفيديو والصور على نطاق واسع.

الصحافة ستكون مهمة للغاية، وسيختلف الأمر من بلد لآخر

أضف إلى ذلك أن تأثير التزييف بالنسبة لمحتوى الصور ومقاطع الفيديو يختلف أيضاً باختلاف البلد. فقد اكتشفت شركة فيسبوك أن معظم المستخدمين في الولايات المتحدة يقومون بالإبلاغ عند مصادفة معلومات مضللة بالمقالات النصية، في حين أنه بإندونيسيا، يميل المستخدمون أكثر إلى الإبلاغ عند مصادفة تزييف في الصور.

وقالت ليونز: «في البلدان التي بها بيئة إعلامية أقل تطوراً، أو بها معدلات أمية مرتفعة، يرتفع احتمال مشاهدة الناس الأخبار الكاذبة عن طريق الصور، أو مشاهدة صور مزيفة؛ ومن ثم ترجمتها إلى أخبار، في حين أنه بالبلدان التي بها بيئة إخبارية متينة، يرتبط مفهوم الأخبار أكثر بالمقالات».

وهذه بشرى للصحافيين الذين تراجعت أهمية عملهم مع توسُّع شبكات التواصل الاجتماعي، وعزوف القراء عن الصحف واستبدالها بمصادر معلومات وأخبار أخرى، قد تكون أقل مصداقية.

اقتراح تصحيح
اقتراح تصحيح
حربٌ عالميةٌ ثالثة قد تندلع بسبب تكنولوجيا «الفبركة العميقة».. سنبلغ نقطة اللاعودة في غضون عامين!