مع اقتراب انتخابات الرئاسة الأمريكية المقررة فى عام 2020، يشعر القادة السياسيون فى الولايات المتحدة والمرشحون وأيضا مسئولى الاستخبارات الأمريكية، بالقلق إزاء استخدام مقاطع الفيديو المفبركة لتضليل الناخبين، بحسب ما ذكرت شبكة "سى إن إن" فى تقرير لها.
وفى ظل انتشار مقاطع الفيديو المركبة بدقة عالية لتبدو حقيقية، والتى يطلق عليها اسم deep fake، بدا أحد الخبراء فى تحديد الأدوات التى تساعد على اكتشاف مثل هذه الفيديو هات المفبركة لشخصيات سياسية مثل دونالد ترامب وتيريزا ماى وجاستن ترودو وأيضا المرشحين فى انتخابات الرئاسة الأمريكية، ويمكن أن تساعد هذه الأدوات فى مكافحة الجيل القادم من التضليل حيث يمكن أن يلعب الذكاء الاصطناعى دورا بارزا بشكل متزايد.
وتعتمد هذه التقنية على مجموعة من الصور والفيديوهات الخاصة بالشخص المستهدف، وتشمل كل حركات الوجه تقريبا وانفعالاته من غضب وفرح وصمت وسعادة وغيرها، وتقوم التقنية بدراسة كل تلك الصور وإسقاط وجه الشخصية على أى وجه شخص آخر يمثل مشهد ما ليتم تصويره ثم تمرير لبرمجية الـ Deep Fake التى تقوم بتلفيق ومحاكاة وجه الشخص المستهدف على الفيديو ليبدو أنه هو من قال وفعل كل ما قام به ممثل المشهد، كل هذا بتقنية عالية الجودة يصعب اكتشافها.
وعلى الرغم من أن مقاطع الفيديو الـ deep fake لم تنتشر بعد، إلا أن الحكومة الأمريكية قلقة من أن خصومها الأجانب يمكن استخدامها فى محاولاتهم للتدخل فى انتخابات 2020.
وفى تقييم للتهديدات العالمية فى يناير الماضى، حذر مدير الاستخبارات الوطنية الأمريكية دان كوتس من أن هذه الفيديوهات المفبركة ستكون على الأرجح من بين الوسائل التى يستخدمها الناس لتعطيل الانتخابات؛ ومن المقرر أن تعقد لجنة الاستخبارات بمجلس النواب الأمريكى أول جلسة لها على الإطلاق لمناقشة التهديدات المحتملة التى تمثلها تقنية deep fake.
وفى محاولة لمنع انتشار التضليل المعلوماتى المرتبط بتقنية "ديب فيك"، يطور هانى فريد الخبير فى تشريح الصور فى كلية دارتماوث برنامجا يمكن أن يوقف الفيديوهات السياسية المفبركة بدقة كبيرة وربما التأكد من صحة الفيديوهات الحقيقية التى يصفها البعض بأنها مزيفة أيضا.
ويقول فريد إنه يشعر بالقلق من أن مقاطع الفيديو المزيفة قد تتسبب فى ضرر للمواطنين وللدول الديمقراطية.
ويعمل فريد ومعه طالب دراسات عليا على تطوير ما يعرف باسم البيومترية الناعمة، وهى وسيلة لتمييز شخص واحد عن النسخ المزيفة منه.
ويستكشف الباحثون هذا من خلال استخدام أدوات آلية لسحب مقاطع فيديو أصلية من يوتيوب لأشخاص مثل الرئيس ترامب أو سابقه الرئيس باراك أوباما، ويبحثون عن علاقات بين حركات الرأس ونمط الكلام وتعبيرات الوجه. ويقول فريد إنه على سبيل المثال عندما ينقل أوباما أخبارا سيئة يكون عابسا ويميل إلى خفض رأسه للأمام، بينما يميل لرفع رأسه عندما ينقل أخبار سعيدة. وتستخدم هذه الارتباطات لبناء نموذج لفرد مثل أوباما، وبالتالى عندما ينتشر فيديو له يمكن استخدام هذا النموذج لتحديد ما إذا كان حركات الرأس وأنماط الكلام تتوافق مع ما يقوم به الرئيس السابق فى المعتاد.
تأتى هذه المحاولة بعدما أعرب عدد متزايد من نواب الكونجرس عن قلقهم من أن تقنيات الـ Deep Fake ستكون المحطة القادمة من حرب المعلومات.
وبناء على ذلك، فوضت وزارة الدفاع الأمريكية من خلال وكالة مشروعات الأبحاث الدفاعية المتقدمة باحثين فى مختلف أنحاء الولايات المتحدة لتطوير السبل اللزمة لتحديد هذه النوعية من الفيديوهات المضللة.
وفى أكتوبر الماضى، نشر مجلس العلاقات الخارجية الأمريكى تقرير عن هذه التقنية، قال فيه إن هناك صعوبة حالية فى التعامل مع هذه المشكلة، فلا يوجد خيار لوقف التقدم التكنولوجى الذى يجعل مثل هذه البرمجيات متاحة، إلا أن تقرير مجلس العلاقات الخارجية يقول إن هذه المشكلة التى سببتها التكنولوجيا يمكن معالجتها لحلول تكنولوجية باستخدام تقنيات عالية الجودة للكشف عن المواد المزيفة العميقة؛ لكن تظل هذه الحلول بحاجة إلى اعتمادها من قبل وسائل الإعلام التقليدية والاجتماعية، التى تساعد بالأساس على انتشار مثل هذه المواد.
تم أضافة تعليقك سوف يظهر بعد المراجعة