دراسة توضح صعوبة اكتشاف تقنية الذكاء الاصطناعى Deepfake عن الحقيقة

الجمعة، 04 أغسطس 2023 08:00 ص
دراسة توضح صعوبة اكتشاف تقنية الذكاء الاصطناعى Deepfake عن الحقيقة تقنية الـDeepfake
كتبت أميرة شحاتة

مشاركة

اضف تعليقاً واقرأ تعليقات القراء
حذر الباحثون من أن البشر غير قادرين على اكتشاف أكثر من ربع عينات الكلام الناتجة عن الذكاء الاصطناعي، فإنهم يواجهون صعوبة في معرفة Deepfakes هي مقاطع فيديو مزيفة أو مقاطع صوتية تهدف إلى تشابه صوت أو مظهر شخص حقيقي.
 
وفقا لما ذكرته صحيفة "ديلى ميل" البريطانية، هناك مخاوف متزايدة من استخدام هذا النوع من التكنولوجيا من جانب المجرمين والمحتالين لخداع الناس من أجل الحصول على المال.
 
واكتشف العلماء أنه لا يمكن للناس معرفة الفرق بين الكلام الحقيقي والمزيف العميق إلا بنسبة 73% من الوقت، وفي حين أن خطاب التزييف العميق المبكر قد يتطلب آلاف العينات من صوت الشخص لتتمكن من إنشاء صوت أصلي، يمكن لأحدث الخوارزميات إعادة إنشاء صوت الشخص باستخدام مقطع مدته ثلاث ثوانٍ فقط من حديثه.
 
استخدم فريق من كلية لندن الجامعية خوارزمية لتوليد 50 عينة من الكلام المزيف العميق وتشغيلها لـ 529 مشاركًا.
 
كانوا قادرين فقط على تحديد الكلام المزيف في حوالي ثلاثة أرباع الوقت، والذي تحسن بشكل طفيف فقط بعد أن تلقوا تدريبًا للتعرف على جوانب الكلام المزيف.
 
قال كيمبرلي ماي، الباحث الأول للدراسة: "تؤكد نتائجنا أن البشر غير قادرين على اكتشاف الكلام المزيف بشكل موثوق، سواء تلقوا تدريبًا لمساعدتهم على اكتشاف المحتوى الاصطناعي أم لا".
 
وأضاف ماى، "تجدر الإشارة أيضًا إلى أن العينات التي استخدمناها في هذه الدراسة تم إنشاؤها باستخدام خوارزميات قديمة نسبيًا، مما يثير التساؤل عما إذا كان البشر سيكونون أقل قدرة على اكتشاف الكلام المزيف العميق الذي تم إنشاؤه باستخدام أكثر التقنيات تطوراً المتاحة الآن وفي المستقبل".









مشاركة

اضف تعليقاً واقرأ تعليقات القراء
لا توجد تعليقات على الخبر
اضف تعليق

تم أضافة تعليقك سوف يظهر بعد المراجعة





الرجوع الى أعلى الصفحة