حذر الباحثون من أن البشر غير قادرين على اكتشاف أكثر من ربع عينات الكلام الناتجة عن الذكاء الاصطناعي، فإنهم يواجهون صعوبة في معرفة Deepfakes هي مقاطع فيديو مزيفة أو مقاطع صوتية تهدف إلى تشابه صوت أو مظهر شخص حقيقي.
وفقا لما ذكرته صحيفة "ديلى ميل" البريطانية، هناك مخاوف متزايدة من استخدام هذا النوع من التكنولوجيا من جانب المجرمين والمحتالين لخداع الناس من أجل الحصول على المال.
واكتشف العلماء أنه لا يمكن للناس معرفة الفرق بين الكلام الحقيقي والمزيف العميق إلا بنسبة 73% من الوقت، وفي حين أن خطاب التزييف العميق المبكر قد يتطلب آلاف العينات من صوت الشخص لتتمكن من إنشاء صوت أصلي، يمكن لأحدث الخوارزميات إعادة إنشاء صوت الشخص باستخدام مقطع مدته ثلاث ثوانٍ فقط من حديثه.
استخدم فريق من كلية لندن الجامعية خوارزمية لتوليد 50 عينة من الكلام المزيف العميق وتشغيلها لـ 529 مشاركًا.
كانوا قادرين فقط على تحديد الكلام المزيف في حوالي ثلاثة أرباع الوقت، والذي تحسن بشكل طفيف فقط بعد أن تلقوا تدريبًا للتعرف على جوانب الكلام المزيف.
قال كيمبرلي ماي، الباحث الأول للدراسة: "تؤكد نتائجنا أن البشر غير قادرين على اكتشاف الكلام المزيف بشكل موثوق، سواء تلقوا تدريبًا لمساعدتهم على اكتشاف المحتوى الاصطناعي أم لا".
وأضاف ماى، "تجدر الإشارة أيضًا إلى أن العينات التي استخدمناها في هذه الدراسة تم إنشاؤها باستخدام خوارزميات قديمة نسبيًا، مما يثير التساؤل عما إذا كان البشر سيكونون أقل قدرة على اكتشاف الكلام المزيف العميق الذي تم إنشاؤه باستخدام أكثر التقنيات تطوراً المتاحة الآن وفي المستقبل".
تم أضافة تعليقك سوف يظهر بعد المراجعة