400 خبير ومشهور يطالبون بقوانين أكثر صرامة ضد مقاطع الفيديو بالذكاء الاصطناعي

الخميس، 22 فبراير 2024 07:00 م
400 خبير ومشهور يطالبون بقوانين أكثر صرامة ضد مقاطع الفيديو بالذكاء الاصطناعي Deepfakes - أرشيفية
كتبت أميرة شحاتة

مشاركة

اضف تعليقاً واقرأ تعليقات القراء
وقع أكثر من 400 من خبراء الذكاء الاصطناعي والمشاهير والسياسيين والناشطين على رسالة مفتوحة تطالب المشرعين باتخاذ إجراءات ضد تكنولوجيا التزييف العميق، وزعمت الرسالة أن العدد المتزايد من مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي يشكل تهديدًا للمجتمع بسبب تضمين الصور الجنسية والمواد الإباحية للأطفال والاحتيال والتضليل السياسي.
 
ووفقا لما ذكرته صحيفة "ديلى ميل" البريطانية، فإن تكنولوجيا التزييف العميق Deepfakes هي وسائط تم إنشاؤها بواسطة الذكاء الاصطناعي وتحاكي الأصوات والصور ومقاطع الفيديو البشرية التي يمكن الخلط بينها وبين أنها حقيقية.
 
تنص الرسالة على أن تقنية التزييف العميق تضلل الجمهور، مما يجعل من الصعب تمييز ما هو حقيقي على الإنترنت، وبالتالي، أصبح تنفيذ القوانين الرسمية أكثر أهمية من أي وقت مضى "لحماية قدرة البشر على التعرف على البشر الحقيقيين".
 
تأتي الدعوات إلى فرض لوائح أكثر صرامة بعد انتشار الصور الجنسية الصريحة والمزيفة لتايلور سويفت على وسائل التواصل الاجتماعي الشهر الماضي.
 
وقال أندرو كريتش، باحث الذكاء الاصطناعي في جامعة كاليفورنيا في بيركلي في قسم الهندسة الكهربائية وعلوم الكمبيوتر والباحث الرئيسي لأبحاث الذكاء الاصطناعي: "إن التزييف العميق يمثل تهديدًا كبيرًا للمجتمع البشري ويسبب بالفعل ضررًا متزايدًا للأفراد والمجتمعات وعمل الديمقراطية". 
 
وأضاف: "نحن بحاجة إلى اتخاذ إجراءات فورية لمكافحة انتشار التزييف العميق، وقد قمت أنا وزملائي بإنشاء هذه الرسالة كوسيلة للناس في جميع أنحاء العالم لإظهار دعمهم لجهود صنع القانون لوقف التزييف العميق."
 
أصبحت تقنية Deepfakes منتشرة جدًا في المجتمع، لدرجة أنه بين عامي 2022 و2023، زادت كمية المحتوى الجنسي المزيف بأكثر من 400%، بينما قفز الاحتيال بنسبة صادمة بلغت 3000% في ذلك الإطار الزمني.
 
وتدعو الرسالة إلى فرض حظر شامل على تكنولوجيا التزييف العميق، وتطالب المشرعين بتجريم استغلال الأطفال في المواد الإباحية بشكل كامل ووضع عقوبات جنائية على أي شخص يقوم بإنشاء مثل هذا المحتوى أو مشاركته عن عمد.
 
 
 









مشاركة

لا توجد تعليقات على الخبر
اضف تعليق

تم أضافة تعليقك سوف يظهر بعد المراجعة





الرجوع الى أعلى الصفحة