أصدرت Apple هذا الأسبوع iOS 15.2 مع مجموعة من الميزات الجديدة، بما في ذلك ميزة أمان الاتصال لتطبيق الرسائل التى تركز على حماية الطفل، ومع ذلك لم تقم الشركة بتضمين ميزة مسح مواد الاعتداء الجنسي على الأطفال المثيرة للجدل على iCloud Photos ويبدو أنها ألغت كل ذكر لوجودها، وفقا لتقرير digitaltrendالتقنى.
وعلى سبيل الملخص، كان المقصود من iOS 15.2 في الأصل أن يأتي مع ميزة اكتشاف مواد الاعتداء الجنسي على الأطفال (CSAM)، وكان من المفترض أن يطبق التحديث ميزة مسح ضوئى على الجهاز تهدف إلى مسح مكتبة صور المستخدم على iCloud لمواد CSAM.
وأشارت الشركة إلى أنها ستفعل ذلك على الجهاز لتحقيق أقصى قدر من الخصوصية، واعترض خبراء الخصوصية، مشيرين إلى أن مفهوم فحص مكتبة صور المستخدم بحثًا عن مواد محظورة كان انتهاكًا للخصوصية في حد ذاته، ويمكن أن يتوسع ليشمل مواد أخرى بمجرد تحديد السابقة.
وفي السابق، أعلنا عن خطط لميزات تهدف إلى المساعدة في حماية الأطفال من المحتالين الذين يستخدمون أدوات الاتصال لتجنيدهم واستغلالهم وللمساعدة في الحد من انتشار مواد الاعتداء الجنسي على الأطفال، واستنادًا إلى التعليقات الواردة من العملاء ومجموعات المناصرة والباحثين وغيرهم، قررنا تخصيص وقت إضافى خلال الأشهر المقبلة لجمع المدخلات وإجراء التحسينات قبل إصدار ميزات سلامة الأطفال بالغة الأهمية "، وقالت شركة Apple في ملاحظة أضافتها سابقًا إلى في الصفحة سلامة الطفل الأصلي .
كما رصدته MacRumors ، حذفت الشركة منذ ذلك الحين هذا الجزء من الصفحة وأي ذكر لميزة مسح الصور على iCloud، ولقد تواصلنا مع Apple للحصول على توضيح بشأن هذه النقطة.
وقامت Apple أيضًا بإجراء بعض التغييرات الطفيفة على أمان الاتصال في ميزة الرسائل الخاصة بها، بدلاً من إخطار الوالدين تلقائيًا إذا اختار الطفل الذي يقل عمره عن 18 عامًا عرض أو إرسال صورة عارية عبر تطبيق الرسائل، فقد سحبت الشركة الآن مطلب الإخطار ردًا على التعليقات الواردة من الخبراء.
وبدلاً من ذلك، سيتم الآن تحذير كل شخص دون سن 18 عامًا من أن الصورة قد تحتوي على مواد حساسة، وسيتلقى شرحًا لماهية الصور الحساسة وكيف يمكن استخدامها لإحداث ضرر، بدلاً من تحديد طبيعة الصورة الصريحة نفسها.
تم أضافة تعليقك سوف يظهر بعد المراجعة