طور باحثون بوكالة العلوم الوطنية الأسترالية، مجموعة من التقنيات الأولى على المستوى العالمي تعمل كلقاح للخوارزميات لتحصينها بشكل فعال ضد الهجمات العدائية، وهو ما يعد تقدم مهم في أبحاث التعلم الآلي.
ووفقا لما ذكره موقع "phys" العلمى، تتعلم الخوارزميات من البيانات التي يتم تدريبها عليها لإنشاء نموذج للتعلم الآلي، ويمكن أن تؤدي مهمة معينة بفعالية دون الحاجة إلى تعليمات محددة، مثل عمل تنبؤات أو تصنيف الصور ورسائل البريد الإلكتروني بدقة.
وتُستخدم هذه التقنيات بالفعل على نطاق واسع، على سبيل المثال لتحديد رسائل البريد الإلكتروني العشوائي، وتشخيص الأمراض من الأشعة السينية، والتنبؤ بعائدات المحاصيل، وقيادة السيارات قريبًا.
وفي حين أن التكنولوجيا تمتلك إمكانيات هائلة لتحويل عالمنا بشكل إيجابي، إلا أن الذكاء الاصطناعي والتعلم الآلي معرضان للهجمات العدائية، وهي تقنية تستخدم لخداع نماذج التعلم الآلي من خلال إدخال بيانات ضارة تؤدي إلى تعطلها.
وقال الدكتور ريتشارد نوك ، قائد مجموعة التعلم الآلي، إنه من خلال إضافة طبقة من التشوش على صورة ما، يمكن للمهاجمين خداع نماذج تعلم الآلة في تصنيف الصورة بشكل خاطئ، والتي يمكن أن يكون لها آثار كارثية في العالم الحقيقي، مضيفا "تقنياتنا الجديدة تمنع الهجمات العدائية باستخدام عملية مشابهة للتطعيم".
وأضاف " أنه من خلال التعديلات الصغيرة أو التشويه لمجموعة من الصور، يتم إنشاء مجموعة بيانات تدريب أكثر صعوبة، فعندما يتم تدريب الخوارزمية على البيانات التي تتعرض لجرعة صغيرة من التشويه، تكون النتيجة نموذج أقوى وأكثر حصانة للهجمات.
وفي ورقة بحثية تم قبولها في المؤتمر الدولي للتعلم الآلي (ICML) لعام 2019، أظهر الباحثون أيضًا أن تقنيات التطعيم مبنية على أسوأ الأمثلة العدائية الممكنة، وبالتالي يمكنها مقاومة الهجمات القوية جدًا.
تم أضافة تعليقك سوف يظهر بعد المراجعة