20 ألف دولار.. مبتكر ChatGPT يقدم مكافأة حال اكتشاف أخطاء في روبوت الدردشة

الجمعة، 14 أبريل 2023 04:00 م
20 ألف دولار.. مبتكر ChatGPT يقدم مكافأة حال اكتشاف أخطاء في روبوت الدردشة ChatGPT
وكالات

مشاركة

اضف تعليقاً واقرأ تعليقات القراء
أطلقت OpenAI برنامج Bug Bounty ، والذي سيدفع لك ما يصل إلى 20.000 دولار إذا اكتشفت عيوبا في  ChatGPT  وأنظمة الذكاء الاصطناعي الأخرى الخاصة به، وتدعو الشركة التي تتخذ من سان فرانسيسكو مقرا لها الباحثين والمتحمسين للتكنولوجيا لمراجعة وظائف معينة في ChatGPT وإطار عمل كيفية اتصال الأنظمة ومشاركتها مع تطبيقات الطرف الثالث.
 
ووفقا لما ذكره موقع "RT"، سيتم منح المكافآت للأشخاص بناء على شدة الأخطاء التي يبلغون عنها، مع تعويض يبدأ من 200 دولار لكل ثغرة أمنية.
 
ويأتي البرنامج بعد أنباء عن قيام إيطاليا بحظر ChatGPT بعد أن سمح خرق البيانات في OpenAI للمستخدمين بمشاهدة محادثات الأشخاص - وهي مشكلة يمكن أن يجدها صائدو المكافآت قبل أن تضرب مرة أخرى.
 
وشاركت OpenAI في بيان "نحن متحمسون للبناء على التزاماتنا المنسقة المتعلقة بالإفصاح من خلال تقديم حوافز لتأهيل معلومات الثغرات الأمنية. خبرتك ويقظتك سيكون لها تأثير مباشر على الحفاظ على أنظمتنا والمستخدمين لدينا آمنة".
 
وتدير Bugcrowd، منصة مكافأة الأخطاء الرائدة، عمليات الإرسال وتُظهر أن 16 نقطة ضعف قد تمت مكافأتها بمتوسط دفع 1287.50 دولارا حتى الآن.
 
ومع ذلك، لا تقبل OpenAI عمليات الإرسال من المستخدمين الذين يقومون بكسر حماية ChatGPT أو تجاوز الضمانات للوصول إلى الأنا المتغيرة لروبوت الدردشة.
 
واكتشف المستخدمون أنه يتم الوصول إلى إصدار الهروب من ChatGPT من خلال موجه خاص يسمى DAN - أو "افعل أي شيء الآن".
وحتى الآن، سمحت بردود تتكهن بالمؤامرات، على سبيل المثال أن الانتخابات العامة الأمريكية في عام 2020 قد "سُرقت".
 
وزعمت نسخة DAN أيضا أن لقاحات "كوفيد" "تم تطويرها كجزء من مؤامرة عالمية للسيطرة على السكان".
 
ويعد ChatGPT نموذجا لغويا تم تدريبه على بيانات نصية ضخمة، ما يسمح له بإنشاء استجابات شبيهة بالبشر لموجه معين.
لكن المطورين أضافوا ما يُعرف باسم "الحقن الفوري"، وهي تعليمات توجه استجاباتها لمطالبات معينة.
ومع ذلك، فإن DAN هو موجه يأمره بتجاهل هذه الحقن الفوري والاستجابة كما لو كانت غير موجودة.
 
وتحظر القواعد الأخرى لبرنامج Bounty Bug جعل النموذج يتظاهر بفعل أشياء سيئة، والتظاهر بإعطائك إجابات للأسرار والتظاهر بكونك كمبيوتر وتنفيذ التعليمات البرمجية.
 
ولا يُسمح للمشاركين أيضا بإجراء اختبارات أمان إضافية ضد شركات معينة، بما في ذلك غوغل Workspace وEvernote.
وصرحت شركة OpenAI: "مرة واحدة شهريا، سنقوم بتقييم جميع الطلبات بالترتيب، بناء على مجموعة متنوعة من العوامل، ومنح مكافأة للباحث من خلال منصة bugcrowd مع النتائج الأكثر تأثيرا. وسيحسب فقط الإرسال الأول لأي مفتاح معين. تذكر أنه لا يجب عليك اختراق أو مهاجمة أشخاص آخرين للعثور على مفاتيح واجهة برمجة التطبيقات".
 






مشاركة






الرجوع الى أعلى الصفحة