ChatGPT

قد يكون هناك عائد كبير في الطريق لمستخدمي ChatGPT وكل ما عليهم فعله هو العثور على أخطاء خطيرة في نموذج لغة OpenAI الكبير ويمكن للقراصنة الأخلاقيين والمتحمسين للتكنولوجيا والباحثين في مجال السلامة والمبرمجين الحصول على مدفوعات غير متوقعة بفضل برنامج مكافآت الأخطاء OpenAI ومقره سان فرانسيسكو والذي سيدفع مبالغ محددة لكل ثغرة أمنية تم الإبلاغ عنها وبحد أدنى 200 دولار لكل حالة مرفوعة والتحقق من صحتها.

وهو جزء مما تسميه OpenAI التزامها بتأمين الذكاء الاصطناعي مع زيادة الضغط على المطورين لإيقاف تطوير برامج الروبوت المتقدمة من أجل إنشاء معايير أمان أفضل وعند الإعلان عن المخطط على مدونته أمس كتبت شركة OpenAI: نحن نستثمر بكثافة في البحث والهندسة لضمان أن ذكاءنا الاصطناعي يعمل بشكل كبير وأنظمة آمنة ومأمونة ومع ذلك كما هو الحال مع أي تقنية معقدة فإننا نفهم أن نقاط الضعف والعيوب يمكن أن تظهر ونعتقد أن الشفافية والتعاون أمران حاسمان لمعالجة هذا الواقع.

ويمكن للمتسللين الأخلاقيين البحث عن الأخطاء في مجموعة من وظائف وأطر OpenAI بما في ذلك تدفقات الاتصال التي تشارك البيانات من المؤسسة مع موفري الطرف الثالث ووفقًا لـ Bugcrowd الموقع حيث يمكن للمستخدمين الاشتراك في مشروع OpenAI's bounty تم تحديد 14 نقطة ضعف في وقت كتابة هذا التقرير بمتوسط دفع يصل إلى 1،287.50 دولارًا ويظهر تدفق الثغرات الأمنية والمدفوعات المقبولة أن معظم المكافآت تقع في فئة 200 دولار إلى 300 دولار ومع ذلك تم بالفعل توزيع مبلغ 6500 دولار.

وتقول المدونة إن البرنامج سيدفع 20 ألف دولار كحد أقصى مقابل الاكتشافات الاستثنائية ولكنه يقدم القليل من الوضوح فيما يتجاوز ذلك وهناك أيضًا تحول سريع في معالجة هذه المشكلات ومع تأكيد صحة الأخطاء التي تم وضع علامة عليها أو رفضها في غضون ساعتين من إثارة المشكلة وقد اشترك بالفعل أكثر من 500 شخص في البرنامج ويأمل الكثيرون في الحصول على قائمة قاعة الشهرة للمستخدمين الذين نجحوا في تحديد المشكلات الأكثر إلحاحًا.




إقراء إيضاً : عملاق التجارة الإلكترونية الصيني Alibaba يطلق روبوت جديد ينافس روبوت ChatGPT بشراسة ... متابعة القراءة