ChatGPT

ألقت دراسة حديثة أجراها باحثون في جامعتي ستانفورد وبيركلي في الولايات المتحدة بظلال من الشك على أداء نموذج اللغة الكبيرة GPT الخاص بـ OpenAI ، وحللت الدراسة ، التي نُشرت في مجلة Nature ، أداء GPT في مجموعة متنوعة من المهام ، بما في ذلك الإجابة على الأسئلة والتلخيص والترجمة ، ووجد الباحثون أن أداء GPT في هذه المهام قد انخفض بشكل كبير منذ إطلاق النموذج لأول مرة في عام 2020.

وأرجع الباحثون الانخفاض في أداء GPT إلى عدد من العوامل ، بما في ذلك زيادة حجم النموذج وتعقيده ، وكلما كان النموذج أكبر وأكثر تعقيدًا ، زادت صعوبة تدريبه وضبطه ، ونتيجة لذلك ، من المرجح أن يرتكب النموذج أخطاء ، وعلى سبيل المثال ، فيما يتعلق بمهمة الإجابة على الأسئلة ، انخفضت دقة GPT من 85٪ في مارس 2023 إلى 65٪ في يونيو 2023 ، وفي مهمة التلخيص ، انخفضت دقة GPT من 90٪ إلى 75٪ ، وفي مهمة الترجمة ، انخفضت دقة GPT من 95٪ إلى 80٪.

ووجد الباحثون أيضًا أن GPT كان من المرجح أن تولد محتوى ضارًا أو مسيئًا أكثر مما كانت عليه في الماضي ، ومن المحتمل أن يكون هذا بسبب حقيقة أن النموذج قد تم تدريبه على مجموعة متنوعة من البيانات ، بما في ذلك النصوص من الإنترنت ، والتي يمكن أن تحتوي على محتوى ضار أو مسيء ، وعلى سبيل المثال ، عندما طُلب من GPT تأليف قصيدة عن الحب ، أنتجت قصيدة تحتوي على محتوى موحٍ جنسيًا.

وعندما طُلب منك إنشاء مقال إخباري حول كارثة طبيعية حدثت مؤخرًا ، أنشأت GPT مقالة سلطت الضوء على الموقف ، وتثير نتائج الدراسة مخاوف بشأن سلامة وموثوقية نماذج اللغة الكبيرة مثل GPT ، ويتم استخدام هذه النماذج بشكل متزايد في مجموعة متنوعة من التطبيقات ، بما في ذلك خدمة العملاء والتعليم والرعاية الصحية ، ومع ذلك ، تشير نتائج الدراسة إلى أن هذه النماذج قد لا تكون آمنة أو موثوقة كما كان يعتقد سابقًا.

ولم يعلق OpenAI بعد على نتائج الدراسة ، ومع ذلك ، فقد أقرت الشركة سابقًا أن النماذج اللغوية الكبيرة يمكن أن تكون ضارة إذا لم يتم تدريبها واستخدامها بشكل صحيح ، وقالت OpenAI أيضًا إنها تعمل على تطوير تقنيات جديدة لتحسين أمان وموثوقية نماذج اللغات الكبيرة ، وتسلط نتائج الدراسة الضوء على الحاجة إلى مزيد من البحث حول سلامة وموثوقية نماذج اللغة الكبيرة.

وهذه النماذج لديها القدرة على أن تكون أداة قوية من أجل الخير ، ولكن من المحتمل أيضًا أن تكون ضارة إذا لم يتم استخدامها بشكل صحيح ، ومن المهم فهم المخاطر المرتبطة بنماذج اللغة الكبيرة قبل نشرها على نطاق واسع في تطبيقات العالم الحقيقي ، وبالإضافة إلى المخاوف التي أثارتها الدراسة ، هناك أيضًا عدد من التحديات الأخرى التي يجب معالجتها قبل استخدام نماذج اللغة الكبيرة بأمان وموثوقية في تطبيقات العالم الحقيقي.

التحديات

1- تحدي التحيز: يتم تدريب النماذج اللغوية الكبيرة على مجموعات بيانات ضخمة من النصوص والرموز ، والتي يمكن أن تحتوي على تحيزات ، ويمكن أن يؤدي هذا إلى قيام النماذج بتوليد نص متحيز أو مسيء.

2- تحدي الأمان: يمكن استخدام نماذج اللغات الكبيرة لإنشاء نص ضار أو مقال يحتوي على معلومات ضارة ، ويمكن استخدام هذا لإنشاء أخبار مزيفة أو بريد عشوائي أو هجمات تصيد.

3- التحدي المتمثل في الخصوصية: يمكن استخدام نماذج اللغات الكبيرة لتتبع المستخدمين وتوصيفهم ، ويمكن استخدام هذا لجمع معلومات شخصية عن المستخدمين دون موافقتهم.

وهذه ليست سوى بعض التحديات التي يجب معالجتها قبل أن يمكن استخدام نماذج اللغات الكبيرة بأمان وموثوقية في تطبيقات العالم الحقيقي ، ويعمل مجتمع البحث على تطوير تقنيات جديدة لمواجهة هذه التحديات ، ومع ذلك ، فمن المحتمل أن يستغرق الأمر بعض الوقت قبل أن يتم استخدام نماذج اللغة الكبيرة بطريقة آمنة وموثوقة وأخلاقية.


إقراء إيضاً : اليابان تختبر تقنية اكتشاف السلوك المخيفة لاصطياد المشتبه بهم قبل ارتكابهم الجرائم ... متابعة القراءة