OpenAI

عاد المدير التنفيذي لشركة OpenAI، سام ألتمان ، إلى التصريح بأنه خائف من الذكاء الاصطناعي التوليدي الذي ساهم في تطويره وكان ألتمان يدلي بتصريحات عامة بشأن مخاوفه المتعلقة بمستقبل الذكاء الاصطناعي، والمخاوف بشأن المنافسين الذين قد يصنعون خوارزميات شريرة ومن ثم قرر التوقيع على خطاب مفتوح يحذر من تسبب الذكاء الاصطناعي في "انقراض" البشرية.

وقال سام التمان ، الرئيس التنفيذي لـ OpenAI ، وهو مختبر أبحاث غير هادف للربح يروج ويطور الذكاء الاصطناعي الودي ، إنه "خائف قليلاً" من الذكاء الاصطناعي التوليدي الذي طورته الشركة وفي مقابلة مع ABC News ، قال ألتمان إنه قلق بشأن إمكانية استخدام الذكاء الاصطناعي التوليدي لإنشاء محتوى ضار ، مثل التزييف العميق أو الدعاية.

وكما أعرب عن قلقه بشأن إمكانية استخدام الذكاء الاصطناعي التوليدي لإنشاء أنظمة أسلحة مستقلة وقال الرئيس التنفيذي لشركة OpenAI سام ألتمان ويعتبر احد مطوري ChatGPT : "أعتقد أنه إذا حدث خطأ في هذه التكنولوجيا ، فقد تسوء تمامًا ونريد أن نكون صريحين بشأن ذلك وتأتي تعليقات ألتمان في وقت يتزايد فيه القلق بشأن المخاطر المحتملة للذكاء الاصطناعي.

وفي السنوات الأخيرة ، كان هناك عدد من الحوادث البارزة التي تم فيها استخدام الذكاء الاصطناعي لإنشاء محتوى ضار ، مثل مقاطع الفيديو المزيفة التي تم استخدامها لنشر معلومات مضللة حول الانتخابات الرئاسية الأمريكية لعام 2020 وهناك أيضًا مخاوف بشأن إمكانية استخدام الذكاء الاصطناعي لإنشاء أنظمة أسلحة مستقلة وفي عام 2018 وقعت مجموعة من باحثي الذكاء الاصطناعي بما في ذلك ألتمان رسالة مفتوحة تدعو إلى حظر الأسلحة المستقلة.

وتعتبر تعليقات ألتمان بمثابة تذكير بالمخاطر المحتملة للذكاء الاصطناعي. في حين أن الذكاء الاصطناعي لديه القدرة على أن يكون مفيدًا للغاية ، إلا أنه من المحتمل أيضًا استخدامه لإحداث ضرر. من المهم أن تكون على دراية بهذه المخاطر وأن تتخذ خطوات للتخفيف منها.



إقراء إيضاً : النهاية المدمرة ... الأرض لن تحتمل 10 مليارات إنسان ... متابعة القراءة