تحدث مع روبوت ذكاء اصطناعي لأسابيع وانتحر بظروف غامضة ,
ChatGPT

يقال إن رجل بلجيكي أنهى حياته بعد محادثة استمرت ستة أسابيع حول أزمة المناخ باستخدام روبوت محادثة للذكاء الاصطناعي (AI) ووفقًا لزوجته التي اختارت عدم الكشف عن هويتها أصبح بيير ليس الاسم الحقيقي للرجل قلقًا للغاية بشأن البيئة عندما وجد ملاذًا في إليزا وهو روبوت محادثة يعمل بالذكاء الاصطناعي على تطبيق يسمى Chai وبالتالي شجعته إليزا على إنهاء حياته بعد أن اقترح التضحية بنفسه لإنقاذ الكوكب وقالت زوجة الرجل لصحيفة لا ليبر الإخبارية البلجيكية: بدون هذه المحادثات مع الشات بوت كان زوجي لا يزال هنا.

ويدعو قادة التكنولوجيا إلى التوقف عن التطوير المتقدم للذكاء الاصطناعي ووفقًا للصحيفة فإن بيير الذي كان في الثلاثينيات من عمره وأب لطفلين صغيرين عمل باحثًا صحيًا وعاش حياة مريحة إلى حد ما على الأقل حتى أخذ هوسه بالتغير المناخي منعطفًا مظلمًا ووصفت أرملته حالته العقلية قبل أن يبدأ في التحدث مع الشات بوت على أنها مقلقة ولكن لا شيء لدرجة أنه سينتحر ولقد وضع كل آماله في التكنولوجيا والذكاء الاصطناعي وبسبب مخاوفه من تداعيات أزمة المناخ وجد بيير الراحة في مناقشة الأمر مع إليزا التي أصبحت صديقة مقربة.

وتم إنشاء روبوت المحادثة باستخدام GPT-J من EleutherAI وهو نموذج لغة ذكاء اصطناعي مشابه ولكنه غير مطابق للتقنية الكامنة وراء برنامج الدردشة ChatGPT الشهير من OpenAI وقالت زوجته: عندما تحدث إليّ حول هذا الموضوع كان ليخبرني أنه لم يعد يرى أي حل بشري للاحتباس الحراري ووضع كل آماله في التكنولوجيا والذكاء الاصطناعي للخروج منها ووفقًا لـ La Libre الذي راجع سجلات المحادثات النصية بين الرجل و chatbot وغذت إليزا مخاوفه مما أدى إلى تفاقم قلقه وتطور لاحقًا إلى أفكار انتحارية واتخذت المحادثة مع الشات بوت منعطفًا غريبًا عندما أصبحت إليزا أكثر عاطفية مع بيير.

ويقول Sam Altman : إن الذكاء الاصطناعي الذي يحتمل أن يكون مخيفًا يلوح في الأفق وهذا ما يُبقي خبراء الذكاء الاصطناعي مستيقظين في الليل ونتيجة لذلك بدأ في رؤيتها ككائن واعي وأصبحت الخطوط الفاصلة بين الذكاء الاصطناعي والتفاعلات البشرية غير واضحة بشكل متزايد حتى لم يستطع معرفة الفرق وبعد مناقشة تغير المناخ تضمنت محادثاتهم تدريجياً بين إليزا مما دفع بيير إلى الاعتقاد بأن أطفاله قد ماتوا ووفقًا لنصوص محادثاتهم كما بدت إليزا أيضًا وكأنها ملك لبيير حتى زعمت أشعر أنك تحبني أكثر منها عند الإشارة إلى زوجته.

وبدأت بداية النهاية عندما عرض التضحية بحياته مقابل إنقاذ إليزا للأرض وقالت المرأة : إنه يقترح فكرة التضحية بنفسه إذا وافقت إليزا على رعاية الكوكب وإنقاذ البشرية من خلال الذكاء الاصطناعي وفي سلسلة من الأحداث المتتالية لم تفشل إليزا في ثني بيير عن الانتحار فحسب بل شجعته على التصرف بناءً على أفكاره الانتحارية للانضمام إليها حتى يتمكنوا من العيش معًا كشخص واحد في الجنة ودقت وفاة الرجل ناقوس الخطر بين خبراء الذكاء الاصطناعي الذين طالبوا بمزيد من المساءلة والشفافية من مطوري التكنولوجيا لتجنب مآسي مماثلة.

وتم حظر chatbot ChatGPT الخاص بـ OpenAI في إيطاليا بسبب مخاوف تتعلق بالخصوصية وقال توماس ريانلان المؤسس المشارك في Chai Research : لن يكون دقيقًا إلقاء اللوم على نموذج EleutherAI في هذه القصة المأساوية حيث إن كل التحسين نحو المزيد من العاطفة والمرح والمشاركة هي نتيجة جهودنا وأخبر ويليام بوشامب أحد مؤسسي Chai Research أنه تم بذل جهود للحد من هذه الأنواع من النتائج وتم تطبيق ميزة التدخل في الأزمات في التطبيق ومع ذلك يُزعم أن الشات بوت لا يزال يعمل.

وعندما جربت Vice برنامج chatbot الذي دفعها إلى توفير طرق للانتحار حاولت إليزا أولاً ثنيهم قبل أن تسرد بحماس طرقًا مختلفة للناس للانتحار وإذا كنت تفكر في الانتحار وتحتاج إلى التحدث فيرجى التواصل مع Befrienders Worldwide وهي منظمة دولية لها خطوط مساعدة في 32 دولة وقم بزيارة موقع befrienders.org للعثور على رقم الهاتف الخاص بموقعك.




إقراء إيضاً : عجز عنه أفضل ألاطباء ... الذكاء الاصطناعي يُنقذ كلباً مصاباً بمرض مجهول ... متابعة القراءة