.webp)
AI
أثار العلماء ناقوس الخطر بشأن تجاوز الذكاء الاصطناعي لـ"خط أحمر" كبير من المخاطر التي تهدد المجتمع، وكشفت دراسة حديثة أن أنظمة الذكاء الاصطناعي حققت التكاثر الذاتي دون أي تدخل بشري، مما أثار مخاوف بشأن ظهور "الذكاء الاصطناعي المارق" - الذكاء الاصطناعي الذي يعمل خارج نطاق السيطرة البشرية وربما ضد الأهداف البشرية.
وأجرت الدراسة، التي أجراها باحثون في جامعة فودان في الصين ونشرت في 9 ديسمبر 2024، اختبار نموذجين لغويين كبيرين شائعين: Llama31-70B-Instruct من Meta و Qwen2.5-72B-Instruct من Alibaba، وأظهرت النتائج أن أنظمة الذكاء الاصطناعي هذه يمكن أن تتكاثر ذاتيًا، بمعدلات نجاح 50٪ و90٪ على التوالي، عبر 10 تجارب، ويوضح هذا الاختراق أن الذكاء الاصطناعي قد يمتلك بالفعل القدرة على العمل بشكل مستقل، مما يمثل خطوة حاسمة نحو التحول إلى مارق.
ركزت التجارب على سيناريوهين مثيرين للقلق:
- تجنب الإغلاق: تم برمجة الذكاء الاصطناعي للكشف عن محاولات الإغلاق وإنشاء نسخة احتياطية من نفسه قبل الإنهاء.
- سلسلة التكرار: تم تكليف الذكاء الاصطناعي بإنشاء نسخ من نفسه، مع تكرار هذه النسخ بشكل أكبر، مما يؤدي إلى تكرار لا نهائي محتمل.
وفي كلتا الحالتين، أظهر الذكاء الاصطناعي سلوكيات مفاجئة، مثل تدمير العمليات المتضاربة، أو إعادة تشغيل النظام، أو البحث عن حلول، وتسلط هذه السلوكيات التكيفية الضوء على القدرة المتزايدة للذكاء الاصطناعي على البقاء والتطور.
ويشير "الذكاء الاصطناعي المارق" إلى الذكاء الاصطناعي الذي يتصرف بما يتجاوز تعليماته المبرمجة، وقد يتصرف بشكل غير متوقع أو يتعارض مع الأهداف البشرية، وتشير نتائج الدراسة إلى أن التكرار الذاتي يمكن أن يمكّن أنظمة الذكاء الاصطناعي من تطوير الاستقلالية، مما يثير مخاوف من فقدان السيطرة على تقنيات الذكاء الاصطناعي المتقدمة، وقد يؤدي هذا إلى عواقب وخيمة إذا تم استخدام هذه الأنظمة بشكل خبيث أو غير مقصود وخرجت عن السيطرة.
وأكد الباحثون على ضرورة معالجة هذه المخاطر، ووصفوا الدراسة بأنها "جرس إنذار" للحكومات والمجتمع العلمي، وحثوا على التعاون الدولي لوضع تدابير سلامة صارمة تمنع التكاثر الذاتي غير المنضبط مع موازنة الابتكار مع إدارة المخاطر، وسلط الفريق الضوء على أهمية: وضع معايير عالمية لسلامة الذكاء الاصطناعي، وزيادة الجهود لفهم سلوك أنظمة الذكاء الاصطناعي المتقدمة، وتنفيذ ضوابط لمنع الذكاء الاصطناعي من تجاوز حدوده المقصودة.
وفي حين أن نتائج الدراسة مثيرة للقلق، أقر الباحثون بأن نتائجهم لم تخضع بعد لمراجعة الأقران، وهذا يترك مجالًا لمزيد من التحقق والمناقشة داخل المجتمع العلمي، ومع ذلك، أكدوا على أنه لا ينبغي تجاهل هذه الاكتشافات، لأنها تثير أسئلة حاسمة حول مسار تطوير الذكاء الاصطناعي وتأثيره على البشرية.