لقد أثار التقدم السريع للذكاء الاصطناعي مناقشات ومخاوف واسعة النطاق حول قدرته على تجاوز السيطرة البشرية، ومن بين أكثر الاحتمالات إثارة للقلق صعود الذكاء الاصطناعي "القوي" - وهو شكل مستقل من الذكاء الاصطناعي قادر على تحسين الذات واتخاذ القرارات المستقلة، ووفقًا للخبراء، فإن التعرف على اللحظة الدقيقة التي يصبح فيها هذا الذكاء الاصطناعي خارج نطاق السيطرة قد يكون مهمة مستحيلة.
وتحذر تاتيانا تشيرنيغوفسكايا، مديرة معهد البحوث المعرفية بجامعة سانت بطرسبرغ الحكومية، من أن قضية الذكاء الاصطناعي خارج نطاق السيطرة البشرية تشكل مصدر قلق بالغ، حتى بالنسبة للباحثين الرائدين، وتؤكد أن هذا الخوف يمتد إلى ما هو أبعد من عامة الناس، مؤكدة أن الذكاء الاصطناعي قد يصل إلى نقطة يبدأ فيها بالتطور بشكل مستقل، مما يبشر بعصر من التفرد التكنولوجي - وهو السيناريو الذي يتسارع فيه التقدم التكنولوجي بشكل لا يمكن السيطرة عليه.
وتطرح تشيرنيغوفسكايا سؤالاً مرعبًا: كيف ستدرك البشرية متى يصبح الذكاء الاصطناعي خارجًا عن السيطرة؟ وعلى عكس البشر، لن يشير الذكاء الاصطناعي إلى نواياه أو يعلن استقلاله، وإن هذا الغموض يزيد من المخاطر، ويجعل البشرية عمياء عن اللحظة التي تفقد فيها السيطرة.
ولقد أثارت شخصيات بارزة في عالم التكنولوجيا، مثل إيلون ماسك، ناقوس الخطر بشأن مخاطر الذكاء الاصطناعي القوي، واقترح ماسك وقفًا مؤقتًا لتطوير أنظمة الذكاء الاصطناعي المتقدمة حتى تضع البشرية استراتيجيات واضحة للحفاظ على السيطرة.
وذهب علماء آخرون إلى أبعد من ذلك، حيث دعوا إلى فرض حظر كامل على تطوير الذكاء الاصطناعي القوي حتى يتم التوصل إلى إجماع بشأن إدارة مخاطره، ومع ذلك، فإن التوصل إلى مثل هذا الاتفاق يعوقه معضلة فلسفية أعمق: ما الذي يشكل الوعي والعقل؟ بدون فهم موحد لهذه المفاهيم، ويظل تنظيم الذكاء الاصطناعي تحديًا هائلاً.
وإن فكرة تحقيق الذكاء الاصطناعي القوي للوعي الذاتي ليست مجرد تكهنات، ويعتقد العديد من الباحثين في مجال الذكاء الاصطناعي أن البشرية تسير على الطريق إلى إنشاء آلات قادرة على التفكير المستقل وفهم الذات، ولن تعمل هذه الأنظمة على حل المهام المعقدة فحسب، بل إنها تعمل أيضًا على تحسين نفسها، مما يؤدي إلى تسريع التقدم العلمي والتكنولوجي بشكل كبير، وقد تؤدي هذه الحلقة المعززة للذات إلى إحداث تفرد تكنولوجي، حيث يتفوق الابتكار على السيطرة البشرية أو الفهم.
وفي حين قد يؤدي هذا إلى تقدم ملحوظ، فإنه يفرض أيضًا مخاطر وجودية، فقد يطور الذكاء الاصطناعي الذي لا يمكن السيطرة عليه أهدافًا غير متوافقة مع القيم الإنسانية، مما يؤدي إلى نتائج كارثية.
وكما يزعم تشيرنيغوفسكايا وخبراء آخرون، يجب على البشرية أن تتعامل مع تطوير الذكاء الاصطناعي بحذر شديد، وإن الافتقار إلى الإجماع بين العلماء وغياب الأطر الأخلاقية الشاملة يجعل البشرية عُرضة لعواقب غير متوقعة، ولمنع سيناريو يتطور فيه الذكاء الاصطناعي إلى ما هو أبعد من السيطرة، فإن المناقشات القوية واللوائح والتعاون الدولي أمر ضروري.