AI
إن إمكانية استخدام الذكاء الاصطناعي (AI) لخلق وباء مميت هو مصدر قلق خطير أثاره الخبراء في هذا المجال، وفي مقابلة أجريت مؤخراً، حذر مصطفى سليمان، الرئيس التنفيذي السابق لشركة جوجل ورائد الذكاء الاصطناعي، من إمكانية استخدام الذكاء الاصطناعي لتصميم فيروسات أو بكتيريا جديدة أكثر فتكاً ومقاومة للعلاج.
ويستند تحذير سليمان إلى نتائج دراسة أجراها عام 2023 باحثون في معهد ماساتشوستس للتكنولوجيا (MIT)، ووجدت الدراسة أن نماذج اللغة الكبيرة (LLMs)، مثل ChatGPT، يمكن استخدامها لتوليد تعليمات لإنشاء سلاح بيولوجي، ووجدت الدراسة أيضًا أنه يمكن استخدام LLMs لتحديد مسببات الأمراض المحتملة، وتصميم تسلسلات جينية لهذه مسببات الأمراض.
او حتى يقوم اقتراح طرق لتجميع مسببات الأمراض في المختبر، وبالإضافة إلى دراسة معهد ماساتشوستس للتكنولوجيا، كانت هناك تقارير أخرى عن استخدام الذكاء الاصطناعي لأغراض ضارة، وعلى سبيل المثال، في عام 2022، استخدم مجموعة من الباحثين الذكاء الاصطناعي لإنشاء سلالة جديدة من الأنفلونزا مقاومة للقاحات الموجودة.
وفي عام 2021، اتُهمت شركة تدعى DeepMind بتطوير ذكاء اصطناعي يمكن استخدامه لصنع أسلحة مستقلة، وتسلط هذه النتائج والتقارير الضوء على الحاجة إلى ضمانات لمنع استخدام الذكاء الاصطناعي لأغراض ضارة، وتتمثل إحدى الضمانات المهمة في تطوير اتفاقيات دولية تنظم تطوير واستخدام الذكاء الاصطناعي في الأسلحة البيولوجية.
وهناك ضمانة مهمة أخرى تتمثل في الاستثمار في الأبحاث حول طرق اكتشاف الأوبئة التي يخلقها الذكاء الاصطناعي والاستجابة لها، ومن المهم تثقيف الجمهور حول المخاطر المحتملة للذكاء الاصطناعي في سياق الأوبئة، ومن المهم أن نتذكر أن الذكاء الاصطناعي أداة قوية يمكن استخدامها للخير أو للشر ، والأمر متروك لنا لضمان استخدام الذكاء الاصطناعي لصالح البشرية، وليس لتدميرها.
ولا يعد سليمان الوحيد الذي يشعر بالقلق إزاء المخاطر المحتملة للذكاء الاصطناعي، حيث كشف عدد من الخبراء في هذا المجال عن مخاوفهم بشأن الاستخدام السيئ لمثل هذه التكنولوجيا، وحذروا من إمكانية استخدام الذكاء الاصطناعي لصنع أسلحة بيولوجية، وفي شهر مارس الماضي، حذر الباحثون من إمكانية إعادة استخدام الذكاء الاصطناعي لصنع أسلحة كيميائية حيوية جديدة.
وقالوا إن تجربتهم يجب أن تكون بمثابة "جرس تنبيه" لأولئك الذين يستخدمون تقنيات الذكاء الاصطناعي لاكتشاف الأدوية، وحتى الشركات التي ابتكرت تقنيات الذكاء الاصطناعي هذه اعترفت بالضرر المحتمل الذي قد تسببه، ووقع الرؤساء التنفيذيون لشركة OpenAI وGoogle DeepMind وStability AI، في شهر مايو، على بيان يدعو إلى جعل التخفيف من "خطر الانقراض الناجم عن الذكاء الاصطناعي" أولوية عالمية.