هل يمكن للذكاء الاصطناعي أن يقوم بتطوير أسلحة بيولوجية مميتة؟
يعتبر الذكاء الاصطناعي (AI) اليوم من أبرز أدوات التقدم العالمي، وقد أصبح جزءًا أساسيًا من التطورات العلمية الحديثة. وعلى الرغم من الفوائد الكبيرة التي يقدمها في مجالات متعددة مثل الطب والتعليم والصناعة، فإن قدراته الكبيرة تحمل أيضًا مخاطر خطيرة، خاصة في مجالات الأمن الحيوي وتصنيع الأسلحة البيولوجية.
كيف يمكن أن يشكل الذكاء الاصطناعي تهديدًا في مجال تصنيع الأسلحة البيولوجية؟
يعتبر الذكاء الاصطناعي، وبالأخص النماذج اللغوية الكبيرة، أداة قد تسهم في تسريع تطوير أسلحة بيولوجية بطرق غير مسبوقة. على سبيل المثال، أظهرت دراسة أجراها معهد ماساتشوستس للتكنولوجيا إمكانية استخدام نماذج الذكاء الاصطناعي في تصميم فيروسات قاتلة قادرة على التسبب في أوبئة. تستطيع هذه النماذج تحديد طفرات جينية معينة لتعزيز قدرة الفيروسات على الانتشار، كما تقدم معلومات دقيقة حول كيفية تصنيعها في المختبر.
الأمر الأكثر إثارة للقلق هو أن هذه النماذج قادرة على تقديم توجيهات تساعد الأفراد غير المتخصصين في التغلب على العقبات، مما يزيد من احتمالية استخدامها من قبل جماعات ضارة أو إرهابية. ومن هنا، يظهر القلق من استغلال هذه التكنولوجيا المتطورة لأغراض سلبية.
حادثة أجهزة البيجر في لبنان تُعتبر مثالًا على استغلال التكنولوجيا لأغراض مدمرة. في واقعة حديثة، تم استخدام أجهزة الاتصال مثل “بيجر” و”ووكي توكي” كأجهزة تفجير موقوتة، حيث انفجرت ثلاثة آلاف جهاز في وقت واحد بعد تلقيها رسالة مشفرة، مما أسفر عن وقوع عشرات القتلى والجرحى. تُبرز هذه الحادثة كيف يمكن توظيف التكنولوجيا المتقدمة بطرق غير تقليدية ومدمرة، مما يزيد من المخاوف بشأن إمكانية استخدام الذكاء الاصطناعي في تطوير أسلحة بيولوجية أو كيميائية بطرق معقدة وغير متوقعة.
إذا كانت هذه الجماعات قد استطاعت استخدام وسائل الاتصال الحديثة كأسلحة فتاكة، فما الذي سيحدث إذا تمكنت من استغلال الذكاء الاصطناعي لتطوير أسلحة بيولوجية؟ كما شهدت اليابان في التسعينيات مع جماعة «أوم شينريكيو» التي حاولت استخدام سلاح بيولوجي قاتل في هجماتها. ورغم أنها لم تنجح حينها بسبب نقص المعرفة العلمية، إلا أن التقدم في الذكاء الاصطناعي اليوم يتيح لأي جماعة تمتلك الوصول إلى هذه الأدوات تطوير أسلحة مدمرة بكفاءة وسرعة أكبر.
كيف يمكن للذكاء الاصطناعي أن يعزز جهود تطوير الأسلحة البيولوجية؟
يؤكد خبير التكنولوجيا حسام الدين صدقي في حديثه لـ “المصري اليوم” أن التطورات الأخيرة في نماذج الذكاء الاصطناعي، مثل نموذج (o1) الذي أطلقته شركة OpenAI، أثارت مخاوف كبيرة بشأن قدرتها على تسهيل تطوير الأسلحة البيولوجية. تتمتع هذه النماذج بقدرات غير مسبوقة في التفكير وحل المشكلات المعقدة، بالإضافة إلى تقديم خطط عملية لإعادة إنتاج عوامل بيولوجية خطيرة. وقد أظهرت التقارير أن هذه النماذج يمكن أن تساعد الخبراء في مجال الهندسة البيولوجية على تطوير أسلحة مدمرة من خلال توفير المعلومات الأساسية اللازمة لتنفيذ هجمات بيولوجية، بدءًا من تحديد الفيروسات والبكتيريا وصولاً إلى طرق توزيعها.
على الرغم من أن تنفيذ مثل هذه الهجمات يتطلب خبرات عملية، إلا أن قدرة الذكاء الاصطناعي على توليد هذه الخطط تجعل منه أداة خطيرة إذا وقعت في الأيدي الخاطئة.
الربط بين حادثة البيجر والتطورات الحديثة في الذكاء الاصطناعي
تمثل حادثة تفجيرات أجهزة البيجر في لبنان تحذيرًا من أن التكنولوجيا الحديثة يمكن أن تُستغل بطرق غير تقليدية لتحقيق أهداف تدميرية. وقد أشار «صدقي» إلى مخاطر استخدام التكنولوجيا على حياة البشر، موضحًا أنه رغم أن تلك الحادثة اعتمدت على تقنية بسيطة نسبيًا، فإن الذكاء الاصطناعي يمكن أن يرفع هذا التهديد إلى مستويات أكثر خطورة.
وأضاف: إذا تخيلنا سيناريو يتضمن استخدام نماذج الذكاء الاصطناعي لتصميم فيروسات معدلة وراثيًا أو بكتيريا مقاومة للعلاج، فإن هذا السيناريو يتجاوز بكثير حادثة البيجر. فقد تكون نتائج هذا الاستخدام أكثر فتكًا وتأثيرًا على مستوى عالمي.
إن هذه الأنواع من الأسلحة لا تقتصر على منطقة معينة، بل يمكن أن تنتشر بسرعة وتؤدي إلى تفشي أوبئة على مستوى العالم.
هل يمكن تقليل المخاطر؟
وفيما يتعلق بالمخاطر، يشير الخبير التكنولوجي إلى أن مواجهة التهديد المتزايد الناتج عن تطور التكنولوجيا تتطلب تعزيز التعاون الدولي وتحديث التشريعات لتنظيم تطوير واستخدام الذكاء الاصطناعي في مجالات البيولوجيا. كما ينبغي على الحكومات والشركات العمل على تطوير أنظمة ذكاء اصطناعي دفاعية قادرة على الكشف عن أي تهديدات جديدة ومتابعتها.
وأضاف “صدقي” أنه من الضروري أيضًا تعزيز الرقابة على سلسلة توريد المواد الجينية، والتأكد من أن طلبات توليف الجينات تخضع لفحص دقيق. فالتقدم في تقنيات التوليف الجيني يتيح إمكانية تصنيع فيروسات وبكتيريا معدلة وراثيًا بخصائص جديدة وخطيرة، مما يزيد من مخاطر الهجمات البيولوجية إذا لم يتم تنظيم هذه العمليات بشكل صارم.
كما أشار إلى أن الذكاء الاصطناعي، على الرغم من كونه يمثل تقدمًا كبيرًا في مجال التكنولوجيا الحديثة، إلا أنه يواجه أيضًا تحديات جسيمة تتعلق بالأمن البيولوجي. فالحوادث مثل تفجيرات البيجر في لبنان وهجمات جماعة “أوم شينريكيو” في اليابان تقدم دروسًا واضحة حول كيفية استغلال التكنولوجيا لأغراض مدمرة. ومع تزايد قدرات الذكاء الاصطناعي، يصبح من الضروري اتخاذ خطوات جادة لتطوير إجراءات صارمة تمنع استخدام هذه التكنولوجيا بطرق تهدد الأمن العالمي.