الذكاء الاصطناعي في المجال النووي سلاح ذو حدين

يواصل الذكاء الاصطناعي تحقيق التطورات الإيجابية التي نلمسها في جميع المجالات الطبية والتقنية وحتى في إدارة الكوارث والمناخ، إلا أن البشرية وعلى رأسها الخبراء في المجال يزدادون تخوفا من الأيادي الخبيثة إذا ما دخل الذكاء الاصطناعي المجال النووي وكذلك من الأخطاء الواردة.
سان فرانسيسكو (الولايات المتحدة) - تفتح تكنولوجيات الذكاء الاصطناعي الأبواب لتقدُّم وابتكار لم يسبق لهما مثيل، وتساهم في تحويل الصناعات وتبسيط الإجراءات، وقد تؤثِّر حتى في الطريقة التي نعيش بها حياتنا.
ولن يكون القطاع النووي مستثنى من التحولات حيث من المرجَّح أن تبرُز فوائد الذكاء الاصطناعي في الكثير من الإجراءات والعمليات في المرافق النووية والإشعاعية، لكن الخبراء وعلى رأسهم مؤسس أوبن أي.آي إيلون ماسك يحذرون من احتمال أن تؤدي التكنولوجيا إلى انقراض البشرية.
وقال الأمين العام للأمم المتحدة أنطونيو غوتيريش في وقت سابق إن العلماء والخبراء دعوا إلى التحرك، وأعلنوا أن الذكاء الاصطناعي تهديد وجودي للبشرية لا يقل عن الحرب النووية، مؤكدا “يجب أن نأخذ تلك التحذيرات بجدية بالغة”.
ويرى الخبراء أن التقدم السريع في مجال الذكاء الاصطناعي يحمل معه أيضاً في الوقت ذاته العديد من المخاطر، فالجهات الفاعلة الخبيثة يمكن أن تستخدمه لشن هجمات أكثر تعقيداً وموجَّهة بمزيد من الدقة، أو أن تستغله للإخلال بسلامة الشبكات والأنظمة والمعلومات الحساسة في المرافق النووية والإشعاعية.
سام ألتمان المدير التنفيذي لشركة أوبن أي.آي: خطر الذكاء الاصطناعي قد يؤدي إلى انقراض البشر
وسعيا منها لمواجهة المخاطر شكلت شركة أوبن أي.آي يوم الخميس فريقًا جديدًا لتقييم نماذج الذكاء الاصطناعي والتحقيق فيها، وذلك بهدف الحماية مما تصفه بـ“المخاطر الكارثية”.
من جانبها تعمل الوكالة الدولية للطاقة الذرية على تطوير تقنيات الذكاء الاصطناعي والتوعية بها وتطبيقها، وتدعم كذلك التدابير المضادة والدفاعات التي تتيح مواجهة الجهات الفاعلة الخبيثة.
وتعتمد الفوائد التي يقدِّمها الذكاء الاصطناعي في المرافق النووية والإشعاعية اعتماداً كبيراً على الطريقة التي يُنمَّى بها النظام.
وترتبط قوة الذكاء الاصطناعي ارتباطا عضويا بمتانة البيانات المستخدمة لتنميته ويمكن التلاعب بالأنظمة القائمة على الذكاء الاصطناعي لتعطي معلومات ونتائج خاطئة إذا لم تكن تحتوي على المدخلات الصحيحة.
ولا يزال ذلك عائقاً كبيراً أمام استخدام الذكاء الاصطناعي في مجال الأمن النووي. وعلى الرغم من التقدم الذي شهدته تكنولوجيا الذكاء الاصطناعي حديثاً، ليس من الممكن استخدامها بديلاً للبشر. فالحماية المادية، وحصر المواد النووية ومراقبتها، والقياسات المباشرة تستلزم تدخلاً بشرياً لأنها أنشطة أساسية في ضمان الأمن النووي.
وأعلنت شركة أوبن أي.آي يوم الخميس الماضي أنها شكّلت فريقًا جديدًا يسمى “الاستعداد” للتحقيق وتقييم نماذج الذكاء الاصطناعي والتحقيق فيها، والحماية من مخاطره.
أوبن أي.آي طلبت من المجتمع أفكارا لدراسات المخاطر مع جائزة قيّمة ووظيفة في فريق “الاستعداد” عبر الإنترنت لأفضل عشرة طلبات مقدمة
وسيقود الفريق ألكسندر مادري الذي انضم إلى أوبن أي.آي في مايو الماضي بصفته رئيس قسم “الاستعداد”.
وأحد التحديات المقترنة باستخدام الذكاء الاصطناعي في ما يخص الأمن النووي هو التمكُّن من فهم الطريقة التي ينتِج بها نموذج قائم على الذكاء الاصطناعي قرارات أو توقعات معيَّنة وسبب إنتاجه القرارات أو التوقعات بالتحديد.
وأوضح سكوت بورفيس رئيس قسم إدارة المعلومات التابع لشعبة الأمن النووي في وكالة الطاقة الذرية أن “الشفافية والقدرة على شرح المخرجات – حين يكون باستطاعة البشر فهم سبب القرارات أو التوقعات التي ينتِجها الذكاء الاصطناعي – هما من أكبر المشاكل المرتبطة بنماذج الذكاء الاصطناعي. ومن الصعب في أحيان كثيرة فهم الطريقة التي تتوصل بها هذه النماذج إلى نتائجها. وبذلك، يصبح من الصعب أيضاً وضع الثقة بمخرجاتها وضمان سلامة هذه المخرجات”.
وأضاف بورفيس أن “الوضع يزداد صعوبةً إلى حد بعيد عندما تُستخدم هذه النماذج محل أجهزة الاستشعار التي توفِّر قياسات مباشرة والخبرات البشرية المكتسبة على أساس الخصائص الفريدة لكل مرفق. ولا يصح عندئذ وضع الثقة بسلامة الأنظمة إلا إذا كان هناك فهم مسبق وشامل ومتقدم لخوارزميات الذكاء الاصطناعي يتيح معرفة الطريقة التي تُتخذ بها القرارات وسبب اتخاذها”.
وستكون المسؤوليات الرئيسة لفريق “الاستعداد” التابع لأوبن أي.آي هي تتبع مخاطر أنظمة الذكاء الاصطناعي المستقبلية والتنبؤ بها والحماية منها، وذلك بدءًا من قدرتها على إقناع البشر وخداعهم؛ كما هو الحال في هجمات التصيّد الاحتيالي، إلى قدراتها على توليد التعليمات البرمجية الضارة.
وتبدو بعض فئات المخاطر التي سوف يقوّمها فريق “الاستعداد” مستبعدة مقارنةً بغيرها، فعلى سبيل المثال، أدرج منشور أوبن أي.آي التهديدات “الكيميائية والبيولوجية والإشعاعية والنووية” بوصفها مجالات مثيرة للقلق عندما يتعلق الأمر بنماذج الذكاء الاصطناعي.
ويُعدّ سام ألتمان المدير التنفيذي لشركة أوبن أي.آي أحد أبرز المتشائمين في ما يتعلق بالتقنية، وغالبًا ما يُعرِب عن مخاوفه من أن الذكاء الاصطناعي “قد يؤدي إلى انقراض البشر”.
وتقول الشركة إنها منفتحة أيضًا على دراسة “أقل المجالات وضوحًا وأكثرها رسوخا” المتعلقة بمخاطر التقنية الناشئة.
وبالتزامن مع إطلاق فريق “الاستعداد”، طلبت أوبن أي.آي من المجتمع أفكارا لدراسات المخاطر مع جائزة قيّمة ووظيفة في فريق “الاستعداد” عبر الإنترنت لأفضل عشرة طلبات مقدمة.
وتقول إن الفريق سيكون مكلفًا أيضًا بصياغة “سياسة تطوير مستنيرة للمخاطر” مهمتها توضيح نهج الشركة لبناء التقويمات لنماذج الذكاء الاصطناعي وأدوات المراقبة، وإجراءات الشركة لتخفيف المخاطر، وهيكل الإدارة الخاص بها للرقابة عبر عمليات التطوير للنموذج.
وتؤكد الشركة أنها تهدف إلى استكمال أعمالها الأخرى في مجال سلامة الذكاء الاصطناعي، مع التركيز في مرحلتي النشر السابق واللاحق للنموذج.
وقالت أوبن أي.آي في منشورها “نحن نؤمن بأنه يمكن لنماذج التقنية، التي ستتجاوز القدرات الموجودة حاليًا في أكثر النماذج الحالية تقدمًا، إفادة البشرية جمعاء”.
وأضافت “لكنها تشكل أيضًا مخاطر شديدة على نحو متزايد. ونحن بحاجة إلى التأكد من أن لدينا الفهم والبنية التحتية اللازمين لسلامة أنظمة الذكاء الاصطناعي ذات القدرة العالية”.