قمة باريس فرصة فريدة لوضع قواعد مشتركة لإدارة مخاطر الذكاء الاصطناعي

قمة باريس بشأن عمل الذكاء الاصطناعي تشكل فرصة حاسمة ــ وربما واحدة من آخر الفرص ــ لقادة العالم للاتفاق على معايير مشتركة لإدارة المخاطر ومنع إساءة استخدام الذكاء الاصطناعي على نطاق واسع أو وقوع حوادث.
باريس - عقدت في باريس الاثنين القمة الدولية حول الذكاء الاصطناعي التي تجمع قادة سياسيين وفي مجال التكنولوجيا، على أن تستمر يومين لمناقشة التبني الآمن للذكاء الاصطناعي في وقت تتزايد فيه المقاومة للبيروقراطية التي تقول الشركات إنها تخنق الابتكار.
ويأمل محللون أن يغتنم القادة هذه الفرصة الفريدة لوضع قواعد مشتركة لإدارة مخاطر الذكاء الاصطناعي، أو المخاطرة بسباق خطير نحو القاع.
وتتقدم قدرات الذكاء الاصطناعي بوتيرة مذهلة، إذ يمكن للأنظمة الآن كتابة أكواد برمجية معقدة، والانخراط في التفكير العلمي المتطور.
ورغم أن الفوائد المحتملة كبيرة فالمخاطر أيضا كبيرة، وهي مرتبطة بشكل مباشر بما يمكن للذكاء الاصطناعي أن يفعله، وما سيكون قادرا على القيام به في المستقبل.
وأصبحت فئتان من المخاطر مدرجتان في تقرير السلامة الدولية للذكاء الاصطناعي لشهر يناير 2025، بارزتين بشكل خاص في سياق الزيادة السريعة في قدرة الذكاء الاصطناعي. أولا، التهديد بإساءة الاستخدام. فباعتبارها تكنولوجيا عامة الغرض، يمكن تسليح أنظمة الذكاء الاصطناعي المتقدمة لشن هجمات متزايدة التعقيد.
وهناك بالفعل محاولات التلاعب بالآراء السياسية من خلال مقاطع فيديو مزيفة تم إنشاؤها بواسطة الذكاء الاصطناعي.
نجاح الصناعات الأخرى ذات الأهمية الحاسمة للسلامة يثبت أن إدارة المخاطر الفعّالة لا تخنق الابتكار بل تعززه
وتستخدم جهات التهديد التابعة للدولة أنظمة الذكاء الاصطناعي لإجراء أنشطة إلكترونية خبيثة.
وقد أظهرت النماذج الأخيرة قدرات من شأنها أن تسرع من تطوير الأسلحة البيولوجية، وفقا للمطورين أنفسهم.
وثانيا، هناك خطر وقوع الحوادث حيث تستخدم أقوى نماذج الذكاء الاصطناعي اليوم شبكات عصبية تحتوي على مئات المليارات من المعلمات، مع عمليات صنع القرار غير الواضحة إلى حد كبير حتى لمنشئيها.
وإذا تم نشرها في تطبيقات حاسمة – مثل إدارة شبكة الطاقة أو أنظمة التداول المالية – فإن احتمالات النتائج غير المتوقعة وغير القابلة للسيطرة ستزداد بشكل كبير.
وفي حين تسبب خلل في خوارزمية التداول المستقلة في عام 2012 في خسارة Knight Capital 440 مليون دولار في 45 دقيقة فقط، فمن المرجح أن يتم نشر أنظمة الذكاء الاصطناعي للأغراض العامة على نطاق أوسع بكثير عبر القطاعات، مما يضاعف احتمالات وقوع حوادث مكلفة.
قلق متزايد
هناك بالفعل محاولات التلاعب بالآراء السياسية من خلال مقاطع فيديو مزيفة تم إنشاؤها بواسطة الذكاء الاصطناعي
يحذر الخبراء أيضًا من سيناريو آخر مثير للقلق، يشار إليه عادة باسم “فقدان السيطرة”. ونظرًا إلى أن أنظمة الذكاء الاصطناعي هي في الأساس “صناديق سوداء” لا يتم فهم عملية صنع القرار فيها بشكل كامل، فلا يمكننا دائمًا التنبؤ بشكل موثوق بكيفية سلوكها بمجرد نشرها.
وعلى سبيل المثال، قد تقاوم بنشاط الإغلاق إذا كان استمرار التشغيل يخدم الهدف الذي تم تكليفها به من قبل البشر بشكل أفضل.
وفي حين يحرز الاتحاد الأوروبي تقدما في تنفيذ قانون الذكاء الاصطناعي وخاصة مدونة قواعد الممارسة المرافقة له، فإن التفتت التنظيمي يلوح في الأفق.
ولكن هناك حلول. فقد أثبتت إدارة المخاطر فاعليتها العالية في التخفيف من مخاطر التقنيات المبتكرة عبر مختلف القطاعات.
وتقدم صناعة الطيران مثالاً مقنعاً، فمن خلال ممارسات إدارة المخاطر الشاملة، نجحت في تحقيق انخفاض كبير في الحوادث المميتة من 6 لكل مليون رحلة في سبعينات القرن العشرين إلى 0.5 لكل مليون رحلة اليوم، وهو تحسن بنسبة 90 في المئة في السلامة.
ويمكننا أن نجد قصص نجاح مماثلة في صناعة الأدوية، حيث مكنت عمليات الموافقة الصارمة من تطوير الأدوية مع حماية الصحة العامة. ومن المؤكد أن اتساع نطاق المخاطر المرتبطة بالذكاء الاصطناعي يجعل معالجتها صعبة بشكل خاص. ومع ذلك، فإن الطبيعة غير المرتبطة بالمخاطر لإطار إدارة المخاطر تجعله مناسباً لتقييم وتخفيف هذا الطيف الكامل من التهديدات.
إدارة المخاطر تساعد المنظمات على تحديد مستويات المخاطر المقبولة بشكل موضوعي مع تعظيم الفوائد المحتملة
وفي حين قد تكون أنظمة الذكاء الاصطناعي نفسها معقدة وغير شفافة، فإن إدارة المخاطر المرتبطة بها ليست بالضرورة كذلك.
ويمكننا أن نستفيد من العمليات المثبتة من الصناعات الأخرى لمعالجة التحديات التي يفرضها الذكاء الاصطناعي. وتختلف الأطر المحددة باختلاف الصناعة، ولكنها تشترك في عناصر أساسية مثل تحديد المخاطر وتقييمها وتخفيفها والحوكمة.
وعلى سبيل المثال، تقدم إدارة المخاطر المالية دروسًا في التعامل مع المخاطر التي تتطور بسرعة و توفر الأمن السيبراني أطرًا مفيدة بشكل خاص للتهديدات العدائية للذكاء الاصطناعي ويقدم تقييم المخاطر البيئية رؤى حول إدارة التأثيرات التي تمتد إلى ما هو أبعد من حدود المنظمة إلى المجتمع ككل.
وفهم إدارة المخاطر السليمة ليس مجرد ضمانة ضد الأضرار المحتملة، بل هو عامل تمكين حاسم للتقدم التكنولوجي المستدام.
ويثبت نجاح الصناعات الأخرى ذات الأهمية الحاسمة للسلامة أن إدارة المخاطر الفعّالة لا تخنق الابتكار بل تعززه.
وتساعد إدارة المخاطر المنظمات على تحديد مستويات المخاطر المقبولة بشكل موضوعي مع تعظيم الفوائد المحتملة، وتشجيع المطورين على متابعة المشاريع ذات الاحتمالية الأعلى لتقديم القيمة بأمان.
ويمكن لمعالجة مخاطر الذكاء الاصطناعي بشكل فعال من خلال الإدارة المنهجية أن تساعد في التغلب على تردد التبني بين الجهات الفاعلة الاقتصادية المعنية بالأعطال المحتملة.
خطوات استباقية

سوف تجمع القمة بين القوى الرئيسية في مجال الذكاء الاصطناعي، ولاسيما الولايات المتحدة والصين، في مرحلة حرجة، مما يوفر فرصة نادرة لوضع تدابير محورية.
وقد يتفق القادة على توحيد نهج إدارة المخاطر الناشئة للحد من التفتت التنظيمي بين البلدان. وكما أشير في تقرير حديث صادر عن جامعة أكسفورد، فإن إدارة مخاطر الذكاء الاصطناعي هي واحدة من المجالات التي تحتاج إلى توحيد دولي أكبر قدر ممكن.
وكخطوة أولى، سيكون من المفيد الاتفاق على طبيعة وتعريف المكونات الرئيسية لإدارة مخاطر الذكاء الاصطناعي السليمة، من تحديد المخاطر إلى تقييمها والتخفيف منها وحوكمتها.
اقرأ أيضا:
وقد يمهد هذا الطريق لتطوير نظام بيئي للمراجعة والتصديق من قِبَل طرف ثالث، وهو ما سيكون ضروريا لتعزيز التنمية الآمنة وتبني الذكاء الاصطناعي.
ونظرا إلى أن إدارة المخاطر الفعّالة تعتمد على القياس الدقيق، فإن إنشاء بروتوكولات تقييم موحدة أمر بالغ الأهمية.
ونظرا إلى نشأة هذا المجال، فإن قدرتنا على تقدير المخاطر الناشئة بشكل صحيح من خلال تقييمات النماذج سوف تستفيد بشكل ملحوظ من الجهود المنسقة.
كذلك فإن إنشاء نظام مشترك للإبلاغ عن الحوادث من شأنه أن يؤدي إلى إنشاء حلقة تغذية مرتدة حاسمة، مما يمكّن مجتمع الذكاء الاصطناعي العالمي من التعلم بسرعة من تحديات السلامة الناشئة والتكيف معها.
وفي الماضي، كانت قواعد السلامة الأساسية لا تظهر إلا بعد وقوع أحداث كارثية. ومع الذكاء الاصطناعي، قد لا نحصل على فرصة ثانية؛ وبالنظر إلى سرعة تقدم التكنولوجيا ونطاق تأثيرها المحتمل، فإن الاستجابات التفاعلية تشكل مخاطرة كبيرة.
والآن أصبح لدى القادة فرصة للقيام بالأمور بشكل مختلف هذه المرة: إقامة حواجز عالمية وقائية، بشكل استباقي، قبل فوات الأوان.
اقرأ أيضاً: