أوروبا تسعى للحد من مخاطر استخدام الخوارزميات

بروكسيل- بموجب لوائح جديدة للاتحاد الأوروبي بشأن الذكاء الاصطناعي سيتم حظر استخدام تقنيات التعرف على الوجه بهدف أعمال المراقبة، وسيطال الحظر استعمال الخوارزميات للتلاعب بالسلوك البشري والتحكم به.
ووعدت المقترحات التي وصفت بواسعة النطاق، بقواعد جديدة صارمة لما اعتبرته ذكاءً اصطناعيًا عالي الخطورة. ويتضمن ذلك الخوارزميات التي تستخدمها الشرطة ومصالح التجنيد.
ووصف خبراء القواعد بأنها غامضة وتحتوي على ثغرات، حيث يُعفى استخدام الذكاء الاصطناعي في الجيش، وكذلك الأنظمة التي تستخدمها السلطات من أجل حماية الأمن العام. بينما تشمل القائمة المقترحة للأنظمة المحظورة: تلك المصممة أو المستخدمة بطريقة تتلاعب بالسلوك البشري أو الآراء أو القرارات، وتجعل الشخص يتصرف أو يشكل رأيًا أو يتخذ قرارًا يضرّ به. وأيضا أنظمة الذكاء الاصطناعي المستخدمة في المراقبة العشوائية المطبقة بطريقة عامة. وأنظمة الذكاء الاصطناعي المستخدمة للتقييم الاجتماعي، وتلك التي تستغل المعلومات أو التنبؤات وشخصًا أو مجموعة من الأشخاص لاستهداف نقاط ضعفهم. وهذه التعريفات حسب محلل السياسة الأوروبية دانييل لوفر “فضفاضة للغاية”، وتساءل في تغريدة له “كيف نحدد ما يلحق الضرر بشخص ما؟ ومن يقيّم هذا؟”.
ووفق المقترحات سيتعين على الدول الأعضاء تطبيق المزيد من الرقابة، بما في ذلك الحاجة إلى تعيين هيئات تقييم لاختبار الأنظمة عالية الخطورة واعتمادها وفحصها. وأيّ شركة تقوم بتطوير خدمات محظورة أو تفشل في تقديم معلومات صحيحة عنها، قد تواجه غرامات تصل إلى أربعة في المئة من إيراداتها العالمية. على غرار الغرامات على انتهاكات القانون العام لحماية البيانات.
قواعد غامضة تحتوي على ثغرات حيث تعفى استخدامات الذكاء الاصطناعي في الجيش وكذلك في الأنظمة المستخدمة لحماية الأمن العام
وتشمل الأمثلة عالية الخطورة على الذكاء الاصطناعي ما يلي: الأنظمة التي تعطي الأولوية في إرسال خدمات الطوارئ. والأنظمة التي تحدد الوصول إلى المعاهد التعليمية أو تخصيص الأفراد لها. إضافة إلى خوارزميات التوظيف وتلك التي تقيّم الجدارة الائتمانية والخاصة بإجراء تقييمات المخاطر الفردية. وأخيرا خوارزميات التنبؤ بالجريمة.
واقترح لوفر ضرورة “توسيع نطاق المقترحات لتشمل جميع أنظمة الذكاء الاصطناعي في القطاع العام، بغض النظر عن مستوى المخاطر المحدد لها (..) هذا لأن الناس عادةً لا يملكون خيارًا بشأن التفاعل مع نظام ذكاء اصطناعي في القطاع العام أم لا”.
بالإضافة إلى المطالبة بضرورة أن تكون أنظمة الذكاء الاصطناعي الجديدة تحت إشراف بشري، وتقترح المفوضية الأوروبية أيضًا أن تتضمن أنظمة الذكاء الاصطناعي عالية الخطورة ما يسمّى بمفتاح القفل، والذي يمكن أن يكون إما زر إيقاف أو إجراء آخر لإيقاف تشغيل النظام على الفور إذا لزم الأمر.
وقال هربرت سانيكر المحامي في كليفورد تشانس “سوف يركز مطوّرو الذكاء الاصطناعي بشدة على هذه المقترحات، حيث سيتطلب ذلك تحولًا جوهريًا في كيفية تصميم أنظمة الذكاء الاصطناعي وتطويرها”.
وسلط مايكل فيل وهو محاضر في الحقوق الرقمية والتنظيم في جامعة كوليدج أوف لندن الضوء على بند من شأنه أن يجبر المنظمات على الإفصاح عندما تستخدم تقنية التزييف العميق، وهو استخدام خاص للذكاء الاصطناعي مثير للجدل، يتم من خلاله إنشاء بشر مزيفين أو تلاعب بالصور ومقاطع الفيديو لأشخاص حقيقيين.
كما قال لبي بي سي إن التشريع كان يستهدف في المقام الأول البائعين والمستشارين الذين يبيعون – في كثير من الأحيان بشكل غير منطقي – تكنولوجيا الذكاء الاصطناعي للمدارس والمستشفيات والشرطة وأرباب العمل. لكنه أضاف أن شركات التكنولوجيا التي استخدمت الذكاء الاصطناعي “للتلاعب بالمستخدمين” قد تضطر أيضًا إلى تغيير ممارساتها.