قوانين الحماية من كوارث الذكاء الاصطناعي تثير الجدل

القيود والتشريعات تحد من ابتكارات التكنولوجيا الناشئة القوية.
الأحد 2024/08/04
تنظيم أم عراقيل

يتمتع الذكاء الاصطناعي بإمكانيات غير محدودة لتحقيق منافع تفيد البشرية، فالتقدم الذي أحرزه في مجالات الطب وعلوم المناخ يقود إلى تحسن التوقعات الخاصة بحرائق الغابات وتطوير الطاقة النظيفة. ورغم ذلك يرى خبراء أنه ينطوي أيضا على مخاطر كبيرة مثل تطوير أسلحة يمكن أن تختار وتصيب الأهداف دون تدخل بشري.

كاليفورنيا (الولايات المتحدة) - أثار ظهور الذكاء الاصطناعي آمالا بشأن إمكانياته لحل المشاكل، ومخاوف من تأثيراته المدمرة المحتملة في حال إساءة استخدامه، وهو ما أدى إلى طرح نحو 200 مشروع قانون في مختلف أنحاء الولايات المتحدة تقترح وضع قيود على التكنولوجيا الناشئة القوية.

وذكرت شبكة “باي اريا نيوز جروب”، أكبر ناشر للصحف اليومية والأسبوعية في منطقة خليج سان فراتسيسكو، في تقرير لها أن من أبرز مسودات القوانين التي تم طرحها ما تم طرحه في كاليفورنيا؛ ذلك أنه من شأن مثل هذا القانون أن يؤثر على العشرات من الشركات في الولاية التي تعد مهد الابتكار، وأثارت مسودة القانون غضب الشركات الكبرى في وادي السيليكون بما في ذلك غوغل وشركة ميتا المالكة لتطبيق فيسبوك والشركة الناشئة “واي كومبيناتور”.

وقال السيناتور الديمقراطي في  سان فرانسيسكو بولاية كاليفورنيا سكوت وينير “الهدف هنا هو استباق المخاطر بدلا من انتظار قدومها، وهو ما نقوم به دائما”.

وأشار محللون تشريعيون إلى أنه على الرغم من أن الذكاء الاصطناعي يتمتع بإمكانيات لتحقيق منافع من إحراز تقدم في مجالات الطب وعلوم المناخ إلى تحسن التوقعات الخاصة بحرائق الغابات وتطوير الطاقة النظيفة، فإنه ينطوي أيضا على مخاطر كبيرة.

مخاوف من إمكانية استخدام الذكاء الاصطناعي لتطوير أسلحة مستقلة يمكن أن تختار وتصيب الأهداف دون تدخل بشري
مخاوف من إمكانية استخدام الذكاء الاصطناعي لتطوير أسلحة مستقلة يمكن أن تختار وتصيب الأهداف دون تدخل بشري

وهناك مخاوف واسعة النطاق من إمكانية استخدام الذكاء الاصطناعي لتطوير أسلحة مستقلة يمكن أن تختار وتصيب الأهداف دون تدخل بشري، من خلال طائرات الدرون المعززة بالذكاء الاصطناعي التي تستخدم في الهجمات الإرهابية أو نقل المخدرات.

وتستخدم الخوارزميات المدعومة بالذكاء الاصطناعي في هجمات التصيد الاحتيالي والبرامج الخبيثة، بما فيها برنامج الفدية “وانا كراي” 2017 الذي استغل نقطة ضعف في نظام مايكروسوفت ويندوز وتسبب في أضرار تقدر بمليارات الدولارات. كما أن الخوارزميات الآلية المتعلقة بالتداول يمكن أن تؤدي إلى التلاعب بالأسواق، مثل واقعة فلاش كراش 2010 التي تسببت في فقدان مؤشر داو جونز 1000 نقطة خلال دقائق قبل أن يعود إلى طبيعته.

ومن شأن مسودة القانون التي طرحها السيناتور وينير تنظيم “تطوير ونشر نماذج الذكاء الاصطناعي المتطورة” من خلال تشكيل هيئة تنظيمية جديدة يطلق عليها اسم “فرونتير موديل ديفيجن”. كما من شأن المسودة أيضا إنشاء برنامج مجموعة الحوسبة الممولة من القطاع العام، والذي يطلق عليه  اسم “كال كومبيو” الذي سوف يركز على تطوير نماذج الذكاء الاصطناعي على نطاق واسع وتقديم الخبرة التشغيلية ودعم المستخدم وتعزيز الابتكار “العادل” في مجال الذكاء الاصطناعي.

ويقول معارضو مسودة القانون إنها يمكن أن تقوم بتقييد الابتكار وعرقلة تطوير الذكاء الاصطناعي مفتوح المصدر. وأضاف المعارضون أن المسودة “تسيء بصورة جذرية تفسير” كيفية بناء أنظمة الذكاء الاصطناعي المتطورة، كما أنها تفرض على مطوري النماذج “التزامات غير متناسبة”، وهو ما من شأنه أن يضر باقتصاد التكنولوجيا المنتعش في كاليفورنيا.

وقال روب شيرمان، نائب الرئيس ورئيس قسم الخصوصية بشركة ميتا في خطاب إلى وينير يعود إلى 25 يونيو الماضي، إن أنظمة الذكاء الاصطناعي “يتم بناؤها من جانب عدة أطراف ذات وظائف مختلفة”. وهذا يشمل “مطور النموذج الذي يطرح النموذج في السوق، ومن يقوم بنشر الذكاء الاصطناعي الذي يدمج النماذج في الأنظمة لتقديم الخدمة والتحكم في استخدام النموذج، والمستخدم النهائي الذي يستفيد من هذه الأنظمة”.

وكتب شيرمان “عيب مسودة القانون الرئيسي هو أنها تخفق في أخذ النظام البيئي في الاعتبار وتحديد المسؤولية وفقا لذلك؛ وهو ما يفرض التزامات غير متناسبة على مطوري النماذج، بالنسبة إلى أجزاء من النظام البيئي، لا يملكون السيطرة عليها”.

Thumbnail

ويعارض وينير، الذي قبل تعديلات كثيرة أثناء العمل مع شركات التكنولوجيا والمدافعين عن سلامة الذكاء الاصطناعي بشأن مشروع القانون، ما جاء في الخطاب. وقال “إنه مطلب أساسي للغاية أن تتم تأدية تقييمات السلامة التي التزمت هذه المختبرات الكبيرة فعلا بتنفيذها”.

وأضاف “في حال تم رصد خطورة كبيرة تتعلق بحدوث ضرر كارثي، على المطورين اتخاذ خطوات للحد من هذه الخطورة، وهو ما يصعّب تحقق هذه المخاطر ويجعل حدوثها أقل ترجيحا”.

وذكر وينير أن مسودة القانون تنطبق فقط على مطوري الذكاء الاصطناعي الذين ينتجون نماذج ذكاء اصطناعي واسعة النطاق، خاصة المطورين الذين يمتلكون قوة حاسوبية تقدر بأكثر من 100 مليون دولار لتطبيق بروتوكولات السلامة والأمن.

وعلاوة على ذلك ربما تفرض مسودة القانون عقوبات على الشركات التي تخفق في الإبلاغ عن الحوادث المتعلقة بسلامة الذكاء الاصطناعي، بما فيها الأحداث التي تزيد خطورة الضرر الجسيم والنماذج التي تتورط في سلوك غير مسموح به والإخفاق في منع استخدام الذكاء الاصطناعي ذي القدرات الخطيرة.

ويمكن أن يواجه منتهكو القانون عقوبات بناء على شدة الانتهاك. ووفقا لمسودة القانون، فإن المحكمة ربما تأمر بإلغاء نموذج ذكاء اصطناعي وبياناته في حال شملت واقعة الانتهاك الموت أو الإيذاء البدني أو الضرر المادي أو السرقة أو خطورة على السلامة العامة.

وحسب المسودة فإن المدعي العام في كاليفورنيا فقط هو من سيتمكن من تقديم الدعوى ضد الانتهاكات.

وقد تم تمرير مسودة القانون في مجلس الشيوخ خلال مايو الماضي، بعد أن وافقت عليه لجنتا الخصوصية وحماية المستهلك والقضاء، ويتوجه حاليا إلى لجنة المخصصات كما سوف يخضع للتصويت قبل أن يصل إلى مكتب حاكم الولاية.

13