مؤشر للكشف عن مدى التزام شركات الذكاء الاصطناعي بالشفافية

سان فرانسيسكو (الولايات المتحدة) - أصدر باحثون من جامعة ستانفورد تقريرا الأربعاء كشفوا فيه عن مؤشر جديد يقيس شفافية نماذج أساس الذكاء الاصطناعي من شركات مثل “أوبن أي آي” وغوغل، وحث المؤلفون الشركات على الكشف عن المزيد من المعلومات مثل البيانات والعمالة البشرية المستخدمة في تدريب النماذج.
وقال بيرسي ليانغ الباحث المشارك في وضع مؤشر الشفافية النموذجي للمؤسسة “من الواضح على مدى السنوات الثلاث الماضية أن الشفافية آخذة في الانخفاض بينما القوة تصل إلى القمة ونحن نعتبر ذلك مشكلة كبيرة لأننا رأينا في مجالات أخرى مثل وسائل التواصل الاجتماعي أنه عندما تنخفض الشفافية، يمكن أن تترتب على ذلك نتائج سيئة”.
ونماذج الأساس هي أنظمة ذكاء اصطناعي مدربة على مجموعات بيانات ضخمة يمكنها أداء مجموعة متنوعة من المهام من الكتابة إلى الترميز. وتقود الشركات التي تطور نماذج الأساس الزيادة في الذكاء الاصطناعي التوليدية، والتي منذ إطلاق شركة “أوبن أي آي” نموذجها الناجح تشات جي.بي.تي المدعوم من شركة مايكروسوفت قد أسرت اهتمام الشركات من جميع الأحجام.
وفي عالم يعتمد بشكل متزايد على هذه النماذج لصنع القرار والأتمتة، فإن فهم حدودها وتحيزاتها أمر بالغ الأهمية، كما يقول مؤلفو التقرير.
وصنف المؤشر 10 نماذج شائعة على 100 مؤشر شفافية مختلف، مثل بيانات التدريب ومقدار الحوسبة المستخدمة. وسجلت جميع النماذج “بشكل غير مثير للإعجاب” حتى النموذج الأكثر شفافية لاما-2 من ميتا حصل على درجة 03 من أصل 100، واحتل طراز أمازون تيتان مرتبة أدنى، حيث احتل المرتبة 11 من أصل 100، وحصل نموذج GPT-4 من “أوبن أي آي” على المرتبة 47 من 100.
ويأمل واضعو المؤشر أن يشجع التقرير الشركات على زيادة شفافية نموذجها الأساسي، وأن يكون أيضا بمثابة نقطة انطلاق للحكومات التي تتصارع مع كيفية تنظيم المجال المزدهر.
والمؤشر هو مشروع من معهد ستانفورد للذكاء الاصطناعي المتمحور حول الإنسان لمركز أبحاث نماذج الأساس.