تدريب الذكاء الاصطناعي على بيانات من إنتاجه رهان محفوف بالمخاطر

باريس - إذا أُخضعت نماذج الذكاء الاصطناعي لتدريب متكرر على استخدام بيانات مُنتَجة أصلاً بهذه التقنية، فستبدأ بعرض محتويات متضاربة بصورة متزايدة، وهي مشكلة تتناولها عدة دراسات علمية.
النماذج القائمة على أدوات الذكاء الاصطناعي التوليدي مثل برنامج تشات جي بي تي، والتي تتيح إنتاج مختلف أنواع المحتوى بناءً على طلب بسيط بلغة يومية، تحتاج إلى التدريب من خلال كميات هائلة من البيانات.
وغالباً ما يتم الحصول على هذه البيانات من شبكة الإنترنت التي تنتشر فيها كميات متزايدة من الصور والنصوص المُنَتَجة بواسطة الذكاء الاصطناعي.
ويؤدي هذا الوضع الذي يوصف بعبارة “الالتهام الذاتي”، إذ يتغذى الذكاء الاصطناعي على نفسه، إلى انهيار النماذج فتصبح الأدوات مُنتجة لمعلومات غير منطقية حتى تصل إلى نتائج لا معنى لها، حسب ما توصّلت إليه مقالة نُشرت في مجلة “نيتشر” العلمية في نهاية يوليو الماضي.
ومع استخدام هذا النوع من البيانات، الذي يُطلق عليه اسم “بيانات اصطناعية” لأنّه مُنتَج بواسطة آلات، يقل غنى العيّنة التي تستمد منها نماذج الذكاء الاصطناعي معطياتها لتوفير إجاباتها.
فالوضع مشابه لإنشاء نسخة من صورة بتقنية المسح الضوئي ثم طباعتها. ومع تكرار النسخ والطباعة، ستفقد النتيجة جودتها حتى تصبح في النهاية غير مقروءة.
وقد توصّل باحثون من جامعتي رايس وستانفورد الأميركيتين إلى النتيجة نفسها بعد دراسة نماذج الذكاء الاصطناعي التي تولّد الصور، مثل “ميدجورني” و”دال-اي” و”ستيبل ديفيوجن”.
الخبراء في الذكاء الاصطناعي يشعرون بالإحباط من واقع الإنترنت، على غرار ما ينتاب الجميع
وأظهر الباحثون أنّ الصور المُنتَجة أصبحت مليئة بعناصر غير متطابقة كلّما أضافوا بيانات مُنتَجة بواسطة الذكاء الاصطناعي إلى النموذج، وشبّهوا هذه الظاهرة بمرض “جنون البقر”.
فهذا الوباء الذي ظهر في المملكة المتحدة يعود مصدره إلى استخدام العلف الحيواني، الذي يتم الحصول عليه من أجزاء غير مأكولة من جيف أبقار وحيوانات تحمل الفايروس، لتغذية المواشي.
وتستخدم شركات الذكاء الاصطناعي في مرات كثيرة بيانات اصطناعية لتدريب برامجها، بسبب سهولة الحصول عليها ووفرتها وكلفتها المنخفضة مقارنة ببيانات ابتكرها البشر.
ويقول الباحث المتخصص في التقنيات الجديدة لدى جامعة موناش في أستراليا جاثان سادوفسكي إنّ “مصادر البيانات البشرية غير المستغلة وعالية الجودة والقابلة للقراءة آلياً تصير أكثر ندرة”.
ويقول ريتشارد بارانيوك، أحد معدّي المقالة المنشورة في “نيتشر”، ضمن بيان “في حال لم تتم مراقبة الوضع على مرّ العديد من الأجيال، فسنكون أمام نتيجة كارثية تتمثل في متلازمة انهيار نماذج ستؤثر سلباً على جودة البيانات في الإنترنت وتنوّعها”.
وكما أنّ أزمة جنون البقر أثرت بشكل كبير على مجال إنتاج اللحوم في تسعينات القرن العشرين، قد تهدد شبكة الإنترنت المليئة بمحتوى مُنتَج بواسطة الذكاء الاصطناعي ونماذج تحوّلت إلى “مجنونة”، مستقبل مجال الذكاء الاصطناعي الذي يشهد ازدهاراً كبيراً وتبلغ قيمته مليارات الدولارات، بحسب العلماء.
ويقول جاثان سادوفسكي إنّ “التساؤل الفعلي بالنسبة إلى الشركات والباحثين الذين يعملون على بناء أنظمة ذكاء اصطناعي هو: في أي مرحلة يتجاوز استخدام البيانات الاصطناعية الحد اللازم؟”.
ويرى بعض المتخصصين الآخرين أنّ المشكلة مبالغ فيها وليست حتمية قط.
وتؤكد شركتا أنثروبك وهاغينغ فايس المتخصصتان في مجال الذكاء الاصطناعي أنهما تستخدمان بيانات مُنتَجَة بواسطة الذكاء الاصطناعي.
ويقول أنتون لوزكوف، وهو مهندس متخصص في التعلّم الآلي لدى شركة هاغينغ فايس، إن المقالة المنشورة في مجلة نيتشر توفر رؤية نظرية مثيرة للاهتمام لكن غير واقعية إلى حد كبير.
ويؤكد أن “تدريب النماذج على عدة مجموعات من البيانات الاصطناعية لا يتم في الواقع”.
ويقرّ لوزكوف بأنّ الخبراء في الذكاء الاصطناعي يشعرون بالإحباط من واقع الإنترنت، على غرار ما ينتاب الجميع.
ويضيف “إنّ جزءاً من الإنترنت هو مجرد قمامة”، مشيراً إلى أنّ شركته بدأت تبذل جهوداً كبيرة لتنظيف البيانات التي تم جمعها، وحذفت أحياناً ما يصل إلى 90 في المئة منها.