ميتا تضع اعتبارا من الشهر المقبل علامات لتمييز المحتوى المطور بالذكاء الاصطناعي

علامة "صُنع باستخدام الذكاء الاصطناعي" ستوضع على عدد كبير من محتويات الفيديو والصور.
الأحد 2024/04/07
مكافحة للتضليل المعلوماتي

اعتبارا من مايو المقبل ستحمل الفيديوهات والصور الناتجة عن الذكاء الاصطناعي والموجودة على الشبكات الاجتماعية التابعة لشركة ميتا علامة "صُنع باستخدام الذكاء الاصطناعي"، وذلك في صورة ما “أشار أشخاص إلى أنهم يحمّلون محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي”. وستواصل ميتا إزالة أي محتوى من منصاتها إذا ما كان يتعارض مع قواعدها العامة.

باريس- تعتزم شركة ميتا الأميركية العملاقة وضع تصنيف خاص للتعرف إلى الأصوات والصور ومقاطع الفيديو الناتجة عن الذكاء الاصطناعي على شبكاتها الاجتماعية اعتبارا من مايو المقبل، وفق رسالة نُشرت عبر مدونة.

وأوضحت مونيكا بيكرت، نائبة الرئيس المسؤولة عن سياسات المحتوى في الشركة الأم لفيسبوك وإنستغرام وواتساب وثريدز، “نخطط للبدء في تصنيف المحتوى الذي أنشئ بواسطة الذكاء الاصطناعي في مايو 2024”، لافتة إلى أن علامة “صُنع باستخدام الذكاء الاصطناعي” ستوضع على عدد أكبر من محتويات الفيديو والصوت والصور مقارنة بالسابق.

وأشارت إلى أن المجموعة ستضع هذه العلامات على منصاتها عند رصد “مؤشرات إلى صور بالذكاء الاصطناعي بما يتوافق مع المعايير المعمول بها في القطاع”، أو إذا ما “أشار أشخاص إلى أنهم يحمّلون محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي”.

◄ ميتا ستواصل إزالة أي محتوى من منصاتها، سواء تم إنشاؤه بواسطة الإنسان أو الذكاء الاصطناعي
ميتا ستواصل إزالة أي محتوى من منصاتها، سواء تم إنشاؤه بواسطة الإنسان أو الذكاء الاصطناعي

وأعلنت المجموعة الأميركية أنها ستغيّر الطريقة التي تعالج بها المحتوى المعدل بواسطة الذكاء الاصطناعي، وذلك بعد التشاور مع مجلسها الإشرافي، معتبرة أن “الشفافية وإضافة عناصر أكثر لتوضيح السياق أصبحتا تشكّلان أفضل طريقة لمعالجة المحتوى الخاضع للتلاعب، من أجل تجنب مخاطر وضع قيود لا طائل منها على حرية التعبير”.

وباتت ميتا تفضّل إضافة “علامات وعناصر من السياق” إلى هذا النوع من المحتوى، بدلا من إزالته كما كانت تفعل حتى الآن.

ومع ذلك، أوضحت ميتا أنها ستواصل إزالة أي محتوى من منصاتها، سواء تم إنشاؤه بواسطة الإنسان أو الذكاء الاصطناعي، إذا ما كان يتعارض مع قواعدها “ضد التدخل في العملية الانتخابية أو التخويف أو المضايقة أو العنف (…) أو أي سياسة أخرى مدرجة في معايير مجتمعنا”.

وتعتمد المجموعة أيضا على شبكتها المكونة من “حوالي 100 مدقق حقائق مستقل” لتحديد المحتوى “الخاطئ أو المضلل” الذي ينتجه الذكاء الاصطناعي.

وأعلنت الشركة الأم لفيسبوك في فبراير الماضي رغبتها في تصنيف أي صورة يتم إنشاؤها بواسطة الذكاء الاصطناعي، وهو قرار اتُّخذ على خلفية الحرب ضد المعلومات المضللة.

وقد تعهدت شركات تكنولوجيا عملاقة أخرى مثل مايكروسوفت وغوغل وأوبن أي.آي باتخاذ إجراءات مماثلة.

وأثار تنامي برمجيات الذكاء الاصطناعي التوليدي مخاوف من استخدام هذه الأدوات لزرع الفوضى السياسية، خصوصا من خلال التضليل أو تزوير الحقائق، وبالأخص في هذا العام الذي يشهد سلسلة استحقاقات انتخابية كبرى، أبرزها الانتخابات الرئاسية في الولايات المتحدة.

وبعيدا عن عمليات الانتخاب هذه، فإن تطوير برامج الذكاء الاصطناعي التوليدية يترافق مع سيل من المحتويات المسيئة، وفق الكثير من الخبراء والهيئات الناظمة، بما يشمل تركيب صور ومقاطع إباحية ملفقة لنساء مشهورات (بتقنية “التزييف العميق”)، وهي ظاهرة تستهدف أيضا الأشخاص العاديين.

تقول الكاتبة بيل لين في تقرير نشرته صحيفة “وول ستريت جورنال” الأميركية، إن الذكاء الاصطناعي التوليدي حظي خلال هذا العام باهتمام كبير، باعتباره تكنولوجيا رائدة في مختلف قطاعات الاقتصاد تعدنا برفع الإنتاجية إلى مستويات قياسية، وذلك من خلال القيام بالعديد من الوظائف وتحسين أساليب العمل.

ولكن بسبب الكلفة المرتفعة للذكاء الاصطناعي، والحاجة المستمرة إلى المهندسين المتخصصين في هذا المجال، إلى جانب المخاطر القانونية ومعضلة احترام البيانات الشخصية، فإن التقدم الذي أُحرز في هذا المجال لا يزال محدودا، في ظل الحذر الذي طغى على سلوك العديد من المؤسسات التي تجرب هذه الحلول الجديدة.

◄ عدد المواقع التي تنشر محتوى ينتجه الذكاء الاصطناعي تضخم من 49 موقعا في مايو 2023 إلى أكثر من 600 موقع بنهاية العام
عدد المواقع التي تنشر محتوى ينتجه الذكاء الاصطناعي تضخم من 49 موقعا في مايو 2023 إلى أكثر من 600 موقع بنهاية العام

ولكن رغم هذا التردد فإنه لا يوجد أي شك في أن الذكاء الاصطناعي التوليدي سوف يغير المشهد بالكامل في مجال التكنولوجيات الاقتصادية. وقد شرعت بعض الشركات في تضمين الذكاء الاصطناعي في عملياتها لكتابة الأكواد والبرمجة، وإنشاء المحتوى التسويقي، وتوفير خدمة الدعم للعملاء.

وبنهاية العام 2023، أنفقت مختلف الشركات حول العالم 19.4 مليار دولار على الذكاء الاصطناعي التوليدي، وسيقفز هذا المبلغ الذي يشمل برمجيات الذكاء الاصطناعي التوليدي وما يرافقها من تجهيزات وخدمات أخرى، إلى 151.1 مليار دولار بحلول العام 2027، أي بنسبة نمو سنوي تبلغ 86.1 في المئة على مدى أربع سنوات.

وأوضحت الكاتبة أنه حاليا تعكف أغلب الشركات على اختبار حدود هذه التكنولوجيا، وزيادة استثمار الذكاء الاصطناعي والحوسبة السحابية بشكل أوسع في تنظيم قواعد بياناتها، وتقييم الأمن السيبراني.

وكشف بحث حديث أن العام الماضي شهد تفشي المعلومات المغلوطة التي ينتجها الذكاء الاصطناعي وتُقدم في ثوب الأخبار الصادقة، ويقول الخبراء إنها تعرِّض عمليات حفظ السلام الدولية في أفريقيا للخطر.

وأثبت آخر إحصاء أن أكثر من 675 موقعا إلكترونيا ينشر ما تصفه مجموعة من الخبراء بمقالات إخبارية “غير موثوقة” ينتجها الذكاء الاصطناعي، وكثيرا ما تقدم هذه المقالات الأكاذيب والمعلومات المضللة في ثوب الحقيقة.

وحددت مجموعة “نيوز غارد” المعنية بمراقبة حملات التضليل تلك المواقع، وتوصل الباحثون إلى محتوى أنتجه الذكاء الاصطناعي منشورا بـ15 لغة، مثل العربية والصينية والإنجليزية والفرنسية والبرتغالية، على مواقع تضفي عليها أسماؤها صبغة المصادر الشرعية للمعلومات.

ويقول باحثو نيوز غارد في تقريرهم “وهذا يخفي حقيقة أن المواقع تعمل دون أي إشراف بشري يُذكر وتنشر مقالات تكتب البوتات جلها أو كلها”.

ووجدوا أن عدد المواقع التي تنشر محتوى ينتجه الذكاء الاصطناعي تضخم من 49 موقعا في مايو 2023 إلى أكثر من 600 موقع بنهاية العام. وذكروا أن هذه المواقع تثري أصحابها بنشر إعلانات للعلامات التجارية العالمية التي تضعها خدمة “إعلانات غوغل”، إذ تحظر سياستها الإعلان على المواقع التي تحتوي على محتوى غير أصلي.

تُعرف التكنولوجيا التي تنتج هذه المقالات الكاذبة بالذكاء الاصطناعي التوليدي، فتجمع البيانات من الإنترنت لعمل محتوى نصي وفيديو وصوت اصطناعي بالكامل ولا يكاد يتدخل الإنسان إلا في أضيق الحدود. ويقول الخبراء إن الذكاء الاصطناعي يمكن أن يترجم المحتوى من لغة إلى أخرى في غمضة عين، فيسهل نشره على نطاق واسع عبر الإنترنت ومشاركته عبر مختلف منصات الإعلام الاجتماعي.

المجموعة ستضع هذه العلامات على منصاتها عند رصد مؤشرات إلى صور بالذكاء الاصطناعي بما يتوافق مع معاييرها

وقالت السيدة ميليسا فليمنغ، رئيسة قطاع الاتصالات بالأمم المتحدة، “تستفيد جهات التضليل هذه من الخوارزميات المصممة لإيلاء الأولوية لتعميم حالة السُخط والاستياء وتعزيز تفاعل المستخدمين، وتحد بحكم تصميمها في نفس الوقت من انتشار الحقائق”.

يقول الخبراء إن الأكاذيب التي ينتجها الذكاء الاصطناعي ربما تتضمن الادعاء بوفاة قادة بارزين أو معلومات أخرى مصممة لتحريض الناس على العنف. تعمل شركة واحدة على الأقل من شركات الذكاء الاصطناعي على إنشاء قارئ أخبار اصطناعي بالكامل ولكن يبدو طبيعيا ليحل محل المذيعين.

وكثيرا ما تنال الأكاذيب التي ينتجها الذكاء الاصطناعي من قوات حفظ السلام التابعة للأمم المتحدة، فقد كشف استطلاع رأي أُجري مؤخرا لحفظة السلام الأمميين أن أكثر من 70 في المئة منهم تعرَّضوا لتعطل عملهم بشدة بسبب المعلومات المغلوطة والمضللة، وذكرت فليمنغ أن هذه المعلومات عرَّضت سلامة الجنود والمدنيين المشاركين في عمليات حفظ السلام للخطر.

ففي عام 2023، شهدت بعثات حفظ السلام الأممية الأربع في أفريقيا (بعثة المونوسكو في جمهورية أفريقيا الوسطى، وبعثة المونوسكا في جمهورية أفريقيا الوسطى، وبعثة المينوسما في مالي، وبعثة اليونميس في جنوب السودان) حملات تضليل أنتجها الذكاء الاصطناعي تهدف إلى جعل المواطنين يشككون في مصداقيتها.

13