شركات التكنولوجيا تجاهد لإيجاد حلول لكشف التزييف العميق

لندن - المئات، بل الآلاف من مقاطع الفيديو تنشر يوميا على مواقع التواصل الاجتماعي أغلبها بريء يهدف للإضحاك، لا يخفي ناشروه أنه من صنع الذكاء الاصطناعي. إلا أن الهدف من نشر مقاطع الفيديو المصنوعة من قبل الذكاء الاصطناعي ليس بريئا دائما.
فمحاولات التحايل والخداع على منصات التواصل الاجتماعي بالاستعانة بتقنية التزييف العميق التي توفرها نماذج الذكاء الاصطناعي التي باتت متوفرة وبالمجان، في تزايد مستمر يدفع على القلق.
قد يصلك فجأة اتصال من شخص صوته مألوف، يقنعك أنه قريب أو صديق يطلب منك المساعدة، لتكشف لاحقا أنك كنت ضحية عملية تحايل من شخص استخدم التزييف العميق لخداعك.
وانتشرت تقنية التزييف العميق على شبكات التواصل الاجتماعي من خلال تركيب مقاطع مفبركة لشخصيات أحيانا لأغراض التضليل، كما تتم الاستعانة بها أيضا من عصابات الجريمة المنظمة. فمحاولات من هذا النوع تحدث يوميا. والخبراء يحذّرون من أن الذكاء الاصطناعي قد يكون خطرا جدا.
في أوائل فبراير الماضي، أعلنت شرطة هونغ كونغ أنّ موظفا في شركة متعددة الجنسيات جرى إقناعه بتحويل 200 مليون دولار محلي في هونغ كونغ (25 مليون دولار أميركي) إلى محتالين نظموا مؤتمرا عبر الفيديو مع صور رمزية (أفاتار) بحجم فعلي قائمة على الذكاء الاصطناعي لعدد كبير من زملائه.
وبينت دراسة في الشهر نفسه نشرتها شركة "آي بوم" الناشئة المتخصصة في رصد عمليات التزييف، أن 1 من كل ألف فقط من الأميركيين والبريطانيين خضعوا لاختبار تمكّنوا من أن يحددوا بشكل صحيح صورة أو مقطع فيديو مزيّفا. وهو ما دفع خبراء إلى وصف الوضع الحالي بالكارثي.
وكان الفاتيكان قد دعا منذ أيام الحكومات إلى مراقبة تطور الذكاء الاصطناعي عن كثب، وحذر من أن “ظل الشر” موجود في هذه التكنولوجيا لقدرتها على نشر المعلومات المضللة.
وجاء في وثيقة جديدة عن أخلاقيات استخدام الذكاء الاصطناعي كتبتها إدارتان في الفاتيكان ووافق عليها البابا فرنسيس “الإعلام المضلل الناجم عن الذكاء الاصطناعي يمكن أن يعمل تدريجيا على تقويض أسس المجتمع.”
وذكرت الوثيقة أن “هذه القضية تتطلب تنظيما دقيقا لأن المعلومات المضللة الواردة تحديدا من وسائل الإعلام التي يسيطر عليها الذكاء الاصطناعي أو التي تتأثر به يمكن أن تنتشر عن غير قصد، ممّا يؤدي إلى تأجيج الاستقطاب السياسي والاضطرابات الاجتماعية.”
وسلّط البابا فرنسيس الضوء في السنوات القليلة الماضية على القضايا الأخلاقية المحيطة بالذكاء الاصطناعي. وتحدث عن الذكاء الاصطناعي خلال قمة مجموعة السبع في إيطاليا في يونيو الماضي، وقال إن الناس يجب ألا يسمحوا للخوارزميات بتحديد مصيرهم.
وتظهر حلول في قطاع التكنولوجيا لمكافحة التزييف العميق ومقاطع الفيديو المزيفة والأصوات المفبركة، بهدف الحدّ من مختلف أنواع عمليات الاحتيال.
ويقول فيجاي بالاسوبرامانيان، رئيس “بيندروب سكيوريتي” المتخصصة في التحقق الصوتي، “قبل أقل من عشر سنوات، ما كان هناك سوى أداة واحدة لتوليد صوت من خلال الذكاء الاصطناعي، أما اليوم فثمة 490 أداة.”
ويضيف “في السابق، كان ابتكار تسجيل صوتي يستغرق 20 ساعة (من التسجيلات). أما اليوم، فباتت هذه المهمة تحتاج إلى خمس ثوان.”
وثمة جهات كثيرة توفّر للشركات القدرة على رصد المحتوى المزيف بالذكاء الاصطناعي في الوقت الفعلي، سواء في المقاطع الصوتية أو الفيديو، مثل “رياليتي ديفندر” و”إنتل”.
وتستخدم “إنتل” تغيرات اللون في الأوعية الدموية للوجه (تصوير التحجم الضوئي) في أداتها “فايك كاتشر”، بينما يقسم “بيندروب” كل ثانية من المقطع الصوتي إلى 8 آلاف مقتطف ويقارنها بخصائص الصوت البشري.
ويقول رئيس شركة “أتيستيف” نيكوس فيكياريدس “مثل أي شركة للأمن السيبراني، ينبغي دائما البقاء على اطلاع،” مضيفا “في البداية، كنّا نرى أشخاصا مع يد بستة أصابع، ولكن مع التقدم في التكنولوجيا، تزداد صعوبة رصد التزييف بالعين المجردة.”
◙ القضية تتطلب تنظيما دقيقا لأن المعلومات المضللة الواردة من وسائل الإعلام يسيطر عليها الذكاء الاصطناعي يمكن أن تنتشر عن غير قصد
وقد قلّلت بعض المنشورات العلمية من فاعلية أنظمة الكشف هذه، لكنّ دراسات جامعية كثيرة سلطت الضوء أيضا على معدلات الكشف المرتفعة. وبالنسبة إلى فيجاي بالاسوبرامانيان، سيتعين في النهاية على كل الشركات أن تتزوّد ببرنامج رصد المحتوى المولَّد بالذكاء الاصطناعي.
وبعيدا عن قطاعي المال والتأمين اللذين يعتبران من الضحايا التقليديين لعمليات الاحتيال، فإن ذلك “أصبح يشكل تهديدا عالميا للأمن السيبراني،” بحسب نيكوس فيكياريدس. ويقول “يمكن لأي شركة أن ترى سمعتها مشوهة بسبب التزييف العميق أو أن تكون مستهدفة بهذه الهجمات المعقدة.”
ويؤكد بالاسوبرامانيان أن زيادة معدّل العمل عن بعد تعزز من مخاطر انتحال الهوية. ومن الممكن أن يتّسع نطاق هذه العمليات ليصل إلى عامة الناس وخصوصا كبار السن، تحت تهديد المكالمات المفبركة.
ففي يناير، عرضت الشركة المصنعة الصينية “هونور” هاتفها الذكي الجديد "ماجيك 7" (Magic7)، القادر على الكشف والإبلاغ في الوقت الفعلي عن أن المحاور يستخدم الذكاء الاصطناعي خلال اتصال بالفيديو.
في نهاية عام 2024، أطلقت الشركة البريطانية الناشئة "سورف سيكيوريتي" متصفّحا عبر الإنترنت مخصصا حاليا للشركات فقط، قادرا على تنبيه المستخدم عندما يكون الصوت أو الفيديو مولّدا بواسطة الذكاء الاصطناعي. وتشير "أتيستيف" إلى أنّ لديها الآلاف من المستخدمين الفرديين للنسخة المجانية.
ويرى سيوي ليو، الأستاذ في علوم الكمبيوتر لدى جامعة بوفالو الحكومية بولاية نيويورك أن “التزييف العميق سيصبح مثل البريد العشوائي،” الذي شكّل مصدر إزعاج كبير لمستخدمي الإنترنت الأوائل لكنه بات حاليا تحت السيطرة تقريبا، بفضل كفاءة برامج فرز البريد الإلكتروني.
يقول بالاسوبرامانيان “لقد شوّش الذكاء الاصطناعي التوليدي الخط الفاصل بين الإنسان والآلة،” مضيفا “الشركات التي تنجح في إعادة ترسيخ هذا الفصل ستصبح ضخمة،” وستبلغ قيمة هذه السوق “المليارات” من الدولارات.