زوكربيرغ معترفا: أنا أتحكم في مستقبلكم

مؤسس فيسبوك ومديره التنفيذي مارك زوكربيرغ يظهر في مقطع فيديو تم بواسطة تقنيات التزييف العميق معترفا بسيطرته على العالم، ما أعاد النقاش حول التقنية المثيرة للجدل إلى الواجهة.
واشنطن - اعترف مؤسس فيسبوك ومديره التنفيذي مارك زوكربيرغ وهو يتحدث مباشرة إلى الكاميرا، يفخر بالدوافع السيئة وراء إنشاء إمبراطورية فيسبوك.
وظهر زوكربيرغ في مقطع فيديو وهو يقول “تخيل هذا لثانية واحدة: رجل واحد يسيطر على بيانات المليارات من الأشخاص سيطرة كاملة، كل أسرارهم، حياتهم ومستقبلهم”، ويضيف “أنا مدين لسبكترا التي أخبرتني أن من يتحكم بالمعلومات يتحكم بالمستقبل”؛ وسبكترا هي شركة تحاول السيطرة على العالم في سلسلة أفلام جيمس بوند.
ويبدو جليا أن الفيديو مزيف، وقد أصدره فنانان بريطانيان بيل بوسترز ودانييل هاو، لإظهار كيف يمكن بسهولة نشر المعلومات الخاطئة والمضللة عبر الإنترنت. ونشر الفيديو على موقع إنستغرام المملوك لفيسبوك.
وقد أراد الفنانان اختبار مصداقية فيسبوك في التعامل مع الأخبار المزيفة، وهل ستقوم الشركة بمحو الفيديو أم ستتركه كما فعلت بفيديو رئيسة مجلس النواب نانسي بيلوسي.
وقالت المتحدثة باسم إنستغرام ستيفاني أوتواي إن الفيديو المزيف لزوكربيرغ سيحصل على نفس معاملة الفيديو المزيف لبيلوسي والمعلومات الخاطئة الأخرى.
وقالت المتحدثة “إذا وضع مدققو الحقائق التابعون لجهة خارجية علامة خاطئة، فسوف نقوم بتصفيتها من توصيات إنستغرام مثل صفحات الاستكشاف والهاشتاغات”.
وقبل أسبوعين، أعلنت شركة فيسبوك أنها لن تحذف فيديو تم التلاعب في محتواه لرئيسة مجلس النواب الأميركي نانسي بيلوسي، قائلة إنه لا توجد سياسة تحدد أن المحتوى في موقع التواصل الاجتماعي يجب أن يكون دقيقا.
وتظهر بيلوسي في مقطع الفيديو وكأنها تتلعثم في الكلام كما لو كانت في حالة سكر أو مختلة عقليا.
وهاجمت بيلوسي شركة فيسبوك، مؤكدة أنها أصبحت تشكك في أن الأخبار الزائفة التي انتشرت على الموقع “ليست غير مقصودة”. واعتبرت أن رفض الشركة الحذف يوحي بأنها تخدم وتمكن نشر الأخبار الزائفة.
ويحاول موقع فيسبوك بشكل يائس ومثير للسخرية أن يعيد تقديم نفسه على أنه “شبكة تركز على الخصوصية” حتى في الوقت الذي يواصل فيه نشر البيانات الشخصية لمستخدميه في العالم.
ويشعر الباحثون بقلق متزايد من أن ما يسمى تكنولوجيا التزييف العميق يمكن استخدامها لإنشاء مقاطع فيديو “عميقة وهمية”، يصعب تمييزها عن الحقيقية.
وعمل الباحثون على تطوير برنامج جديد قائم على الذكاء الاصطناعي يدعى “ديب فايكس” لتزييف الفيديوهات من خلال تعديل أقوال شخص ما لجعله يقول ما ترغب فيه عن طريق كتابة ما تريد أن يقوله بكل بساطة.
وتمثّل هذه الخطوة قفزة نوعية أخرى في تقنية لا تعود بأي فائدة اجتماعية فعلية سوى مساعدة إستوديوهات إنتاج الأفلام على توفير الأموال.
وتسمح الحكومات الاستبدادية في جميع أنحاء العالم بإساءة استخدام هذه التقنية بهدف تشويه سمعة الأصوات المعارضة وممارسة الأفعال الانتقامية من خلال نشر مقاطع فيديو إباحية وتأجيج الصراع الاجتماعي.
واستمرّ العلماء في كل من جامعتي ستانفورد وبرنستون ومعهد ماكس بلانك للمعلوماتية وأدوبي للأبحاث في العمل على تقديم حجج أوّلية تفسّر السبب وراء انعدام ثقة الأشخاص في تكنولوجيا تطوير منصة برمجيات جديدة تسمح لشخص بتعديل النسخة الأصلية لنص يخصّ خطابا مسجّلا ألقاه شخص آخر بهدف تغيير الفيديو وتحريف أقوال هذا الشخص.
وتعمل هذه التكنولوجيا عن طريق مطابقة الوحدة الصوتية أو ما يعرف بالفونيم، وهي عملية معالجة اللغة الطبيعية للأصوات المختلفة مع دراسة الجانب المرئي وملامح الوجه الناتجة عن هذه الوحدات الصوتية كلما تحدّث الشخص.
وفي المرحلة التالية، تُوظَّف تقنية الذكاء الاصطناعي لفبركة الفيديو الجديد بناء على النسخة المعدلة ومطابقة صوت المتحدّث مع النص المعدّل.
ووفقا للباحثين “يضع النهج القائم على تعديل النص الأسس من أجل تعزيز الأدوات المستخدمة في التحرير خلال مرحلة ما بعد إنتاج الأفلام. وغالبا ما تتطلب مشاهد الحوار المصورة إعادة ضبط التوقيت أو التحرير بناء على تغييرات نصية صغيرة، ما يستدعي حاليا عملا يدويا شاقا. وتضمن تقنية التحرير سهولة التكيّف على مستوى المحتوى المرئي والمسموع للفيديو والموجّه نحو فئات مستهدفة محددة. فعلى سبيل المثال، يمكن تعديل مقاطع فيديو الإرشادات مع جماهير من مختلف الخلفيات الاجتماعية أو يمكن تعديل مقطع فيديو لسرد القصص مع أطفال من مختلف الفئات العمرية بالاستناد إلى تعديلات نصية. باختصار، تهدف الجهود المبذولة إلى تطوير سرد القصص”.
في المقابل، يعترف الباحثون بأنه يمكن لبعض الجهات الفاعلة الفاسدة محاولة استخدام هذه التكنولوجيا لأغراض دنيئة، كما يقدمون بعض الحلول المحتملة لهذه المشكلة الحتميّة.
وأضافوا “نعتقد أنه من المهم أن يظهر الفيديو المركب باستخدام أدواتنا على أنه محتوى مركّب”.
ووفق الباحثين، فمن المهم الاستمرار في تطوير تقنيات علم الأدلة الجنائية وبصمات الأصابع وتقنيات التحقق (الرقمية وغير الرقمية) لكشف الفيديو المزور الذي وقع التلاعب به.
وقد تقلل تدابير الحماية هذه من إمكانية سوء الاستخدام وتسمح باستخدام تقنيات تحرير الفيديو بشكل مبتكر.
ووفي جملة من التوصيات يقول الباحثون، إن الفكرة القائلة إن تقنية “ديب فايكس” تقدم نفسها بشكل واضح تكشف عن فهم ساذج للدعاية.
ويضيفون أنه في حال تمكن الذكاء الاصطناعي من إنشاء مقاطع فيديو مفبركة، فيمكن لشبكة ذكاء اصطناعي إزالة علامة التزييف، وبذلك فإن إنشاء أدوات لاكتشاف عمليات التزوير لا يجدي نفعا، لاسيما في ما يتعلق بالدعاية.
ومن جهتها، لا تسعى الجهات الفاعلة التي تقوم بمثل هذه الأعمال الضارة إلى الحصول على الموافقة على إنشاء محتوى مزيف للتشهير بالآخرين وتشويهم وفقا لأجندة معينة.
وفي بعض الحالات، قد يتسبب صنع مقطع فيديو مزيف يظهر فيه الرئيس التنفيذي لشركة أمازون جيف بيزوس وهو يعلن عن تقاعده في ارتفاع أسهم الشركة، في حين يمكن أن تتسبب بعض المعلومات الخاطئة في بعض البلدان في حدوث انقلابات وحالات صراع وعنف مما قد يهدد استقرار دول بأكملها.
ويطالب الباحثون الذين طوّروا هذه التقنية الجديدة بجميع أنواع الضمانات التي ينبغي وضعها لحماية العالم من عواقب هذه التقنية، لكنهم بينما يسارعون إلى تطوير هذه التقنية من أجل إنتاج مقاطع فيديو مزيفة، فإنه لا يبدو أن هناك من يهتم لهذه الضمانات.
لكن في مقال نشر مؤخرا في صحيفة “نيويورك تايمز” الأميركية، تعتقد أستاذة الفلسفة في جامعة يورك في تورنتو الدكتورة ريجينا ريني أن الأوان قد فات بالفعل للعودة وهي ترى أنه يجب علينا أن نجهّز أنفسنا لمعالجة الفيديو كما لو أننا نتعامل مع شهادة أو أدلة وثائقية.
وأضافت ريني أنه “من الواضح أن المعلومات الحالية حول الأخبار المزيفة ليست سوى لمحة عما سيحدث لاحقا عندما تصبح الأصوات والصور وليس الكلمات فقط عرضة للتلاعب من قبل أي شخص لديه جهاز كمبيوتر جيّد نسبيا”.