"التزييف العميق" ينغّص حياة المراهقات

بات الذكاء الاصطناعي، وخاصة التوليدي، يتيح منذ سنوات اللجوء إلى “التزييف العميق”، أي التلاعب بالصور والأصوات وحتى الحركات، لجعل أصحابها يقولون أو يفعلون أشياء لم تحدث في الواقع. وباتت صور ومقاطع فيديو لفتيات في وضعيات فاضحة لم يقمن بها تنتشر مؤخرا، ما جعلهن يقعن في مواقف حرجة في الوسط الذي يعشن فيه.
واشنطن - استيقظت إليس، وهي مراهقة من تكساس تبلغ 14 عاماً، في صباح أحد أيام أكتوبر على سيل من المكالمات والرسائل التي وصلتها عبر هاتفها المحمول تخبرها أن صورا زائفة لها وهي عارية تنتشر على منصات التواصل الاجتماعي.
وتقول الشابة “كانت صوراً لي ولإحدى أعزّ صديقاتي مأخوذة من إنستغرام. وعُدّلت باستبدال جسدينا بجسمين عاريين”.
وتضيف “أتذكر أنني كنت خائفة جداً لأنّ هذه الصور المزيّفة كانت تُرسَل إلى المقربين مني، في حين لم أُقدِم على التقاط صور مماثلة قط”.
وعلى غرار عدد كبير من زميلاتها في مدرستها الواقعة على مشارف دالاس في تكساس، كانت الشابة ضحية لما يُسمّى “التزييف العميق” (ديب فايك) بصور ذات طابع جنسي، استخدمه تلميذ من دون حصوله على موافقتها وصديقتها، ثم نشره عبر سناب شات.
ومع انتشار الذكاء الاصطناعي، بات من السهل إنشاء صور أو مقاطع فيديو مماثلة وجعلها قريبة من الواقع بصورة كبيرة، مما يفتح المجال لاستخدامها بهدف مضايقة الشخص أو إحراجه وابتزازه في غالب الأحيان.
وتقول أنّا بيري ماك آدامز التي أبلغتها ابنتها إليس فوراً بانتشار الصور “لم تتوقف الفتاتان عن البكاء، إذ شعرتا بالخجل”.
من السهل إنشاء صور أو مقاطع فيديو فاضحة مما يفتح المجال لاستخدامها بهدف مضايقة الشخص أو إحراجه
وتتابع الأم الخمسينية التي تقول إنها أصيبت بالذهول لقرب هذه الصور من الواقع “قالت لي ‘أمي، سيقولون إنّ مَن في الصورة هي أنا’، فأجبتها، كلا يا عزيزتي، لقد كنت برفقتك عندما التقطت الصورة وأُدرك أنّ مَن فيها ليست أنت”.
وفي نهاية أكتوبر، انتشرت صور مزيفة ذات طابع جنسي أيضاً في مدرسة ثانوية في نيوجيرسي شمال شرقي الولايات المتحدة. وأُطلق تحقيق للتوصل إلى هويات الضحايا والفاعلين.
وتقول دوروتا ماني، وهي والدة ضحية لهذه الصور والتي لا تبلغ من العمر سوى 14 سنة “أعتقد أن ذلك سيصبح متكرراً بصورة متزايدة (…) وثمة ضحايا لا يعرفون حتى أنّ صورهم استُخدمت لإنتاج محتوى مزيّف”.
وتقول المتخصصة في علم الجريمة والباحثة في مجال الذكاء الاصطناعي رينيه كمينغز “بدأنا نرى مزيداً من الحالات (…) لكن عندما يتعلق الأمر بالاعتداء الجنسي، أو ‘الإباحية الانتقامية’ (الكشف الضار عن صور حميمة) أو ‘التزييف العميق للإباحية’، فإنّ عدداً كبيراً من الأشخاص يلتزمون الصمت ويعانون سرّاً مما تعرضوا له، لأنهم يخافون من كشف الأمر علناً”.
وفي وقت يُعد تقييم مدى انتشار هذه الظاهرة أمراً مستحيلاً “يمكن لأي شخص يحوز هاتفاً ذكياً ويملك بضعة دولارات أن ينشئ أي محتوى يصب في خانة التزييف العميق”، على قول كمينغز وهي أستاذة في جامعة فيرجينيا.
ويتم كل ذلك بفضل التقدم الذي يُحرَز في الذكاء الاصطناعي التوليدي وإتاحته على نطاق واسع. فهذه التقنية قادرة على إنتاج نصوص وصور وأصوات استناداً إلى طلب بسيط بلغة شائعة.
وبات المحتوى المفبرك القريب من الواقع، والذي كان يؤثر سابقاً على صورة المشاهير “الذين ينشرون كميات كبيرة جداً من صورهم ومقاطع الفيديو الخاصة بهم عبر الإنترنت” يثير قلق الجميع، على ما يؤكد الأستاذ في جامعة كاليفورنيا في بيركلي هاني فريد.

ويضيف فريد المتخصص في كشف الصور المُتلاعَب بها رقمياً “إذا كان لدى الشخص حساب في منصة لينكد إن مرفق بصورة شخصية له، يمكن لأي كان أن ينشئ صورة ذات طابع جنسي له”، مشيراً إلى أن التلاعب بالصور “يستهدف بشكل أساسي النساء والفتيات الصغيرات”.
ولا يبدو أنّ النظامين المدرسي والقضائي يستطيعان مواكبة هذه المسألة، في ظل التهديد المتزايد لها.وتقول كمينغز “يجري تركيب الوجه على جسد آخر ليس ملكاً للشخص المعني، لذا لا يعتبر القانون أنّ ذلك مماثل لانتشار صور عارية لهذا الشخص”.
وفي الولايات المتحدة، ما مِن قانون فدرالي يعاقب على إنتاج الصور الجنسية المفبركة ونشرها، ولا تشريعات مرتبطة بهذه المسألة سوى في عدد قليل جداً من الولايات.
وفي نهاية أكتوبر حضّ الرئيس الأميركي جو بايدن النواب على وضع ضمانات لمنع “الذكاء الاصطناعي التوليدي من إنتاج محتوى إجرامي مرتبط بالأطفال أو صور حميمة لأشخاص حقيقيين من دون موافقتهم”. وإذا كانت مسؤولية مبتكري هذه الصور الذين يصعب تحديد هوياتهم هي الأساس، فعلى الشركات التي تقف وراء المواقع أو البرامج المستخدمة وشبكات التواصل الاجتماعي مسؤولية أيضاً، بحسب فريد.
فالصور صحيح أنها مزيّفة، لكنّ “الصدمة التي يتعرض لها الشخص حقيقية جداً”، وفق كمينغز التي تشير إلى أشخاص “عانوا قلقاً ونوبات هلع واكتئاباً أو عوارض ما بعد الصدمة، بعد أن وقعوا ضحايا لمواد إباحية مزيفة”. وتؤكد أنّ هكذا محتوى “قد يدمّر حياة الأشخاص”.
وتقول إليس التي تصف نفسها بأنها مراهقة اجتماعية ورياضية، إنها تشعر راهناً “بخوف دائم”، رغم تحديد هوية الطالب المسؤول عن ابتكار صورها المزيفة وطرده مؤقتاً من المدرسة.
وتضيف “لا أعرف عدد الصور التي أنتجها أو كم شخصاً اطّلع على هذا المحتوى”، مشيرةً إلى أنّها طلبت تغيير مدرستها.
وتصف والدتها الصور بأنها “مواد إباحية تطال الأطفال”.
وتقول ماك آدامز إنّ ما حدث “قد يؤثر عليهما مدى الحياة. فهذه الصور لن تُزال مطلقاً من الإنترنت. لذا، عندما تتقدم الشابة إلى جامعة ما مثلاً، مَن يدري ما إذا كانت هذه الصور ستعاود الظهور في حياتها مجدداً”.