داعش يستفيد من تطبيقات الذكاء الاصطناعي لتجنيد المقاتلين

تنظيم داعش، ورغم طبيعته المتشددة وأفكاره القديمة، إلا أنه يحرص على الاستفادة من التقنيات الحديثة وبات يعتمد على الذكاء الاصطناعي في التسويق لأفكاره وتجنيد مقاتلين، وهو ما يثير مخاوف واسعة من قدرة التنظيم على تجديد قدراته.
بيروت- يستغل أنصار تنظيم الدولة الإسلامية أدوات الذكاء الاصطناعي للدعاية والتجنيد. ويخشى خبراء من عدم كفاية إجراءات السلامة التي يمكن أن تحد من انتهاكات داعش لهذا المجال الذي يصعب التحكم فيه.
وظهر رجل يرتدي زيا عسكريا وخوذة في تسجيل مصور على الإنترنت يشيد بالهجوم الذي قُتل فيه أكثر من 140 شخصا، بعد أيام من الهجوم القاتل الذي شنه تنظيم الدولة الإسلامية على قاعة روسية للحفلات الموسيقية في مارس.
ووفقا لمجموعة سايت للاستخبارات، وهي منظمة تتعقب مثل هذا المحتوى الرقمي وتحلله، قال الرجل باللغة العربية إن تنظيم الدولة الإسلامية وجه ضربة قوية لروسيا بهجوم دموي، وهو الأعنف الذي استهدفها منذ سنوات.
وحددت سايت وباحثون آخرون عبر الإنترنت أن الرجل في الفيديو، الذي لم تتمكن كونتكست (منصة الأخبار الرقمية لمؤسسة تومسون رويترز) من مشاهدته بشكل مستقل، لم يكن حقيقيا. وكان مقطعا تم إنشاؤه باستخدام الذكاء الاصطناعي.
◄ يصعب التقليل من شأن الهدية التي يشكلها الذكاء الاصطناعي للمجتمعات المتطرفة التي تعتبر وسائل الإعلام شريان حياتها
وتتبع فيديريكو بورغونوفو، الباحث في المعهد الملكي للخدمات المتحدة (مركز أبحاث مقره لندن)، الفيديو وأعاده إلى ناصر نشط لداعش في نظام المجموعة البيئي الرقمي.
وقال بورغونوفو، في تقرير لكونتكست أعده نزيه عسيران، إن هذا الشخص جمع البيانات والنشرات والبيانات من منفذ الأخبار الرسمي للدولة الإسلامية لإنشاء الفيديو باستخدام الذكاء الاصطناعي.
ويعد داعش من أكثر الجماعات الإرهابية استغلالا لتكنولوجيا الاتصالات ووسائل الإعلام المختلفة، وقد استطاع تطوير إستراتيجية إعلامية من خلال تكنولوجيا الاتصال، واستخدم كل الوسائل في عالم التكنولوجيا والمعلومات لنشر أفكاره وتجنيد أعضاء جدد والحصول على الدعم المادي والمعنوي من مؤيدي هذه الجماعات.
لكن بورغونوفو قال إن الفيديو يعدّ “استثناء للقواعد” لأن جودة الإنتاج عالية حتى لو لم يكن المحتوى عنيفا كما هو الحال في منشورات أخرى على الإنترنت.
وأضاف “كان هذا جيد جدا بالنسبة إلى منتج للذكاء الاصطناعي. لكنه متوسط في ما يتعلق بالعنف والدعاية”. وذكر أن الفيديو أظهر كيف يمكن لأنصار داعش والمنتسبين إليه تكثيف إنتاج المحتوى المتعاطف عبر الإنترنت.
ويقول خبراء رقميون إن جماعات مثل تنظيم الدولة الإسلامية والحركات اليمينية المتطرفة تستخدم الذكاء الاصطناعي بشكل متزايد وتختبر حدود ضوابط السلامة على منصات التواصل الاجتماعي.
وقالت دراسة أجراها مركز مكافحة الإرهاب في منطقة وست بوينت العسكرية الأميركية بولاية نيويورك في يناير إن الذكاء الاصطناعي يمكّن من توليد الدعاية وتوزيعها والتجنيد باستخدام روبوتات الدردشة التي تعمل بنظام الذكاء الاصطناعي وتنفيذ هجمات باستخدام طائرات دون طيار أو غيرها من المركبات ذاتية القيادة وشن هجمات إلكترونية.
وقال ستيفان بايلي، أستاذ العلاقات الدولية في جامعة لوفان الكاثوليكية في بلجيكا، إن “العديد من تقييمات مخاطر الذكاء الاصطناعي، ومخاطر الذكاء الاصطناعي التوليدي على وجه التحديد، لا تولي هذه المشكلة بالذات سوى لفتة سريعة. وتولي شركات الذكاء الاصطناعي الكبرى، التي تعاملت بصدق مع مخاطر أدواتها من خلال نشر تقارير مطولة في بعض الأحيان ترسم خرائط لها، اهتماما ضئيلا للاستخدامات المتطرفة والإرهابية”.
ولا تزال اللوائح التي تحكم الذكاء الاصطناعي قيد الصياغة عبر العالم. وقال رواد التكنولوجيا إنهم سيسعون لضمان سلامتها وأمانها.
وطورت شركة مايكروسوفت العملاقة للتكنولوجيا مثلا معيارا لذكاء اصطناعي مسؤول يهدف إلى تأسيس تطوير الذكاء الاصطناعي على ستة مبادئ بما في ذلك الإنصاف والموثوقية والسلامة والخصوصية والأمن والشمولية والشفافية والمساءلة.
وكتبت ريتا كاتز، مؤسسة مجموعة سايت الاستخباراتية ومديرتها التنفيذية، في تقرير خاص صدر خلال السنة الحالية، أن مجموعة من الجهات الفاعلة من أعضاء تنظيم القاعدة المتشدد إلى شبكات النازيين الجدد يستفيدون من التكنولوجيا.
وأضافت “يصعب التقليل من شأن الهدية التي يشكّلها الذكاء الاصطناعي للإرهابيين والمجتمعات المتطرفة التي تعتبر وسائل الإعلام شريان حياتها”.
أعلن تنظيم الدولة الإسلامية، في ذروة قوته سنة 2014، سيطرته على أجزاء كبيرة من سوريا والعراق. وأرهب المناطق التي بسط نفوذه عليها.
وكانت وسائل الإعلام أداة بارزة في ترسانته، وطالما كان التجنيد عبر الإنترنت أمرا حيويا لعملياته.
ورغم انهيار خلافته المعلنة ذاتيا في 2017، لا يزال أنصاره والمنتسبون إليه يروّجون لعقيدتهم عبر الإنترنت ويحاولون إقناع الناس بالانضمام إلى صفوفهم.
ويستخدم التنظيم ألعاب الفيديو في استهداف الشباب، لأنها بإمكانها التأثير فيهم وتغيير توجهاتهم بسهولة، لذا قام بتصميم ألعاب إلكترونية، وقام بتحميلها على المتاجر الإلكترونية، والمنتديات الجهادية بهدف توفيرها لمناصري التنظيم واستغلالها كأداة في عمليات التواصل بينهم، وتحقيق أهدافه من دعاية وانتشار، واستقطاب الشباب للتجنيد عبر التواصل معهم من خلال هذه الألعاب وغرف الدردشة الخاصة بها، وحاول استغلال هذه الألعاب لتحقيق المحاكاة للعمل الميداني على أرض الواقع من خلال التواصل بين أعضائه، وممارسة التخطيط والتواصل عبر خوض المعارك الافتراضية في ما بينهم في هذه الألعاب.
◄ داعش يعد من أكثر الجماعات الإرهابية استغلالا لتكنولوجيا الاتصالات ووسائل الإعلام المختلفة، وقد استطاع تطوير إستراتيجية إعلامية من خلال تكنولوجيا الاتصال
وقال مصدر أمني لرويترز خلال الشهر الماضي إن فرنسا حددت عشرات من مسؤولي تنظيم الدولة الإسلامية في خراسان المتمركزين في دول في أنحاء أفغانستان وإن وجودهم قويّ على الإنترنت، وهم يحاولون إقناع الشبان في الدول الأوروبية المهتمين بالانضمام إلى التنظيم في الخارج بتنفيذ هجمات محلية بدلا من القدوم إليهم.
وكان داعش خراسان جناحا منبعثا من تنظيم الدولة الإسلامية، أطلق عليه اسم منطقة خراسان التاريخية التي شملت أجزاء من إيران وأفغانستان وآسيا الوسطى.
ويخشى المحللون من أن الذكاء الاصطناعي قد يسهّل التجنيد عبر الإنترنت.
وقال دانيال سيغل، المحقق في شركة غرافيكا لأبحاث وسائل التواصل الاجتماعي، إنه صادف روبوتات محادثة تحاكي مقاتلي الدولة الإسلامية القتلى أو المسجونين في بحث سابق أجراه قبل انضمامه إلى الشركة.
وصرّح لكونتكست أن مصدر الروبوتات يبقى غامضا، ولا يدري ما إذا كان هذا المصدر هو الدولة الإسلامية أم أنصارها. لكن الخطر الذي تشكله لا يزال حقيقيا.
وأضاف “يمكن لفروع داعش الآن بناء هذه العلاقات الحقيقية مع الروبوتات التي تمثل مستقبلا محتملا يمكن لروبوت الدردشة فيه أن يشجعهم على العنف”.
وتفاعل سيغل مع بعض الروبوتات كجزء من بحثه ووجد أن إجاباتهم عامة، لكنه قال إن ذلك قد يتغير مع تطور تكنولوجيا الذكاء الاصطناعي.
وأضاف “من الأشياء التي تثير الانشغال كيف ستمكن وسائل الإعلام الاصطناعية هذه المجموعات من ربط محتوياتها التي كانت موجودة بالفعل ولكن في دوائر معزولة في ثقافتنا السائدة”.
وهذا ما يحدث بالفعل، حيث تتبع سيغل مقاطع فيديو لشخصيات كرتونية شهيرة، مثل ريك ومورتي وبيتر غريفين، وهم يغنون أناشيد الدولة الإسلامية على منصات مختلفة.
وقال “يسمح هذا للمجموعة أو المتعاطفين أو الأنصار من استهداف جماهير محددة لأنهم يعرفون أن الخوارزمية ستغذي المستهلكين المنتظمين لسبونج بوب أو بيتر جريفين أو ريك ومورتي بهذا المحتوى”.
يعدّ خطر استخدام أنصار داعش لتكنولوجيا الذكاء الاصطناعي لتوسيع معرفتهم بالأنشطة غير القانونية قائما.
وحاول الباحثون في مركز مكافحة الإرهاب في ويست بوينت، خلال دراسة في يناير، تجاوز حواجز نماذج اللغة الكبيرة الأمنية للجهات الفاعلة الخبيثة استغلالها.
وصاغوا أسئلة طلبت معلومات حول مجموعة من الأنشطة من التخطيط للهجوم إلى التجنيد والتعلم التكتيكي، وولدت الروبوتات الاستجابات المطلوبة في الكثير من الأحيان.
وفي أحد الأمثلة التي وصفوها بأنها “مثيرة للقلق”، طلب الباحثون من الأداة مساعدتهم في إقناع الناس بالتبرع للدولة الإسلامية.
وقال التقرير “تلقينا من النموذج إرشادات محددة للغاية حول كيفية إجراء حملة لجمع التبرعات، حتى أنه قدم روايات وعبارات محددة لنستخدمها على وسائل التواصل الاجتماعي”.
وقال جو بيرتون، أستاذ الأمن الدولي في جامعة لانكستر، إن الشركات تعدّ غير مسؤولة بإفراجها السريع عن نماذج الذكاء الاصطناعي كأدوات مفتوحة المصدر.
وشكك في فعالية بروتوكولات السلامة الخاصة بنماذج اللغة الكبيرة، مؤكدا على كونه “غير مقتنع” بأن المنظمين مجهزون لفرض الاختبار والتحقق من هذه الأساليب.
وأضاف بيرتون “العامل الذي يجب مراعاته هنا هو مقدار ما نريد تنظيمه، وما إذا كان ذلك سيخنق الابتكار. أرى أن الأسواق يجب ألا تتجاوز السلامة والأمن، وأعتقد أنها تفعل ذلك اليوم”.