كلمات مفتاحية قاتلة يستخدمها الذكاء الاصطناعي في حرب غزة

التقنيات الحديثة تغيّر طبيعة الحروب من حيث دقة الهجمات وكفاءتها العملياتية وخفض كلفتها الاقتصادية.
السبت 2025/04/05
تحالف الجيوش مع شركات الذكاء الاصطناعي يتوسع

تل أبيب - بعد انتهاء الهدنة في غزة واستئناف العمليات العسكرية في القطاع، أظهرت إسرائيل توجها متزايدا نحو استخدام تقنيات الذكاء الاصطناعي لتعزيز فاعلية عملياتها العسكرية، ما يسلط الضوء على كيف يمكن للتقنيات الحديثة أن تغيّر طبيعة الحروب، من حيث دقة الهجمات وكفاءتها العملياتية وخفض كلفتها الاقتصادية. ومع ذلك تظل هناك تحديات كبيرة مرتبطة بأخلاقيات استخدام الذكاء الاصطناعي في الحروب وتنامي المخاوف بشأن تطبيع القتل الجماعي.

وفي حرب غزة يتجلى استخدام الذكاء الاصطناعي في تحسين قدرة الجيش الإسرائيلي على تحديد الأهداف بدقة أكبر. وتتضمن التقنية التي اعتمدت عليها إسرائيل جمع وتحليل البيانات الضخمة، مثل الصور الفضائية والمعلومات الاستخباراتية. ومكنت هذه الأنظمة، مثل “حبسورا” و”لافندر”، الجيش الإسرائيلي من تحديد الأهداف في غزة بسرعة ودقة، وهو ما قلل الحاجة إلى الهجمات العشوائية أو القصف غير المستهدف.

وتستخدم الأنظمة العسكرية الذكية مثل “حبسورا” و”لافندر” في حرب غزة لتحديد الأهداف بدقة عالية، اعتمادًا على تحليل كميات ضخمة من البيانات. ويتركز الاستخدام على جمع الصور الفضائية، وبيانات الاتصالات الملتقطة، وتحليل أنماط الحركة والاتصالات في المنطقة المستهدفة. ولكن مع تقدم هذه الأنظمة، يواجه الجيش الإسرائيلي تحديًا يتمثل في ضرورة التمييز بين الأهداف “المشروعة” والذين قد يكونون مجرد مدنيين عاديين.

وفي الكثير من الحالات تعتمد الأنظمة على “الكلمات المفتاحية”، وهي عبارة عن كلمات أو عبارات يتم تصنيفها على أنها مؤشرات على تورط الشخص في الأنشطة العسكرية أو المقاومة. وعلى سبيل المثال قد تشمل الكلمات المفتاحية لفظ “قائد” أو “مسلح” أو “هجوم”، بينما قد تحتوي المحادثات العادية على ألفاظ مشابهة لكن دون ارتباط حقيقي بأهداف عسكرية.

وأكدت الخبيرة في الذكاء الاصطناعي هايدي خلاّف على أن الأنظمة المستخدمة من قبل الجيش الإسرائيلي تعتمد على هذه “الكلمات المفتاحية” في تحديد الأهداف. ويمكن أن يؤدي هذا إلى تصنيف غير دقيق للأفراد. وعلى سبيل المثال قد يُدرج شخص ما في قائمة الأهداف فقط بناءً على تبادل كلمة مثل “هجوم”، والتي قد تكون جزءًا من محادثة عادية أو كلمة مستعارة. وبذلك تصبح هذه الكلمات المفتاحية قاتلة، حيث تُستخدم كأساس للاستهداف العشوائي.

◙ قد يُدرَج شخص ما في قائمة الأهداف فقط بناءً على تبادل كلمة، مثل "قائد"، والتي قد تكون جزءًا من محادثة عادية

وتعني هذه الطريقة في استهداف الأشخاص أن كل شخص يتم ربطه بهذه الكلمات قد يصبح هدفًا في مرمى الطائرات الحربية، حتى لو كانت نواياه غير عدائية أو مجرد ضحية للظروف. ويشير محللون إلى أن إحدى نتائج هذا الاستخدام انخفاض كلفة العمليات العسكرية، حيث تُمكن الأنظمة من استهداف الأهداف الأكثر أهمية دون إهدار القنابل على مواقع غير ذات قيمة.

واعتبرت هايدي خلاّف أن هذا النوع من التوجيه الدقيق يمكن أن يساعد في تقليل الخسائر العسكرية وضمان فاعلية أكبر للقوة الجوية. ومكنت هذه التقنيات الجيش الإسرائيلي من استهداف المواقع بدقة أعلى، وبالتالي تقليل الحاجة إلى إطلاق كميات كبيرة من القنابل باهظة الثمن. كما أن تحسين دقة الهجمات يساهم في تجنب تدمير البنية التحتية غير العسكرية، وهو ما يحد من النفقات. ويشير ذلك إلى أن إسرائيل قد حسّنت تقنياتها في مجال الذكاء الاصطناعي.

وعلى الرغم من الفوائد التي يمكن أن يوفرها الذكاء الاصطناعي في الصراعات العسكرية، فإن هناك قلقًا متزايدًا بشأن الاستخدام الأخلاقي لهذه التقنيات. ويعتمد العديد من هذه الأنظمة على خوارزميات قد لا تكون دقيقة تمامًا، ما يعرض المدنيين لخطر الاستهداف غير المقصود. وعلى سبيل المثال قد يؤدي استخدام الذكاء الاصطناعي في استهداف الأفراد، استنادًا إلى بيانات غير كاملة أو غير دقيقة، إلى قتل مدنيين أبرياء.

ويعكس هذا الاستخدام توجهًا نحو “تطبيع” القتل الجماعي، حيث قد يُلقى اللوم على الخوارزميات بدلاً من المسؤولين العسكريين. وهذا يُثير تساؤلات حول مدى المسؤولية القانونية للأطراف التي تستخدم هذه التقنيات. وإذا حدثت انتهاكات لحقوق الإنسان، مثل قتل المدنيين، قد يكون من الصعب محاسبة الأشخاص الذين نفذوا العمليات العسكرية، وهو ما يجعل من الصعب مساءلة الأطراف المتورطة.

وإلى جانب التطورات العسكرية أثارت الخبيرة هايدي خلاّف قضية أخلاقية مثيرة للجدل تتعلق بالتعاون بين إسرائيل وشركات التكنولوجيا الكبرى مثل غوغل وأمازون ومايكروسوفت. ومنذ عام 2021 قدمت هذه الشركات خدمات الذكاء الاصطناعي والسحابة الحوسبية للجيش الإسرائيلي، وهو تعاون بات يتوسع بعد أكتوبر 2023 مع زيادة الاعتماد على تقنيات السحابة والنماذج المتقدمة.

وقالت خلاّف في حديثها لوكالة الأناضول إن هذا التعاون قد يجعل هذه الشركات شريكة في جرائم حرب محتملة، إذ أن الذكاء الاصطناعي الذي تستخدمه إسرائيل يتسم أحيانًا بعدم الدقة، وهو ما يعرض المدنيين في غزة لخطر الاستهداف غير المقصود. وأضافت أن بعض الأنظمة قد تكون دقتها منخفضة إلى درجة تصل إلى 25 في المئة فقط، ما يعزز المخاوف من استهداف غير دقيق قد يفضي إلى مقتل مدنيين، وخاصة في ظل غياب رقابة فعالة.

6