حتى لا تقرر الروبوتات من يموت ومن يعيش

مؤتمر النمسا يدعو إلى بذل جهود جديدة لتنظيم استخدام الذكاء الاصطناعي في أنظمة الأسلحة.
الجمعة 2024/05/03
أوقفوا الروبوتات القاتلة

فيينا - مع تقدم تكنولوجيا الذكاء الاصطناعي السريع، تزداد أنظمة الأسلحة التي يمكنها القتل دون تدخل بشري هيمنة، وهو ما أثار تحديات أخلاقية وقانونية تتفق معظم الدول على ضرورة التصدي لها.. فهل تستطيع الحكومات إبقاء القرارات المصيرية المتعلقة بمن يعيش ومن يموت في يد البشر وليس في يد الآلة؟

السؤال طرح على نطاق واسع في مؤتمر استضافته النمسا وحظي بمشاركة واسعة من قبل منظمات حكومية ودولية فضلا عن مبعوثين من 143 دولة، دعت خلاله النمسا إلى بذل جهود جديدة لتنظيم استخدام الذكاء الاصطناعي في أنظمة الأسلحة الذي يمكن أن يؤدي لظهور ما يسمى “الروبوتات القاتلة”، ويهدف إلى إحياء المناقشات المتعثرة إلى حد كبير حول هذه القضية.

وزير الخارجية النمساوي ألكسندر شالنبرغ أكد خلال الاجتماع أن المجتمع الدولي يجب ألا يدع هذه اللحظة تفوته دون اتخاذ إجراء حاسم، “الآن هو الوقت المناسب للاتفاق على قواعد ومعايير دولية لضمان السيطرة البشرية”.

ألكسندر شالنبرغ: الوقت مناسب للاتفاق على قواعد دولية لضمان سيطرة البشر
ألكسندر شالنبرغ: الوقت مناسب للاتفاق على قواعد دولية لضمان سيطرة البشر

وفي خطابه الافتتاحي للمؤتمر، بعنوان “الإنسانية على مفترق الطرق: أنظمة الأسلحة المستقلة وتحديات التنظيم” أكد شالنبرغ أن على المجتمعين أن يضمنوا على الأقل أن “القرارات المصيرية المتعلقة بمن يعيش ومن يموت تبقى في يد البشر وليست الآلات”.

النقاش ليس وليد هذه اللحظة، لقد مرت سنوات شهدت خلالها أروقة الأمم المتحدة جدلا حادا دون تحقيق نتائج ملموسة ومؤثرة.

وكان لسان حال المشاركين في المؤتمر الذي استمر يومين في فيينا يقول إن الوقت لاتخاذ إجراءات ينفد بسرعة. وهو ما أكدته ميريانا سبولجاريك رئيسة اللجنة الدولية للصليب الأحمر، خلال حلقة نقاشية في المؤتمر قائلة: “من المهم للغاية أن نتخذ إجراءات على وجه السرعة”.

مضيفة أن “ما نشهده اليوم في سياقات العنف المختلفة هو إخفاقات أخلاقية أمام المجتمع الدولي. ولا نريد أن نرى مثل هذه الإخفاقات تتفاقم من خلال تحويل مسؤولية العنف والسيطرة عليه إلى الآلات والخوارزميات”.

وبينما كانت النقاشات تدور، في العاصمة النمساوية، كانت ساحات المعارك في مناطق مختلفة من العالم تشهد فعليا استخدام الذكاء الاصطناعي. ويؤكد خبراء أن الطائرات المسيرة في أوكرانيا تواصل طريقها إلى هدفها حتى عندما يتم قطع الاتصال بينها وبين مشغلها باستخدام تقنيات التشويش. وهو ما يؤدي إلى إلحاق الأذى بأهداف بشرية بناء على قرار يتخذه الذكاء الاصطناعي وحده.

وعند الحديث عن الذكاء الاصطناعي وخصوصا “الروبوتات القاتلة” يجب ألا يذهب خيالنا إلى كائنات شبيهة بالبشر تشارك مباشرة في المعارك، وفق الصورة النمطية التي قدمتها سينما الخيال العلمي على مدى عدة عقود.

من بين أبرز المنتجات التي كشفت عنها “كلاشنيكوف” المصنعة للبندقية الفردية الروسية الشهرية التي تحمل نفس الاسم خلال فعالية عقدتها وزارة الدفاع الروسية مؤخرا، درون صغير الحجم متعدد المهام باسم “كاراكورت” من أبرز خصائصه إمكانية إطلاقه من حاوية اسطوانية صغيرة الحجم، ما يسهل عملية استخدامه في المعارك.

وقال مصدر في الشركة: “لقد قمنا بتطوير درونات جديدة، تلبي المواصفات الفنية والتكتيكية المطلوبة من قبل الخبراء العسكريين، وتؤمن الاحتياجات الدفاعية للجيش الروسي، ويمكنها تأدية مختلف المهام القتالية، بما فيها المهام المطلوبة خلال العملية العسكرية الخاصة”.

وكشفت “كلاشنيكوف” أيضا عن طائرة مسيّرة جديدة زودتها بكاميرات بصرية وكاميرات حرارية، ويمكن التحكم بها لاسلكيا أو من خلال أسلاك رفيعة جدا، الأمر الذي يجعلها أقل تأثرا بمنظومات التشويش والحرب الإلكترونية.

 

عند الحديث عن الذكاء الاصطناعي و"الروبوتات القاتلة" يجب أن لا يذهب خيالنا إلى كائنات شبيهة بالبشر

وكانت موسكو قد اعتمدت حتى اليوم على إيران لتزويدها بالطائرات الذكية المسيرة لتستخدمها في حربها التي تشنها بأوكرانيا. ومعلوم أن لدى إيران برنامج متطور لتصنيع الطائرات دون طيار العسكرية، وقد أصبحت هذه الطائرات جزءًا مهمًا من ترسانتها العسكرية تستخدمها في مجموعة متنوعة من الأدوار العسكرية، بما في ذلك الاستطلاع والتجسس والضربات الدقيقة، وقد استخدمت إيران هذه الطائرات في العديد من السياقات الإقليمية، وتُعتبر تكنولوجيا الدرونات الإيرانية متقدمة بما يكفي لتكون فعالة في ساحات القتال.

بالطبع، كانت إسرائيل أيضا سباقة في هذا المجال، وقالت الولايات المتحدة هذا الشهر إنها تدرس تقريرا إعلاميا يفيد بأن الجيش الإسرائيلي يستخدم الذكاء الاصطناعي للمساعدة في تحديد أهداف القصف في غزة.

وقال جان تالين وهو مطور برمجيات ومستثمر في مجال التكنولوجيا في خطاب رسمي “لقد رأينا بالفعل أن الذكاء الاصطناعي يرتكب أخطاء سواء كبيرة أو صغيرة، بدءا من الإخفاق في التمييز بين كرة القدم ورأس حَكَم أصلع، إلى وفيات المارة على الطرق بسبب السيارات ذاتية القيادة غير القادرة

على التعرف على الأشخاص الذين يسيرون خارج الممرات المخصصة لهم”.

وأضاف “يجب أن نكون حذرين للغاية بشأن الاعتماد على دقة هذه الأنظمة، سواء في القطاع العسكري أو المدني”.

12