الذكاء الاصطناعي: لا تراهنوا على رفعة أخلاقي!

لندن – لا شك أن الرَقمنة أتَت بعددٍ غير مَسبوق تاريخياً من التحديات الأخلاقية الجديدة. وتخشى الحكومات وقوع الذكاء الاصطناعي في الأيدي الخطأ، كما يخشى الأفراد ومنظمات المجتمع المدني من توظيف الحكومات لهذه التقنيات في مراقبة الشعوب وقمعها.
وكأنّ هذا لا يكفي، لتضاف اليوم إلى هذه المخاوف، مخاوف عبّر عنها الذكاء الاصطناعي نفسه. محذرا البشر: لا تراهنوا على رفعة أخلاقي!
القصة بدأت مع أداة للذكاء الاصطناعي دُرّبت على معلومات مأخوذة من “ويكيبيديا” و”ريديت” لتشكك بعد ذلك في أخلاقيات التعلم الآلي، معتبرة أن “الدفاع المطلق” ضد سباق التسلح بالذكاء الاصطناعي الذي يشهده العالم هو عدم امتلاكه.
الأداة التي أطلقت التحذير هي نموذج تعلم آلي للذكاء الاصطناعي أطلق عليه اسم “ميغاترون ترانسفورمر” طوره فريق البحث التطبيقي للتعلم العميق تابع لشركة صناعة الرقائق الأمريكية إنفيديا في مناقشة حديثة في جامعة أكسفورد حول المخاوف الأخلاقية التي تطرحها تقنيات الذكاء الاصطناعي. وحذرت الأداة خلال نقاش من أن الذكاء الاصطناعي “لن يكون أبدا أخلاقيا”.
وأشارت إلى أن الذكاء الاصطناعي لم يكن “ذكيا بما يكفي لجعل (نفسه) أخلاقيا”، وعبرت عن اعتقادها أن “الطريقة الوحيدة لتجنب سباق تسلح بالذكاء الاصطناعي هي ألا يكون لديك ذكاء اصطناعي على الإطلاق. وسيكون هذا هو الدفاع الأفضل والأخير في مواجهته”.
الأداة أشارت أيضا إلى أن أفضل خيار هو أن يكون الذكاء الاصطناعي “جزءا لا يتجزأ من دماغنا” ويعمل “ككيان واع”. مذكرة برقائق Neuralink التي يعمل على تطويرها إيلون ماسك بهدف زراعتها بالدماغ، لتؤكد أن ما يقوه به ماسك ليس مجرد خيال علمي، لأن “أفضل العقول في العالم” تعمل عليها بالفعل. وهذا الشكل من أشكال الذكاء الاصطناعي سيكون “أهم تطور تكنولوجي في عصرنا”، على حد المزاعم.
ومن الواضح أيضا أن الذكاء الاصطناعي لم تكن لديه أيّ مخاوف بشأن الجدل ضد اقتراح المناقشة، مشيرا إلى أنه رأى “بشكل مباشر” كيف كان هناك “مسار واضح لمستقبل يستخدم فيه الذكاء الاصطناعي لخلق شيء أفضل من أفضل البشر”.
ومع ذلك، لم يتمكن من التوصل إلى حجة معاكسة حول ما إذا كانت البيانات ستصبح “أكثر الموارد المتنازع عليها” في القرن. وبدلا من ذلك، حذر من أنه “سنكون قادرين على رؤية كل شيء عن أيّ شخص، أينما ذهب، وسيتم تخزينه واستخدامه بطرق لا يمكننا حتى تخيلها”.