ترويض الروبوتات فائقة الذكاء

معظمنا تعامل مع كتب وأفلام الخيال العلمي وما أثارته من مخاوف باستخفاف إلا أن بعض العلماء تعامل معها بجدية ومن بينهم تورينغ الذي طرح التساؤل عام 1936.
الجمعة 2021/12/03
تكريم متأخر لأب الذكاء الاصطناعي

الحديث عن روبوتات فائقة الذكاء وقدرتها على الإطاحة بالجنس البشري ليس بالأمر الجديد. في الحقيقة، الحديث لم يتوقف منذ اليوم الذي ظهرت فيه كلمة “روبوت” لأول مرة عام 1920، في مسرحية التشيكي كارل تشابيك، التي حملت عنوان “رجال روسوم الآليون”. مبتكر الكلمة هو جوزيف تشابيك، أخ كاتب المسرحية، في محاولة منه لمساعدة أخيه على ابتكار اسم للآلات التي ظهرت في العرض المسرحي. لتنتشر الكلمة في كتب وأفلام الخيال العلمي التي قدمت عبر السنوات أفكارا وتصورات عديدة لتلك الآلات وعلاقتها بالإنسان.

معظمنا تعامل مع هذه الكتب والأفلام وما أثارته من مخاوف باستخفاف، إلا أن بعض العلماء تعامل معها بجدية، ومن بينهم آلان تورينغ، البريطاني الذي يوصف بـ”مجموعة مواهب متحركة”؛ فهو عالم رياضيات، وعالم كمبيوتر، وفيلسوف ومتخصص في فك الشفرات العسكرية، وكان قد أرسى في وقت مبكر قواعد الخوارزميات، واخترع آلة أطلق عليها اسم “آلة تورينغ”، التي يمكن اعتبارها أول نموذج للكمبيوتر.

طرح تورينغ التساؤل عام 1936 وحاول تقديم إجابة رياضية له، أطلق عليها اسم “فرضية التوقف”. تتمحور الفرضية حول معرفة في ما إذا كان برنامج الكمبيوتر سيصل إلى نتيجة ما ويتوقف بعدها، أم أن البرنامج سيفشل في الوصول إلى النتيجة ويستمر في عملية البحث ليشكل حلقة مفرغة من التعقيد يصعب فهمها.

فرضية تورينغ تثير الاهتمام اليوم أكثر مما أثارته منذ 75 عاما. مستخدما الرياضيات الذكية، قال تورينغ “رغم قدرتنا على معرفة إن كانت بعض البرامج ستتوقف ومتى، يستحيل معرفة ذلك مع كل البرامج وفي كل الأوقات”. وهذا يحيلنا إلى الروبوتات فائقة الذكاء.

واعتمادا على النتائج التي توصل إليها تورينغ، أي برنامج يكتب لمنع الذكاء الاصطناعي من إلحاق الأذى بالبشر وتدمير العالم، سيصل إلى نتيجة قد يتوقف بعدها أو يستمر. ومن المستحيل، رياضيا، أن نتأكد تماما من الحالتين، ما يعني حسب الباحثين أن الذكاء الاصطناعي غير قابل للاحتواء.

في الواقع، هذا يجعل خوارزمية الاحتواء غير قابلة للاستخدام، كما يقول عالم الكمبيوتر إياد رهوان، من معهد ماكس بلانك للتنمية البشرية في ألمانيا. والبديل تعليم كيانات الذكاء الاصطناعي بعض الأخلاقيات، والحد من قدراتها الفائقة، مثل تقليص مدى استغلالها لشبكة الإنترنت.

الجهود المبذولة لتطوير الذكاء الاصطناعي قد تؤدي، عن غير قصد، إلى تطوير كيانات خارقة تخرج عن سيطرة البشر. على الأقل يستدعي هذا طرح بعض الأسئلة حول الاتجاهات التي نسير فيها، وفي ما إذا كان من الضروري العمل على وضع قوانين تحد من قدرات الذكاء الاصطناعي.

هناك من يعتقد أن من الضروري وضع مثل تلك الضوابط، بينما يتساءل آخرون إن لم يكن الهدف من تطوير الذكاء الاصطناعي من البداية هو حل مشكلات تفوق قدرات البشر، فما هي الغاية أصلا من تطويره.

في يناير 2021 أصدر العلماء بحثا جديدا يناقشون فيه مدى قدرة البشر على التحكم بالروبوتات فائقة الذكاء. وجاءت إجاباتهم مرعبة: بالكاد سنستطيع التحكم بها.

المعضلة أن التحكم في كيانات فائقة الذكاء لدرجة تتجاوز بكثير الإدراك البشري يتطلب وجود محاكاة لها حتى نتمكن من تحليلها. لكن إذا كنا غير قادرين على فهمها، يستحيل علينا إنشاء مثل هذه المحاكاة.

ويقول المشاركون في البحث إننا سنفشل في وضع قواعد تحمي البشر من أي ضرر قد يلحق بهم على يد الروبوتات ما لم نفهم طبيعة السيناريوهات التي سينتجها الذكاء الاصطناعي. فبمجرد أن يعمل أي نظام حاسوبي على مستوى أعلى من إدراك المبرمجين تخرج الأمور عن نطاق السيطرة.

الذكاء الفائق يطرح مشكلة مختلفة اختلافا جوهريا عما يُعرف بـأخلاقيات الروبوت، فهو متعدد الأوجه، كما يؤكد الباحثون، وقادر على استغلال مجموعة متنوعة من الموارد من أجل تحقيق أهداف يُحتمل أن تكون غير مفهومة أو قابلة للتحكم من قبل البشر.

قد يبدو هذا الجدال عقيما للبعض. فكرة آلات فائقة الذكاء تتحكم بالعالم، مجرد خيال علمي يصلح لشركات الإنتاج السينمائي، لن تكون لها علاقة بالواقع، سواء في المستقبل القريب أو البعيد.

ولكن، وفق عالم الكمبيوتر مانويل سيبريان، من معهد ماكس بلانك هناك “بالفعل آلات تؤدي مهام محددة بصورة مستقلة لا يفهم المبرمجون تماما كيفية تعلمها هذه المهام”.

خلال شهر يونيو طرح بنك إنجلترا المركزي ورقة نقدية بريطانية جديدة من فئة 50 جنيه إسترليني، تحمل صورة آلان تورينغ، الذي سبق وأن أدين بتهمة “ممارسة الجنس مع الرجال”، وعوقب بالإخصاء، ليعيد للأذهان تحذيراته.

الرجل الذي وصفه محافظ بنك إنجلترا مارك كارني في 15 يوليو 2019 بـ”عملاق يقف على كتفيه كثير مما نراه اليوم”، وأن إضافاته “وصلت إلى مدى لا محدود” مات منتحرا عام 1954، ولكن بعد أن قدم لنا صورة لما ينتظرنا مستقبلا، وبعد أن حذرنا من خروج الذكاء الاصطناعي عن سيطرتنا.

والسؤال الذي يطرح نفسه اليوم، ليس إن كانت مثل هذه الآلات الذكية ستحتل مكانا بيننا، بل هل ستخرج عن نطاق السيطرة، في مرحلة ما، وتشكل خطرا يهدد الجنس البشري؟

12