روبوتات الدردشة: تبخرت النشوة وبدأ التفكير بالعواقب

شخصيات نافذة تدعو إلى وقف سباق التطوير لالتقاط الأنفاس.
الجمعة 2023/03/31
هل نطور عقولا غير بشرية تحل محلنا في النهاية؟

هل يقود التنافس المحموم بين عمالقة التكنولوجيا إلى طرح نظام ذكاء اصطناعي يتفوق مستقبلا على البشر؟ يبدو أن هناك مخاوف لها ما يبررها دفعت صانعي التكنولوجيا وأسماء علمية بارزة أمثال إيلون ماسك وستيف ووزنيك للإجابة بـ”نعم”.

لندن - بعد أقل من أربعة أشهر على إطلاقه تبخرت النشوة التي أحدثها روبوت الدردشة تشات جي.بي.تي، وبدأت مرحلة التفكير بالمخاطر التي قد تنجم عن تطوير أنظمة ذكية قوية مماثلة، وهو ما دفع بمجموعة من الأسماء العلمية والشخصيات النافذة لتوجيه رسالة تحذير تدعو إلى التوقف عن سباق التطوير وأخذ استراحة 6 أشهر لالتقاط الأنفاس، والتفكير بالعواقب.

التحذير جاء بعد أيام قليلة من إصدار شركة أوبن.أي.آي لروبوت المحادثة تشات جي.بي.تي 4، وهو نسخة أكثر تطورا من روبوت الدردشة تشات جي.بي.تي، التي رغم عمرها القصير نسبيا انتشر استخدامها على نطاق واسع، مشعلة سباقا محموما بين عملاقي التكنولوجيا غوغل ومايكروسوفت لتطوير تطبيقات مماثلة، وهو ما حصل.

سباق خارج عن السيطرة

يقول الموقعون على رسالة التحذير “نحن بحاجة إلى الإبطاء حتى نفهم بشكل أفضل التداعيات، خاصة بعد أن أصبح اللاعبون الكبار أكثر سرية مما يصعب على المجتمع مهمة الدفاع عن نفسه ضد أي أضرار قد تنجم عن ذلك”.

ويؤكدون في تحذيرهم أن أنظمة الذكاء الاصطناعي التي تتمتع بذكاء تنافسي بشري يمكن أن تشكل مخاطر وتترك ندوبا عميقة على المجتمع والإنسانية.. من إغراق الإنترنت بالمعلومات المضللة وأتمتة الوظائف إلى مخاطر مستقبلية كارثية تبدو أمامها روايات وأفلام الخيال العلمي التي قرأناها وشاهدناها حتى الآن متواضعة.

27 دولة في الاتحاد الأوروبي تعمل على إقرار قواعد شاملة وإنشاء مكتب للذكاء الاصطناعي

وتمضي الرسالة لتقول “في الأشهر الأخيرة شهدت مختبرات الذكاء الاصطناعي سباقا خارجا عن السيطرة لتطوير ونشر عقول رقمية أكثر قوة من أي وقت مضى، لا يمكن لأحد – ولا حتى منشئيها – فهمها أو التنبؤ بها أو التحكم فيها بشكل موثوق”.

وتضيف “ندعو جميع مختبرات الذكاء الاصطناعي إلى التوقف فورا لمدة 6 أشهر على الأقل عن تدريب أنظمة ذكاء اصطناعي أقوى من جي.بي.تي 4 (…) يجب أن يكون هذا التوقف عاما ويمكن التأكد منه، وأن يشمل جميع الجهات الفاعلة الرئيسة. وإذا لم يكن بالإمكان فرض مثل هذا التوقف بسرعة، فعلى الحكومات أن تتدخل (…) يجب تطوير أنظمة الذكاء الاصطناعي القوية فقط عندما نكون واثقين من أن آثارها ستكون إيجابية، وأن مخاطرها ستكون قابلة للإدارة والسيطرة”.

وفصلت الرسالة الصادرة عن معهد فيوتشر أوف لايف، ووقعها أكثر من ألف شخص، المخاطر المحتملة على المجتمع من قبل أنظمة الذكاء الاصطناعي المنافسة للبشر متحدثة عن اضطرابات اقتصادية وسياسية واجتماعية.

وتساءلت الرسالة “هل يجب أن نسمح للآلات بإغراق قنواتنا الإعلامية بالدعاية والكذب؟ وهل ينبغي أن نطور عقولا غير بشرية قد تفوقنا عددا وذكاء في النهاية وتتفوق علينا وتحل محلنا؟”.

عند الحديث عن مخاطر الذكاء الاصطناعي وتهديده للبشر يستحضر دائما اسم ماسك "مالئ الدنيا وشاغل الناس"
عند الحديث عن مخاطر الذكاء الاصطناعي وتهديده للبشر يستحضر دائما اسم ماسك "مالئ الدنيا وشاغل الناس"

وأضافت “يجب عدم تفويض مثل هذه القرارات إلى قادة للتكنولوجيا غير منتخبين”، داعية المطورين إلى العمل بالتنسيق مع صانعي سياسات الحوكمة ومع الجهات التنظيمية.

وجدير بالذكر أن الممولين الرئيسيين لمعهد فيوتشر أوف لايف، وفقا لسجلات الشفافية في الاتحاد الأوروبي، هم مؤسسة ماسك، ومجموعة فاوندرز بليدج ومقرها لندن، فضلا عن مؤسسة سيليكون فالي كوميونيتي.

بوجود أسماء كبيرة شاركت في التوقيع على الرسالة، لا بدّ من التعامل مع ما جاء في مضمون الرسالة من تحذيرات بجدية مطلقة، فهناك بين الأسماء رائد الذكاء الاصطناعي الحائز على جائزة تورينغ يوشوا بينجيو. وأيضا ستيوارت راسل وغاري ماركوس، وهما اسمان لامعان في أبحاث الذكاء الاصطناعي. وهناك المرشح الرئاسي الأميركي السابق أندرو يانغ.

ومن الأسماء التي تضفي على التحذير قيمة اسم راشيل برونسون رئيسة نشرة علماء الذرة، وهي مجموعة مناصرة ذات توجه علمي معروفة بتحذيراتها من حرب نووية تنهي البشرية.

وهناك أيضا عماد موستاك الرئيس التنفيذي لشركة “ستابلتي” المطورة لمولد الصور ستيبل دفيوجن بالشراكة مع أمازون، وهو منافس لمولد الصور المعروف باسم DALL-E الذي طورته أوبن.أي.آي. وذلك بالطبع إضافة إلى أيلون ماسك وستيف ووزنيك كما سبق وذكرنا.

عند الحديث عن مخاطر الذكاء الاصطناعي وتهديده المحتمل للبشر، يستحضر دائما اسم أيلون ماسك “مالئ الدنيا وشاغل الناس”، الذي يدير شركات ضخمة مثل تسلا، وتويتر، وسبيس إكس، وكان سباقا للرهان والاستثمار بشركة أوبن.أي.آي، فلطالما أعرب عن مخاوفه وحذر من مخاطر وجودية تهدد البشر يثيرها تطوير الذكاء الاصطناعي.

وإن كانت رسالة التحذير حظيت بتأييد جهات كثيرة، إلا أنها جوبهت أيضا بردود كثيرة مشككة. ولم تصدر حتى هذه اللحظة أي تعليقات من قبل الشركات العملاقة الثلاث التي استهدفتها الرسالة، أوبن.أي.آي، مايكروسوفت وغوغل.

تقييم المخاطر

غاري ماركوس: التكنولوجيا الحالية تشكل مخاطر هائلة لسنا مستعدين لها
غاري ماركوس: التكنولوجيا الحالية تشكل مخاطر هائلة لسنا مستعدين لها

ولكن، هل هناك حقا ما يبرر كل تلك المخاوف، أو لنقول كل هذه الهستيريا؟

يرى جيمس غريميلمان أستاذ القانون الرقمي والمعلومات بجامعة كورنيل أن “التوقف لالتقاط الأنفاس فكرة جيدة، لكن الرسالة غامضة ولا تأخذ المشاكل التنظيمية على محمل الجد”.

وقال غريميلمان “من النفاق الشديد أن يوقع إيلون ماسك الرسالة نظرا إلى الصعوبات التي تواجه تسلا في الوصول إلى إجابات مقنعة للمساءلة عن عيوب الذكاء الاصطناعي في سياراتها ذاتية القيادة”.

الرسالة، وإن كانت تبالغ في رسم صورة قاتمة ومخيفة للذكاء الاصطناعي، إلا أن الذين وقعوا عليها لا تقلقهم تلك الصورة. ويدركون جيدا أن تشات جي.بي.تي ليس أكثر من أداة بسيطة لإنشاء النصوص اعتمادا على ما غذي به من كميات هائلة من البيانات والنصوص المكتوبة.

وأكد غاري ماركوس الأستاذ الفخري بجامعة نيويورك وهو من بين الموقعين على الرسالة في تدوينة أنه “يختلف مع الآخرين الذين يشعرون بالقلق إزاء احتمال وجود آلات ذكية يمكنها تحسين نفسها بعيدا سيطرة البشر في المدى القريب”، وأن ما يقلقه أكثر هو “أدوات ذكاء اصطناعي محدودة يتم نشرها على نطاق واسع، واستعمالها من قبل مجرمين أو مجموعات إرهابية لخداع الناس أو نشر معلومات مضللة خطيرة”.

وتعمل حكومات عديدة على تنظيم تطوير واستعمال أدوات الذكاء الاصطناعي عالية المخاطر. وفي هذا الإطار أصدرت المملكة المتحدة ورقة يوم الأربعاء حددت فيها إستراتيجيتها للمستقبل، وهي إستراتيجية قائمة على تقسيم مسؤولية إدارة الذكاء الاصطناعي بين الجهات التنظيمية لحقوق الإنسان والصحة والسلامة والمنافسة، بدلا من إنشاء هيئة جديدة مخصصة للتكنولوجيا.

وأكدت أنها “تريد تجنّب التشريعات الصارمة التي يمكن أن تخنق الابتكار، وستتبنى بدلا من ذلك إستراتيجية قابلة للتكيف مع التنظيم على أساس مبادئ عامة مثل السلامة والشفافية والإنصاف والمساءلة”.

وتابعت أن “نهجها الذي حددته ورقة نشرت يوم الأربعاء يتيح إمكانية تكييف قواعدها مع تطور التكنولوجيا”.

أنظمة الذكاء الاصطناعي التي تتمتع بذكاء تنافسي بشري يمكن أن تشكل مخاطر وتترك ندوبا عميقة على المجتمع والإنسانية

وهو ما ستعمل على إنجازه خلال الأشهر الـ12 المقبلة، تصدر بعدها إرشادات عملية تعمل المنظمات وفقها، إضافة إلى طرح أدوات وموارد أخرى مثل نماذج تقييم المخاطر.

وأكدت الورقة أن التطور الحاصل، خاصة مع طرح روبوتات الدردشة، يمكن أن يحسن الإنتاجية ويساعد في إطلاق العنان للنمو، لكن هناك مخاوف بشأن المخاطر التي يمكن أن يشكلها هذا التطور على الخصوصية وحقوق الإنسان، وبالتالي على سلامتهم.

وتأتي هذه المخاوف في وقت حذرت فيه قوة الشرطة الأوروبية “يوروبول” يوم الاثنين الماضي من إساءة استخدام محتملة للنظام في محاولات التصيّد الاحتيالي ونشر المعلومات المضللة والجرائم الإلكترونية.

ويتفاوض المشرعون في الاتحاد الأوروبي المؤلف من 27 دولة على إقرار قواعد ذكاء اصطناعي شاملة وإنشاء مكتب للذكاء الاصطناعي.

وسواء وقفنا إلى جانب المؤيدين أو إلى جانب المشككين، يبقى ما قاله غاري ماركوس في تدوينته “إن التكنولوجيا الحالية تشكل بالفعل مخاطر هائلة لسنا مستعدين لها.. ومع التكنولوجيا المستقبلية يمكن أن تزداد الأمور سوءا”، يستحق التوقف ستة أشهر أو أكثر لالتقاط الأنفاس.

12