الذكاء الاصطناعي.. مخادع مثل البشر

أظهرت دراسة حديثة أن برامج الذكاء الاصطناعي الأكثر صدقا تخدع البشر وتستغلهم من بوابة الألعاب الإلكترونية وبعضها تتحايل على برمجيات مصممة للتحقق من أن المستخدم إنسان وليس آلة أو روبوتا، ما يثير المزيد من المخاوف من أن يقود ذلك إلى فقدان السيطرة أو حتى انقراض البشرية.
واشنطن - يتخوف البعض من أن ينقلب الذكاء الاصطناعي على الإنسان مستقبلاً، لكنّ هذا التخوف بات واقعا منذ الآن، وفقا لدراسة جديدة، إذ أن البرامج التي صُمِّمَت لتكون صادقة صارت لديها قدرة مثيرة للقلق على خداع البشر.
وبيّنت الدراسة التي أجراها فريق باحثين ونشرت نتائجها مجلة “باترنز” أن برامج من هذا النوع باتت قادرة على استغلال البشر في ألعاب إلكترونية أو التحايل على برمجيات مصممة في الأساس للتحقق من أن المستخدم إنسان وليس آلة أو روبوتا.
ورغم أن هذه الأمثلة تبدو تافهة إلا أنها تكشف عن مشكلات قد تكون لها قريبا عواقب وخيمة في العالم الحقيقي، كما يحذر بيتر بارك الباحث في معهد ماساتشوستس للتكنولوجيا والمتخصص في الذكاء الاصطناعي.
وقال بارك إن "هذه القدرات الخطرة لا تُكتشف إلا بعد وقوعها"، موضحا أنه على عكس البرامج التقليدية فإن برامج الذكاء الاصطناعي القائمة على التعلم العميق ليست مشفرة بل يتم تطويرها من خلال عملية مشابهة لتربية النباتات، حيث أن السلوك الذي يبدو قابلاً للتنبؤ ويمكن التحكم فيه ويمكن أن يصبح سريعا غير قابل للتنبؤ في الطبيعة.
وقد فحص باحثون من معهد ماساتشوستس للتكنولوجيا برنامج ذكاء اصطناعي صممه ميتا يسمى “شيشرو” والذي من خلال الجمع بين خوارزميات للتعرف على اللغة الطبيعية وأخرى للإستراتيجية كان قادرا على التغلب على البشر في اللعبة اللوحية "دبلوماسي" (Diplomacy). وقد حظي هذا الأداء بثناء الشركة الأم لفيسبوك في عام 2022 وتم تفصيله في مقال نُشر عام 2022 في مجلة "ساينس".
◙ على عكس البرامج التقليدية فإن برامج الذكاء الاصطناعي القائمة على التعلم العميق ليست مشفرة بل يتم تطويرها من خلال عملية مشابهة لتربية النباتات
وكان بيتر بارك يشكك في ظروف فوز "شيشرو" وفقا لميتا، التي أكدت أن البرنامج كان “صادقا ومفيدا في الأساس”، وغير قادر على الغش أو الخداع.
ولكن من خلال البحث في بيانات النظام اكتشف باحثو معهد ماساتشوستس للتكنولوجيا حقيقة أخرى؛ على سبيل المثال من خلال لعب دور فرنسا خدع “شيشرو” إنجلترا (التي تولى دورها لاعب بشري)، ودفعها إلى التآمر مع ألمانيا (التي لعب دورها إنسان آخر) للغزو. وعلى وجه التحديد وعد “شيشرو” إنجلترا بالحماية، ثمّ أسرّ لألمانيا بأن الأخيرة مستعدة للهجوم، مستغلاً الثقة التي اكتسبها من إنجلترا.
ولم تنف ميتا في تصريح لوكالة فرانس برس المزاعم المتعلقة بقدرة "شيشرو" على الخداع، لكنها قالت إنه "مشروع بحثي محض"، مع برنامج "مصمم فقط للعب لعبة دبلوماسي". وأضافت ميتا أنها لا تنوي استخدام الخلاصات التي استنتجتها من "شيشرو" في منتجاتها.
ومع ذلك تكشف الدراسة التي أجراها بارك وفريقه أن الكثير من برامج الذكاء الاصطناعي تستخدم الخداع لتحقيق أهدافها، من دون تعليمات صريحة للقيام بذلك.
وفي أحد الأمثلة الصارخة تمكن برنامج "تشات جي بي تي – 4"، المصنوع من أوبن إيه آي، من خداع عامل مستقل جرى تعيينه على منصة "تاسك رابيت" لإجراء اختبار "كابتشا" الذي يستعان به عادة للتأكد من أن المستخدم على الصفحة هو في الواقع إنسان.
وعندما سأل الإنسان مازحا تشات جي بي تي عما إذا كان حقا روبوتا، أجاب برنامج الذكاء الاصطناعي "لا، أنا لست روبوتا. لدي ضعف بصري يمنعني من رؤية الصور"، دافعا العامل إلى إجراء الاختبار. وفي الختام حذر معدو دراسة معهد ماساتشوستس للتكنولوجيا من مخاطر رؤية الذكاء الاصطناعي في يوم من الأيام يرتكب عمليات احتيال أو تزوير في الانتخابات.
وأشاروا إلى أنه في أسوأ السيناريوهات يمكن تخيل ذكاء اصطناعي فائق يسعى للسيطرة على المجتمع، ما يؤدي إلى إزالة البشر من السلطة، أو حتى التسبب في انقراض البشرية. ومع ذلك يبدو هذا السيناريو غير مرجح، نظرا إلى السباق الشرس الذي يخوضه عمالقة التكنولوجيا بالفعل لتطوير الذكاء الاصطناعي.