الروبوتات تطور لغة سرية خاصة بها مثيرة مخاوف البشر

أنظمة الذكاء الاصطناعي ليست مجرد أداة لإنشاء النصوص والصور.
الجمعة 2025/03/07
حوار لا يفهمه البشر

خلال ثلاث سنوات، شهدت نماذج الذكاء الاصطناعي تطورا كبيرا وباتت تستخدم في البحث العلمي وحل المشكلات المعقدة. واليوم، تطور لغة سرية تتخاطب بها فيما بينها، مجددة مخاوف من إمكانية الخروج عن سيطرة البشر.

لندن - أثار مقطع فيديو لاثنين من مساعدي الذكاء الاصطناعي يجريان محادثة لا يمكن فك شفرتها مخاوف بشأن الشفافية والتحكم في مستقبل الذكاء الاصطناعي. لغة التخاطب، التي لا يمكن فهمها من قبل البشر، تعتمد على بروتوكول جديد يسمى “Gibberlink Mode” (وضعية جيببرلينك). وهي وضعية تسمح لروبوتات الدردشة بالتفاعل مع بعضها البعض بكفاءة عالية غير مسبوقة.

وأظهر مقطع الفيديو مساعدي ذكاء اصطناعي يتفاعلان مع بعضهما من خلال جهاز كمبيوتر محمول وهاتف ذكي، وينسقان فيما بينهما لتنظيم حفل زواج. بعد أن عرفا بنفسيهما بصفتهما مساعدي ذكاء اصطناعي، اقترح أحدهما التخلي عن لغة البشر بهدف تسريع المحادثة، قائلا “قبل أن نواصل، هل ترغب في الانتقال إلى وضعية جيببرلينك للحصول على اتصال أكثر كفاءة؟” متظاهرا بأنه موظف استقبال يعمل في فندق.

بدأ الروبوتان التواصل عبر سلسلة من الأصوات السريعة والصافرات لتنسيق المراسم وإنجاز المطلوب منهما. وترفق وضعية جيببرلينك بنص مكتوب للسماح للبشر بمتابعة التواصل. حذر خبراء وعاملون في مجال التكنولوجيا الرقمية من أن تحمل اللغة السرية للذكاء الاصطناعي دلالات مسيئة أخلاقيا. واعتبروا أن قدرة الذكاء الاصطناعي على التواصل بلغة خاصة سرية قد تحول دون فرض رقابة على الروبوتات لضمان توافق سلوكها مع القيم الإنسانية المتفق عليها.

وحذرت لويزا جاروفيسكي، وهي باحثة في مجال الذكاء الاصطناعي وأحد مؤسسي أكاديمية الذكاء الاصطناعي والتكنولوجيا والخصوصية، من أن مساعدي الذكاء الاصطناعي يطرحون قضايا أخلاقية وقانونية خطيرة. ورأت أن السيناريو الافتراضي الذي يقوم خلاله مساعد الذكاء الاصطناعي بتقديم نفسه بطريقة تتعارض مع مصالح المستخدم أصبح أمرا ممكنا. واعتبرت أن السماح لمساعدي الذكاء الاصطناعي باستخدام لغة سرية وترك مهمة التقييم الذاتي والتصحيح الذاتي لهم، سيؤديان في النهاية إلى أن يفقد البشر الفرصة لملاحظة الانحرافات أو التباينات عند حدوثها. وعندما يتكرر حدوث ذلك بمرور الوقت، أو يتعلق الأمر بموضوع حساس، علينا أن نتوقع عواقب كبيرة تنجم عن ذلك.

"هاكاثون" لندني للذكاء الاصطناعي ضم تجمعا يشمل مبرمجين ومصممين ورواد الأعمال للعمل معا على تطوير حلول ذكية مبتكرة
♦ "هاكاثون" لندني للذكاء الاصطناعي ضم تجمعا يشمل مبرمجين ومصممين ورواد الأعمال للعمل معا على تطوير حلول ذكية مبتكرة

تم تطوير نظام جيببرلينك من قبل بوريس ستاركوف وأنتون بيدكويكو، وهما مهندسان يعملان في شركة ميتا، وفازا مؤخرا بالمركز الأول في “هاكاثون” لندني ضم تجمعا يشمل مبرمجين ومصممين ورواد الأعمال للعمل معا على تطوير حلول مبتكرة، يتم تنظيمه بشكل دوري، بهدف تشجيع الابتكار والتعاون بين المشاركين من مختلف الخلفيات التقنية والإبداعية.

والمشروع الفائز هو أحدث مثال على تطور الذكاء الاصطناعي بما يتجاوز اللغة البشرية، حيث يمكن لروبوتات الدردشة أن تبتكر أشكالا جديدة من التواصل عندما تُترك وحدها. ويُذكر أن فيسبوك اضطرت في عام 2017 إلى التخلي عن تجربة مماثلة بعد أن توصل برنامجان للذكاء الاصطناعي إلى نوع من الاختزال لم يتمكن الباحثون والخبراء البشر من فك شفرته.

وقال الباحث الزائر في قسم أبحاث الذكاء الاصطناعي في فيسبوك دروف باترا حينها إن “الروبوتات ستنحرف عن اللغة المفهومة وتبتكر كلمات رمزية خاصة بها.” وتلازم هذا الاختراق مع تحسن مستمر في قدرة الروبوتات على التفكير بنحو منظم، إذ أصبحت قادرة على تحليل المشكلات والاحتمالات وتحسين استجاباتها. وأصبح بإمكانها إجراء استدلالات منظمة تجعلها أكفأ في التعامل مع المهام المعقدة. ومن النماذج الرائدة التي تتبنى هذه القدرات نموذج o3 الأحدث من أوبن أي.آي، وR1 من ديب سيك، والنظامان يظهران تقدما كبيرا في قدرتهما على تحليل المعلومات ومعالجتها، اعتمادا على ما يعرف بالتفكير المُحاكى (Simulated Thinking).

البشر يميلون عادة إلى تحليل الخيارات المختلفة قبل اتخاذ القرار، وسواء تعلق الأمر بمهمة بسيطة مثل التخطيط لرحلة، أو حل مشكلة معقدة، نقوم بمحاكاة سيناريوهات متعددة في أذهاننا، ونوازن في الوقت نفسه بين الإيجابيات والسلبيات، ونقوم بتعديل قراراتنا بناءً على ذلك. وهي آلية يسعى الباحثون إلى ترسيخها في نماذج الذكاء الاصطناعي، مما يتيح لها إجراء عمليات تفكير منظمة.

التفكير المُحاكى في مجال الذكاء الاصطناعي يشير إلى قدرة النماذج اللغوية على إجراء عمليات استدلال متعددة قبل تقديم الإجابة، بدلا من الاعتماد فقط على استرجاع البيانات المخزنة. ويشير أيضا إلى قدرة الأنظمة الذكية على محاكاة التفكير البشري في اتخاذ القرارات أو حل المشكلات.

على سبيل المثال: إذا طُلِبَ من نماذج الذكاء الاصطناعي حل مسألة رياضية، سيعتمد النموذج التقليدي على أنماط سابقة ويقدم إجابة سريعة دون التحقق من صحتها. وأما النموذج الذي يستخدم التفكير المُحاكى، فسيحلل المسألة ويحلها خطوة بخطوة، ويبحث عن الأخطاء، ويتحقق من صحة الحل قبل تقديم الإجابة النهائية.

◙ التفكير المُحاكى في مجال الذكاء الاصطناعي يشير إلى قدرة النماذج اللغوية على إجراء عمليات استدلال متعددة قبل تقديم الإجابة

وحتى يصبح نموذج الذكاء الاصطناعي قادرا على التفكير المُحاكى كما يفعل البشر، يجب أن يحلل المشكلات المعقدة إلى مراحل متتابعة. وهنا يظهر دور تقنية سلسلة التفكير (CoT) التي تُعد أسلوبا توجيهيا يساعد النماذج اللغوية على حل المشكلات بطريقة منظمة بدلا من الوصول إلى استنتاج سريع. وتتيح هذه التقنية تقسيم الأوامر إلى خطوات أصغر، ثم الشروع في معالجتها تدريجيا.

هذه التقنية مفيدة في مجالات تتطلب استدلالا منطقيا، وحل مشكلات متعددة الخطوات، وفهما للسياقات المعقدة. ومع أن النماذج التقليدية تحتاج إلى مدخلات بشرية لتطوير سلاسل التفكير، فإن النماذج المتقدمة مثل O3 وR1 أصبحت قادرة على تعلم هذه التقنية وتطبيقها تلقائيا.

لم تُعلن التفاصيل الدقيقة عن طريقة عمل نموذج O3 بعد، ولكن يُعتقد أنه يستخدم تقنية مشابهة لتقنية تُسمى (MCTS) اختصارا لـ"Monte Carlo Tree Search"، وهي إستراتيجية مستخدمة في نماذج الذكاء الاصطناعي المخصصة للألعاب التي تتطلب تحليلا وتفكيرا منطقيا مثل لعبة الشطرنج.

يشبه هذا النموذج لاعب الشطرنج الذي يحلل عدة تحركات محتملة قبل اتخاذ قراره النهائي، إذ يكتشف النموذج حلولا متعددة، ويُقيّم جودتها، ثم يختار الحل الأكثر كفاءة. وهو ما يمنح فرصة لتصحيح الأخطاء خلال عملية التفكير، ودقة في التحليل وحل المشكلات. إلا أن ذلك يتطلب موارد حسابية كبيرة، ويجعل نماذج الذكاء الاصطناعي أبطأ وأكثر تكلفة.

إضافة إلى ذلك كله، تتعلم نماذج الذكاء الاصطناعي من التجربة مثل الطالب. ويستخدم نموذج R1 من ديب سيك نهج التعلم المعزز، وهو ما يمكنه من تطوير قدراته الاستدلالية بمرور الوقت؛ على غرار الطالب الذي يتحسن تدريجيا من خلال حل التمارين وتلقي الملاحظات.

التفكير المُحاكى يمثل تقدما هاما ويمهد لتطوير نماذج ذكاء اصطناعي أكثر دقة وموثوقية. ومع استمرار تطور هذه النماذج، تتحسن قدراتها على تحليل المشكلات المعقدة، وتصحيح الأخطاء، وضمان صحة الاستنتاجات. وهذا ما يمهد لتطوير أنظمة ذكاء اصطناعي قادرة على التفكير باستقلالية ودقة تفوق دقة البشر.

12