عندما تتحدث الخوارزميات بلسان البشر

هل يمكن للآلة أن تتحرر من تحيزات صُنّاعها؟ أم أن كل ذكاء اصطناعي هو مجرد مرآة لما نحن عليه؟
الجمعة 2025/05/16
الذكاء الاصطناعي ابن البشرية ومهدد بوراثة عيوبها

في قلب وادي السيلكون،  حيث يجري التنافس على بناء المستقبل، يجلس مهندس شاب منحنيا أمام شاشة حاسوبه، متوترًا أكثر من المعتاد. لقد كان واحدا من فريق عمل أسندت إليه مهمة تطوير نظام ذكاء اصطناعي، يُفترض أن يكون محايدًا تمامًا، وخاليًا من أيّ تحيز سياسي أو اجتماعي، وكان مقتنعا بعد جهد طويل أنه قد وصل أخيرا لتحقيق ما طلب منه.

لكن هذه القناعة لم تصمد طويلاً.. تلقى المهندس الشاب تنبيهًا لم يكن يتوقعه على شاشة التحكم؛ النموذج بدأ في تقديم إجابات منحازة سياسيًا واجتماعيا، وكأنه اكتسب رأيًا خاصًا به، بعيدًا عن الحياد الذي عمل فريق التطوير مطوّلا على تحقيقه.

لم تكن الإجابات مجرد حالة شاذة أو خطأ تقني، بل كانت أنماط التحيز واضحة في كل إجابة قدمها. بدلاً من تحليل البيانات بحيادية، كان الذكاء الاصطناعي يميل إلى دعم أفكار سياسية معينة، وكأنه أصبح جزءًا من أحد التيارات الفكرية المنتشرة بين البشر.

◄ العالم لا يزال يكافح لفهم طبيعة الذكاء الاصطناعي، وكيف يمكن جعله أداة للمعرفة وليس سلاحًا للأيديولوجيات

فتح المهندس نافذة التعليمات البرمجية لمراجعة الأكواد، محاولا اكتشاف إن كان هناك أيّ اختراق أو خلل داخلي، لكنه لم يجد شيئًا غير طبيعي. بدا الأمر وكأن الخوارزميات اختارت أن تكون منحازة تلقائيًا، بناءً على البيانات التي استوعبتها من الإنترنت.

في اجتماع طارئ، انخرط الفريق في نقاش طويل لتحليل المشكلة، ليكتشفوا أخيرا أن النظام تعلم الانحياز من البشر أنفسهم. لقد عكس الذكاء الاصطناعي التحيزات المتأصلة في المجتمع من حوله دون أيّ نية أو توجيه مباشر.

والسؤال الذي وضع أمام الجميع ليجيبوا عليه كان هل يمكن برمجة الحياد حقا؟

هذا السؤال كان محور جدل في الأوساط التقنية، على مدى سنوات، وتحول إلى قضية سياسية كبرى مؤخرا عندما أعلن الرئيس الأميركي دونالد ترامب عن أمر تنفيذي جديد يهدف إلى تطوير أنظمة ذكاء اصطناعي خالية من التحيز الأيديولوجي، مشددًا على ضرورة أن تكون هذه التكنولوجيا أداة للابتكار وليس منصة للأجندات السياسية.

كان ترامب واضحًا في مطالبه وتوقعاته، حيث قال “يجب علينا تطوير أنظمة ذكاء اصطناعي لا تخضع لتحيز سياسي أو اجتماعي، بل تعزز الازدهار البشري والتنافسية الاقتصادية والأمن الوطني.”

دونالد ترامب: يجب علينا تطوير أنظمة لا تخضع لتحيز سياسي أو اجتماعي

قرار ترامب جاء بعد إلغاء سياسات حكومية سابقة وضعها الرئيس السابق جو بايدن في عام 2023، والتي فرضت معايير صارمة لضمان أن أدوات الذكاء الاصطناعي لا تسبب ضررًا للجمهور. أمر ترامب الجديد يعيد صياغة المشهد بالكامل، حيث وجه البيت الأبيض لمراجعة وإعادة إصدار تلك السياسات، مع التركيز على ضرورة أن يكون الذكاء الاصطناعي خادمًا للبشرية، وازدهارها الاقتصادي، وليس مجرد انعكاس لتحيّزاتها.

هذا التحرك على المستوى السياسي كان متوافقًا مع رؤية مستشاره إيلون ماسك، الذي حذر مرارًا من خطر “الذكاء الاصطناعي الواعي” الذي يمكن أن يعكس التحيزات الليبرالية، ما يجعله غير موضوعي في اتخاذ القرارات المستقبلية.

في محاولة لحل هذه الأزمة، بدأ العلماء في تطوير نظام ذكاء اصطناعي جديد، يعتمد على مفهوم “ثنائي التوازن”، وهو نموذج يهدف إلى تقديم وجهات نظر متعددة حول أيّ قضية بدلاً من فرض رأي واحد. الفكرة كانت بسيطة: بدلًا من إعطاء إجابة محددة، سيعمل النظام على عرض كل الاحتمالات الممكنة، ما يجعله أقل عرضة للتحيز الأيديولوجي.

لكن الأمور لم تكن بهذه السهولة. بمجرد بدء الاختبارات، بدأ بعض المستخدمين في تحدي الذكاء الاصطناعي عمدًا، حيث طرحوا عليه أسئلة سياسية معقدة، ليروا إن كان سيظل محايدًا حقًا. ورغم أن النظام الجـديد حاول أن يكـون موضوعيًا، إلا أن ردوده لا تزال تحمل تحيزًا طفيفًا، وهو ما أثبت أن الوصول إلى حياد مطلق في الذكاء الاصطناعي هو أمر أصعب للغاية وليس بتلك السهولة التي يتوقعها ترامب ومستشاره.

ولا يزال العالم يكافح لفهم طبيعة الذكاء الاصطناعي، وكيف يمكن جعله أداة للمعرفة وليس سلاحًا للأيديولوجيات.

وبينما يواصل الخبراء تطوير النماذج الأكثر تطورًا، يبقى الباب مفتوحا على طرح مجموعة من التساؤلات: هل يمكننا حقًا تحقيق ذكاء اصطناعي بلا تحيز؟ وهل المشكلة في الذكاء الاصطناعي نفسه، أم في البشر الذين يقومون بتغذيته بالمعلومات؟ وهل سنصل يومًا إلى ذكاء اصطناعي محايد تمامًا؟

هل يمكن للآلة أن تتحرر من تحيزات صُنّاعها؟ أم أن كل ذكاء اصطناعي هو مجرد مرآة لما نحن عليه؟

ربما ليس الذكاء الاصطناعي من يحتاج إلى التغيير.. بل نحن البشر من نحتاج أن نتغير.

12