روبوتات المحادثة تنتهك الخصوصيات بلا رقيب

ضبط حواجز الحماية من الذكاء الاصطناعي ضرورة ملحة.
الأحد 2023/04/16
المعلومات مقابل البيانات

الذكاء الاصطناعي هو حديث العالم خصوصا تطبيقات المحادثة القادرة على التجاوب مع البشر، فعلى الرغم مما تقدمه من خدمة هي بدورها موضع جدل، إلا أن قضية حماية البيانات تمثل خطرا كبيرا يحذر منه الخبراء في الوقت الذي تعجز فيه الدول عن وضع قوانين ولوائح تنظم ذلك ما دفع خبراء وشخصيات معروفة في عالم التكنولوجيا إلى المطالبة بوقف كل برامج تطوير روبوتات المحادثة لستة أشهر على الأقل.

روما - حذر خبراء من مخاطر استخدام منصات المحادثة باستخدام الذكاء الاصطناعي مثل تشات جي.بي.تي وغوغل بارد، كما تسعى بعض الدول والمنظمات لضبط قوانين لحماية البيانات والحريات والخصوصيات من خطر روبوتات المحادثة. وأصبحت إيطاليا أول دولة غربية تحجب روبوت الذكاء الاصطناعي الشهير تشات جي.بي.تي.

ولم يكن قرار السلطات في روما نتيجة لتقدم التكنولوجيا بسرعة كبيرة، بل إن هيئة حماية البيانات الإيطالية حظرت التطبيق بسبب مخاوف تتعلق بالخصوصية ومدى امتثال تشات جي.بي.تي للائحة العامة لحماية البيانات التي وضعها الاتحاد الأوروبي.

وأعلن مجلس حماية البيانات الأوروبي المسؤول عن التنسيق بين السلطات المعنية بحماية الخصوصية في مختلف الدول الأعضاء في الاتحاد الأوروبي عن إنشاء فريق عمل بهدف تعزيز تبادل المعلومات حول أي إجراءات يمكن اتخاذها تجاه تشات جي.بي.تي. وأفاد المجلس في بيانه بأنه يؤيد “التقنيات المبتكرة مثل الذكاء الاصطناعي”، لكنه شدد على أنها يجب أن تكون دائماً “متوافقة مع حقوق الناس وحرياتهم”.

وبعيد الإعلان الأوروبي، أوضحت الهيئة الإسبانية لحماية البيانات أنها “فتحت بمبادرة منها” تحقيقاً في شأن شركة “أوبن.أي.آي” الأميركية التي تملك تشات جي.بي.تي نظراً إلى “احتمال مخالفتها التشريعات المتعلقة” بحماية البيانات.

كذلك قررت الهيئة الفرنسية لحماية البيانات الشخصية الخميس فتح “إجراء رقابة” مرتبطة ببرنامج تشات جي.بي.تي. وأبهرت المنصّة التي أُطلقت في نوفمبر المستخدمين بقدرتها على الإجابة بوضوح ودقّة على أسئلة صعبة، لاسيّما كتابة أغان أو شيفرات برمجية، وحتى النجاح في امتحانات. وأكدت “أوبن.أي.آي” بعد القرار الإيطالي حرصها على حماية البيانات، واحترامها أنظمة الاتحاد الأوروبي في هذا الشأن.

موضوع الساعة

مخاوف عالمية عميقة
مخاوف عالمية عميقة

أصبح هذا الحظر موضوع الساعة عبر الصحف الدولية لتماشيه مع المخاوف العالمية العميقة من تضاعف قدرات الذكاء الاصطناعي. لا يستطيع الكثير منا فهم كيفية تطور التكنولوجيا بهذه السرعة، لكن أحد أسباب ذلك هو قلة الحواجز التنظيمية المصممة لمراقبة نمو الذكاء الاصطناعي. وتحتاج البشرية إلى حواجز حمائية، لكن القول أسهل من الفعل.

وتزداد أهمية تنظيم الذكاء الاصطناعي مع استخدام التكنولوجيا على نطاق واسع في مجالات مثل الرعاية الصحية والتمويل والنقل. ووفقا لدراسة أجراها باحثون في جامعة بنسلفانيا وشركة "أوبن.أي.آي" التي طورت منصة شات جي.بي.تي، سيغيّر الذكاء الاصطناعي معظم الوظائف بشكل كبير في المستقبل القريب.

وأمكن إكمال نصف مهام حوالي 20 في المئة من الوظائف في الدراسة باستخدام تشات جي.بي.تي والأدوات المماثلة. ولا نعرف تبعات هذا على سوق العمل، لكن من المؤكد أن التأثير الحتمي سيكون كبيرا وذا تداعيات غير مباشرة عبر المجتمع.

تشات جي.بي.تي. وأبهرت المنصّة التي أُطلقت في نوفمبر المستخدمين بقدرتها على الإجابة بوضوح ودقّة على أسئلة صعبة
◙ منصّة تشات جي.بي.تي أبهرت المستخدمين بقدرتها على الإجابة بوضوح ودقّة على أسئلة صعبة

لم يكن التحرك كبيرا نحو تنظيم أفضل للذكاء الاصطناعي في جميع أنحاء العالم خلال العقد الماضي. وقرر الاتحاد الأوروبي تطوير إطار عمل لتنظيم الذكاء الاصطناعي بما يشمل قواعد لتطبيقاته عالية المخاطر، ومتطلبات الشفافية والمساءلة، وحظر استخدامات محددة مثل نظام الرصيد الاجتماعي الرامي إلى تصنيف الناس حسب “مصداقيتهم”.

وشرعت الولايات المتحدة ببطء في تنظيم الذكاء الاصطناعي، حيث وضع المعهد الوطني للمعايير والتكنولوجيا مجموعة من المبادئ لحوكمة الذكاء الاصطناعي، وتتخذ لجنة التجارة الفيدرالية إجراءات إنفاذ ضد الشركات التي تستخدم هذه التكنولوجيا بطرق تنتهك قوانين حماية المستهلك.

لكن هذه اللوائح منقوصة أمام سرعة تطور الذكاء الاصطناعي. وكان القلق بشأن قدراته المتزايدة والافتقار إلى اللوائح التي تنظمه سبب اختيار بعض قادة التكنولوجيا الدعوة إلى وقف تطويره. وقالت صحيفة "الغارديان" خلال الشهر الماضي إن رسالة تحمل أكثر من 1800 توقيع دعت إلى التوقف لمدة ستة أشهر عن تطوير أنظمة أقوى من روبوت الدردشة تشات جي.بي.تي – 4.

ومن الموقعين رجل الأعمال الأميركي ومالك موقع تويتر إيلون ماسك والعالم غاري ماركوس، والمؤسس المشارك لشركة آبل ستيف وزنياك. وتتساءل الرسالة عن جدوى تطوير "عقول غير بشرية قد تفوقنا عددا وتتفوق علينا في النهاية" وعن خطر المجازفة بفقدان السيطرة على الحضارة البشرية.

وشددت الرسالة المفتوحة على وجوب أن "تستغل مختبرات الذكاء الاصطناعي والخبراء المستقلون هذا التوقف المؤقت لتطوير مجموعة من بروتوكولات السلامة المشتركة وتنفيذها، لتصميم وتطوير ذكاء اصطناعي متقدم يشرف عليه خبراء مستقلون".

ويعدّ وجود الخبراء المستقلين حيويا لتنظيم الذكاء الاصطناعي، لكن هذا يجب ألا يحجب حقيقة تطور القطاع دون رقابة حكومية كبيرة. وكان هذا من الأسباب التي تدفع إلى محادثة عاجلة حول تنامي قدرات التكنولوجيا. باختصار، يجب على تنظيم الذكاء الاصطناعي مواكبة وتيرة التطور التكنولوجي السريعة.

تعامل غير كاف

تعامل غير محمود مع المخاطر الاقتصادية والاجتماعية والفكرية
تعامل غير محمود مع المخاطر الاقتصادية والاجتماعية والفكرية 

لم تكن كيفية التعامل مع المخاطر الاقتصادية والاجتماعية والفكرية للذكاء الاصطناعي كافية في جميع أنحاء العالم. وثبت أن تقنية التعرف على الوجه، على سبيل المثال، كانت متحيزة ضد مجموعات معينة ولكن استخدامها لا يزال غير منظم في العديد من البلدان، بما في ذلك الولايات المتحدة. وأثار استخدام الذكاء الاصطناعي في أنظمة صنع القرار المؤتمتة، مثل تصنيف الائتمان أو قرارات التوظيف، مخاوف بشأن التحيز والتمييز في الخوارزميات.

ويمكن أن تولد نماذج لغة الذكاء الاصطناعي مثل تشات جي.بي.تي محتوى ضارا أو مضللا مثل خطابات الكراهية، ويمكن أن تديم التحيزات المجتمعية القائمة وعدم المساواة. ويجدر هنا التطرق إلى قضية خصوصية البيانات التي ركزت عليها إيطاليا، حيث تتطلب نماذج اللغة الوصول إلى كميات كبيرة من البيانات الشخصية لتعمل بشكل فعال. فهل يجب على الأفراد تسليم بياناتهم؟ إذا كان الأمر كذلك، فبأي شروط؟

أي مستخدم يتداول معلومات سرية على أي منصة ذكاء اصطناعي فإنه يخاطر بالتخلي عن سرية بياناته
◙ أي مستخدم يتداول معلومات سرية على أي منصة ذكاء اصطناعي فإنه يخاطر بالتخلي عن سرية بياناته

لم تلق هذه الأسئلة الجدية إجابات بعد بسبب غياب اللوائح السليمة. مثلا هل نعرف مقدار البيانات التي يتم إدخالها في نموذج لغوي كبير للذكاء الاصطناعي أثناء قراءتنا لأي مقالة؟ نحن لا نعرف، ويعدّ هذا جزءا من المشكلة. وقال الخبراء إنه إلى جانب المخاوف من أن تقدم منصة تشات جي.بي.تي إجابات خطأ أو مزيفة على الأسئلة، فإن هذه الخدمة لا يجب اعتبارها مكانا جيدا للمحافظة على السرية.

يأتي ذلك في الوقت الذي يتزايد فيه اعتماد المستخدمين على منصات محادثة الذكاء الاصطناعي مثل تشات جي.بي.تي وغوغل بارد في حياتهم اليومية، لذلك يحذر خبراء أمن البيانات من تداول المعلومات السرية عبر هذه المنصات.

ويشير خبراء معهد إتش.بي.آي الألماني إلى أن المستخدمين قد يندفعون لإضافة بيانات حساسة على المنصة نظرا لأنه كلما قدم لها المستخدم معلومات، تمكنت من تقديم إجابات بطريقة أفضل وأذكى. يذكر أن أي مستخدم يتداول معلومات سرية على أي منصة ذكاء اصطناعي، فإنه يخاطر بالتخلي عن سرية بياناته، وهو ما تؤكده سياسة الخصوصية على منصة تشات جي.بي.تي.

وتقول شركة "أوبن.أي.آي" المطورة لمنصة تشات جي.بي.تي "كجزء من التزامنا بالسلامة والمسؤولية، نراجع محادثاتنا لتحسين أنظمتنا والتأكد من التزام المحتوى بسياساتنا واشتراطات السلامة"، مؤكدة أن موظفي المنصة يستطيعون رؤية ما يكتبه المستخدمون، في حين توفر الشركة خاصية حذف البيانات.

وأضاف خبراء معهد تكنولوجيا المعلومات الألماني أنه يجب عدم الإبقاء على الأسرار الشخصية فقط بعيدا عن منصات الذكاء الاصطناعي، وإنما أيضا معلومات الشركات. وعلى الموظفين الحذر عند السماح لأي منصة ذكاء اصطناعي بالوصول إلى بيانات شركاتهم.

وقالوا إن أي شخص يقوم بتحميل البيانات الداخلية لموظفي شركاتهم لكي يستخدمها في إعداد عرض تقديمي أو يستعين بمنصة تشات جي.بي.تي لترتيب وتحليل الأرقام المالية للشركة فإنه يعرض بيانات الشركة للخطر. وحذرت شركة أمن البيانات سايبر هيفن من أن الكثير من الشركات تسرب بيانات حساسة "مئات المرات كل أسبوع" نتيجة مبالغة الموظفين في استخدام تشات جي.بي.تي.

خطر دائم

ذكاء ذو حدين
ذكاء ذو حدين

يكمن الخطر الدائم للتنظيم من ناحية أخرى في قدرته على خنق الابتكار. وترحّب الشركات الخاصة في وادي السيليكون بهذا النوع من الجدل لأنه يغير معايير النقاش. وتقول إن هناك حاجة إلى مزيد من البحث لفهم مخاطر الذكاء الاصطناعي وفوائده، كما يتطلب تنظيم الذكاء الاصطناعي مدخلات من مختلف أصحاب المصلحة، بما في ذلك الوكالات الحكومية وقادة الصناعة ومنظمات المجتمع المدني.

وسبق لماسك ومجموعة من الباحثين أن نشروا عام 2017 عريضة تحتوي على 23 بندا، 13 منها موجهة للإشكاليات الأخلاقية. ومن هذه البنود، توصية تخصّ ضمان أمان المستخدمين، واعتماد إجراءات شفافة، وضمان تصميم هذه الأنظمة بما يتوافق مع الكرامة الإنسانية والحقوق والحريات والتنوع الثقافي، فضلاً عن ضمان الخصوصية، وأن تكون الاستفادة الاقتصادية من هذه الأنظمة مفتوحة أمام الجميع.

◙ 1800 موقع دعوا إلى التوقف لمدة ستة أشهر عن تطوير أنظمة أقوى من روبوت الدردشة تشات جي.بي.تي

وطالبت هذه العريضة حينها بأن يكون دور الأبحاث العلمية في الذكاء الاصطناعي هو خلق ذكاء مفيد، وليس ذكاء غير موجه، كما دعت إلى أن الاستثمار في هذه التقنيات يجب أن يصاحبه تمويل للأبحاث التي تطمح إلى ترشيد الاستخدام، وطالبت العريضة كذلك بتحديث النظام القضائي حتى يستطيع البت في قضايا تخصّ هذا الذكاء.

من جهتها دعت منظمة اليونسكو العالم إلى تطبيق توصية أصدرتها عام 2021 على طرق تطوير هذا الذكاء. وتشدد التوصية على "إنشاء أداة تشريعية لتنظيم الذكاء الاصطناعي ومراقبته" تضمن كذلك “الأمن الكامل للبيانات الشخصية والحساسة". وتؤكد اليونسكو أنه يجب استحضار البعد الأخلاقي في طموح الدول للاستفادة من هذا التطوّر التقني حتى يتم تقليل المخاطر الناجمة عنه. وتؤكد المنظمة أن هذه التقنية تخلق حالياً تحديات كبيرة، خصوصا إمكانية نشرها لمعلومات مضللة، وأخرى فيها انتهاك لحقوق الأفراد والمجموعات.

ويصعب جمع العديد من أصحاب المصلحة تحت سقف واحد للتحقيق في كيفية تغيير الذكاء الاصطناعي للمجتمع. ويمكن أن يُمنح الباحثون مزيدا من الوقت لتقييم مخاطر الذكاء الاصطناعي أثناء كتابة اللوائح. ونظرا لقلة تحرك أقوى دول العالم نحو تنظيم الذكاء الاصطناعي، حان وقت تصديق الدول الصغيرة على لوائحها الخاصة.

وتمتلك الاقتصادات التي تعتمد على التكنولوجيا (مثل إستونيا وإسرائيل والإمارات العربية المتحدة) قاعدة المعرفة الأساسية لصياغة لوائح منطقية ودراسة مدى تأثيرها على تطوير الذكاء الاصطناعي. وتعدّ هذه البلدان صغيرة بما يكفي لتحديث اللوائح وتعديلها مع تطور التكنولوجيا، لكن العالم ككل يبقى بحاجة إلى حواجز الحماية من الذكاء الاصطناعي.

13