غوغل تحل مجلس أخلاقيات الذكاء الاصطناعي

خبراء يؤكدون أن تركيبة المجلس تعكس رغبة في إرضاء المشرعين الجمهوريين وكسب التأييد في حالة التنظيم حول أبحاث الذكاء الاصطناعي.
السبت 2019/04/06
غوغل تحت المجهر

تركيبة مجلس أخلاقيات الذكاء الاصطناعي التي أطلقتها شركة غوغل واجهت رد فعل عنيف، داخل وخارج الشركة. ويقول خبراء إنه محاولة لإرضاء المشرعين الجمهوريين وكسب التأييد في حالة التنظيم حول أبحاث الذكاء الاصطناعي.

واشنطن - كشفت شركة غوغل الأربعاء أنها حلت مجلسا استشاريا يهدف إلى مراقبة استخدامه للذكاء الاصطناعي، بعد أسبوع من الجدل بشأن اختيار الشركة لأعضائه.

ويعزى القرار، الذي نشره موقع فيرج الإلكتروني إلى حد كبير إلى احتجاج مجلس الإدارة على ضم رئيسة مؤسسة “التراث” كاي كولز جيمس، وهي شخصية محافظة بارزة تبنت علنا خطابا مناهضا لحقوق المهاجرين والمتحولين جنسياً.

ووفقاً لما ذكره موقع “بيزنس إنسايدر” البريطاني، فإن المجموعة المعروفة باسم Google Googlers Against Transphobia، كتبت في تدوينة معلنة أن تعيين غوغل لجيمس في مجلس الأخلاقيات يؤيد وجهات نظرها، مما يعنى ضمنا أن وجهة نظرها تستحق العمل بها باعتبارها شريكاً في صنع القرار.

وفي المقابل أوضح مناصرون لغوغل أن وضعها في مجلس الأخلاقيات يهدف إلى المساعدة في تعزيز تنوع الفكر.

وأعلنت غوغل الثلاثاء الماضي أن مجلس أخلاقيات الذكاء الاصطناعي، والمسمى بالمجلس الاستشاري الخارجي للتكنولوجيا المتقدمة، يتجه نحو طريقة جديدة لمعالجة القرارات الأخلاقية الصعبة التي تواجهها مع الذكاء الاصطناعي.

وتضمن المجلس الاستشاري عددًا من الأكاديميين البارزين في مجالات تتراوح من الذكاء الاصطناعي والفلسفة إلى علم النفس والروبوتات. لكنه شمل أيضًا من لديهم خلفيات سياسية، مثل جيمس وأعضاء الإدارات الرئاسية الأميركية السابقة.

وواجهت تركيبة المجلس ردا فعل عنيف في نفس اليوم الذي تم الإعلان فيه عنها، داخل وخارج الشركة. ولم تقدم غوغل توضيحا شافيا حول كيفية اختيار أعضائه. لكن خبراء أكدوا أن التركيبة “رغبة في إرضاء المشرعين الجمهوريين وكسب التأييد في حالة التنظيم حول أبحاث الذكاء الاصطناعي وتطبيقه على المنتجات والخدمات في العالم الحقيقي” .

وتصاعدت الضغوط على غوغل، خاصة بعد استقالة البروفيسور كارنيجي ميلون أليساندرو أكويستي السبت الماضي، من المجلس حيث كتب على تويتر “لا أعتقد أن هذا هو المنتدى المناسب لي للمشاركة في هذا العمل الهام” .

ويعتبر حل المجلس انتصار آخر لموظفي غوغل. على مدار العامين الماضيين، منذ طرد جيمس دامور، وهو مهندس أقيل من وظيفته في غوغل، بسبب مذكرة انتقد فيها عدم المساواة بين الجنسين.

سوندار بيشاي: الذكاء الاصطناعي من الأشياء المهمة التي تعمل عليها الإنسانية
سوندار بيشاي: الذكاء الاصطناعي من الأشياء المهمة التي تعمل عليها الإنسانية

ومنذ طلك الحين، بذل أعضاء عملاق البحث جهودًا ناجحة داخل الشركة لسن قوانين تحقق التغيير حول معاملة الموظفين، والسياسات والممارسات غير العادلة والاستغلالية مثل التحكيم القسري والعمل بعقود، والمشاركة في البرامج الحكومية المتعلقة بالدفاع.

وكانت غوغل واجهت انتقادات كبيرة في وقت سابق، بسبب عملها على عقد مع وزارة الدفاع يشمل الذكاء الاصطناعي. واستقال بعض الموظفين اعتراضا على ما وصفوه بـ“استفادة غوغل من بيزنس الحرب”.

وفي يونيو الماضي، بعد إعلان غوغل أنها لن تجدد كشف الرئيس التنفيذي لغوغل، سوندار  بيشاي مجموعة من مبادئ أخلاقية للذكاء الاصطناعي تضم ممنوعات عامة مفروضة على أنظمة التطوير التي يمكن أن يتم استخدامها للتسبّب بأذى، والإضرار بحقوق الإنسان أو تساعد في انتهاكات الرقابة حول العالم.

وأكد الرئيس التنفيذي لغوغل أنه مع الوقت، وفيما تتقدم هذه التكنولوجيا “أعتقد بأنه من المهم أن نفتح نقاشات حول الأخلاقيات والتحيّز والاستمرار في التقدم في الوقت نفسه”.

وكان الآلاف من العاملين في التكنولوجيا، ومن بينهم ممثلون عن غوغل، قد وقّعوا في يوليو الماضي على تعهّد ضد تطوير أدوات الذكاء الاصطناعي التي يمكن أن تبرمِج للقتل.

وقال بيشاي، إن المخاوف من النتائج المؤذية للذكاء الاصطناعي (AI) “مشروعة جداً”، لكن في الوقت نفسه يجب الثقة بأن صناعة التكنولوجيا قادرة على تنظيم استخدامها بمسؤولية.

وفي مقابلة مع صحيفة واشنطن بوست الأميركية، العام الماضي، أشار بيشاي إلى أن أدوات جديدة خاصة بالذكاء الاصطناعي تتطلّب من الشركات وضع حواجز أخلاقية والتفكير في كيف يمكن إساءة استخدام هذه التكنولوجيا.

وقال بيشاي إنه متفائل بشأن إيجابيات هذه التكنولوجيا على المدى الطويل، ولكن تقييمه للمخاطر المحتملة للذكاء الاصطناعي يلقى صدى مع بعض انتقادات العاملين في هذا المجال من الذين يزعمون أنه قد يتم استخدامه “لتمكين المراقبة الاقتحامية، الأسلحة القاتلة وانتشار التضليل الإخباري.

وقدم رؤساء آخرون لشركات تكنولوجيا، مثل مؤسس سبايس إكس وتسلا إيلون ماسك، توقعات أكثر خطورةً عن أن الذكاء الاصطناعي يمكن أن يُثبت أنه “أخطر بكثير من الصواريخ”.

وتبع نداء بيشاي للتنظيم الذاتي في هذا المجال، شهادته في الكونغرس، حيث هدد محامون بفرض حدود على هذه التكنولوجيا في رد فعل على إساءة استخدامها، بما في ذلك على سلوك نشر المعلومات المضللة وخطاب الكراهية.

وأشار بيشاي، في المقابلة مع الصحيفة، أن محامين حول العالم يحاولون فهم تأثيرات الذكاء الاصطناعي والحاجة المحتملة إلى التنظيم الحكومي مؤكدا “أحياناً أقلق من كون الناس يقللون من شأن نطاق التغيير الممكن على المدى المتوسّط والطويل، وأعتقد أن الأسئلة معقّدة جداً”.

يذكر أن عمالقة في التكنولوجيا، بما فيهم مايكروسوفت، تبنّوا تنظيم الذكاء الاصطناعي، من قِبل الشركات التي تخلقها والحكومات التي تراقب استخدامها.

وأوضح بيشاي أنه إذا تم التعاطي بشكل صحيح مع الذكاء الاصطناعي، يمكن أن تكون له إيجابيات عظيمة.

 وأكد “تنظيم تكنولوجيا في أيامها الأولى أمرٌ صعب، ولكنني أعتقد أن الشركات عليها أن تنظّم ذلك بشكل ذاتيّ”، وأضاف “لهذا حاولنا جاهدين جمع مجموعة من مبادئ الذكاء الاصطناعي. ربما لم نحصل على كل شيء بشكل صحيح، ولكننا فكّرنا أنه مهم أن نبدأ بنقاشé.

وكان بيشاي، الذي انضم إلى غوغل عام 2004 وأصبح مديرا تنفيذيا بعد 11 سنة، وصف الذكاء الاصطناعي بكونه “واحداً من الأشياء المهمة التي تعمل عليها الإنسانية”، وقال “إن بإمكانها أن تثبت أنها أكثر عمقاً للمجتمع الإنساني من الكهرباء أو النار”.

19