معالجون نفسيون آليون يثيرون عاصفة من الجدل

الثقة في الذكاء الاصطناعي لعلاج مرضى الصحة العقلية تنطوي على احتمالية كبيرة لإلحاق الضرر.
الجمعة 2023/01/20
من المسؤول إذا قدم الذكاء الاصطناعي اقتراحات ضارة للأشخاص؟

واشنطن - تعرضت منظمة غير ربحية للصحة العقلية لانتقادات شديدة لاستخدامها روبوت محادثة يعمل بالذكاء الاصطناعي لتقديم الدعم للأشخاص الذين يسعون للحصول على المشورة، ولتجربة التكنولوجيا الجديدة على أشخاص حقيقيين.

وأوضح روب موريس مؤسس خدمة الصحة العقلية المجانية كوكو  Koko في سلسلة تغريدات على تويتر كيف اختبرت الشركة استخدام روبوت محادثة للمساعدة في توفير دعم الصحة العقلية لنحو 4000 شخص.

وكان روبوت الدردشة "جي.بي.تي 3" المستخدم في التجربة قد أثار عاصفة من الجدل. وقال موريس "قدمنا دعما للصحة العقلية لحوالي 4000 شخص باستخدام 'جي.بي.تي 3'"، مضيفا أنه تم تصنيف الرسائل المكونة من قبل الذكاء الاصطناعي بدرجة أعلى بكثير من تلك التي كتبها البشر بأنفسهم، وتابع "انخفضت أوقات الاستجابة بنسبة 50 في المئة لتصل إلى أقل من دقيقة.. وبمجرد أن علم الناس أن الرسائل التي تلقوها صادرة عن برنامج، فإن الأمر لم ينجح".

وأشار موريس، وهو عالم بيانات، إلى أن الذكاء الاصطناعي قد استخدم في أكثر من 30 ألف رسالة. وفي الفيديو الذي نشره ضمن إحدى التغريدات، يُظهر موريس نفسه وهو يتعامل مع روبوت المحادثة على إحدى منصات التواصل الاجتماعي، حيث يطلب من برنامج الذكاء الاصطناعي الرد على منشور سلبي كتبه شخص ما عن نفسه.

ويقول موريس "نحاول أن نسهل من عملية مساعدة الأشخاص الآخرين، وباستخدام 'جي.بي.تي 3' يكون الأمر أكثر كفاءة وفعالية". وخلال العملية قام الذكاء الاصطناعي بكتابة رد من تلقاء نفسه، وقال موريس "لقد كتب في ثوان معدودة ردا رائعا ومفصلا حقا".

◙ الرسائل التي ألفها الذكاء الاصطناعي تم تصنيفها على أنها أعلى قيمة بكثير من تلك التي كتبها البشر ومعدلات الاستجابة بمساعدته تحسنت بنسبة 50 في المئة

وفي سلسلة التغريدات نفسها، قال موريس إن الرسائل التي ألفها الذكاء الاصطناعي تم تصنيفها على أنها أعلى قيمة بكثير من تلك التي كتبها البشر، وأن معدلات الاستجابة تحسنت بنسبة 50 في المئة بمساعدة الذكاء الاصطناعي.

وأثارت التجربة حفيظة علماء أخلاقيات الذكاء الاصطناعي وخبراء ومستخدمين، كما أثارت عددا من المشاكل الأخلاقية المتداخلة. فقد انتقد البعض بشدة استخدام تقنية غير معلن عنها أو مصرح باستخدامها في هذا المجال الحساس دون إخبار الأشخاص الذين خضعوا لاستخدامها معهم.

كما انتقد آخرون فكرة أن تقوم آلة بالتعامل مع حالات مرضية لبشر بأي شكل على المستوى النفسي والعاطفي وما تضمنه ذلك من محاكاة مصطنعة للمشاعر البشرية بشكل وصفه البعض "بالكاذب".

وقالت إليزابيث ماركيز، وهي باحثة أولى في مركز ماث ووركس "لم يرد خلال تلك المراحل من تواصل الشخص الذي يبحث عن الرعاية مع المؤسسة أي ذكر لعملية الموافقة أو مراجعة أخلاقية الأمر، ولا التلميح أن من يتعامل معهم هو آلة، خاصة وأن هناك أشخاصا لا يحبون روبوت الدردشة وخصوصا في ما يتعلق برعاية صحتهم العقلية.. كان الأمر جديدا ومدهشا".

وقالت إميلي إم بندر أستاذة اللغويات في جامعة واشنطن إن الثقة في الذكاء الاصطناعي لعلاج مرضى الصحة العقلية تنطوي على احتمالية كبيرة لإلحاق الضرر، "فهذه آلات ليس لديها أي تعاطف وهي نفسها لا تفهم طبيعة اللغة التي تنتج بها الإجابات، ولا تفهم الوضع الذي يعيش فيه الناس".

وأضافت أن استخدام شيء من هذا القبيل في المواقف الحساسة هو مخاطرة غير مأمونة العواقب، ما يطرح سؤالا رئيسيا هو: من المسؤول إذا قدم الذكاء الاصطناعي اقتراحات ضارة للأشخاص؟ وما حدود المسؤولية والمحاسبة من جانب الشركة إذا حدث ذلك؟

12