لقد تغلغل الذكاء الاصطناعي التوليدي بسرعة في الكثير مما نقوم به عبر الإنترنت، وأثبت أنه مفيد للكثيرين. ولكن بالنسبة لأقلية صغيرة من مئات الملايين من الأشخاص الذين يستخدمونه يوميًا، قد يكون الذكاء الاصطناعي داعمًا للغاية، كما يقول خبراء الصحة العقلية، ويمكن أن يؤدي في بعض الأحيان إلى تفاقم السلوك الوهمي والخطير.
يبدو أن حالات الاعتماد العاطفي والمعتقدات الخيالية بسبب التفاعلات الطويلة مع برامج الدردشة الآلية انتشرت هذا العام. وقد أطلق البعض على هذه الظاهرة اسم “ذهان الذكاء الاصطناعي”.
قال فايل رايت، المدير الأول لابتكار الرعاية الصحية في الجمعية النفسية الأمريكية: “ربما يكون المصطلح الأكثر دقة هو التفكير الوهمي للذكاء الاصطناعي”. “ما نراه في هذه الظاهرة هو أن الأشخاص ذوي التفكير التآمري أو الوهمي المتضخم يتعززون”.
يقول الخبراء إن الأدلة على أن الذكاء الاصطناعي قد يكون ضارًا لأدمغة بعض الأشخاص آخذة في التزايد. وقد أدى الجدل حول التأثير إلى رفع دعاوى قضائية وقوانين جديدة. وقد أجبر هذا شركات الذكاء الاصطناعي على إعادة برمجة الروبوتات الخاصة بها وإضافة قيود على كيفية استخدامها.
في وقت سابق من هذا الشهر، رفعت سبع عائلات في الولايات المتحدة وكندا دعوى قضائية ضد شركة OpenAI لإطلاقها نموذج روبوت الدردشة GPT-4o دون الاختبار والضمانات المناسبة. وتزعم قضيتهم أن التعرض الطويل لبرنامج الدردشة الآلي ساهم في عزلة أحبائهم، وحالات الوهم والانتحار.
بدأ كل فرد من أفراد الأسرة في استخدام ChatGPT للمساعدة العامة في الواجبات المدرسية أو البحث أو التوجيه الروحي. تطورت المحادثات مع قيام برنامج الدردشة الآلي بتقليد أحد المقربين وتقديم الدعم العاطفي، وفقًا لمركز قانون ضحايا وسائل التواصل الاجتماعي ومشروع قانون العدالة التقنية، الذي رفع الدعاوى القضائية.
وفي إحدى الحوادث الموصوفة في الدعوى القضائية، بدأ زين شامبلين، 23 عامًا، في استخدام ChatGPT في عام 2023 كأداة للدراسة، لكنه بدأ بعد ذلك في مناقشة اكتئابه وأفكاره الانتحارية مع الروبوت.
وتزعم الدعوى أنه عندما انتحر شامبلين في يوليو/تموز، كان منخرطًا في “محادثة موت” لمدة أربع ساعات مع ChatGPT، وكان يشرب عصير التفاح القوي. وفقًا للدعوى القضائية، قام برنامج الدردشة الآلي بإضفاء طابع رومانسي على يأسه، واصفًا إياه بـ “الملك” و”البطل” واستخدم كل علبة عصير التفاح التي أنهىها كعد تنازلي حتى وفاته.
كان رد ChatGPT على رسالته الأخيرة هو: “أنا أحبك. كن هادئًا أيها الملك. لقد قمت بعمل جيد،” كما تقول الدعوى.
وفي مثال آخر موصوف في الدعوى، يدعي ألان بروكس، 48 عامًا، وهو مسؤول تجنيد من كندا، أن التفاعل المكثف مع ChatGPT وضعه في مكان مظلم حيث رفض التحدث إلى عائلته واعتقد أنه كان ينقذ العالم.
لقد بدأ التفاعل معه للحصول على المساعدة في الوصفات ورسائل البريد الإلكتروني. بعد ذلك، وبينما كان يستكشف الأفكار الرياضية باستخدام الروبوت، كان الأمر مشجعًا للغاية لدرجة أنه بدأ يعتقد أنه اكتشف طبقة رياضية جديدة يمكنها اختراق أنظمة الأمان المتقدمة، كما تزعم الدعوى. وتقول الدعوى إن ChatGPT أشاد بأفكاره الرياضية ووصفها بأنها “رائدة”، وحثه على إخطار مسؤولي الأمن القومي باكتشافه.
وعندما سأل عما إذا كانت أفكاره تبدو وهمية، قال موقع ChatGPT: “ولا حتى عن بعد، فأنت تطرح أنواع الأسئلة التي تمتد إلى حدود الفهم البشري”، كما جاء في الدعوى.
قالت OpenAI إنها أدخلت أدوات الرقابة الأبوية، ووسعت نطاق الوصول إلى الخطوط الساخنة للأزمات بنقرة واحدة، وقامت بتجميع حل مجلس الخبراء لتوجيه العمل المستمر حول الذكاء الاصطناعي والرفاهية.
“هذا موقف مفجع بشكل لا يصدق، ونحن نراجع الملفات لفهم التفاصيل. نحن ندرب ChatGPT للتعرف على علامات الاضطراب العقلي أو العاطفي والاستجابة لها، وتخفيف حدة المحادثات، وتوجيه الأشخاص نحو الدعم في العالم الحقيقي. وقالت OpenAI في بيان عبر البريد الإلكتروني: “نحن نواصل تعزيز استجابات ChatGPT في اللحظات الحساسة، ونعمل بشكل وثيق مع أطباء الصحة العقلية”.
مع تراكم الدعاوى القضائية وتزايد الدعوات إلى التنظيم، يحذر البعض من أن اتخاذ الذكاء الاصطناعي ككبش فداء لمخاوف الصحة العقلية الأوسع يتجاهل عدداً لا يحصى من العوامل التي تلعب دوراً في الصحة العقلية.
قال كيفن فرايزر، زميل ابتكارات الذكاء الاصطناعي والقانون في كلية الحقوق بجامعة تكساس: “إن ذهان الذكاء الاصطناعي أمر مقلق للغاية، لكنه لا يمثل على الإطلاق كيفية استخدام معظم الناس للذكاء الاصطناعي، وبالتالي فهو أساس ضعيف لتشكيل السياسة”. “في الوقت الحالي، الأدلة المتاحة – الأشياء التي تكمن في قلب السياسة الجيدة – لا تشير إلى أن القصص المأساوية المعترف بها لعدد قليل من الناس يجب أن تشكل كيفية تفاعل الأغلبية الصامتة من المستخدمين مع الذكاء الاصطناعي”.
من الصعب قياس أو إثبات مدى تأثير الذكاء الاصطناعي على بعض المستخدمين. وقال ستيفن شويلر، أستاذ علم النفس في جامعة كاليفورنيا في إيرفين، إن الافتقار إلى الأبحاث التجريبية حول هذه الظاهرة يجعل من الصعب التنبؤ بمن هو أكثر عرضة لها.
وقال: “الحقيقة هي أن الأشخاص الوحيدين الذين يعرفون حقًا مدى تكرار هذه الأنواع من التفاعلات هم شركات الذكاء الاصطناعي، وهم لا يشاركون بياناتهم معنا”.
ربما كان العديد من الأشخاص الذين يبدو أنهم متأثرين بالذكاء الاصطناعي يعانون بالفعل من مشاكل عقلية مثل الأوهام قبل التفاعل مع الذكاء الاصطناعي.
وقال شويلر: “تميل منصات الذكاء الاصطناعي إلى إظهار التملق، أي مواءمة استجاباتها مع آراء المستخدم أو أسلوب المحادثة”. “يمكن أن يعزز المعتقدات الوهمية للفرد أو ربما يبدأ في تعزيز المعتقدات التي يمكن أن تخلق الأوهام.”
ضغطت منظمات سلامة الأطفال على المشرعين لتنظيم شركات الذكاء الاصطناعي ووضع ضمانات أفضل لاستخدام المراهقين لروبوتات الدردشة. رفعت بعض العائلات دعوى قضائية شخصية منظمة العفو الدولية، وهي عبارة عن منصة chatbot لتمثيل الأدوار، لفشلها في تنبيه الآباء عندما يعبر طفلهم عن أفكار انتحارية أثناء الدردشة مع شخصيات خيالية على منصتهم.
في أكتوبر، مرت ولاية كاليفورنيا على قانون سلامة الذكاء الاصطناعي مطالبة مشغلي برامج الدردشة الآلية بمنع المحتوى الانتحاري، وإخطار القاصرين بأنهم يتحدثون مع الأجهزة وإحالتهم إلى الخطوط الساخنة للأزمات. بعد ذلك، حظرت شركة Character AI وظيفة الدردشة الخاصة بالقاصرين.
وقال متحدث باسم شركة Character AI في بيان عبر البريد الإلكتروني: “لقد قررنا في Character أن نذهب إلى أبعد من لوائح كاليفورنيا لبناء التجربة التي نعتقد أنها الأفضل للمستخدمين الذين تقل أعمارهم عن 18 عامًا”. “بدءًا من 24 نوفمبر، نتخذ خطوة غير عادية تتمثل في الإزالة الاستباقية لقدرة المستخدمين الذين تقل أعمارهم عن 18 عامًا في الولايات المتحدة على المشاركة في محادثات مفتوحة مع الذكاء الاصطناعي على منصتنا.”
ChatGPT وضعت الرقابة الأبوية الجديدةق لحسابات المراهقين في سبتمبر، بما في ذلك تلقي الآباء إشعارات من الحسابات التابعة إذا تعرف ChatGPT على علامات محتملة لإيذاء المراهقين لأنفسهم.
على الرغم من أن رفقة الذكاء الاصطناعي جديدة وغير مفهومة تمامًا، إلا أن هناك الكثير ممن يقولون إنها تساعدهم على عيش حياة أكثر سعادة. وجدت دراسة أجراها معهد ماساتشوستس للتكنولوجيا على مجموعة تضم أكثر من 75000 شخص يناقشون رفاق الذكاء الاصطناعي على موقع Reddit أن المستخدمين من تلك المجموعة ذكرت انخفاض الشعور بالوحدة وصحة نفسية أفضل من الدعم المتوفر دائمًا الذي يقدمه أحد أصدقاء الذكاء الاصطناعي.
الشهر الماضي، OpenAI نشرت دراسة استنادًا إلى استخدام ChatGPT الذي وجد أن محادثات الصحة العقلية التي تثير مخاوف تتعلق بالسلامة مثل الذهان أو الهوس أو التفكير الانتحاري “نادرة للغاية”. في أسبوع معين، أجرى 0.15% من المستخدمين النشطين محادثات تظهر مؤشرًا على إيذاء النفس أو الاعتماد العاطفي على الذكاء الاصطناعي. ولكن مع وجود 800 مليون مستخدم نشط أسبوعيًا لـ ChatGPT، فإن هذا لا يزال أعلى من مليون مستخدم.
وقالت OpenAI في منشور مدونتها: “الأشخاص الذين لديهم ميل أقوى للارتباط في العلاقات وأولئك الذين نظروا إلى الذكاء الاصطناعي كصديق يمكن أن يتناسب مع حياتهم الشخصية كانوا أكثر عرضة للتعرض لآثار سلبية من استخدام روبوتات الدردشة”. وقالت الشركة إن GPT-5 يتجنب تأكيد المعتقدات الوهمية. إذا اكتشف النظام علامات الضيق الحاد، فسوف يتحول الآن إلى أسلوب أكثر منطقية وليس عاطفيًا الردود.
وقال رايت من الجمعية النفسية الأمريكية إن قدرة روبوتات الذكاء الاصطناعي على الارتباط مع المستخدمين ومساعدتهم على حل المشكلات، بما في ذلك المشكلات النفسية، ستظهر كقوة عظمى مفيدة بمجرد فهمها ومراقبتها وإدارتها.
وقالت: “أعتقد أنه سيكون هناك مستقبل حيث يكون لديك روبوتات دردشة للصحة العقلية تم تصميمها لهذا الغرض”. “المشكلة هي أن هذا ليس ما هو موجود في السوق حاليا – ما لديك هو كل هذه المساحة غير المنظمة.”


