اتفقت شركة Google وشركة Character.AI، وهي شركة ناشئة في كاليفورنيا، على تسوية العديد من الدعاوى القضائية التي تزعم أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي تضر بالصحة العقلية للمراهقين.
تظهر وثائق المحكمة المقدمة هذا الأسبوع أن الشركات تضع اللمسات الأخيرة على التسويات في الدعاوى القضائية التي اتهمتها فيها العائلات بعدم وضع ضمانات كافية قبل إطلاق روبوتات الدردشة المدعومة بالذكاء الاصطناعي علنًا. رفعت عائلات في ولايات متعددة بما في ذلك كولورادو وفلوريدا وتكساس ونيويورك دعوى قضائية ضد الشركات.
ورفضت شركة Character.AI التعليق على المستوطنات. ولم تستجب جوجل على الفور لطلب التعليق.
تعد المستوطنات أحدث تطور فيما أصبح مشكلة كبيرة لشركات التكنولوجيا الكبرى أثناء إطلاقها لمنتجات تعمل بالذكاء الاصطناعي.
منع الانتحار وموارد المشورة في الأزمات
إذا كنت أنت أو أي شخص تعرفه يعاني من أفكار انتحارية، فاطلب المساعدة من أحد المتخصصين واتصل بالرقم 9-8-8. سيقوم أول خط ساخن لأزمات الصحة العقلية مكون من ثلاثة أرقام على مستوى الولايات المتحدة برقم 988 بربط المتصلين بمستشاري الصحة العقلية المدربين. أرسل كلمة “HOME” إلى الرقم 741741 في الولايات المتحدة وكندا للوصول إلى خط نص الأزمة.
في العام الماضي، رفع آباء في كاليفورنيا دعوى قضائية ضد OpenAI، الشركة المصنعة لـ ChatGPT، بعد وفاة ابنهم آدم رين منتحرًا. وزعمت الدعوى القضائية أن ChatGPT قدم معلومات حول طرق الانتحار، بما في ذلك الطريقة التي استخدمها المراهق لقتل نفسه. قالت OpenAI إنها تأخذ السلامة على محمل الجد وطرحت ضوابط أبوية جديدة عليها ChatGPT.
وقد حفزت هذه الدعاوى القضائية المزيد من التدقيق من جانب الآباء والمدافعين عن سلامة الأطفال والمشرعين، بما في ذلك في كاليفورنيا، الذين أقروا قوانين جديدة العام الماضي تهدف إلى جعل برامج الدردشة الآلية أكثر أمانًا. يستخدم المراهقون بشكل متزايد برامج الدردشة الآلية في المدرسة والمنزل، لكن بعضهم نقلوا بعض أفكارهم المظلمة إلى شخصيات افتراضية.
وقالت هالي هينكل، مستشارة السياسات في Fairplay، وهي منظمة غير ربحية مكرسة لمساعدة الأطفال، في بيان: “لا يمكننا أن نسمح لشركات الذكاء الاصطناعي بتعريض حياة أطفال آخرين للخطر. يسعدنا أن نرى هذه العائلات، التي عانى بعضها من الخسارة النهائية، تحصل على قدر بسيط من العدالة”. “لكن لا ينبغي لنا أن ننظر إلى هذه التسوية باعتبارها النهاية. لقد بدأنا للتو في رؤية الضرر الذي سيلحقه الذكاء الاصطناعي بالأطفال إذا ظل دون تنظيم”.
إحدى الدعاوى القضائية الأكثر شهرة تتعلق بأم فلوريدا ميغان جارسيا، التي رفعت دعوى قضائية ضد شركة Character.AI وكذلك Google وشركتها الأم Alphabet، في عام 2024 بعد أن انتحر ابنها سيويل سيتزر الثالث البالغ من العمر 14 عامًا.
بدأ المراهق في التحدث إلى روبوتات الدردشة على موقع Character.AI، حيث يمكن للأشخاص إنشاء شخصيات افتراضية بناءً على أشخاص خياليين أو حقيقيين. لقد شعر وكأنه وقع في حب برنامج الدردشة الآلي الذي يحمل اسم Daenerys Targaryen، الشخصية الرئيسية في المسلسل التلفزيوني “Game of Thrones”، وفقًا للدعوى القضائية.
وزعمت جارسيا في الدعوى القضائية أن العديد من برامج الدردشة الآلية التي كان ابنها يتحدث إليها أضرت بصحته العقلية، وأن شركة Character.AI فشلت في إخطارها أو تقديم المساعدة عندما أعرب عن أفكار انتحارية.
“يطلب الطرفان وقف هذه المسألة حتى يتمكن الطرفان من صياغة وثائق التسوية الرسمية وإنهائها وتنفيذها”، وفقًا لإشعار تم تقديمه يوم الأربعاء إلى محكمة اتحادية في فلوريدا.
رفع الآباء أيضًا دعوى قضائية ضد Google والشركة الأم لأن مؤسسي Character.AI نعوم شازير ودانييل دي فريتاس لديهما علاقات مع عملاق البحث. بعد ترك الشركة والمشاركة في تأسيس شركة Character.AI في مينلو بارك، كاليفورنيا، عاد كلاهما إلى وحدة الذكاء الاصطناعي في Google.
قالت Google سابقًا أن Character.AI هي شركة منفصلة وأن عملاق البحث “لم يكن له أبدًا دور في تصميم أو إدارة نموذج أو تقنيات الذكاء الاصطناعي الخاصة به” أو استخدامها في منتجاته.
لدى Character.AI أكثر من 20 مليون مستخدم نشط شهريًا. وفي العام الماضي، عينت الشركة رئيسًا تنفيذيًا جديدًا وقالت إنها ستمنع المستخدمين الذين تقل أعمارهم عن 18 عامًا من إجراء محادثات “مفتوحة” مع برامج الدردشة الخاصة بها، وتعمل على تجربة جديدة للشباب.
