ملبورن ، أستراليا – اعتذر محامٍ كبير في أستراليا إلى قاضٍ لتقديم الطلبات في قضية القتل التي شملت عروض أسعار وهمية وأحكام القضايا غير الموجودة الناتجة عن الذكاء الاصطناعي.
الخطأ في المحكمة العليا في ولاية فيكتوريا هو آخر في مجموعة من الحوادث لقد تسببت الذكاء الاصطناعي في أنظمة العدالة في جميع أنحاء العالم.
تولى محامي الدفاع ريشي ناثواني ، الذي يحمل اللقب القانوني المرموق لمحامي الملك ، “المسؤولية الكاملة” لتقديم معلومات غير صحيحة في الطلبات في قضية مراهق متهم بالقتل ، وفقًا لوثائق المحكمة التي شاهدتها وكالة أسوشيتيد برس يوم الجمعة.
وقال ناثواني لجيمس إليوت يوم الأربعاء ، نيابة عن فريق الدفاع: “نحن آسفون للغاية ومحرجون لما حدث”.
ال أخطاء من الذكاء الاصطناعى تسبب في تأخير لمدة 24 ساعة في حل القضية التي كان إليوت يأمل في أن يختتم يوم الأربعاء. قضى إليوت يوم الخميس بأن عميل ناثواني ، الذي لا يمكن التعرف عليه لأنه قاصر ، لم يكن مذنباً بالقتل بسبب ضعف عقلي.
وقال إليوت للمحامين يوم الخميس “في خطر الاختبار ، فإن الطريقة التي تكشفت بها هذه الأحداث غير مرضية”.
وأضاف إليوت: “إن قدرة المحكمة على الاعتماد على دقة التقديمات التي قدمها المحامي أمر أساسي للإدارة الواجبة للعدالة”.
تضمنت عمليات التقديم المزيفة عروض أسعار ملفقة من خطاب إلى المجلس التشريعي للولاية واستشهادات القضايا غير الموجودة من المحكمة العليا.
تم اكتشاف الأخطاء من قبل شركاء إليوت ، الذين لم يتمكنوا من العثور على القضايا وطلبوا من محامو الدفاع تقديم نسخ.
اعترف المحامون بأن الاستشهادات “غير موجودة” وأن التقديم يحتوي على “اقتباسات وهمية” ، كما تقول وثائق المحكمة.
أوضح المحامون أنهم تحققوا من أن الاستشهادات الأولية كانت دقيقة وافتراض أن الآخرين سيكونون صحيحين أيضًا.
كما تم إرسال الطلبات إلى المدعي العام دانييل بوردودو ، الذي لم يتحقق من دقتها.
أشار القاضي إلى أن المحكمة العليا أصدرت إرشادات العام الماضي لكيفية استخدام المحامين الذكاء الاصطناعي.
وقال إليوت: “ليس من المقبول استخدام الذكاء الاصطناعي ما لم يتم التحقق من ناتج هذا الاستخدام بشكل مستقل وشامل”.
لا تحدد وثائق المحكمة نظام الذكاء الاصطناعي التوليدي الذي يستخدمه المحامون.
في قضية مماثلة في الولايات المتحدة في عام 2023 ، قاضٍ فيدرالي فرض غرامات 5000 دولار على محامين وشركة محاماة بعد chatgpt تم إلقاء اللوم على تقديمهم للبحث القانوني الوهمي في مطالبة إصابة الطيران.
قال القاضي ب. كيفن كاستيل إنهم تصرفوا بسوء نية. لكنه عزز اعتذاراتهم وخطواتهم العلاجية التي اتخذت في شرح سبب عدم وجود عقوبات أكثر قسوة لضمان عدم السماح لهم أو الآخرين مرة أخرى بأدوات الذكاء الاصطناعي التي تطالبهم بإنتاج تاريخ قانوني مزيف في حججهم.
في وقت لاحق من ذلك العام ، تم ذكر المزيد من أحكام المحكمة الوهمية التي اخترعها منظمة العفو الدولية في أوراق قانونية قدمها محامون لمايكل كوهين ، المحامي الشخصي السابق للرئيس الأمريكي دونالد ترامب. ألقى كوهين اللوم ، قائلاً إنه لم يدرك أن أداة Google التي كان يستخدمها للبحث القانوني كانت قادرة أيضًا على ما يسمى بالهلوسة الذكاء الاصطناعى.