اعترف قاضيان فيدراليان أمريكيان بأن موظفي شركتهما القانونية اعتمدوا على الذكاء الاصطناعي لكتابة قرارات المحكمة، وأن التجربة سارت بشكل خاطئ بشكل فظيع.
في رسالتين صريحتين، أصدرهما يوم الخميس السيناتور تشاك غراسلي، رئيس اللجنة القضائية بمجلس الشيوخ، زعم القاضيان هنري تي. وينجيت من ولاية ميسيسيبي وجوليان كزافييه نيلز من ولاية نيوجيرسي، استخدام أدوات الذكاء الاصطناعي في صياغة أوامر قضائية تبيّن لاحقًا أنها مليئة بالأخطاء الواقعية والعيوب القانونية. وقد أُلغي كلا القرارين لاحقًا.
وقال جراسلي، الذي طلب توضيحًا: "يقع على عاتق كل قاضٍ فيدرالي والقضاء كمؤسسة التزام بضمان أن استخدام الذكاء الاصطناعي التوليدي لا ينتهك حقوق المتقاضين أو يعوق المعاملة العادلة بموجب القانون".
أخطاء الموظفين تكشف عن حدود الذكاء الاصطناعي في المحكمة
في رسالته ، ادعى القاضي نيلز من مقاطعة نيوجيرسي أن مسودة حكم في قضية أوراق مالية نُشرت "بخطأ بشري" بعد أن استخدم متدرب قانوني برنامج ChatGPT من OpenAI لإجراء بحث دون تصريح أو إفصاح. أُلغي القرار فور اكتشاف الخطأ.
ولمنع حدوث ذلك مرة أخرى، قال نيلز إن شركته قامت منذ ذلك الحين بإنشاء سياسة مكتوبة للذكاء الاصطناعي وتحسين عملية المراجعة الخاصة بها.
وقال القاضي وينجيت، الذي يخدم في المنطقة الجنوبية من ولاية ميسيسيبي، إن كاتبًا قانونيًا استخدم أداة الذكاء الاصطناعي Perplexity "كمساعد صياغة حاسم في تجميع المعلومات المتاحة للجمهور حول ملف القضية".
صدر أمر التجنيد هذا في قضية حقوق مدنية، ثم استُبدل لاحقًا بعد أن اكتشف وينجيت وجود أخطاء. وصرح وينجيت بأن هذا الحدث "يمثل نقصًا في الرقابة البشرية"، مضيفًا أنه شدد منذ ذلك الحين إجراءات المراجعة داخل شركته.
انتقادات استخدام الذكاء الاصطناعي في العمل القانوني
تُضاف هذه الحادثة إلى قائمة متنامية من الخلافات المتعلقة بالمواد القانونية المُولّدة بالذكاء الاصطناعي. في السنوات الأخيرة، واجه محامون في عدة ولايات قضائية أمريكية عقوبات لتقديمهم وثائق مُعدّة بواسطة روبوتات دردشة تحتوي على تزويرات في بلاغات القضايا وسوء تطبيق السجلات الجنائية.
في وقت سابق من هذا الشهر، أقر النظام القضائي لولاية نيويورك سياسة جديدة تحظر على القضاة والموظفين إدخال معلومات سرية أو خاصة أو غير عامة تتعلق بالقضايا في أدوات الذكاء الاصطناعي التوليدية العامة.
في حين استكشفت مهنة المحاماة بسرعة إمكانات الذكاء الاصطناعي لتحسين الكفاءة، إلا أن الحوادث سلّطت الضوء على محدودية هذه التقنية، لا سيما ميلها إلى توليد الهلوسة أو إنتاج معلومات معقولة ولكنها كاذبة . بالنسبة للمحاكم، حيث تُعدّ النزاهة ودقة الأحكام وعبء الإثبات أمرًا بالغ الأهمية، فإن هذه النقائص تُهدد بتقويض ثقة الجمهور في نظام العدالة.
وحث جراسلي، الذي أشاد بوينغيت ونيلز لاعترافهما بأخطائهما، القضاء أيضًا على تنفيذ إرشادات أكثر صرامة فيما يتعلق بالذكاء الاصطناعي.
لم ينشر المكتب الإداري للمحاكم إرشادات شاملة حول استخدام الذكاء الاصطناعي، على الرغم من أن العديد من المحاكم الجزئية تدرس استخدامًا محدودًا وخاضعًا للإشراف. من ناحية أخرى، يقترح علماء القانون قاعدةً للشفافية تُلزم القضاة بالإفصاح علنًا عن أي استخدام للذكاء الاصطناعي في آرائهم أو أوامرهم القضائية، على غرار متطلبات الاستشهاد بالأبحاث الخارجية.
وتأتي هذه الحوادث في الوقت الذي تواصل فيه الوكالات الفيدرالية والهيئات المهنية التعامل مع الأسئلة المتعلقة بمسؤولية الذكاء الاصطناعي.
انضم إلى مجتمع تداول العملات المشفرة المتميز مجانًا لمدة 30 يومًا، عادةً مقابل 100 دولار شهريًا.