LOS ANGELES – Một luật sư ở California phải nộp phạt 10.000 đô la vì nộp đơn kháng cáo lên tòa án tiểu bang với đầy đủ các trích dẫn giả mạo được tạo ra bởi công cụ trí tuệ nhân tạo ChatGPT.
Khoản tiền phạt này dường như là khoản tiền phạt lớn nhất do một tòa án California đưa ra liên quan đến việc bịa đặt AI, kèm theo một phán quyết gay gắt rằng 21 trong số 23 trích dẫn từ các vụ án được nêu trong bản tóm tắt mở đầu của luật sư là bịa đặt. Bản tóm tắt cũng lưu ý rằng nhiều tòa án ngoài tiểu bang và liên bang đã đối chất với các luật sư vì trích dẫn thẩm quyền pháp lý giả mạo.
“Do đó, chúng tôi công bố ý kiến này như một lời cảnh báo”, bài viết tiếp tục. “Nói một cách đơn giản, không có bản tóm tắt, đơn biện hộ, kiến nghị, hay bất kỳ giấy tờ nào khác được nộp lên bất kỳ tòa án nào được phép chứa bất kỳ trích dẫn nào – dù được cung cấp bởi AI tạo sinh hay bất kỳ nguồn nào khác – mà luật sư chịu trách nhiệm nộp đơn biện hộ chưa đích thân đọc và xác minh.”
Ý kiến được đưa ra tại Tòa Phúc thẩm Quận 2 của California là một ví dụ rõ ràng về lý do tại sao các cơ quan pháp lý của tiểu bang đang nỗ lực quản lý việc sử dụng AI trong ngành tư pháp. Hai tuần trước, Hội đồng Tư pháp của tiểu bang đã ban hành hướng dẫn yêu cầu thẩm phán và nhân viên tòa án hoặc cấm AI tạo ra hoặc áp dụng chính sách sử dụng AI tạo ra trước ngày 15 tháng 12. Trong khi đó, Hiệp hội Luật sư California đang xem xét liệu có nên tăng cường quy tắc ứng xử của mình để tính đến các hình thức AI khác nhau hay không sau yêu cầu của Tòa án Tối cao California vào tháng trước.
Luật sư khu vực Los Angeles bị phạt tuần trước, Amir Mostafavi, khai với tòa rằng ông đã không đọc văn bản do mô hình AI tạo ra trước khi nộp đơn kháng cáo vào tháng 7 năm 2023, vài tháng sau khi OpenAI quảng cáo ChatGPT có khả năng vượt qua kỳ thi luật sư. Theo ý kiến của tòa, một hội đồng gồm ba thẩm phán đã phạt ông vì nộp đơn kháng cáo vô căn cứ, vi phạm quy định của tòa án, trích dẫn các vụ án giả mạo và lãng phí thời gian của tòa án cũng như tiền thuế của người dân.
Mostafavi nói với CalMatters rằng ông đã viết đơn kháng cáo, sau đó sử dụng ChatGPT để cố gắng cải thiện nó. Ông nói rằng ông không biết nó sẽ thêm trích dẫn vụ án hay bịa đặt điều gì.
Ông cho rằng việc kỳ vọng luật sư ngừng sử dụng AI là không thực tế. AI đã trở thành một công cụ quan trọng, giống như việc các cơ sở dữ liệu trực tuyến phần lớn đã thay thế các thư viện luật, và cho đến khi các hệ thống AI ngừng tạo ra ảo giác thông tin giả mạo, ông khuyến nghị các luật sư sử dụng AI nên thận trọng.
“Trong khi đó, chúng ta sẽ có một số nạn nhân, chúng ta sẽ có một số thiệt hại, chúng ta sẽ có một số đống đổ nát”, ông nói. “Tôi hy vọng ví dụ này sẽ giúp những người khác không rơi vào hố sâu. Tôi đang phải trả giá.”
Theo Damien Charlotin, giảng viên một lớp về AI và luật tại một trường kinh doanh ở Paris, khoản tiền phạt dành cho Mostafavi là khoản tiền phạt tốn kém nhất mà một tòa án tiểu bang California áp dụng cho một luật sư và là một trong những khoản tiền phạt cao nhất từng được đưa ra liên quan đến việc luật sư sử dụng AI. Ông theo dõi các trường hợp luật sư viện dẫn các vụ án giả mạo chủ yếu ở Úc, Canada, Hoa Kỳ và Vương quốc Anh.
Trong một vụ án được công bố rộng rãi vào tháng 5, một thẩm phán tòa án quận Hoa Kỳ tại California đã ra lệnh cho hai công ty luật phải trả 31.100 đô la phí cho luật sư bào chữa và tòa án liên quan đến việc sử dụng “nghiên cứu giả mạo do AI tạo ra”. Trong phán quyết đó, thẩm phán mô tả cảm giác bị lừa dối, cho biết họ gần như đã trích dẫn tài liệu giả mạo trong một lệnh tư pháp, và nói rằng “Cần phải có biện pháp răn đe mạnh mẽ để đảm bảo các luật sư không sa vào con đường tắt dễ dàng này.”
Charlotin cho rằng tòa án và công chúng nên kỳ vọng sự gia tăng theo cấp số nhân của những vụ việc này trong tương lai. Khi ông bắt đầu theo dõi các hồ sơ tòa án liên quan đến AI và các vụ án giả mạo vào đầu năm nay, ông chỉ gặp vài vụ mỗi tháng. Giờ đây, ông gặp vài vụ mỗi ngày. Các mô hình ngôn ngữ lớn tự tin tuyên bố những điều sai trái là sự thật, đặc biệt là khi không có bằng chứng xác thực.
“Lập luận pháp lý của bạn càng cứng rắn, người mẫu càng dễ bị ảo tưởng, bởi vì họ sẽ cố gắng làm hài lòng bạn”, ông nói. “Đó là lúc thiên kiến xác nhận phát huy tác dụng.”
Một phân tích vào tháng 5 năm 2024 của RegLab thuộc Đại học Stanford cho thấy mặc dù ba trong số bốn luật sư có kế hoạch sử dụng AI tạo sinh trong hoạt động hành nghề, một số dạng AI tạo ra ảo giác trong một phần ba truy vấn. Việc phát hiện tài liệu giả mạo được trích dẫn trong hồ sơ pháp lý có thể trở nên khó khăn hơn khi quy mô mô hình ngày càng lớn.
Một công cụ theo dõi khác về các trường hợp luật sư viện dẫn thẩm quyền pháp lý không tồn tại do sử dụng AI đã xác định được 52 trường hợp như vậy ở California và hơn 600 trường hợp trên toàn quốc. Nicholas Sanctis, sinh viên luật tại Trường Luật thuộc Đại học Capital ở Ohio, cho biết con số này dự kiến sẽ tăng lên trong tương lai gần vì sự đổi mới của AI đang vượt xa trình độ đào tạo của luật sư.
Jenny Wondracek, người đứng đầu dự án theo dõi, cho biết bà dự đoán xu hướng này sẽ trở nên tồi tệ hơn vì bà vẫn thường xuyên gặp phải những luật sư không biết rằng AI bịa ra mọi thứ hoặc tin rằng các công cụ công nghệ pháp lý có thể loại bỏ mọi tài liệu giả mạo hoặc sai sự thật do mô hình ngôn ngữ tạo ra.
Bà cho biết: “Tôi nghĩ chúng ta sẽ thấy sự giảm thiểu nếu (các luật sư) chỉ cần hiểu những điều cơ bản về công nghệ”.
Giống như Charlotin, bà nghi ngờ có nhiều trường hợp vụ án giả mạo do AI tạo ra trong hồ sơ tòa án tiểu bang hơn là ở tòa án liên bang, nhưng việc thiếu các phương pháp nộp hồ sơ chuẩn khiến việc xác minh điều đó trở nên khó khăn. Bà cho biết bà thường gặp các vụ án giả mạo nhất ở những luật sư quá tải hoặc những người tự đại diện cho mình tại tòa án gia đình.
Bà nghi ngờ số lượng các lập luận do luật sư sử dụng AI và trích dẫn các vụ án giả mạo sẽ tiếp tục tăng, nhưng bà cũng nói thêm rằng không chỉ luật sư mới tham gia vào hoạt động này. Trong những tuần gần đây, bà đã ghi nhận ba trường hợp thẩm phán viện dẫn thẩm quyền pháp lý giả mạo trong các quyết định của mình.
Khi California cân nhắc cách xử lý AI tạo sinh và trích dẫn vụ án giả mạo, Wondracek cho biết họ có thể xem xét các phương pháp do các tiểu bang khác áp dụng, chẳng hạn như đình chỉ tạm thời, yêu cầu các luật sư bị phát hiện phải tham gia các khóa học để hiểu rõ hơn về cách sử dụng AI một cách có đạo đức hoặc yêu cầu họ dạy sinh viên luật cách tránh mắc phải sai lầm tương tự.
Mark McKenna, đồng giám đốc Viện Công nghệ, Luật và Chính sách UCLA, ca ngợi những khoản tiền phạt như khoản tiền phạt đối với Mostafavi là hình phạt dành cho các luật sư vì “từ bỏ trách nhiệm của mình với tư cách là một bên đại diện cho ai đó”. Ông cho rằng vấn đề “sẽ trở nên tồi tệ hơn trước khi trở nên tốt hơn”, bởi vì các trường luật và công ty tư nhân đã vội vàng áp dụng AI mà không suy nghĩ kỹ về cách sử dụng phù hợp.
Giáo sư Andrew Selbst của Trường Luật UCLA đồng tình, chỉ ra rằng các thư ký làm việc cho thẩm phán là những người mới tốt nghiệp trường luật, và sinh viên đang bị nhồi nhét thông điệp rằng họ phải sử dụng AI nếu không sẽ bị tụt hậu. Các nhà giáo dục và chuyên gia khác cũng cho biết họ cảm thấy áp lực tương tự.
“Điều này đang bị nhồi nhét vào đầu tất cả chúng ta,” ông nói. “Nó đang được thúc đẩy ở các công ty, trường học và rất nhiều nơi khác, và chúng ta vẫn chưa giải quyết được hậu quả của nó.”
Ny (Theo KTVU)


