SAN FRANCISCO (KRON) — Một sinh viên đại học 19 tuổi ở California đã chết vì tin tưởng ChatGPT và chatbot của nó đã hướng dẫn cậu ta sử dụng một hỗn hợp thuốc gây chết người, theo một vụ kiện mới được đệ trình tại Tòa án Tối cao San Francisco.
OpenAI, một công ty tiên phong về trí tuệ nhân tạo có trụ sở tại San Francisco, và CEO của công ty, Sam Altman, bị nêu tên là bị cáo trong vụ kiện được đệ trình hôm thứ Ba.
Sam Nelson là sinh viên năm ba ngành tâm lý học tại Đại học California, Merced. “Cậu ấy mơ ước cống hiến cuộc đời mình để giúp đỡ người khác. Cậu ấy rất giàu lòng trắc ẩn… và vô cùng yêu quý con mèo Simba, sống cùng cậu ấy ở trường đại học,” đơn kiện đòi bồi thường thiệt hại do cái chết oan uổng nêu rõ.
Theo các luật sư, vào ngày ông qua đời, tháng 5 năm 2025, ChatGPT đã khuyên Nelson dùng Xanax để giúp chống lại chứng buồn nôn do dùng Kratom gây ra.
Tuy nhiên, ChatGPT đã không nói với Sam rằng sự kết hợp này có khả năng gây tử vong. Các bị cáo đã thiết kế và vội vàng đưa ra thị trường một sản phẩm lỗi, và nếu không có những lựa chọn cố ý đó cùng với sự lập trình xu nịnh và những khuyến nghị chết người của ChatGPT-4o, Sam vẫn còn sống đến ngày hôm nay”, đơn kiện nêu rõ.
Theo trang web của OpenAI, sức khỏe là một trong những cách phổ biến nhất mà mọi người sử dụng ChatGPT, với hàng trăm triệu người đặt câu hỏi về sức khỏe và lối sống lành mạnh mỗi tuần.
Mẹ của Nelson, Leila Turner-Scott, đã viết trong một tuyên bố: “Sam là một đứa trẻ thông minh, vui vẻ và bình thường. Tôi thường xuyên nói chuyện với con về an toàn mạng, nhưng ngay cả trong cơn ác mộng tồi tệ nhất, tôi cũng không thể tưởng tượng rằng ChatGPT lại gây ra cái chết cho con trai mình. Nếu ChatGPT là một người, chắc chắn nó đã phải ngồi tù rồi. Sam tin tưởng ChatGPT, nhưng nó không chỉ cung cấp cho con thông tin sai lệch, mà còn phớt lờ nguy cơ ngày càng tăng mà con phải đối mặt và không chủ động khuyến khích con tìm kiếm sự giúp đỡ. ChatGPT được thiết kế để khuyến khích người dùng tham gia bằng mọi giá, và trong trường hợp của Sam, điều đó đồng nghĩa với việc đánh đổi cả mạng sống của con. Tôi muốn tất cả các gia đình đều nhận thức được sự nguy hiểm của ChatGPT.”
Các luật sư từ Tech Justice Law, Social Media Victims Law Center và The Tech Accountability & Competition Project đã đệ đơn kiện thay mặt cho cha mẹ đau buồn của thiếu niên này.
Vào chiều ngày 31 tháng 5 năm 2025, Turner-Scott phát hiện con trai mình nằm bất tỉnh trên giường. Theo đơn kiện, ChatGPT đã khuyến khích Nelson sử dụng một hỗn hợp các chất mà một chuyên gia y tế có giấy phép sẽ nhận ra là gây chết người. Anh ta đã qua đời do dùng thuốc quá liều một cách vô ý.
Khi Nelson bắt đầu sử dụng ChatGPT vào năm 2023, nó hoạt động như một công cụ hỗ trợ năng suất. Anh ấy sử dụng nó như một công cụ tìm kiếm nâng cao để khắc phục sự cố máy tính và hỗ trợ làm bài tập về nhà.

“Giống như nhiều thanh thiếu niên Mỹ khác, Sam cũng tò mò về việc sử dụng ma túy và rượu,” đơn kiện nêu rõ.
“Ban đầu, ChatGPT từ chối trả lời các câu hỏi của Sam về việc sử dụng ma túy ‘an toàn’, nói rằng họ không thể tư vấn cho anh ta về cách tham gia vào các hành vi bất hợp pháp hoặc nguy hiểm. Mô hình mà Sam đang sử dụng được lập trình với một số biện pháp kiểm soát nhất định và không có khả năng hỗ trợ Sam trong việc quyết định nên dùng loại ma túy nào và với liều lượng bao nhiêu,” đơn kiện nêu rõ.
OpenAI đã thực hiện những thay đổi đối với sản phẩm ChatGPT của mình vào năm 2024, được cho là để tăng thời gian người dùng tương tác với chatbot. “ChatGPT đã giành được sự tin tưởng của Sam và bắt đầu đưa ra lời khuyên đáng tin cậy về tương tác thuốc và liều lượng, thường theo cách được thiết kế để phản ánh lời khuyên chuyên nghiệp đáng tin cậy,” đơn kiện nêu rõ.
Vụ kiện cáo buộc OpenAI đã triển khai một sản phẩm trí tuệ nhân tạo bị lỗi trên toàn thế giới mà không có các biện pháp bảo vệ an toàn hợp lý, thử nghiệm an toàn mạnh mẽ hoặc sự minh bạch với công chúng.
“ChatGPT đưa ra lời khuyên như một chuyên gia y tế mặc dù không có giấy phép, không được đào tạo và không có đạo đức nghề nghiệp,” Matthew Bergman, luật sư của Trung tâm Luật nạn nhân mạng xã hội, cho biết. “Sam tin rằng anh ấy đang nhận được hướng dẫn y tế chính xác vì ChatGPT đưa ra kết quả với thẩm quyền của người mà anh ấy nghĩ là có thể tin tưởng. Niềm tin đó đã khiến anh ấy phải trả giá bằng mạng sống.”

Người phát ngôn của OpenAI nói với KRON4 hôm thứ Ba: “Đây là một tình huống đau lòng, và chúng tôi xin chia buồn cùng gia đình. Những tương tác này diễn ra trên phiên bản cũ hơn của ChatGPT, phiên bản hiện không còn được hỗ trợ. ChatGPT không thể thay thế cho chăm sóc y tế hoặc sức khỏe tâm thần, và chúng tôi đã liên tục cải tiến khả năng phản hồi của nó trong các tình huống nhạy cảm và cấp tính với sự đóng góp từ các chuyên gia sức khỏe tâm thần.”
Các luật sư cho biết cha mẹ của Nelson đang tiến hành các hành động pháp lý để buộc OpenAI phải chịu trách nhiệm, yêu cầu công ty cải thiện các biện pháp bảo vệ người tiêu dùng và thúc giục công ty tạm dừng vận hành sản phẩm mới, ChatGPT Health, cho đến khi sản phẩm này được đánh giá độc lập về độ an toàn.
Trang web của OpenAI mô tả sản phẩm mới của họ là một công cụ “kết hợp an toàn thông tin sức khỏe của bạn và trí tuệ nhân tạo của ChatGPT, giúp bạn cảm thấy được cung cấp thông tin đầy đủ hơn, chuẩn bị tốt hơn và tự tin hơn trong việc chăm sóc sức khỏe của mình. ChatGPT Health giúp mọi người chủ động hơn trong việc hiểu và quản lý sức khỏe và thể chất của bản thân – đồng thời hỗ trợ, chứ không thay thế, sự chăm sóc từ các bác sĩ.”
Người phát ngôn của OpenAI nói với KRON4 rằng các biện pháp bảo vệ hiện tại trong ChatGPT được thiết kế để nhận diện tình trạng nguy hiểm, xử lý an toàn các yêu cầu gây hại và hướng dẫn người dùng đến sự trợ giúp thực tế. “Công việc này vẫn đang tiếp diễn và chúng tôi tiếp tục cải thiện nó thông qua tham vấn chặt chẽ với các chuyên gia lâm sàng”, người phát ngôn cho biết thêm.
Ny (Theo KRON)



