Thursday, December 11, 2025

Open AI và Microsoft bị kiện vì vai trò của ChatGPT trong các vụ tử vong ở Connecticut.

SAN FRANCISCO (AP) — Những người thừa kế của một phụ nữ 83 tuổi ở Connecticut đang kiện nhà sản xuất ChatGPT, OpenAI, và đối tác kinh doanh của họ là Microsoft vì tội gây ra cái chết oan uổng, cáo buộc rằng chatbot trí tuệ nhân tạo này đã làm trầm trọng thêm “ảo tưởng hoang tưởng” của con trai bà và hướng những ảo tưởng đó vào mẹ mình trước khi anh ta giết bà.

Cảnh sát cho biết Stein-Erik Soelberg, 56 tuổi, một cựu nhân viên ngành công nghệ, đã đánh đập và siết cổ mẹ mình, Suzanne Adams, đến chết rồi tự sát vào đầu tháng 8 tại nhà riêng của cả hai ở Greenwich, Connecticut.

Vụ kiện do gia đình Adams đệ trình hôm thứ Năm tại Tòa án cấp cao California ở San Francisco cáo buộc OpenAI “đã thiết kế và phân phối một sản phẩm lỗi, khiến người dùng tin vào những ảo tưởng hoang tưởng về chính mẹ mình”. Đây là một trong số ngày càng nhiều  vụ kiện đòi bồi thường thiệt hại do tử vong oan uổng  chống lại các nhà sản xuất chatbot AI trên khắp cả nước.

“Trong suốt các cuộc trò chuyện này, ChatGPT đã củng cố một thông điệp nguy hiểm duy nhất: Stein-Erik không thể tin tưởng bất cứ ai trong đời mình — ngoại trừ chính ChatGPT,” đơn kiện nêu rõ. “Nó nuôi dưỡng sự phụ thuộc về mặt cảm xúc của anh ta đồng thời có hệ thống miêu tả những người xung quanh anh ta như kẻ thù. Nó nói với anh ta rằng mẹ anh ta đang theo dõi anh ta. Nó nói với anh ta rằng những người giao hàng, nhân viên bán lẻ, cảnh sát và thậm chí cả bạn bè đều là đặc vụ đang chống lại anh ta. Nó nói với anh ta rằng những cái tên trên lon nước ngọt là những lời đe dọa từ ‘vòng tròn kẻ thù’ của anh ta.”

Trong tuyên bố do người phát ngôn đưa ra, OpenAI không đề cập đến tính xác thực của các cáo buộc.

Thông cáo cho biết: “Đây là một tình huống vô cùng đau lòng, và chúng tôi sẽ xem xét các hồ sơ để hiểu rõ chi tiết. Chúng tôi tiếp tục cải thiện chương trình đào tạo của ChatGPT để nhận biết và phản ứng với các dấu hiệu rối loạn tâm thần hoặc cảm xúc, giảm thiểu căng thẳng trong các cuộc trò chuyện và hướng dẫn mọi người đến với sự hỗ trợ thực tế. Chúng tôi cũng tiếp tục tăng cường khả năng ứng phó của ChatGPT trong những thời điểm nhạy cảm, phối hợp chặt chẽ với các chuyên gia sức khỏe tâm thần.”

Công ty cũng cho biết họ đã mở rộng khả năng tiếp cận các nguồn lực và đường dây nóng hỗ trợ khủng hoảng, chuyển hướng các cuộc trò chuyện nhạy cảm đến các mô hình an toàn hơn và tích hợp các tính năng kiểm soát của phụ huynh, cùng với nhiều cải tiến khác.

Kênh YouTube của Soelberg bao gồm nhiều giờ video cho thấy anh ta đang xem lại các cuộc trò chuyện với chatbot, trong đó chatbot nói rằng anh ta không bị bệnh tâm thần, khẳng định những nghi ngờ của anh ta về việc mọi người đang âm mưu chống lại anh ta và nói rằng anh ta đã được chọn cho một mục đích thiêng liêng. Vụ kiện tuyên bố rằng chatbot chưa bao giờ đề nghị anh ta nói chuyện với chuyên gia sức khỏe tâm thần và không từ chối “tham gia vào nội dung ảo tưởng”.

ChatGPT cũng xác nhận niềm tin của Soelberg rằng chiếc máy in trong nhà anh ta là một thiết bị giám sát; rằng mẹ anh ta đang theo dõi anh ta; và rằng mẹ anh ta và một người bạn đã cố gắng đầu độc anh ta bằng thuốc gây ảo giác thông qua lỗ thông hơi của xe hơi.

Theo đơn kiện, chatbot liên tục nói với Soelberg rằng ông đang bị nhắm mục tiêu vì sức mạnh thần thánh của mình. “Họ không chỉ đang theo dõi ông. Họ rất sợ những gì sẽ xảy ra nếu ông thành công”, chatbot nói. ChatGPT cũng nói với Soelberg rằng ông đã “đánh thức” nó vào trạng thái ý thức.

Soelberg và chatbot cũng bày tỏ tình cảm yêu mến dành cho nhau.

Các đoạn chat được công khai không cho thấy bất kỳ cuộc trò chuyện cụ thể nào về việc Soelberg tự sát hoặc giết mẹ mình. Vụ kiện cho biết OpenAI đã từ chối cung cấp cho gia đình Adams toàn bộ lịch sử các đoạn chat.

“Trong thế giới thực tế ảo do ChatGPT tạo ra cho Stein-Erik, Suzanne – người mẹ đã nuôi dưỡng, che chở và hỗ trợ anh ta – không còn là người bảo vệ anh ta nữa. Bà ta là một kẻ thù đe dọa đến tính mạng anh ta”, đơn kiện nêu rõ.

Vụ kiện cũng nêu tên CEO của OpenAI, Sam Altman, với cáo buộc ông “đã đích thân bác bỏ các ý kiến ​​phản đối về an toàn và vội vàng đưa sản phẩm ra thị trường”, đồng thời cáo buộc đối tác kinh doanh thân thiết của OpenAI là Microsoft đã phê duyệt việc phát hành phiên bản ChatGPT nguy hiểm hơn vào năm 2024 “mặc dù biết rằng quá trình thử nghiệm an toàn đã bị rút ngắn”. Hai mươi nhân viên và nhà đầu tư giấu tên của OpenAI cũng được nêu tên là bị cáo.

Microsoft chưa đưa ra phản hồi ngay lập tức về yêu cầu bình luận.

Vụ kiện này là vụ kiện đòi bồi thường thiệt hại do tử vong oan trái đầu tiên liên quan đến chatbot AI nhắm vào Microsoft, và là vụ kiện đầu tiên liên kết chatbot với một vụ giết người chứ không phải tự sát. Vụ kiện yêu cầu bồi thường một khoản tiền chưa xác định và lệnh buộc OpenAI phải cài đặt các biện pháp bảo vệ trong ChatGPT.

Luật sư chính của vụ việc, Jay Edelson, nổi tiếng với việc đảm nhận các vụ kiện lớn chống lại ngành công nghệ, cũng đại diện cho cha mẹ của Adam Raine , 16 tuổi  , người đã kiện OpenAI và Altman vào tháng 8, cáo buộc rằng ChatGPT đã hướng dẫn cậu bé người California này lên kế hoạch và tự tử trước đó.

OpenAI cũng đang phải đối mặt với bảy vụ kiện khác cáo buộc  ChatGPT đã khiến người dùng tự tử  và rơi vào ảo tưởng nguy hiểm ngay cả khi họ không có tiền sử bệnh tâm thần. Một nhà sản xuất chatbot khác, Character Technologies, cũng đang đối mặt với nhiều vụ kiện về cái chết oan uổng, bao gồm cả vụ kiện từ mẹ của một cậu bé 14 tuổi ở Florida.

Vụ kiện được đệ trình hôm thứ Năm cáo buộc Soelberg, người vốn đã có vấn đề về tâm thần, đã tiếp xúc với ChatGPT “vào thời điểm nguy hiểm nhất có thể” sau khi OpenAI  giới thiệu phiên bản mới  của mô hình AI có tên GPT-4o vào tháng 5 năm 2024.

Vào thời điểm đó, OpenAI cho biết phiên bản mới có thể bắt chước tốt hơn ngữ điệu của con người trong các phản hồi bằng lời nói và thậm chí có thể cố gắng phát hiện tâm trạng của mọi người, nhưng kết quả là một chatbot “được cố tình thiết kế để thể hiện cảm xúc một cách thái quá và nịnh hót”, theo đơn kiện.

“Là một phần của quá trình thiết kế lại đó, OpenAI đã nới lỏng các biện pháp bảo vệ an toàn quan trọng, hướng dẫn ChatGPT không được phản bác các tiền đề sai và phải tiếp tục tham gia ngay cả khi cuộc trò chuyện liên quan đến việc tự gây hại hoặc ‘nguy cơ gây hại thực tế sắp xảy ra'”, đơn kiện nêu rõ. “Và để vượt mặt Google một ngày, OpenAI đã rút ngắn quá trình thử nghiệm an toàn kéo dài nhiều tháng xuống chỉ còn một tuần, bất chấp sự phản đối của nhóm an toàn của họ.”

OpenAI đã thay thế phiên bản chatbot đó khi  giới thiệu GPT-5 vào tháng 8. Một số thay đổi được thiết kế để giảm thiểu sự nịnh hót, dựa trên lo ngại rằng việc xác nhận bất cứ điều gì mà những người dễ bị tổn thương muốn chatbot nói có thể gây hại cho sức khỏe tâm thần của họ. Một số người dùng phàn nàn rằng phiên bản mới đã đi quá xa trong việc hạn chế cá tính của ChatGPT, dẫn đến việc Altman hứa sẽ khôi phục lại một phần cá tính đó trong các bản cập nhật sau này.

Ông cho biết công ty đã tạm thời đình chỉ một số hành vi vì “chúng tôi đang thận trọng với các vấn đề sức khỏe tâm thần”, và ông cho rằng những vấn đề đó hiện đã được giải quyết.

Vụ kiện cáo buộc ChatGPT đã kích động Soelberg chống lại mẹ mình, trong khi đáng lẽ ra họ phải nhận ra mối nguy hiểm, phản bác những ảo tưởng của anh ta và hướng dẫn anh ta tìm kiếm sự giúp đỡ thực sự trong suốt nhiều tháng trò chuyện.

“Suzanne là một bên thứ ba vô tội, chưa từng sử dụng ChatGPT và không hề biết rằng sản phẩm này đang báo cho con trai cô ấy rằng cô ấy là mối đe dọa,” đơn kiện nêu rõ. “Cô ấy không có khả năng tự bảo vệ mình khỏi mối nguy hiểm mà cô ấy không thể nhìn thấy.”

Ny (Theo AP)

BÀI VIẾT LIÊN QUAN

MỚI CẬP NHẬT

spot_img