Công ty Anthropic đang kiện chính quyền Trump, yêu cầu tòa án liên bang đảo ngược quyết định của Ngũ Giác Đài về việc coi công ty trí tuệ nhân tạo này là “rủi ro chuỗi cung ứng” vì từ chối cho phép sử dụng công nghệ của họ một cách không hạn chế trong quân đội.
Hôm thứ Hai, Anthropic đã yêu cầu tòa án liên bang đảo ngược quyết định của Ngũ Giác Đài hồi tuần trước về việc xếp công ty trí tuệ nhân tạo này vào danh sách ” rủi ro chuỗi cung ứng “. Công ty này cũng tìm cách hủy bỏ lệnh của Tổng thống Donald Trump yêu cầu các nhân viên liên bang ngừng sử dụng chatbot AI Claude của họ.
Vụ kiện pháp lý này làm leo thang một cuộc tranh chấp công khai bất thường về cách thức sử dụng trí tuệ nhân tạo trong chiến tranh và giám sát hàng loạt — một cuộc tranh chấp cũng đã lôi kéo các đối thủ trong ngành công nghệ của Anthropic, đặc biệt là OpenAI, nhà sản xuất ChatGPT, công ty đã đạt được thỏa thuận hợp tác với Ngũ Giác Đài chỉ vài giờ sau khi chính phủ trừng phạt Anthropic vì lập trường của họ.
Hôm thứ Hai, Anthropic đã đệ trình hai vụ kiện riêng biệt, một tại tòa án liên bang California và một tại tòa phúc thẩm liên bang ở Washington, DC, mỗi vụ kiện đều thách thức các khía cạnh khác nhau trong hành động của chính phủ đối với công ty có trụ sở tại San Francisco này.
“Những hành động này là chưa từng có tiền lệ và bất hợp pháp,” đơn kiện của Anthropic nêu rõ. “Hiến pháp không cho phép chính phủ sử dụng quyền lực khổng lồ của mình để trừng phạt một công ty vì quyền tự do ngôn luận được pháp luật bảo vệ. Không có đạo luật liên bang nào cho phép những hành động đã được thực hiện ở đây. Anthropic tìm đến hệ thống tư pháp như một biện pháp cuối cùng để bảo vệ quyền lợi của mình và ngăn chặn chiến dịch trả đũa bất hợp pháp của nhánh hành pháp.”
Bộ Quốc phòng từ chối bình luận hôm thứ Hai, viện dẫn chính sách không bình luận về các vấn đề đang trong quá trình kiện tụng.
Anthropic cho biết họ muốn hạn chế việc công nghệ của mình bị sử dụng cho mục đích giám sát hàng loạt người Mỹ và chế tạo vũ khí tự động hoàn toàn . Bộ trưởng Quốc phòng Pete Hegseth và các quan chức cấp cao khác đã công khai khẳng định công ty phải chấp nhận “tất cả các mục đích sử dụng hợp pháp” của Claude, đe dọa trừng phạt nếu Anthropic không tuân thủ và lên án công ty cùng Giám đốc điều hành Dario Amodei trên mạng xã hội.
Việc chỉ định công ty này là rủi ro chuỗi cung ứng đã cắt đứt hoạt động quốc phòng của Anthropic, vốn được sử dụng để ngăn chặn các đối thủ nước ngoài gây hại cho hệ thống an ninh quốc gia. Đây là lần đầu tiên chính phủ liên bang được biết đến là đã sử dụng chỉ định này đối với một công ty của Mỹ. Theo đơn kiện của Anthropic, ông Hegseth đã viết trong một bức thư gửi Anthropic ngày 4 tháng 3 rằng việc này là “cần thiết để bảo vệ an ninh quốc gia”.
Ông Trump cũng cho biết sẽ ra lệnh cho các cơ quan liên bang ngừng sử dụng Claude, mặc dù ông đã cho Lầu Năm Góc sáu tháng để loại bỏ dần một sản phẩm được tích hợp sâu rộng trong các hệ thống quân sự mật, bao gồm cả những hệ thống được sử dụng trong chiến tranh Iran .
Vụ kiện của Anthropic cũng nêu tên các cơ quan liên bang khác, bao gồm Bộ Tài chính và Bộ Ngoại giao, sau khi các quan chức của các cơ quan này ra lệnh cho nhân viên ngừng sử dụng phần mềm Claude.
Anthropic đưa ra một số lập luận mạnh mẽ về Tu chính án thứ nhất và quyền được xét xử công bằng trong một vụ kiện đã “leo thang vượt quá tầm hiểu biết”, theo Michael Pastor, một giáo sư tại Trường Luật New York, người trước đây từng làm cố vấn pháp lý cho thành phố New York và tham gia soạn thảo các hợp đồng công nghệ của công ty.
“Tôi chưa từng thấy trường hợp nào như thế này,” Pastor nói. “Chúng tôi chưa bao giờ nghĩ rằng, khi đang gặp khó khăn trong đàm phán, chúng tôi lại phải đe dọa công ty bằng cách hủy hoại nó.”
Ngay cả khi đang chống lại các hành động của Ngũ Giác Đài , Anthropic vẫn tìm cách thuyết phục các doanh nghiệp và các cơ quan chính phủ khác rằng việc chính quyền Trump xếp hạng rủi ro chuỗi cung ứng là khá hẹp, chỉ ảnh hưởng đến các nhà thầu quân sự khi họ sử dụng Claude trong công việc cho Bộ Quốc phòng.
Việc làm rõ sự khác biệt này rất quan trọng đối với Anthropic, một công ty tư nhân, bởi vì phần lớn doanh thu dự kiến 14 tỷ đô la của họ trong năm nay đến từ các doanh nghiệp và cơ quan chính phủ sử dụng Claude cho việc lập trình máy tính và các tác vụ khác. Theo một thông báo đầu tư gần đây, hơn 500 khách hàng đang trả cho Anthropic ít nhất 1 triệu đô la mỗi năm để sử dụng Claude, định giá công ty ở mức 380 tỷ đô la.
Hôm thứ Hai, Anthropic tuyên bố rằng “việc tìm kiếm sự xem xét của tòa án không làm thay đổi cam kết lâu dài của chúng tôi trong việc tận dụng trí tuệ nhân tạo để bảo vệ an ninh quốc gia, nhưng đây là một bước cần thiết để bảo vệ hoạt động kinh doanh, khách hàng và đối tác của chúng tôi.”
Vụ kiện nêu rõ sự an toàn của AI và “những kết quả tích cực cho nhân loại” là yếu tố then chốt trong sứ mệnh của Anthropic kể từ khi được Amodei và sáu cựu nhân viên khác của OpenAI thành lập vào năm 2021.
Công ty này cho biết trong đơn kiện rằng chính sách sử dụng của họ luôn nghiêm cấm “chiến tranh tự động gây chết người mà không có sự giám sát của con người và việc theo dõi hàng loạt người Mỹ”. Anthropic nói rằng họ chưa bao giờ thử nghiệm Claude trên các ứng dụng đó và không tin tưởng rằng sản phẩm của họ có thể “hoạt động đáng tin cậy hoặc an toàn nếu được sử dụng để hỗ trợ chiến tranh tự động gây chết người”.
Đồng thời, nó cho phép quân đội sử dụng Claude theo những cách mà dân thường không thể, bao gồm các hoạt động quân sự và phân tích “thông tin tình báo nước ngoài được thu thập hợp pháp”.
Cho đến gần đây, Anthropic là công ty duy nhất trong ngành công nghệ được phép cung cấp mô hình AI của mình cho các hệ thống quân sự mật. Tranh chấp này đã khiến Lầu Năm Góc tìm cách chuyển công việc của Claude sang Gemini của Google, ChatGPT của OpenAI và Grok của Elon Musk.
Vụ kiện của Anthropic cáo buộc rằng các hành động của chính quyền Trump đang làm tổn hại đến danh tiếng của công ty, “gây nguy hiểm cho hàng trăm triệu đô la” các hợp đồng với các doanh nghiệp khác và cố gắng “phá hủy giá trị kinh tế được tạo ra bởi một trong những công ty tư nhân phát triển nhanh nhất thế giới”.
Ngược lại, cuộc chiến này đã nâng cao danh tiếng của Anthropic trong mắt một số khách hàng và nhân viên công nghệ, những người ủng hộ việc công ty kiên quyết không nhượng bộ trước áp lực từ chính quyền Trump. Lập trường đạo đức của Amodei càng được tôn trọng hơn khi đối thủ gay gắt của ông , CEO của OpenAI, Sam Altman, tìm cách thay thế Claude của Lầu Năm Góc bằng ChatGPT, một động thái mà Altman sau đó thừa nhận là vội vàng và có vẻ mang tính cơ hội.
Lượt tải xuống phần mềm Claude của người dùng tăng vọt, lần đầu tiên đưa mức độ phổ biến của nó vượt qua các phần mềm nổi tiếng hơn như ChatGPT và Gemini.
Cách các công ty thiết lập các rào cản cũng tiếp tục gây ra những hệ quả trong cuộc cạnh tranh giữ chân nhân tài ngành AI. Caitlin Kalinowski, người đứng đầu bộ phận robot của OpenAI, đã từ chức vì thỏa thuận của OpenAI với Lầu Năm Góc.
“Đây không phải là một quyết định dễ dàng,” Kalinowski viết trên mạng xã hội cuối tuần qua. “Trí tuệ nhân tạo đóng vai trò quan trọng trong an ninh quốc gia. Nhưng việc giám sát người Mỹ mà không có sự giám sát của tòa án và quyền tự chủ gây chết người mà không có sự cho phép của con người là những ranh giới cần được cân nhắc kỹ lưỡng hơn.”
Một nhóm khác gồm hơn 30 nhà phát triển trí tuệ nhân tạo hàng đầu tại OpenAI và Google, trong đó có nhà khoa học trưởng kiêm người đứng đầu bộ phận nghiên cứu trí tuệ nhân tạo của Google, Jeff Dean, đã đệ trình một bản kiến nghị pháp lý vào thứ Hai để ủng hộ Anthropic.
“An ninh quốc gia sẽ không được đảm bảo nếu các đối tác công nghệ Mỹ của quân đội bị coi là ‘rủi ro chuỗi cung ứng’ một cách thiếu thận trọng hoặc việc ngăn chặn thảo luận công khai về an toàn trí tuệ nhân tạo”, theo đơn kiện của các nhân viên, những người cho biết họ đang hành động với tư cách cá nhân.
Ny (Theo AP)




