Startup AI Claude khởi kiện Bộ Quốc phòng Mỹ
Anthropic, công ty phát triển AI đứng sau mô hình Claude, đã đệ đơn kiện Bộ Quốc phòng Mỹ sau khi bị quốc gia này đưa vào danh sách “rủi ro chuỗi cung ứng”. Vụ kiện được nộp ngày 8/3 tại tòa án quận phía bắc California và tòa phúc...
Rate this post

Anthropic, công ty phát triển AI đứng sau mô hình Claude, đã đệ đơn kiện Bộ Quốc phòng Mỹ sau khi bị quốc gia này đưa vào danh sách “rủi ro chuỗi cung ứng”. Vụ kiện được nộp ngày 8/3 tại tòa án quận phía bắc California và tòa phúc thẩm liên bang khu vực Washington DC, với lập luận rằng việc dán nhãn rủi ro là trái pháp luật, xâm phạm quyền tự do ngôn luận và quyền xét xử công bằng theo Tu chính án thứ nhất.

“Những biện pháp này chưa từng có tiền lệ và vi phạm pháp luật,” đơn kiện nêu. “Hiến pháp không cho phép chính phủ trừng phạt một công ty vì quyền tự do ngôn luận được bảo vệ.”

Claude, mô hình AI chủ lực của Anthropic, đã được tích hợp sâu trong các hệ thống của Bộ Quốc phòng Mỹ từ năm 2025 và là mô hình duy nhất được quân đội phê duyệt sử dụng trong các hệ thống mật, bao gồm cả việc ra quyết định mục tiêu tấn công tên lửa trong xung đột với Iran.

Trong đơn kiện, Anthropic nhấn mạnh họ vẫn cam kết cung cấp AI phục vụ an ninh quốc gia và từng hợp tác với Bộ Quốc phòng để điều chỉnh hệ thống cho các ứng dụng đặc thù. Công ty vẫn mong muốn tiếp tục đàm phán với chính phủ.

“Yêu cầu xem xét lại vấn đề pháp lý không làm thay đổi cam kết lâu dài của chúng tôi trong việc sử dụng trí tuệ nhân tạo (AI) để bảo vệ an ninh quốc gia, nhưng đây là bước cần thiết để bảo vệ hoạt động kinh doanh, khách hàng và đối tác,” người phát ngôn Anthropic chia sẻ với Guardian. “Chúng tôi sẽ tiếp tục tìm mọi giải pháp, bao gồm đối thoại với chính phủ.”

Đơn kiện cũng khẳng định rằng quyết định của chính quyền Mỹ gây “tổn hại không thể khắc phục” cho công ty, dù điều này trái ngược một phần với tuyên bố trước đó của CEO Dario Amodei, khi ông mô tả tác động là “khá nhỏ” và khẳng định công ty “sẽ ổn thôi”.

Bộ Quốc phòng Mỹ hiện chưa bình luận về vụ việc.

Logo Anthropic đang hiển thị trên màn hình smartphone
Logo Anthropic đang hiển thị trên màn hình smartphone

Trước đó, giữa tuần trước, Bộ Quốc phòng thông báo Anthropic và các sản phẩm liên quan chính thức nằm trong diện rủi ro chuỗi cung ứng. Quyết định này được đưa ra sau nhiều tuần căng thẳng, khi CEO Amodei từ chối cho phép quân đội dùng AI của công ty để giám sát quy mô lớn hoặc vận hành vũ khí tự động.

Theo chuyên gia, việc đưa một công ty Mỹ vào danh sách rủi ro chuỗi cung ứng có thể gây ảnh hưởng tiêu cực cho các doanh nghiệp khác muốn làm ăn với chính phủ, bởi danh sách này thường chỉ nhắm tới công ty nước ngoài. Anthropic dự kiến sẽ gặp khó khăn cả với các sản phẩm phi quân sự, khi một số doanh nghiệp có thể tạm dừng triển khai Claude cho đến khi vấn đề được giải quyết tại tòa.

Ngày 9/3, sau khi đơn kiện được nộp, 37 nhà nghiên cứu và kỹ sư từ OpenAI và Google, bao gồm cả Jeff Dean – nhà khoa học trưởng của Google, đã đệ trình bản kiến nghị ủng hộ Anthropic. Nhóm này cảnh báo rằng quyết định của Lầu Năm Góc có thể khiến các chuyên gia ngần ngại thảo luận công khai về rủi ro và lợi ích của AI, làm giảm tiềm năng đổi mới của ngành.

Trước đó, theo TechCrunch, hàng trăm nhân viên Google và OpenAI cũng kêu gọi Bộ Quốc phòng rút lại quyết định và yêu cầu Quốc hội Mỹ phản đối việc “lạm dụng quyền lực không phù hợp với một công ty công nghệ Mỹ.”

Nguồn: TinTucNews