Lầu Năm Góc đã sử dụng mô hình AI Claude khi bắt giữ Tổng thống Venezuela?

Lầu Năm Góc đã sử dụng mô hình AI Claude khi bắt giữ Tổng thống Venezuela?

17/02/2026 05:34 GMT+7

Công ty Anthropic sở hữu trí tuệ nhân tạo Claude AI đã công khai nhấn mạnh trọng tâm vào ‘các biện pháp bảo vệ’, nhằm hạn chế việc sử dụng công nghệ của họ cho mục đích quân sự.

Theo các báo cáo từ các báo Axios và Wall Street Journal, quân đội Mỹ đã tích cực sử dụng mô hình trí tuệ nhân tạo Claude (Claude AI) của công ty Anthropic trong chiến dịch bắt giữ Tổng thống Venezuela Nicolas Maduro hồi tháng 1, qua đó cho thấy công nghệ của công ty này đã đóng vai trò trực tiếp trong cuộc đột kích ở nước ngoài.

Theo các bài báo, Claude AI đã được sử dụng trong suốt chiến dịch, chứ không chỉ trong giai đoạn chuẩn bị. Vai trò cụ thể vẫn chưa rõ ràng, mặc dù quân đội Mỹ đã từng sử dụng các mô hình AI để phân tích hình ảnh vệ tinh và thông tin tình báo theo thời gian thực.

Chính sách sử dụng của công ty Anthropic, có trụ sở tại San Francisco, nghiêm cấm việc sử dụng công nghệ của mình để “tạo điều kiện cho bạo lực, phát triển vũ khí hoặc tiến hành giám sát”. Không có người Mỹ nào thiệt mạng trong cuộc đột kích, nhưng hàng chục binh sĩ và nhân viên an ninh Venezuela lẫn Cuba đã thiệt mạng vào ngày 3.1.

Lầu Năm Góc đã sử dụng trí tuệ nhân tạo Claude để bắt giữ ông Maduro? - Ảnh 1.

Tổng thống Venezuela Nicolás Maduro được dẫn giải đến Tòa án Liên bang Daniel Patrick Moynihan để trình diện lần đầu trước các cáo buộc liên bang của Mỹ, tại thành phố New York (Mỹ), ngày 5.1.2026.

ẢNH: REUTERS

Một phát ngôn viên của Anthropic nói với Axios rằng: “Chúng tôi không thể bình luận về việc liệu Claude, hay bất kỳ mô hình AI nào khác, có được sử dụng cho bất kỳ hoạt động cụ thể nào, dù là mật hay không. Bất kỳ việc sử dụng Claude nào - dù trong khu vực tư nhân hay trong chính phủ - đều phải tuân thủ Chính sách Sử dụng của chúng tôi”.

Các đối thủ của Anthropic như OpenAI, Google và xAI của tỉ phú Elon Musk đều có các thỏa thuận cho phép Lầu Năm Góc truy cập vào các mô hình của họ mà không có nhiều biện pháp bảo vệ áp dụng cho người dùng thông thường. Nhưng chỉ có Claude được triển khai, thông qua hợp tác với Palantir Technologies, trên các nền tảng mật được sử dụng cho các công việc nhạy cảm nhất của quân đội Mỹ.

Thông tin này được đưa ra vào thời điểm khó xử đối với công ty Anthropic. Trong những tuần gần đây, công ty công khai nhấn mạnh cam kết đối với các biện pháp bảo vệ AI và định vị mình là lựa chọn thay thế có ý thức về an toàn trong ngành công nghiệp AI. Giám đốc điều hành Dario Amodei đã cảnh báo về những mối nguy hiểm hiện hữu do việc sử dụng AI không kiểm soát gây ra.

Hôm 9.2, người đứng đầu Nhóm Nghiên cứu Bảo vệ của Anthropic, Mrinank Sharma, đã đột ngột từ chức với một lời cảnh báo khó hiểu rằng “thế giới đang gặp nguy hiểm”. Vài ngày sau, công ty này đã rót 20 triệu USD vào một nhóm vận động chính trị ủng hộ xây dựng quy định sử dụng AI.

Anthropic được cho là đang đàm phán với Lầu Năm Góc về việc có nên nới lỏng các hạn chế đối với việc triển khai AI để nhắm mục tiêu vũ khí tự động và giám sát trong nước hay không. Tình trạng bế tắc này đã làm đình trệ một hợp đồng trị giá lên tới 200 triệu USD, với việc Bộ trưởng Chiến tranh Pete Hegseth tuyên bố sẽ không sử dụng các mô hình “không cho phép các bạn tiến hành chiến tranh”.

Top

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.