Google giúp quân đội Mỹ 'nguy hiểm hơn bao giờ hết'?

11/12/2025 14:56 GMT+7

Google đã từ bỏ lập trường "không gây hại" của mình khi hợp tác với Lầu Năm Góc để phát triển nền tảng trí tuệ nhân tạo (AI) mới mang tên GenAI.mil.

Nền tảng AI này sẽ sử dụng công nghệ Gemini của Google Cloud và được Bộ trưởng Chiến tranh Mỹ Pete Hegseth mô tả là công cụ AI đầu tiên giúp "lực lượng chiến đấu của chúng ta trở nên nguy hiểm hơn bao giờ hết". Ông nhấn mạnh: "Tương lai của chiến tranh Mỹ đang ở đây, và đó chính là AI. Công nghệ càng phát triển, kẻ thù của chúng ta cũng vậy. Tại Bộ Chiến tranh, chúng tôi không ngồi yên".

Google khiến quân đội Mỹ 'nguy hiểm hơn bao giờ hết'? - Ảnh 1.

Google tiếp tục gây lo ngại về việc đưa AI vào quân sự

ẢNH: TECHSPOT

Thông cáo báo chí từ Google cho biết GenAI.mil sẽ tập trung vào các ứng dụng ít gây sát thương hơn, như tìm kiếm thông tin, tóm tắt chính sách và đánh giá rủi ro cho các kế hoạch hoạt động. Google khẳng định nền tảng này chỉ được sử dụng cho các công việc không mật và dữ liệu sẽ không được dùng để huấn luyện các mô hình công khai của họ.

Giám đốc công nghệ của Lầu Năm Góc Emi Michal cho biết GenAI.mil sẽ mở ra khả năng cung cấp các mô hình AI khác trong tương lai.

Google không phải là công ty AI đầu tiên ký kết với Lầu Năm Góc

Trước khi hợp tác với Google, Lầu Năm Góc cũng đã ký hợp đồng với nhiều công ty lớn trong lĩnh vực AI như xAI, OpenAI, Anthropic và Scale AI. Đáng chú ý, vào tháng 2, Google đã điều chỉnh các nguyên tắc về AI của mình nhằm cho phép ứng dụng AI trong các lĩnh vực quân sự.

Đây không phải là lần đầu tiên Google tham gia vào các hợp đồng quốc phòng. Vào năm 2018, công ty hợp tác với Lầu Năm Góc trong Dự án Maven nhằm sử dụng AI để phân tích hình ảnh từ máy bay không người lái. Tuy nhiên, sự tham gia này đã dẫn đến sự phản đối từ hơn 3.100 nhân viên.

Vào tháng 7.2025, Google ký hợp đồng trị giá 200 triệu USD để hỗ trợ Văn phòng Trí tuệ nhân tạo của Bộ Chiến tranh Mỹ trong việc triển khai các công cụ AI tiên tiến. Việc sử dụng AI cho mục đích quân sự đã gây ra nhiều tranh cãi, đặc biệt khi các nhà lãnh đạo trong ngành công nghệ như Palmer Luckey (người sáng lập Anduril) cho rằng AI nên có quyền quyết định trong các tình huống sống còn trên chiến trường.

Top

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.