Theo Bộ Quốc phòng Mỹ, việc hợp tác
với các tập đoàn công nghệ hàng đầu sẽ giúp quân đội tận dụng các công cụ AI để
nâng cao năng lực phân tích, giám sát và ra quyết định trong các môi trường tác
chiến phức tạp.
Tuy nhiên, cùng với những lợi ích chiến lược, chương trình này
cũng làm dấy lên nhiều tranh luận về rủi ro, mức độ phụ thuộc vào công nghệ và
vai trò kiểm soát của con người trong các quyết định mang tính sống còn.
MỞ
RỘNG HỢP TÁC, TĂNG TỐC ỨNG DỤNG AI TRONG QUÂN SỰ
Cũng theo tin từ Bộ Quốc phòng Mỹ,
các đối tác tham gia gồm Google, Microsoft, Amazon Web Services, Nvidia,
OpenAI, Reflection và SpaceX. Những công ty này sẽ cung cấp nguồn lực và công
nghệ nhằm “tăng cường khả năng ra quyết định của binh sĩ trong các môi trường
tác chiến phức tạp”.
Việc triển khai AI trong các hệ
thống mật cho phép quân đội tận dụng các công cụ phân tích dữ liệu, giám sát và
dự báo ở quy mô lớn, từ đó rút ngắn thời gian xử lý thông tin và nâng cao hiệu
quả chiến trường. Một báo cáo hồi tháng 3 của Trung tâm Brennan vì Công lý cho
thấy AI có thể giúp xác định và tấn công mục tiêu nhanh hơn, đồng thời hỗ trợ
quản lý bảo trì vũ khí và chuỗi cung ứng hậu cần.
Một số công ty như Amazon và
Microsoft vốn đã có quan hệ hợp tác lâu dài với quân đội Mỹ trong các môi
trường mật, song chưa rõ các thỏa thuận mới có làm thay đổi đáng kể các mối
quan hệ này hay không. Trong khi đó, những cái tên như Nvidia và startup
Reflection được xem là tân binh trong lĩnh vực này.
Đáng chú ý, cả Nvidia và Reflection
đều phát triển các mô hình AI mã nguồn mở. Giới chức Lầu Năm Góc coi đây là một
ưu tiên nhằm xây dựng “giải pháp thay thế của Mỹ” trước sự phát triển nhanh
chóng của AI tại Trung Quốc, nơi nhiều thành phần công nghệ được công khai để
cộng đồng cùng phát triển.
Bộ Quốc phòng Mỹ cũng cho biết các
năng lực AI hiện đã được triển khai thông qua nền tảng GenAI.mil. “Binh sĩ,
nhân viên dân sự và các nhà thầu đang đưa các công nghệ này vào sử dụng thực
tế, rút ngắn nhiều quy trình từ hàng tháng xuống còn vài ngày,” cơ quan này
nhấn mạnh.
TRANH
CÃI ĐẠO ĐỨC, RỦI RO PHỤ THUỘC VÀ VAI TRÒ CON NGƯỜI
Dù mang lại nhiều lợi ích, việc ứng
dụng AI trong quân sự cũng làm dấy lên hàng loạt lo ngại. Một trong những vấn
đề lớn là nguy cơ xâm phạm quyền riêng tư của công dân Mỹ, cũng như khả năng
máy móc tự động lựa chọn mục tiêu trên chiến trường.
Theo một nguồn tin am hiểu, ít nhất
một hợp đồng với Lầu Năm Góc đã quy định rõ yêu cầu phải có sự giám sát của con
người trong các nhiệm vụ mà hệ thống AI hoạt động tự động hoặc bán tự động.
Đồng thời, các công cụ AI phải được sử dụng phù hợp với các quyền hiến định và
quyền tự do dân sự.
Những tranh cãi này càng trở nên gay
gắt sau các xung đột tại Gaza và Lebanon, khi các tập đoàn công nghệ Mỹ bị cho
là đã hỗ trợ Israel trong việc theo dõi mục tiêu. Số lượng dân thường thiệt
mạng gia tăng đã làm dấy lên lo ngại rằng AI có thể góp phần gây ra những tổn
thất ngoài ý muốn.
Bà Helen Toner, quyền giám đốc Trung
tâm An ninh và Công nghệ Mới nổi thuộc Đại học Georgetown, nhận định rằng chiến
tranh hiện đại ngày càng phụ thuộc vào các trung tâm chỉ huy, nơi con người
phải xử lý lượng thông tin khổng lồ trong thời gian ngắn.
“AI có thể giúp tóm tắt thông tin
hoặc phân tích dữ liệu giám sát để xác định mục tiêu tiềm năng,” bà nói. “Nhưng
các câu hỏi về mức độ tham gia của con người, rủi ro và đào tạo vẫn chưa có lời
giải hoàn chỉnh.”
Bà cũng cảnh báo về hiện tượng
“thiên lệch tự động hóa”, khi con người có xu hướng tin tưởng máy móc hơn mức
cần thiết. Điều này có thể dẫn đến những quyết định sai lầm nếu AI không hoạt
động chính xác như kỳ vọng.
Trong thực tế, AI hiện được quân đội
sử dụng cho nhiều nhiệm vụ tương tự lĩnh vực dân sự, như dự đoán thời điểm cần
bảo trì trực thăng, tối ưu hóa vận chuyển binh sĩ và khí tài, hay phân tích dữ
liệu từ máy bay không người lái để phân biệt mục tiêu dân sự và quân sự.
ANTHROPIC
KHÔNG THAM GIA, MỸ ĐA DẠNG HÓA ĐỐI TÁC AI
Một điểm đáng chú ý trong các thỏa
thuận lần này là sự vắng mặt của Anthropic. Công ty AI này đã xảy ra tranh chấp
với chính quyền Tổng thống Donald Trump liên quan đến việc sử dụng AI trong
quân sự.
Anthropic yêu cầu các đảm bảo rằng
công nghệ của họ sẽ không được sử dụng cho vũ khí hoàn toàn tự động hoặc phục
vụ giám sát công dân Mỹ. Tuy nhiên, Bộ trưởng Quốc phòng Pete Hegseth cho rằng
các đối tác cần chấp nhận mọi mục đích sử dụng mà Lầu Năm Góc coi là hợp pháp.
Căng thẳng leo thang khi chính quyền
Trump tìm cách ngăn các cơ quan liên bang sử dụng chatbot Claude của Anthropic,
đồng thời xem xét xếp công ty này vào diện “rủi ro chuỗi cung ứng” nhằm bảo vệ
hệ thống an ninh quốc gia.
Trong khi đó, OpenAI đã nhanh chóng
thay thế khoảng trống khi công bố thỏa thuận với Lầu Năm Góc từ tháng 3/2026,
đưa ChatGPT vào các môi trường mật. Công ty khẳng định họ muốn đảm bảo những
người bảo vệ nước Mỹ được trang bị các công cụ tốt nhất.
Theo một nguồn tin, các điều khoản
trong hợp đồng của OpenAI cũng bao gồm yêu cầu giám sát của con người và tuân
thủ các quyền tự do dân sự – những điểm từng là mấu chốt trong tranh chấp với
Anthropic.
Ông Emil Michael, Giám đốc công nghệ
của Lầu Năm Góc, cho biết việc hợp tác với nhiều công ty là một lựa chọn mang
tính chiến lược.
“Sẽ là thiếu trách nhiệm nếu chỉ dựa
vào một nhà cung cấp,” ông nói, đồng thời thừa nhận những bất đồng với
Anthropic. “Khi một đối tác không muốn hợp tác theo cách chúng tôi mong muốn, chúng
tôi đảm bảo có nhiều nhà cung cấp khác nhau.”
Việc Lầu Năm Góc đồng loạt hợp tác
với các tập đoàn công nghệ hàng đầu cho thấy AI đang trở thành trụ cột trong
chiến lược quốc phòng của Mỹ.
Tuy nhiên, bài toán cân bằng giữa hiệu quả quân
sự, kiểm soát rủi ro và các chuẩn mực đạo đức sẽ tiếp tục là thách thức lớn
trong quá trình triển khai công nghệ này trên thực tế.




