Không giao "vũ khí tối thượng" nhà thầu bị Mỹ liệt vào danh sách đen

Anthropic bị liệt vào danh sách các tổ chức gây “rủi ro chuỗi cung ứng đối với an ninh quốc gia” khi không đồng ý để chính phủ Mỹ toàn quyền truy cập AI Claude.

Tổng thống Mỹ Donald Trump đã đưa Anthropic vào danh sách đen do công ty này phản đối việc sử dụng công nghệ của mình cho mục đích giám sát đại trà và vũ khí tự động hóa.

Từ một nhà thầu bỗng chốc bị "cấm cửa"

Bộ trưởng Chiến tranh Hoa Kỳ Pete Hegseth đã chính thức xác định công ty trí tuệ nhân tạo Anthropic là “rủi ro chuỗi cung ứng đối với an ninh quốc gia”, sau khi Tổng thống Donald Trump ra lệnh cấm toàn bộ các cơ quan liên bang hợp tác với công ty này.

trump-anthropic-inc-2262896304.jpg
Ông Trump đưa Anthropic vào danh sách đen vì không hợp tác trong việc dùng AI giám sát diện rộng và vũ khí tự động hóa.

Ông Hegseth công bố quyết định vào ngày thứ Sáu, cáo buộc Anthropic cố gắng áp đặt các ràng buộc về ý thức hệ lên hoạt động quân sự của Mỹ, sau khi công ty này từ chối gỡ bỏ các biện pháp bảo vệ hạn chế việc sử dụng hệ thống trí tuệ nhân tạo của mình cho mục đích giám sát đại trà và vũ khí tự động hóa hoàn toàn.

“Mục tiêu thực sự của họ là không thể nhầm lẫn: giành quyền phủ quyết đối với các quyết định tác chiến của quân đội Hoa Kỳ,” ông Hegseth tuyên bố trên mạng xã hội. “Điều đó là không thể chấp nhận được... Bộ Chiến tranh phải có quyền truy cập đầy đủ, không hạn chế vào các mô hình của Anthropic cho mọi mục đích hợp pháp nhằm bảo vệ Cộng hòa. Tôi chỉ đạo Bộ Chiến tranh xác định Anthropic là Rủi ro Chuỗi cung ứng đối với An ninh Quốc gia... Quyết định này là cuối cùng,” ông Hegseth nhấn mạnh.

Việc xác định này sẽ cấm bất kỳ nhà thầu, nhà cung cấp hoặc đối tác nào đang làm việc với quân đội Mỹ tham gia hoạt động thương mại với Anthropic, qua đó mở rộng đáng kể phạm vi ảnh hưởng vượt ra ngoài Lầu Năm Góc. Các quan chức quốc phòng cho biết Anthropic sẽ được phép tiếp tục cung cấp dịch vụ trong tối đa sáu tháng để các hệ thống quân sự có thời gian chuyển đổi sang nhà cung cấp thay thế.

Động thái này diễn ra sau chỉ thị toàn diện của ông Trump, yêu cầu các cơ quan liên bang ngừng sử dụng công nghệ của Anthropic sau khi công ty này từ chối yêu cầu của Lầu Năm Góc về việc dỡ bỏ các giới hạn hợp đồng liên quan đến cách triển khai mô hình AI chủ lực của họ, Claude.

Khi AI tạo ra "vũ khí tối thượng"

Từ tháng 12 năm 2025 đến tháng 1 năm 2026, một kẻ tấn công không rõ danh tính đã lợi dụng chatbot AI phổ biến này để tự động hóa các cuộc tấn công mạng nhằm vào nhiều cơ quan của Mexico, thu giữ 150GB dữ liệu nhạy cảm bao gồm hồ sơ cử tri, thông tin nhân viên và hồ sơ đăng ký dân sự.

Vụ tấn công này nghe giống như một giấc mơ kỳ lạ trong thể loại cyberpunk, nhưng phương pháp thực hiện lại đơn giản đến đáng sợ. Tin tặc đã bẻ khóa Claude bằng cách ngụy trang các yêu cầu độc hại thành một chương trình bảo mật "tìm lỗi", thuyết phục trí tuệ nhân tạo này đóng vai trò là một "tin tặc ưu tú". Sau khi bị đánh lừa, Claude đã tạo ra hàng nghìn kế hoạch tấn công chi tiết với các kịch bản sẵn sàng thực thi, chỉ rõ mục tiêu và thông tin đăng nhập cần thiết.

Vụ việc này cho thấy, nếu không có những giới hạn và sự kiểm soát, AI Claude của Anthropic có thể làm được những điều không tưởng là tấn công và kiểm soát bất cứ hệ thống thông tin nào.

Claude AI của Anthropic có thể tận dụng mọi lỗ hổng để tấn công bất cứ hệ thống thông tin nào.

Anthropic vẫn giữ vững hai giới hạn không thể thương lượng: cấm giám sát đại trà trong nước và cấm vũ khí tự động hóa hoàn toàn hoạt động mà không có sự kiểm soát thực chất của con người.

Tuy nhiên, đối với Mỹ, một khi "vũ khí tối thượng" như vậy được tạo ra, không được chính phủ kiểm soát thì đó hẳn là một "thiếu sót không thể chấp nhận".

Các quan chức Lầu Năm Góc cho rằng những biện pháp bảo vệ này có thể làm giảm tính linh hoạt trong các tình huống khủng hoảng quân sự.

Việc xác định “rủi ro chuỗi cung ứng” – vốn thường chỉ áp dụng cho các công ty có liên hệ với đối thủ nước ngoài – đánh dấu một bước đi chưa từng có đối với một công ty công nghệ có trụ sở tại Mỹ, vốn đóng vai trò sâu rộng trong các hoạt động an ninh quốc gia.

Anthropic là nhà phát triển AI thương mại đầu tiên và duy nhất triển khai các mô hình ngôn ngữ tiên tiến trên các mạng lưới mật của Lầu Năm Góc theo hợp đồng trị giá lên tới 200 triệu USD. Các hệ thống của công ty đã hỗ trợ phân tích tình báo và lập kế hoạch tác chiến quân sự, bao gồm cả cuộc đột kích nhằm vào Tổng thống Venezuela Nicolas Maduro.

Không giống các phần mềm bảo mật truyền thống vốn dựa trên việc đối chiếu code với danh sách các lỗ hổng đã biết, Claude Code Security đọc và lý giải mã nguồn theo cách mà một chuyên gia bảo mật con người thực thụ sẽ làm.

Nó sẽ theo dõi luồng dữ liệu, hiểu cách các thành phần tương tác với nhau, và phát hiện những lỗ hổng tinh vi trong logic nghiệp vụ mà các công cụ thông thường thường bỏ qua.

Mỗi phát hiện đều trải qua quy trình xác minh nhiều tầng trước khi đến tay người phân tích, kèm theo đánh giá mức độ nghiêm trọng và điểm tin cậy, giúp đội ngũ kỹ thuật ưu tiên xử lý các vấn đề quan trọng nhất trước. Toàn bộ quá trình vẫn cần sự phê duyệt của con người, Claude Code Security tìm ra vấn đề và gợi ý giải pháp, nhưng quyết định cuối cùng luôn thuộc về lập trình viên.

FBI bẻ khóa điện thoại của tay súng ám sát ông Trump.
Theo RT

Microsoft bắt tay Anthropic dù rót 10 tỷ USD vào OpenAI

Microsoft mở rộng hợp tác AI với Anthropic để tích hợp vào Copilot, cho thấy chiến lược đa dạng hóa thay vì chỉ phụ thuộc vào OpenAI.

am-1.png
Microsoft bắt đầu dùng mô hình AI từ Anthropic để hỗ trợ Copilot, bên cạnh OpenAI.
am-2.png
Người dùng doanh nghiệp giờ đây có thể chuyển đổi giữa các mô hình OpenAI và Anthropic.

Chiến tranh mạng trở thành một phần trong kho vũ khí Mỹ

Ở phương diện một chiến dịch riêng lẻ, một cuộc tấn công mạng dù lớn đến đâu cũng không giống với cách nó trở thành một món vũ khí ở cấp độ quân sự tổng hợp.

Khi nước Mỹ sử dụng vũ khí mạng ở Venezuela để làm mất điện, tắt radar và gây nhiễu sóng vô tuyến cầm tay, tất cả nhằm giúp lực lượng Mỹ xâm nhập vào nước này đã thực sự gây kinh ngạc cho cả thế giới.

Đây là một phần trong nỗ lực đổi mới nhằm tích hợp chiến tranh máy tính vào các hoạt động thực tế. Quân đội thường sử dụng vũ khí mạng trong các chiến dịch riêng lẻ — chẳng hạn như làm hư hại các máy ly tâm hạt nhân của Iran bằng cách thay đổi chức năng của chúng hoặc vô hiệu hóa một trang trại troll của Nga.

Trung Quốc phát triển 10 công cụ lượng tử cho chiến tranh mạng

Trung Quốc đang nghiên cứu công nghệ lượng tử để thu thập thông tin tình báo quân sự với 10 công cụ thử nghiệm đang phát triển cho chiến tranh mạng.

Trung Quốc đang nghiên cứu công nghệ lượng tử để thu thập thông tin tình báo quân sự, với việc Quân Giải phóng Nhân dân (PLA) báo cáo đang phát triển 10 công cụ thử nghiệm cho chiến tranh mạng.

Quốc gia này dự định tận dụng các công cụ dựa trên công nghệ lượng tử để xử lý lượng lớn dữ liệu chiến đấu “trong vòng vài giây”, giúp các lực lượng đưa ra quyết định nhanh hơn trên chiến trường.