Share:
'Bầy robot sát thủ': Tại sao AI lại khiến quân đội Mỹ khiếp sợ.
Cuộc phỏng vấn với một cựu nhân viên Ngũ Giác đài về đề tài các cuộc tranh luận AI có thể định hình tương lai của an ninh quốc gia.
Logo OpenAI xuất hiện trên điện thoại di động. | Ảnh AP / Michael Dwyer.
Tác giả Calder McHugh... 06/10/2025....Politico.
Công nghệ trí tuệ nhân tạo đã sẵn sàng để chuyển đổi an ninh quốc gia. Tại Hoa Kỳ, các chuyên gia và các nhà hoạch định chính sách đã thử nghiệm các mô hình ngôn ngữ lớn vốn có thể hỗ trợ việc ra quyết định chiến lược trong các cuộc xung đột và các hệ thống vũ khí tự động (hay thường được gọi là "robot sát thủ") qua đó có thể đưa ra quyết định trong thời gian thực về mục tiêu và liệu có nên xử dụng vũ lực gây chết người hay không.
Nhưng những công nghệ mới này cũng gây ra những rủi ro rất lớn. Ngũ Giác đài chứa đầy những thông tin nhạy cảm nhất của đất nước. Việc đưa thông tin đó vào tay các công cụ AI, khiến nó dễ bị tổn thương hơn, cả trước tin tặc nước ngoài lẫn các tác nhânđộc hại trong nội bộ muốn rò rỉ thông tin, vì AI có thể lướt qua và tóm tắt lượng thông tin khổng lồ tốt hơn bất kỳ con người nào. Một tác nhân AI không phù hợp cũng có thể nhanh chóng dẫn đến việc ra quyết định làm leo thang xung đột một cách không cần thiết.
"Đây là những công cụ thực sự mạnh mẽ. Tôi nghĩ có rất nhiều câu hỏi về tính bảo mật trong chính các mô hình", Mieke Eoyang, phó trợ lý bộ trưởng quốc phòng phụ trách chính sách mạng trong chính quyền Joe Biden, nói với Tạp chí POLITICO trong một cuộc phỏng vấn rộng rãi về những lo ngại này.
Trong cuộc trò chuyện của chúng tôi, Eoyang cũng chỉ ra nỗi sợ hãi của các chuyên gia về chứng rối loạn tâm thần do AI gây ra, ý bà cho rằng các cuộc trò chuyện dài với một mô hình ngôn ngữ lớn được hiệu chỉnh kém, có thể dẫn đến sự leo thang xung đột thiếu sáng suốt. Đồng thời, bà cũng thảo luận về một mối lo ngại có phần trái ngược — rằng nhiều rào cản hiện có trên các chương trình LLM công lập như ChatGPT hoặc Claude, vốn ngăn chặn bạo lực, thực tế lại không phù hợp với một quân đội cần phải sẵn sàng cho các hành động gây chết người. (LLM là một chương trình máy tính đã được cung cấp đủ ví dụ để có thể nhận dạng và diễn giải ngôn ngữ con người, hoặc các loại dữ liệu phức tạp khác. Nhiều LLM được đào tạo dựa trên dữ liệu thu thập được từ Internet — hàng nghìn hoặc hàng triệu gigabyte văn bản).
Eoyang vẫn thấy cần phải nhanh chóng suy nghĩ về cách khai triển chúng - theo cách nói của Thung lũng Silicon, "đi nhanh" mà không "phá vỡ mọi thứ" - như cô đã viết trong một bài bình luận gần đây. Làm thế nào để Ngũ Giác đài có thể đổi mới và giảm thiểu rủi ro cùng một lúc? Các thí nghiệm đầu tiên nắm giữ một số manh mối.
Cuộc phỏng vấn này đã được chỉnh sửa để có độ dài và rõ ràng.
_ Hỏi : Cụ thể tại sao các công cụ AI hiện tại lại không phù hợp để xử dụng trong quân sự?
_ Trả Lời : Có rất nhiều rào chắn được xây dựng trong các mô hình ngôn ngữ lớn đã được công chúng xử dụng hữu ích cho công chúng, nhưng không hữu ích cho quân đội. Ví dụ, bạn không muốn người dùng công cụ AI bình thường của mình cố gắng lập kế hoạch giết nhiều người, nhưng rõ ràng nhiệm vụ của Ngũ Giác đài là suy nghĩ và chuẩn bị để gây chết người. Vì vậy, có những thứ như vậy có thể không nhất quán giữa việc xử dụng mô hình AI dân sự và mô hình AI quân sự.
_ H : Tại sao việc điều chỉnh không đưa ra một giải pháp hiện có, đơn giản như cho phép một tác nhân AI công cộng hiện có, mất nhiều thời gian hơn đối với khả năng gây chết người?
TL : Rất nhiều cuộc trò chuyện chung quanh các rào chắn của AI, làm thế nào để chúng ta bảo đảm rằng việc Ngũ Giác đài xử dụng AI không dẫn đến quá mức cần thiết? Có những lo ngại về "bầy robot sát thủ AI", và những lo lắng đó là về cách mà quân đội bảo vệ chúng ta. Nhưng cũng có những lo ngại về việc Ngũ Giác đài xử dụng AI liên quan đến việc bảo vệ cho chính Ngũ Giác đài. Bởi vì trong một tổ chức lớn như quân đội, sẽ có một số người tham gia vào hành vi bị cấm. Khi một cá nhân trong hệ thống tham gia vào hành vi bị cấm đó, hậu quả có thể khá nghiêm trọng, và tôi thậm chí không nói về những thứ liên quan đến vũ khí, mà là những thứ có thể liên quan đến sự rò rỉ thông tin.
Ngay cả trước khi AI được áp dụng, chúng ta đã có những cá nhân trong quân đội có quyền truy cập vào hệ thống an ninh quốc gia, tải xuống và rò rỉ một lượng lớn thông tin mật, cho các nhà báo hoặc thậm chí chỉ trên máy chủ trò chơi điện tử, chỉ để cố gắng chứng minh ai đó sai trong một cuộc tranh luận. Những người có quyền truy cập AI có thể làm điều đó trên quy mô lớn hơn nhiều.
_H : Một trường hợp thảm họa đối với việc nội bộ lạm dụng AI trông như thế nào?
_ TL : Trong công việc cuối cùng của tôi tại Ngũ Giác đài, rất nhiều điều mà chúng tôi lo lắng là công nghệ có thể bị lạm dụng như thế nào, thường là bởi các đối thủ. Nhưng chúng ta cũng phải nhận ra rằng kẻ thù có thể giả mạo là người trong cuộc, và vì vậy bạn phải lo lắng về việc các tác nhân độc hại có thể chạm tay vào tất cả các công cụ đó.
Có rất nhiều điều mà bạn có thể lo lắng. Có bị mất thông tin, có sự thỏa hiệp có thể dẫn đến những hậu quả khác, nghiêm trọng hơn.
Có những hậu quả có thể đến từ việc ai đó xử dụng AI khiếǹ dẫn họ đến một nơi rối loạn tâm thần AI, nơi mà họ có thể tham gia vào một số loại hành vi nhất định trong thế giới vật lý, mâu thuẫn với thực tế. Điều này có thể rất nguy hiểm khi mọi người có quyền truy cập vào các hệ thống vũ khí trong quân đội.
Cũng có những lo ngại về "bầy robot sát thủ" mà mọi người đang lo lắng, liên quan đến việc quản lý sự leo thang. Làm thế nào để bạn bảo đảm rằng bạn không tham gia vào việc mang tính quá mức cần thiết? Làm sao để bảo đảm rằng AI đang phản hồi theo cách bạn muốn? Và đó là những thách thức khác mà quân đội sẽ phải lo lắng và cần đến AI để giúp họ suy nghĩ thấu đáo.
_ H : Về điểm cuối cùng đó, gần đây chúng tôi đã xuất bản một bài báo trên Tạp chí POLITICO do Michael Hirsh viết, trong đó ông báo cáo rằng hầu hết tất cả các mô hình AI công cộng đều hung hăng, thích leo thang hướng tới một cuộc chiến tranh hạt nhân khi được trình bày với các kịch bản thực tế. Họ dường như không hiểu về việc giảm leo thang. Đó có phải là kinh nghiệm của ông khi làm việc với các công cụ này không?
_ TL : Tôi nghĩ một trong những thách thức mà bạn gặp phải với các mô hình AI, đặc biệt là những mô hình được đào tạo dựa trên kinh nghiệm của con người, thì xu hướng leo thang vốn đã là một thành kiến trong nhận thức của con người. Nó đã xảy ra mà không cần AI. Vậy nên, điều bạn đang làm với AI là khiến nó diễn ra nhanh hơn. Và trừ khi bạn đang thiết kế theo cách nào đó để nói rằng, "Này, hãy kiểm tra lại thành kiến nhận thức của bạn đi", nó sẽ đưa ra cho bạn phản hồi đó.
_ H : Vậy Ngũ Giác đài có cần phát triển các công cụ AI của riêng mình hay không?
_ TL : Tôi nghĩ rằng họ cần phải làm việc để phát triển các công cụ phù hợp với cách thức hoạt động của Ngũ Giác đài, khác với cách thức hoạt động của thế giới dân sự và cho các mục đích khác nhau. Nhưng nó thực sự phụ thuộc vào việc thiết đặt nhiệm vụ mà chúng ta đang nói đến. Rất nhiều cuộc trò chuyện này là về, AI chung quanh các mô hình ngôn ngữ lớn và hỗ trợ quyết định. Có một nhánh hoàn toàn khác của AI mà quân đội cần tham gia, và đó là điều hướng thế giới thực. Đó là một loạt các thách thức và công nghệ hoàn toàn khác.
Khi bạn nghĩ đến ý tưởng về các hệ thống không người lái, chúng điều hướng thế giới như thế nào? Đó là công nghệ giống như xe tự lái. Đó là những đầu vào không giống như việc tiếp nhận một lượng lớn văn bản của con người. Chúng nói về: Làm thế nào để bạn hiểu thế giới?
_ H : Có nhu cầu chung để hiểu thêm về tiện ích của AI trong quân đội không? Một số cách mà các quan chức cấp cao tại Ngũ Giác đài hiểu sai về AI là gì?
_ TL : Nó chưa phải là một công nghệ hoàn chỉnh, và vì vậy có những hoạt động như chuyển việc xem xét AI vào không gian nghiên cứu và phát triển cho Ngũ Giác đài, điều mà chính quyền Donald Trump đã làm, rất có ý nghĩa. Điều đó cho phép bạn thực hiện thử nghiệm và làm việc thông qua một số tính năng mới này, và phát triển các mô hình công nghệ này theo cách tinh chỉnh chúng. Điều này có nghĩa là khi chúng được chuyển đến cho nhiều nhân viên Ngũ Giác đài hơn, chúng đã giải quyết được một số vấn đề khó khăn này.
_ H : Con đường phía trước với các công cụ AI là gì khi rất khó để ngăn chặn việc lạm dụng?
_ TL : Một trong những điều chúng ta cần làm trong tương lai là, cụ thể hơn nhiều về các nhiệm vụ cụ thể mà chúng ta đang nghĩ đến việc áp dụng AI vào Ngũ Giác đài. Ngũ Giác đài là một tổ chức trị giá hàng nghìn tỷ đô la và nó sẽ có rất nhiều chức năng kinh doanh giống như bất kỳ doanh nghiệp nào khác ở Hoa Kỳ - các chức năng kinh doanh căn bản như đặt chỗ đi lại hoặc trả tiền lương.
Và rồi, có những lĩnh vực mang tính quân sự hơn, và những lĩnh vực này có thể cần được nghiên cứu chuyên sâu hơn, bởi vì không có hệ sinh thái dân sự nào tham gia vào việc thử nghiệm và phát triển các công nghệ này. Ngũ Giác đài có thể phải tự tài trợ cho các nghiên cứu của mình về những vấn đề như hiểu các vật thể không xác định đang bay về phía Hoa Kỳ, hay robot cần di chuyển trên chiến trường, hoặc hiểu được nhiều luồng báo cáo tình báo khác nhau.
-------------
_ Tác giả Calder McHugh là phó tổng biên tập của POLITICO Nightly.
_ Trần HSa lược dịch từ Politico ... 07/10/2025.
