Trí tuệ nhân tạo sẽ là bàn tay “bấm nút vũ khí hạt nhân”?

Cảnh báo về trí tuệ nhân tạo trong lĩnh vực an ninh chiến lược

Trong các cuộc tranh cãi về nguy cơ trí tuệ nhân tạo được sử dụng trong lĩnh vực quân sự, một lý do đưa ra có thể khiến cộng đồng quốc tế sửng sốt.
Cảnh báo về trí tuệ nhân tạo trong lĩnh vực an ninh chiến lược ảnh 1Tên lửa Agni V của Ấn Độ. Ảnh minh họa. (Nguồn: AFP/TTXVN)

Viện nghiên cứu hòa bình quốc tế Stockhoml (SIPRI) và Viện quan hệ quốc tế đương đại Trung Quốc (CICIR) mới đây phối hợp tổ chức hội nghị về ảnh hưởng của công nghệ trí tuệ nhân tạo (AI) và hệ thống tự hành đến an ninh hạt nhân và ổn định chiến lược.

Trang web của Hội đồng Nga về các vấn đề đối ngoại (RIAC) vừa có bài phân tích về vấn đề này, nội dung chính như sau:

Tranh cãi về nguy cơ trí tuệ nhân tạo được sử dụng trong lĩnh vực quân sự, một lý do đưa ra có thể khiến cộng đồng quốc tế sửng sốt: Hóa ra chúng ta không thể hoàn toàn loại trừ được khả năng các nước sẽ buộc phải tự động hóa trong việc ra quyết định về đòn đánh trả! Nói cách khác, trí tuệ nhân tạo sẽ là bàn tay “bấm nút vũ khí hạt nhân.”

Thêm vào đó, vũ khí tự hành và trí tuệ nhân tạo cho đến nay vẫn nằm trong vùng “xám” của luật pháp quốc tế.

Không tránh khỏi một cuộc chạy đua mới

Trọng tâm của Hội nghị diễn ra tại Bắc Kinh trong hai ngày 6 và 7/9 vừa qua là vấn đề an ninh tại Đông Á.

Các chuyên gia đến từ Nga, Trung Quốc, Mỹ, Pháp, Anh, Nhật Bản, Hàn Quốc, Ấn Độ và Pakistan đã trình bày tại hội nghị quan điểm của đất nước mình về vấn đề sử dụng công nghệ mới trong ổn định chiến lược.

Điểm thú vị của Hội nghị là các đại biểu đều nhất trí cho rằng công nghệ mới (trước hết là máy học-ML) trong tương lai gần sẽ được các cường quốc hạt nhân sử dụng để hiện đại hóa vũ khí chiến lược của mình.

Sử dụng trí tuệ nhân tạo “trọng yếu” (hạn chế cho một nhiệm vụ cụ thể) để cảnh báo sớm về một vụ phóng tên lửa của đối phương, cũng như để đánh giá khả năng về vụ phóng tên lửa sẽ giúp cho giới lãnh đạo quân sự có thêm thời gian đưa ra quyết định về đòn đáp trả và quy mô của hành động này.

Công nghệ mới cũng có thể tăng độ chính xác cho vũ khí hạt nhân và tính hiệu quả của phòng thủ chống tên lửa, nâng cao bảo vệ các cơ sở hạt nhân, cung cấp các thông số trinh sát chất lượng hơn.

Trong lúc đó, việc một bên rút ngắn thời gian đưa ra quyết định sẽ đẩy đối phương phải tìm kiếm khả năng bố trí nhanh chóng vũ khí hạt nhân.

Cuộc chạy đua kiểu này giữa các cường quốc hạt nhân tiềm ẩn nguy cơ đối với sự ổn định của thế giới, vì thời gian để đánh giá nguy cơ tấn công tên lửa và sự cần thiết phải đáp trả sẽ bị rút ngắn.

Do vậy, các nước buộc phải tự động hóa việc ra quyết định đánh trả, và kéo theo những hậu quả khôn lường.

Bên cạnh đó, các quốc gia hạt nhân yếu hơn, khi cảm thấy mình dễ tổn thương, có thể sớm bị tác động để triển khai hệ thống đánh trả tự động.

Tuy nhiên, các chuyên gia về máy học không phải lúc nào cũng hiểu được hoạt động của nó.

Bất chấp sự phát triển nhanh chóng của công nghệ AI, vấn đề “hộp đen” khi các thuật toán ra quyết định được giữ kín đối với các nhà chế tạo, vẫn là vấn đề thời sự.

Như vậy trước khi trao gửi các quyết định liên quan đến vũ khí hủy diệt vào tay AI cần phải nâng cao tính minh bạch của nó.

Tuy nhiên, ở đây không thể không nảy sinh xung đột giữa việc kết hợp tính minh bạch của công nghệ máy học với việc bảo vệ nó trước kẻ thù bởi thông số được các mạng "neuron" sử dụng có thể bị “nhiễm độc”...

Một điểm quan trọng nữa là do đặc thù công việc mà quân nhân nắm được khối lượng thông số ít hơn về máy học so với các công ty dân sự cùng lĩnh vực.

Hội nghị cũng đề cập đến các dự án của Triều Tiên trong lĩnh vực trí tuệ nhân tạo. Theo các chuyên gia, cho dù Bình Nhưỡng đã rất nỗ lực, song những thành tựu trong lĩnh vực máy học của nước này hiện chỉ ở giai đoạn khởi thủy và ít có khả năng đe dọa trong tương lai gần.

Bên cạnh đó, Hội nghị cũng đã tập trung thảo luận về các hệ thống vũ khí tự hành gây chết người (Lethal Autonomous Weapon Systems, LAWS) bởi chúng đã được sử dụng nhiều ở một số nước, trước hết là Mỹ và Trung Quốc.

Đa số các ý kiến đều nhất trí rằng những vụ trục trặc xảy ra với các thiết bị tự hành có thể gây ra xung đột giữa các cường quốc ở Đông Á, ví dụ như sự đụng độ của các thiết bị không người lái, mất kiểm soát đối với các thiết bị này, thậm chí cả việc ăn cắp thiết bị bay không người lái của nhau.

Nơi có nguy cơ cao hơn cả là tại Biển Đông, nơi có nhiều tranh chấp lãnh thổ mà Trung Quốc tuyên bố chủ quyền.

Kịch bản nảy sinh đụng độ với các thiết bị bay không người lái trên Biển Đông không thể coi chỉ là lý thuyết, trong quá khứ đã từng xảy ra các tiền lệ.

Ví dụ hồi tháng 12/2016 trên vùng biển quốc tế gần Philippines, Trung Quốc đã bắt giữ thiết bị không người lái thu thập thông số của Hải quân Mỹ.

Lúc đó Bắc Kinh đã trao trả lại thiết bị cho Washington, đồng thời cáo buộc Mỹ đã đe dọa đối với chủ quyền của nước này.

Bình luận về tình huống đó, các chuyên gia cho biết thiết bị này chắc hẳn đã được nghiên cứu rất kỹ trước khi được trao trả.

Các khu vực tiềm ẩn nguy cơ đụng độ khác giữa các thiết bị tự hành có thể kể đến như vịnh Đài Loan, vùng biển xung quanh quần đảo Nam Kuril, quần đảo Senkaku (tranh cãi giữa Bắc Kinh, Đài Bắc và Nhật Bản) và quần đảo Liancourt (giữa Hàn Quốc và Nhật Bản).

Trong thời gian tới, khả năng thiết bị tự hành ở Đông Á cũng như ở khu vực khác của thế giới gây đụng độ có thể tăng mạnh, vì một trong những xu hướng sử dụng thiết bị không người lái (bay và bơi ngầm) là kiểm soát biên giới.

Cụ thể, hệ thống tuần tra tự hành biên giới trên mặt đất đang được Liên minh châu Âu (EU) tích cực phát triển.

Ngay cả khi không được trang bị vũ khí, thiết bị không người lái cũng có thể trở thành nguyên nhân xung đột nếu bị mất kiểm soát, và chúng có thể vô tình vượt biên giới sang quốc gia khác.

Chúng cũng có thể đụng độ với thiết bị tự hành của quốc gia khác. Ngoài ra, chưa rõ các thiết bị thuộc nhiều hệ thống khác nhau sẽ tương tác như thế nào khi đến gần nhau.

Còn có một điểm khiến tình hình thêm phức tạp đó là vũ khí tự hành và AI hiện vẫn đang nằm ở khu vực “xám” của luật pháp quốc tế. Mới đây, nhóm chuyên gia chính phủ của Liên hợp quốc mới soạn thảo Khuyến cáo giải quyết vấn đề trong khuôn khổ Công ước về vũ khí “phi nhân tính.”

Ngày 31/8/2018 nhóm công bố báo cáo về các nguyên tắc quản lý LAWS. Theo đó, các chuyên gia đề xuất trao trách nhiệm cho con người vì hành động của các hệ thống trên ở bất kỳ giai đoạn nào.

[Chuyên gia quân sự Nga hé lộ những tính năng đặc biệt của Su-57]

Cơn thịnh nộ của “Poseidon”

Các đại biểu tham dự hội nghị bày tỏ quan ngại về loại tàu ngầm nguyên tử không người lái của Nga. Loại tàu ngầm này có thể được trang bị đầu đạn thông thường cũng như nguyên tử, cho phép tàu có thể tiêu diệt được nhiều loại mục tiêu, bao gồm các tàu chiến hạm, tàu bảo vệ bờ biển và hạ tầng.

Poseidon là tên con tàu ngầm không người lái được Nga thử nghiệm vào tháng 7/2018. Theo nhiều thông tin, Poseidon có thể mang vũ khí hạt nhân công suất đến 2 megaton (Mt).

Tại Hội nghị, các chuyên gia cũng đưa ra các đề xuất để giảm rủi ro và hiệu ứng tiêu cực từ việc sử dụng công nghệ mới đối với vấn đề ổn định chiến lược.

Tóm lại, việc hạn chế sử dụng các hệ thống tự hành và AI trong lĩnh vực quân sự để tăng hiệu quả của vũ khí chiến lược là kịch bản không thực tế.

Nếu xét qua các báo cáo tại Hội nghị, chạy đua vũ trang trong lĩnh vực này đã bắt đầu. Và cám dỗ giành ưu thế trong lĩnh vực vũ khí mới quá lớn để các nước có thể tôn trọng những mục tiêu nhân đạo, dù sự tôn trọng này mang tính thực chất hay là trong tuyên bố.

Trong bối cảnh đó, nhu cầu về việc phải xây dựng cơ sở pháp lý cho việc sử dụng hệ thống tự hành và AI là rất cấp thiết.

Cơ sở pháp lý này cần được củng cố ở cấp độ quốc tế, ít nhất là dưới dạng tuyên bố chung về một quy định cấm quyết định tự động hóa sử dụng vũ khí hạt nhân./.

(Vietnam+)

Tin cùng chuyên mục