Cần đặt công nghệ vào đúng vị trí để tránh nguy cơ tiềm tàng

Các thuật toán đang được sử dụng trong việc ra quyết định, bao gồm cả trong các quyết định cứu giúp mạng sống, có một mặt trái là có thể xâm phạm quyền riêng tư của chúng ta.
Cần đặt công nghệ vào đúng vị trí để tránh nguy cơ tiềm tàng ảnh 1Ảnh minh họa. (Nguồn: itweb.co.za)

Trang mạng dailymaverick.co.za ngày 4/12 đăng bài phân tích của tác giả Karen Allen, nhà nghiên cứu cao cấp về các mối đe dọa mới nổi tại châu Phi về sự cần thiết phải đặt công nghệ đúng vị trí để tránh những nguy cơ tiềm tàng đối với nhân loại.

Khi Robert Oppenheimer, người được ca ngợi là cha đẻ của quả bom nguyên tử đầu tiên hồi những năm 1940, nhận ra rằng công cụ mà ông tạo ra đang chuẩn bị được sử dụng để gây ra những hậu quả vô cùng tàn khốc ở Nhật Bản, nhà khoa học này đã cam kết phát triển các biện pháp kiểm soát hạt nhân vào những năm sau đó. Điều này đóng vai trò như một lời nhắc nhở hữu ích về sức mạnh của công nghệ và sự cần thiết phải "kiểm soát" công nghệ, hoặc ít nhất là giữ lại khía cạnh nhân tính đối với sự phát triển và ứng dụng của công nghệ.

Trong tháng 12 này, các đại diện từ Nam Phi và 22 quốc gia khác bao gồm cả nhóm G5 dự kiến sẽ nhóm họp để xem xét các nội dung trở ngại về đạo đức như một phần nhiệm vụ của Nhóm các chuyên gia chính phủ về thúc đẩy hành vi có trách nhiệm của nhà nước (chương trình thuộc Đại hội đồng Liên hợp quốc) liên quan đến không gian mạng trong bối cảnh an ninh quốc tế.

Nhiệm vụ của nhóm chuyên gia này là giúp đưa ra các chuẩn mực đối với các quốc gia về cách thức các nước áp dụng các nguyên tắc luật pháp quốc tế hiện hành vào sự phát triển công nghệ thông tin và truyền thông.

Nhóm chuyên trách của Đại hội đồng Liên hợp quốc cũng phải xác định liệu cộng đồng quốc tế có cần các quy tắc can dự mới hay liệu các khung pháp lý hiện tại có đủ hiệu lực điều chỉnh hay không. Đó là một nhiệm vụ khó khăn, nhất là các quốc gia có ý kiến khác nhau về đảm bảo cân bằng giữa nhân quyền, bảo mật dữ liệu và quyền riêng tư.

Trong bối cảnh quá trình số hóa các mối quan hệ giữa con người với con người ngày càng tăng cũng như con người dường như không thể thoát khỏi hệ thống kỹ thuật số mới này, rất nhiều tranh luận được đưa ra về sự cần thiết phải "đặt công nghệ vào đúng vị trí." Cuộc tranh luận hiện tại xoay quanh cách thức đảm bảo rằng các biện pháp bảo vệ nhân loại, kiểm soát và các giá trị vốn đặt nền tảng cho công nghệ sẽ không bị biến mất.

[Mỹ cảnh báo các đối tác về rủi ro từ những mạng 5G "đáng ngờ"]

Trật tự quốc tế hiện nay lấy con người làm trung tâm được thiết kế để kiểm soát quyền lực và gắn trách nhiệm đối với các quốc gia và cá nhân. Các công nghệ tự hành đang dần phá vỡ trật tự đó. Chẳng hạn, làm thế nào quy kết trách nhiệm một robot giết người hoặc vũ khí sát thương tự hành trong trường hợp sự cố xảy ra?

Trong cuộc chiến Iraq năm 2003, mọi người đã chứng kiến sự thật kinh hoàng khi tên lửa lập trình sẵn của Mỹ thuộc hệ thống lá chắn phòng thủ tên lửa đã bắn hạ máy bay phản lực của Không quân Hoàng gia Anh tại một căn cứ không quân nơi tác giả bài viết này từng đóng quân. Sự cố này đã làm thiệt mạng viên phi công và hoa tiêu máy bay. Đó là một “tai nạn” khủng khiếp.

Máy bay nói trên của Không quân Hoàng gia Anh bị nhận diện nhầm với một tên lửa đang bắn tới và cỗ máy được lập trình sẵn đã kích hoạt phản ứng. Điều này xảy ra trước thời của trí tuệ nhân tạo chúng ta đang chứng kiến hiện nay và đóng vai trò như một lời nhắc nhở đầy đủ rằng máy móc không thể luôn phân biệt các sắc thái vốn đặc trưng và định hình con người.

Trong thời đại kỹ thuật số hiện nay, nhu cầu xem xét sửa đổi các quy tắc của "trò chơi" toàn cầu và cách thức diễn ra các tương tác không còn giới hạn trong hành vi giữa nhà nước với nhà nước. Điều này cũng liên quan chặt chẽ với cách thức ngành công nghiệp, quân đội, chính phủ, các nhóm vũ trang, xã hội dân sự và các phương tiện truyền thông cọ xát lẫn nhau.

Một hội nghị mới diễn ra gần đây ở Stockholm (Thụy Điển) đã tập trung giải quyết vấn đề làm thế nào để đảm bảo rằng tại thời điểm các máy móc tự hành ngày càng phát triển, quá trình kiểm soát và ra quyết định của con người vẫn giữ vai trò quan trọng trong việc hoạch định chính sách.

Một trong số các câu hỏi đáng quan ngại nhất đó là đâu là điểm cân bằng giữa trí tuệ con người và trí tuệ nhân tạo. Cụ thể hơn, làm thế nào chúng ta có thể kiểm soát trí thông minh nhân tạo (AI) hoặc buộc AI tuân theo quy định của pháp luật khi chúng ta ngày càng dựa vào AI để hỗ trợ đưa ra các quyết định quan trọng?

Cuộc tranh luận về việc đưa khía cạnh con người trở lại công nghệ tập trung vào các câu hỏi về kiểm soát. Việc từ bỏ quyền kiểm soát hoàn toàn đối với máy móc trong kỷ nguyên trí tuệ nhân tạo cũng ảnh hưởng đến cách thức triển khai chính sách của chính phủ trong thời bình. Việc áp dụng các công nghệ tự hành mới có thể xác định các chiến lược an ninh trật tự hoặc chiến lược chống khủng bố vốn đưa ra quyết định dựa trên "thang điểm" chúng ta coi là mối đe dọa và xác định ai nên bị giam giữ hoặc bị coi là mục tiêu và những trường hợp nào thì không.

Các thuật toán đang được sử dụng trong việc ra quyết định, bao gồm cả trong các quyết định cứu giúp mạng sống, có một mặt trái là có thể xâm phạm quyền riêng tư của chúng ta. Các thuật toán này có thể giúp xác định xem chúng ta có khả năng tái phạm hay biểu hiện các đặc điểm tính cách cho thấy chúng ta có thể dễ dàng bị cực đoan hóa hay không.

Tại Hội nghị ở Stockholm, Đại diện cấp cao về giải trừ quân bị của Liên hợp quốc, bà Izumi Nakamitsu, cảnh báo rằng việc sử dụng máy bay không người lái ngày càng tăng và công nghệ tự hành tiên tiến có thể dẫn đến những quan niệm về chiến tranh không có thương vong. Bà cũng cảnh báo rằng "không thể không tính đến khả năng các bên thứ ba có ý đồ xấu can thiệp vào các hệ thống kiểm soát để kích động xung đột."

Bà Nakamitsu đánh giá không có sự kiểm soát của con người, "trí tuệ nhân tạo trong không gian kỹ thuật số có nguy cơ làm trầm trọng thêm sự phân chia chính trị… ngay cả trong môi trường quốc tế an toàn nhất." Vì vậy, các công nghệ mới nổi trong lĩnh vực kỹ thuật số có thể hoạt động như một nhân tố kích thích đối với những căng thẳng sôi sục hiện có, khiến các chính phủ không thể phản ứng nhanh như máy móc.

Một báo cáo gần đây của Ủy ban Quốc tế thuộc Hội Chữ thập Đỏ cảnh báo: "Trí tuệ nhân tạo và các hệ thống máy móc phải là công cụ được sử dụng để phục vụ con người và phải tăng cường những yếu tố con người khi đưa ra quyết định, chứ không phải sử dụng máy móc thay thế quá trình này."

Trong thế giới kết nối vạn vật ngày nay, nhu cầu về công nghệ lấy con người làm trung tâm ngày càng trở nên cấp bách./.

(TTXVN/Vietnam+)

Tin cùng chuyên mục