Robot Pepper của hãng Softbank Robotics tại Triển lãm CES ở Las Vegas, Mỹ. (Nguồn: AFP/TTXVN)

Ứng dụng trí tuệ nhân tạo (AI) trong các hoạt động sản xuất và hoạt động nói chung của con người đang trở thành một xu thế tất yếu của thời đại. Tuy nhiên, điều này cũng đồng nghĩa với những rủi ro, nguy cơ đe dọa an ninh-an toàn của chính xã hội loài người.

Theo phóng viên TTXVN tại Bỉ, bài viết trên trang mạng Eurativ.fr cho biết hiện một nhóm gồm 52 chuyên gia đến từ các học viện, doanh nghiệp và xã hội dân sự ở châu Âu, đang soạn thảo một báo cáo về đạo đức và AI.

Họ đã đề cập đến một loạt "sự lo ngại nghiêm trọng" cho tương lai của AI. Các chuyên gia lưu ý rằng robot ngày càng trở nên giống với con người, vì vậy EU đang cố gắng đảm bảo rằng chúng không bao giờ bị nhầm lẫn với người thật, do đó đảm bảo ranh giới rõ ràng các nguyên tắc về đạo đức, hành vi và giá trị giữa người thật và robot.

Các nhà phát triển AI nên đảm bảo rằng con người phải được thông báo về việc họ tương tác với danh tính AI (không phải con người) hoặc họ có thể yêu cầu và xác thực thông tin này.

Các tác giả nghiên cứu cho biết việc đưa người máy "siêu thực" vào xã hội có thể thay đổi nhận thức của chúng ta về con người và nhân loại. Cần lưu ý rằng sự nhầm lẫn giữa con người và máy móc có thể gây ra những hậu quả khó lường, chẳng hạn như sự gắn bó, ảnh hưởng hoặc giảm giá trị của con người.

Do đó, sự phát triển của robot và nhất là robot hình người phải là chủ đề của sự đánh giá đạo đức một cách cẩn thận.

[Trí tuệ nhân tạo và báo chí: Ngồi chờ hay hành động ngay bây giờ?]

Một lĩnh vực khác khiến các chuyên gia lo lắng là việc sử dụng AI trong các công nghệ nhận dạng, chẳng hạn như phần mềm nhận dạng khuôn mặt. Những công nghệ này hiện đang được thử nghiệm ở Anh.

Cảnh sát Anh tin rằng công nghệ sẽ cho phép họ nhận ra tội phạm bị truy nã trong số hàng loạt người tham gia mua sắm Giáng sinh.

Đối với các tác giả của báo cáo, thiếu sự chấp thuận của người dân trong việc áp dụng thì cũng tạo ra một vấn đề đạo đức nghiêm trọng.

Báo cáo cũng đề cập đến chủ đề của các hệ thống vũ khí chiến đấu tự hành, còn được gọi là "robot sát thủ". Các hệ thống này có thể hoạt động mà không cần sự kiểm soát thực sự của con người. Đây là ví dụ về trường hợp thiết bị theo dõi tên lửa tự hành.

Hồi tháng 9, Nghị viện châu Âu đã thông qua nghị quyết kêu gọi lệnh cấm quốc tế đối với các "robot sát thủ" này, trong đó có các tên lửa có khả năng lựa chọn mục tiêu cũng như những cỗ máy có khả năng học hỏi với kỹ năng nhận thức để có thể ra quyết định sẽ tấn công ai, khi nào và ở đâu.

Các nghị sỹ nhấn mạnh những "máy móc không thể đưa ra quyết định như con người và đánh giá rằng các quyết định trong chiến tranh phải là đặc quyền của bộ não con người."

Một cách tổng quát, các kết luận về phương hướng đạo đức của Ủy ban châu Âu bảo vệ cách tiếp cận lấy con người làm trung tâm để phát triển AI, phù hợp với các quyền cơ bản và các giá trị xã hội. Về lâu dài, mục tiêu là thúc đẩy một AI đáng tin cậy.

Phó Chủ tịch Ủy ban châu Âu phụ trách thị trường kỹ thuật số Andrus Ansip đánh giá AI mang lại lợi ích lớn cho xã hội, từ việc phát hiện và chữa lành ung thư đến giảm tiêu thụ năng lượng.

Nhưng để mọi người dân chấp nhận và sử dụng các hệ thống dựa trên AI, các nhà quản lý cần đảm bảo với người dân rằng quyền riêng tư của họ sẽ được tôn trọng và các quyết định đưa ra là hoàn toàn công bằng, minh bạch./.