Khảo sát về niềm tin vào hệ thống AI: Tỷ lệ không tin tưởng ở mức cao

Kết quả khảo sát hơn 17.000 người ở 17 quốc gia trên thế giới cho thấy cứ 5 người được hỏi thì có 3 người - tương đương 61% - cho biết họ không tin tưởng các hệ thống trí tuệ nhân tạo (AI).
Khảo sát về niềm tin vào hệ thống AI: Tỷ lệ không tin tưởng ở mức cao ảnh 1Ảnh minh họa. (Nguồn: Shutterstock)

Hiện tại, ChatGPT đang là một trong những từ khóa “hot” được quan tâm nhất trong những ngày vừa qua. Nó đang là một trong những ứng dụng Internet có tốc độ tăng trưởng người dùng nhanh nhất trong lịch sử, cán mốc 100 triệu người sử dụng chỉ sau 2 tháng ra mắt.

Ngày 30/11/2022, OpenAI, một công ty khởi nghiệp về trí tuệ nhân tạo có trụ sở tại San Francisco (Mỹ), đã chính thức cho người dùng đăng ký trải nghiệm miễn phí ChatGPT, một ứng dụng phần mềm được thiết kế để mô phỏng cuộc trò chuyện của con người.

Đây là sự phát triển mới nhất của dòng AI tạo văn bản - GPT (Generative Pre-training Transformer).

GPT (Generative Pre-training Transformer) là một mạng lưới thần kinh AI (ANNs) được đào tạo trên khối lượng lớn văn bản trực tuyến để tạo ra các phản hồi tự nhiên, giống con người. Do đó, nó có thể trả lời các câu hỏi phức tạp, viết truyện cười, viết mã máy tính, viết bài luận cấp đại học, giải thích các khái niệm khoa học ở nhiều cấp độ…

Kể từ khi ra mắt vào tháng 11/2022, ChatGPT đã khiến mọi người kinh ngạc và thu hút được sự chú ý của các nhà lãnh đạo doanh nghiệp.

[ChatGPT: 'Cú hích' cho sự phát triển AI tại thị trường Việt Nam]

Công cụ chatbot tiên tiến này đã nhanh chóng đạt được 1 triệu người dùng chỉ sau 5 ngày phát hành, thần tốc hơn cả hai ứng dụng mạng xã hội hàng đầu là TikTok và Instagram.

Nhưng cùng với việc ứng dụng chatbot này đang “làm mưa làm gió” trên các diễn đàn công nghệ, thu hút sự chú ý của hàng triệu người, thì cũng đã xuất hiện những lo ngại, cảnh báo về tính rủi ro mà trí tuệ nhân tạo (AI) có thể mang lại.

Theo một khảo sát cứ 5 người được hỏi thì có 3 người - tương đương 61% - cho biết họ không tin tưởng các hệ thống trí tuệ nhân tạo (AI).

Chỉ 39% số người được hỏi tin tưởng các hệ thống AI

Các nhà nghiên cứu của trường Đại học Queensland và KPMG Australia - một mạng lưới toàn cầu gồm các công ty chuyên cung cấp dịch vụ kiểm toán, thuế và tư vấn - đã khảo sát hơn 17.000 người ở 17 quốc gia trên thế giới, ví dụ như Australia, Trung Quốc, Pháp và Mỹ, vốn là những quốc gia được coi là đi đầu trong hoạt động AI.

Theo nghiên cứu, chỉ 39% số người được hỏi cho biết họ sẵn sàng tin tưởng các hệ thống AI.

Mặc dù khoảng 85% tin rằng việc sử dụng AI sẽ mang lại nhiều lợi ích, bao gồm cải thiện hiệu quả, đổi mới, giảm chi phí và sử dụng tài nguyên tốt hơn, song 73% số người được hỏi cũng bày tỏ lo ngại về những rủi ro tiềm ẩn từ việc sử dụng AI.

Nghiên cứu cũng tiết lộ rằng 61% số người được hỏi lo lắng về tác động "không chắc chắn và không thể đoán trước" của AI đối với xã hội, với 71% số người được hỏi tin rằng cần phải có quy định về AI.

Trong số 9 rủi ro được liệt kê, an ninh mạng là mối quan tâm chính của 84% số người được khảo sát, tiếp đến là tình trạng thao túng hoặc sử dụng AI gây hại và mất việc làm do tự động hóa.

Người dân không tin tưởng hệ thống AI do chính phủ quản lý

Mô hình AI - đề cập đến các thuật toán học máy sử dụng dữ liệu để đưa ra quyết định hợp lý, có thể được sử dụng để cải thiện tốc độ và hiệu quả của các hoạt động của chính phủ và dịch vụ.

Tuy nhiên, người dân ở nhiều nước lại không tin vào điều đó.

Ông James Mabbott - đối tác phụ trách tại KPMG Futures - cho biết thách thức chính là 1/3 số người được hỏi không tin tưởng vào chính phủ, các tổ chức công nghệ và thương mại để phát triển, sử dụng và quản lý AI vì lợi ích tốt nhất của xã hội.

Trước đó, Mỹ và Liên minh châu Âu (EU) từng công bố một thỏa thuận nhằm tăng tốc và tăng cường sử dụng trí tuệ nhân tạo (AI) để cải thiện các lĩnh vực nông nghiệp, y tế, ứng phó khẩn cấp, dự báo khí hậu và lưới điện.

Theo một quan chức cấp cao của chính phủ Mỹ, đây là thỏa thuận AI sâu rộng đầu tiên giữa Mỹ và EU bởi các thỏa thuận trước đây về vấn đề này chỉ giới hạn ở các lĩnh vực cụ thể như tăng cường quyền riêng tư.

Ông James Mabbott cho rằng các tổ chức có thể xây dựng lòng tin trong việc sử dụng AI của họ bằng cách đưa ra các cơ chế thể hiện việc sử dụng có trách nhiệm, chẳng hạn như thường xuyên theo dõi độ chính xác và độ tin cậy, thực hiện các quy tắc ứng xử của AI, đánh giá và chứng nhận đạo đức AI độc lập cũng như tuân thủ các tiêu chuẩn quốc tế mới được đưa ra./.

(Vietnam+)

Tin cùng chuyên mục