OpenAI cam kết giải quyết nỗi lo AI can thiệp các cuộc bầu cử

OpenAI cho biết công cụ ChatGPT sẽ điều hướng người dùng đến chuyên trang bầu cử CanIVote.org khi đặt câu hỏi liên quan đến cuộc bầu cử sẽ và ghim biểu tượng “cr” với những bức ảnh do AI tạo ra.

Biểu tượng OpenAI và ChatGPT. (Ảnh: AFP/TTXVN)
Biểu tượng OpenAI và ChatGPT. (Ảnh: AFP/TTXVN)

Trong bài viết đăng tải trên trang blog ngày 15/1, Công ty OpenAI cho biết sẽ giải quyết những lo ngại rằng công nghệ của công ty sẽ can thiệp vào các cuộc bầu cử, trong bối cảnh hơn 30% dân số thế giới sẽ đi bỏ phiếu trong năm 2024.

Vấn đề sử dụng trí tuệ nhân tạo (AI) can thiệp vào các cuộc bầu cử đã trở thành mối lo ngại kể từ khi OpenAI phát hành 2 sản phẩm bao gồm ChatGPT có thể tạo văn bản giống như con người và công nghệ DALL-E tạo ra “deepfake” (kỹ thuật sử dụng AI để tạo ra âm thanh, hình ảnh và video giả mạo).

Bản thân Giám đốc điều hành (CEO) của OpenAI, ông Sam Altman, tại phiên điều trần trước Quốc hội Mỹ hồi tháng 5/2023 cũng bày tỏ lo lắng về khả năng AI tạo sinh có thể bị sử dụng để can thiệp quá trình bầu cử.

OpenAI cho biết trong bối cảnh Mỹ tiến hành bầu cử tổng thống trong năm nay, công ty đang phối hợp với Hiệp hội Thư ký quốc gia (NASS) - một tổ chức tập trung thúc đẩy các tiến trình dân chủ như các cuộc bầu cử - để giải quyết mối lo ngại trên. Theo đó, công cụ ChatGPT sẽ điều hướng người dùng đến chuyên trang bầu cử CanIVote.org khi đặt câu hỏi liên quan đến cuộc bầu cử.

OpenAI cũng dự kiến ghim biểu tượng “cr” đối với những bức ảnh do AI tạo ra, phù hợp với nguyên tắc của Liên minh Chứng minh và Xác thực Nội dung (C2PA) được thành lập nhằm chống nạn thông tin sai lệch, cũng như tìm cách nhận diện nội dung của DALL-E ngay cả khi hình ảnh đã được sửa đổi.

Trong bài đăng trên blog, OpenAI nhấn mạnh các chính sách của công ty nghiêm cấm lạm dụng công nghệ, chẳng hạn như tạo ra các chatbot giả mạo người thật, hoặc can ngăn người đi bỏ phiếu.

Công ty cũng cấm DALL-E tạo ra các ảnh người thật, trong đó có ảnh các ứng cử viên chính trị./.

(TTXVN/Vietnam+)

Tin cùng chuyên mục