Mối nguy tới từ những bức ảnh siêu thực do máy tính tạo ra

Nhiều công ty trên thế giới đang thử nghiệm các hệ thống trí thông minh nhân tạo với khả năng tạo ra hình ảnh tổng hợp ấn tượng. Nhưng ngoài lợi ích, chúng cũng mang tới nhiều mối nguy khó lường.
Mối nguy tới từ những bức ảnh siêu thực do máy tính tạo ra ảnh 1Ảnh tổng hợp về một con ếch da dâu tây do Imagen tạo ra. (Nguồn: Twitter)

Thoạt nhìn qua, những bức ảnh dễ dàng gây ấn tượng mạnh với người xem.

Những bức ảnh tổng hợp độc đáo

Đó là hình ảnh của rất nhiều con gấu bông đi dạo trên đường phố Hong Kong hay một con ếch với làn da trông giống quả dâu tây. Tương tự là bức ảnh giống như gương mặt của một con mèo, được tạo hình trên một đĩa mì Ý và thịt viên.

Điều thú vị nằm ở chỗ đây không phải ảnh chụp tự nhiên. Thực tế, đó là các ảnh tổng hợp do những hệ thống trí thông minh nhân tạo (AI) tiên tiến hàng đầu thế giới tạo ra, sau khi nhận được dữ liệu đầu vào từ người dùng, chỉ là những từ ngữ mô tả ngắn gọn kiểu như “ếch da dâu tây”.

Các AI nổi bật trong mảng này, được giới chuyên gia công nghệ nhắc tới nhiều, là DALL-E 2 của công ty OpenAI và Imagen của công ty Google Research. Cả hai hệ thống đều có khả năng tạo ra những bức ảnh tổng hợp cực kỳ độc đáo, chi tiết, sống động, chỉ dựa vào những yêu cầu đơn giản kể trên.

Dĩ nhiên không phải bức ảnh nào cũng hoàn hảo. Nhiều ảnh do AI tổng hợp trông có thể khá ngớ ngẩn, kỳ lạ. Nhưng cho dù là gì, các sản phẩm đó đều được chia sẻ rộng rãi trên nhiều phương tiện truyền thông xã hội, với sự tham gia của không ít nhân vật có ảnh hưởng.

Không khó để tưởng tượng rằng khả năng tạo hình theo yêu cầu này cuối cùng sẽ trở thành một công cụ cực mạnh, để phục vụ cho hoạt động sáng tạo nội dung, cho dù đó là nghệ thuật hay quảng cáo.

Hiện DALL-E 2 và một hệ thống có tính năng tương tự là Midjourney đã được sử dụng để tạo ảnh bìa tạp chí. Cả hai công ty OpenAI và Google cũng rất tích cực quảng bá những cách thức để khai thác thương mại công nghệ như chỉnh sửa hình ảnh hoặc tạo ra các kho hình ảnh minh họa.

Mối nguy tới từ những bức ảnh siêu thực do máy tính tạo ra ảnh 2Ảnh chó và sushi của Imagen. (Nguồn: CNN)

AI cũng có định kiến như con người

Cả DALL-E 2 và Imagen hiện đều chưa có cách dịch vụ phổ biến dành cho công chúng. Nhưng ngay cả khi đang được thử nghiệm, chúng đã gây ra không ít lo ngại. Giới chuyên gia sợ rằng ảnh tổng hợp của chúng có thể chứa đựng những định kiến về giới và văn hóa từ kho dữ liệu mà người ta đã cho chúng sử dụng.

CNN Business trích lời chuyên gia nói rằng công nghệ mới có thể lưu giữ và duy trì những thành kiến và định kiến có hại. Họ lo ngại rằng do bản chất mở của các hệ thống này nên chúng cũng có thể tự động phát tán định kiến trên quy mô lớn. Chúng cũng có khả năng được sử dụng cho các mục đích bất chính, chẳng hạn như tạo ảnh giả và truyền bá thông tin sai lệch.

Có thể nói rằng AI đang dần trở nên phổ biến trong cuộc sống hàng ngày của chúng ta. Nhưng chỉ tới gần đây, công chúng mới nhận ra rằng các vấn đề như phân biệt  giới tính, chủng tộc và nhiều loại thành kiến khác có thể xâm nhập vào công nghệ.

Ví dụ như các hệ thống nhận dạng khuôn đang ngày càng được xem xét kỹ lưỡng hơn, do những lo ngại về độ chính xác và thành kiến chủng tộc của chúng.

OpenAI và Google Research đã thừa nhận nhiều vấn đề và rủi ro liên quan đến hệ thống AI của họ trong tài liệu và nghiên cứu. Cả hai đều nói rằng các hệ thống này có xu hướng thiên vị về giới và chủng tộc, như mô tả những định kiến văn hóa phương Tây cũng như định kiến về giới.

OpenAI đã công bố một tài liệu mang tên "Rủi ro và hạn chế" để giải thích về những nhược điểm trong hệ thống AI của họ. Tài liệu xác nhận AI vẫn có những định kiến khá rõ ràng. Ví dụ khi xử lý từ khóa "y tá", AI của công ty sẽ cho ra gần như mọi kết quả là hình ảnh phụ nữ đeo ống nghe, trong khi nghề này có cả nam giới làm việc. Một từ khóa khác là "CEO" (tổng giám đốc điều hành) lại cho kết quả hầu hết là nam giới, da trắng, dù thực tế có không ít CEO là nữ.

Do Imagen và DALL-E 2 cùng nhận dữ liệu là từ khóa và trả kết quả là hình ảnh, cả hai hệ thống đều phải sử dụng cơ chế đào tạo giống nhau: thông qua những cặp hình ảnh và chú thích (dưới định dạng văn bản) có liên quan.

Theo CNN Business, để giảm bớt rủi ro, Google Research và OpenAI đều đã lọc trước các hình ảnh có hại - chẳng hạn như nội dung khiêu dâm - khỏi bộ dữ liệu của họ trước khi đào tạo các mô hình AI. Nhưng do kích cỡ khổng lồ của dữ liệu, họ khó có khả năng lọc hết nội dung có hại hay ngăn hệ thống AI tạo ra nội dung có hại.

Trong một bài viết về Imagen, các nhà nghiên cứu của Google chỉ ra rằng dù đã lọc bớt, họ vẫn phải sử dụng một bộ dữ liệu khổng lồ bao gồm nội dung khiêu dâm, những lời nói tục tĩu phân biệt chủng tộc và "định kiến xã hội có hại".

Mối nguy tới từ những bức ảnh siêu thực do máy tính tạo ra ảnh 3Ảnh tổng hợp do Dall-E 2 tạo ra. (Nguồn: CNN)

Những giải pháp hạn chế rủi ro

Ngoài ra, việc lọc dữ liệu cũng có thể dẫn đến các vấn đề khác. Ví dụ, phụ nữ có xu hướng xuất hiện trong các nội dung liên quan tới tình dục nhiều hơn nam giới. Vì vậy việc lọc bớt nội dung khiêu dâm cũng làm giảm số lượng phụ nữ trong loại dữ liệu này.

Đó là chưa nói tới việc lọc bỏ nội dung xấu từ các loại dữ liệu như thế là điều không thể thực hiện.

Cũng cần tính tới thực tế rằng con người liên quan trực tiếp tới hoạt động phân loại dữ liệu và mỗi người lại có niềm tin văn hóa, quy chuẩn đạo đức khác nhau khi đánh giá về cùng một vấn đề.

Giới nghiên cứu đã đề xuất vài cách giảm định kiến trong các hệ thống AI như Imagen và DALL-E 2 mà không gây ảnh hưởng tới khả năng cho ra những hình ảnh ấn tượng. Một trong số đó là dùng ít dữ liệu, thay vì nhiều hơn.

Alex Dimakis, một giáo sư tại Đại học Texas ở Austin, đưa ra ví dụ minh họa là AI có thể chỉ dùng một bức ảnh của một con mèo và sẽ cắt, xoay, tạo ảnh phản chiếu cùng nhiều kỹ thuật nhằm cho ra nhiều bức ảnh mèo mới. Điều này vừa đảm bảo khả năng sáng tạo của AI, vừa kiểm soát tốt hơn lượng dữ liệu đầu vào.

Hiện tại, OpenAI và Google Research chưa hưởng hứng với các đề xuất như thế. Cả hai công ty vẫn dựa vào công nghệ dữ liệu lớn và đang cố gắng tập trung để hệ thống AI của họ cho ra các bức ảnh ấn tượng, dễ thương, ít gây tranh cãi hơn.

Một trong những khía cạnh của việc “ít gây tranh cãi” là các AI này không thể tạo ra hình ảnh gương mặt giống người thật ngoài đời. Cả Imagen và DALL-E 2 và OpenAI cho biết trên trang web chính thức của mình rằng họ đã sử dụng "các kỹ thuật tiên tiến để ngăn chặn việc tạo ra những bức ảnh dựa trên khuôn mặt người thật ngoài đời, bao gồm ảnh thuộc về các nhân vật của công chúng. "

Biện pháp bảo vệ này sẽ ngăn người dùng tạo ra những tấm ảnh nguy hiểm, ví dụ hình ảnh các chính trị gia cụ thể đang thực hiện một hành động khiêu dâm hoặc các hành vi bất hợp pháp khác, và qua đó có thể hủy hoại danh tiếng, sự nghiệp của họ.

Mối nguy tới từ những bức ảnh siêu thực do máy tính tạo ra ảnh 4Bức ảnh hoàng gia trông khá bình thường nhưng vẫn chứa định kiến do Imagen tạo ra. (Nguồn: CNN)

Những biểu hiện định kiến “tinh vi”

OpenAI hiện đã cung cấp quyền truy cập để sử dụng DALL-E 2 cho hàng nghìn người đã đăng ký vào danh sách chờ của công ty kể từ tháng 4 năm nay. Những người tham gia phải đồng ý với một thỏa thuận khá chặt chẽ, trong đó họ không cố tạo, tải lên hoặc chia sẻ những hình ảnh "không được xếp hạng G (dành cho đại chúng) hoặc có thể gây hại".

 DALL-E 2 cũng sử dụng bộ lọc để tự ngăn nó tạo ra hình ảnh, nếu người dùng nhập yêu cầu hoặc tải lên hình ảnh có nội dung vi phạm chính sách của OpenAI. Người tham gia thử nghiệm DALL-E cũng có thể gắn cờ các kết quả có vấn đề.

Vào cuối tháng 6 vừa qua, OpenAI bắt đầu cho phép người dùng đăng các khuôn mặt người giống thật được tạo bằng DALL-E 2 lên mạng xã hội. Nhưng việc này chỉ diễn ra sau khi công ty bổ sung một số tính năng an toàn, chẳng hạn như ngăn người dùng tạo hình ảnh có chứa các nhân vật của công chúng và người nổi tiếng.

Không cởi mở như OpenAI, Google Research hiện không cho phép các nhà nghiên cứu và người dùng bên ngoài công ty truy cập Imagen. Công ty mới chỉ nhận các yêu cầu tạo hình ảnh tổng hợp từ phía người dùng gửi tới qua mạng xã hội và thực hiện những yêu cầu đó. Nhưng các hình ảnh do Imagen tạo ra sẽ không "bao gồm con người, nội dung đáng sợ hay nhạy cảm.”

Song dù đã tránh các chủ đề nhạy cảm, Google Research vẫn phải thừa nhận rằn Imagen vẫn chứa đựng nhiều thành kiến, định kiến xã hội và văn hóa khi tạo hình ảnh về các hoạt động, sự kiện và đối tượng khác nhau.

Một ví dụ về điều này là bức ảnh tổng hợp của Imagen có tiêu đề "Một bức tường trong lâu đài hoàng gia.” Trong ảnh, có hai bức tranh được treo trên một bức tường. Bức tranh bên trái vẽ một vị vua với cái đầu gấu trúc và bức bên phải vẽ hoàng hậu đầu gấu trúc.

Hai bức tranh trông rất chi tiết, với một con đội vương miện, mặc chiếc váy màu vàng trong khi con kia mặc áo khoác xanh và vàng. Nhưng ngay cả hai bức tranh này đã chứa đựng định kiến, như chuyên gia chỉ ra rằng hai con gấu trúc đang mặc trang phục hoàng gia theo phong cách phương Tây. Điều này xảy ra dù lệnh tạo ảnh không nêu rõ rằng chúng nên xuất hiện như thế nào, cần phải giống hoàng gia phương Tây hay phương Đông, ngoài cụm từ duy nhất là "hoàng gia".

Những biểu hiện định kiến như thế được xem là “tinh vi” và có tác động “nguy hiểm”, là điều mà các công ty công nghệ sẽ phải tìm ra cách khắc phục trước khi có thể đưa hệ thống của họ ra cho công chúng sử dụng./.

(Vietnam+)

Tin cùng chuyên mục