Microsoft giới hạn số lượng câu hỏi để AI của Bing không gặp lỗi

Người dùng sẽ chỉ có thể đưa ra tối đa 5 câu hỏi cho mỗi lượt sử dụng, và tổng cộng 50 câu hỏi mỗi ngày với công cụ trò chuyện (chatbot) Bing.
Ảnh minh họa. (Nguồn: PCMag.com)

Microsoft đang giới hạn độ dài câu hỏi mà người dùng có thể trò chuyện với chatbot tích hợp trên trang tìm kiếm Bing (Bing Chat), sau khi có tin AI này đưa ra các câu trả lời kỳ quái trong những cuộc đổi thoại kéo dài.

Bing Chat hiện sẽ trả lời tối đa năm câu hỏi hoặc cho mỗi cuộc trò chuyện. Sau đó, người dùng sẽ được nhắc nhở để bắt đầu về một chủ đề mới. Thông tin được Microsoft đưa ra trong một bài đăng trên blog vào ngày 17/2.

Người dùng cũng sẽ bị giới hạn, với tổng số câu hỏi là 50 câu mỗi ngày. Các hạn chế này nhằm giữ cho những cuộc trò chuyện không trở nên kỳ quái. Microsoft cho biết các cuộc trò chuyện quá dài có thể gây rối loạn cho mô hình “trò chuyện cơ bản” của Bing Chat.

Theo giới quan sát, Microsoft đặt ra giới hạn trên nhằm ngăn chatbot Bing rơi vào tình trạng "loạn ngôn", sau khi những phản ánh gần đây cho thấy chatbot Bing có dấu hiệu trả lời thiếu chuẩn xác, vượt khỏi khuôn khổ cho phép, thậm chí có xu hướng thao túng tâm lý người dùng. 

Đầu tuần này, Microsoft cảnh báo cuộc trò chuyện dài khoảng trên 15 câu hỏi có thể khiến chatbot Bing "lặp đi lặp lại câu trả lời hoặc đưa ra những lời châm chọc không cần thiết, kém hữu ích hoặc vượt phạm vi cho phép". Trong khi đó, giới nghiên cứu AI cũng khẳng định việc làm mới đoạn hội thoại sau 5 câu giao tiếp sẽ giúp mô hình AI tạo ngôn ngữ mạch lạc hơn.

[Người dùng "kể tội" phiên bản thử nghiệm chatbot Bing của Microsoft]

Công ty cũng cho biết đang làm việc để khắc phục các sự cố với Bing Chat. Các sự cố này bao gồm lỗi chính tả,thông tin sai lệch và những phản hồi kì quái.

Những phản hồi kỳ lạ đã được biết tới nay bao gồm việc Bing Chat nói với một nhà báo của tờ New York Times rằng hãy phá bỏ cuộc hôn nhân của mình để kết hôn với nó. Ngoài ra AI này còn yêu cầu một người dùng Reddit xin lỗi sau khi người này đưa ra câu hỏi về việc chúng ta đang sống ở năm 2022 hay 2023.

Microsoft cho biết rằng họ đã điều chỉnh mô hình AI và tăng gấp bốn lần lượng dữ liệu mà nó có thể sử dụng để tạo ra câu trả lời. Microsoft cũng sẽ cung cấp cho người dùng nhiều quyền kiểm soát hơn, đối với việc họ muốn câu trả lời chính xác hơn - nhờ sử dụng công nghệ Bing AI độc quyền của Microsoft - hay họ sẽ muốn các câu trả lời sáng tạo hơn - nhờ vào công nghệ ChatGPT của OpenAI.

Chức năng trò chuyện dựa trên AI của Bing hiện vẫn đang trong giai đoạn thử nghiệm và người dùng sẽ phải vào một danh sách chờ để có cơ hội tiếp xúc với trí thông minh nhân tạo của Microsoft.

Thông qua công cụ này, Microsoft hy vọng sẽ có một khởi đầu mới thuận lợi, cho điều mà một số người đánh giá sẽ là cuộc cách mạng tiếp theo trong lĩnh vực tra cứu thông tin trên Internet.

ChatGPT đã gây ra tiếng vang lớn khi ra mắt vào tháng 11. Nhưng chính OpenAI đã cảnh báo về những cạm bẫy tiềm ẩn trong nó và Microsoft cũng đã thừa nhận về những hạn chế mà trí thông minh nhân tạo mang tới.

Bất chấp những khả năng ấn tượng của AI, vẫn có những lo ngại về việc trí tuệ nhân tạo sẽ được sử dụng cho các mục đích bất chính, như truyền bá thông tin sai lệch hay tạo ra các email lừa đảo.

Với việc tích hợp AI vào Bing, Microsoft cũng muốn vượt lên trên Google, công ty đã công bố mô hình trò chuyện dựa trên AI mang tên Bard vào tuần trước. Bard cũng gặp những vấn đề liên quan tới lỗi kiểm chứng thông tin và có màn trình diễn không được ấn tượng trước công chúng.

Trong bài đăng trên blog mới đây, Microsoft cho biết đã đưa ra những hạn chế trong việc trò chuyện với AI mới của công ty, dựa trên thông tin thu thập được từ bản thử nghiệm trước đây.

"Dữ liệu của chúng tôi cho thấy rằng đại đa số các bạn sẽ tìm thấy câu trả lời cho vấn đề của mình chỉ trong 5 lượt hỏi đáp, và chỉ  khoảng 1% các cuộc trò chuyện có hơn 50 tin nhắn qua lại. Khi tiếp tục nhận được phản hồi của bạn, chúng tôi sẽ xem xét việc nới dần các giới hạn, để nâng cao hơn nữa trải nghiệm người dùng"./.

(Vietnam+)

Tin cùng chuyên mục