Ngày 28/11, gã khổng lồ mạng xã hội Facebook cho biết đã phát hành một báo cáo cập nhật về cách họ nỗ lực phát hiện nội dung vi phạm quy tắc cộng đồng để chủ động xóa bỏ khỏi Facebook và Instagram.

Báo cáo cho thấy danh mục những vấn đề vi phạm các quy tắc của Facebook và số lượng các trường hợp vi phạm các tiêu chuẩn quy định.

Trong số rất nhiều nội dung vi phạm có ảnh khỏa thân trẻ em, lạm dụng tình dục trẻ em và tuyên truyền khủng bố, cũng như giao dịch vũ khí bất hợp pháp, buôn bán ma túy và tự tử.

[Lý do Facebook gỡ bỏ hàng triệu bài đăng trong 3 tháng qua]

"Nhóm chính sách nội dung của chúng tôi là một mạng lưới toàn cầu, làm việc 24 giờ và 365 ngày để theo dõi nội dung có khả năng gây nhiễu," Yoo Dong-yeong, một quan chức tại văn phòng Facebook khu vực châu Á-Thái Bình Dương, nói với các phóng viên ở Seoul, Hàn Quốc.

Facebook cho biết họ có 15.000 người làm công việc xem xét nội dung có hại và đưa ra những đánh giá về nội dung được báo cáo bằng hơn 50 ngôn ngữ.

Facebook cho biết khả năng phát hiện và loại bỏ nội dung có hại trên cả trang web và ứng dụng của mạng xã hội này đã được cải thiện rất nhiều.

Trên Facebook, 99% nội dung bị xóa là "chủ động được phát hiện." Trên Instagram, 94,6% nội dung bị xóa, qua chủ động phát hiện.

Khoảng 2,5 triệu bài đăng liên quan đến tự tử và tự làm hại bản thân đã bị gỡ xuống khỏi Facebook từ quý 4 năm ngoái đến quý 1 năm nay, trong khi 845.000 mẩu nội dung tương tự đã bị xóa khỏi Instagram./.

Việt Đức (Vietnam+)