Apple phát triển tính năng nhằm ngăn chặn lạm dụng tình dục trẻ em

Phần mềm điều chỉnh cho hệ điều hành của Apple sẽ giám sát hình ảnh, cho phép Apple báo cáo những phát hiện lên Trung tâm Quốc gia tìm kiếm trẻ em mất tích và bị lạm dụng.
Apple phát triển tính năng nhằm ngăn chặn lạm dụng tình dục trẻ em ảnh 1(Nguồn: thefastnewz.com)

Ngày 5/8, Apple thông báo các thiết bị iPhone và iPad sẽ sớm được trang bị phần mềm giúp ngăn chặn nạn lạm dụng tình dục trẻ em, theo đó có thể phát hiện những hình ảnh có nội dung này khi chúng được tải lên bộ nhớ iCloud, sau đó sẽ báo cáo cho các cơ quan thực thi pháp luật.

Theo thông báo của tập đoàn công nghệ có trụ sở tại Thung lũng Silicon ở Mỹ, phần mềm điều chỉnh cho hệ điều hành của Apple sẽ giám sát hình ảnh, cho phép Apple báo cáo những phát hiện lên Trung tâm Quốc gia tìm kiếm trẻ em mất tích và bị lạm dụng.

Apple chia sẻ: "Chúng tôi muốn giúp bảo vệ trẻ em thoát khỏi những kẻ săn mồi thông qua các công cụ giao tiếp xã hội để dụ dỗ và lợi dụng trẻ em, đồng thời hạn chế việc phát tán những hình ảnh có nội dung CSAM."

Công nghệ mới sẽ cho phép hệ điều hành của điện thoại tìm ra những hình ảnh tiêu cực trên điện thoại của người dùng, sau đó “gắn báo động” các hình ảnh đó khi nó được tải lên iCloud.

Tính năng này là một phần trong hàng loạt công cụ mà Apple đang hướng đến trên các thiết bị di động. Ngoài ra, ứng dụng nhắn tin trên iPhone của Apple cũng sẽ sử dụng chức năng để nhận biết và cảnh báo trẻ em và cha mẹ chúng khi nhận hoặc gửi những hình ảnh mang tính kích động tình dục.

Mặc dù vậy, một số người ủng hộ quyền riêng tư cho biết tính năng mới của Apple có thể “mở cánh cửa” để giám sát các bài phát biểu chính trị hoặc các nội dung khác trên iPhone.

[Nga phạt Twitter hơn 95.000 USD do không xóa nội dung bị cấm]

Giám đốc điều hành của Trung tâm Quốc gia tìm kiếm trẻ em mất tích và bị lợi dụng, ông John Clark cho biết: “Thực tế là quyền riêng tư và bảo vệ trẻ em có thể cùng tồn tại.”

Đây chính là cách hệ thống của Apple đang triển khai. Các quan chức thực thi pháp luật duy trì cơ sở dữ liệu về các hình ảnh CSAM và chuyển đổi những hình ảnh đó thành "mã băm" - mật mã dùng số, qua đó xác định hình ảnh một cách chính xác nhưng không khôi phục được.

Cho đến nay, hầu hết các tập đoàn công nghệ lớn khác như Alphabet của Google, Facebook và Microsoft Corp đều đã kiểm tra hình ảnh dựa trên cơ sở dữ liệu đã có về những hình ảnh khiêu dâm./.

(TTXVN/Vietnam+)

Tin cùng chuyên mục