Tháng trước, Apple công bố kế hoạch triển khai công cụ nhằm bảo vệ trẻ khỏi kẻ xấu. Trong số đó có tính năng quét ảnh iCloud để tìm hình ảnh chứa nội dung lạm dụng tình dục trẻ em (CSAM), từ đó hạn chế sự phát tán những nội dung có thể làm tổn hại trẻ.
Tuy nhiên, Apple nhanh chóng vấp phải làn sóng phản đối trên toàn cầu về nguy cơ vi phạm quyền riêng tư từ các nhóm bảo vệ nhân quyền, các nhà nghiên cứu, khách hàng... Thậm chí, chính nhân viên của hãng cũng chỉ trích kế hoạch cho ra mắt tính năng nay.
Do đó, theo The Verge, Apple quyết định dành thêm thời gian cải tiến và hoàn thiện tính năng mà họ đánh giá là cực kỳ quan trọng và an toàn cho trẻ em này.
Tính năng bảo vệ trẻ của Apple sẽ gồm nhiều bước, như Siri sẽ chặn người dùng tìm kiếm về CSAM. Gói lưu trữ iCloud Family cũng sẽ làm mờ bức ảnh có khả năng phản cảm, sau đó cho phép đứa trẻ quyết định có tiếp tục xem hay không. Nếu trẻ vẫn xem, cha mẹ chúng sẽ nhận được thông báo.
Hệ thống cũng quét hình ảnh lưu trữ trong iCloud và trên thiết bị người dùng để tìm hình ảnh CSAM và báo cho người phụ trách kiểm duyệt của Apple. Người này sau đó có thể gửi báo cáo và thông tin của người dùng đó đến các cơ quan chức năng phụ trách về trẻ em.
Lo ngại lớn nhất của người dùng là việc chính phủ các nước có thể lợi dụng tính năng này để kiểm soát tin nhắn hoặc các thông tin khác trên thiết bị. Bên cạnh đó, việc quét ảnh cũng khiến nhiều người băn khoăn liệu Apple có theo dõi các thông tin khác nữa hay không. Apple tuyên bố iMessage và iCloud vẫn sẽ được mã hoá an toàn.
Apple hiện chưa công bố ngày sẽ triển khai dự kiến. Trước đó, tính năng này được cho là sẽ ra mắt cuối năm nay như một phần của iOS 15.
Ý kiến ()