Apple nói gì về kế hoạch chống lạm dụng tình dục trẻ em?

17/08/2021 11:36 GMT+7

Apple mới đây bổ sung thông tin chi tiết về kế hoạch quét các hình ảnh iCloud Photos để tìm tài liệu lạm dụng tình dục trẻ em (CSAM) qua iPhone và iPad của người dùng.

Theo The Verge, Apple đã phát hành một tài liệu mới về các biện pháp bảo vệ mà họ hy vọng sẽ làm tăng sự tin tưởng của người dùng vào sáng kiến này. Nó bao gồm quy tắc chỉ gắn cờ các hình ảnh được tìm thấy trong các cơ sở dữ liệu an toàn trẻ em với các cơ quan chính phủ khác nhau, và về mặt lý thuyết ngăn một quốc gia thêm nội dung không phải CSAM vào hệ thống.
Các bản phát hành iOS và iPadOS sắp tới của Apple sẽ tự động khớp các tài khoản iCloud Photos có trụ sở tại Mỹ với CSAM đã biết từ danh sách các hàm băm hình ảnh do các nhóm an toàn trẻ em tổng hợp. Trong khi nhiều công ty quét các dịch vụ lưu trữ đám mây từ xa, chiến lược dựa trên thiết bị của Apple đã bị một số chuyên gia về quyền riêng tư và mật mã chỉ trích gay gắt.
Bài báo cáo có tên “Đánh giá mô hình về mối đe dọa bảo mật trong các tính năng an toàn cho trẻ em của Apple” hy vọng sẽ xoa dịu những lo ngại về quyền riêng tư và bảo mật xung quanh việc triển khai đó. Nó được xây dựng dựa trên một cuộc phỏng vấn của Wall Street Journal với Craig Federighi, giám đốc điều hành của Apple.
Trong tài liệu này, Apple cho biết họ sẽ không dựa vào cơ sở dữ liệu duy nhất liên kết với chính phủ như cơ sở dữ liệu của Trung tâm quốc gia về trẻ em mất tích và bị bóc lột có trụ sở tại Mỹ, hoặc NCMEC để xác định CSAM. Thay vào đó, nó sẽ chỉ khớp các hình ảnh từ ít nhất hai nhóm liên kết ở các quốc gia khác nhau. Mục tiêu là không một chính phủ nào có thể bí mật chèn nội dung không liên quan cho mục đích kiểm duyệt, vì nó sẽ không khớp với các hàm băm trong bất kỳ cơ sở dữ liệu nào khác.
Apple đã đề cập đến khả năng sử dụng nhiều cơ sở dữ liệu an toàn cho trẻ em, nhưng cho đến hôm nay, hãng vẫn chưa giải thích về hệ thống chồng chéo. Trong một cuộc gọi với các phóng viên, Apple cho biết họ chỉ đặt tên NCMEC vì nó vẫn chưa hoàn tất các thỏa thuận với các nhóm khác.
Ban đầu, Apple sẽ chỉ gắn cờ một tài khoản iCloud nếu nó xác định 30 hình ảnh là CSAM. Báo cáo cho biết ngưỡng này được chọn để cung cấp “biên độ an toàn mạnh mẽ” để tránh tình huống giả.
Nó cũng cung cấp thêm thông tin về hệ thống kiểm tra mà Federighi đã đề cập. Danh sách các hàm băm CSAM đã biết của Apple sẽ được đưa vào iOS và iPadOS trên toàn thế giới, mặc dù hiện tại hệ thống quét sẽ chỉ chạy ở Mỹ. Apple sẽ cung cấp danh sách đầy đủ các hàm băm mà kiểm toán viên có thể kiểm tra dựa trên cơ sở dữ liệu an toàn cho trẻ em, một phương pháp khác để đảm bảo rằng nó sẽ không bí mật khớp với nhiều hình ảnh hơn. Hơn nữa, nó cho biết sẽ “từ chối mọi yêu cầu” khi người kiểm duyệt báo cáo “bất kỳ thứ gì khác ngoài tài liệu CSAM” cho các tài khoản bị gắn cờ - đề cập ngăn chặn khả năng sử dụng hệ thống này cho các loại giám sát khác.
Top

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.