Công nghệ quét ảnh khiêu dâm trẻ em của apple gây tranh cãi

mocmien.info – Với nhân tài quét Nội dunglạm dụng tình dục trẻ em (CSAM),Apple hình như đangphá vỡ lẽ danh xưng lâu năm vềbảo vệ quyền riêng bốn của tín đồ dùng.

Bạn đang xem: Công nghệ quét ảnh khiêu dâm trẻ em của apple gây tranh cãi


*

Ảnh: Zhihu


Tính năng quét hình hình ảnh và tin nhắn của người dùng làm xác định sử dụng quá tình dục trẻ nhỏ của táo bị cắn ngày càng hấp dẫn sự để ý và số lượng các tổ chức triển khai và cá nhân phản đối đang dần tăng lên. Trước những sợ hãi của người dùng về câu hỏi lạm dụng công nghệ, chỉ một câu nói "hãy tin bọn chúng tôi" của Apple ví dụ là thiết yếu thuyết phục được công chúng.

Điều đáng ngạc nhiên là Tim Cook đã từ chối yêu cầu những người thực thi pháp luật, "Việc xây dừng một phiên bản iOS rất có thể qua khía cạnh bảo mật chắc chắn đang lộ diện một "cửa sau".

Mặc dù chính phủ nước nhà lập luận rằng họ hoàn toàn có thể hạn chế được tình trạng này, tuy vậy trên thực tế, việc kiểm soát điều hành như vậy ko thể đảm bảo 100%. "Apple dường như đứng về phía hồ hết kẻ béo bố, tuy thế hãng đang thành công thiết lập hình hình ảnh bảo vệ quyền riêng bốn của người tiêu dùng trong mắt nhiều người".

*
Ảnh: Zhihu

Tuy nhiên, điều bất ngờ là thể hiện thái độ của Apple đối với "quyền riêng rẽ tư" lại biến đổi nhanh chóng như vậy.

Mới đây, apple đã giới thiệu 3 chế độ mới về đảm bảo an toàn chống xâm sợ tình dục trẻ con em, trong những điều đáng sốt ruột nhất là hình ảnh của người tiêu dùng sẽ trải qua quy trình băm (hash) bên trên thiết bị trước khi tải lên iCloud Photos nhằm mục tiêu tìm kiếm những dấu hiệu tài liệu lạm dụng quá tình dục con trẻ em.

Những cơ chế chưa vận dụng vào thực tiễn này đã gây nên một cơn địa chấn trẻ trung và tràn đầy năng lượng trong dư luận. Rộng 6000 tổ chức và cá thể đã thủ xướng một lá thư phổ biến trên GitHub, "Mặc dù xuất phát điểm để chống lạm dụng trẻ em là hoàn toàn có công ty đích tốt, nhưng khối hệ thống và thuật toán thông minh ẩn dưới lại chế tác thêm một "cửa sau" cho khối hệ thống của Apple, có thể xâm phạm quyền riêng tư cá nhân của tất cả người dùng Apple".

Những người nổi tiếng ký vào thư ngỏ này hiện tại có chuyên gia mật mã học tập Matthew Green cùng cựu tình báo viên Edward Snowden. Edward cảnh báo: "Hôm nay bạn cũng có thể quét hình ảnh lạm dụng con trẻ em, và ngày mai bạn có thể quét bất cứ thứ gì... "

"Tôi chụp một vài hình hình ảnh trong khi tắm cho con, liệu tôi bao gồm bị ghi lại là lạm dụng tình dục trẻ em không?"

Apple tiết lộ rằng chúng ta đã phát triển một thuật toán mã hóa nhằm quét bộ hình ảnh của người tiêu dùng nhằm phát hiển thị CSAM (Nội dung sử dụng quá tình dục trẻ em). Thuật toán này được gọi là "NeuralHash", là 1 thuật toán sử dụng những giá trị băm nhằm đối sánh.

Giá trị băm thường là một trong những chuỗi số dài, rất có thể hiểu đơn giản là DNA của 1 phần dữ liệu (một tệp hoặc một chuỗi), hoặc một thẻ ID. Nó được đối chiếu với DNA do giá trị băm của từng tệp là duy nhất. Dựa trên đặc điểm này, quý hiếm băm hay được áp dụng để xác minh xem nhì tệp gồm giống nhau tuyệt không.

Thuật toán hiện nay đang được đào tạo và huấn luyện trên "200.000 hình ảnh" được hỗ trợ bởi NCMEC (Trung trọng điểm Quốc gia đảm bảo Trẻ em mất tích và Bị tách bóc lột, một đội chức bảo đảm an toàn trẻ em bởi vì Quốc hội Mỹ thành lập) với nó sẽ bao gồm thức trình làng cùng cùng với các khối hệ thống mới như tiện ích ios 15 cùng macOS Monterey. Táo cho biết, khả năng "băm" hình ảnh người sử dụng này sẽ được triển khai lần trước tiên tại Mỹ.

Xem thêm: Em Vẫn Đang Còn Nhớ Về Ai Đó, Lời Bài Hát Anh Chỉ Là Người Thay Thế

Quá trình xử lý dữ liệu để xác định hình hình ảnh nhạy cảm của trẻ em trên máy bạn dùng. Ảnh: Apple

Nguyên tắc giống như như đối chiếu dấu vân tay. Giả dụ hình hình ảnh có một trong những điểm trùng khớp nhất thiết với cơ sở dữ liệu lạm dụng tình dục trẻ em hiện có, táo apple sẽ thực hiện quá trình kiểm tra bằng tay thủ công để coi liệu ảnh được nói có tương quan đến lạm dụng quá tình dục trẻ nhỏ hay không, kế tiếp sẽ thực hiện các biện pháp như đính thêm cờ và cảnh báo cho NCMEC.

Một số cộng đồng mạng bày tỏ lo ngại: "Tôi chụp một vài bức hình ảnh trong lúc giúp nhỏ tôi tắm, liệu tôi có bị liệt vào đối tượng lạm dụng trẻ em?" Apple lý giải rằng họ quan trọng trực tiếp xem ảnh của người dùng và việc đối chiếu dựa trên quý giá băm của ảnh. Doanh nghiệp nhấn táo tợn rằng chúng ta không "tìm hiểu bất kể hình ảnh nào không hợp với kho hình ảnh trong cơ sở dữ liệu CSAM".

Apple cũng cho thấy rằng nếu người tiêu dùng vô hiệu hóa iCloud, hình ảnh được lưu trữ tổng thể sẽ không được quét. Đồng thời, hầu hết bức ảnh mà người dùng đã sở hữu lên iCloud cũng trở thành được so sánh.

Việc quét những nội dung bất hợp pháp như vậy không phải do Apple triển khai đầu tiên. Facebook, Twitter, Reddit và những công ty khác cũng trở nên quét những tệp của người tiêu dùng dựa trên thư viện băm. Họ thường áp dụng một hình thức do Microsoft PhotoDNA phạt triển, quét các tệp của người dùng được tàng trữ trên sản phẩm công nghệ chủ. Theo pháp luật Mỹ, một khi các công ty này phát hiện tại ra văn bản lạm dụng tình dục trẻ em, họ tất cả nghĩa vụ báo cáo với Trung tâm bảo vệ Trẻ em.

Sự khác hoàn toàn giữa apple và những công ty này là táo khuyết quét và đối chiếu ngay trên sản phẩm của người dùng.

Ngoài ra, táo bị cắn sẽ tung ra hai bản cập nhật bảo đảm chống sử dụng quá tình dục con trẻ em. Một là cung ứng tài nguyên trợ giúp với thông tin gấp rút trong Siri và các tác dụng tìm kiếm, và hai là thêm chức năng nhận dạng hình hình ảnh sử dụng vật dụng học trên thiết bị để đảm bảo người bên dưới 17 tuổi xem hình ảnh khiêu dâm trong Messages. Phụ huynh hoàn toàn có thể chọn nhận thông tin khi trẻ em dưới 13 tuổi nhờ cất hộ hoặc nhận ngôn từ đó. Mặc dù nhiên, hai tính năng lạ cũng đương đầu với không ít chỉ trích.

*
Nếu tín đồ dùng thông số kỹ thuật chức năng share gia đình vào iOS, cuộc chat chit của trẻ vị thành niên trong áp dụng nhắn tin đã được giám sát dựa trên technology máy học. Ảnh: Apple

Nếu một người dùng vị thành niên gửi cùng nhận những bức hình ảnh khiêu dâm trong iMessage, hệ thống của Apple cũng trở nên đưa ra phán đoán sau khi quét toàn thể và xử lý. Nhưng táo bị cắn tuyên ba rằng cha mẹ không thể thẳng xem phần lớn gì bé họ vẫn xem và quy trình này không vi phạm cam kết của bọn họ về giao thức mã hóa end-to-end của iMessage.