Quyết tìm hình ảnh lạm dụng trẻ em, tập đoàn Apple tự lọt vào thế khó

11/08/2021, 11:09

TCDN - Chủ trương chống hành vi lạm dụng trẻ em của tập đoàn Apple khiến họ phải đối mặt với vấn đề quyền riêng tư và bảo mật thông tin người dùng.

Hôm 5/8, tập đoàn Apple tuyên bố tập đoàn sẽ triển khai công cụ bảo vệ hệ thống mới, ngăn chặn hành vi lạm dụng tình dục trẻ em bất hợp pháp (CSAM). Họ bắt đầu thử nghiệm quét toàn bộ hình ảnh trên iPhone, iPad mà người dùng đã tải lên iCloud để truy tìm vi phạm.

Ban lãnh đạo tập đoàn Apple nói công cụ của họ có tính riêng tư cao hơn so với hệ thống của Google và Microsoft. Nó chỉ sử dụng phần mềm được cung cấp thông qua bản cập nhật iOS mới. Dữ liệu lưu trữ ngay trên iPhone của người dùng. Apple khẳng định hoàn toàn không có mối liên hệ nào đến máy chủ của hãng.

Tuy nhiên, những người quan tâm đến quyền riêng tư vẫn lo ngại hệ thống này sẽ bị sử dụng để tìm hình ảnh với mục đích khác.

Hôm 8/8, tập đoàn Apple khẳng định trên trang web rằng họ không bao giờ thêm hình ảnh không phải CSAM vào “danh sách đen” theo yêu cầu của bất kỳ bên nào.

tim cook

“Apple sẽ từ chối mọi yêu cầu như vậy. Công cụ được xây dựng chỉ để phát hiện hình ảnh CSAM lưu trữ trong iCloud, đã được thẩm định bởi các chuyên gia tại NCMEC và những nhóm bảo vệ trẻ em khác”, tập đoàn nhấn mạnh trong tài liệu.

Giới chức đã gửi một số yêu cầu đến Apple, song tập đoàn kiên quyết bác bỏ vì những yêu cầu ấy làm suy giảm quyền riêng tư của người dùng. “Chúng tôi sẽ tiếp tục từ chối họ trong thời gian tới”, Apple cam kết.

Về mặt kỹ thuật, tập đoàn Apple cho biết hệ thống này mạnh hơn và riêng tư hơn nhiều so với các công cụ tương tự mà hãng đã tìm hiểu trước khi bắt tay vào phát triển.

Không giống như những hệ thống hiện tại, chạy trên máy chủ đám mây và giữ kín thông tin với các nhà nghiên cứu bảo mật, công cụ của Apple có thể được kiểm tra thông qua việc phân phối trên iOS.

Bằng cách chuyển một số quá trình xử lý lên thiết bị của người dùng, hãng có thể củng cố khả năng bảo mật, chẳng hạn như tìm các kết quả CSAM mà không cần chạy phần mềm trên máy chủ để kiểm tra từng bức ảnh. Ngoài ra, công cụ này chỉ quét những ảnh đã tải lên iCloud, bỏ qua các thư viện cá nhân trong máy.

Dù Apple đưa ra những cam kết rõ ràng về việc bảo vệ quyền riêng tư của người dùng, nhiều người vẫn lo ngại họ không thể từ chối yêu cầu của các chính phủ.

CNBC đưa tin Tổng giám đốc Tim Cook từng cam kết Apple sẽ tuân thủ luật pháp ở mọi quốc gia mà tập đoàn hoạt động kinh doanh. Do đó, họ sẽ rơi vào tình trạng “tiến thoái lưỡng nan” khi các nước yêu cầu bổ sung thêm những hình ảnh khác bên cạnh CSAM.

Apple tự coi họ là doanh nghiệp đi đầu trong vấn đề bảo vệ quyền riêng tư của người dùng, ngay cả khi phải đối mặt với luật pháp. Vào năm 2016, hãng ra tòa để bảo vệ hệ thống mã hóa trên thiết bị trong cuộc điều tra về một kẻ xả súng hàng loạt.

Tuy nhiên, áp lực mà hãng phải đối mặt ngày càng lớn hơn. Có nhiều hoạt động tội phạm sử dụng công cụ bảo mật trên iPhone để mã hóa tin nhắn, dữ liệu, khiến cơ quan thực thi pháp luật không thể thu thập.

Ngoài ra, hệ thống mới cũng vấp phải nghi ngờ về khả năng Apple lén lút sử dụng dữ liệu người dùng cho mục đích thâm nhập thị trường tài chính cá nhân và chăm sóc sức khỏe.

Các nhà phân tích lo ngại hệ thống sẽ quét cả ảnh riêng tư trên iPhone, thay vì chỉ kiểm tra dữ liệu đã được tải lên máy chủ. Các công ty khác thường chỉ quét ảnh mà người dùng lưu trữ trên đám mây của họ.

Hàng nghìn người đã ký vào bức thư ngỏ phản đối kế hoạch quét iPhone, iPad để tìm hình ảnh lạm dụng tình dục trẻ em, theo The Hill.

Đến chiều 9/8, thư ngỏ được công khai vào cuối tuần trước đã nhận được chữ ký của liên minh gần 30 tổ chức và hơn 6.600 cá nhân, trong đó có chuyên gia bảo mật, nhà nghiên cứu về quyền riêng tư và pháp lý.

Các tổ chức, cá nhân này bày tỏ lo ngại xung quanh chính sách mới của Apple về việc quét ảnh được lưu trữ trên iPhone, iPad để tìm CSAM, sau đó báo cáo cho Trung tâm Quốc gia về Trẻ em Mất tích và Bị lợi dụng của Mỹ, đồng thời khóa tài khoản người dùng vi phạm.

“Lạm dụng trẻ em là một vấn đề nghiêm trọng và nỗ lực chống lại nó mang mục đích tốt, nhưng công cụ của Apple có khả năng phá hỏng các biện pháp bảo vệ quyền riêng tư cho tất cả người dùng”, bức thư có đoạn viết.

Họ đặc biệt lo ngại dữ liệu này không được mã hóa đầu cuối, đồng thời công cụ kiểm tra của Apple có thể xâm hại đến thông tin cá nhân của người dùng trong quá trình quét thiết bị để tìm CSAM.

Các bên ký kết thư ngỏ yêu cầu Apple tạm dừng chính sách mới và phải “tái khẳng định cam kết của họ đối với việc mã hóa đầu cuối và bảo vệ quyền riêng tư của người dùng”.

Nhã Vy
Bạn đang đọc bài viết Quyết tìm hình ảnh lạm dụng trẻ em, tập đoàn Apple tự lọt vào thế khó tại chuyên mục Tài chính quốc tế của Tạp chí Tài chính doanh nghiệp. Liên hệ cung cấp thông tin và gửi tin bài cộng tác:

email: [email protected], hotline: 086 508 6899

Bình luận

Tin liên quan