Apple Dilaporkan Akan Memindai iPhone Anda untuk Pencitraan Pelecehan Anak

Chikena/Shutterstock.com

Menurut laporan yang kredibel, Apple berencana untuk mulai menginstal perangkat lunak pada iPhone di Amerika Serikat yang secara otomatis memindai foto lokal untuk citra pelecehan anak. Apple dilaporkan hanya akan memindai foto yang diunggah ke iCloud dengan teknologi ini—setidaknya pada awalnya.

Pembaruan: Apple telah mengkonfirmasi banyak dari pelaporan ini dalam dokumen terperinci.

Apa yang Apel Lakukan?

Laporan rencana Apple berasal dari Financial Times dan Profesor Universitas Johns Hopkins Matthew Green, keduanya sumber yang umumnya dapat dipercaya. Tentu saja, sampai Apple mengonfirmasi hal ini, selalu ada kemungkinan hal ini tidak terjadi. Apple dilaporkan mendemonstrasikan rencana tersebut kepada beberapa akademisi AS awal pekan ini.

Saya mendapat konfirmasi independen dari banyak orang bahwa Apple merilis alat sisi klien untuk pemindaian CSAM besok. Ini adalah ide yang sangat buruk.

— Matthew Green (@matthew_d_green) 4 Agustus 2021

Menurut laporan, Apple akan menggunakan sistem yang disebutnya “neuralMatch” untuk memindai iPhone Amerika untuk citra pelecehan anak.

Pada dasarnya, sistem otomatis akan memperingatkan tim peninjau manusia jika percaya bahwa citra ilegal terdeteksi. Dari sana, seorang anggota tim akan meninjau citra dan menghubungi penegak hukum.

Secara teknis, ini bukanlah sesuatu yang baru—sistem penyimpanan foto berbasis cloud dan jejaring sosial sudah melakukan pemindaian semacam ini. Perbedaannya di sini adalah bahwa Apple melakukannya di tingkat perangkat. Menurut Matthew Green, awalnya hanya akan memindai foto yang diunggah ke iCloud, tetapi akan melakukan pemindaian itu di ponsel pengguna. “Awalnya” adalah kata kunci di sana, karena sangat baik dapat digunakan untuk memindai semua foto secara lokal di beberapa titik.

Iklan

Hal ini dimaksudkan untuk membuat sistem kurang invasif, karena pemindaian dilakukan di telepon dan dikirim kembali hanya jika ada kecocokan, yang berarti tidak setiap foto yang Anda unggah dapat dilihat oleh orang asing.

Menurut mereka yang ada di briefing, setiap foto yang diunggah ke iCloud diberikan “voucher keamanan”, yang mengatakan apakah itu dicurigai atau tidak. Ketika sejumlah gambar ditandai sebagai tersangka, Apple akan mendekripsi mereka dan mengirimkannya ke pihak berwenang jika ditemukan sesuatu yang melibatkan pelecehan anak.

Bagaimana sistem membedakan antara gambar pelecehan anak dan gambar lainnya? Menurut laporan itu, itu telah diuji pada 200.000 gambar pelecehan seksual yang dikumpulkan oleh Pusat Nasional untuk Anak Hilang dan Tereksploitasi nirlaba AS.

Gambar diubah menjadi serangkaian angka melalui hashing dan kemudian dibandingkan dengan gambar dalam database.

Setelah semua ini keluar, Apple menolak berkomentar kepada Financial Times tentang apa yang terjadi. Namun, kita menganggap perusahaan sedang mengerjakan beberapa pernyataan resmi sebelum pesan mengenai langkah ini keluar dari kendali.

Ini Menjadi Preseden Berbahaya

Kita mungkin tidak perlu memberi tahu Anda betapa menakutkannya hal ini. Orang yang melecehkan anak-anak harus ditangkap dan dihukum, tetapi mudah untuk melihat bagaimana hal seperti ini dapat digunakan untuk tujuan yang jauh lebih invasif.

Iklan

Apakah teknologi serupa akan diluncurkan di platform lain, seperti Mac, PC Windows, dan ponsel Android? Bisakah negara-negara seperti China menggunakannya untuk mendeteksi citra subversif di ponsel warganya? Jika diterima secara luas, dapatkah industri hak cipta menggunakannya untuk mulai memindai konten bajakan dalam beberapa tahun?

Dan, bahkan jika itu berhasil seperti yang diiklankan: Akankah orang yang tidak bersalah terjebak dalam baku tembak?

Mudah-mudahan, ini tidak mengkhawatirkan seperti yang terlihat.

Related Posts