Microsoft bantu korban deepfake porno untuk hapus gambar dari pencarian Bing
Microsoft mengumumkan kemitraannya dengan StopNCII, sebuah organisasi yang memungkinkan korban pornografi balas dendam untuk membuat sidik jari digital dari gambar eksplisit.
Kemajuan alat AI generatif telah menciptakan masalah baru di internet, yaitu maraknya gambar sintetis berisi konten vulgar yang menyerupai orang asli. Kamis lalu, Microsoft mengambil langkah besar untuk membantu para korban pornografi balas dendam dengan menyediakan alat yang dapat mencegah mesin pencari Bing mengembalikan gambar-gambar tersebut.
Dilansir dari Tech Crunch (6/9), Microsoft mengumumkan kemitraannya dengan StopNCII, sebuah organisasi yang memungkinkan korban pornografi balas dendam untuk membuat sidik jari digital dari gambar eksplisit, baik nyata maupun buatan, di perangkat mereka. Mitra StopNCII kemudian menggunakan sidik jari digital ini, atau yang dikenal sebagai "hash," untuk menghapus gambar dari platform mereka. Bing kini bergabung dengan Facebook, Instagram, Threads, TikTok, Snapchat, Reddit, Pornhub, dan OnlyFans dalam kemitraan ini, untuk menghentikan penyebaran konten eksplisit non-konsensual.
Dalam sebuah posting blog, Microsoft mengungkapkan bahwa mereka telah mengambil tindakan terhadap 268.000 gambar eksplisit yang muncul di pencarian gambar Bing dalam uji coba hingga akhir Agustus, menggunakan basis data StopNCII. Sebelumnya, Microsoft menawarkan alat pelaporan langsung, namun langkah ini dinilai tidak cukup.
“Kami mendengar kekhawatiran dari korban, ahli, dan pemangku kepentingan lain bahwa pelaporan oleh pengguna saja mungkin tidak cukup efektif atau tidak cukup mengatasi risiko bahwa gambar dapat diakses melalui pencarian,” tulis Microsoft dalam blognya pada Kamis.
Masalah ini bisa menjadi jauh lebih buruk jika terjadi pada mesin pencari yang lebih populer, seperti Google.
Google Search juga menyediakan alat untuk melaporkan dan menghapus gambar eksplisit dari hasil pencarian, namun Google mendapat kritik karena tidak bermitra dengan StopNCII. Menurut investigasi Wired, sejak 2020, pengguna Google di Korea Selatan telah melaporkan 170.000 tautan pencarian dan YouTube terkait konten seksual yang tidak diinginkan.
Masalah deepfake AI yang menampilkan gambar telanjang sudah menyebar luas. Alat StopNCII hanya bekerja untuk individu berusia di atas 18 tahun, namun situs “undressing” atau penghapus pakaian secara digital sudah menyebabkan masalah bagi siswa sekolah menengah di seluruh Amerika Serikat. Sayangnya, AS belum memiliki undang-undang terkait pornografi deepfake AI, sehingga negara ini masih mengandalkan aturan di tingkat negara bagian dan lokal.
Jaksa di San Francisco mengumumkan gugatan pada bulan Agustus untuk menutup 16 situs “undressing” yang paling aktif. Menurut pelacak undang-undang pornografi deepfake yang dibuat oleh Wired, 23 negara bagian di Amerika telah memberlakukan hukum untuk menangani deepfake non-konsensual, sementara sembilan negara bagian menolak proposal tersebut.
Langkah Microsoft ini diharapkan dapat memberikan perlindungan lebih baik kepada korban dan mencegah penyebaran konten eksplisit yang merugikan di dunia maya.