Microsoft bantu korban deepfake porno untuk hapus gambar dari pencarian Bing

Oleh: Lysti Rahma - Jumat, 06 Sep 2024 16:03 WIB

Microsoft mengumumkan kemitraannya dengan StopNCII, sebuah organisasi yang memungkinkan korban pornografi balas dendam untuk membuat sidik jari digital dari gambar eksplisit.

Kemajuan alat AI generatif telah menciptakan masalah baru di internet, yaitu maraknya gambar sintetis berisi konten vulgar yang menyerupai orang asli. Kamis lalu, Microsoft mengambil langkah besar untuk membantu para korban pornografi balas dendam dengan menyediakan alat yang dapat mencegah mesin pencari Bing mengembalikan gambar-gambar tersebut.

Dilansir dari Tech Crunch (6/9), Microsoft mengumumkan kemitraannya dengan StopNCII, sebuah organisasi yang memungkinkan korban pornografi balas dendam untuk membuat sidik jari digital dari gambar eksplisit, baik nyata maupun buatan, di perangkat mereka. Mitra StopNCII kemudian menggunakan sidik jari digital ini, atau yang dikenal sebagai "hash," untuk menghapus gambar dari platform mereka. Bing kini bergabung dengan Facebook, Instagram, Threads, TikTok, Snapchat, Reddit, Pornhub, dan OnlyFans dalam kemitraan ini, untuk menghentikan penyebaran konten eksplisit non-konsensual.

Dalam sebuah posting blog, Microsoft mengungkapkan bahwa mereka telah mengambil tindakan terhadap 268.000 gambar eksplisit yang muncul di pencarian gambar Bing dalam uji coba hingga akhir Agustus, menggunakan basis data StopNCII. Sebelumnya, Microsoft menawarkan alat pelaporan langsung, namun langkah ini dinilai tidak cukup.

“Kami mendengar kekhawatiran dari korban, ahli, dan pemangku kepentingan lain bahwa pelaporan oleh pengguna saja mungkin tidak cukup efektif atau tidak cukup mengatasi risiko bahwa gambar dapat diakses melalui pencarian,” tulis Microsoft dalam blognya pada Kamis.

Masalah ini bisa menjadi jauh lebih buruk jika terjadi pada mesin pencari yang lebih populer, seperti Google.