Cara algoritma TikTok tangani hoaks untuk isu sensitif
Sebagai platform yang berkomitmen menjaga keamanan dan kenyamanan pengguna, TikTok terus mengoptimalkan algoritma.
Seperti yang telah kita ketahui, TikTok adalah platform media sosial yang memungkinkan pengguna untuk membuat dan membagikan video pendek. Aplikasi ini sangat populer di seluruh dunia, termasuk Indonesia, terutama di kalangan remaja dan anak muda. Namun, TikTok juga telah menjadi sasaran hoaks, apalagi saat ini di tengah hangatnya menjelang Pemilu serta konflik antara Palestina dan Israel.
TikTok sendiri telah berusaha untuk mengatasi masalah tersebut dengan menghapus informasi hoaks atau tidak benar demi kenyamanan penggunanya. Hari ini (1/12), platform dari ByteDance tersebut mengungkapkan cara kerja algoritma dan sistem moderasinya di talk show berjudul “Mengulik Lebih Jauh Cara Kerja Algoritma TikTok di Tengah Isu Hangat” yang digelar bersama Forum Wartawan Teknologi (FORWAT).
“Ini acara kedua kita bersama TikTok. Sekarang kita akan membahas isu-isu hangat. Ini sangat penting karena akan memasuki masa-masa Pemilu dan ada Palestina dan Israel. Ini sangat serius karena medsos out bisa menjadi sumber berita. Nah, bagaimana caranya menghindari hoaks dari isu sensitif seperti itu. Sekarang kita bahas segala macam isu yang berkaitan dengan algoritma”, kata Ketua Umum Forwat, Danang Arradian.
TikTok telah mengambil beberapa tindakan untuk mengatasi masalah hoaks di platform mereka. Sebagai platform berbagi video pendek, algoritma TikTok berdasarkan konten grafik. “Kami memiliki tanggung jawab untuk memastikan kontennya itu sudah sesuai komunitas kami. Video (yang diunggah ini masuk ke dalam moderasi, gabungan mesin dan manusia,” kata Head of Communications TikTok Indonesia.
Untuk moderasi mesin (AI), ini dikatakan masih “bersifat hitam putih”. Misalnya, jika ada video seseorang sedang memotong buah menggunakan pisau. Maka AI akan mendeteksi bahwa video ini aman untuk ditampilkan. Namun ketika pisau tersebut mengarah ke depan, maka dianggap membahayakan (padahal tidak), maka video tidak akan naik. Di sinilah moderasi manusia diturunkan.