Peneliti pertanyakan hasil riset Meta di 2023 tentang misinformasi Facebook di pemilu AS 2020
Dalam sebuah pemberitaan terbaru, para peneliti mengungkapkan keraguan mereka terhadap hasil riset Meta di 2023 tentang Facebook dan misinformasi di pemilu AS 2020.
Selama beberapa tahun belakangan ini, studi mengenai platform media sosial telah banyak dilakukan berbagai pihak dengan berbagai topik. Mulai dari Universitas, lembaga survei, hingga dari perusahaan itu sendiri telah dilakukan.
Namun, seperti “bisnis” lainnya, banyak orang yang percaya sebuah perusahaan yang mengumumkan hasil penelitian mereka sendiri banyak dipertanyakan. Soalnya, ada kepercayaan bahwa hasil tersebut telah dimodifikasi demi keuntungan pihak itu sendiri.
Itulah yang terjadi pada studi yang diluncurkan oleh Meta pada 2023 lalu. Penelitian yang diunggah ke jurnal Science tersebut menyatakan bahwa algoritma Facebook bukanlah penyebab misinformasi selama pemilu AS 2020.
Hal ini menimbulkan skeptisisme dari para peneliti. Soalnya, selama hampir satu dekade, peneliti telah mengungkapkan bahwa algoritma Facebook cenderung memperkuat konten berkualitas rendah dan menyebarkan misinformasi.
Penelitian tersebut didanai oleh Meta dan melibatkan beberapa karyawannya sebagai penulis. Penemuan ini menjadi sorotan luas, dengan Presiden Urusan Global Meta, Nick Clegg, mengklaim bahwa studi tersebut menunjukkan algoritma Facebook “tidak berpengaruh terdeteksi pada polarisasi, sikap politik, atau keyakinan.”
Namun, analisis terbaru dari tim peneliti Universitas Massachusetts Amherst yang dipimpin oleh Chhandak Bagch mempertanyakan hasil tersebut. Mereka mempertanyakan bahwa selama penelitian berlangsung, Facebook mungkin telah mengubah algoritmanya dimana dapat mempengaruhi temuan tersebut.
Dilansir dari laman The Conversation (11/11), tim penulis studi tersebut juga telah memberikan pernyataannya, dimana dia mengakui bahwa perubahan algoritmik Facebook bisa saja mempengaruhi hasil. Tapi tim penulis Meta tetap yakin dengan validitas temuan mereka.
Kontroversi ini menggarisbawahi bahaya yang muncul ketika perusahaan besar seperti Meta membiayai penelitian akademis tentang produk mereka sendiri. Hal ini mengingatkan pada taktik yang digunakan industri tembakau pada 1950-an untuk menciptakan keraguan mengenai dampak negatif rokok.
Mereka secara selektif mendanai penelitian yang “tidak meyakinkan” dan menggunakannya untuk mempertahankan citra publik yang baik.
Dalam konteks Meta, kritik menyoroti bahwa perusahaan menggunakan kekuatan pendanaannya untuk mengarahkan narasi publik dan menyebarkan keraguan terhadap dampak algoritma mereka. Meta juga memiliki pengaruh besar terhadap data penelitian dan algoritma yang dipelajari, yang memungkinkan mereka memanipulasi eksperimen untuk mencapai hasil yang diinginkan.
Penelitian tahun 2023 menunjukkan bahwa algoritma Facebook mengurangi paparan pengguna terhadap berita tidak dapat dipercaya. Eksperimen ini membandingkan dampak feed algoritmik standar dengan feed kronologis.
Namun, Meta diduga mengubah algoritma umpan berita selama penelitian berlangsung untuk meningkatkan konten terpercaya, sehingga mempengaruhi hasil studi. Perubahan ini bersifat sementara, karena pada Maret 2021 Meta mengembalikan algoritma feed berita ke aslinya.
Tapi, studi yang telah diterbitkan terus menjadi alat untuk mempertahankan citra bahwa algoritma mereka tidak memperparah misinformasi.
Kekuatan perusahaan media sosial untuk mempengaruhi persepsi publik terhadap algoritma mereka belum pernah terjadi sebelumnya. Dengan mengendalikan data, mereka juga mengendalikan narasi penelitian tentang dampaknya.
Hal ini menunjukkan perlunya transparansi lebih besar, akses data terbuka, dan pengawasan independen terhadap algoritma media sosial.
Sampai pengawasan independen diterapkan, perusahaan seperti Meta tetap memiliki kemampuan untuk memprioritaskan keuntungan daripada kebutuhan masyarakat, menciptakan ilusi kredibilitas dengan cara yang mirip dengan “pedagang keraguan” di industri lain sebelumnya.