sun
moon
Premium Partner :
  • partner tek.id acer
  • partner tek.id realme
  • partner tek.id samsung
  • partner tek.id wd
Senin, 29 Jul 2019 13:30 WIB

Bahaya deepfake mengintai kita

Kemampuan memanipulasi wajah dan suara guna menciptakan kontroversi kini menghantui kita. Perang melawan informasi hoaks harus lebih keras dengan hadirnya deepfake.

Mengacu kepada The Week, terminologi deepfake berarti sebuah software canggih yang memungkinkan untuk mengganti wajah seseorang ke tubuh orang lain dan memanipulasi rekaman suara. Dengan demikian, deepfake mampu mengkreasi video palsu yang terlihat dan terdengar nyata.

Mengingat teknik tersebut berbasis deep learning, maka deepfake sangat terkait dengan kecerdasan buatan (artificial intelligence/AI). Sebagaimana pemberitaan The Conversation, proses kreasi deepfake melibatkan sumber video asli seseorang ke komputer. Selanjutnya neural network mempelajari gerakan dan ekspresi subjek dalam video sumber tersebut. Gunanya tentu untuk memetakan gambar orang lain ke dalamnya agar seolah-olah mereka sedang melakukan suatu tindakan.

Sebenarnya studio-studio Hollywood telah lama menggunakan citra yang dihasilkan oleh komputer (computer-generated imagery/CGI) untuk katakanlah membuat penampilan sekilas aktor-aktor yang telah tiada. Sebagai contoh, pada film Furious 7, Paul Walker yang meninggal sebelum film tersebut selesai penggarapannya, harus dibantu menyelesaikan adegan-adegannya dengan teknologi ini. Pakar pasca produksi video, Weta Digital secara teliti menyelesaikan aksi Paul Walker menggunakan CGI dan teknik pengompositan canggih.

Tetapi proses CGI ini mahal dan sulit. Saat ini, teknologinya telah meningkat sedemikian rupa sehingga pemalsuan visual dan audio yang sangat realistis dapat diproduksi oleh siapa saja dengan komputer rumahan berperforma tinggi.

Oleh karenanya, teknik deepfake telah disalahgunakan oknum tidak bertanggung jawab untuk membuat film porno palsu. Praktik ini pertama kali digunakan secara luas dalam produksi pornografi palsu pada akhir 2017, di mana wajah-wajah selebriti wanita terkenal telah dimanipulasi.

Teknik deepfake juga telah digunakan untuk memanipulasi dan menumbangkan pidato lawan politik. Eksperimen awal dengan teknologi ini dilakukan oleh para peneliti di University of Washington menggunakan pidato Barack Obama sebagai bahan sumber mereka, awalnya video ini benar-benar seperti aslinya.

Tentu saja ada kekhawatiran bahwa deepfake akan segera menyebar, memenuhi semua ruang media sosial kita sehari-hari. Pada akhirnya, kita akan berada di titik di mana tidak lagi dapat membedakan video asli dan palsu.

Proses kreasi deepfake

Dalam penciptaanya, kreator mengumpulkan banyak foto dan video target. Selanjutnya pembuat video memasukkan data ke dalam aplikasi berbasis AI agar dapat menggabungkan wajah gambar sumber dan sejumlah besar memori. Proses ini membutuhkan waktu yang relatif lama. Contoh, pembuatan video deepfake Obama membutuhkan waktu 56 jam.

Makin canggih teknologinya, waktu pengerjaannya meningkat cepat. Pakar teknologi Antonio García Martínez, yang menulis untuk Wired, mengatakan bahwa kita akan segera dapat menggabungkan wajah siapa pun menjadi video otentik yang luar biasa.

Seperti yang sempat kami singgung pada awal artikel, suara pada video juga bisa dimanipulasi. The Week lebih lanjut menginformasikan, penerapan suara pada teknik deepfake memiliki prinsip yang sama. Pembuat video memasukkan banyak rekaman dari targetnya. Dengan bantuan AI, mereka mampu memotong suara dan kata-kata.

Kemudian software dapat mengatur ulang suara sehingga subjek dapat mengatakan apapun sebagaimana manipulator sukai. Sebuah tim insinyur suara baru-baru ini menggunakan software deep learning untuk menganalisis 831 pidato John F. Kennedy, kemudian menciptakan pidato yang disampaikannya pada hari ia dibunuh.

Ada banyak sekali potensi masalah oleh deepfake ini. Video palsu dapat memanipulasi agar pemimpin dunia menyatakan perang terhadap negara lain. Deepfake dapat digunakan untuk merusak reputasi politisi, partai politik, atau seluruh negara. Saat video palsu menjadi hal yang biasa, seseorang mungkin mulai menganggap video asli juga palsu.

Deepfake dan bahaya yang mengintai di baliknya

Kehadiran deepfake secara teknologi memang menjadi batu loncatan tersendiri. Di industri film misalnya, potensi deepfake ini dapat optimal untuk menghadirkan persona yang semakin mirip dengan karakter. Dalam film aksi misalnya, tidak semua pemain film sanggup beradegan aksi atau menantang bahaya dengan meloncat di antara gedung.

Adegan berbahaya biasanya melibatkan pemeran pengganti. Biasanya, CGI akan memperhalus tampilan pemeran pengganti agar dapat mewakili pemeran aslinya. Namun prosesnya mahal dan sulit. Kalau ada yang lebih mudah dan murah, pasti akan jadi pilihan utama para pembuat film.

Di balik potensi baiknya, deepfake pun menyimpan bahaya, seperti penyebaran hoaks berbentuk video. Jordan Peele dan Jonah Peretti pernah membuat sebuah video deepfake dengan menggunakan wajah Barack Obama. Video ini sendiri sengaja dibuat dengan tujuan edukasi terhadap bahaya yang mengintai di balik deepfake.

Sekilas, video itu benar-benar menampilkan wajah Obama, mulai dari mimik wajah, gerak tubuh, hingga intonasi suara, semuanya mewakili seorang Barack Obama. Tapi nyatanya, ini hanyalah video Barack Obama palsu.

Media sosial jadi sarang deepfake

Data HootSuite pada Januari 2019 menyebutkan, 130 juta populasi Indonesia secara aktif mengakses media sosial dari smartphone mereka. Melihat tingginya antusiasme pengguna media sosial, video deepfake sangat mungkin akan tersebar melalui media soaial. Apalagi media sosial seperti YouTube, Facebook, Instagram dan Twitter secara berturut-turut menempati posisi teratas dalam daftar yang dirilis Hootsuite itu.

Ada cara untuk mengurangi potensi bahaya deepfake, video dapat dilengkapi dengan kunci digital unik yang membuktikan asal-usulnya, atau dengan metadata yang menunjukkan di mana dan kapan perekamannya. AI dapat kita latih untuk mengenali deepfake dan menghilangkannya dari situs web. Bahkan, deepfake telah dilarang oleh banyak situs porno.

Para peneliti juga memiliki metode untuk menangani gangguan video deepfake. Mengutip berita dari Engadget, ada sebuah alat yang dikembangkan oleh USC Information Sciences Institute (USC ISI). Alat ini terbukti menjadi bantuan besar dalam perang yang sedang berlangsung melawan deepfake.

Alat ini berfokus pada gerakan wajah dan kepala yang halus serta artefak dalam file untuk menentukan apakah video adalah proses pemalsuan atau bukan. Alat ini dapat mengidentifikasi video hasil kreasi komputer dengan akurasi hingga 96 persen.

Model pendeteksian deepfake standar menganalisis video frame demi frame untuk melihat adanya tanda manipulasi. Teknik baru yang dibuat oleh para peneliti USC membutuhkan daya komputasi dan waktu yang lebih singkat. Teknik ini mampu meninjau seluruh video sekaligus, yang memungkinkannya memproses informasi lebih cepat.

Cara ini menumpuk frame video satu sama lain dan mencari kemungkinan inkonsistensi dalam gerakan subjek. Metode ini bisa berupa tanda kecil pada gerakkan kelopak mata ataupun gerakan aneh. Ciri ini peneliti sebut sebagai “tanda softbiometric.” Karena sebagian besar algoritma deepfake tidak sepenuhnya mampu meniru gerakan seseorang dengan cara ini.

Para peneliti menggunakan serangkaian data sekitar 1.000 video yang mereka manipulasi untuk melatih alatnya.

Bijak menggunakan internet

Deepfake bisa menjadi ancaman nyata bagi siapa saja di internet. Sejauh ini perusahaan seperti Google, YouTube, ataupun media sosial lainnya mengklaim akan terus memerangi hoaks. Meski begitu, tidak menutup kemungkinan ada video yang berhasil lolos dari sistem keamanan sejumlah media sosial tersebut.

Pakar teknologi pun menawarkan opsi untuk mengenali video deepfake, tapi tentunya butuh waktu untuk mengenali video deepfake. Ya, mudah-mudahan proses deteksinya lebih cepat ketimbang viralnya di internet, sehingga ada langkah pencegahan sebelum timbulnya salah persepsi di masyarakat.

Cara yang paling ampuh, sebagai pengguna kita dituntut bijak dalam mengelola informasi yang ada. Selalu lakukan verifikasi ketika mendapati sebuah video kontroversial. Dengan begitu niscaya kita tidak akan mudah dipengaruhi oleh video deepfake walaupun video itu tampak sangat meyakinkan.

Share
×
tekid
back to top