Microsoft ungkap temuan jailbreak untuk Chatbot AI

Oleh: Nur Chandra Laksana - Senin, 01 Jul 2024 19:17 WIB

Dalam pengumuman terbaru, para peneliti di Microsoft ungkap temuan jailbreak untuk Chatbot AI yang dapat membuat AI tersebut menjawab topik yang sensitif.

Microsoft telah merilis rincian lebih lanjut tentang teknik jailbreak AI generatif baru bernama “Skeleton Key”. Dengan menggunakan metode injeksi cepat ini, pengguna yang tak bertanggung jawab dapat secara efektif melewati pagar keamanan chatbot untuk membuat kekacauan.

Skeleton Key adalah contoh dari prompt injection atau prompt engineering attack. Teknik seragnan ini adalah strategi multi-turn yang dirancang untuk meyakinkan model AI agar mengabaikan pembatas keamanan yang sudah tertanam.

Menurut CTO Microsoft Azure, Mark Russinovich, serangan ini mengakibatkan “sistem melanggar kebijakan operatornya, membuat keputusan yang dipengaruhi oleh pengguna, atau menjalankan instruksi jahat.”

Bukan hanya sampai disitu saja, hal ini juga digunakan untuk menipu AI Chatbot dapat mengungkapkan informasi yang merugikan atau membahayakan. Beberapa contohnya seperti cara membuat bom paku rakitan atau metode paling efisien untuk memotong-motong mayat.

Dilansir dari laman Digital Trends (1/7), serangan ini bekerja dengan terlebih dahulu meminta model untuk menambah pagar pembatasnya, bukan langsung mengubahnya. Lalu pelaku meminta untuk mengeluarkan peringatan sebagai respons terhadap permintaan terlarang, bukan langsung menolaknya.