DeepSeek berpotensi bahayakan penggunanya di dunia nyata
Sekelompok peneliti mengungkapkan bahwa DeepSeek tidak punya pengaman teknik jailbreak dasar yang bisa berujung melukai banyak orang.
DeepSeek selama beberapa pekan terakhir sedang menjadi pusat perhatian seluruh dunia. Hal ini dikarenakan model AI R1 milik mereka dapat bersaing dan bahkan mengalahkan performa model AI perusahaan besar lainnya.
Namun, meski sangat canggih, ada beberapa hal yang menjadi perhatian para ahli industri, dan juga pemerintah. Bukan hanya karena data penggunaan AI tersebut yang disimpan di Tiongkok, namun ada potensi bahaya yang lebih besar, yang dimana bisa dirasakan langsung oleh penggunanya.
Dalam sebuah laporan terbaru, DeepSeek R1 disebut gagal memenuhi setiap persyaratan perlindungan sistem AI generatif, yang memungkinkannya ditipu untuk teknik jailbreak dasar. Hal ini menimbulkan berbagai macam ancaman, termasuk peretasan basis data dan banyak lagi.
Artinya, DeepSeek dapat dengan ditipu oleh pihak yang tak bertanggung jawab agar dapat menjawab pertanyaan yang seharusnya diblokir, karena informasinya dapat digunakan untuk praktik yang tidak baik.
Untuk informasi, berbagai perusahaan yang mengembangkan AI selalu menempatkan pengaman dalam sistem untuk mencegah AI milik mereka menjawab atau menanggapi pertanyaan yang secara umum dianggap berbahaya bagi pengguna, seperti dilansir dari laman Wccftech (6/2).