Kebocoran data di server LLM: Risiko besar bagi perusahaan
Dalam sebuah laporan terbaru, diketahui adanya kebocoran data di server LLM yang mengancam keamanan perusahaan.
Ratusan server yang digunakan untuk membangun model bahasa besar (LLM) dan puluhan database vektor dilaporkan membocorkan informasi sensitif ke internet. Tentu saja, ini harus mendapatkan perhatian yang besar agar tidak menimbulkan masalah lebih besar lagi.
Dalam investigasi yang dilakukan oleh peneliti keamanan dari Legit, Naphtali Deutsch, ditemukan bahwa banyak perusahaan yang terburu-buru mengintegrasikan kecerdasan buatan (AI) tanpa memperhatikan keamanan alat-alat tersebut.
“Banyak programmer yang melihat alat-alat ini di internet, lalu mencoba menggunakannya tanpa memikirkan aspek keamanannya,” ujar Deutsch, seperti dilansir dari laman Darkreader (2/9).
Investigasi tersebut mengungkap bahwa ada 438 server Flowise, sebuah alat low-code untuk membangun aplikasi LLM, yang rentan dan dapat diakses oleh pihak yang tidak berwenang. Beberapa data sensitif yang ditemukan termasuk token akses GitHub, kunci API OpenAI, dan informasi konfigurasi lainnya.
“Dengan token API GitHub, Anda bisa mengakses private repository,” jelas Deutsch. Dia juga menyoroti potensi serangan lanjutan yang bisa dilakukan dengan data yang terekspos ini.