ChatGPT berpotensi bocorkan rahasia dan data pribadi
Risiko ini menggarisbawahi pentingnya mengambil tindakan pencegahan yang diperlukan saat mengintegrasikan AI Generatif seperti ChatGPT.
ChatGPT dan Kecerdasan Buatan Generatif (AI Generatif) lainnya menimbulkan ancaman jangka panjang bagi masyarakat karena berpotensi membocorkan data pribadi dan perusahaan yang rahasia dan sensitif.
Menurut laporan baru-baru ini oleh Team8, sebuah perusahaan Israel yang berspesialisasi dalam keamanan siber, data, dan fintech; ketika perusahaan mengadopsi teknologi AI Generatif, mereka dapat membuka kemungkinan bocornya informasi konsumen dan bisnis yang sensitif serta pribadi seperti kekayaan intelektual, informasi rahasia, kode sumber, dan rahasia dagang.
Dilansir dari Gizmochina, laporan tersebut lebih lanjut menyatakan bahwa ada kemungkinan besar data dibagikan dengan pihak ketiga secara lebih sering dan tidak dapat diprediksi, karena penerimaan AI Generatif yang meluas dan integrasinya dengan aplikasi pihak ketiga.
Selain kebocoran data, AI Generatif juga dapat digunakan oleh pelaku ancaman untuk tujuan tidak bertanggung jawab, seperti serangan phishing, rekayasa sosial, penipuan, dan aktivitas jahat lainnya. Apalagi dengan AI Generatif, menulis malware akan menjadi lebih mudah dan lazim.
Laporan tersebut juga menekankan potensi risiko yang ditimbulkan oleh aplikasi pihak ketiga yang menggunakan aplikasi AI Generatif, sehingga dapat memungkinkan akses tidak sah ke email dan browser web. Jika terjadi celah seperti itu, penyerang dapat melakukan tindakan atas nama pengguna.