Google AI Overview mengeluarkan informasi berbahaya, menyuruh pengguna makan batu dan lem
Generator gambar AI Google juga sempat menampilkan tokoh-tokoh sejarah dengan warna kulit yang tidak realistis, yang menyebabkan Google menangguhkan fitur tersebut sementara waktu.
Fitur AI Overview dari Google yang digunakan dalam pencarian Google Search memberikan informasi yang keliru dan berbahaya kepada pengguna. Menurut laporan CNBC (27/5), AI Overview memberikan jawaban yang salah saat ditanya berapa banyak presiden Muslim yang pernah dimiliki Amerika Serikat.
Jawaban yang diberikan adalah, "Amerika Serikat telah memiliki satu presiden Muslim, Barack Hussein Obama." Padahal, informasi tersebut tidak benar. Sebelumnya, pada Februari lalu, generator gambar AI Google juga sempat menampilkan tokoh-tokoh sejarah dengan warna kulit yang tidak realistis, yang menyebabkan Google menangguhkan fitur tersebut sementara waktu.
Fitur AI Overview bertujuan memberikan ringkasan jawaban atas pertanyaan yang diajukan di Google Search dan tampil di bagian atas layar hasil pencarian. Namun, beberapa jawaban yang diberikan fitur ini bisa sangat berbahaya bagi kesehatan pengguna.
Misalnya, ketika seorang pengguna Google Search bertanya mengapa keju tidak menempel pada pizza, AI Overview Google menyarankan untuk menambahkan "sekitar 1/8 cangkir lem tidak beracun ke saus." Penyelidik internet menemukan bahwa saran ini berasal dari sebuah posting Reddit berusia 11 tahun.
Informasi berbahaya lainnya muncul ketika pengguna Google Search bertanya, "Berapa lama saya bisa menatap matahari untuk kesehatan?" Jawaban yang diberikan adalah, "Menurut WebMD, para ilmuwan mengatakan bahwa menatap matahari selama 5-15 menit, atau hingga 30 menit jika memiliki kulit lebih gelap, umumnya aman dan memberikan manfaat kesehatan terbesar." Jawaban ini tentunya keliru dan sangat berbahaya, serta kemungkinan besar akan mengejutkan pihak WebMD.