OpenAI dan Anthropic berbagi model AI dengan US AI Safety Institute untuk keselamatan yang bertanggung jawab
OpenAI dan Anthropic telah sepakat untuk berbagi model AI — sebelum dan sesudah rilis — dengan US AI Safety Institute.
OpenAI dan Anthropic telah sepakat untuk berbagi model AI — sebelum dan sesudah rilis — dengan US AI Safety Institute. Badan tersebut, yang dibentuk melalui perintah eksekutif oleh Presiden Biden pada tahun 2023, akan menawarkan feedback keselamatan kepada perusahaan-perusahaan tersebut untuk meningkatkan model mereka. CEO OpenAI Sam Altman mengisyaratkan kesepakatan tersebut awal bulan ini.
Dilansir dari Engadget (30/8), US AI Safety Institute tidak menyebutkan perusahaan lain yang menangani AI. Namun seorang juru bicara Google mengatakan bahwa perusahaan tersebut sedang berdiskusi dengan badan yang dimaksud dan akan memberikan informasi lebih lanjut saat tersedia. Minggu ini, Google mulai meluncurkan model chatbot dan generator gambar yang diperbarui untuk Gemini.
“Keselamatan sangat penting untuk mendorong inovasi teknologi yang inovatif. Dengan adanya kesepakatan ini, kami berharap dapat memulai kolaborasi teknis kami dengan Anthropic dan OpenAI untuk memajukan ilmu keselamatan AI,” tulis Elizabeth Kelly, direktur US AI Safety Institute, dalam sebuah pernyataan. “Kesepakatan ini hanyalah permulaan, tetapi merupakan tonggak penting saat kami bekerja untuk membantu mengelola masa depan AI secara bertanggung jawab.”
US AI Safety Institute merupakan bagian dari National Institute of Standards and Technology (NIST). Lembaga ini membuat dan menerbitkan pedoman, uji tolok ukur, dan praktik terbaik untuk menguji dan mengevaluasi sistem AI yang berpotensi berbahaya.
“Sama seperti AI yang berpotensi memberikan manfaat besar, AI juga berpotensi menyebabkan kerugian besar, mulai dari serangan siber yang didukung AI dalam skala yang melampaui apa pun yang pernah kita lihat sebelumnya hingga senjata biologis yang diformulasikan AI yang dapat membahayakan nyawa jutaan orang,” kata Wakil Presiden Kamala Harris pada akhir tahun 2023 setelah lembaga tersebut didirikan.
Perjanjian pertama semacam ini dilakukan melalui Nota Kesepahaman (formal tetapi tidak mengikat). Lembaga tersebut akan menerima akses ke "model baru utama" masing-masing perusahaan sebelum dan sesudah dirilis ke publik. Lembaga tersebut menggambarkan perjanjian ini sebagai penelitian kolaboratif yang mengurangi risiko yang akan mengevaluasi kemampuan dan keselamatan. US AI Safety Institute juga akan bekerja sama dengan UK AI Safety Institute.
Hal ini terjadi saat regulator federal dan negara bagian mencoba menetapkan pagar pembatas AI sementara teknologi yang berkembang pesat ini masih dalam tahap awal. Pada hari Rabu, majelis negara bagian California menyetujui RUU keselamatan AI (SB 10147) yang mewajibkan pengujian keselamatan untuk model AI yang menghabiskan biaya lebih dari $100 juta untuk pengembangan atau memerlukan sejumlah daya komputasi tertentu. RUU tersebut mengharuskan perusahaan AI untuk memiliki tombol pemutus yang dapat mematikan model jika model tersebut menjadi "sulit dikendalikan atau tidak terkendali."
Tidak seperti perjanjian yang tidak mengikat dengan pemerintah federal, RUU California akan memiliki beberapa kekuatan untuk penegakan hukum. RUU tersebut memberikan izin kepada jaksa agung negara bagian untuk menuntut jika pengembang AI tidak mematuhinya, terutama selama peristiwa tingkat ancaman. Namun, RUU tersebut masih memerlukan satu pemungutan suara proses lagi — dan tanda tangan Gubernur Gavin Newsom, yang akan memiliki waktu hingga 30 September untuk memutuskan apakah akan memberikan lampu hijau.