Uni Eropa pimpin regulasi AI global dengan panduan komprehensif

Oleh: Erlan - Jumat, 15 Nov 2024 15:10 WIB

Uni Eropa telah menerbitkan draft pertama dari Code of Practice untuk model AI umum (General Purpose AI, GPAI).

Source: Uni Eropa

Uni Eropa telah menerbitkan draft pertama dari Code of Practice untuk model AI umum (General Purpose AI, GPAI). Dokumen ini, yang masih dalam proses pengembangan hingga bulan Mei 2025, memberikan panduan tentang bagaimana mengelola risiko dan mematuhi peraturan yang ditetapkan dalam AI Act Uni Eropa yang mulai berlaku pada 1 Agustus 2024.

Dilansir dari Engadget (15/11), dokumen ini mencakup beberapa area inti untuk pembuat GPAI, termasuk transparansi, kepatuhan hak cipta, penilaian risiko, dan mitigasi risiko teknis/governance. Model yang diatur oleh peraturan ini adalah model yang dilatih dengan daya komputasi lebih dari 10 septilion FLOP, yang mencakup perusahaan besar seperti OpenAI, Google, Meta, Anthropic, dan Mistral.

Panduan ini menekankan pentingnya transparansi dalam pengembangan AI dan memerlukan perusahaan untuk memberikan informasi tentang web crawler yang digunakan dalam pelatihan model mereka, yang merupakan kekhawatiran utama bagi pemilik hak cipta dan kreator. Bagian penilaian risiko bertujuan untuk mencegah tindak pidana siber, diskriminasi yang meluas, dan kehilangan kendali atas AI.

Selain itu, pembuat AI diharapkan untuk mengadopsi Safety and Security Framework (SSF) untuk memecah risiko manajemen mereka dan mengurangi risiko tersebut secara proporsional terhadap risiko sistemik mereka. Aturan ini juga mencakup area teknis seperti melindungi data model, memberikan kontrol akses yang aman, dan terus memperbarui efektivitasnya.

Penalti bagi pelanggaran AI Act bisa sangat besar, dengan denda hingga €35 juta atau 7% dari pendapatan tahunan global perusahaan, yang lebih tinggi. Uni Eropa mengundang feedback dari para pemain industri melalui platform Futurium hingga 28 November 2024 untuk membantu menyesuaikan panduan ini sebelum menjadi peraturan yang mengikat.