Untuk mengatasi kekhawatiran yang berkembang seputar kecerdasan buatan (AI), negara-negara industri Kelompok Tujuh (G7) telah mengumumkan kode etik sukarela untuk pengembangan AI.
Hal ini bertujuan untuk menyeimbangkan inovasi dengan pertimbangan etika, karena kode etik ini akan menjadi panduan bagi perusahaan yang terlibat dalam penelitian dan implementasi AI mutakhir.
Diprakarsai selama pertemuan pada bulan Mei yang dikenal sebagai proses AI Hiroshima, para pemimpin negara-negara G7, yang meliputi Kanada, Prancis, Jerman, Italia, Jepang, Inggris, dan Amerika Serikat, serta Uni Eropa, akhirnya mencapai kesepakatan.
Kode 11 poin ini menekankan pada "AI yang aman, terjamin, dan dapat dipercaya," yang menawarkan panduan bagi perusahaan untuk mengidentifikasi dan mengurangi risiko di sepanjang siklus hidup produk AI.
Baca juga: Elon Musk Ingin Jadikan X Sebagai Platform Layanan Keuangan
Kecerdasan Buatan
Daripada hanya menguraikan apa yang tidak boleh dilakukan, kode etik ini mendorong perusahaan untuk bersikap transparan.
Kode etik ini menyarankan agar perusahaan secara teratur menerbitkan laporan yang merinci kemampuan dan keterbatasan sistem AI mereka, serta penyalahgunaan yang diamati.
Hal ini dapat menjadi katalisator bagi budaya pengembangan AI yang bertanggung jawab, menggerakkan industri dari sikap reaktif menjadi proaktif dalam hal etika.
Sementara Uni Eropa seperti dikutip dari Gizmochina, telah menjadi pelopor dalam peraturan AI melalui Undang-Undang AI yang ketat, negara-negara lain telah mengambil pendekatan yang lebih berorientasi pada pertumbuhan ekonomi.
Baca juga: Cara Baru YouTube untuk Menjangkau Target Audiens
Dengan demikian, kode G7 berfungsi sebagai jalan tengah, menyelaraskan pendekatan global terhadap etika dan keamanan AI.
Menurut Vera Jourova, kepala digital Komisi Eropa, kode tersebut dapat bertindak sebagai jembatan hingga peraturan yang lebih konkret diberlakukan. [SeoTama]