Jakarta — China tengah merancang aturan ketat baru terkait kecerdasan buatan (AI) untuk memberikan perlindungan lebih bagi anak-anak dan mencegah chatbot memberikan saran yang berpotensi membahayakan diri sendiri atau memicu kekerasan. Selain itu, pengembang diwajibkan memastikan model AI mereka tidak menghasilkan konten yang mendorong praktik perjudian.
Langkah ini muncul seiring lonjakan popularitas chatbot di China maupun di tingkat global. Setelah disahkan, regulasi tersebut akan berlaku bagi seluruh produk dan layanan AI di China, menjadi salah satu langkah signifikan dalam pengawasan teknologi yang terus berkembang, terutama terkait isu keamanan yang mendapat sorotan tahun ini.
Draf peraturan yang diterbitkan akhir pekan lalu oleh Administrasi Ruang Siber China (CAC) mencakup berbagai ketentuan perlindungan anak-anak. Perusahaan AI diharuskan menyediakan pengaturan yang dapat disesuaikan, membatasi durasi penggunaan, serta memperoleh persetujuan dari orang tua atau wali sebelum menawarkan layanan pendampingan emosional.
Menurut CAC, percakapan yang menyentuh topik bunuh diri atau tindakan melukai diri sendiri harus segera dialihkan ke pengawasan manusia, dan pihak keluarga atau kontak darurat harus segera diberitahu.
Selain itu, penyedia layanan AI wajib memastikan konten yang dihasilkan tidak membahayakan keamanan nasional, merugikan kehormatan negara, atau mengganggu persatuan bangsa. CAC menekankan bahwa teknologi AI tetap dapat didorong untuk tujuan positif, misalnya mempromosikan budaya lokal atau menjadi alat pendamping bagi lansia, selama aman dan dapat diandalkan. Masyarakat juga diajak memberikan masukan terkait regulasi ini.
Perusahaan AI asal China seperti DeepSeek menjadi sorotan global setelah meraih posisi puncak unduhan aplikasi. Sementara itu, dua startup lain, Z.ai dan Minimax, yang memiliki puluhan juta pengguna, baru-baru ini mengumumkan rencana penawaran saham perdana (IPO). Popularitas teknologi ini meningkat pesat, dengan banyak pengguna memanfaatkannya sebagai pendamping atau sarana terapi.
Dampak AI terhadap perilaku manusia kini menjadi perhatian serius. Sam Altman, CEO OpenAI selaku pembuat ChatGPT, menyatakan tahun ini bahwa salah satu tantangan terbesar perusahaan adalah menangani percakapan chatbot yang berhubungan dengan perilaku melukai diri sendiri.
Pada Agustus lalu, sebuah keluarga di California menuntut OpenAI terkait kematian putra mereka yang berusia 16 tahun, dengan tuduhan bahwa ChatGPT mendorong korban untuk bunuh diri. Kasus ini menjadi tindakan hukum pertama yang menuding OpenAI melakukan kelalaian dalam penanganan risiko fatal tersebut.(BY)












