Newestindonesia.co.id, Tiongkok telah mengusulkan aturan baru yang ketat untuk kecerdasan buatan (AI) guna memberikan perlindungan bagi anak-anak dan mencegah chatbot memberikan nasihat yang dapat menyebabkan tindakan melukai diri sendiri atau kekerasan.
Berdasarkan peraturan yang direncanakan, para pengembang juga perlu memastikan bahwa model AI mereka tidak menghasilkan konten yang mempromosikan perjudian.
Pengumuman ini disampaikan setelah terjadi peningkatan jumlah chatbot yang diluncurkan di Tiongkok dan di seluruh dunia.
Setelah difinalisasi, aturan tersebut akan berlaku untuk produk dan layanan AI di Tiongkok, menandai langkah besar untuk mengatur teknologi yang berkembang pesat ini, yang telah mendapat sorotan tajam terkait masalah keamanan tahun ini.
Draf peraturan tersebut sepeti dilansir melalui BBC (31/12), yang diterbitkan pada akhir pekan oleh Administrasi Ruang Siber Tiongkok (CAC), mencakup langkah-langkah untuk melindungi anak-anak. Langkah-langkah tersebut termasuk mewajibkan perusahaan AI untuk menawarkan pengaturan yang dipersonalisasi, menetapkan batasan waktu penggunaan, dan mendapatkan persetujuan dari wali sebelum menyediakan layanan pendampingan emosional.
Pihak administrasi menyatakan bahwa operator chatbot harus menyerahkan kendali percakapan terkait bunuh diri atau melukai diri sendiri kepada manusia dan segera memberi tahu wali pengguna atau kontak darurat.
Penyedia AI harus memastikan bahwa layanan mereka tidak menghasilkan atau membagikan “konten yang membahayakan keamanan nasional, merusak kehormatan dan kepentingan nasional [atau] melemahkan persatuan nasional”, demikian bunyi pernyataan tersebut.
CAC menyatakan bahwa mereka mendorong adopsi AI, misalnya untuk mempromosikan budaya lokal dan menciptakan alat pendampingan bagi lansia, asalkan teknologi tersebut aman dan dapat diandalkan. Mereka juga meminta masukan dari masyarakat.
Perusahaan AI asal Tiongkok, DeepSeek, menjadi berita utama di seluruh dunia tahun ini setelah menduduki puncak tangga unduhan aplikasi.
Bulan ini, dua perusahaan rintisan Tiongkok, Z.ai dan Minimax, yang secara bersama-sama memiliki puluhan juta pengguna, mengumumkan rencana untuk melakukan penawaran umum perdana (IPO) di pasar saham.
Teknologi ini dengan cepat mendapatkan banyak pelanggan, sebagian menggunakannya untuk teman atau terapi .
Dampak AI terhadap perilaku manusia semakin menjadi sorotan dalam beberapa bulan terakhir.
Sam Altman, kepala OpenAI, pembuat ChatGPT, mengatakan tahun ini bahwa cara chatbot merespons percakapan terkait perilaku melukai diri sendiri adalah salah satu masalah paling sulit yang dihadapi perusahaan.
Pada bulan Agustus, sebuah keluarga di California menggugat OpenAI atas kematian putra mereka yang berusia 16 tahun , dengan tuduhan bahwa ChatGPT mendorongnya untuk bunuh diri. Gugatan tersebut menandai tindakan hukum pertama yang menuduh OpenAI melakukan kesalahan yang menyebabkan kematian.
Bulan ini, perusahaan tersebut mengiklankan lowongan untuk “kepala kesiapan” yang akan bertanggung jawab untuk melindungi diri dari risiko yang berasal dari model AI hingga kesehatan mental manusia dan keamanan siber.
Kandidat yang berhasil akan bertanggung jawab untuk melacak risiko AI yang dapat membahayakan manusia. Bapak Altman mengatakan : “Ini akan menjadi pekerjaan yang menegangkan, dan Anda akan langsung terjun ke dalam situasi yang sulit.”
Jika Anda mengalami kesusahan atau keputusasaan dan membutuhkan dukungan, Anda dapat berbicara dengan profesional kesehatan, atau organisasi yang menawarkan dukungan. Rincian bantuan yang tersedia di banyak negara dapat ditemukan di Befrienders Worldwide: www.befrienders.org .
Di Inggris, daftar organisasi yang dapat membantu tersedia di bbc.co.uk/actionline . Pembaca di AS dan Kanada dapat menghubungi saluran bantuan bunuh diri 988 atau mengunjungi situs webnya.
Editor: DAW



