Newestindonesia.co.id, Model terbaru ChatGPT, yang digerakkan oleh large language model (LLM) GPT-5.2, dilaporkan mulai mengutip konten dari Grokipedia, sebuah ensiklopedia daring yang digagas oleh Elon Musk dan dikembangkan oleh perusahaan xAI, sebagai sumber referensi dalam respons AI-nya.
Temuan ini terungkap dalam serangkaian tes yang dilakukan oleh The Guardian, memicu perdebatan baru seputar kredibilitas informasi yang dihasilkan oleh sistem AI generatif terpopuler di dunia.
Hasil Investigasi dan Temuan Utama
Dalam lebih dari selusin pertanyaan uji coba, GPT-5.2 ChatGPT tercatat mengutip Grokipedia sampai sembilan kali, terutama dalam topik-topik yang kurang dikenal secara umum, seperti detail tentang perusahaan dan struktur sosial di Iran serta biografi sejarawan Inggris Sir Richard Evans. Pendekatan ini berbeda dari sumber tradisional seperti Wikipedia, yang selama ini umum digunakan untuk menguatkan jawaban AI.
Menurut laporan The Guardian, penggunaan Grokipedia ini tidak muncul dalam jawaban untuk isu-isu yang lebih umum atau kontroversial secara luas, namun lebih sering pada pertanyaan seputar topik khusus yang kurang terdokumentasi di sumber lain.
Apa Itu Grokipedia?
Grokipedia adalah sebuah ensiklopedia online yang seluruh kontennya dihasilkan oleh kecerdasan buatan, diluncurkan pada Oktober 2025 oleh perusahaan xAI, yang juga berada di bawah Elon Musk. Grokipedia dibuat sebagai pesaing Wikipedia, dengan klaim menyajikan “kebenaran maksimal” melalui AI tanpa keterlibatan penyunting manusia.
Namun sejak awal, Grokipedia mendapat kritik tajam karena sering dianggap memuat perspektif politik yang bias, terutama pada isu-isu sosial dan sejarah sensitif, serta kurangnya mekanisme editorial manusia yang dapat menjamin validitas informasi.
Reaksi Peneliti dan Ahli Disinformasi
Temuan penggunaan Grokipedia oleh GPT-5.2 memicu kekhawatiran di kalangan peneliti disinformasi. Nina Jankowicz, seorang ahli disinformasi, memperingatkan bahwa sumber yang dipandang kurang kredibel dapat memperoleh legitimasi yang tidak semestinya ketika dipakai oleh sistem AI besar:
“Orang mungkin berpikir, ‘oh, ChatGPT mengutip sumber itu, berarti itu sumber yang layak’ padahal belum tentu demikian,” ujarnya, menggarisbawahi risiko “pemberian kredibilitas palsu” terhadap sumber yang dipertanyakan.
Jankowicz juga menunjukkan bahwa masalah ini memperlihatkan tantangan serius dalam menghapus atau memperbaiki informasi yang salah setelah sudah terintegrasi dalam model AI besar.
OpenAI dan Tanggapan Resmi
Menanggapi temuan tersebut, perwakilan OpenAI mengatakan bahwa GPT-5.2 memang dirancang untuk mengambil informasi dari berbagai sumber publik yang luas, dengan filter keamanan yang dimaksudkan untuk meminimalkan risiko penyebaran konten berbahaya. Menurut mereka, sistem juga menunjukkan kepada pengguna sumber yang mendasari sebagian responsnya.
Namun, laporan Guardian menekankan bahwa Grokipedia tidak muncul sebagai sumber langsung yang dikutip dalam jawaban untuk seluruh isu kontroversial seperti HIV/AIDS atau bias media terhadap tokoh politik tertentu, yang menunjukkan penggunaan sumber ini lebih selektif.
Dampak yang Lebih Luas di Industri AI
Insiden ini bukan hanya menarik perhatian terhadap model OpenAI. Beberapa analis melihat ini sebagai bagian dari fenomena lebih luas yang disebut “LLM grooming” — sebuah strategi di mana aktor tertentu sengaja menyebarkan konten bermasalah untuk mempengaruhi basis pelatihan AI. Bahkan model lain seperti Anthropic’s Claude juga dilaporkan kadang merujuk Grokipedia dalam responsnya.
Tantangan dan Tantangan Regulator
Para ahli memperingatkan bahwa kurangnya transparansi dalam cara model AI memilih dan mereferensikan sumber informasi dapat memperburuk tantangan dalam regulasi dan kepercayaan publik terhadap teknologi ini. Selain itu, setelah informasi yang salah muncul di model besar seperti GPT-5.2, sangat sulit untuk memastikan apakah dan bagaimana koreksinya bisa efektif pada semua instans respons.
(DAW)
Dapatkan update berita terkini langsung di WhatsApp Anda.
Ikuti Sekarang



You must be logged in to post a comment Login