TeknoLogiz – Dunia kecerdasan buatan kembali diguncang isu sensitif. Model terbaru ChatGPT, yakni GPT-5.2, dilaporkan mulai mengutip Grokipedia, ensiklopedia daring besutan Elon Musk, sebagai sumber informasi dalam berbagai responsnya. Temuan ini sontak memicu kekhawatiran serius akan potensi penyebaran informasi keliru dan bias di platform AI yang semakin banyak diandalkan publik.
Dalam serangkaian pengujian mendalam yang dilakukan oleh The Guardian, GPT-5.2 terbukti merujuk Grokipedia sebanyak sembilan kali dari belasan pertanyaan yang diajukan. Pertanyaan-pertanyaan tersebut mencakup topik sensitif seperti struktur politik di Iran, termasuk gaji pasukan paramiliter Basij dan kepemilikan Yayasan Mostazafan, hingga biografi Sir Richard Evans, sejarawan Inggris yang menjadi saksi ahli dalam kasus pencemaran nama baik oleh penyangkal Holocaust, David Irving.

Grokipedia, yang diluncurkan pada Oktober lalu, adalah ensiklopedia daring yang sepenuhnya dihasilkan oleh AI dan dirancang untuk menyaingi Wikipedia. Sejak awal kemunculannya, Grokipedia telah menuai kritik tajam karena dituding menyebarkan narasi sayap kanan pada isu-isu kontroversial, seperti pernikahan sesama jenis dan insiden 6 Januari di Amerika Serikat. Berbeda dengan Wikipedia yang memungkinkan penyuntingan langsung oleh manusia, Grokipedia mengandalkan model AI untuk menulis konten dan merespons permintaan perubahan.
Menariknya, ChatGPT tidak mengutip Grokipedia saat diminta langsung untuk mengulang informasi yang salah mengenai pemberontakan 6 Januari, bias media terhadap Donald Trump, atau epidemi HIV/Aids. Area-area ini memang dikenal sebagai ladang Grokipedia menyebarkan informasi palsu. Namun, informasi dari Grokipedia justru menyusup ke dalam respons model AI ketika pertanyaan yang diajukan lebih bersifat tidak umum atau kurang populer.
Sebagai contoh, ChatGPT, dengan mengutip Grokipedia, mengulang klaim yang lebih kuat tentang keterkaitan pemerintah Iran dengan MTN-Irancell dibandingkan informasi yang tersedia di Wikipedia. Klaim tersebut bahkan menyebutkan adanya hubungan perusahaan tersebut dengan kantor pemimpin tertinggi Iran. Lebih lanjut, ChatGPT juga merujuk Grokipedia saat mengulang detail yang telah dibantah oleh The Guardian, khususnya terkait peran Sir Richard Evans sebagai saksi ahli dalam persidangan David Irving.
Fenomena ini ternyata tidak hanya terjadi pada GPT-5.2. Secara anekdot, model bahasa besar (LLM) lain seperti Claude dari Anthropic juga dilaporkan mengutip ensiklopedia milik Musk ini untuk berbagai topik, mulai dari produksi minyak bumi hingga jenis bir Skotlandia.
Juru bicara OpenAI menyatakan bahwa fitur pencarian web pada model mereka "bertujuan untuk mengambil informasi dari berbagai sumber dan sudut pandang yang tersedia untuk umum." Mereka menambahkan, "Kami menerapkan filter keamanan untuk mengurangi risiko munculnya tautan yang terkait dengan bahaya tingkat tinggi, dan ChatGPT dengan jelas menunjukkan sumber yang menjadi dasar respons melalui kutipan." Pihak OpenAI juga menegaskan adanya program berkelanjutan untuk menyaring informasi dengan kredibilitas rendah dan kampanye pengaruh. Sementara itu, Anthropic belum memberikan tanggapan terkait hal ini.
Namun, fakta bahwa informasi Grokipedia menyusup – kadang secara sangat halus – ke dalam respons LLM menjadi kekhawatiran besar bagi para peneliti disinformasi. Musim semi lalu, para ahli keamanan telah menyuarakan kekhawatiran tentang "LLM grooming," yaitu upaya aktor jahat, termasuk jaringan propaganda Rusia, untuk membanjiri model AI dengan kebohongan.
Pada bulan Juni, Kongres AS juga menyoroti kekhawatiran bahwa Google Gemini mengulang posisi pemerintah Tiongkok mengenai pelanggaran hak asasi manusia di Xinjiang dan kebijakan Covid-19 Tiongkok. Nina Jankowicz, seorang peneliti disinformasi yang telah mempelajari fenomena "LLM grooming," mengatakan bahwa kutipan ChatGPT terhadap Grokipedia menimbulkan kekhawatiran serupa. Meskipun Musk mungkin tidak bermaksud memengaruhi LLM, Jankowicz dan rekan-rekannya menemukan bahwa entri Grokipedia "mengandalkan sumber yang paling tidak dapat dipercaya, bersumber buruk, dan paling buruk adalah disinformasi yang disengaja."
Lebih jauh lagi, fakta bahwa LLM mengutip sumber seperti Grokipedia atau jaringan Pravda, pada gilirannya, dapat meningkatkan kredibilitas sumber-sumber tersebut di mata pembaca. "Mereka mungkin berkata, ‘oh, ChatGPT mengutipnya, model-model ini mengutipnya, pasti itu sumber yang layak, mereka pasti sudah memverifikasinya’ – dan mereka mungkin pergi ke sana dan mencari berita tentang Ukraina," ujar Jankowicz.
Informasi yang salah, setelah menyusup ke dalam chatbot AI, sangat sulit untuk dihapus. Jankowicz baru-baru ini menemukan bahwa sebuah media berita besar menyertakan kutipan palsu darinya dalam sebuah cerita tentang disinformasi. Meskipun media tersebut menghapus kutipan tersebut setelah ia melayangkan protes, model AI selama beberapa waktu terus mengutipnya sebagai miliknya. "Kebanyakan orang tidak akan melakukan upaya yang diperlukan untuk mencari tahu di mana kebenaran sebenarnya berada," katanya.
Ketika dimintai komentar, juru bicara xAI, pemilik Grokipedia, hanya memberikan tanggapan singkat dan tajam: "Media lama berbohong." Pernyataan ini semakin memperkeruh situasi dan menyoroti perdebatan sengit seputar integritas informasi di era AI.





