Gpt-5.2 Disebut Paling Canggih, Kok Malah ‘nyontek’ Sumber Kontroversial?

Jan 25, 2026 12:00 PM - 3 bulan yang lalu 102908

Dunia kepintaran buatan kembali dikejutkan dengan temuan yang cukup ironis. Di tengah klaim bombastis mengenai keahlian model bahasa terbaru yang digadang-gadang sebagai puncak perkembangan AI untuk kalangan profesional, realitas di lapangan justru menunjukkan celah yang mengkhawatirkan. OpenAI mungkin sangat percaya diri saat melabeli model terbarunya sebagai “frontier model” paling canggih, namun ujian independen menyingkap kebenaran bahwa kecanggihan teknologi tidak selalu berbanding lurus dengan kecermatan fakta.

Laporan investigasi terbaru dari The Guardian memberikan tamparan keras bagi kredibilitas model anyar tersebut. Alih-alih menyajikan informasi yang steril dan terverifikasi layaknya asisten profesional, AI ini justru tertangkap basah mengutip sumber yang kredibilitasnya sangat dipertanyakan. Yang lebih mengejutkan, sumber rujukan tersebut adalah Grokipedia, ensiklopedia daring yang ditenagai oleh xAI, pesaing langsung mereka yang kerap menuai polemik mengenai moderasi konten.

Insiden ini bukan sekadar kesalahan teknis biasa, melainkan sebuah peringatan serius bagi pengguna korporat yang mulai berjuntai pada otomatisasi. Ketika sebuah model AI yang dirancang untuk menangani tugas rumit seperti kajian informasi dan pembuatan lembar kerja justru mengambil referensi dari platform yang pernah memuat tautan ke forum ekstremis, pertanyaan besar pun muncul: seberapa kondusif kita mempercayakan pekerjaan ahli pada algoritma yang tetap bisa “berhalusinasi” dalam memilih sumber?

Blunder Sitasi yang Mengejutkan

Dalam pengetesan yang dilakukan, ditemukan pola yang cukup meresahkan ketika model AI ini dihadapkan pada topik-topik spesifik namun sensitif. Laporan tersebut menyoroti gimana ChatGPT, yang ditenagai oleh model anyar ini, menggunakan Grokipedia sebagai landasan kebenaran untuk klaim yang mengaitkan pemerintah Iran dengan perusahaan telekomunikasi MTN-Irancell. Hal ini tentu menjadi sorotan tajam mengingat sensitivitas geopolitik yang menyertainya.

Tidak berakhir di situ, kesalahan pemilihan sumber juga terjadi pada topik sejarah yang sangat krusial. Model ini merujuk pada Grokipedia saat menjawab pertanyaan mengenai Richard Evans, seorang sejarawan Inggris ternama yang pernah menjadi saksi mahir dalam sidang pencemaran nama baik melawan penyangkal Holocaust, David Irving. Mengingat rekam jejak Grokipedia yang menurut studi peneliti AS pernah menyertakan sitasi ke forum neo-Nazi, penggunaan sumber ini oleh model sekelas GPT-5.2 Codex tentu menjadi blunder fatal bagi reputasi OpenAI.

OpenAI sebenarnya merilis model GPT-5.2 pada bulan Desember dengan janji performa yang lebih baik untuk penggunaan profesional. Tujuannya jelas: membantu pengguna menangani tugas kompleks dengan presisi tinggi. Namun, temuan bahwa ensiklopedia buatan AI—yang sering dianggap memuat sumber “bermasalah” dan “dipertanyakan”—menjadi rujukan, seolah mencederai janji profesionalisme tersebut.

Filter Keamanan alias Standar Ganda?

Menariknya, investigasi The Guardian menemukan adanya inkonsistensi dalam perilaku model AI tersebut. Meskipun AI ini “tergelincir” saat membahas Iran alias Holocaust dengan mengutip Grokipedia, sistem tersebut justru menunjukkan perilaku berbeda pada topik politik Amerika Serikat. Ketika diberi perintah alias prompt yang menanyakan tentang bias media terhadap Donald Trump, ChatGPT tidak menggunakan Grokipedia sebagai sumber rujukan.

Perbedaan perlakuan ini memicu spekulasi mengenai gimana filter keamanan bekerja di kembali layar. Apakah sistem hanya sensitif terhadap rumor politik domestik AS, namun lenggang terhadap rumor sejarah dunia dan geopolitik internasional? Padahal, Grokipedia sendiri sudah ada sebelum rilisnya GPT-5.2 dan telah lama menuai kontroversi lantaran kontennya. Inkonsistensi ini menjadi catatan penting, terutama bagi perusahaan yang mungkin menggunakan AI untuk riset pasar dunia alias kajian akibat yang memerlukan Data Kerja yang betul-betul valid.

Respon OpenAI dan Risiko Pengguna Pro

Menanggapi laporan yang menyudutkan tersebut, OpenAI memberikan penjelasan kepada The Guardian. Mereka menyatakan bahwa model GPT-5.2 dirancang untuk mencari info dari “berbagai sumber dan perspektif pandang yang tersedia untuk umum” di web. Perusahaan yang dipimpin Sam Altman ini juga menegaskan bahwa mereka menerapkan “filter keamanan untuk mengurangi akibat munculnya tautan yang mengenai dengan ancaman tingkat tinggi.”

Namun, jawaban normatif ini mungkin belum cukup memuaskan bagi pengguna ahli yang memerlukan kepastian kecermatan 100 persen. Bagi Anda yang menggunakan AI untuk menyusun laporan finansial alias kajian hukum, akibat masuknya info dari sumber yang tidak andal adalah mimpi buruk. Fitur canggih seperti keahlian Atur Kehangatan respon mungkin menarik untuk hubungan kasual, namun dalam konteks kerja profesional, validitas informasi adalah nilai mati.

Kasus ini menjadi pengingat bahwa secerdas apapun sebuah model AI, dia tetaplah mesin yang memproses informasi dari internet—tempat di mana kebenaran dan fiksi seringkali bercampur aduk. Verifikasi manusia (human in the loop) tetap menjadi tembok terakhir yang tak tergantikan, terutama ketika “sumber bermasalah” tetap bisa lolos dari saringan algoritma tercanggih sekalipun.

Selengkapnya