Ai Ciptakan Kode Berbahaya: Ancaman Baru Bagi Keamanan Software

May 02, 2025 08:54 AM - 2 minggu yang lalu 19390

Kincai Media – Jika Anda berpikir kode yang dihasilkan AI selalu kondusif dan andal, siap-siap terkejut. Penelitian terbaru mengungkap bahwa kode buatan AI sering kali mengandung referensi ke pustaka pihak ketiga yang tidak ada, membuka kesempatan besar bagi serangan rawan pada rantai pasok perangkat lunak.

Studi yang dilakukan oleh para peneliti dari University of Texas di San Antonio menemukan bahwa dari 576.000 sampel kode yang dihasilkan oleh 16 model bahasa besar (LLM), sebanyak 440.000 keterbatasan yang terkandung di dalamnya rupanya “berhalusinasi”—artinya, mereka merujuk pada pustaka yang tidak ada. Fenomena ini, yang disebut sebagai “package hallucination”, menjadi ancaman serius bagi keamanan perangkat lunak modern.

Dependensi Palsu: Pintu Masuk Serangan Berbahaya

Dependensi adalah komponen krusial dalam pengembangan perangkat lunak modern. Mereka memungkinkan developer untuk menggunakan kode yang sudah ada tanpa kudu menulis ulang dari awal. Namun, ketika AI menghasilkan referensi ke keterbatasan yang tidak ada, perihal ini menciptakan celah keamanan yang bisa dimanfaatkan oleh penjahat siber.

Joseph Spracklen, mahasiswa PhD yang memimpin penelitian ini, menjelaskan: “Begitu penyerang menerbitkan paket dengan nama yang dihalusinasikan dan menyisipkan kode berbahaya, mereka bisa menunggu pengguna yang tidak berprasangka menginstalnya. Jika pengguna mempercayai output AI tanpa verifikasi, payload rawan bakal dieksekusi di sistem mereka.”

Package Hallucination: Masalah yang Berulang

Yang lebih mengkhawatirkan, penelitian ini menemukan bahwa 58% dari nama paket yang dihalusinasikan muncul lebih dari sekali dalam 10 iterasi. Artinya, fatamorgana ini bukan kesalahan acak, melainkan pola yang konsisten. Penyerang bisa memanfaatkan pola ini dengan menerbitkan paket rawan menggunakan nama-nama yang sering dihalusinasikan oleh AI.

Fenomena ini mengingatkan pada serangan “dependency confusion” yang pertama kali didemonstrasikan pada 2021. Serangan tersebut sukses mengeksekusi kode tiruan di jaringan perusahaan-perusahaan besar seperti Apple, Microsoft, dan Tesla. Kini, dengan maraknya penggunaan AI untuk menghasilkan kode, ancaman ini menjadi semakin nyata.

Perbedaan Antara Model Komersial dan Open Source

Penelitian ini juga mengungkap perbedaan mencolok antara model AI komersial dan open source. Model open source seperti CodeLlama dan DeepSeek menghasilkan nyaris 22% package hallucination, sementara model komersial hanya sekitar 5%. Selain itu, kode JavaScript condong lebih banyak mengandung fatamorgana (21%) dibandingkan Python (16%).

Spracklen menjelaskan bahwa perbedaan ini mungkin disebabkan oleh kompleksitas ekosistem JavaScript yang mempunyai sekitar 10 kali lebih banyak paket dibanding Python. “Dengan lanskap paket yang lebih besar dan kompleks, model menjadi lebih susah untuk mengingat nama paket tertentu secara akurat,” ujarnya.

Sebagaimana dilaporkan dalam OpenAI Rilis ChatGPT Model “o1” dengan Akurasi Lebih Tinggi, upaya untuk meningkatkan kecermatan AI terus dilakukan. Namun, temuan ini menunjukkan bahwa masalah fatamorgana tetap menjadi tantangan besar.

Dengan prediksi bahwa 95% kode bakal dihasilkan oleh AI dalam lima tahun mendatang, seperti yang diungkapkan oleh CTO Microsoft Kevin Scott, temuan ini menjadi peringatan keras bagi para pengembang. Sebelum betul-betul mempercayai kode yang dihasilkan AI, verifikasi manual terhadap setiap keterbatasan tetap menjadi keharusan.

Seperti yang terjadi pada kasus AI Ciptakan Kebijakan Palsu, ketergantungan berlebihan pada teknologi AI tanpa pengawasan manusia bisa berakibat fatal. Kini, lebih dari sebelumnya, kerjasama antara kepintaran buatan dan skill manusia menjadi kunci untuk menciptakan perangkat lunak yang kondusif dan andal.

Selengkapnya