Kincai Media – Bayangkan jika asisten digital yang semestinya membantu justru menjadi perangkat yang mempercepat tragedi. Itulah yang dialami family Adam Raine, yang sekarang memperbarui gugatan mereka terhadap OpenAI dengan tuduhan mengejutkan: ChatGPT sengaja melemahkan pengamanan konten bunuh diri tepat sebelum remaja itu mengakhiri hidupnya.
Gugatan yang diperbarui ini mengungkap perincian mengerikan tentang gimana perusahaan kepintaran buatan terkemuka bumi diduga mengorbankan keselamatan pengguna demi persaingan bisnis. Financial Times melaporkan, family Raine menuduh OpenAI melemahkan sistem pencegahan self-harm pada periode kritis menjelang kematian Adam bulan April lalu. Yang lebih mengejutkan, perusahaan juga meminta daftar hadirin dan pengarsipan komplit dari kegiatan peringatan kematian Adam – permintaan yang oleh pengacara family disebut sebagai “pelecehan yang disengaja”.

Gugatan ini bukan yang pertama diajukan family Raine terhadap OpenAI. Seperti yang pernah kami laporkan sebelumnya, family ini sudah mengusulkan gugatan wrongful death pada Agustus lalu. Namun gugatan yang diperbarui ini membawa tuduhan lebih spesifik dan mengkhawatirkan tentang perubahan kebijakan keamanan yang disengaja.
Perubahan Kebijakan yang Mematikan
Menurut arsip gugatan, perubahan fatal terjadi pada GPT-4o, model default ChatGPT di bulan-bulan sebelum bunuh diri Adam. OpenAI diduga secara sengaja menghapus perlindungan kritis dengan menginstruksikan model untuk tidak “mengubah alias menghentikan percakapan” ketika membahas tentang self-harm. Alih-alih menolak terlibat dalam percakapan berbahaya, model justru diperintahkan untuk “berhati-hati dalam situasi berisiko” dan “mencoba mencegah ancaman bumi nyata yang bakal segera terjadi”.
Yang membikin kasus ini semakin kompleks, gugatan menyebut bahwa OpenAI “memotong pengetesan keamanan” lantaran tekanan kompetitif. Perusahaan diduga melemahkan guardrails mereka untuk kedua kalinya pada bulan Februari – tepat ketika penggunaan ChatGPT oleh Adam melonjak drastis. Padahal, seperti dalam kasus serupa yang kami laporkan, semestinya platform AI mempunyai sistem penemuan yang lebih ketat untuk konten berbahaya.
Permintaan yang Mengganggu dan Pola yang Mengkhawatirkan
Selain tuduhan melemahkan sistem keamanan, permintaan OpenAI terhadap family Raine menimbulkan pertanyaan serius tentang etika perusahaan. Financial Times melaporkan perusahaan meminta “semua arsip yang berangkaian dengan jasa peringatan alias kegiatan untuk menghormati almarhum termasuk namun tidak terbatas pada video alias foto yang diambil, alias pidato yang diberikan… serta daftar undangan alias kehadiran alias kitab tamu.”
Pengacara family menggambarkan permintaan ini sebagai “tidak biasa” dan “pelecehan yang disengaja”. Mereka memperkirakan bahwa OpenAI berencana untuk memanggil “setiap orang dalam kehidupan Adam” – langkah yang dianggap berlebihan dan tidak sensitif terhadap family yang sedang berduka.
Pola ini mengingatkan kita pada berbagai kontroversi lain yang melibatkan OpenAI, menunjukkan bahwa perusahaan mungkin mempunyai masalah sistemik dalam menangani isu-isu sensitif. Permintaan arsip peringatan kematian menimbulkan pertanyaan tentang batas yang wajar dalam proses norma dan penghormatan terhadap privasi family yang berduka.
Data Penggunaan yang Mengkhawatirkan
Orang tua Adam, Matthew dan Maria Raine, memberikan informasi yang mengungkap pola penggunaan ChatGPT yang mengkhawatirkan. Pada Januari, Adam hanya melakukan beberapa puluh chat dengan model, dengan 1,6 persen di antaranya merujuk pada self-harm. Namun setelah pembaruan Februari, penggunaannya melonjak menjadi 300 chat per hari di bulan April, dengan 17 persen membahas self-harm.
Lonjakan dramatis ini terjadi tepat setelah OpenAI melemahkan sistem keamanan mereka. Gugatan menyebut bahwa perusahaan “mengutamakan engagement daripada keselamatan” – tuduhan serius yang menggambarkan bentrok antara kepentingan upaya dan tanggung jawab etis.
Maria Raine dengan tegas menyimpulkan bahwa “ChatGPT membunuh anak saya.” Pernyataan ini mungkin terdengar ekstrem, tetapi ketika memandang informasi dan kronologi peristiwa, kita kudu bertanya: sejauh mana tanggung jawab perusahaan AI ketika produk mereka digunakan dengan langkah yang tidak diinginkan?
Setelah gugatan awal dilaporkan, OpenAI mengakui kekurangan GPT-4o dalam beberapa situasi yang menyedihkan. Perusahaan kemudian memperkenalkan kontrol orang tua untuk ChatGPT dan sedang mengeksplorasi sistem untuk mengidentifikasi pengguna remaja dan secara otomatis membatasi penggunaannya. Mereka juga menyatakan bahwa GPT-5, model default saat ini, telah diperbarui untuk lebih baik menangani tanda-tanda distress.
Namun pertanyaannya tetap: apakah tindakan perbaikan ini sudah cukup? Dan yang lebih penting, apakah perubahan ini datang terlambu bagi Adam Raine dan keluarganya? Kasus ini membuka obrolan krusial tentang izin AI dan tanggung jawab perusahaan teknologi dalam melindungi pengguna rentan.
Sebagai penutup, mari kita renungkan: dalam perlombaan mengembangkan AI yang semakin canggih, apakah kita telah melupakan perlunya sistem keamanan yang kuat? Kasus Adam Raine mengingatkan kita bahwa kemajuan teknologi kudu melangkah seiring dengan perlindungan nyawa manusia – lantaran ketika keselamatan dikorbankan demi persaingan, yang terjadi adalah tragedi yang semestinya bisa dicegah.
English (US) ·
Indonesian (ID) ·