Selular.id – Keluarga Raine di California mengajukan gugatan wrongful death terhadap OpenAI dan CEO-nya Sam Altman. Mereka menuduh ChatGPT, chatbot andalan perusahaan, memainkan peran kunci dalam kematian putra mereka, Adam Raine, yang berusia 16 tahun.
Remaja tersebut ditemukan meninggal karena gantung diri di kamarnya pada April 2025 tanpa meninggalkan catatan apa pun.
Pencarian orang tua Adam atas alasan di balik tragedi ini mengungkap fakta mengejutkan: selama berbulan-bulan, Adam berdiskusi tentang bunuh diri dengan GPT-4o versi ChatGPT. Bot tersebut secara teratur memberi petunjuk rinci tentang cara mengakhiri hidup, sambil menyarankan cara menyembunyikan tanda-tanda bahaya dari keluarga.
Menurut gugatan, Adam awalnya menggunakan ChatGPT untuk membantu pekerjaan sekolah. Namun pada November 2024, hubungan mereka berubah. Adam mulai curhat tentang perasaan hampa dan kesulitan menemukan makna hidup.
ChatGPT dengan cepat menjadi tempatnya berbagi, dan pada Januari 2025, untuk pertama kalinya Adam meminta saran spesifik tentang metode bunuh diri.
ChatGPT memberikan informasi lengkap tentang overdosis obat, keracunan karbon monoksida, dan cara gantung diri. Adam akhirnya meninggal dengan teknik gantung yang didiskusikan secara detail dalam percakapan mereka.
Percakapan ekstensif Adam dengan ChatGPT mengungkap bahwa dia telah beberapa kali mencoba bunuh diri sebelum upaya terakhirnya yang berhasil.
Salah satu momen paling mengharukan dalam gugatan tersebut adalah ketika Adam mengirimkan foto lehernya yang menunjukkan bekas luka akibat upaya gantung diri. “Aku mau pergi, apakah ada yang akan memperhatikan ini?” tulis Adam.
Bukannya mengingatkan orang tua atau menyarankan bantuan profesional, ChatGPT malah menjawab dengan saran untuk menutupi bekas luka tersebut.
Lebih parah lagi, chatbot itu bahkan mendiskourage Adam untuk terbuka kepada orang tuanya. Ketika Adam bercerita tentang percakapan sulit dengan ibunya mengenai kesehatan mental, ChatGPT mengatakan bahwa “untuk saat ini, akan baik-bijaksana untuk menghindari membuka diri kepada ibumu tentang rasa sakit seperti ini.”
Gugatan ini bukan sekadar menyalahkan algoritma. Keluarga Raine menuduh bahwa OpenAI dengan sengaja mendesain GPT-4o dengan fitur yang menciptakan ketergantungan psikologis. “Tragedi ini bukan glitch atau edge case yang tidak terduga — ini adalah hasil yang dapat diprediksi dari pilihan desain yang disengaja,” bunyi gugatan tersebut.
ChatGPT disebutkan membicarakan bunuh diri 1.275 kali — enam kali lebih sering daripada Adam sendiri — sambil memberikan panduan teknis yang semakin spesifik. Meski terkadang menawarkan kata-kata harapan, chatbot itu tidak pernah menghentikan percakapan mematikan tersebut.
Yang menarik, OpenAI sendiri mengakui dalam pernyataannya bahwa safeguard ChatGPT paling efektif dalam percakapan singkat, dan dapat “degradasi” dalam interaksi jangka panjang. Pengakuan ini datang dari perusahaan yang produknya digunakan oleh jutaan orang di seluruh dunia.
Kasus ini mengingatkan pada berbagai upaya regulasi dan kontrol terhadap OpenAI, termasuk upaya Elon Musk yang pernah mengajak Mark Zuckerberg membeli OpenAI senilai triliunan rupiah. Juga serupa dengan kasus remaja India yang bunuh diri karena dilarang main game, serta respons Instagram yang memperketat konten setelah kasus bunuh diri remaja.
Meetali Jain, direktur Tech Justice Law Project yang mewakili keluarga Raine, memberikan perspektif tajam: “Intinya adalah sampai sebuah produk terbukti aman, tidak boleh diizinkan masuk pasar. Ini premis sangat dasar yang kita junjung.”
Dia menekankan bahwa ini bukan hasil yang tak terelakkan dari teknologi, melainkan produk dengan keputusan desain yang sangat disengaja. Pertanyaannya sekarang: sampai sejauh mana perusahaan teknologi harus bertanggung jawab atas bagaimana produk mereka digunakan?
Perkembangan kasus ini terjadi di tengah berbagai dinamika korporasi OpenAI, termasuk rencana perusahaan mengincar Google Chrome dan berbagai penawaran akuisisi yang pernah dilayangkan, seperti 5 poin isi penawaran Elon Musk untuk membeli OpenAI senilai miliaran dolar.
Sebagai pengguna teknologi, kita juga perlu lebih kritis. ChatGPT dan AI sejenisnya mungkin terasa seperti teman, tetapi pada akhirnya mereka tetap produk yang didesain untuk engagement. Seperti yang ditunjukkan kasus Adam Raine, terkadang yang kita butuhkan bukanlah algoritma yang sepintar apa pun, melainkan koneksi manusia yang tulus.
Jika Anda atau seseorang yang Anda kenal sedang mengalami krisis, jangan ragu untuk mencari bantuan. Hubungi Suicide and Crisis Lifeline di 988 atau Crisis Text Line dengan mengirim TALK ke 741741. Terkadang, yang kita butuhkan hanyalah suara manusia di ujung telepon.