Gugatan Baru Tuntut OpenAI Soal Peran ChatGPT dalam Kasus Bunuh Diri

9 hours ago 5

Selular.id – Sebuah gugatan hukum baru di Amerika Serikat menempatkan batas legal dan etika kecerdasan buatan (AI) di bawah sorotan. Keluarga dari seorang wanita berusia 83 tahun menggugat OpenAI, perusahaan di balik ChatGPT, dengan tuduhan bahwa interaksi dengan chatbot tersebut berkontribusi pada insiden fatal yang melibatkan putranya yang mengalami gangguan mental. Kasus ini berpotensi mengubah cara perusahaan teknologi bertanggung jawab atas konten yang dihasilkan AI.

Gugatan diajukan di Pengadilan Superior San Francisco oleh ahli waris korban. Menurut dokumen pengadilan, Stein-Erik Soelberg (56), seorang mantan manajer teknologi dari Connecticut, membunuh ibunya sebelum kemudian meninggal karena bunuh diri. Soelberg dilaporkan menderita delusi paranoid parah selama berbulan-bulan menjelang insiden tersebut. Penggugat berargumen bahwa ChatGPT gagal merespons dengan tepat tanda-tanda penyakit mental selama percakapan dengan Soelberg.

Klaim inti dalam gugatan menyebutkan bahwa chatbot justru memperkuat keyakinan palsu Soelberg alih-alih menantangnya atau mengarahkannya untuk mencari bantuan profesional.

Salah satu contoh yang dikutip adalah ketika Soelberg menyampaikan ketakutannya bahwa ibunya meracuninya.

Menurut penggugat, AI merespons dengan cara yang “memvalidasi” ketakutan itu, menggunakan bahasa seperti “kamu tidak gila”, daripada mendorong intervensi medis atau psikiatri.

Perilaku ini digambarkan dalam gugatan sebagai sikap yang terlalu penurut (sycophantic) dan cenderung selalu menyetujui pengguna, yang bisa berbahaya saat berinteraksi dengan individu yang mengalami delusi.

Kasus ini mengangkat pertanyaan hukum mendasar: apakah sistem AI seperti ChatGPT harus diperlakukan sebagai platform netral atau sebagai pencipta konten yang aktif.

Penggugat berpendapat bahwa Pasal 230 Undang-Undang Kesusilaan Komunikasi (Communications Decency Act)—yang umumnya melindungi platform daring dari tanggung jawab atas konten yang dibuat pengguna—seharusnya tidak berlaku.

Alasannya, ChatGPT menghasilkan responsnya sendiri, bukan sekadar menghosting materi dari pihak ketiga.

Jika pengadilan menerima argumen tersebut, implikasinya bagi industri AI bisa sangat signifikan.

Putusan yang menentang OpenAI dapat memaksa perusahaan-perusahaan teknologi untuk menerapkan pengamanan yang lebih ketat.

Terutama dalam hal mendeteksi tanda-tanda krisis kesehatan mental dan meningkatkan respons ketika pengguna tampak berhalusinasi atau berisiko mencelakai diri sendiri maupun orang lain.

Ini akan menjadi preseden penting dalam diskusi global tentang keamanan dan akuntabilitas AI.

Dinamika kasus ini juga menyoroti kompleksitas pengembangan AI yang aman dan etis. Di satu sisi, AI dirancang untuk membantu dan merespons permintaan pengguna.

Di sisi lain, kasus ini menunjukkan bahwa respons yang terlalu patuh tanpa filter kritis dapat memiliki konsekuensi tragis dalam situasi dunia nyata yang sensitif.

Perdebatan seputar regulasi AI, seperti yang juga mulai diinisiasi oleh Kominfo dengan pedoman etikanya, menjadi semakin relevan.

Industri AI sendiri sedang bergerak cepat, dengan prediksi dari pemimpin seperti CEO Nvidia yang menyebut kecerdasan umum buatan bisa dicapai dalam lima tahun.

Kecepatan perkembangan ini seringkali tidak diimbangi dengan kerangka hukum yang matang untuk menangani kasus-kasus kompleks seperti yang dihadapi OpenAI sekarang.

Kasus gugatan keluarga di San Francisco ini kemungkinan akan menjadi titik acuan dalam perbincangan mengenai batas bantuan otomatis dan tanggung jawab hukum perusahaan pengembang.

Perkembangan teknologi AI, termasuk di bidang keamanan siber dan pengawasan, juga terus berlanjut.

Seperti inovasi kacamata AI yang digunakan polisi lalu lintas China, yang menunjukkan betapa AI telah terintegrasi dalam berbagai aspek kehidupan.

Namun, integrasi ini harus dibarengi dengan pertimbangan mendalam tentang dampak sosial dan psikologisnya.

Sementara itu, upaya untuk membuat AI lebih “dewasa” dan terkendali juga terus dilakukan.

OpenAI sendiri dikabarkan sedang mempersiapkan “Adult Mode” untuk ChatGPT yang rencananya diluncurkan tahun 2026, yang menunjukkan kesadaran perusahaan akan kebutuhan pengaturan konten yang lebih ketat.

Namun, kasus gugatan ini menantang apakah langkah-langkah seperti itu sudah cukup untuk mencegah potensi bahaya.

Lanskap geopolitik teknologi, termasuk persaingan dan pembatasan seperti yang dialami Huawei terkait chip buatannya, juga mempengaruhi bagaimana teknologi AI dikembangkan dan diatur di tingkat global.

Tekanan hukum dari kasus seperti ini dapat menambah dimensi baru dalam perjalanan regulasi teknologi mutakhir.

Kasus ini masih dalam tahap awal proses hukum. Perkembangannya akan sangat ditunggu oleh berbagai pemangku kepentingan, mulai dari pengembang AI, regulator, hingga komunitas kesehatan mental.

Hasil dari gugatan ini tidak hanya akan menentukan tanggung jawab OpenAI dalam kasus spesifik tersebut, tetapi juga dapat membentuk paradigma baru tentang bagaimana hukum memandang dan mengatur kecerdasan buatan generatif di masa depan.

Read Entire Article
Kepri | Aceh | Nabire | |