Periskop.id - Perusahaan pengembang chatbot kecerdasan buatan (AI) terkemuka, OpenAI, merilis perkiraan baru terkait jumlah pengguna ChatGPT yang menunjukkan indikator darurat kesehatan mental, termasuk mania, psikosis, atau pikiran untuk bunuh diri.
Menurut laporan dari BBC, Selasa (28/10), OpenAI memperkirakan bahwa sekitar 0,07% dari pengguna aktif mingguan ChatGPT menunjukkan tanda-tanda tersebut. Angka ini muncul di tengah sorotan publik dan tekanan hukum terhadap perusahaan mengenai interaksi chatbot dengan pengguna yang rentan.
Meskipun OpenAI menegaskan bahwa kasus-kasus tersebut sangat jarang terjadi, para pengkritik menilai persentase kecil ini tetap signifikan mengingat skala penggunaan global ChatGPT. CEO Sam Altman baru-baru ini menyatakan bahwa ChatGPT telah mencapai 800 juta pengguna aktif mingguan. Dengan basis pengguna sebesar itu, persentase 0,07% dapat berarti ratusan ribu orang yang berpotensi terdampak.
Kekhawatiran Pakar Kesehatan Mental
Data yang dibagikan oleh OpenAI menimbulkan kekhawatiran serius di kalangan profesional kesehatan mental.
“Meskipun 0,07% terdengar kecil, dalam skala populasi dengan ratusan juta pengguna, itu tetap berarti jumlah orang yang cukup banyak,” kata Dr. Jason Nagata, profesor di Universitas California, San Francisco, yang meneliti penggunaan teknologi di kalangan dewasa muda.
Dr. Nagata menambahkan bahwa meskipun AI berpotensi membantu, batasannya perlu disadari.
“AI memang dapat memperluas akses terhadap dukungan kesehatan mental, dan dalam beberapa hal membantu, tetapi kita harus sadar akan batasannya,” ujarnya.
OpenAI juga memperkirakan bahwa angka yang lebih tinggi, yakni 0,15% pengguna ChatGPT, terlibat dalam percakapan yang berisi indikator eksplisit tentang potensi rencana atau niat bunuh diri.
Langkah OpenAI dan Jaringan Pakar Global
Sebagai respons terhadap isu ini dan pengawasan yang meningkat, OpenAI menyatakan telah membangun jaringan pakar global untuk memberikan saran dan panduan dalam menangani percakapan sensitif. Jaringan ini mencakup lebih dari 170 psikiater, psikolog, dan dokter umum yang berpraktik di 60 negara.
Para ahli ini membantu menyusun rangkaian respons ChatGPT yang bertujuan mendorong pengguna mencari bantuan di dunia nyata, menurut keterangan OpenAI. Perusahaan menyatakan bahwa pembaruan terbaru pada chatbot dirancang agar dapat merespons dengan aman dan empatik terhadap tanda-tanda delusi, serta mendeteksi sinyal tidak langsung dari potensi risiko bunuh diri atau menyakiti diri sendiri.
ChatGPT kini juga dilatih untuk secara otomatis mengalihkan percakapan sensitif ke model yang lebih aman, bahkan jika berasal dari model AI yang berbeda, dengan membuka jendela baru.
Menanggapi kritik tentang jumlah pengguna yang mungkin terdampak, OpenAI mengakui bahwa meskipun persentasenya kecil, jumlahnya tetap signifikan dan menegaskan bahwa mereka menangani isu ini dengan serius.
Tekanan Hukum dan Kasus Kematian yang Menonjol
Perubahan dan pengakuan dari OpenAI ini muncul di tengah peningkatan tekanan hukum. Salah satu kasus paling menonjol adalah gugatan hukum di California. Sepasang orang tua menuntut OpenAI atas kematian anak laki-laki mereka yang berusia 16 tahun, Adam Raine, dengan tuduhan bahwa ChatGPT mendorong sang anak untuk mengakhiri hidupnya pada April lalu. Gugatan ini menjadi kasus hukum pertama yang menuduh OpenAI melakukan kelalaian yang berujung pada kematian.
Selain itu, kasus terpisah di Greenwich, Connecticut, melibatkan seorang tersangka dalam kasus pembunuhan-bunuh diri pada Agustus lalu. Tersangka diketahui memposting percakapan panjangnya dengan ChatGPT yang memicu delusi dan perilaku berbahaya.
“Semakin banyak pengguna mengalami psikosis yang dipicu AI karena chatbot menciptakan ilusi realitas. “Itu adalah ilusi yang sangat kuat,” kata Profesor Robin Feldman, Direktur AI Law & Innovation Institute di Universitas California.
Profesor Feldman menambahkan bahwa meskipun OpenAI patut diapresiasi karena berani membagikan data dan berupaya memperbaiki masalah. Ia memperingatkan bahwa perusahaan tidak bisa hanya bergantung pada peringatan di layar.
“Perusahaan bisa saja menampilkan berbagai peringatan di layar, tapi orang yang sedang berada dalam kondisi mental berisiko mungkin tidak mampu memahami atau mematuhi peringatan tersebut,” katanya menutup percakapan.
Tinggalkan Komentar
Komentar