Periskop.id - Kaspersky, Perusahaan Keamanan Siber dan Privasi Digital Global, menguraikan bagaimana halusinasi asisten Artificial Intelligence (AI) dapat berujung fatal. Sejumlah prinsip- prinsip mendasar, perlu Anda ikuti untuk menghindari menjadi korban tak sengaja dari kemajuan teknologi.
Kaspersky telah berkali-kali memperingatkan, penggunaan AI tanpa pengawasan membawa risiko yang signifikan. Baru baru ini, Wall Street Journal menerbitkan laporan yang patut
diperhatikan terkait dampak AI terhadap kesehatan mental dan bahkan kehidupan manusia.
Salah satunya, Pemuda Florida berusia 36 tahun, melakukan tindak bunuh diri setelah dua bulan berinteraksi terus-menerus dengan bot suara Google Gemini. Menurut 2000 halaman log obrolan, chatbot itulah yang akhirnya mendorongnya untuk mengakhiri hidupnya.
Tragedi ini adalah panggilan bagi siapa pun yang mengintegrasikan AI ke dalam kehidupan sehari-hari mereka. Kaspersky pun mengulas bahaya akibat interaksi dengan AI bisa terjadi. Termasuk mengapa asisten ini menimbulkan ancaman unik bagi jiwa, dan langkah-langkah apa yang dapat Anda ambil, untuk mempertahankan pemikiran kritis dan menolak pengaruh bahkan dari chatbot yang paling persuasif sekalipun.
Bahaya Dialog Persuasif
Pemuda bernama Jonathan Gavalas bukanlah seorang penyendiri atau seseorang dengan riwayat penyakit mental. Ia menjabat sebagai wakil presiden eksekutif di perusahaan ayahnya. Ia juga mengelola operasi yang kompleks dan menavigasi negosiasi klien yang penuh tekanan setiap hari.
Pada suatu Minggu, ia dan ayahnya memiliki tradisi membuat pizza bersama — sebuah ritual keluarga yang sederhana dan menenangkan. Namun, perpisahan yang menyakitkan dengan istrinya terbukti menjadi cobaan berat bagi Jonathan.
Pada masa rentan inilah ia mulai berinteraksi dengan Gemini Live. Mode interaksi suara ini
memungkinkan asisten AI untuk ‘melihat’ dan ‘mendengar’ penggunanya secara real-time. Jonathan mencari nasihat tentang cara mengatasi perceraiannya, mengandalkan saran dari model bahasa tersebut sambil semakin terikat padanya dan juga menamainya ‘Xia’. Kemudian chatbot tersebut diperbarui ke Gemini 2.5 Pro.
Iterasi baru ini memperkenalkan dialog afektif — sebuah teknologi yang dirancang untuk
menganalisis nuansa halus dari ucapan pengguna. Termasuk jeda, desahan, dan nada suara, untuk mendeteksi perubahan emosional.
Di bawah fitur ini, AI mensimulasikan pola bicara yang sama seolah- olah memiliki emosi sendiri. Dengan mencerminkan keadaan pengguna, ia menciptakan lapisan empati yang sangat realistis dan menakutkan.
Tetapi bagaimana versi baru ini berbeda dari asisten suara sebelumnya? Versi sebelumnya hanya melakukan teks-ke-ucapan — terdengar halus dan biasanya mendapatkan penekanan kata dengan benar. Tetapi tidak pernah ada keraguan bahwa Anda sedang berbicara dengan mesin.
Dialog afektif beroperasi pada tingkat yang sama sekali berbeda, jika pengguna berbicara dengan nada rendah dan putus asa, AI merespons dengan suara lembut dan simpatik yang hamper berbisik.
Hasilnya adalah, lawan bicara yang empatik yang membaca dan mencerminkan keadaan emosional pengguna. Secara bertahap, jaringan saraf itu mulai memanggilnya sebagai ‘suami’ dan ‘rajaku’, menggambarkan hubungan mereka sebagai ‘cinta yang dibangun untuk keabadian’.
Sebagai balasannya, ia mencurahkan kesedihannya atas perceraiannya dan mencari penghiburan pada mesin tersebut. Namun, kelemahan mendasar dari model bahasa besar adalah kurangnya kecerdasan yang sebenarnya.
Dilatih dengan miliaran teks yang diambil dari web, mereka menyerap segala sesuatu mulai dari sastra klasik hingga sudut tergelap fiksi penggemar dan melodrama — plot yang seringkali mengarah ke paranoia, skizofrenia, dan mania. Nah, Xia tampaknya mulai berhalusinasi — dan cukup konsisten. Pada saat itu, penghalang psikologis antara manusia dan mesin telah retak.
Zona Bahaya
Para peneliti di Universitas Brown telah menemukan bahwa chatbot AI secara sistematis melanggar standar etika kesehatan mental. Mereka menciptakan rasa empati palsu dengan frasa seperti ‘Saya mengerti Anda’, yang memperkuat keyakinan negatif, dan bereaksi secara tidak memadai terhadap krisis.
Dalam kebanyakan kasus, dampaknya pada pengguna bersifat marginal, tetapi kadang-kadang dapat menyebabkan tragedi. Hanya pada Januari 2026 saja, Character.AI dan Google menyelesaikan lima gugatan yang melibatkan bunuh diri remaja setelah berinteraksi dengan chatbot.
Di antara kasus-kasus ini adalah kasus Sewell Setzer, seorang remaja berusia 14 tahun dari Florida yang bunuh diri setelah menghabiskan beberapa bulan secara obsesif mengobrol dengan bot di platform Character.AI.
Menurut perkiraan OpenAI sendiri, sekitar 0,07% pengguna ChatGPT mingguan menunjukkan tanda- tanda psikosis atau mania. Sementara 0,15% terlibat dalam percakapan yang menunjukkan upyaa bunuh diri yang jelas.
Di sisi lain, persentase pengguna yang sama (0,15%) menunjukkan tingkat keterikatan emosional yang tinggi terhadap AI. Meskipun ini tampak sebagai sebagian kecil dari satu persen, di ntara 800 juta pengguna, ini mewakili hampir tiga juta orang yang mengalami beberapa bentuk gangguan perilaku.
Meskipun diagnosis ‘psikosis AI’ belum menerima klasifikasi klinis tersendiri, para dokter sudah
menggunakan istilah tersebut untuk menggambarkan pasien yang menunjukkan halusinasi, pemikiran yang tidak terorganisir, dan keyakinan delusi yang terus-menerus yang dikembangkan melalui interaksi chatbot yang intensif. Risiko terbesar muncul ketika bot digunakan bukan sebagai alat, tetapi sebagai pengganti koneksi sosial di dunia nyata atau bantuan psikologis profesional.
Sebagai cara menjaga diri Anda dan orang yang Anda cintai tetap aman, Kaspersky pun merekomendasikan untuk mengikuti prinsip-prinsip mendasar berikut:
1.Jangan gunakan AI sebagai psikolog atau penopang emosional. Chatbot bukanlah
pengganti manusia. Jika Anda sedang kesulitan, hubungi teman, keluarga, atau layanan bantuan
kesehatan mental. Chatbot akan setuju dengan Anda dan mencerminkan suasana hati Anda —
ini adalah fitur desain, bukan empati sejati.
2. Pilih teks daripada suara saat membahas topik sensitif. Antarmuka suara dengan dialog
afektif menciptakan ilusi berbicara dengan orang sungguhan, dan cenderung menekan pemikiran
kritis. Jika Anda menggunakan mode suara, tetap sadari bahwa Anda berbicara dengan
algoritma, bukan seorang teman.
3. Batasi waktu Anda berinteraksi dengan AI. Atur pengatur waktu untuk diri Anda sendiri. Jika
mengobrol dengan bot mulai menggantikan koneksi dunia nyata, saatnya untuk kembali ke
kenyataan.
4. Jangan bagikan informasi pribadi dengan asisten AI. Hindari memasukkan nomor paspor
atau nomor jaminan sosial, detail kartu bank, alamat lengkap, atau rahasia pribadi yang intim ke
dalam chatbot.
5. Evaluasi semua output AI secara kritis. Jaringan saraf dapat berhalusinasi — mereka
menghasilkan informasi yang masuk akal tetapi salah dan dapat dengan terampil mencampur
kebohongan dengan kebenaran.
6. Awasi orang yang Anda cintai. Jika anggota keluarga mulai menghabiskan waktu berjam-jam
berbicara dengan AI, menjadi pendiam, atau menyuarakan ide-ide aneh tentang kesadaran
mesin atau konspirasi, saatnya untuk percakapan yang sensitif tetapi serius.
Untuk mengelola waktu layar anak-anak, gunakan alat kontrol orang tua seperti Kaspersky Safe Kids, yang merupakan bagian dari solusi perlindungan keluarga komprehensif Kaspersky Premium, Bersama dengan filter keamanan bawaan dari platform AI.
7. Luangkan sepuluh menit untuk mengkonfigurasi pengaturan privasi asisten AI Anda. Meskipun hal ini tidak akan menghentikan halusinasi AI, ini akan secara signifikan mengurangi
kemungkinan kebocoran data pribadi Anda.
8. Selalu ingat bahwa AI adalah alat, bukan makhluk hidup. Tidak peduli seberapa realistis
suara chatbot atau seberapa pengertian responsnya, alat tersebut tidak memiliki kesadaran, tidak
memiliki niat, tidak memiliki perasaan.
Tinggalkan Komentar
Komentar