periskop.id - Teknologi Artificial Intelligence (AI) seharusnya memudahkan hidup manusia, bukan menghancurkan reputasinya. Namun, narasi ini seolah berbalik 180 derajat sejak kehadiran Grok-2 di platform X (twitter). Dengan kemampuan membuat gambar fotorealistik yang minim sensor, AI ini mendadak jadi senjata baru bagi pelaku Kekerasan Berbasis Gender Online (KBGO).
Fakta di lapangan cukup mengerikan, fitur ini memungkinkan siapa saja membuat gambar vulgar dari foto orang lain hanya dengan mengetikkan perintah teks. Tidak ada lagi hambatan teknis yang sulit. Sayangnya, perempuan kembali menjadi kelompok yang paling rentan dirugikan.
Bagaimana mekanisme ini bekerja dan seberapa parah dampaknya bagi para korban? Simak ulasan lengkapnya berikut ini.
Apa Itu AI Grok dan Bagaimana Cara Kerjanya?
Grok adalah chatbot berbasis kecerdasan buatan yang dikembangkan oleh xAI, perusahaan AI milik Elon Musk yang diintegrasikan sebagai salah satu fitur di platform X. Grok berfungsi sebagai asisten percakapan yang dirancang untuk memahami pertanyaan pengguna dan merespons secara kontekstual, serupa dengan chatbot AI lainnya.
Pada Agustus 2024, xAI merilis versi terbaru bernama Grok-2, yang menambahkan kemampuan menghasilkan gambar dari perintah teks (text-to-image). Pada tahap awal peluncurannya, fitur ini tersedia bagi pengguna berlangganan Premium dan Premium+ di platform X.
Dilansir dari berbagai sumber, mekanisme moderasi konten Grok-2 pada fase awal dinilai lebih longgar dibandingkan beberapa sistem AI lain, seperti DALL-E atau Firefly, khususnya dalam pembuatan gambar yang melibatkan figur publik atau tema kontroversial.
Kondisi tersebut kemudian memunculkan kritik dari pengamat dan perhatian regulator di beberapa negara setelah beredarnya konten visual yang dianggap bermasalah dan menimbulkan kekhawatiran terkait etika, keselamatan pengguna, serta perlindungan kelompok rentan. Sejumlah pihak mendorong agar X dan xAI memperkuat sistem pengamanan dan moderasi konten pada Grok guna meminimalkan risiko penyalahgunaan teknologi AI.
Saat AI Grok Menjadi Senjata Pelecehan Digital
Setelah kita paham bagaimana bebasnya Grok, kita masuk ke realitas lapangan yang cukup mengerikan. Pola penyalahgunaan Grok di X terjadi sangat cepat dan masif. Pengguna tidak hanya membuat meme lucu, tetapi mulai memproduksi deepfake pornography atau KBGO.
Pola yang paling umum ditemukan adalah pengguna memasukkan nama selebritas, politisi, atau bahkan orang biasa, lalu menambahkan deskripsi situasi yang merendahkan atau berbau seksual. Karena filter Grok yang longgar, sistem langsung memvisualisasikan perintah tersebut menjadi gambar yang sangat nyata. Di X, gambar-gambar ini kemudian disebarkan dengan tagar tertentu, menjadi viral, dan dikonsumsi publik sebagai hiburan.
Masalah ini diperburuk oleh algoritma X yang cenderung mempromosikan konten kontroversial. Hanya dalam hitungan jam setelah fitur ini rilis, internet dibanjiri gambar palsu para tokoh dunia dalam balutan busana atau aktivitas yang tidak senonoh. Ini bukan lagi sekadar lelucon internet, melainkan bentuk pelecehan digital yang terorganisasi.
Manipulasi visual ini menciptakan disinformasi yang berbahaya. Orang awam mungkin sulit membedakan mana foto asli dan mana hasil AI. Jika tokoh publik saja bisa dimanipulasi segampang itu, bayangkan betapa mudahnya teknologi ini digunakan untuk menyerang privasi individu biasa.
95% Korban Deepfake Adalah Perempuan
Teknologi kecerdasan buatan sejatinya bersifat netral. Namun, cara teknologi ini digunakan kerap mencerminkan bias sosial yang sudah lama ada. Laporan dari UN Women menunjukkan bahwa perempuan menjadi kelompok yang paling sering menjadi sasaran penyalahgunaan deepfake dan AI generatif.
Data dari perusahaan intelijen keamanan Sensity AI mencatat bahwa sekitar 90–95% konten deepfake di internet berbentuk pornografi nonkonsensual dan hampir seluruh korbannya adalah perempuan. Praktik ini dikenal sebagai Image-Based Sexual Abuse (IBSA), yaitu bentuk kekerasan seksual berbasis visual yang dilakukan tanpa persetujuan korban.
Di ruang media sosial, termasuk platform tempat teknologi AI generatif terintegrasi, pola serupa kerap muncul. Citra tubuh perempuan direduksi menjadi objek visual yang dapat dimanipulasi, diedit, dan disebarkan tanpa kontrol yang memadai. Bagi sebagian pengguna, teknologi ini bukan lagi alat kreatif, melainkan sarana eksploitasi.
Fenomena ini tidak muncul secara tiba-tiba. Budaya patriarki dan cara pandang yang merendahkan perempuan masih kuat di ruang digital sehingga perempuan lebih rentan diperlakukan sebagai objek. Ketika teknologi canggih tersedia tanpa pengamanan dan pengawasan yang ketat, kecenderungan tersebut semakin mudah tersalurkan. Masalah utamanya bukan hanya pada teknologi, tetapi pada etika penggunaan serta tanggung jawab platform dalam mencegah penyalahgunaan.
Memahami Deepfake sebagai Kekerasan Seksual
Korban pelecehan berbasis teknologi kecerdasan buatan kerap menanggung dampak yang jauh lebih serius daripada sekadar gangguan sesaat. Manipulasi AI, khususnya dalam bentuk deepfake pornografi, telah diidentifikasi sebagai bagian dari KGBO.
Temuan dalam artikel “Perempuan Sebagai Korban Deepfake Pornografi dalam Perspektif Viktimologi” menunjukkan bahwa praktik ini memberi dampak yang signifikan, terutama terhadap perempuan. Dari sisi psikologis, korban berisiko mengalami trauma berkepanjangan, gangguan kecemasan, hingga gejala Post-Traumatic Stress Disorder (PTSD). Sementara secara sosial, mereka kerap menghadapi stigma, pengucilan, merosotnya rasa percaya diri, serta rasa malu yang mendalam.
Sejalan dengan itu, pelecehan berbasis AI sering kali diremehkan karena dianggap hanya menghasilkan visual palsu. Padahal, begitu konten hasil manipulasi tersebut tersebar di internet, jejak digitalnya hampir mustahil dihapus sepenuhnya. Gambar dapat disalin, disimpan, dan disebarluaskan kembali tanpa kendali sehingga memperpanjang penderitaan korban. Tekanan ini mendorong banyak korban menarik diri dari media sosial maupun ruang publik yang pada akhirnya membatasi kesempatan profesional dan kebebasan berekspresi mereka.
Tinggalkan Komentar
Komentar