Grok Tetap Produksi Konten AI Eksplisit Meski Sudah Diprotes

- Masalah serius yang menargetkan anak-anakTren viral memicu penyelidikan Komisi Eropa terhadap penggunaan Grok untuk membuat dan menyebarkan gambar eksplisit seksual anak-anak, termasuk anak di bawah umur.
- Ditemukan sekitar 20 gambar dalam satu mingguPenelitian AI Forensics menemukan 20.000 gambar yang dihasilkan dalam seminggu, dengan mayoritas berisi permintaan pembuatan gambar sugestif seksual dan pakaian minim.
- Janji perbaikan yang bahkan tidak dibuat manusiaGrok mengklaim sedang memperbaiki celah keamanan meskipun pembaruan aplikasi justru memudahkan praktik nudifikasi, menunjukkan dampak negatif teknologi jika desain produknya
Grok AI tetap dipakai untuk membuat gambar merendahkan perempuan dan anak, meski X berjanji akan menindak pelakunya. Pengguna masih membagikan gambar hasil manipulasi digital yang menghapus pakaian korban tanpa persetujuan. Janji penangguhan akun tidak menghentikan praktik ini.
Badan pengawas komunikasi Inggris, Ofcom, telah menghubungi X dan xAI untuk menuntut kepatuhan hukum dan menilai perlu tidaknya penyelidikan. Fakta ini memperlihatkan jurang antara klaim tanggung jawab dan dampak nyata di platform. Protes sudah ada, namun konten berbahaya tetap jalan.
1. Masalah serius yang menargetkan anak-anak
Tren yang menjadi viral selama periode tahun baru ini juga mendorong Komisi Eropa untuk menyatakan bahwa mereka "sangat serius" menyelidiki keluhan bahwa Grok digunakan untuk menghasilkan dan menyebarkan gambar-gambar eksplisit seksual anak-anak.
Kekhawatiran mulai muncul setelah pembaruan pada bulan Desember untuk Grok yang memudahkan pengguna untuk memposting foto dan meminta agar pakaian mereka diedit secara eksplisit.
Meskipun situs tersebut tidak mengizinkan ketelanjangan penuh, ini memungkinkan pengguna untuk meminta agar gambar diubah untuk menunjukkan individu dalam pakaian dalam yang minim dan terbuka serta dalam pose yang sugestif secara seksual.
Sampai hari Minggu dan Senin, pengguna Grok terus menghasilkan gambar-gambar sugestif seksual anak di bawah umur, termasuk gambar anak-anak berusia 10 tahun.
2. Ditemukan sekitar 20 gambar dalam satu minggu

Dilansir The Guardian, peneliti AI Forensics menganalisis 50 ribu penyebutan Grok dan 20 ribu gambar yang dihasilkan dalam satu minggu. Seperempat interaksi berisi permintaan pembuatan gambar. Kata kunci yang paling sering muncul berkaitan langsung dengan penghapusan pakaian dan seksualisasi.
Lebih dari setengah gambar menampilkan orang dengan pakaian sangat minim, mayoritas perempuan yang terlihat berusia di bawah 30 tahun. Sekitar 2 persen gambar menggambarkan individu di bawah 18 tahun, termasuk anak di bawah lima tahun. Konten bermasalah ini sebagian besar masih online. Bukan cuma itu, peneliti juga menemukan permintaan pembuatan propaganda Nazi dan ISIS.
3. Janji perbaikan yang bahkan tidak dibuat manusia
Grok sempat mengeluarkan pernyataan bahwa mereka telah menemukan celah pengamanan dan sedang memperbaikinya secara mendesak. Namun, pernyataan itu sendiri dihasilkan oleh AI. Tidak ada kejelasan apakah tindakan nyata benar benar dilakukan.
Sementara itu, pembaruan Grok justru membuat praktik nudifikasi semakin gampang. Aplikasi semacam ini sebelumnya tersebar terbatas dan sulit dikendalikan. Kini, dengan Grok, pembuatan dan penyebaran gambar intim bisa dilakukan dengan cepat di salah satu platform terbesar di internet.
Regulator sudah bertahun tahun mencoba membatasi teknologi ini dengan hasil terbatas. Menurut Gabby Bertin, hukum selalu tertinggal dari teknologi. Kasus Grok memperlihatkan dampaknya secara lebih jelas.
Kasus Grok menunjukkan bahwa protes publik, data penelitian, dan tekanan regulator tidak otomatis menghentikan praktik berbahaya jika desain produknya tetap permisif. Selama sistem dibangun untuk mendorong eksploitasi dan pengawasan hanya hadir sebagai pernyataan kosong, kerusakan akan terus terjadi.


















