ilustrasi sumber referensi untuk memerangi konten deepfake (unsplash.com/Jorge Franganillo)
Kehadiran kecerdasan buatan (AI) di ranah digital menghadirkan dilema baru. Di satu sisi, AI dapat berfungsi sebagai peredam, sementara di sisi lain ia juga bisa menjadi pengeras suara. Setidaknya ada empat arena utama di mana AI berpotensi “campur tangan” dalam mengatur anomali bersuara.
Pertama, arena moderasi konten. Video manipulatif, foto deepfake, hingga unggahan menyesatkan memiliki daya pengaruh besar terhadap opini publik. Kondisi ini mendorong pemanfaatan AI untuk memilah dan menyaring konten dalam skala masif. Secara global, Uni Eropa melalui EU AI Act bahkan mewajibkan pelabelan konten berbasis AI, termasuk deepfake, guna mencegah masyarakat terkecoh oleh manipulasi visual.
Hal serupa juga disoroti di Indonesia. Wakil Menteri Komunikasi dan Digital, Angga Raka Prabowo, mengajak seluruh pihak bergotong royong menjaga ruang digital dari serbuan disinformasi, fitnah, ujaran kebencian (DFK), serta konten deepfake. Menurutnya, praktik semacam ini berpotensi merusak sendi-sendi demokrasi jika tidak segera diatasi. “Negara hadir dengan menegakkan aturan dan mengajak kita semua bareng-bareng melindungi masyarakat dan generasi muda di ruang digital,” ujarnya dalam acara Ngopi Sore di Kantor Komunikasi Kepresidenan, Jakarta Pusat, sebagaimana dikutip dari situs resmi Komdigi pada Selasa (26/08/2025).
Kedua, arena amplifikasi dan astroturfing. AI juga hadir dalam bentuk sistem rekomendasi dan bot yang mampu menggandakan jangkauan isu tertentu. Laporan Freedom House dan Aliansi Jurnalis Independen (AJI) mencatat bahwa menjelang Pemilu 2024 di Indonesia, disinformasi kian meluas akibat algoritma rekomendasi yang memperbesar dampaknya. Jaringan bot bahkan mampu membuat tagar mendadak viral sehingga menciptakan “anomali bersuara” berupa lonjakan aktivitas yang tidak organik.
Fenomena ini terlihat pula dalam kampanye kebencian yang menunggang isu pengungsi, di mana otomatisasi distribusi konten memperbesar narasi berbahaya. Di sisi lain, ekosistem jurnalisme verifikasi berusaha menahan arus tersebut, namun sering kali tertinggal oleh kecepatan mesin otomatis. Akibatnya, ruang digital menjadi semakin rentan terhadap manipulasi opini publik.
Ketiga, arena pengawasan dan intelijen. Selain memperbesar isu, AI juga digunakan untuk mengawasi. Di tingkat global, teknologi ini dimanfaatkan melalui open-source intelligence (OSINT) untuk memprofilkan pengunjuk rasa, memetakan jaringan, hingga memantau pergerakan massa. Amnesty International menyoroti penggunaan perangkat lunak intelijen seperti Palantir dan Babel Street yang mampu memetakan relasi sosial serta mengidentifikasi individu.
Risiko serupa tidak bisa diabaikan di Indonesia. Pemantauan digital berpotensi menimbulkan efek gentar (chilling effect) yang membuat masyarakat enggan berpartisipasi dalam aksi publik karena takut diawasi. Maka dari itu, penggunaan AI dalam konteks ini tidak hanya menyangkut aspek keamanan, tetapi juga menyentuh ranah kebebasan sipil.
Keempat, arena forensik dan kontra-disinformasi. Perlu diingat, AI tidak selalu hadir sebagai alat pengawasa. Ia juga bisa berfungsi sebagai pelindung. Teknologi deteksi manipulasi visual, pelacakan lintas platform, hingga AI-assisted verification dapat membantu jurnalis dan pemeriksa fakta menghadapi banjir informasi palsu. Misalnya, model visi komputer yang mampu menandai rekayasa gambar, atau sistem cross-platform matching yang dapat melacak asal-usul sebuah klip viral.
Di Indonesia, infrastruktur cek fakta yang berkembang pada Pemilu 2024 menjadi fondasi penting untuk menghadapi tantangan ke depan. AJI dalam publikasi “Jurnalisme Cek Fakta Melawan Disinformasi Pemilu 2024” menekankan pentingnya keterlibatan manusia (human-in-the-loop) dan transparansi metodologi dalam penerapan AI. Artinya, AI dapat menjadi rem terhadap anomali bersuara, bukan hanya gasnya.