Roadmap AI Nasional Segera Rampung, Fokus Deteksi Hoaks-Etika

- Pemerintah melalui Komdigi tengah merampungkan Roadmap AI Nasional dan Pedoman Etika AI untuk memperkuat tata kelola serta menjaga integritas informasi dari ancaman disinformasi akibat perkembangan generative AI.
- Strategi utama mencakup pelabelan konten sintetis, watermark tak kasat mata, pengembangan AI pendeteksi hoaks, serta pembentukan Gugus Tugas Koordinasi Kecerdasan Artifisial Nasional lintas sektor.
- Perwakilan industri dan masyarakat sipil menekankan pentingnya regulasi yang matang serta pengawasan manusia agar kebijakan AI tetap melindungi hak digital warga dan mencegah kesalahan deteksi konten.
Jakarta, IDN Times - Kementerian Komunikasi dan Digital (Komdigi) tengah merampungkan Roadmap AI Nasional dan Pedoman Etika AI untuk memperkuat tata kelola kecerdasan artifisial di Indonesia.
Langkah ini diambil guna merespons laporan Global Risks Report dari World Economic Forum (WEF) yang menempatkan disinformasi sebagai ancaman utama dunia, terutama akibat pesatnya perkembangan generative AI.
Ketua Tim Perencanaan Program dan Pelaporan Direktorat Jenderal Ekosistem Digital Komdigi, Salfikar Alfarizi Abbas, menyatakan pemerintah sedang menyiapkan kerangka kebijakan yang adaptif untuk menjaga integritas informasi nasional. Salfikar menekankan pentingnya regulasi yang mampu mengimbangi teknologi.
“Bagi kami, pertanyaannya sekarang bukan lagi apakah AI dapat memengaruhi integritas informasi. AI sudah jelas dapat memengaruhi integritas informasi. Tantangan yang sesungguhnya sekarang adalah: mampukah kebijakan publik mengejar pesatnya perkembangan AI dan melindungi integritas informasi, tapi di saat yang sama tetap mendukung inovasi,” ujar Salfikar dalam keterangannya, Jumat (10/4/2026).
1. Bakal ada wacana watermark tak kasat mata

Strategi yang disiapkan mencakup pelabelan konten sintetis, penggunaan watermark tak kasat mata, hingga pengembangan AI khusus untuk deteksi hoaks sebagai program quick wins nasional.
Selain itu, pemerintah berencana membentuk Gugus Tugas Koordinasi Kecerdasan Artifisial Nasional yang melibatkan lintas kementerian, platform teknologi, akademisi, hingga media.
Hal ini disampaikan dalam Talk Show pada Pre-Course Workshop untuk Short Course “The Challenge of Mis and Disinformation: Fostering Information Integrity and Media Literacy in the Digital Age” yang diselenggarakan Australia Awards di Indonesia bersama Kedutaan Besar Australia
2. Mengaturnya tidak perlu terburu-buru

Dari sisi industri, Government Affairs & Public Policy Google Indonesia, Agung Pamungkas, mengingatkan agar pemerintah tidak terburu-buru dalam melahirkan regulasi baru tanpa mengevaluasi aturan yang sudah ada. Menurut dia, AI terlalu penting untuk tidak diregulasi, tapi terlalu penting pula untuk tidak diregulasi dengan cara yang tepat.
"Jadi, penting sekali untuk diatur, tapi pengaturannya itu harus baik. Banyak pembuat kebijakan terburu-buru dalam membuat kebijakan baru. Saya rasa dari sudut pandang industri, kita tidak perlu terburu-buru karena kita cukup melihat regulasi yang sudah ada sebagai titik permulaan dan lihat apakah masih ada kesenjangan (gap), jika masih ada gap maka di situlah kita membuat regulasi baru,” kata Agung.
3. Pentingnya pengawasan manusia untuk hindari kesalahan deteksi

Direktur Eksekutif SAFEnet, Nenden Sekar Arum N, menyoroti pentingnya pengawasan manusia atau human oversight untuk menghindari kesalahan deteksi konten. Dia menegaskan, regulasi harus berpijak pada hak digital warga negara.
“Jadi, ketika kita berbicara tentang AI dan teknologi yang berkembang, kita harus tahu bahwa pada dasarnya itu adalah hak kita sebagai warga negara. Jadi, kita harus tahu bahwa kita memiliki hak dalam ruang digital, bahkan dalam bidang teknologi. Ketika kita berbicara tentang disinformasi atau regulasi, kita harus punya pemahaman yang sama tentang apa itu disinformasi. Kalau tidak, regulasi apa pun akan sangat bermasalah bagi masyarakat sipil. Dan tentu saja, kita masih perlu human oversight untuk memastikan tidak ada false positive atau false negative dalam pendeteksian disinformasi,” kata Nenden.
Kebijakan ini nantinya akan mewajibkan pembagian tanggung jawab yang jelas antara pengembang atau developer pengguna sistem atau deployer, dan regulator melalui mekanisme pelaporan insiden serta asesmen risiko sebelum sistem AI diluncurkan ke publik.


















