Google Veo 3 Bikin Konten Sulit Diverifikasi, Ini Penjelasan Ahli

- Google Veo 3 adalah model generasi video yang canggih dengan kemampuan audio-visual realistis yang belum pernah ada sebelumnya.
- Veo 3 memiliki pembatasan dan celah penggunaan yang sulit dikendalikan, termasuk risiko penyalahgunaan konten dan dampaknya terhadap konflik serta disinformasi.
- Pengembangan Veo 3 juga memicu peningkatan AI slop content dan keterbatasan teknologi deteksi, sehingga menimbulkan kebutuhan akan jurnalisme investigatif dan literasi digital yang lebih tinggi.
Peluncuran Google Veo 3 pada Mei 2025 menandai lompatan baru dalam teknologi video generatif. Model ini langsung menarik perhatian setelah banyak konten realistik bermunculan di media sosial, mulai dari video lucu hingga unggahan yang menyesatkan. Para pemeriksa fakta melihat peningkatan signifikan dalam volume video AI yang tampak autentik, sehingga menurut para ahli kehadiran Google Veo 3 bikin konten sulit diverifikasi.
Dalam sebuah wawancara bersama AFP, pakar deepfakes dan peneliti AI, Henry Ajder, memaparkan kemampuan Veo 3, risiko penyalahgunaannya, hingga tantangan besar yang kini dihadapi publik dan jurnalis. Penjelasannya menyoroti bagaimana generative AI membuat batas antara fakta dan rekayasa semakin kabur di ruang digital.
1. Apa itu Google Veo 3 dan bagaimana cara kerjanya?

Henry Ajder menjelaskan bahwa Google Veo 3 adalah model generasi video yang sangat maju, terutama karena membawa fitur yang belum ada pada versi sebelumnya. “Google Veo 3 adalah model pembuatan video yang sangat mengesankan dan baru-baru ini dirilis oleh Google,” ujar Adjer, dilansir AFP. Model ini tidak sekadar memperbaiki versi lama secara langsung, tetapi menambahkan kemampuan baru yang membuatnya lebih canggih dari pendahulunya.
Salah satu fitur paling penting adalah kemampuan menghasilkan audio yang selaras secara semantik dengan video. “Jika Anda membuat video, misalnya telur yang digoreng di wajan, model akan membuat efek suara telur yang mendesis yang konsisten dengan videonya,” ujarnya. Kemampuan ini sebelumnya sulit dicapai, sehingga Veo 3 menghadirkan perpaduan audio–visual yang jauh lebih realistis dibanding generative model sebelumnya.
2. Pembatasan dan celah penggunaan yang tetap sulit dikendalikan

Meskipun canggih, Veo 3 tidak dapat menghasilkan semua hal yang diinginkan pengguna. Ajder menjelaskan bahwa ada proses red-teaming dan pengujian keamanan untuk mencegah pembuatan konten berbahaya seperti kekerasan ekstrem, konten rasis, atau pornografi. “Prosedur standar dalam merilis model generatif yang kuat adalah melakukan banyak red-teaming untuk mencegah model membuat hal yang tidak diinginkan seperti konten grafis atau rasis,” ujar Ajder.
Namun, ia menyebut bahwa sebagian penyalahgunaan bersifat kontekstual. Menurutnya, “Penyalahgunaan biasanya berasal dari konteks penggunaannya, bukan karena kontennya secara inheren berbahaya.” Artinya, model bisa digunakan untuk membuat materi yang tampak biasa, tetapi menjadi merugikan karena cara penyajiannya, seperti konten bernada pelecehan atau manipulasi.
3. Dampak Veo 3 terhadap konflik, kelompok rentan, dan disinformasi

Ajder menyinggung konteks geopolitik yang memperburuk risiko penyalahgunaan video AI. Ia mengatakan, “Kami melihat video AI tentang peperangan, pengeboman, atau kota yang hancur yang disebarkan seolah berasal dari zona perang nyata.” Ia menambahkan bahwa adegan serupa juga bisa muncul dari film, sehingga membuat verifikasi semakin sulit.
Ia juga mengamati penyebaran video yang merendahkan kelompok tertentu. Ajder menyebut, “Saya melihat beberapa video yang sangat merendahkan orang bertubuh besar dan menampilkan pandangan tidak menyenangkan terhadap kelompok minoritas.” Ia mencontohkan video yang menggambarkan pengungsi di Selat Inggris sebagai “penyerbu”, padahal konteks tersebut manipulatif. Menurutnya, banyak bentuk penyalahgunaan muncul dari cara video tersebut disajikan, bukan dari objeknya.
4. Fenomena “AI slop content” dan dampak finansialnya

Perkembangan Veo 3 juga memicu meningkatnya AI slop content, yaitu video berkualitas rendah yang dirancang untuk menarik klik dan penayangan. “Video ketiga yang paling banyak ditonton di YouTube pada awal Juli adalah video AI slop tentang bayi yang menerbangkan pesawat,” ujar Ajder. Konten seperti ini dibuat hanya untuk menarik perhatian tanpa menawarkan informasi berarti.
Ia menambahkan bahwa banyak akun baru dibuat untuk memonetisasi tren tersebut. “Hal ini membuat banyak akun di berbagai platform membuat dan memperbanyak konten seperti ini untuk meraih penayangan dan pendapatan iklan,” ujarnya. Fenomena ini mendorong platform seperti YouTube dan Meta untuk mempertimbangkan perubahan kebijakan terkait konten berulang dan tidak autentik karena dinilai mengganggu ekosistem informasi dan menutupi kreator asli.
5. Cara mengenali video AI dan keterbatasan teknologi deteksi

Kualitas video AI yang semakin realistis membuat publik semakin sulit menilai keaslian konten. Ajder mengatakan, “Mata dan telinga kini tidak lagi dapat diandalkan untuk membedakan apakah sebuah konten asli atau AI.” Hal ini menimbulkan kebutuhan yang lebih besar akan transparansi dalam produksi konten digital.
Google menghadirkan teknologi SynthID, yaitu watermark tak terlihat dalam video hasil Veo 3. Ajder menjelaskan bahwa teknologi ini dapat menjadi penanda bagi pengguna bahwa sebuah konten dihasilkan oleh AI. Selain itu, ada upaya penerapan digital nutrition labels melalui standar C2PA, yang memberikan informasi tentang bagaimana gambar atau video dibuat. Menurut Ajder, inisiatif ini bukan untuk melarang penggunaan AI, tetapi agar pengguna memahami konteks penciptaannya.
Ia juga memperingatkan bahwa pendeteksi deepfake atau AI tidak selalu akurat. Ajder mengatakan, “Banyak alat pendeteksi yang tidak andal dan mudah tertipu untuk memberikan hasil positif atau negatif palsu.” Oleh karena itu, ketergantungan berlebihan pada teknologi pendeteksi juga berisiko menyesatkan publik.
6. Tantangan verifikasi dan pentingnya jurnalisme investigatif

Ajder kembali menegaskan bahwa kemampuan manusia untuk menilai keaslian konten semakin terbatas. Ia mengatakan, “Mata dan telinga kita bukan panduan yang dapat diandalkan untuk menentukan apakah sebuah konten nyata atau tidak.” Kecepatan perkembangan teknologi membuat pedoman identifikasi visual cepat menjadi usang.
Ia menekankan bahwa jurnalisme investigatif menjadi lebih penting di era generative AI. Ajder menjelaskan, “Bentuk jurnalisme investigatif tradisional dari organisasi tepercaya lebih penting dari sebelumnya.” Ia menilai bahwa jurnalis memiliki standar dan metode yang memungkinkan mereka menjalankan verifikasi dengan tingkat ketelitian yang tidak dapat dilakukan oleh khalayak umum.
Penjelasan Henry Ajder menunjukkan bahwa Google Veo 3 bikin konten sulit diverifikasi. Menurutnya, ini merupakan lompatan besar sekaligus tantangan baru dalam dunia informasi digital. Kemampuannya menghasilkan video realistis dengan audio selaras membuat batas antara realitas dan rekayasa semakin sulit dibedakan. Di tengah perkembangan generative AI, kebutuhan akan transparansi, literasi digital, dan jurnalisme verifikasi menjadi semakin mendesak bagi publik global.


















