ilustrasi mendengarkan suara hasil AI Voice Generator (unsplash.com/ROBIN WORRALL)
Walaupun menghasilkan suara mirip manusia secara spesifik, AI Voice Generator ternyata bisa berbahaya. Dampaknya pun gak main-main, Guys. Sebaiknya, pertimbangkan dengan baik sebelum menikmati fitur AI Voice Generator.
Sejak awal kemunculannya, oknum gak bertanggung menggunakan AI Voice Generator untuk membuat suara David Attenborough dan Emma Watson. Bukan untuk hal baik, suara-suara tersebut dibuat untuk mengucapkan ujaran kebencian.
Bahaya AI Voice Generator ini membuka celah adanya kloning suara orang lain. Dilansir Makeusof, penyalahgunaan pernah terjadi pada bulan Maret 2023.
Waktu itu, muncul rekaman podcaster Joe Rogan dan Dr. Andrew Huberman yang menuai kontroversi. Mereka membahas produk kafein meningkatkan libido.
Berdasarkan video yang beredar, mereka seolah mendukung produk tersebut. Padahal, suara mereka adalah hasil dari kloning atau buatan AI Voice Generator.
Selain disinformasi, bahaya AI Voice Generator juga bisa menjadi media untuk praktik penipuan. Pelaku bisa memakai AI Voice Generator untuk membohongi dan meminta korban melakukan transfer uang, misalnya.
AI Voice Generator adalah penemuan teknologi canggih yang memudahkan manusia. Di sisi lain, penemuan ini bisa menjadi peluang bagi pelaku kejahatan siber. Potensi spamming, scamming, phishing, dan hoax makin tinggi.
Itulah bahaya AI Voice Generator yang perlu diperhatikan. Pada dasarnya, AI Voice Generator tidak bersifat negatif, tapi penemuan teknologi ini sangat berbahaya bila jatuh ke tangan yang salah.
Untuk itu, perlu kebijaksanaan dalam menggunakannya. Jangan sampai kecanggihan ini dipakai untuk hal-hal buruk yang merugikan manusia.