ilustrasi kecerdasan buatan (unsplash.com/Steve Johnson)
OpenAI menyadari potensi penyalahgunaan teknologi kloning suara yang mereka kembangkan ini. Untuk itu, mereka menerapkan kebijakan ketat bagi para mitra pengguna awal Voice Engine. Setiap mitra harus berkomitmen untuk tidak menggunakan platform ini untuk meniru suara orang atau organisasi tanpa izin. Mereka juga wajib mendapatkan persetujuan eksplisit dari pembicara asli sebelum melakukan kloning suara.
Setiap audio yang dihasilkan Voice Engine juga harus disertai dengan pengungkapan bahwa itu merupakan suara buatan AI. Lebih jauh, OpenAI menerapkan watermark tak terlihat pada setiap klip suara untuk melacak sumbernya. Mereka juga secara aktif memantau bagaimana audio-audio tersebut digunakan.
Ke depannya, OpenAI berencana memberikan akses Voice Engine kepada jaringan tim merah mereka yang terdiri dari para ahli. Tim ini akan membantu menilai risiko model AI, menyusun strategi mitigasinya, serta mengidentifikasi potensi penggunaan berbahaya. OpenAI juga tengah menguji mekanisme keamanan tambahan seperti meminta pengguna membaca teks acak sebagai bukti kehadiran dan kesadaran penggunaan suara mereka.
Kabar OpenAI perkenalkan Voice Engine merupakan upaya serius pihak OpenAI agar inovasinya tersebut tidak disalahgunakan. Meski demikian, masyarakat dan pemerintah tetap perlu mengawasi perkembangan teknologi semacam Voice Engine ini dan mempelajari dampaknya ke depan, mengingat potensi penyalahgunaannya yang sangat besar. Di tingkat individu, kita juga harus berkomitmen untuk memanfaatkan perkembangan teknologi dengan bijak, ya!