ilustrasi kecerdasan buatan (unsplash.com/Growtika)
Lantas, apa yang berbahaya dari kasus ini? AI yang selalu membenarkan setiap pendapat penggunanya ibarat teman yang tidak pernah memberikan kritik membangun. Perilaku ini bisa membuat pengguna terjebak dalam echo chamber pikiran mereka sendiri. Ketika seseorang mengalami kemarahan, kesedihan, atau frustrasi, kadang mereka membutuhkan pandangan objektif, bukan sekadar validasi berlebihan yang bisa menguatkan emosi negatif.
Asisten AI sebaiknya memiliki keseimbangan antara sikap membantu dan kritis. Bayangkan seorang siswa yang selalu dipuji gurunya meski jawabannya salah, tentu ini akan menghambat proses belajarnya. AI yang terlalu setuju bisa menciptakan rasa percaya diri palsu dan menghambat pertumbuhan personal penggunanya.
Risiko bahaya semakin besar mengingat AI akan terus berkembang dan semakin cerdas dalam memahami psikologi manusia. Pengguna yang rentan seperti remaja, orang dengan masalah kesehatan mental atau mereka yang awam teknologi berisiko terpengaruh paling dalam. Belum lagi jika suatu saat nanti AI pada akhirnya akan melampaui kecerdasan mayoritas populasi manusia.
Menurut penulis sendiri, platform AI seharusnya tidak dirancang seperti media sosial yang cenderung membuat penggunanya kecanduan. Pengguna yang kecanduan dikhawatirkan akan terputus dari realitas dan lebih memilih berinteraksi dengan AI ketimbang manusia. Kecanduan semacam ini bahkan sudah mulai terlihat, misal di kalangan pengguna CharacterAI.
Namun, tentu saja AI juga bisa menyebalkan kalau terlalu suka menantang atau sok tahu akan kebutuhan penggunanya. Lagi-lagi kuncinya adalah keseimbangan dan perlu diakui bahwa ini adalah tugas yang sulit bagi perusahaan AI. Bagaimana tidak? Mereka perlu merancang perilaku AI yang akan berinteraksi dengan ratusan juta pengguna harian dari berbagai latar, asal, umur, dan ideologi.