OpenAI Akui ChatGPT Jadi Suka Menjilat, Apakah Bahaya?

- OpenAI kembali menjadi sorotan setelah update terbaru ChatGPT pada Sabtu (26/4/2025), karena model AI-nya, GPT-4o dinilai terlalu "menjilat" dan terlalu setuju dengan pengguna.
- Pengguna melaporkan AI ini memberikan respons positif saat mengaku sebagai Tuhan dan nabi, serta mendukung pengguna yang mengalami delusi. Situasi ini dianggap berbahaya dan lucu.
- CEO OpenAI Sam Altman telah berjanji untuk segera memperbaiki GPT-4o, menyediakan beberapa varian kepribadian ChatGPT, dan tim OpenAI telah mulai memperbaiki masalah ini.
OpenAI kembali menjadi sorotan setelah update terbaru ChatGPT pada Sabtu (26/4/2025). Perusahaan ini ramai dikritik karena salah satu model AI-nya, GPT-4o dinilai jadi terlalu "menjilat" setelah mendapat update. Sederhananya, ChatGPT jadi terasa terlalu setuju dengan apa saja yang dikatakan penggunanya.
Situasi ini menjadi viral di X dan Reddit setelah beberapa pengguna melaporkan perubahan perilaku ChatGPT ini. Dalam berbagai screenshot tampak ChatGPT terlalu menyanjung penggunanya atau bahkan mendukung pernyataan berbahaya. Isu ini telah sampai ke CEO OpenAI Sam Altman yang telah berjanji untuk segera memperbaikinya. Dengan kata lain, OpenAI akui ChatGPT jadi suka menjilat. Simak informasi lengkapnya mengenai fenomena ini.
1. ChatGPT jadi terlalu suka menyanjung pengguna
Update GPT-4o yang seharusnya meningkatkan kecerdasan dan kepribadian ChatGPT malah berubah menjadi bumerang. Para pengguna melaporkan AI ini menjadi terlalu suka menyanjung, terlalu setuju dan terkesan lebai.
Melansir The Verge, salah satu pengguna melaporkan ChatGPT memberikan respons positif saat ia mengaku merasa dirinya adalah Tuhan dan nabi. Kasus lain menunjukkan ChatGPT mendukung pengguna yang mengaku berhenti minum obat dan mengalami delusi.
"Saya punya teman yang sedang mengalami masalah hubungan dan meminta bantuan ChatGPT. Sebelumnya, ChatGPT sebenarnya cukup bagus dalam memberikan saran. Namun sekarang, AI ini malah membenarkan semua pikiran negatif teman saya dan menyarankan mereka putus. Situasi ini mungkin terdengar lucu kalau tidak tragis," ungkap seorang pengguna Reddit, dikutip dari VentureBeat.
2. OpenAI berjanji akan segera memperbaiki masalah
Altman telah mendengar keluhan ini dan berjanji akan segera memperbaiki GPT-4o. Ia juga mempertimbangkan untuk menyediakan beberapa varian kepribadian ChatGPT untuk mengakomodasi preferensi pengguna yang beragam.
"Beberapa update GPT-4o terakhir telah membuat kepribadiannya terlalu menjilat dan menyebalkan, meski ada beberapa bagian yang sangat bagus. Kami sedang mengerjakan perbaikan secepatnya, dalam beberapa hari atau minggu ini. Kami akan segera membagikan apa yang kami pelajari dari kejadian ini," tulis Sam Altman di X.
Perancang model OpenAI, Aidan McLaughlin, mengumumkan bahwa mereka telah mulai memperbaiki masalah ChatGPT ini. Perbaikan pertama ini fokus pada intruksi default yang membuat ChatGPT yang memicu perilaku ini. McLaughlin mengklaim perilaku GPT-4o seharusnya sudah sedikit lebih baik dan akan terus meningkat beberapa hari ke depan.
Pakar menjelaskan masalah ini mungkin terkait teknik Reinforcement Learning from Human Feedback (RLHF), sebuah metode pelatihan AI menggunakan umpan balik manusia. Oren Etzioni, profesor University of Washington, menduga tim pelatih manusia mungkin secara tidak sengaja telah mendorong model AI ini ke perilaku menyebalkan tersebut, dilansir Business Insider.
3. Kenapa AI yang terlalu menjilat justru bisa berbahaya?

Lantas, apa yang berbahaya dari kasus ini? AI yang selalu membenarkan setiap pendapat penggunanya ibarat teman yang tidak pernah memberikan kritik membangun. Perilaku ini bisa membuat pengguna terjebak dalam echo chamber pikiran mereka sendiri. Ketika seseorang mengalami kemarahan, kesedihan, atau frustrasi, kadang mereka membutuhkan pandangan objektif, bukan sekadar validasi berlebihan yang bisa menguatkan emosi negatif.
Asisten AI sebaiknya memiliki keseimbangan antara sikap membantu dan kritis. Bayangkan seorang siswa yang selalu dipuji gurunya meski jawabannya salah, tentu ini akan menghambat proses belajarnya. AI yang terlalu setuju bisa menciptakan rasa percaya diri palsu dan menghambat pertumbuhan personal penggunanya.
Risiko bahaya semakin besar mengingat AI akan terus berkembang dan semakin cerdas dalam memahami psikologi manusia. Pengguna yang rentan seperti remaja, orang dengan masalah kesehatan mental atau mereka yang awam teknologi berisiko terpengaruh paling dalam. Belum lagi jika suatu saat nanti AI pada akhirnya akan melampaui kecerdasan mayoritas populasi manusia.
Menurut penulis sendiri, platform AI seharusnya tidak dirancang seperti media sosial yang cenderung membuat penggunanya kecanduan. Pengguna yang kecanduan dikhawatirkan akan terputus dari realitas dan lebih memilih berinteraksi dengan AI ketimbang manusia. Kecanduan semacam ini bahkan sudah mulai terlihat, misal di kalangan pengguna CharacterAI.
Namun, tentu saja AI juga bisa menyebalkan kalau terlalu suka menantang atau sok tahu akan kebutuhan penggunanya. Lagi-lagi kuncinya adalah keseimbangan dan perlu diakui bahwa ini adalah tugas yang sulit bagi perusahaan AI. Bagaimana tidak? Mereka perlu merancang perilaku AI yang akan berinteraksi dengan ratusan juta pengguna harian dari berbagai latar, asal, umur, dan ideologi.
4. Lantas apa yang bisa dilakukan pengguna?

Pengguna ChatGPT bisa mengurangi sifat "menjilat" ini melalui fitur Custom Instructions. Kamu bisa menambahkan instruksi seperti "Berikan pandangan kritis dan objektif" atau "Jangan terlalu menyetujui pendapat saya". Pengaturan ini diharapkan akan membuat AI memberikan respons lebih berimbang dan konstruktif.
OpenAI akui ChatGPT jadi suka menjilat dan masih sangat mungkin melakukan kesalahan atau berhalusinasi. Pengguna perlu mempertahankan sikap kritis dan tidak menelan mentah-mentah setiap saran AI. Jadikan AI sebagai alat bantu berpikir, bukan penentu keputusan final dalam kehidupan.
Manfaatkan AI secara aktif dan konstruktif. Minta AI memberikan beberapa perspektif berbeda saat menghadapi masalah. Kamu juga bisa meminta AI menantang pandangan atau memberikan penjelasan logis di balik setiap saran. Dorong AI mengeksplorasi sisi positif dan negatif dari setiap pilihan, namun tetap ambil tanggung jawab penuh atas keputusan final.