Iklan - Scroll untuk Melanjutkan
Baca artikel IDN Times lainnya di IDN App
ilustrasi membuka situs ChatGPT melalui laptop
ilustrasi membuka situs ChatGPT melalui laptop (freepik.com/frimufilms)

Intinya sih...

  • Gaya bahasa pengguna jadi pemicu halusinasi AIPenelitian menemukan gaya komunikasi pengguna saat berinteraksi dengan AI sangat berbeda dibandingkan ketika berbicara dengan manusia.

  • Faktor teknis di balik fenomena halusinasi AIMekanisme teknis di dalam Large Language Models (LLM) seperti ChatGPT maupun Claude juga memengaruhi terjadinya halusinasi AI.

  • Pengguna punya andil untuk memutus halusinasi AIPengguna memiliki peran penting dalam mengurangi halusinasi pada AI dengan menggunakan kalimat yang lengkap, tata bahasa yang tepat, serta nada sopan.

Disclaimer: This summary was created using Artificial Intelligence (AI)

Keberadaan kecerdasan buatan (AI) kini semakin mempermudah aktivitas manusia. Tidak lagi diperlukan upaya besar untuk mencari informasi secara manual seperti di masa lalu. Cukup mengetikkan pertanyaan singkat, berbagai data, analisis, hingga rekomendasi dapat muncul dalam hitungan detik. Teknologi ini menjadikan proses berpikir dan bekerja jauh lebih efisien, terutama dalam dunia pendidikan, bisnis, maupun penelitian.

Meski begitu, kemudahan ini juga membawa risiko baru. Saat pengguna terlalu bergantung pada AI tanpa memverifikasi kebenaran informasi yang diberikan, risiko menerima data keliru atau hasil “halusinasi” dari sistem menjadi semakin tinggi. Halusinasi AI merujuk pada kondisi ketika sistem menghasilkan jawaban yang salah, tidak relevan, atau bahkan sepenuhnya fiktif. Fenomena ini menarik perhatian para peneliti karena menunjukkan adanya kesenjangan antara kemampuan AI memahami konteks dan realitas data yang sesungguhnya.

Menariknya, sebuah studi oleh Fulei Zhang dan Zhou Yu (2025) yang dipublikasikan di arXiv.org menemukan bahwa penyebab halusinasi AI tidak sepenuhnya bersumber dari algoritma atau model yang digunakan. Cara pengguna menulis prompt atau bentuk kalimat tanya ternyata ikut memengaruhi secara signifikan munculnya respons keliru. Artinya, pengguna sendiri secara tidak sadar dapat menjadi pemicu halusinasi AI. Lantas, apa sebenarnya temuan penelitian ini dan bagaimana peran manusia dalam memengaruhi cara AI berpikir?

1. Gaya bahasa pengguna jadi pemicu halusinasi AI

ilustrasi kosakata (unsplash.com/Edho Pratama)

Penelitian berjudul “Mind the Gap: Linguistic Divergence and Adaptation Strategies in Human-LLM Assistant vs. Human-Human Interactions”, yang diterbitkan di arXiv.org pada 3 Oktober 2025 menemukan bahwa gaya komunikasi pengguna saat berinteraksi dengan AI sangat berbeda dibandingkan ketika berbicara dengan manusia. Dalam studi yang menganalisis lebih dari 13.000 percakapan manusia-ke-manusia dan 1.357 interaksi manusia ke AI chatbot, peneliti menemukan bahwa pesan yang ditujukan kepada AI cenderung lebih singkat, kurang terstruktur, kurang sopan, dan menggunakan kosakata terbatas.

Meskipun informasi yang disampaikan hampir sama, perbedaan gaya bahasa ini membuat AI menafsirkan konteks secara berbeda. Model AI seperti ChatGPT dilatih menggunakan data berisi kalimat yang lengkap, tata bahasa yang baik, dan nada sopan. Saat menerima input yang lebih kasar, singkat, atau tidak jelas, AI berpotensi salah memahami maksud pengguna. Fenomena ini disebut para peneliti sebagai “style shift”, yaitu perubahan gaya komunikasi yang memicu AI salah menafsirkan maksud.

2. Faktor teknis di balik fenomena halusinasi AI

ilustrasi suasana brainstorming para developers menggunakan otomatisasi AI (freepik.com/pressfoto)

Fenomena halusinasi AI juga dapat dipahami melalui mekanisme teknis yang ada di dalam Large Language Models (LLM) seperti ChatGPT maupun Claude. Sistem AI menggunakan reward mechanism atau mekanisme penghargaan yang mendorongnya untuk selalu memberikan jawaban, meskipun informasi yang dimiliki tidak lengkap atau pasti. Akibatnya, ketika pengguna memberikan prompt yang ambigu, kurang sopan, atau tidak terstruktur dengan baik, AI cenderung “menebak” jawaban yang terdengar meyakinkan, padahal sebenarnya salah secara faktual.

Kondisi inilah yang membuat chatbot terkadang menciptakan kutipan palsu, merumuskan sumber fiktif, atau menampilkan data yang tidak pernah ada. Dalam konteks ilmiah, hal ini sangat berisiko karena pengguna bisa salah mengira semua jawaban AI bersifat akurat dan objektif. Oleh karena itu, memahami hubungan antara gaya bahasa pengguna dan respons AI menjadi langkah krusial untuk meminimalisasi kesalahan serta mengurangi kemungkinan terjadinya halusinasi.

3. Pengguna punya andil untuk memutus halusinasi AI

ilustrasi membuka situs ChatGPT melalui laptop (freepik.com/frimufilms)

Kabar baiknya, penelitian ini menunjukkan bahwa pengguna memiliki peran penting dalam mengurangi halusinasi pada AI. Salah satu cara paling efektif adalah memperlakukan chatbot layaknya berbicara sesama manusia sesungguhnya yakni menggunakan kalimat yang lengkap, tata bahasa yang tepat, serta nada (tone) yang sopan. Pendekatan komunikasi ini membantu AI menangkap konteks lebih tepat sehingga jawaban yang dihasilkan menjadi lebih akurat dan dapat diandalkan.

Sebagai contoh, alih-alih menulis “buatkan ringkasan cepat,” pengguna bisa menulis, “Bisakah kamu membuat ringkasan singkat mengenai topik ini dengan menyoroti poin-poin utamanya?” Pendekatan ini membantu AI menangkap konteks lebih akurat, sehingga jawaban yang diberikan lebih dapat diandalkan. Jadi, pengguna tidak hanya terima jadi jawaban dari AI, tetapi juga berperan aktif dalam memastikan kualitas dan keakuratan respons yang diberikan.

4. Peneliti menawarkan pendekatan style-aware training untuk mengatasi permasalahan ini

ilustrasi kumpulan aplikasi berbasis AI (unsplash.com/Solen Feyissa)

Para peneliti juga menawarkan pendekatan jangka panjang untuk mengatasi masalah halusinasi AI. Mereka menyarankan agar model bahasa besar dilatih menggunakan data yang mencakup beragam gaya komunikasi manusia. Pendekatan ini dikenal sebagai “style-aware training” dan terbukti mampu meningkatkan kemampuan AI dalam memahami maksud pengguna hingga sekitar 3 persen. Melalui metode ini, AI dapat beradaptasi terhadap variasi bahasa yang berbeda tanpa mengorbankan akurasi pemahamannya.

Di sisi lain, upaya memparafrase prompt secara otomatis tidak selalu memberikan hasil yang optimal. Dalam beberapa kasus, perubahan gaya bahasa justru menghilangkan nuansa emosional dan konteks percakapan. Karena itu, keseimbangan antara pelatihan model yang adaptif dan kesadaran pengguna dalam berkomunikasi menjadi kunci utama untuk menciptakan interaksi yang lebih cerdas dan alami antara manusia dan AI.

Studi ini menekankan satu hal penting bahwa gaya komunikasi pengguna menentukan kualitas jawaban AI. Cara kita menulis, memilih kata, dan menjaga sopan santun secara langsung memengaruhi pemahaman AI. Memberikan perlakuan chatbot layaknya seperti berbicara dengan manusia, pengguna turut membangun ekosistem interaksi yang lebih produktif, efektif, dan akurat.

Pada akhirnya, kecerdasan buatan tidak hanya bergantung pada seberapa canggih algoritma, tetapi juga pada seberapa bijak manusia menggunakannya. Jika komunikasi antara pengguna dan mesin berlangsung dengan baik, potensi halusinasi dapat diminimalkan, sehingga AI benar-benar berfungsi sebagai asisten pintar, bukan sekadar memberi jawaban yang menyesatkan.

This article is written by our community writers and has been carefully reviewed by our editorial team. We strive to provide the most accurate and reliable information, ensuring high standards of quality, credibility, and trustworthiness.

Editorial Team