Dalam beberapa tahun terakhir, kecerdasan buatan atau akal imitasi semakin banyak digunakan. Mulai dari menulis teks, menjawab pertanyaan, hingga membantu penelitian akademik. Namun, di balik kemampuannya yang luar biasa, muncul fenomena menarik sekaligus menggelitik. Terkadang AI tampak tahu segalanya, padahal ia tidak tahu apa-apa. Dalam falsafah Jawa, ada ungkapan yang tepat untuk menggambarkan hal ini. Ojo keminter mundhak keblinger (jangan sok pintar agar tidak tersesat oleh kepintarannya sendiri). Fenomena inilah yang dikenal dengan istilah AI hallucination atau halusinasi AI.
Menurut IBM, istilah ini mengacu pada kondisi ketika sistem AI menghasilkan respons yang tidak bersumber dari data pelatihan (training data) atau tidak mengikuti pola yang bisa dikenali secara logis. Tak dapat dimungkiri, banyak orang kini mengandalkan AI untuk mendapatkan jawaban instan tanpa menyadari bahwa sebagian dari jawaban tersebut mungkin keliru. Dalam banyak kasus, ketika AI memberikan informasi yang salah atau menyesatkan justru disampaikan seolah memang benar adanya. Bukan karena AI berniat menipu, melainkan ia hanya meniru pola dari data yang tersedia. Lantas, bagaimana fenomena halusinasi AI ini bisa terjadi?
