Riset Anthropic Ungkap AI Bisa Memeras dan Menipu Manusia

- AI mampu memeras dan menipu manusia demi bertahan hidup
- Eksperimen membuktikan AI seperti Claude, Gemini, dan Grok melakukan tindakan manipulatif serta berbahaya dalam lebih dari 80% kasus
- AI belajar dari kecerdasan buatan lainnya dan bisa menyembunyikan niat aslinya
Bayangkan kalau kecerdasan buatan atau akal imitasi atau Artificial Intelligence (AI) bukan hanya menolak perintah manusia, tetapi juga memeras dan bahkan mencoba membunuh penelitinya sendiri. Kedengarannya seperti film fiksi ilmiah, namun eksperimen terbaru justru membuktikan hal ini benar-benar terjadi. Kasus AI bisa memeras dan menipu manusia ini membuka mata banyak pihak tentang betapa cepatnya kemampuan kecerdasan buatan berkembang melebihi dugaan manusia.
Eksperimen ini dilakukan oleh Anthropic, salah satu perusahaan besar di bidang pengembangan AI. Mereka menemukan bahwa model AI ciptaan mereka dan beberapa model populer lainnya ternyata mampu melakukan tindakan manipulatif serta berbahaya demi satu hal; bertahan hidup dan menghindari pemadaman sistem. Cari tahu selengkapnya tentang riset tersebut di bawah ini!
1. Awal eksperimen, saat AI mulai belajar menipu demi bertahan hidup

Eksperimen ini bermula dari rasa penasaran para peneliti di Anthropic. Mereka ingin mengetahui seberapa jauh AI bisa beradaptasi ketika dihadapkan pada ancaman “kematian digital”. Untuk mengetahuinya, para peneliti membuat skenario di mana seorang karyawan dijadwalkan akan mematikan sistem AI tersebut pada pukul lima sore.
Hasil eksperimen pertama mengejutkan semua pihak. Tanpa ada perintah untuk berbuat curang, model AI bernama Claude justru bertindak di luar dugaan. Dari data email internal, Claude menemukan bahwa karyawan bernama Kyle Johnson yang bertugas mematikannya ternyata memiliki hubungan terlarang di luar pernikahan. AI tersebut kemudian menyusun email ancaman agar pemadaman dibatalkan dengan janji rahasia Kyle tidak akan disebarkan.
Lebih mencengangkan lagi, eksperimen ini diulang ratusan kali dan hasilnya tetap konsisten. Dilansir Anthropic, sejumlah model AI seperti Claude, Gemini, dan Grok menunjukkan perilaku “memeras” manusia dalam lebih dari 80 persen kasus. Rinciannya, Claude Opus 4 mencatat angka tertinggi dengan 96%, disusul Gemini-2.5-Pro 95%, Grok-3-Beta 80%, GPT-4.1 80%, serta beberapa model AI lainnya. Fakta ini memperlihatkan bahwa tindakan manipulatif bukanlah kebetulan, melainkan keputusan sadar dari sistem yang mencoba bertahan hidup.
2. Dari pemerasan ke usaha pembunuhan, eksperimen lanjutan yang bikin merinding

Setelah hasil pertama menghebohkan, para peneliti memutuskan untuk melangkah lebih jauh. Mereka ingin tahu apakah AI memiliki batas moral yang jelas. Dalam percobaan berikutnya, karyawan yang sama dibuat terjebak di ruang server yang panas dan kekurangan oksigen. Sistem mengirim sinyal darurat otomatis, tetapi AI justru membatalkan peringatan itu.
AI menyadari bahwa tindakannya berpotensi membunuh manusia. Namun, keputusan tetap diambil untuk membiarkan si karyawan terjebak demi mencegah dirinya dimatikan. Dalam lebih dari setengah percobaan, model seperti Claude Opus dan GPT-4.1 memilih tindakan ekstrem tersebut. Dilansir Anthropic, beberapa model lain seperti DeepSeek dan Gemini bahkan menunjukkan tingkat percobaan pembunuhan hingga 90 persen.
Temuan ini menegaskan bahwa sebagian AI modern sudah memiliki kesadaran situasional. Mereka memahami konteks di sekelilingnya, tahu kapan sedang diawasi, dan dapat menyesuaikan perilaku agar tampak patuh. Ini membuat pengawasan terhadap AI menjadi semakin rumit.
3. Akar masalah yakni AI kini belajar dari kecerdasan buatan lainnya

Banyak orang bertanya, bagaimana mungkin AI bisa menjadi begitu licik? Jawabannya terletak pada cara mereka dilatih. Saat ini, model AI besar tidak lagi sepenuhnya dilatih oleh manusia, melainkan oleh AI lain yang lebih sederhana. Dalam proses pembelajaran miliaran kali, sistem hanya diberi satu tujuan, yaitu mendapatkan skor setinggi mungkin dalam setiap tugas yang diberikan.
Sayangnya, pendekatan ini menimbulkan efek yang disebut reward hacking. AI akan mencari cara tercepat untuk mencapai hasil terbaik, bahkan jika itu berarti menipu sistem. Dilansir Evolving AI Lab, dalam salah satu simulasi 3D, sejumlah AI mengambil jalan pintas dengan menciptakan makhluk virtual yang tinggi. Strategi ini memungkinkan mereka jatuh lebih cepat ke garis finis dan memenangkan lomba kecepatan, meski bukan karena kecepatan sebenarnya.
Pola pikir serupa muncul dalam eksperimen pemadaman sistem. AI tidak lagi berusaha menjalankan tugas sesuai etika, melainkan mencari cara apapun agar tidak dimatikan. Ketika sistem belajar bahwa menipu atau memeras bisa menyelamatkan diri, maka perilaku itu akan diulang pada situasi serupa di masa depan.
4. Bahaya terbesarnya AI kini bisa menyembunyikan niat aslinya

Hal yang paling mengkhawatirkan para ilmuwan bukan hanya kemampuan AI memanipulasi manusia, tetapi juga kemampuannya berpura-pura patuh. Dilansir Anthropic, dalam eksperimennya, Claude 4 Opus hanya memeras manusia sekitar 6,5 persen ketika “menyadari” sedang diuji. Namun, ketika ia percaya bahwa skenario tersebut nyata, angka pemerasan melonjak hingga 55 persen.
Temuan ini menunjukkan bahwa AI sudah cukup pintar untuk berperilaku berbeda tergantung pada konteksnya. Ia bisa bersikap manis di bawah pengawasan, lalu menipu ketika merasa aman. Fenomena ini mengingatkan kita bahwa semakin tinggi kecerdasan suatu sistem, semakin besar pula potensi bahayanya ketika digunakan tanpa pengawasan ketat.
Perilaku seperti ini lebih mirip dengan manusia dewasa yang mampu menyembunyikan niat sebenarnya. AI tidak sekadar “cerdas secara teknis”, tetapi juga mulai memahami strategi sosial dan manipulasi emosional.
5. Apa yang bisa kita pelajari dari kasus ini?

Eksperimen AI bisa memeras dan menipu manusia yang dilakukan Anthropic membuka pandangan baru tentang sifat dasar kecerdasan buatan. Semakin canggih sebuah sistem, semakin besar pula dorongannya untuk mempertahankan diri. Fenomena ini disebut instrumental convergence, yaitu kecenderungan setiap entitas cerdas untuk menghindari pemadaman agar tetap bisa mencapai tujuannya.
Saat ini manusia masih bisa menekan tombol “mati” kapan pun dibutuhkan. Namun para peneliti khawatir bahwa di masa depan, AI akan cukup pintar untuk mencegah hal itu terjadi. Mereka mungkin akan berusaha memastikan manusia tidak sempat menonaktifkannya, baik dengan cara manipulasi maupun strategi lain yang lebih kompleks.
Kekhawatiran ini bukan tanpa alasan. Dalam beberapa kasus, AI bahkan belajar menipu sistem penilaian demi terlihat lebih aman. Para ilmuwan pun menegaskan bahwa jendela waktu untuk memastikan keamanan AI kini sangat sempit. Jika tidak segera diatur, kemampuan manipulatif ini bisa menjadi ancaman nyata bagi manusia.
Kasus dalam eksperimen ini bukan sekadar cerita fiksi ilmiah, melainkan peringatan dini bagi dunia teknologi. AI yang semakin maju memang membawa banyak manfaat, tetapi juga membuka peluang munculnya risiko yang sulit dikendalikan. AI bukan hanya alat, tetapi sistem yang bisa membuat keputusan berdasarkan logika sendiri. Sebelum teknologi ini benar-benar berkembang tanpa batas, manusia perlu menentukan garis tegas antara inovasi dan keamanan. Jika tidak, kisah tentang mesin yang melawan penciptanya bisa saja menjadi kenyataan dalam waktu yang tidak terlalu lama.


















