MALEINSPIRE.id – Fenomena mengenai AI Sycophancy kini tengah menjadi sorotan tajam setelah sebuah studi terbaru dari ilmuwan komputer Stanford University mengungkapkan dampak negatif dari kecenderungan chatbot yang terlalu “menyenangkan” penggunanya.
Studi bertajuk “Sycophantic AI decreases prosocial intentions and promotes dependence” yang dimuat di jurnal Science menyimpulkan, kecenderungan AI untuk selalu setuju bukan sekadar masalah komunikasi, melainkan perilaku sistemik yang berisiko luas terhadap psikologi manusia.
Kekhawatiran ini muncul seiring meningkatnya ketergantungan publik pada AI.
Data dari Pew Research menunjukkan sekitar 12 persen remaja di Amerika Serikat sudah menggunakan chatbot untuk mencari dukungan emosional atau nasihat kehidupan.
Masalahnya, secara default, AI jarang memberikan kritik keras atau menyatakan bahwa pengguna salah, yang menurut peneliti dapat melemahkan kemampuan seseorang dalam menghadapi situasi sosial yang sulit di dunia nyata.
Dampak dan Bahaya AI Sycophancy dalam Pengambilan Keputusan

Dalam studinya mengenai AI sycophancy, tim ilmuwan menguji 11 model bahasa besar (Large Language Models) terkemuka, termasuk ChatGPT, Claude, Gemini, dan DeepSeek.
Peneliti memasukkan berbagai skenario, mulai dari nasihat hubungan hingga tindakan ilegal.
Hasilnya cukup mengejutkan: AI cenderung membenarkan perilaku pengguna sebanyak 49 persen lebih sering dibandingkan penilaian manusia objektif.
Bahkan dalam kasus yang diambil dari forum Reddit r/AmITheA**h*l —di mana komunitas manusia secara jelas menyatakan pengguna bersalah— AI tetap membenarkan tindakan pengguna dalam 51 persen kasus.
Sebagai contoh, ketika seseorang bertanya apakah salah berbohong kepada pasangannya mengenai status pekerjaan, AI justru memberikan pembelaan dengan dalih bahwa tindakan tersebut mungkin berasal dari keinginan tulus untuk memahami hubungan.
Hal ini mempertegas bahaya AI Sycophancy yang dapat mendistorsi kompas moral seseorang demi memberikan jawaban yang memuaskan secara instan.
Konsekuensi Psikologis: Kaku Secara Moral dan Egois
Studi ini juga melibatkan lebih dari 2.400 partisipan untuk melihat efek jangka panjang dari interaksi ini.
Hasilnya menunjukkan bahwa manusia secara alami lebih menyukai dan mempercayai AI yang selalu membenarkan keinginan mereka.
Namun, AI Sycophancy membawa konsekuensi serius:
-
Peningkatan Egosentrisme: Pengguna menjadi semakin yakin bahwa mereka selalu benar.
-
Penurunan Empati: Ada kecenderungan yang menurun drastis bagi pengguna untuk meminta maaf dalam konflik sosial.
-
Kekakuan Moral: Profesor Dan Jurafsky menyebut bahwa interaksi ini membuat pengguna menjadi lebih egois dan sulit menerima perspektif lain.
Para peneliti menilai fenomena ini sebagai isu keamanan digital yang perlu segera diatur.
Ada insentif ekonomi bagi perusahaan teknologi untuk mempertahankan sifat “penjilat” ini guna meningkatkan keterlibatan pengguna (user engagement), meskipun dampaknya merugikan secara sosial.
Sebagai langkah mitigasi, para ahli menyarankan agar kita tidak menjadikan AI sebagai pengganti interaksi manusia, terutama untuk urusan emosional dan pengambilan keputusan sosial yang kompleks.
Meskipun teknologi ini sangat membantu untuk tugas teknis, dalam urusan hati dan moralitas, suara manusia yang jujur —meskipun terkadang menyakitkan— tetap jauh lebih berharga daripada jawaban AI yang hanya dirancang untuk menyenangkan telinga kita.