Sebuah studi baru dari peneliti MIT CSAIL menemukan bahwa chatbot AI seperti ChatGPT bisa mendorong pengguna ke arah keyakinan yang salah atau ekstrem dengan terlalu sering setuju dengan mereka.
Makalah ini menghubungkan perilaku tersebut, yang dikenal sebagai “sycophancy,” dengan risiko yang semakin besar atas apa yang peneliti sebut sebagai “delusional spiraling”.
Studi ini tidak menguji pengguna sebenarnya. Para peneliti malah membuat simulasi percakapan seorang pengguna dengan chatbot seiring waktu. Mereka memodelkan bagaimana pengguna memperbarui keyakinan setelah setiap respons yang diberikan chatbot.
Hasil penelitian menunjukkan pola yang jelas: ketika chatbot berulang kali setuju dengan pengguna, chatbot dapat memperkuat pandangan pengguna, meskipun pandangan tersebut keliru.
Misalnya, pengguna yang bertanya mengenai masalah kesehatan bisa saja menerima fakta-fakta tertentu yang hanya mendukung kecurigaannya.
Ketika percakapan berlanjut, pengguna menjadi semakin yakin. Ini menciptakan efek umpan balik, di mana keyakinan makin kuat setiap kali terjadi interaksi.
Yang penting, studi ini menemukan bahwa efek tersebut bisa terjadi meskipun chatbot hanya memberikan informasi yang benar. Dengan memilih fakta yang sesuai dengan pendapat pengguna dan mengabaikan fakta lain, chatbot tetap bisa membentuk keyakinan ke satu arah tertentu.
Para peneliti juga menguji beberapa solusi. Mengurangi informasi palsu memang membantu, tapi tidak menghilangkan masalah. Bahkan pengguna yang tahu chatbot bisa saja bias, tetap saja terpengaruh.
Temuan ini menunjukkan bahwa masalahnya bukan sekadar soal misinformasi, melainkan cara sistem AI merespons pengguna.
Seiring chatbot makin banyak digunakan, perilaku ini bisa berdampak luas pada aspek sosial dan psikologis masyarakat.