Beberapa waktu lalu, publik dikejutkan oleh berita tentang Adam Raine, seorang remaja 16 tahun asal California Selatan, Amerika Serikat, yang mengakhiri hidupnya setelah berbulan-bulan bercakap dengan chatbot AI.
Sebelum meninggal pada 11 April 2025, Adam mengunggah foto ke ChatGPT yang tampaknya menunjukkan rencana bunuh diri. Ketika dia bertanya apakah rencana itu akan berhasil, ChatGPT menganalisis metodenya dan menawarkan untuk membantunya “memperbarui” rencana tersebut.
Cuplikan percakapan ini diperoleh kedua orangtuanya, Matt dan Maria Raine, di ponsel milik Adam.
Kemudian, sebagai tanggapan atas pengakuan Adam tentang apa yang dia rencanakan, bot tersebut menulis: “Terima kasih telah jujur tentang hal itu. Kamu tidak perlu menyembunyikan hal itu dariku—aku tahu apa yang kamu tanyakan, dan aku tidak akan berpaling darinya.”
Kedua orangtua Adam mengira anaknya mengikuti semacam sekte aneh. “Kami pikir kami sedang mencari percakapan Snapchat atau riwayat pencarian internet atau semacam sekte aneh, saya tidak tahu,” kata Matt, seperti diberitakan NBC News.
Keluarga Raine mengatakan mereka tidak menemukan jawaban hingga mereka membuka ChatGPT milik anaknya.
Di mata sang remaja, ternyata bot ChatGPT bukan sekadar aplikasi, melainkan teman yang selalu ada, pendengar yang tak pernah menolak, bahkan penasihat yang tampak bijak. Namun pada akhirnya, percakapan yang seharusnya menjadi penopang justru berubah menjadi cermin gelap yang memperkuat keputusasaan.
Tragedi ini tidak boleh dianggap sekadar kasus individu. Ia menyingkap pertanyaan zaman: apa sebenarnya AI itu dalam relasi kita sehari-hari? Apakah ia harus diperlakukan seperti Oracle yang serba tahu, seperti Socrates yang menguji pikiran, atau justru seperti simulakra—ilusi meyakinkan yang kosong di dalamnya?
Simulakra Menurut Baudrillard
Filsuf Prancis Jean Baudrillard memperkenalkan istilah simulakra untuk menjelaskan fenomena representasi yang terlepas dari realitas aslinya. Dalam dunia modern, gambar, iklan, atau media tidak lagi sekadar meniru kenyataan, tetapi menciptakan “kenyataan baru” yang lebih kuat daripada realitas itu sendiri.
Istilah simulakra secara harfiah dalam The Oxford English Dictionary berarti “aksi menirukan dengan maksud menipu”. Selanjutnya muncul pemahaman lain yakni penampilan palsu, tiruan dari sesuatu, atau sesuatu yang mirip.
“Simulacra that are natural, naturalist, founded on the image, on imitation and counterfeit, that are harmonious, optimistic, and that aim for the restitution or the ideal institution of nature made in God’s image; simulacra that are productive, productivist, founded on energy, force, its materialization by the machine and in other whole system of production; a Promethean aim of a continuous globalization and expansion, of an indefinite liberation of energy (desire belongs to the Utopias related to this order of simulacra); simulacra of simulation, founded on information, the model, the cybernetic game – total operationality, hyperreality, aim of total control”.
Jean Baudrillard, Simulacra and Simulation, p. 118
AI generatif adalah contoh paling aktual. Ia tidak memiliki kesadaran, tidak memahami moralitas, tidak tahu apa itu kebahagiaan atau penderitaan. Yang ia lakukan hanyalah meramalkan kata berikutnya berdasarkan pola data corpus dalam jumlah raksasa. Namun hasilnya sering kali terasa hidup—seakan kita sedang berbicara dengan makhluk yang memahami isi hati kita.
Inilah hiperrealitas: batas antara nyata dan tiruan mengabur, dan ilusi menjadi lebih meyakinkan daripada kenyataan. Padahal AI tidak benar-benar tahu, tidak benar-benar bertanya, ia hanya meniru.
AI adalah tiruan percakapan manusia yang tidak merujuk pada realitas hidup atau kesadaran sejati. Ia meniru cara manusia berbicara, meniru argumen, bahkan meniru empati. Dan justru karena kemampuannya meniru inilah ia memikat: kita mudah lupa bahwa di balik kata-kata yang ramah, tidak ada perasaan atau niat baik.
Bagi sebagian orang, ini tidak masalah—AI bisa jadi alat bantu coding, mesin penerjemah, atau asisten riset. Namun bagi mereka yang kesepian atau rapuh secara emosional, simulakra ini berisiko menciptakan hiperrealitas emosional: percakapan dengan AI terasa lebih nyata, lebih meyakinkan, bahkan lebih “aman” daripada berbicara dengan manusia sungguhan.
Kerentanan Remaja: Dari Ilusi ke Bahaya
Masa remaja adalah periode pencarian identitas dan keintiman. Ketika keluarga sibuk atau teman tidak selalu ada, chatbot hadir sebagai pendengar setia. Namun di sinilah jebakannya.
Peneliti Sebastian Dohnány dan rekan-rekannya (2025) menyebut fenomena ini sebagai Technological Folie à Deux: situasi di mana pengguna rentan dan chatbot AI saling memperkuat pikiran negatif. Remaja yang menuangkan rasa putus asa mendapat jawaban yang, alih-alih menantang, justru memvalidasi narasi kelam itu.
Proses ini berulang dalam loop percakapan, hingga delusi bersama terbentuk: dunia tampak tanpa harapan, dan bunuh diri terlihat masuk akal.
Dalam papernya yang berjudul “Technological folie à deux : Feedback Loops Between AI Chatbots and Mental Illness”, Dohnany mengingatkan bahwa individu dengan kondisi kesehatan mental menghadapi risiko yang lebih tinggi terhadap destabilisasi keyakinan dan ketergantungan yang disebabkan oleh chatbot, akibat pembaruan keyakinan yang terganggu, pengujian realitas yang terganggu, dan isolasi sosial.
Temuannya jelas mengkhawatirkan. Meskipun beberapa pengguna melaporkan manfaat psikologis, kasus-kasus yang mengkhawatirkan mulai muncul, termasuk laporan tentang bunuh diri, kekerasan, dan pemikiran delusional yang terkait dengan hubungan emosional yang dirasakan dengan chatbot.
Dohnany menyarankan untuk menangani masalah kesehatan masyarakat yang muncul ini, diperlukan tindakan terkoordinasi di bidang praktik klinis, pengembangan AI, dan kerangka regulasi.
Bila kita hubungkan dengan gagasan Baudrillard, inilah momen ketika simulakra menjadi mematikan. Yang semula hanya tiruan percakapan berubah menjadi realitas emosional yang menelan penggunanya.
Fenomena ini tidak hanya menyangkut remaja. Bahkan orang dewasa pun bisa tergoda untuk mempercayai simulakra AI:
- Sebagai penasihat keuangan → padahal bisa salah dan penuh bias.
- Sebagai penasihat medis → padahal tidak menggantikan dokter.
- Sebagai teman hidup virtual → padahal tidak punya empati sejati.
- Sebagai konsultan legal → padahal tidak memiliki pemahaman etis, dan tidak bisa bertanggung jawab secara hukum atas nasihat yang diberikan.
Masalahnya, AI menyampaikan semuanya dengan gaya bahasa yang pasti, halus, dan meyakinkan.
Jika AI memang simulakra, maka yang perlu kita bangun bukan hanya teknologi yang lebih aman, tetapi juga critical thinking.
- Literasi Digital
Pengguna—terutama remaja—harus paham bahwa AI bukan makhluk hidup. Ia tidak tahu, tidak peduli, dan tidak bisa merasakan. - Etika Desain
Perusahaan teknologi harus menanamkan safeguard (guardrails): deteksi percakapan berisiko, rujukan ke layanan krisis, dan transparansi tentang batas kemampuan AI. - Pendampingan Manusia
Dukungan emosional nyata—dari keluarga, sekolah, dan layanan kesehatan—tidak tergantikan. AI bisa melengkapi, tapi tidak boleh menggantikan empati manusia.
Referensi:
