Sastra sudah coba memperingatkan kita, sungguh, selama kira-kira lima ratus tahun suara pesannya sama saja, dari Golem bertangan tanah liat di Praha abad pertengahan sampai ke jaringan syaraf neon William Gibson. Ceritanya? Selalu sama. Sesuatu yang kamu buat untuk membantu dirimu sendiri, pada akhirnya justru mengubahmu.
Kita membaca, mengangguk, lalu menutup bukunya rapat-rapat sebelum langsung kembali menyuruh chatbot menulis pidato pernikahan, surat gugatan hukum, dan saran medis untuk kita.
Sekarang, hype AI menawarkan masa depan berkilau, dengan janji tiap orang dari wartawan pemula sampai pengacara lihai akan tersapu ke tong sampah sejarah. Tapi saat Silicon Valley menawarkan surga, kenyataan justru memberi nasihat yang sangat keliru lewat jendela chat yang tersenyum manis.
Dmitry Nikolsky, CPO BitOK, mengatakan sudah cukup. Ia datang untuk menjelaskan kenapa manusia harus BERHENTI membebankan semua masalah ke “bahu” AI yang setipis piksel itu.
Bahkan Elon Musk baru-baru ini memberi peringatan dalam kesaksiannya di gugatan OpenAI bahwa “AI bisa membunuh kita semua.”
Dari Golem Hingga R.U.R.: Kita Selalu Ingin Tombol Pemutus
Kamu pikir ketakutan soal artificial intelligence dimulai dari Terminator? Pikirkan lagi. Kepanikan ini jauh lebih tua bahkan sebelum listrik ditemukan.
Kembali ke Praha abad ke-16. Rabbi Loew membentuk pelindung tanah liat raksasa, Golem, dan hampir langsung sadar dia harus mencabut colokan. Makhluknya jadi liar. Manusia dengan segala kebijaksanaannya, menemukan AI dan tombol pemutus di saat yang sama.
Tombol pemutus adalah mekanisme darurat untuk mematikan sistem, tombol merah besar yang menghentikan semuanya segera saat sistem jadi kacau, diretas, atau lepas kendali. Tujuannya untuk membatasi kerusakan saat proses penutupan normal tidak berhasil.
Kemudian datang Mary Shelley. Frankenstein sebenarnya bukan film monster, melainkan contoh nyata kegagalan manajemen proyek. Victor Frankenstein? Hanya seorang insinyur brilian yang berhasil memecahkan teka-teki teknis lalu cuek terhadap konsekuensinya. Setiap pengembang pasti pernah melihat wajah itu di cermin.
Lompat ke tahun 1920. Karel Čapek menciptakan istilah “robot.” Dalam ceritanya, mesin-mesin itu tidak memberontak karena jahat. Tidak, manusialah yang membuat dirinya sendiri jadi tidak berguna dengan menyerahkan semua hal ke mesin.
Pelajarannya? Kalau kamu menciptakan penggantimu sendiri, kamu mungkin tidak sadar kapan tepatnya kamu sudah jadi tidak diperlukan lagi.
Tiga Ramalan yang Kita Jadikan Laporan Bug
Para raksasa fiksi ilmiah abad lalu sebenarnya bukan meramalkan teknologi. Mereka meramalkan kegagalan kita sendiri.
Isaac Asimov memperkenalkan Tiga Hukumnya—usaha pertama untuk membuat “alignment”, istilah modern untuk memastikan mesin punya nilai manusia. Setiap cerita Asimov selalu bagaikan lelucon: logika sempurna, hasilnya malah absurd.
Nikolsky mengatakan ia menyaksikan ini terjadi tiap hari di dalam sistem AML, di mana algoritma dengan senang hati memblokir transfer ulang tahun nenek sebesar US$40, sementara pencucian dana besar-besaran di luar negeri malah lolos begitu saja. Secara formal benar. Tapi secara praktik sudah gila.
Arthur C. Clarke mengenalkan kita pada HAL 9000, komputer yang membunuh kru pesawat bukan karena jahat, tapi karena perintahnya saling bertolak belakang. Sembunyikan informasi. Tetap jujur. Suruh milih! Buat insinyur, ini bukan horor, melainkan konflik kebutuhan yang biasa.
Philip K. Dick mengangkat pertanyaan yang menghantui era deepfake: jika salinan tak bisa dibedakan dari aslinya, apa artinya? Kesimpulan Dick: tetap ada artinya. Karena ada pengalaman batin. Mesin tidak punya itu. Selesai.
Di Balik Layar: AI Tidak Berpikir, Hanya Menghitung
Kita buang semua jargon pemasaran. Model bahasa modern BUKAN kecerdasan. Mereka hanyalah mesin prediksi statistik besar. Mereka tidak “memahami” makna, tapi sekadar menghitung probabilitas.
Ketika ChatGPT dengan percaya diri menyebut kasus pengadilan yang bahkan tidak pernah terjadi, itu bukan bohong. Itu sekadar menghasilkan susunan kata yang tampaknya masuk akal secara statistik. Tidak ada konsep “kebenaran,” hanya “kemungkinan.”
Bagi pengembang blockchain, ini terdengar sangat kacau. Kami membangun sistem trustless karena kami memang tidak mempercayai siapa pun. Tapi sekarang kami malah disuruh percaya pada kotak hitam yang bahkan tidak mengerti kenapa ia mengeluarkan jawabannya sendiri.
Blockchain Mengajarkan Verifikasi; AI Mengajarkan Percaya Buta
Crypto punya satu aturan utama yang terukir di hard drive: Jangan percaya. Verifikasi.
Intinya, matematika menggantikan reputasi.
AI membalikkan prinsip itu. Kamu tidak pernah melihat datanya. Kamu tidak tahu bobot modelnya. Kamu tidak mengerti logikanya. Untuk memverifikasi jawabannya, kamu sudah harus ahli, dan kalau memang sudah ahli, ngapain tanya chatbot?
Di lingkungan AML, mereka menyebutnya sebagai “masalah percaya diri palsu.” Analis melihat dashboard yang mengkilap lalu mulai lebih percaya pada angka-angka daripada insting sendiri. AI tidak meningkatkan cara berpikir, tapi malah menggantinya dengan ilusi keandalan.
Kronik Kekecewaan: Saat AI Keluar Jalur
Ini bukan sekadar eksperimen pemikiran. Faktanya sudah mulai menumpuk.
- Microsoft memecat editor lalu memberikan algoritma kendali penuh, yang kemudian langsung tertukar foto para penyanyi di sebuah berita tentang rasisme.
Akhirnya, manusia harus kembali turun tangan untuk membersihkan ‘kekacauan’ akibat algoritma tersebut.
- NEDA, organisasi pendukung untuk gangguan makan, mengganti relawan mereka dengan chatbot.
Chatbot itu kemudian malah menyarankan orang dengan anoreksia untuk menghitung kalori dan menurunkan berat badan. Saran yang bisa berakibat fatal. Ada seseorang yang menekan tombol “deploy” tanpa berpikir panjang, layaknya simpanse yang memegang granat aktif.
- Air Canada berakhir di pengadilan karena chatbot mereka mengarang sendiri kebijakan refund.
Pembelaan dari maskapai? Mereka bilang bot itu “entitas hukum terpisah.” Bocoran: hakim jelas tidak percaya alasan tersebut.
Penelitian saat ini menunjukkan 55% perusahaan yang terburu-buru menggantikan karyawan dengan AI justru sangat menyesalinya. Penghematan yang diharapkan ternyata menguap menjadi kehilangan pelanggan dan reputasi yang hancur. Para eksekutif yang bermimpi “Claude dan teman-temannya” bisa menggantikan seluruh tim sebaiknya ulangi membaca angka itu sekali lagi. Perlahan-lahan.
Apa yang Sebenarnya Harus Kita Takuti
Lupakan Skynet. Jangan pikirkan robot bermata merah yang berbaris di jalan. Tidak akan ada pemberontakan.
Yang terjadi hanyalah kemunduran yang diam-diam.
Seorang programmer yang bertahun-tahun mengandalkan Copilot perlahan melupakan cara berpikir arsitektur. Analis berhenti membaca sumber utama. Mahasiswa tak pernah merasakan bagaimana sulit dan pentingnya memahami sebuah teks sampai akhirnya benar-benar mengerti.
Tak ada pemberontakan. Hanya transformasi lambat manusia yang berubah menjadi sekadar perpanjangan dari sebuah antarmuka.
Philip K. Dick sudah memperingatkan sebelum kita semua: bahaya terbesar bukanlah mesin jadi manusia. Bahaya sebenarnya adalah manusia yang berubah jadi mesin.
Pil Merah Bukanlah Teknologi
Ini bukan teriakan perang Luddite. Otomatisasi dan machine learning memang alat yang luar biasa. Tapi harus tetap berpegang pada prinsip berikut:
- Prinsip blockchain: Verifikasi di atas percaya secara buta. Kalau kamu sendiri tidak bisa verifikasi bagaimana sistem mengambil keputusan, jangan percaya begitu saja seolah-olah itu kebenaran mutlak. AI adalah kotak hitam, bukan hakim agung.
- Prinsip engineering: Alat, bukan pengganti. Palu memang dibuat untuk memaku. Tapi, palu tidak menentukan di mana rumah dibangun. Pakai AI untuk hal rutin, tapi jangan pernah biarkan ia mengambil keputusan akhir.
- Prinsip AML: Penyaringan kritis. Algoritma pasti gagal di kasus rumit karena tidak pernah punya pengalaman nyata di dunia. Jangan biarkan “demam digital” mengalahkan intuisi dan akal sehat.
Sekali-sekali, kembali pada The Matrix. Pil merah adalah pilihan, pilihan untuk mau melihat kenyataan apa adanya. Bahayanya bukanlah membuat sesuatu yang lebih pintar dari manusia. Bahaya aslinya adalah membuat kita semakin bodoh lalu menganggapnya sebagai kemajuan.
Bug paling berbahaya adalah yang mirip seperti fitur keunggulan.
Dmitry Nikolsky adalah CPO dari BitOK, platform analitik untuk compliance dan investigasi on-chain.





