Code, Blockchain, dan Ilusi: Mengapa AI Tidak Akan Menggantikan Otak

  • AI adalah mesin prediksi statistik, bukan otak yang berpikir.
  • Microsoft, NEDA, dan Air Canada menunjukkan berapa sebenarnya biaya dari kepercayaan buta terhadap AI.
  • Prinsip blockchain ‘verifikasi, jangan percaya’ adalah prinsip yang ditinggalkan oleh pengguna AI.
Promo

Sastra sudah coba memperingatkan kita, sungguh, selama kira-kira lima ratus tahun suara pesannya sama saja, dari Golem bertangan tanah liat di Praha abad pertengahan sampai ke jaringan syaraf neon William Gibson. Ceritanya? Selalu sama. Sesuatu yang kamu buat untuk membantu dirimu sendiri, pada akhirnya justru mengubahmu.

Kita membaca, mengangguk, lalu menutup bukunya rapat-rapat sebelum langsung kembali menyuruh chatbot menulis pidato pernikahan, surat gugatan hukum, dan saran medis untuk kita.

Sekarang, hype AI menawarkan masa depan berkilau, dengan janji tiap orang dari wartawan pemula sampai pengacara lihai akan tersapu ke tong sampah sejarah. Tapi saat Silicon Valley menawarkan surga, kenyataan justru memberi nasihat yang sangat keliru lewat jendela chat yang tersenyum manis.

Dmitry Nikolsky, CPO BitOK, mengatakan sudah cukup. Ia datang untuk menjelaskan kenapa manusia harus BERHENTI membebankan semua masalah ke “bahu” AI yang setipis piksel itu.

Bahkan Elon Musk baru-baru ini memberi peringatan dalam kesaksiannya di gugatan OpenAI bahwa “AI bisa membunuh kita semua.”

Disponsori
Disponsori

Dari Golem Hingga R.U.R.: Kita Selalu Ingin Tombol Pemutus

Kamu pikir ketakutan soal artificial intelligence dimulai dari Terminator? Pikirkan lagi. Kepanikan ini jauh lebih tua bahkan sebelum listrik ditemukan.

Kembali ke Praha abad ke-16. Rabbi Loew membentuk pelindung tanah liat raksasa, Golem, dan hampir langsung sadar dia harus mencabut colokan. Makhluknya jadi liar. Manusia dengan segala kebijaksanaannya, menemukan AI dan tombol pemutus di saat yang sama.

Rabbi Loew menghidupkan Golem. Ilustrasi karya M. Aleš. Menurut konsep sang seniman, Rabbi Loew menuliskan kata suci “Emet” (kebenaran) di dahi raksasa tanah liat. Sumber: Wikipedia.
Rabbi Loew menghidupkan Golem. Ilustrasi karya M. Aleš. Menurut konsep sang seniman, Rabbi Loew menuliskan kata suci “Emet” (kebenaran) di dahi raksasa tanah liat. Sumber: Wikipedia.

Tombol pemutus adalah mekanisme darurat untuk mematikan sistem, tombol merah besar yang menghentikan semuanya segera saat sistem jadi kacau, diretas, atau lepas kendali. Tujuannya untuk membatasi kerusakan saat proses penutupan normal tidak berhasil.

Kemudian datang Mary Shelley. Frankenstein sebenarnya bukan film monster, melainkan contoh nyata kegagalan manajemen proyek. Victor Frankenstein? Hanya seorang insinyur brilian yang berhasil memecahkan teka-teki teknis lalu cuek terhadap konsekuensinya. Setiap pengembang pasti pernah melihat wajah itu di cermin.

Lompat ke tahun 1920. Karel Čapek menciptakan istilah “robot.” Dalam ceritanya, mesin-mesin itu tidak memberontak karena jahat. Tidak, manusialah yang membuat dirinya sendiri jadi tidak berguna dengan menyerahkan semua hal ke mesin.

Pelajarannya? Kalau kamu menciptakan penggantimu sendiri, kamu mungkin tidak sadar kapan tepatnya kamu sudah jadi tidak diperlukan lagi.

Tiga Ramalan yang Kita Jadikan Laporan Bug

Para raksasa fiksi ilmiah abad lalu sebenarnya bukan meramalkan teknologi. Mereka meramalkan kegagalan kita sendiri.

Isaac Asimov memperkenalkan Tiga Hukumnya—usaha pertama untuk membuat “alignment”, istilah modern untuk memastikan mesin punya nilai manusia. Setiap cerita Asimov selalu bagaikan lelucon: logika sempurna, hasilnya malah absurd.

Nikolsky mengatakan ia menyaksikan ini terjadi tiap hari di dalam sistem AML, di mana algoritma dengan senang hati memblokir transfer ulang tahun nenek sebesar US$40, sementara pencucian dana besar-besaran di luar negeri malah lolos begitu saja. Secara formal benar. Tapi secara praktik sudah gila.

Arthur C. Clarke mengenalkan kita pada HAL 9000, komputer yang membunuh kru pesawat bukan karena jahat, tapi karena perintahnya saling bertolak belakang. Sembunyikan informasi. Tetap jujur. Suruh milih! Buat insinyur, ini bukan horor, melainkan konflik kebutuhan yang biasa.

Disponsori
Disponsori

Philip K. Dick mengangkat pertanyaan yang menghantui era deepfake: jika salinan tak bisa dibedakan dari aslinya, apa artinya? Kesimpulan Dick: tetap ada artinya. Karena ada pengalaman batin. Mesin tidak punya itu. Selesai.

Di Balik Layar: AI Tidak Berpikir, Hanya Menghitung

Kita buang semua jargon pemasaran. Model bahasa modern BUKAN kecerdasan. Mereka hanyalah mesin prediksi statistik besar. Mereka tidak “memahami” makna, tapi sekadar menghitung probabilitas.

Ketika ChatGPT dengan percaya diri menyebut kasus pengadilan yang bahkan tidak pernah terjadi, itu bukan bohong. Itu sekadar menghasilkan susunan kata yang tampaknya masuk akal secara statistik. Tidak ada konsep “kebenaran,” hanya “kemungkinan.”

Bagi pengembang blockchain, ini terdengar sangat kacau. Kami membangun sistem trustless karena kami memang tidak mempercayai siapa pun. Tapi sekarang kami malah disuruh percaya pada kotak hitam yang bahkan tidak mengerti kenapa ia mengeluarkan jawabannya sendiri.

Blockchain Mengajarkan Verifikasi; AI Mengajarkan Percaya Buta

Crypto punya satu aturan utama yang terukir di hard drive: Jangan percaya. Verifikasi.

Intinya, matematika menggantikan reputasi.

AI membalikkan prinsip itu. Kamu tidak pernah melihat datanya. Kamu tidak tahu bobot modelnya. Kamu tidak mengerti logikanya. Untuk memverifikasi jawabannya, kamu sudah harus ahli, dan kalau memang sudah ahli, ngapain tanya chatbot?

Di lingkungan AML, mereka menyebutnya sebagai “masalah percaya diri palsu.” Analis melihat dashboard yang mengkilap lalu mulai lebih percaya pada angka-angka daripada insting sendiri. AI tidak meningkatkan cara berpikir, tapi malah menggantinya dengan ilusi keandalan.

Kronik Kekecewaan: Saat AI Keluar Jalur

Ini bukan sekadar eksperimen pemikiran. Faktanya sudah mulai menumpuk.

Akhirnya, manusia harus kembali turun tangan untuk membersihkan ‘kekacauan’ akibat algoritma tersebut.

Chatbot itu kemudian malah menyarankan orang dengan anoreksia untuk menghitung kalori dan menurunkan berat badan. Saran yang bisa berakibat fatal. Ada seseorang yang menekan tombol “deploy” tanpa berpikir panjang, layaknya simpanse yang memegang granat aktif.

Pembelaan dari maskapai? Mereka bilang bot itu “entitas hukum terpisah.” Bocoran: hakim jelas tidak percaya alasan tersebut.

Penelitian saat ini menunjukkan 55% perusahaan yang terburu-buru menggantikan karyawan dengan AI justru sangat menyesalinya. Penghematan yang diharapkan ternyata menguap menjadi kehilangan pelanggan dan reputasi yang hancur. Para eksekutif yang bermimpi “Claude dan teman-temannya” bisa menggantikan seluruh tim sebaiknya ulangi membaca angka itu sekali lagi. Perlahan-lahan.

Sumber: mayhemcode
Sumber: mayhemcode

Apa yang Sebenarnya Harus Kita Takuti

Lupakan Skynet. Jangan pikirkan robot bermata merah yang berbaris di jalan. Tidak akan ada pemberontakan.

Yang terjadi hanyalah kemunduran yang diam-diam.

Seorang programmer yang bertahun-tahun mengandalkan Copilot perlahan melupakan cara berpikir arsitektur. Analis berhenti membaca sumber utama. Mahasiswa tak pernah merasakan bagaimana sulit dan pentingnya memahami sebuah teks sampai akhirnya benar-benar mengerti.

Tak ada pemberontakan. Hanya transformasi lambat manusia yang berubah menjadi sekadar perpanjangan dari sebuah antarmuka.

Philip K. Dick sudah memperingatkan sebelum kita semua: bahaya terbesar bukanlah mesin jadi manusia. Bahaya sebenarnya adalah manusia yang berubah jadi mesin.

Pil Merah Bukanlah Teknologi

Ini bukan teriakan perang Luddite. Otomatisasi dan machine learning memang alat yang luar biasa. Tapi harus tetap berpegang pada prinsip berikut:

  • Prinsip blockchain: Verifikasi di atas percaya secara buta. Kalau kamu sendiri tidak bisa verifikasi bagaimana sistem mengambil keputusan, jangan percaya begitu saja seolah-olah itu kebenaran mutlak. AI adalah kotak hitam, bukan hakim agung.
  • Prinsip engineering: Alat, bukan pengganti. Palu memang dibuat untuk memaku. Tapi, palu tidak menentukan di mana rumah dibangun. Pakai AI untuk hal rutin, tapi jangan pernah biarkan ia mengambil keputusan akhir.
  • Prinsip AML: Penyaringan kritis. Algoritma pasti gagal di kasus rumit karena tidak pernah punya pengalaman nyata di dunia. Jangan biarkan “demam digital” mengalahkan intuisi dan akal sehat.

Sekali-sekali, kembali pada The Matrix. Pil merah adalah pilihan, pilihan untuk mau melihat kenyataan apa adanya. Bahayanya bukanlah membuat sesuatu yang lebih pintar dari manusia. Bahaya aslinya adalah membuat kita semakin bodoh lalu menganggapnya sebagai kemajuan.

Bug paling berbahaya adalah yang mirip seperti fitur keunggulan.

Dmitry Nikolsky adalah CPO dari BitOK, platform analitik untuk compliance dan investigasi on-chain.


Untuk membaca analisis pasar kripto terbaru dari BeInCrypto, klik di sini.

Penyangkalan

Seluruh informasi yang terkandung dalam situs kami dipublikasikan dengan niat baik dan bertujuan memberikan informasi umum semata. Tindakan apa pun yang dilakukan oleh para pembaca atas informasi dari situs kami merupakan tanggung jawab mereka pribadi. Selain itu, sebagian artikel di situs ini merupakan hasil terjemahan AI dari versi asli BeInCrypto yang berbahasa Inggris.

Disponsori
Disponsori