AI agent mendominasi ETHDenver 2026, mulai dari keuangan otonom hingga robotik on-chain. Namun, seiring meningkatnya antusiasme terhadap “ekonomi agentic”, muncul pertanyaan yang lebih sulit: bisakah institusi membuktikan data pelatihan apa yang digunakan sistem AI mereka?
Salah satu startup yang menargetkan masalah ini adalah Perle Labs, yang berpendapat bahwa sistem AI membutuhkan rantai kepemilikan data pelatihan yang dapat diverifikasi, terutama di lingkungan yang diatur dan berisiko tinggi. Dengan fokus membangun infrastruktur data yang dapat diaudit dan memiliki kredensial untuk institusi, Perle telah mengumpulkan pendanaan sebesar US$17,5 juta hingga saat ini, dengan pendanaan terbarunya dipimpin oleh Framework Ventures. Investor lainnya termasuk CoinFund, Protagonist, HashKey, dan Peer VC. Perusahaan ini melaporkan bahwa lebih dari satu juta anotator telah menyumbangkan lebih dari satu miliar titik data yang sudah dinilai di platform mereka.
BeInCrypto berbicara dengan Ahmed Rashad, CEO Perle Labs, di sela-sela ETHDenver 2026. Rashad sebelumnya memegang peran kepemimpinan operasional di Scale AI pada masa pertumbuhan pesat perusahaan tersebut. Dalam pembicaraan ini, ia membahas tentang asal-usul data, model collapse, risiko adversarial, dan alasan mengapa ia percaya bahwa kecerdasan yang berdaulat akan menjadi prasyarat untuk menerapkan AI pada sistem-sistem penting.
BeInCrypto: Anda menggambarkan Perle Labs sebagai “lapisan kecerdasan berdaulat untuk AI.” Bagi pembaca yang tidak mengikuti perdebatan infrastruktur data, sebenarnya apa maksudnya secara praktis?
Ahmed Rashad: “Kata berdaulat memang sengaja dipilih, dan memiliki beberapa makna.
Makna paling literal adalah kendali. Jika Anda pemerintah, rumah sakit, kontraktor pertahanan, atau perusahaan besar yang menerapkan AI di lingkungan berisiko tinggi, Anda harus memiliki kecerdasan di balik sistem itu—bukan menyerahkannya ke black box yang tidak bisa Anda periksa atau audit. Berdaulat berarti Anda tahu data apa yang digunakan untuk melatih AI Anda, siapa yang memverifikasinya, dan Anda dapat membuktikannya. Kebanyakan industri saat ini belum bisa mengatakan hal itu.
Makna kedua adalah kemandirian. Bertindak tanpa campur tangan eksternal. Inilah yang juga sangat dibutuhkan institusi seperti Departemen Pertahanan, atau perusahaan saat mereka mengimplementasikan AI di lingkungan yang sensitif. Anda tidak bisa membiarkan infrastruktur AI yang sangat penting bergantung pada data pipeline yang tidak bisa Anda kontrol, verifikasi, atau lindungi dari manipulasi. Ini bukan risiko teoretis. NSA dan CISA sudah mengeluarkan panduan operasional terkait kerentanan rantai pasokan data sebagai isu keamanan nasional.
Makna ketiga adalah akuntabilitas. Ketika AI beralih dari menghasilkan konten menuju pengambilan keputusan—baik medis, keuangan, maupun militer—harus ada yang bisa menjawab: dari mana kecerdasan itu berasal? Siapa yang memverifikasinya? Apakah catatannya permanen? Pada Perle, tujuan kami adalah setiap kontribusi dari setiap anotator ahli tercatat di on-chain. Data itu tidak dapat diubah. Immutabilitas tersebut yang membuat istilah berdaulat tepat, bukan sekadar ambisi.
Secara praktis, kami sedang membangun lapisan verifikasi dan pemberian kredensial. Jika sebuah rumah sakit menerapkan sistem diagnostik AI, mereka harus bisa melacak setiap titik data pada data pelatihan kembali ke tenaga profesional yang sudah memiliki kredensial dan yang memvalidasinya. Itulah kecerdasan berdaulat. Maksud kami seperti itu.”
BeInCrypto: Anda pernah menjadi bagian dari Scale AI saat mengalami pertumbuhan pesat, termasuk kontrak pertahanan besar dan investasi dari Meta. Apa pelajaran dari pengalaman itu tentang celah dalam pipeline data AI tradisional?
Ahmed Rashad: “Scale adalah perusahaan yang luar biasa. Saya berada di sana saat nilainya dari US$90 juta dan sekarang sudah mencapai US$29 miliar, seluruh perubahan itu terjadi, dan saya langsung menyaksikan sendiri di mana letak permasalahannya.
Masalah mendasar adalah kualitas dan skala data berjalan berlawanan arah. Ketika Anda berkembang 100 kali lipat, tekanannya selalu untuk bergerak cepat: lebih banyak data, anotasi lebih cepat, biaya per label lebih rendah. Yang jadi korban adalah presisi dan akuntabilitas. Anda akhirnya memiliki pipeline yang tidak transparan: Anda tahu secara kasar apa yang masuk, Anda punya metrik kualitas tentang apa yang keluar, tapi proses di tengahnya adalah black box. Siapa yang memverifikasi data? Apakah mereka benar-benar memenuhi syarat? Apa anotasinya konsisten? Pertanyaan seperti itu hampir mustahil dijawab pada skala besar dengan model tradisional.
Satu hal lagi yang saya pelajari adalah elemen manusia hampir selalu dianggap sebagai biaya yang harus diminimalkan daripada kapabilitas yang harus dikembangkan. Model transaksional—bayar per tugas lalu optimalkan throughput—justru menurunkan kualitas seiring waktu. Model itu juga membakar kontributor terbaik. Orang-orang yang mampu memberikan anotasi berkualitas tinggi dengan keahlian khusus bukanlah orang yang mau bertahan di sistem mikro-tugas yang digamifikasi dengan bayaran sangat kecil. Jika Anda ingin kualitas tersebut, caranya harus berbeda.
Pemahaman itulah yang menjadi dasar Perle. Masalah data tidak bisa diselesaikan dengan sekadar menambah tenaga kerja. Solusinya adalah memperlakukan kontributor sebagai tenaga profesional, membangun sistem kredensial yang dapat diverifikasi, serta membuat seluruh proses bisa diaudit dari awal hingga akhir.”
BeInCrypto: Anda sudah mencapai satu juta anotator dan lebih dari satu miliar data yang sudah dinilai. Kebanyakan platform pelabelan data mengandalkan tenaga anonim. Apa yang benar-benar berbeda dari model reputasi Anda?
Ahmed Rashad: “Perbedaan utamanya adalah di Perle, riwayat kerja Anda adalah milik Anda, dan sifatnya permanen. Setiap kali Anda menyelesaikan tugas, rekam jejak kontribusi Anda, tingkat kualitas yang dicapai, serta perbandingannya dengan konsensus para ahli, dicatat di on-chain. Data tersebut tidak bisa diedit, dihapus, atau dialihkan ke orang lain. Lama-kelamaan, ini membangun kredensial profesional yang terus bertambah nilainya.
Bandingkan dengan pekerjaan anonim, di mana seseorang pada dasarnya bisa digantikan oleh siapa saja. Mereka tidak punya kepentingan terhadap kualitas karena reputasinya tidak ada; setiap tugas terputus dari tugas sebelumnya. Struktur insentif seperti itu menghasilkan hasil yang bisa ditebak: usaha minimum yang penting lolos tugas.
Model kami berbanding terbalik. Kontributor membangun rekam jejak yang dapat diverifikasi. Platform mengenali keahlian di bidang masing-masing. Misalnya, seorang radiolog yang secara konsisten menghasilkan anotasi gambar medis berkualitas tinggi akan punya profil yang mencerminkan keahliannya. Reputasi tersebut menjadi kunci untuk mendapatkan akses ke tugas nilai tinggi, kompensasi yang lebih baik, dan pekerjaan yang lebih bermakna. Siklusnya berulang: kualitas makin bertambah karena insentifnya memang mendukung kualitas.
Kami sudah melampaui satu miliar data yang dinilai melalui jaringan anotator kami. Itu bukan sekadar angka volume, melainkan satu miliar kontribusi data yang dapat dilacak dan berasal dari manusia terverifikasi. Itulah landasan data pelatihan AI yang dapat dipercaya, dan secara struktur mustahil dicapai kalau menggunakan tenaga kerja anonim.”
BeInCrypto: Model collapse sering jadi pembahasan di kalangan peneliti tapi jarang terdengar di diskusi AI untuk publik umum. Menurut Anda kenapa, dan haruskah masyarakat lebih khawatir?
Ahmed Rashad: “Topik ini tidak ramai dibicarakan di publik karena sifatnya krisis yang bergerak lambat, bukan sesuatu yang dramatis. Model collapse, yaitu saat sistem AI yang semakin sering dilatih oleh data buatan AI sendiri mulai mengalami penurunan kualitas, kehilangan detail, dan makin seragam, tidak menciptakan peristiwa besar yang jadi berita utama. Prosesnya perlahan-lahan mengikis kualitas sampai akhirnya parah dan baru terasa.
Mekanismenya sederhana: internet kini dipenuhi konten buatan AI. Model yang dilatih dengan konten itu belajar dari output AI, bukan lagi dari pengetahuan dan pengalaman manusia asli. Setiap generasi pelatihan makin memperkuat distorsi dari generasi sebelumnya. Siklus umpan balik ini berjalan tanpa koreksi alami.
Haruskah masyarakat semakin khawatir? Ya, terutama di bidang yang berisiko tinggi. Saat model collapse memengaruhi algoritma rekomendasi konten, hasil rekomendasinya semakin jelek. Tapi jika itu terjadi pada model AI untuk diagnosis medis, sistem hukum, atau alat intelijen pertahanan, dampaknya bisa sangat berbeda. Tidak ada lagi ruang untuk penurunan kualitas.
Inilah alasan kenapa lapisan data yang diverifikasi manusia tidak bisa menjadi pilihan saat AI mulai masuk ke infrastruktur penting. Kita perlu sumber kecerdasan manusia yang benar-benar asli dan beragam sebagai data pelatihan yang berkelanjutan; bukan hasil AI yang hanya diproses ulang oleh model lain. Kami punya lebih dari satu juta anotator dengan keahlian nyata di puluhan bidang. Keberagaman itulah yang jadi penawar dari keruntuhan model. Kamu tidak bisa mengatasinya hanya dengan data sintetis atau komputasi yang lebih besar.”
BeInCrypto: Saat AI berkembang dari lingkungan digital ke sistem fisik, apa yang benar-benar berubah dari sisi risiko, tanggung jawab, dan standar yang diterapkan dalam pengembangannya?
Ahmed Rashad: Yang berubah adalah tidak bisa diubah kembali. Itu inti utamanya. Model bahasa yang mengalami halusinasi hanya menghasilkan jawaban yang salah. Kamu masih bisa memperbaiki, menandai, lalu lanjut. Tapi sistem bedah robotik yang mengambil keputusan dari inferensi yang salah, kendaraan otonom dengan klasifikasi keliru, drone menyerang target yang salah, kesalahan seperti ini tidak punya tombol undo. Biaya kegagalan berubah dari sekadar memalukan jadi bencana besar.
Hal ini juga mengubah segalanya mengenai standar apa yang harus berlaku. Di lingkungan digital, pengembangan AI bisa berjalan cepat dan memperbaiki diri. Pada sistem fisik, model seperti itu tidak bisa diterapkan. Data pelatihan di balik sistem-sistem itu harus sudah diverifikasi sebelum dipakai, bukan diaudit setelah kejadian.
Akuntabilitasnya pun ikut berubah. Di dunia digital, tanggung jawab bisa dengan mudah dibagi-bagi, apakah kesalahan modelnya? Datanya? Atau cara dipasangnya? Tapi di sistem fisik, apalagi sampai ada manusia yang dirugikan, regulator dan pengadilan akan menuntut jawaban yang jelas. Siapa yang melatih sistem ini? Pakai data apa? Siapa yang memverifikasi datanya, dan dengan standar apa? Perusahaan dan pemerintah yang bisa menjawab pertanyaan ini adalah yang boleh beroperasi. Yang tidak bisa akan menghadapi risiko hukum yang tidak pernah mereka bayangkan sebelumnya.
Kami menciptakan Perle memang untuk transisi seperti ini. Diverifikasi manusia, bersumber dari para ahli, serta bisa diaudit di chain. Waktu AI mulai bekerja di gudang, ruang operasi, sampai medan perang, lapisan kecerdasan di bawahnya wajib memenuhi standar yang berbeda. Standar itu yang sedang kami wujudkan.
BeInCrypto: Seberapa nyata ancaman data poisoning atau manipulasi musuh di sistem AI saat ini, apalagi di level nasional?
Ahmed Rashad: “Ancaman itu nyata, sudah terdokumentasi, dan pihak yang punya akses pada informasi rahasia sudah memperlakukannya sebagai prioritas keamanan nasional.
Program GARD dari DARPA (Guaranteeing AI Robustness Against Deception) selama bertahun-tahun secara khusus mengembangkan pertahanan atas serangan musuh pada sistem AI, termasuk data poisoning. NSA dan CISA di tahun 2025 mengeluarkan panduan bersama yang secara jelas memperingatkan bahwa kerentanan rantai pasok data serta data pelatihan yang dimodifikasi secara jahat adalah ancaman kredibel terhadap integritas sistem AI. Ini bukan sekadar makalah teoretis. Ini adalah panduan operasional dari lembaga yang tidak menerbitkan peringatan untuk risiko hipotetis.
Permukaan serangannya luas. Kalau kamu bisa merusak data pelatihan sistem AI yang dipakai untuk deteksi ancaman, diagnosis medis, atau optimasi logistik, kamu tidak perlu meretas sistemnya langsung. Kamu sudah mengubah cara sistem itu melihat dunia. Ini vektor serangan yang jauh lebih canggih dan sulit dideteksi ketimbang serangan siber biasa.
Kontrak senilai US$300 juta yang dipegang Scale AI dengan CDAO Departemen Pertahanan untuk menggunakan AI di jaringan rahasia, sebagian besar ada karena pemerintah paham mereka tidak bisa memakai AI yang dilatih dari data publik yang belum diverifikasi di lingkungan sensitif. Pertanyaan asal-usul data di level ini bukan ranah akademik. Ini adalah keharusan operasional.
Yang sering hilang dari pembahasan umum adalah ini bukan hanya masalah pemerintah. Setiap perusahaan yang mengoperasikan AI di lingkungan kompetitif; layanan keuangan, farmasi, infrastruktur kritis, pasti punya eksposur data musuh yang mungkin belum mereka sadari sepenuhnya. Ancaman itu nyata. Pertahanannya masih dalam tahap pengembangan.”
BeInCrypto: Kenapa pemerintah atau perusahaan besar tidak bisa membangun sendiri lapisan verifikasi ini? Apa jawaban sesungguhnya kalau ada yang mempertanyakan itu?
Ahmed Rashad: “Ada yang mencoba. Dan yang mencoba biasanya langsung sadar masalah sesungguhnya.
Membangun teknologinya itu bagian mudahnya. Yang sulit itu jaringannya. Para ahli bersertifikasi yang terverifikasi—radiolog, ahli bahasa, pakar hukum, insinyur, ilmuwan—tidak serta merta muncul hanya karena kamu membuat platform. Harus merekrut mereka, memberi kredensial, membangun insentif supaya mereka tetap terlibat, serta mengembangkan mekanisme konsensus kualitas agar kontribusi mereka benar-benar bermakna dalam skala besar. Ini butuh waktu bertahun-tahun dan keahlian yang mayoritas lembaga pemerintah dan perusahaan tidak miliki secara internal.
Masalah kedua adalah keberagaman. Lembaga pemerintah yang membangun sendiri lapisan verifikasi otomatis hanya mengambil dari kolam sumber daya yang terbatas dan seragam. Nilai dari jaringan ahli global bukan sekadar kredensial, tapi di perspektif, bahasa, konteks budaya, dan spesialisasi yang hanya bisa didapat jika beroperasi secara besar di banyak wilayah. Kami punya lebih dari satu juta anotator. Itu tidak bisa kamu tiru di organisasi sendiri.
Masalah ketiga adalah desain insentif. Menjaga agar kontributor berkualitas tinggi tetap aktif butuh kompensasi yang transparan, adil, dan bisa diprogram. Infrastruktur blockchain membuat hal ini bisa dilakukan, sedangkan sistem internal biasanya tidak bisa: catatan kontribusi tak bisa diubah, atribusi langsung, serta pembayaran yang bisa diverifikasi. Sistem pengadaan pemerintah jelas bukan didesain untuk efisiensi seperti itu.
Jawaban jujur saat ditanya adalah: kamu bukan cuma beli alat. Kamu dapat akses ke jaringan dan sistem kredensial yang pembangunannya makan waktu bertahun-tahun. Pilihan alternatifnya bukan ‘bangun sendiri’, tapi ‘pakai yang sudah tersedia atau terima risiko kualitas data karena tidak memilikinya.’”
BeInCrypto: Jika AI jadi infrastruktur inti negara, di mana posisi lapisan intelijen berdaulat di rantai itu lima tahun ke depan?
Ahmed Rashad: “Lima tahun ke depan, menurut saya sistemnya akan mirip dengan fungsi audit finansial saat ini, yaitu lapisan verifikasi yang tidak bisa ditawar duduk di antara data dan penerapan, dengan dukungan regulasi dan standar profesional yang jelas.
Sekarang, pengembangan AI masih berjalan tanpa hal setara audit finansial. Perusahaan melaporkan sendiri soal data pelatihannya. Tidak ada verifikasi independen, tiada sertifikasi profesional atas prosesnya, tidak ada pernyataan pihak ketiga bahwa kecerdasan dalam model memenuhi standar tertentu. Kita baru ada di awal fase kepercayaan diri sendiri, sebelum era Sarbanes-Oxley dalam dunia finansial.
Saat AI sudah jadi infrastruktur penting—untuk listrik, kesehatan, pasar keuangan, jaringan pertahanan—model itu menjadi mustahil dipertahankan. Pemerintah akan mewajibkan auditabilitas. Proses pengadaan akan mewajibkan data terverifikasi sebagai syarat kontrak. Kerangka tanggung jawab akan menuntut pertanggungjawaban kegagalan yang harusnya bisa dicegah dengan verifikasi benar.
Perle akan menjadi lapisan verifikasi dan kredensial di rantai itu, entitas yang bisa menghasilkan catatan pelatihan model yang tidak bisa diubah, bisa diaudit, siapa pelatihnya, data apa, dengan standar apa. Lima tahun lagi, ini bukan fitur tambahan pengembangan AI, tapi syarat wajibnya.
Poin utama yang lebih luas adalah kecerdasan berdaulat bukan hanya urusan kontraktor pertahanan. Inilah pondasi yang membuat AI bisa diterapkan di mana saja yang risikonya nyata jika gagal. Dan semakin AI masuk ke berbagai konteks seperti ini, pondasi tersebut jadi bagian paling bernilai di seluruh rantai itu.”