Pembahasan tentang AI compute seringkali dimulai dengan isu kelangkaan. GPU mahal, kapasitas cloud terbatas, dan tim kecil kesulitan bersaing dengan perusahaan yang bisa memesan sumber daya komputasi dalam jumlah besar. Tapi isu utamanya adalah koordinasi.
Banyak perangkat keras dalam jumlah besar terpakai hanya sebagian di pasar. Operator independen sering memiliki GPU yang menganggur meski pengembang butuh komputasi untuk inferensi, pembuatan embedding, proses batch, atau fine-tuning model.
Ocean Network berfokus pada penghubung antara kedua sisi ini. Ocean Network menghubungkan suplai yang tersebar dengan permintaan nyata melalui jaringan peer-to-peer, di mana job container berjalan di node remote dan hasilnya dikembalikan ke pengguna.
Ide Ocean adalah perangkat keras yang tidak terpakai bisa menjadi bagian dari pasar liquid jika koordinasinya berjalan baik.
Perumpamaan AirBnB sangat berguna – kamar kosong baru menjadi bermanfaat secara ekonomi ketika ada sistem penemuan, pemesanan, dan lapisan kepercayaan di sekitarnya. Ocean ingin menghadirkan hal serupa di bidang komputasi, dengan mengubah perangkat yang tersebar menjadi pasar komputasi yang bisa diakses data scientist dan pengembang sesuai permintaan.
Apa Itu Ocean Network?
Ocean Network menjalankan alur kerja sederhana. Pengguna memilih lingkungan komputasi, mengirimkan job container, dan menerima hasilnya setelah eksekusi selesai.
Sebelum eksekusi dimulai di Ocean Orchestrator, biasanya pengguna mencari komputasi yang tersedia lewat Ocean Network Dashboard, yang jadi pintu utama untuk menelusuri katalog node, meninjau spesifikasi perangkat keras, serta mengelola job dan pembayaran.
Ocean Network juga menyediakan lingkungan tes, seperti tes cepat CPU dan akses ke beban kerja GPU yang didukung oleh hibah, sehingga data scientist dan pengembang bisa mencoba layanan tanpa hambatan besar sebelum menjalankan pekerjaan yang lebih besar.
Ocean Orchestrator adalah alat berbasis editor yang memudahkan pengembang membuat proyek, mengirimkan job, memantau progres, dan mengunduh output langsung dari lingkungan pengembangan mereka sendiri.
Ekstensi berjalan di dalam alat seperti VS Code, Cursor, dan editor sejenis. Alih-alih mencari file Python atau JavaScript yang sudah ada, Ocean dimulai dengan project baru, di mana pengembang dapat menghasilkan file yang diperlukan dari template, termasuk file algoritma, Dockerfile, file dependencies, dan file .env. Setelah konfigurasi selesai, job bisa dijalankan di node remote tanpa perlu provisioning mesin secara manual.
Penyedia cloud besar sudah menawarkan sistem harga berbasis penggunaan untuk komputasi dan GPU. Meski begitu, sistem mereka masih mengharuskan pengguna memilih instance dan mengelola lingkungan sendiri. Ocean lebih menekankan pada definisi dan eksekusi job-nya.
Pengembang memilih lingkungan remote, menjalankan workload, dan membayar sumber daya yang digunakan pada eksekusi tersebut.
Untuk tugas yang tercontainer seperti inferensi model atau pemrosesan batch, prosesnya lebih terasa seperti menjalankan sebuah pekerjaan daripada menyewa mesin.
Lapisan Orkestrasi Ocean
Ocean Orchestrator menjadi pusat dari pengalaman pengguna. Komputasi terdistribusi terdengar kuat, namun akan rumit jika pengguna harus mengelola sistem remote sendiri-sendiri. Ocean mencoba membuat alur kerjanya tetap mirip dengan pengembangan biasa.
Ekstensi ini memungkinkan pengembang membuat proyek, mengirimkan job komputasi, memantau eksekusi, dan menerima output di folder proyek. Ocean Orchestrator mendukung Python, JavaScript, dan container kustom, serta bekerja di berbagai editor seperti VS Code, Cursor, Antigravity, dan Windsurf.
Pendekatan ini membuat eksekusi remote terasa seperti perpanjangan dari lingkungan pengembangan. Job keluar dari editor, berjalan di node yang dipilih, kemudian output-nya kembali agar bisa diperiksa atau digunakan lebih lanjut oleh pengembang. Orchestrator membantu mengkoordinasikan jaringan agar perangkat yang tersebar berfungsi seperti satu pool kapasitas komputasi yang siap dipakai.
Arsitektur Keamanan Compute-to-Data
Keamanan dan kedaulatan data menjadi bagian inti dari desainnya. Model Compute-to-Data Ocean memungkinkan algoritma dijalankan di tempat data sudah tersimpan. Job dieksekusi dalam container terisolasi dan hanya output saja yang dikembalikan ke pengguna.
Pendekatan ini sangat penting untuk data sensitif. Data kesehatan, data perusahaan, dan dataset riset biasanya tidak bisa dipindahkan secara bebas antar pihak. Compute-to-Data memungkinkan analisis tanpa memindahkan data, sehingga tetap berada di bawah kendali pemiliknya.
Untuk alur kerja AI dan data sains, cara ini membuka peluang kolaborasi baru. Peneliti atau pengembang dapat menjalankan algoritma yang sudah disetujui, sementara pemilik data tetap memegang kendali territorial atas aset mereka. Jaringan ini pun berperan sebagai pasar komputasi liquid sekaligus platform aman untuk komputasi terdesentralisasi.
Pay-Per-Use dan Infrastruktur Reserved
Ekonomi Ocean mengikuti logika yang sama. Platform cloud seperti AWS dan GCP memang sudah mengenakan biaya sesuai pemakaian, namun pengembang tetap harus memesan mesin dan mengelola lingkungan sendiri. Sekali lagi, Ocean fokus pada job-nya.
Pengguna memilih lingkungan komputasi berdasarkan GPU, CPU, RAM, ruang disk, durasi maksimum job, dan token pembayaran yang tersedia, lalu mengirim workload container ke node tersebut melalui Ocean Orchestrator.
Job berjalan secara remote dengan update status dan log secara live. Pengguna membayar sesuai sumber daya yang digunakan pada eksekusi tersebut. Proses pembayaran Ocean sendiri juga mencakup pendanaan di escrow sebelum job berjalan, dan estimasi biaya sudah ditampilkan di awal, agar pengguna tahu kisaran biaya sebelum job dimulai.
Daripada memegang kapasitas komputasi di awal, pengguna mencocokkan workload ke lingkungan dengan batas yang jelas, lalu jaringan menangani eksekusinya. Di sisi penyedia, biaya bisa dikaitkan langsung dengan penggunaan, termasuk variabel waktu dan lingkungan, sehingga perangkat keras yang tersebar bisa dihargai dan dikonsumsi dengan cara yang lebih rinci.
Apa Arti Ini untuk Dua Audiens
Ocean Network menargetkan dua kelompok utama.
- Data scientist dan pengembang mendapatkan akses ke katalog lingkungan komputasi, tempat mereka bisa menjalankan workload container langsung dari editor. Job seperti pembuatan embedding, inferensi model, atau pemrosesan data bisa dijalankan secara remote dan hasilnya dikembalikan ke proyek lokal.
- Operator node mendapat peluang untuk memonetisasi kapasitas komputasi yang menganggur. Dengan menjalankan Ocean Node, mereka bisa mengeksekusi job untuk jaringan dan menerima pembayaran atas pekerjaan yang selesai. Kesempatan monetisasi ini nantinya akan dibuka lebih luas untuk runner node independen di fase Beta berikutnya.
Semua elemen ini bersama-sama membentuk pasar komputasi yang terkoordinasi. Pengembang mendapat akses fleksibel ke komputasi terdistribusi, sedangkan pemilik perangkat keras bisa mendapatkan penghasilan dari mesin yang tidak terpakai.
Inilah langkah tim Ocean Network untuk mengubah kapasitas yang terfragmentasi menjadi sesuatu yang dapat pengguna AI temukan, jalankan, dan percayai.