Co-founder Ethereum, Vitalik Buterin, telah mengangkat kekhawatiran tentang risiko yang terkait dengan AI superintelligent dan perlunya mekanisme pertahanan yang kuat.
Komentar Buterin muncul saat perkembangan pesat kecerdasan buatan, kekhawatiran tentang keamanan AI telah meningkat secara signifikan.
Rencana Regulasi AI Buterin: Tanggung Jawab, Tombol Jeda, dan Kontrol Internasional
Dalam sebuah posting blog tertanggal 5 Januari, Vitalik Buterin menjelaskan idenya tentang ‘d/acc atau percepatan defensif,’ di mana teknologi harus dikembangkan untuk melindungi daripada menyebabkan kerugian. Namun, ini bukan pertama kalinya Buterin mengungkapkan risiko yang terkait dengan Kecerdasan Buatan.
“Salah satu cara di mana AI yang salah bisa membuat dunia lebih buruk adalah (hampir) cara terburuk yang mungkin: itu bisa benar-benar menyebabkan kepunahan manusia,” ujar Buterin dalam 2023.
Buterin kini menindaklanjuti teorinya dari 2023. Menurut Buterin, superintelligence mungkin hanya beberapa tahun lagi dari keberadaannya.
“Nampaknya kita memiliki garis waktu tiga tahun hingga AGI dan tiga tahun lagi hingga superintelligence. Jadi, jika kita tidak ingin dunia hancur atau jatuh ke dalam perangkap yang tidak dapat diubah, kita tidak bisa hanya mempercepat yang baik, kita juga harus memperlambat yang buruk,” tulis Buterin.
Untuk mengurangi risiko terkait AI, Buterin menganjurkan pembuatan sistem AI terdesentralisasi yang tetap terhubung erat dengan pengambilan keputusan manusia. Dengan memastikan bahwa AI tetap menjadi alat di tangan manusia, ancaman hasil yang katastrofik dapat diminimalkan.
Buterin kemudian menjelaskan bagaimana militer bisa menjadi aktor yang bertanggung jawab untuk skenario ‘kiamat AI’. Penggunaan militer AI meningkat secara global, seperti yang terlihat di Ukraina dan Gaza. Buterin juga percaya bahwa setiap regulasi AI yang berlaku kemungkinan besar akan mengecualikan militer, yang membuat mereka menjadi ancaman signifikan.
Co-founder Ethereum ini lebih lanjut menjelaskan rencananya untuk mengatur penggunaan AI. Dia mengatakan bahwa langkah pertama dalam menghindari risiko yang terkait dengan AI adalah membuat pengguna bertanggung jawab.
“Meskipun hubungan antara bagaimana model dikembangkan dan bagaimana akhirnya digunakan seringkali tidak jelas, pengguna memutuskan dengan tepat bagaimana AI digunakan,” terang Buterin, menyoroti peran yang dimainkan oleh pengguna.
Jika aturan tanggung jawab tidak berhasil, langkah berikutnya adalah menerapkan tombol “soft pause” yang memungkinkan regulasi AI untuk memperlambat laju kemajuan yang berpotensi berbahaya.
“Tujuannya adalah memiliki kemampuan untuk mengurangi komputasi yang tersedia secara global sekitar 90-99% selama 1-2 tahun pada periode kritis, untuk memberi lebih banyak waktu bagi umat manusia untuk bersiap.”
Dia mengatakan jeda dapat diterapkan dengan verifikasi dan registrasi lokasi AI.
Pendekatan lain adalah mengontrol perangkat keras AI. Buterin menjelaskan bahwa perangkat keras AI dapat dilengkapi dengan chip untuk mengendalikannya.
Chip ini akan memungkinkan sistem AI berfungsi hanya jika mereka mendapatkan tiga tanda tangan dari badan internasional setiap minggu. Dia menambahkan bahwa setidaknya salah satu badan tersebut harus tidak terkait militer.
Namun demikian, Buterin mengakui bahwa strateginya memiliki kelemahan dan hanya merupakan ‘solusi sementara’.
Penyangkalan
Seluruh informasi yang terkandung dalam situs kami dipublikasikan dengan niat baik dan bertujuan memberikan informasi umum semata. Tindakan apa pun yang dilakukan oleh para pembaca atas informasi dari situs kami merupakan tanggung jawab mereka pribadi.
Selain itu, sebagian artikel di situs ini merupakan hasil terjemahan AI dari versi asli BeInCrypto yang berbahasa Inggris.