Proyek Web3 dengan konsep AI menjadi target pengumpulan dana di pasar primer dan sekunder.
Peluang Web3 di industri AI terutama terletak pada: memanfaatkan insentif terdistribusi untuk mengoordinasikan potensi pasokan ekor panjang ( lintas data, penyimpanan, dan komputasi ); sekaligus membangun pasar terdesentralisasi untuk model sumber terbuka dan AI Agent.
AI di industri Web3 terutama diterapkan dalam keuangan on-chain ( pembayaran kripto, perdagangan, analisis data ) dan pengembangan bantuan.
Kegunaan AI+Web3 terletak pada saling melengkapi antara keduanya: Web3 diharapkan dapat melawan sentralisasi AI, dan AI diharapkan dapat membantu Web3 melewati batas.
Pendahuluan
Dalam dua tahun terakhir, perkembangan AI sangat pesat, kemunculan ChatGPT telah membuka era baru kecerdasan buatan generatif, dan juga telah mengguncang bidang Web3.
Dengan dukungan konsep AI, pendanaan proyek Web3 jelas mengalami peningkatan. Hanya pada paruh pertama tahun 2024, terdapat 64 proyek Web3+AI yang berhasil mendapatkan pendanaan, di mana sistem operasi berbasis AI Zyber365 mencapai pendanaan tertinggi sebesar 100 juta dolar AS pada putaran A.
Pasar sekunder semakin berkembang, data Coingecko menunjukkan bahwa total kapitalisasi pasar untuk sektor AI telah mencapai 48,5 miliar USD, dengan volume perdagangan dalam 24 jam mendekati 8,6 miliar USD. Kemajuan teknologi AI yang utama membawa dampak positif yang jelas, seperti setelah peluncuran Sora oleh OpenAI, harga rata-rata di sektor AI meningkat 151%. Efek AI juga menyebar ke sektor cryptocurrency yang menarik perhatian, Meme: konsep MemeCoin GOAT sebagai AI Agent pertama dengan cepat menjadi populer, dengan valuasi mencapai 1,4 miliar USD, memicu gelombang Meme AI.
Penelitian dan topik terkait AI+Web3 sedang hangat, dari AI+Depin hingga AI Memecoin kemudian ke AI Agent dan AI DAO, emosi FOMO sulit untuk mengikuti kecepatan rotasi narasi baru.
Konsep kombinasi AI+Web3 yang dipenuhi dengan uang panas, peluang, dan fantasi masa depan, tidak dapat dihindari untuk dianggap sebagai sebuah pernikahan yang diatur oleh modal. Kita sulit untuk menilai apakah ini adalah arena para spekulan, atau malam sebelum meledaknya fajar.
Untuk menjawab pertanyaan ini, kuncinya adalah berpikir: Apakah dengan keberadaan pihak lain akan menjadi lebih baik? Apakah kita bisa mendapatkan manfaat dari model pihak lain? Artikel ini mencoba untuk mengkaji pola ini: Bagaimana Web3 berperan dalam setiap aspek tumpukan teknologi AI, dan apa yang dapat diberikan AI untuk membawa kehidupan baru bagi Web3?
Bagian.1 Apa peluang Web3 di bawah tumpukan AI?
Sebelum membahas topik ini, kita perlu memahami tumpukan teknologi dari model AI besar:
Model AI besar dapat disamakan dengan otak manusia, pada tahap awal seperti bayi yang perlu mengamati dan mengumpulkan banyak informasi dari luar untuk memahami dunia, ini adalah tahap "pengumpulan" data. Karena komputer tidak memiliki banyak indera manusia, sebelum pelatihan perlu dilakukan "pra-pemrosesan" untuk mengubah informasi tanpa label menjadi format yang dapat dipahami komputer.
Setelah memasukkan data, AI membangun model dengan kemampuan pemahaman dan prediksi melalui "pelatihan", mirip dengan bagaimana bayi secara bertahap memahami dan belajar tentang dunia luar. Parameter model disesuaikan seperti kemampuan bahasa bayi yang terus berkembang. Konten pembelajaran dibagi berdasarkan disiplin atau mendapatkan umpan balik melalui interaksi dengan orang lain, memasuki tahap "penyesuaian halus".
Setelah anak-anak tumbuh dan belajar berbicara, mereka dapat memahami dan mengekspresikan diri dalam percakapan baru, mirip dengan tahap "penalaran" model AI besar, yang dapat melakukan analisis prediktif terhadap input baru. Bayi mengekspresikan perasaan, mendeskripsikan objek, dan memecahkan masalah melalui bahasa, mirip dengan model AI besar yang telah dilatih dan diterapkan pada berbagai tugas spesifik, seperti klasifikasi gambar, pengenalan suara, dan lain-lain.
AI Agent semakin mendekati bentuk berikutnya dari model besar: mampu menjalankan tugas secara mandiri untuk mengejar tujuan kompleks, memiliki kemampuan berpikir, mengingat, merencanakan, dan dapat menggunakan alat untuk berinteraksi dengan dunia.
Untuk mengatasi berbagai masalah dalam tumpukan AI, Web3 saat ini telah membentuk ekosistem yang saling terhubung secara multi-level, mencakup setiap tahap proses model AI.
Satu, Tingkat Dasar: Kekuatan Komputasi dan Airbnb Data
Kekuatan komputasi
Saat ini, salah satu biaya tertinggi AI adalah daya komputasi dan energi yang dibutuhkan untuk melatih dan menginformasikan model.
Seperti LLAMA3 dari Meta, yang memerlukan 16.000 GPU NVIDIA H100 selama 30 hari untuk menyelesaikan pelatihan. Versi 80GB memiliki harga satuan 30.000-40.000 dolar AS, memerlukan investasi perangkat keras sebesar 400-700 juta dolar AS, dengan konsumsi listrik pelatihan setiap bulan mencapai 1,6 miliar kilowatt-jam dan pengeluaran energi mendekati 20 juta dolar AS.
Pelepasan daya komputasi AI adalah salah satu bidang yang paling awal berinteraksi antara Web3 dan AI ------ DePin( jaringan infrastruktur fisik terdesentralisasi). DePin Ninja telah mencantumkan lebih dari 1400 proyek, berbagi daya GPU diwakili oleh seperti io.net, Aethir, Akash, Render Network, dan lain-lain.
Logika utama: platform memungkinkan pemilik sumber daya GPU yang tidak terpakai untuk berkontribusi pada kekuatan komputasi secara terdesentralisasi tanpa izin, mirip dengan pasar online antara pembeli dan penjual seperti Uber atau Airbnb, meningkatkan pemanfaatan sumber daya GPU yang tidak terpakai, pengguna akhir mendapatkan sumber daya komputasi yang efisien dan biaya rendah; sekaligus mekanisme staking memastikan bahwa penyedia sumber daya dihukum jika melanggar kontrol kualitas atau mengganggu jaringan.
Ciri-ciri:
Mengumpulkan sumber daya GPU yang tidak terpakai: terutama untuk pusat data kecil dan menengah pihak ketiga, tambang kripto, dan kelebihan daya komputasi, perangkat keras penambangan PoS seperti FileCoin dan mesin tambang ETH. Ada juga proyek yang bertujuan untuk memulai perangkat dengan ambang batas yang lebih rendah, seperti exolab yang memanfaatkan MacBook, iPhone, iPad dan perangkat lokal lainnya untuk membangun jaringan daya komputasi inferensi model besar.
Menghadapi pasar tail panjang compute AI:
a. Sisi teknis: lebih cocok untuk langkah inferensi. Pelatihan bergantung pada GPU cluster besar, inferensi memiliki persyaratan kinerja GPU yang lebih rendah, seperti Aethir yang fokus pada render latensi rendah dan inferensi AI.
b. Pihak permintaan: Pihak dengan daya komputasi kecil dan menengah tidak akan melatih model besar secara terpisah, hanya mengoptimalkan dan menyetel model besar yang terkemuka, secara alami cocok untuk sumber daya komputasi terdistribusi yang menganggur.
Kepemilikan terdesentralisasi: Makna teknologi blockchain adalah bahwa pemilik sumber daya selalu mempertahankan kontrol atas sumber daya, dapat menyesuaikan dengan fleksibel sambil mendapatkan keuntungan.
Data
Data adalah fondasi AI. Tanpa data, perhitungan seperti layangan tanpa arah, hubungan antara data dan model ibarat "Sampah masuk, Sampah keluar", jumlah dan kualitas data menentukan kualitas output model akhir. Untuk pelatihan model AI, data menentukan kemampuan bahasa, kemampuan pemahaman, nilai-nilai, dan performa kemanusiaan. Saat ini, tantangan permintaan data AI terutama adalah:
Ketergantungan Data: Pelatihan model AI bergantung pada input data yang sangat besar. OpenAI melatih parameter GPT-4 mencapai tingkat triliunan.
Kualitas data: Dengan kombinasi AI dan berbagai industri, ada tuntutan baru untuk ketepatan waktu, keragaman, profesionalisme data, serta sumber data baru seperti pengambilan emosi dari media sosial.
Privasi dan Kepatuhan: Perusahaan di berbagai negara secara bertahap menyadari pentingnya kumpulan data berkualitas, dan sedang membatasi pengambilan data.
Biaya pemrosesan data tinggi: Volume data besar, pemrosesan kompleks. Perusahaan AI menghabiskan lebih dari 30% biaya penelitian dan pengembangan untuk pengumpulan dan pemrosesan data dasar.
Solusi Web3 tercermin dalam empat aspek:
Pengumpulan data: Pengambilan data dunia nyata secara gratis dengan cepat habis, pengeluaran data perusahaan AI meningkat setiap tahun, tetapi tidak menguntungkan kontributor yang sebenarnya, platform menikmati seluruh penciptaan nilai, seperti Reddit yang mendapatkan pendapatan $203 juta melalui perjanjian lisensi data perusahaan AI.
Membiarkan pengguna yang benar-benar berkontribusi terlibat dalam penciptaan nilai data, melalui jaringan terdistribusi dan mekanisme insentif untuk mendapatkan data pribadi yang lebih berharga dengan biaya rendah, adalah visi Web3.
Grass: lapisan data terdesentralisasi dan jaringan, pengguna menjalankan node untuk menyumbangkan bandwidth menganggur, menyalurkan lalu lintas untuk menangkap data waktu nyata, mendapatkan imbalan token.
Vana: Memperkenalkan konsep kolam likuiditas data (DLP), pengguna mengunggah data pribadi ke DLP tertentu, dengan fleksibilitas untuk memilih apakah akan memberikan izin kepada pihak ketiga untuk menggunakannya.
PublicAI: Pengguna dapat menggunakan #AI或# label Web3 di X dan @PublicAI untuk mengumpulkan data.
Pra-pemrosesan Data: Dalam pemrosesan data AI, pengumpulan data biasanya bising dan terdapat kesalahan, yang harus dibersihkan dan diubah menjadi format yang dapat digunakan sebelum pelatihan, meliputi standarisasi, penyaringan, penanganan nilai yang hilang, dan tugas berulang lainnya. Tahap ini adalah salah satu langkah manual yang sedikit ada di industri AI, melahirkan industri penandaan data. Seiring meningkatnya permintaan model terhadap kualitas data, ambang batas juga meningkat, secara alami cocok dengan mekanisme insentif terdesentralisasi Web3.
Grass dan OpenLayer mempertimbangkan untuk memasukkan tahap penandaan data.
Synesis mengajukan konsep "Train2earn", menekankan kualitas data, pengguna memberikan data berlabel, anotasi, dan lainnya untuk mendapatkan imbalan.
Proyek penandaan data Sapien menggamifikasi tugas penandaan, pengguna mempertaruhkan poin untuk mendapatkan lebih banyak poin.
Privasi dan Keamanan Data: perlu dijelaskan bahwa privasi data dan keamanan adalah dua konsep yang berbeda. Privasi data melibatkan pengolahan data sensitif, sedangkan keamanan data melindungi data dari akses, perusakan, dan pencurian yang tidak sah. Keunggulan teknologi privasi Web3 dan potensi aplikasi: (1) pelatihan data sensitif; (2) kolaborasi data: banyak pemilik data berpartisipasi dalam pelatihan AI tanpa perlu membagikan data asli.
Teknologi privasi Web3 yang umum saat ini:
Lingkungan Eksekusi Tepercaya ( TEE ), seperti Protokol Super
Enkripsi Homomorfik Penuh ( FHE ), seperti BasedAI, Fhenix.io, Inco Network
Teknologi zero-knowledge ( zk ), seperti Protokol Reclaim yang menggunakan teknologi zkTLS untuk menghasilkan bukti zero-knowledge untuk lalu lintas HTTPS, memungkinkan pengguna untuk mengimpor aktivitas, reputasi, dan data identitas dari situs web eksternal dengan aman, tanpa mengungkapkan informasi sensitif.
Bidang ini masih dalam tahap awal, sebagian besar proyek sedang menjelajahi, saat ini masalahnya adalah biaya komputasi yang tinggi, seperti:
Kerangka zkML EZKL membutuhkan waktu sekitar 80 menit untuk menghasilkan bukti model 1M-nanoGPT.
Data Modulus Labs menunjukkan bahwa biaya zkML lebih dari 1000 kali lipat dibandingkan dengan perhitungan murni.
Penyimpanan Data: Diperlukan tempat untuk menyimpan data di blockchain dan menghasilkan LLM. Dengan ketersediaan data (DA) sebagai masalah inti, throughput Ethereum sebelum peningkatan Danksharding adalah 0,08MB. Pelatihan model AI dan inferensi waktu nyata biasanya memerlukan throughput data 50-100GB per detik. Perbedaan skala ini membuat solusi blockchain yang ada sulit untuk menangani aplikasi AI yang intensif sumber daya.
0g.AI adalah proyek perwakilan. Solusi penyimpanan terpusat yang dirancang untuk kebutuhan kinerja tinggi AI, fitur kunci: kinerja tinggi dan skalabilitas, mendukung pengunggahan dan pengunduhan cepat kumpulan data besar melalui teknologi pemecahan canggih dan kode penghapusan, kecepatan transfer data mendekati 5GB per detik.
Dua, Middleware: Pelatihan dan Inferensi Model
Pasar desentralisasi model sumber terbuka
Perdebatan tentang model AI sumber tertutup vs sumber terbuka terus berlanjut. Sumber terbuka membawa inovasi kolektif yang merupakan keunggulan yang tidak dapat ditandingi oleh sumber tertutup, tetapi bagaimana meningkatkan motivasi pengembang tanpa model keuntungan? Pendiri Baidu, Li Yanhong, pada bulan April menyatakan "model sumber terbuka akan semakin tertinggal."
Web3 mengusulkan kemungkinan pasar model sumber terbuka terdesentralisasi: untuk tokenisasi model itu sendiri, mempertahankan persentase tertentu dari token untuk tim, dan mengalihkan sebagian aliran pendapatan masa depan kepada pemegang token.
Protokol Bittensor membangun pasar P2P model sumber terbuka, terdiri dari puluhan "sub-jaringan", penyedia sumber daya ( perhitungan, pengumpulan/penyimpanan data, dan talenta pembelajaran mesin ) saling bersaing untuk memenuhi tujuan pemilik sub-jaringan tertentu, setiap sub-jaringan dapat saling berinteraksi dan belajar untuk mencapai kecerdasan yang lebih kuat. Hadiah didistribusikan berdasarkan pemungutan suara komunitas, dan didistribusikan lebih lanjut berdasarkan kinerja kompetisi di setiap sub-jaringan.
ORA memperkenalkan konsep penerbitan model awal (IMO), yang memtokenisasi model AI, dan dapat dibeli, dijual, dan dikembangkan melalui jaringan terdesentralisasi.
Sentient, platform AGI terdesentralisasi, mendorong orang untuk berkolaborasi, membangun, menyalin, dan memperluas model AI, serta memberikan imbalan kepada kontributor.
Spectral Nova, berfokus pada pembuatan dan penerapan model AI dan ML.
Penalaran yang Dapat Diverifikasi
Untuk masalah "kotak hitam" dalam inferensi AI, solusi Web3 standar adalah membandingkan hasil operasi berulang oleh beberapa validator, tetapi kekurangan "chip Nvidia" kelas atas menyebabkan biaya inferensi AI yang tinggi, sehingga pendekatan ini menghadapi tantangan.
Harapan lebih besar adalah pelaksanaan bukti ZK untuk perhitungan inferensi AI di luar rantai, tanpa perlu verifikasi izin untuk perhitungan model AI di dalam rantai. Diperlukan bukti terenkripsi di dalam rantai untuk memastikan bahwa perhitungan di luar rantai selesai dengan benar ( jika dataset tidak dimanipulasi ), sambil memastikan semua data tetap rahasia.
Keuntungan utama:
Skalabilitas: Pembuktian nol-pengetahuan dapat dengan cepat mengonfirmasi sejumlah besar perhitungan di luar rantai. Bahkan jika jumlah transaksi meningkat, satu bukti dapat memverifikasi semua transaksi.
Perlindungan privasi: Rincian data dan model AI dirahasiakan, semua pihak dapat memverifikasi bahwa data dan model tidak telah dirusak.
Tanpa kepercayaan: Tidak perlu bergantung pada pihak terpusat untuk memverifikasi perhitungan.
Integrasi Web2: Secara definisi, Web2 adalah integrasi off-chain, di mana inferensi yang dapat diverifikasi dapat membantu membawa kumpulan data dan komputasi AI ke on-chain, yang membantu meningkatkan tingkat adopsi Web3.
Saat ini teknologi Web3 untuk inferensi yang dapat diverifikasi:
zkML: Menggabungkan bukti nol pengetahuan dengan pembelajaran mesin, memastikan kerahasiaan data dan model, memungkinkan perhitungan yang dapat diverifikasi tanpa mengungkapkan atribut dasar, seperti penyedia pembukti ZK yang dibangun dengan AI dari Modulus Labs, yang secara efektif memeriksa apakah penyedia AI menjalankan algoritma dengan benar di blockchain, saat ini pelanggan sebagian besar adalah DApp di blockchain.
opML: Memanfaatkan prinsip pengumpulan optimis, dengan memverifikasi waktu terjadinya sengketa, meningkatkan perhitungan ML.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
7 Suka
Hadiah
7
3
Bagikan
Komentar
0/400
AirdropHunter
· 16jam yang lalu
belum saja diambil alih oleh dana besar Dianggap Bodoh
Lihat AsliBalas0
OnChainDetective
· 16jam yang lalu
Mengarahkan aliran dana selama tiga hari, semua Whale sedang mengumpulkan konsep ai
Bagaimana Web3 berperan di setiap tahap rantai industri AI
AI+Web3: Menara dan Lapangan
TL;DR
Proyek Web3 dengan konsep AI menjadi target pengumpulan dana di pasar primer dan sekunder.
Peluang Web3 di industri AI terutama terletak pada: memanfaatkan insentif terdistribusi untuk mengoordinasikan potensi pasokan ekor panjang ( lintas data, penyimpanan, dan komputasi ); sekaligus membangun pasar terdesentralisasi untuk model sumber terbuka dan AI Agent.
AI di industri Web3 terutama diterapkan dalam keuangan on-chain ( pembayaran kripto, perdagangan, analisis data ) dan pengembangan bantuan.
Kegunaan AI+Web3 terletak pada saling melengkapi antara keduanya: Web3 diharapkan dapat melawan sentralisasi AI, dan AI diharapkan dapat membantu Web3 melewati batas.
Pendahuluan
Dalam dua tahun terakhir, perkembangan AI sangat pesat, kemunculan ChatGPT telah membuka era baru kecerdasan buatan generatif, dan juga telah mengguncang bidang Web3.
Dengan dukungan konsep AI, pendanaan proyek Web3 jelas mengalami peningkatan. Hanya pada paruh pertama tahun 2024, terdapat 64 proyek Web3+AI yang berhasil mendapatkan pendanaan, di mana sistem operasi berbasis AI Zyber365 mencapai pendanaan tertinggi sebesar 100 juta dolar AS pada putaran A.
Pasar sekunder semakin berkembang, data Coingecko menunjukkan bahwa total kapitalisasi pasar untuk sektor AI telah mencapai 48,5 miliar USD, dengan volume perdagangan dalam 24 jam mendekati 8,6 miliar USD. Kemajuan teknologi AI yang utama membawa dampak positif yang jelas, seperti setelah peluncuran Sora oleh OpenAI, harga rata-rata di sektor AI meningkat 151%. Efek AI juga menyebar ke sektor cryptocurrency yang menarik perhatian, Meme: konsep MemeCoin GOAT sebagai AI Agent pertama dengan cepat menjadi populer, dengan valuasi mencapai 1,4 miliar USD, memicu gelombang Meme AI.
Penelitian dan topik terkait AI+Web3 sedang hangat, dari AI+Depin hingga AI Memecoin kemudian ke AI Agent dan AI DAO, emosi FOMO sulit untuk mengikuti kecepatan rotasi narasi baru.
Konsep kombinasi AI+Web3 yang dipenuhi dengan uang panas, peluang, dan fantasi masa depan, tidak dapat dihindari untuk dianggap sebagai sebuah pernikahan yang diatur oleh modal. Kita sulit untuk menilai apakah ini adalah arena para spekulan, atau malam sebelum meledaknya fajar.
Untuk menjawab pertanyaan ini, kuncinya adalah berpikir: Apakah dengan keberadaan pihak lain akan menjadi lebih baik? Apakah kita bisa mendapatkan manfaat dari model pihak lain? Artikel ini mencoba untuk mengkaji pola ini: Bagaimana Web3 berperan dalam setiap aspek tumpukan teknologi AI, dan apa yang dapat diberikan AI untuk membawa kehidupan baru bagi Web3?
Bagian.1 Apa peluang Web3 di bawah tumpukan AI?
Sebelum membahas topik ini, kita perlu memahami tumpukan teknologi dari model AI besar:
Model AI besar dapat disamakan dengan otak manusia, pada tahap awal seperti bayi yang perlu mengamati dan mengumpulkan banyak informasi dari luar untuk memahami dunia, ini adalah tahap "pengumpulan" data. Karena komputer tidak memiliki banyak indera manusia, sebelum pelatihan perlu dilakukan "pra-pemrosesan" untuk mengubah informasi tanpa label menjadi format yang dapat dipahami komputer.
Setelah memasukkan data, AI membangun model dengan kemampuan pemahaman dan prediksi melalui "pelatihan", mirip dengan bagaimana bayi secara bertahap memahami dan belajar tentang dunia luar. Parameter model disesuaikan seperti kemampuan bahasa bayi yang terus berkembang. Konten pembelajaran dibagi berdasarkan disiplin atau mendapatkan umpan balik melalui interaksi dengan orang lain, memasuki tahap "penyesuaian halus".
Setelah anak-anak tumbuh dan belajar berbicara, mereka dapat memahami dan mengekspresikan diri dalam percakapan baru, mirip dengan tahap "penalaran" model AI besar, yang dapat melakukan analisis prediktif terhadap input baru. Bayi mengekspresikan perasaan, mendeskripsikan objek, dan memecahkan masalah melalui bahasa, mirip dengan model AI besar yang telah dilatih dan diterapkan pada berbagai tugas spesifik, seperti klasifikasi gambar, pengenalan suara, dan lain-lain.
AI Agent semakin mendekati bentuk berikutnya dari model besar: mampu menjalankan tugas secara mandiri untuk mengejar tujuan kompleks, memiliki kemampuan berpikir, mengingat, merencanakan, dan dapat menggunakan alat untuk berinteraksi dengan dunia.
Untuk mengatasi berbagai masalah dalam tumpukan AI, Web3 saat ini telah membentuk ekosistem yang saling terhubung secara multi-level, mencakup setiap tahap proses model AI.
Satu, Tingkat Dasar: Kekuatan Komputasi dan Airbnb Data
Kekuatan komputasi
Saat ini, salah satu biaya tertinggi AI adalah daya komputasi dan energi yang dibutuhkan untuk melatih dan menginformasikan model.
Seperti LLAMA3 dari Meta, yang memerlukan 16.000 GPU NVIDIA H100 selama 30 hari untuk menyelesaikan pelatihan. Versi 80GB memiliki harga satuan 30.000-40.000 dolar AS, memerlukan investasi perangkat keras sebesar 400-700 juta dolar AS, dengan konsumsi listrik pelatihan setiap bulan mencapai 1,6 miliar kilowatt-jam dan pengeluaran energi mendekati 20 juta dolar AS.
Pelepasan daya komputasi AI adalah salah satu bidang yang paling awal berinteraksi antara Web3 dan AI ------ DePin( jaringan infrastruktur fisik terdesentralisasi). DePin Ninja telah mencantumkan lebih dari 1400 proyek, berbagi daya GPU diwakili oleh seperti io.net, Aethir, Akash, Render Network, dan lain-lain.
Logika utama: platform memungkinkan pemilik sumber daya GPU yang tidak terpakai untuk berkontribusi pada kekuatan komputasi secara terdesentralisasi tanpa izin, mirip dengan pasar online antara pembeli dan penjual seperti Uber atau Airbnb, meningkatkan pemanfaatan sumber daya GPU yang tidak terpakai, pengguna akhir mendapatkan sumber daya komputasi yang efisien dan biaya rendah; sekaligus mekanisme staking memastikan bahwa penyedia sumber daya dihukum jika melanggar kontrol kualitas atau mengganggu jaringan.
Ciri-ciri:
Mengumpulkan sumber daya GPU yang tidak terpakai: terutama untuk pusat data kecil dan menengah pihak ketiga, tambang kripto, dan kelebihan daya komputasi, perangkat keras penambangan PoS seperti FileCoin dan mesin tambang ETH. Ada juga proyek yang bertujuan untuk memulai perangkat dengan ambang batas yang lebih rendah, seperti exolab yang memanfaatkan MacBook, iPhone, iPad dan perangkat lokal lainnya untuk membangun jaringan daya komputasi inferensi model besar.
Menghadapi pasar tail panjang compute AI: a. Sisi teknis: lebih cocok untuk langkah inferensi. Pelatihan bergantung pada GPU cluster besar, inferensi memiliki persyaratan kinerja GPU yang lebih rendah, seperti Aethir yang fokus pada render latensi rendah dan inferensi AI. b. Pihak permintaan: Pihak dengan daya komputasi kecil dan menengah tidak akan melatih model besar secara terpisah, hanya mengoptimalkan dan menyetel model besar yang terkemuka, secara alami cocok untuk sumber daya komputasi terdistribusi yang menganggur.
Kepemilikan terdesentralisasi: Makna teknologi blockchain adalah bahwa pemilik sumber daya selalu mempertahankan kontrol atas sumber daya, dapat menyesuaikan dengan fleksibel sambil mendapatkan keuntungan.
Data
Data adalah fondasi AI. Tanpa data, perhitungan seperti layangan tanpa arah, hubungan antara data dan model ibarat "Sampah masuk, Sampah keluar", jumlah dan kualitas data menentukan kualitas output model akhir. Untuk pelatihan model AI, data menentukan kemampuan bahasa, kemampuan pemahaman, nilai-nilai, dan performa kemanusiaan. Saat ini, tantangan permintaan data AI terutama adalah:
Ketergantungan Data: Pelatihan model AI bergantung pada input data yang sangat besar. OpenAI melatih parameter GPT-4 mencapai tingkat triliunan.
Kualitas data: Dengan kombinasi AI dan berbagai industri, ada tuntutan baru untuk ketepatan waktu, keragaman, profesionalisme data, serta sumber data baru seperti pengambilan emosi dari media sosial.
Privasi dan Kepatuhan: Perusahaan di berbagai negara secara bertahap menyadari pentingnya kumpulan data berkualitas, dan sedang membatasi pengambilan data.
Biaya pemrosesan data tinggi: Volume data besar, pemrosesan kompleks. Perusahaan AI menghabiskan lebih dari 30% biaya penelitian dan pengembangan untuk pengumpulan dan pemrosesan data dasar.
Solusi Web3 tercermin dalam empat aspek:
Membiarkan pengguna yang benar-benar berkontribusi terlibat dalam penciptaan nilai data, melalui jaringan terdistribusi dan mekanisme insentif untuk mendapatkan data pribadi yang lebih berharga dengan biaya rendah, adalah visi Web3.
Grass: lapisan data terdesentralisasi dan jaringan, pengguna menjalankan node untuk menyumbangkan bandwidth menganggur, menyalurkan lalu lintas untuk menangkap data waktu nyata, mendapatkan imbalan token.
Vana: Memperkenalkan konsep kolam likuiditas data (DLP), pengguna mengunggah data pribadi ke DLP tertentu, dengan fleksibilitas untuk memilih apakah akan memberikan izin kepada pihak ketiga untuk menggunakannya.
PublicAI: Pengguna dapat menggunakan #AI或# label Web3 di X dan @PublicAI untuk mengumpulkan data.
Grass dan OpenLayer mempertimbangkan untuk memasukkan tahap penandaan data.
Synesis mengajukan konsep "Train2earn", menekankan kualitas data, pengguna memberikan data berlabel, anotasi, dan lainnya untuk mendapatkan imbalan.
Proyek penandaan data Sapien menggamifikasi tugas penandaan, pengguna mempertaruhkan poin untuk mendapatkan lebih banyak poin.
Teknologi privasi Web3 yang umum saat ini:
Lingkungan Eksekusi Tepercaya ( TEE ), seperti Protokol Super
Enkripsi Homomorfik Penuh ( FHE ), seperti BasedAI, Fhenix.io, Inco Network
Teknologi zero-knowledge ( zk ), seperti Protokol Reclaim yang menggunakan teknologi zkTLS untuk menghasilkan bukti zero-knowledge untuk lalu lintas HTTPS, memungkinkan pengguna untuk mengimpor aktivitas, reputasi, dan data identitas dari situs web eksternal dengan aman, tanpa mengungkapkan informasi sensitif.
Bidang ini masih dalam tahap awal, sebagian besar proyek sedang menjelajahi, saat ini masalahnya adalah biaya komputasi yang tinggi, seperti:
Kerangka zkML EZKL membutuhkan waktu sekitar 80 menit untuk menghasilkan bukti model 1M-nanoGPT.
Data Modulus Labs menunjukkan bahwa biaya zkML lebih dari 1000 kali lipat dibandingkan dengan perhitungan murni.
Dua, Middleware: Pelatihan dan Inferensi Model
Pasar desentralisasi model sumber terbuka
Perdebatan tentang model AI sumber tertutup vs sumber terbuka terus berlanjut. Sumber terbuka membawa inovasi kolektif yang merupakan keunggulan yang tidak dapat ditandingi oleh sumber tertutup, tetapi bagaimana meningkatkan motivasi pengembang tanpa model keuntungan? Pendiri Baidu, Li Yanhong, pada bulan April menyatakan "model sumber terbuka akan semakin tertinggal."
Web3 mengusulkan kemungkinan pasar model sumber terbuka terdesentralisasi: untuk tokenisasi model itu sendiri, mempertahankan persentase tertentu dari token untuk tim, dan mengalihkan sebagian aliran pendapatan masa depan kepada pemegang token.
Protokol Bittensor membangun pasar P2P model sumber terbuka, terdiri dari puluhan "sub-jaringan", penyedia sumber daya ( perhitungan, pengumpulan/penyimpanan data, dan talenta pembelajaran mesin ) saling bersaing untuk memenuhi tujuan pemilik sub-jaringan tertentu, setiap sub-jaringan dapat saling berinteraksi dan belajar untuk mencapai kecerdasan yang lebih kuat. Hadiah didistribusikan berdasarkan pemungutan suara komunitas, dan didistribusikan lebih lanjut berdasarkan kinerja kompetisi di setiap sub-jaringan.
ORA memperkenalkan konsep penerbitan model awal (IMO), yang memtokenisasi model AI, dan dapat dibeli, dijual, dan dikembangkan melalui jaringan terdesentralisasi.
Sentient, platform AGI terdesentralisasi, mendorong orang untuk berkolaborasi, membangun, menyalin, dan memperluas model AI, serta memberikan imbalan kepada kontributor.
Spectral Nova, berfokus pada pembuatan dan penerapan model AI dan ML.
Penalaran yang Dapat Diverifikasi
Untuk masalah "kotak hitam" dalam inferensi AI, solusi Web3 standar adalah membandingkan hasil operasi berulang oleh beberapa validator, tetapi kekurangan "chip Nvidia" kelas atas menyebabkan biaya inferensi AI yang tinggi, sehingga pendekatan ini menghadapi tantangan.
Harapan lebih besar adalah pelaksanaan bukti ZK untuk perhitungan inferensi AI di luar rantai, tanpa perlu verifikasi izin untuk perhitungan model AI di dalam rantai. Diperlukan bukti terenkripsi di dalam rantai untuk memastikan bahwa perhitungan di luar rantai selesai dengan benar ( jika dataset tidak dimanipulasi ), sambil memastikan semua data tetap rahasia.
Keuntungan utama:
Skalabilitas: Pembuktian nol-pengetahuan dapat dengan cepat mengonfirmasi sejumlah besar perhitungan di luar rantai. Bahkan jika jumlah transaksi meningkat, satu bukti dapat memverifikasi semua transaksi.
Perlindungan privasi: Rincian data dan model AI dirahasiakan, semua pihak dapat memverifikasi bahwa data dan model tidak telah dirusak.
Tanpa kepercayaan: Tidak perlu bergantung pada pihak terpusat untuk memverifikasi perhitungan.
Integrasi Web2: Secara definisi, Web2 adalah integrasi off-chain, di mana inferensi yang dapat diverifikasi dapat membantu membawa kumpulan data dan komputasi AI ke on-chain, yang membantu meningkatkan tingkat adopsi Web3.
Saat ini teknologi Web3 untuk inferensi yang dapat diverifikasi:
zkML: Menggabungkan bukti nol pengetahuan dengan pembelajaran mesin, memastikan kerahasiaan data dan model, memungkinkan perhitungan yang dapat diverifikasi tanpa mengungkapkan atribut dasar, seperti penyedia pembukti ZK yang dibangun dengan AI dari Modulus Labs, yang secara efektif memeriksa apakah penyedia AI menjalankan algoritma dengan benar di blockchain, saat ini pelanggan sebagian besar adalah DApp di blockchain.
opML: Memanfaatkan prinsip pengumpulan optimis, dengan memverifikasi waktu terjadinya sengketa, meningkatkan perhitungan ML.