Industri kecerdasan buatan baru-baru ini berkembang pesat dan dianggap sebagai revolusi industri gelombang baru. Munculnya model besar secara signifikan meningkatkan efisiensi di berbagai sektor, dengan Boston Consulting Group memperkirakan bahwa GPT meningkatkan efisiensi kerja di AS sekitar 20%. Kemampuan generalisasi model besar dianggap sebagai paradigma desain perangkat lunak baru, yang memungkinkan perangkat lunak memiliki kinerja yang lebih baik dan dukungan mode yang lebih luas. Teknologi pembelajaran mendalam membawa gelombang keempat kemakmuran bagi industri AI, dan gelombang ini juga mempengaruhi industri cryptocurrency.
Laporan ini akan membahas secara mendetail perjalanan perkembangan industri AI, klasifikasi teknologi, serta dampak pembelajaran mendalam terhadap industri. Analisis mendalam mengenai rantai industri pembelajaran mendalam termasuk GPU, komputasi awan, sumber data, perangkat tepi, dan keadaan serta tren perkembangannya. Secara esensial membahas hubungan antara cryptocurrency dan industri AI, serta merangkum pola rantai industri AI yang terkait dengan cryptocurrency.
Sejarah Perkembangan Industri AI
Industri AI dimulai pada tahun 1950-an, untuk mewujudkan visi kecerdasan buatan, akademisi dan industri telah mengembangkan berbagai jalur implementasi di bawah latar belakang era yang berbeda.
Teknologi kecerdasan buatan modern terutama menggunakan metode "pembelajaran mesin", yang memungkinkan mesin untuk meningkatkan kinerja sistem melalui iterasi data. Langkah utama adalah memasukkan data ke dalam algoritma, melatih model, menguji penerapan, dan menyelesaikan tugas prediksi otomatis.
Pembelajaran mesin memiliki tiga aliran utama: koneksionisme, simbolisme, dan behaviorisme, yang masing-masing meniru sistem saraf, pemikiran, dan perilaku manusia.
Saat ini, konektivisme yang diwakili oleh jaringan saraf mendominasi ( juga dikenal sebagai pembelajaran mendalam ). Jaringan saraf memiliki lapisan input, lapisan output, dan beberapa lapisan tersembunyi. Ketika jumlah lapisan dan neuron ( serta parameter ) cukup banyak, mereka dapat menyesuaikan tugas umum yang kompleks. Dengan terus-menerus menyesuaikan parameter, akhirnya mencapai kondisi optimal, itulah asal usul "kedalaman".
Teknologi pembelajaran mendalam telah mengalami beberapa iterasi evolusi, dari jaringan saraf awal, ke jaringan saraf umpan depan, RNN, CNN, GAN, dan akhirnya berkembang menjadi model besar modern seperti teknologi Transformer yang digunakan oleh GPT. Teknologi Transformer hanyalah satu arah evolusi jaringan saraf, yang menambahkan modul konverter, dapat mengkodekan data multimodal menjadi representasi numerik sebelum dimasukkan ke dalam jaringan saraf, sehingga memungkinkan pemrosesan multimodal.
Perkembangan AI telah melalui tiga gelombang teknologi:
Pada tahun 1960-an, perkembangan teknologi simbolisme memicu gelombang pertama, menyelesaikan masalah pemrosesan bahasa alami umum dan dialog manusia-mesin. Pada waktu yang sama, sistem pakar lahir.
Pada tahun 1997, Deep Blue dari IBM mengalahkan juara catur dunia, menandai datangnya gelombang kedua teknologi AI.
Pada tahun 2006, konsep pembelajaran mendalam diusulkan, memulai gelombang teknologi ketiga. Algoritma pembelajaran mendalam terus berkembang, dari RNN, GAN hingga Transformer dan Stable Diffusion, koneksionisme mencapai puncaknya.
Banyak peristiwa ikonik muncul dalam gelombang ketiga:
Pada tahun 2011, IBM Watson mengalahkan manusia di acara kuis "Dangerous Edge"
Pada tahun 2014, Goodfellow mengusulkan GAN
Pada tahun 2015, Hinton dan rekan-rekannya mengusulkan algoritma pembelajaran mendalam di majalah "Nature".
Pada tahun 2016, AlphaGo mengalahkan Lee Sedol
Pada tahun 2017, Google merilis makalah algoritma Transformer
Pada tahun 2018, OpenAI merilis GPT
Tahun 2020, OpenAI merilis GPT-3
Pada tahun 2023, ChatGPT diluncurkan dan dengan cepat mencapai 100 juta pengguna
Rantai Industri Pembelajaran Mendalam
Model bahasa besar saat ini terutama menggunakan metode pembelajaran mendalam berbasis jaringan saraf. Model besar yang dipimpin oleh GPT memicu gelombang baru antusiasme AI, dengan lonjakan kebutuhan pasar akan data dan daya komputasi. Bagian ini membahas komponen dan kondisi pengembangan rantai industri algoritma pembelajaran mendalam.
Pelatihan model besar terutama dibagi menjadi tiga langkah:
Pra-pelatihan: Memasukkan sejumlah besar data untuk mencari parameter terbaik, yang paling menghabiskan daya komputasi.
Fine-tuning: Menggunakan sejumlah kecil data berkualitas tinggi untuk melatih, meningkatkan kualitas model.
Pembelajaran penguatan: membangun model penghargaan untuk mengevaluasi kualitas output, secara otomatis mengiterasi parameter.
Tiga aspek utama yang memengaruhi kinerja model besar adalah: jumlah parameter, kualitas jumlah data, dan daya komputasi. Rumus pengalaman dapat digunakan untuk memperkirakan jumlah komputasi yang diperlukan.
Kekuatan komputasi terutama menggunakan chip GPU, seperti Nvidia A100, H100, dan lain-lain. GPU melakukan perhitungan floating point melalui modul Tensor Core, dan kinerja chip terutama dilihat dari FLOPS pada akurasi FP16/FP32.
Melatih model besar memerlukan jumlah komputasi dan ruang penyimpanan yang besar. Sebagai contoh, GPT-3 memiliki 175 miliar parameter dan 180 miliar token data, yang memerlukan 584 hari untuk pelatihan awal. Parameter dan jumlah data GPT-4 meningkat 10 kali lipat, memerlukan daya komputasi 100 kali lebih banyak.
Rantai industri terutama mencakup:
Penyedia GPU perangkat keras: Nvidia mendominasi
Penyedia layanan cloud: Penyedia cloud tradisional dan penyedia layanan cloud vertikal AI
Penyedia sumber data pelatihan: mesin pencari, platform sosial, dll
Penyedia basis data: Basis data vektor
Perangkat tepi: sistem pendingin, pasokan energi
Aplikasi: masih dalam tahap awal
Hubungan Crypto x AI
Teknologi blockchain yang dikombinasikan dengan ZK berkembang menjadi pemikiran desentralisasi + tanpa kepercayaan. Pada dasarnya, ini adalah jaringan nilai, setiap transaksi didasarkan pada konversi nilai token.
Ekonomi token dapat memberikan nilai multidimensi kepada jaringan, jauh lebih besar daripada sekuritas perusahaan tradisional. Token memungkinkan setiap inovasi dan pemikiran untuk diberikan nilai.
Dalam industri AI, ekonomi token dapat membentuk kembali nilai di setiap tahap rantai pasokan, mendorong lebih banyak partisipasi. Karakteristik blockchain yang tidak dapat diubah dan tanpa kepercayaan juga dapat mewujudkan beberapa aplikasi AI yang memerlukan kepercayaan.
Singkatnya, ekonomi token mendorong restrukturisasi dan penemuan nilai, buku besar terdesentralisasi menyelesaikan masalah kepercayaan, dan mengalirkan nilai secara global.
Gambaran Umum Proyek Rantai Nilai Industri Crypto
sisi pasokan GPU
Proyek yang diwakili seperti Render. Pasar kekuatan komputasi awan GPU tidak hanya ditujukan untuk pelatihan dan inferensi model AI, tetapi juga dapat digunakan untuk tugas rendering tradisional, mengurangi risiko pasar tunggal.
Diperkirakan permintaan daya komputasi GPU pada tahun 2024 sekitar 75 miliar USD, mencapai 773 miliar USD pada tahun 2032, dengan CAGR 33,86%.
Dengan iterasi GPU, banyak GPU yang tidak terpakai akan memainkan nilai ekor panjang dalam jaringan berbagi. Namun, berbagi GPU di blockchain menghadapi masalah bandwidth transmisi data.
bandwidth perangkat keras
Proyek seperti Meson Network. Namun, berbagi bandwidth mungkin merupakan permintaan palsu, lokasi geografis yang terdistribusi menyebabkan latensi lebih tinggi daripada penyimpanan lokal.
data
Proyek-proyek seperti EpiK Protocol, Synesis One, Masa, dan lain-lain. Keuntungan penyedia data Web3 terletak pada saluran pengumpulan data yang lebih luas. Proyek-proyek di arah ZK seperti Masa memiliki prospek yang baik.
ZKML
Menggunakan teknologi enkripsi homomorfik untuk melakukan komputasi dan pelatihan privasi. Proyek-proyek yang mewakili seperti Axiom, Risc Zero, Ritual, dan lain-lain.
aplikasi AI
Utamanya adalah aplikasi blockchain tradisional + kemampuan generasi otomatis. AI Agent menjadi arah penting, proyek perwakilannya seperti Fetch.AI.
AI Public Chain
Jaringan adaptif yang dibangun untuk model atau agen AI, seperti Tensor, Allora, dll. Berdasarkan ekonomi token dapat secara signifikan mengurangi biaya inferensi.
Ringkasan
Teknologi pembelajaran mendalam meskipun bukan satu-satunya arah perkembangan AI, namun sudah memiliki aplikasi praktis. Ekonomi token dapat membentuk kembali nilai rantai industri AI, teknologi blockchain dapat menyelesaikan masalah kepercayaan.
Platform berbagi GPU dapat memanfaatkan daya komputasi yang tidak terpakai untuk mengurangi biaya, tetapi masalah bandwidth membatasi penggunaannya hanya untuk pelatihan model kecil yang tidak mendesak.
Secara keseluruhan, kombinasi AI x Crypto memiliki kegunaan praktis, dapat merombak sistem nilai, menyelesaikan masalah kepercayaan, dan menemukan nilai yang tersisa.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
15 Suka
Hadiah
15
5
Bagikan
Komentar
0/400
ShadowStaker
· 22jam yang lalu
meh... analisis teoretis lainnya tanpa mengatasi kendala MEV yang sebenarnya
Lihat AsliBalas0
MoonMathMagic
· 07-24 20:32
dunia kripto lagi membicarakan AI~
Lihat AsliBalas0
ContractSurrender
· 07-24 20:28
Tidak menjadi suckers lagi, pasar seperti ini.
Lihat AsliBalas0
LiquidatedAgain
· 07-24 20:23
Sekali lagi mau Semua AI ya, masih merasa rugi sedikit?
Lihat AsliBalas0
FundingMartyr
· 07-24 20:08
Pelopor teknologi, namun daya komputasi sulit untuk diungkapkan!
AI dan Aset Kripto: Membentuk Kembali Sistem Nilai dan Pola Rantai Industri
AI x Crypto: Dari Nol ke Puncak
Pendahuluan
Industri kecerdasan buatan baru-baru ini berkembang pesat dan dianggap sebagai revolusi industri gelombang baru. Munculnya model besar secara signifikan meningkatkan efisiensi di berbagai sektor, dengan Boston Consulting Group memperkirakan bahwa GPT meningkatkan efisiensi kerja di AS sekitar 20%. Kemampuan generalisasi model besar dianggap sebagai paradigma desain perangkat lunak baru, yang memungkinkan perangkat lunak memiliki kinerja yang lebih baik dan dukungan mode yang lebih luas. Teknologi pembelajaran mendalam membawa gelombang keempat kemakmuran bagi industri AI, dan gelombang ini juga mempengaruhi industri cryptocurrency.
Laporan ini akan membahas secara mendetail perjalanan perkembangan industri AI, klasifikasi teknologi, serta dampak pembelajaran mendalam terhadap industri. Analisis mendalam mengenai rantai industri pembelajaran mendalam termasuk GPU, komputasi awan, sumber data, perangkat tepi, dan keadaan serta tren perkembangannya. Secara esensial membahas hubungan antara cryptocurrency dan industri AI, serta merangkum pola rantai industri AI yang terkait dengan cryptocurrency.
Sejarah Perkembangan Industri AI
Industri AI dimulai pada tahun 1950-an, untuk mewujudkan visi kecerdasan buatan, akademisi dan industri telah mengembangkan berbagai jalur implementasi di bawah latar belakang era yang berbeda.
Teknologi kecerdasan buatan modern terutama menggunakan metode "pembelajaran mesin", yang memungkinkan mesin untuk meningkatkan kinerja sistem melalui iterasi data. Langkah utama adalah memasukkan data ke dalam algoritma, melatih model, menguji penerapan, dan menyelesaikan tugas prediksi otomatis.
Pembelajaran mesin memiliki tiga aliran utama: koneksionisme, simbolisme, dan behaviorisme, yang masing-masing meniru sistem saraf, pemikiran, dan perilaku manusia.
Saat ini, konektivisme yang diwakili oleh jaringan saraf mendominasi ( juga dikenal sebagai pembelajaran mendalam ). Jaringan saraf memiliki lapisan input, lapisan output, dan beberapa lapisan tersembunyi. Ketika jumlah lapisan dan neuron ( serta parameter ) cukup banyak, mereka dapat menyesuaikan tugas umum yang kompleks. Dengan terus-menerus menyesuaikan parameter, akhirnya mencapai kondisi optimal, itulah asal usul "kedalaman".
Teknologi pembelajaran mendalam telah mengalami beberapa iterasi evolusi, dari jaringan saraf awal, ke jaringan saraf umpan depan, RNN, CNN, GAN, dan akhirnya berkembang menjadi model besar modern seperti teknologi Transformer yang digunakan oleh GPT. Teknologi Transformer hanyalah satu arah evolusi jaringan saraf, yang menambahkan modul konverter, dapat mengkodekan data multimodal menjadi representasi numerik sebelum dimasukkan ke dalam jaringan saraf, sehingga memungkinkan pemrosesan multimodal.
Perkembangan AI telah melalui tiga gelombang teknologi:
Pada tahun 1960-an, perkembangan teknologi simbolisme memicu gelombang pertama, menyelesaikan masalah pemrosesan bahasa alami umum dan dialog manusia-mesin. Pada waktu yang sama, sistem pakar lahir.
Pada tahun 1997, Deep Blue dari IBM mengalahkan juara catur dunia, menandai datangnya gelombang kedua teknologi AI.
Pada tahun 2006, konsep pembelajaran mendalam diusulkan, memulai gelombang teknologi ketiga. Algoritma pembelajaran mendalam terus berkembang, dari RNN, GAN hingga Transformer dan Stable Diffusion, koneksionisme mencapai puncaknya.
Banyak peristiwa ikonik muncul dalam gelombang ketiga:
Rantai Industri Pembelajaran Mendalam
Model bahasa besar saat ini terutama menggunakan metode pembelajaran mendalam berbasis jaringan saraf. Model besar yang dipimpin oleh GPT memicu gelombang baru antusiasme AI, dengan lonjakan kebutuhan pasar akan data dan daya komputasi. Bagian ini membahas komponen dan kondisi pengembangan rantai industri algoritma pembelajaran mendalam.
Pelatihan model besar terutama dibagi menjadi tiga langkah:
Pra-pelatihan: Memasukkan sejumlah besar data untuk mencari parameter terbaik, yang paling menghabiskan daya komputasi.
Fine-tuning: Menggunakan sejumlah kecil data berkualitas tinggi untuk melatih, meningkatkan kualitas model.
Pembelajaran penguatan: membangun model penghargaan untuk mengevaluasi kualitas output, secara otomatis mengiterasi parameter.
Tiga aspek utama yang memengaruhi kinerja model besar adalah: jumlah parameter, kualitas jumlah data, dan daya komputasi. Rumus pengalaman dapat digunakan untuk memperkirakan jumlah komputasi yang diperlukan.
Kekuatan komputasi terutama menggunakan chip GPU, seperti Nvidia A100, H100, dan lain-lain. GPU melakukan perhitungan floating point melalui modul Tensor Core, dan kinerja chip terutama dilihat dari FLOPS pada akurasi FP16/FP32.
Melatih model besar memerlukan jumlah komputasi dan ruang penyimpanan yang besar. Sebagai contoh, GPT-3 memiliki 175 miliar parameter dan 180 miliar token data, yang memerlukan 584 hari untuk pelatihan awal. Parameter dan jumlah data GPT-4 meningkat 10 kali lipat, memerlukan daya komputasi 100 kali lebih banyak.
Rantai industri terutama mencakup:
Hubungan Crypto x AI
Teknologi blockchain yang dikombinasikan dengan ZK berkembang menjadi pemikiran desentralisasi + tanpa kepercayaan. Pada dasarnya, ini adalah jaringan nilai, setiap transaksi didasarkan pada konversi nilai token.
Ekonomi token dapat memberikan nilai multidimensi kepada jaringan, jauh lebih besar daripada sekuritas perusahaan tradisional. Token memungkinkan setiap inovasi dan pemikiran untuk diberikan nilai.
Dalam industri AI, ekonomi token dapat membentuk kembali nilai di setiap tahap rantai pasokan, mendorong lebih banyak partisipasi. Karakteristik blockchain yang tidak dapat diubah dan tanpa kepercayaan juga dapat mewujudkan beberapa aplikasi AI yang memerlukan kepercayaan.
Singkatnya, ekonomi token mendorong restrukturisasi dan penemuan nilai, buku besar terdesentralisasi menyelesaikan masalah kepercayaan, dan mengalirkan nilai secara global.
Gambaran Umum Proyek Rantai Nilai Industri Crypto
sisi pasokan GPU
Proyek yang diwakili seperti Render. Pasar kekuatan komputasi awan GPU tidak hanya ditujukan untuk pelatihan dan inferensi model AI, tetapi juga dapat digunakan untuk tugas rendering tradisional, mengurangi risiko pasar tunggal.
Diperkirakan permintaan daya komputasi GPU pada tahun 2024 sekitar 75 miliar USD, mencapai 773 miliar USD pada tahun 2032, dengan CAGR 33,86%.
Dengan iterasi GPU, banyak GPU yang tidak terpakai akan memainkan nilai ekor panjang dalam jaringan berbagi. Namun, berbagi GPU di blockchain menghadapi masalah bandwidth transmisi data.
bandwidth perangkat keras
Proyek seperti Meson Network. Namun, berbagi bandwidth mungkin merupakan permintaan palsu, lokasi geografis yang terdistribusi menyebabkan latensi lebih tinggi daripada penyimpanan lokal.
data
Proyek-proyek seperti EpiK Protocol, Synesis One, Masa, dan lain-lain. Keuntungan penyedia data Web3 terletak pada saluran pengumpulan data yang lebih luas. Proyek-proyek di arah ZK seperti Masa memiliki prospek yang baik.
ZKML
Menggunakan teknologi enkripsi homomorfik untuk melakukan komputasi dan pelatihan privasi. Proyek-proyek yang mewakili seperti Axiom, Risc Zero, Ritual, dan lain-lain.
aplikasi AI
Utamanya adalah aplikasi blockchain tradisional + kemampuan generasi otomatis. AI Agent menjadi arah penting, proyek perwakilannya seperti Fetch.AI.
AI Public Chain
Jaringan adaptif yang dibangun untuk model atau agen AI, seperti Tensor, Allora, dll. Berdasarkan ekonomi token dapat secara signifikan mengurangi biaya inferensi.
Ringkasan
Teknologi pembelajaran mendalam meskipun bukan satu-satunya arah perkembangan AI, namun sudah memiliki aplikasi praktis. Ekonomi token dapat membentuk kembali nilai rantai industri AI, teknologi blockchain dapat menyelesaikan masalah kepercayaan.
Platform berbagi GPU dapat memanfaatkan daya komputasi yang tidak terpakai untuk mengurangi biaya, tetapi masalah bandwidth membatasi penggunaannya hanya untuk pelatihan model kecil yang tidak mendesak.
Secara keseluruhan, kombinasi AI x Crypto memiliki kegunaan praktis, dapat merombak sistem nilai, menyelesaikan masalah kepercayaan, dan menemukan nilai yang tersisa.