AI dan Blockchain Fusion: Analisis Menyeluruh dari Rantai Industri ke Tokenomik

AI dan Blockchain: Dari Nol ke Puncak

Perkembangan pesat industri kecerdasan buatan baru-baru ini dianggap sebagai Revolusi Industri Keempat. Munculnya model bahasa besar secara signifikan meningkatkan efisiensi di berbagai sektor, diperkirakan membawa peningkatan sekitar 20% dalam efisiensi kerja keseluruhan di Amerika Serikat. Sementara itu, kemampuan generalisasi model besar dianggap sebagai paradigma desain perangkat lunak baru, dibandingkan dengan desain kode yang tepat di masa lalu, perangkat lunak sekarang lebih banyak menggunakan kerangka model besar yang digeneralisasi, sehingga mendukung lebih banyak mode input dan output. Teknologi pembelajaran mendalam memang membawa gelombang baru kemakmuran bagi industri AI, dan gelombang ini juga telah menyebar ke industri cryptocurrency.

Artikel ini akan membahas secara rinci perjalanan perkembangan industri AI, kategori teknologi, serta dampak mendalam dari pembelajaran mendalam terhadap industri. Kami akan menganalisis rantai pasokan pembelajaran mendalam secara mendalam, termasuk GPU, komputasi awan, sumber data, perangkat tepi, dan menganalisis status dan tren perkembangannya. Selain itu, kami akan membahas secara esensial hubungan antara cryptocurrency dan industri AI, serta merinci pola rantai pasokan AI yang terkait dengan cryptocurrency.

Pemula Populer丨AI x Crypto: Dari Nol ke Puncak

Perkembangan Industri AI

Industri AI dimulai pada tahun 1950-an. Untuk mewujudkan visi kecerdasan buatan, akademisi dan industri telah mengembangkan berbagai jalur implementasi dalam konteks zaman yang berbeda.

Teknologi kecerdasan buatan modern terutama menggunakan istilah "pembelajaran mesin", yang memiliki inti ide untuk memungkinkan mesin meningkatkan kinerja sistem melalui iterasi data. Langkah-langkah utama termasuk memasukkan data ke dalam algoritma, melatih model, menguji model yang diterapkan, dan akhirnya digunakan untuk tugas prediksi otomatis.

Ada tiga aliran utama dalam pembelajaran mesin: koneksionisme, simbolisme, dan perilakuisme, yang masing-masing meniru sistem saraf, pemikiran, dan perilaku manusia. Saat ini, koneksionisme yang diwakili oleh jaringan saraf mendominasi ( yang juga dikenal sebagai pembelajaran mendalam ). Arsitektur jaringan saraf mencakup lapisan input, lapisan output, dan beberapa lapisan tersembunyi, ketika jumlah lapisan dan neuron ( parameter ) cukup banyak, ia dapat menyesuaikan tugas umum yang kompleks.

Teknologi pembelajaran mendalam berbasis jaringan saraf juga telah mengalami beberapa iterasi, dari jaringan saraf awal, ke jaringan saraf feedforward, RNN, CNN, GAN, hingga akhirnya berevolusi menjadi model besar modern seperti teknologi Transformer yang digunakan oleh GPT. Teknologi Transformer adalah salah satu arah evolusi jaringan saraf, yang menambahkan sebuah konverter, untuk mengkodekan data dari berbagai moda ( seperti audio, video, gambar, dll ) menjadi representasi numerik yang sesuai, kemudian dimasukkan ke dalam jaringan saraf, sehingga memungkinkan kemampuan pemrosesan multimodal.

Pemula Keterangan丨AI x Crypto: Dari Nol ke Puncak

AI telah mengalami tiga gelombang teknologi:

  1. Tahun 1960-an: Perkembangan teknologi simbolisme, menyelesaikan masalah pemrosesan bahasa alami umum dan dialog manusia-komputer. Pada saat yang sama lahirlah sistem pakar.

  2. Tahun 1990-an: Jaringan Bayesian dan robotika berbasis perilaku diperkenalkan, menandai kelahiran behaviorisme. Pada tahun 1997, IBM Deep Blue mengalahkan juara catur dunia, dianggap sebagai tonggak AI.

  3. Sejak 2006: Konsep pembelajaran mendalam diusulkan, algoritma yang didasarkan pada arsitektur jaringan saraf buatan secara bertahap berkembang, dari RNN, GAN hingga Transformer dan Stable Diffusion, ini adalah masa kejayaan konektivisme.

Beberapa peristiwa ikonik di bidang AI dalam beberapa tahun terakhir termasuk:

  • Pada tahun 2015, algoritma pembelajaran mendalam diterbitkan di majalah "Nature", yang memicu reaksi besar di kalangan akademisi dan industri.
  • Pada tahun 2016, AlphaGo mengalahkan juara dunia Go Lee Sedol.
  • Pada tahun 2017, Google merilis makalah algoritma Transformer, model bahasa skala besar mulai muncul.
  • Dari tahun 2018-2020, OpenAI merilis seri model GPT dengan ukuran parameter yang terus meningkat.
  • Januari 2023, ChatGPT berbasis GPT-4 diluncurkan, mencapai 100 juta pengguna pada bulan Maret, menjadi aplikasi yang tercepat dalam sejarah untuk mencapai 100 juta pengguna.

Pemula Populer丨AI x Crypto: Dari Nol ke Puncak

Rantai industri pembelajaran mendalam

Model bahasa besar saat ini sebagian besar menggunakan metode pembelajaran mendalam berbasis jaringan saraf. Model besar yang dipimpin oleh GPT telah memicu gelombang baru dalam AI, dengan banyak pemain memasuki jalur ini. Permintaan pasar untuk data dan daya komputasi meningkat dengan cepat, oleh karena itu kami akan membahas komposisi rantai industri algoritma pembelajaran mendalam, serta keadaan hulu dan hilir, hubungan penawaran dan permintaan, serta perkembangan masa depan.

Pelatihan model bahasa besar seperti GPT ( LLMs ) terutama dibagi menjadi tiga langkah:

  1. Pra-pelatihan: Memasukkan sejumlah besar data untuk mencari parameter terbaik neuron, proses ini paling memakan daya komputasi.

  2. Fine-tuning: Menggunakan sedikit data tetapi berkualitas tinggi untuk melatih, meningkatkan kualitas output model.

  3. Pembelajaran Penguatan: Membangun "model hadiah" untuk mengurutkan hasil output, digunakan untuk iterasi parameter model besar.

Tiga faktor kunci yang mempengaruhi kinerja model besar adalah: jumlah parameter, jumlah dan kualitas data, serta daya komputasi. Misalkan jumlah parameter adalah p, jumlah data adalah n( dihitung berdasarkan jumlah Token ), maka jumlah komputasi yang diperlukan dapat diperkirakan menggunakan aturan praktis.

Kekuatan komputasi umumnya diukur dalam Flops yang mewakili satu operasi titik mengapung. Berdasarkan aturan praktis, pelatihan model besar sekali membutuhkan sekitar 6np Flops. Sedangkan untuk inferensi, proses menunggu keluaran model dari data masukan ( memerlukan sekitar 2np Flops.

Pada awalnya, pelatihan terutama menggunakan chip CPU, kemudian secara bertahap beralih ke GPU, seperti chip A100 dan H100 dari NVIDIA. GPU melakukan perhitungan floating point melalui modul Tensor Core, data Flops di bawah akurasi FP16/FP32 adalah indikator penting untuk mengukur kemampuan komputasi chip.

Sebagai contoh GPT-3, ia memiliki 175 miliar parameter, dengan jumlah data 180 miliar Token. Satu kali pelatihan awal membutuhkan sekitar 3.1510^22 Flops, yaitu 3.1510^10 TFLOPS. Menggunakan satu chip NVIDIA H100 SXM untuk melatih GPT-3 sekali membutuhkan waktu sekitar 584 hari.

Dapat dilihat bahwa melatih model besar memerlukan jumlah komputasi yang sangat besar, dan membutuhkan banyak chip canggih untuk melakukan perhitungan bersama. Jumlah parameter dan volume data GPT-4 adalah sepuluh kali lipat dari GPT-3, mungkin memerlukan lebih dari 100 kali lipat daya komputasi chip.

Dalam pelatihan model besar, penyimpanan data juga menghadapi tantangan. Data GPT-3 memakan sekitar 570GB, dan parameter memakan sekitar 700GB. Memori GPU umumnya lebih kecil, seperti A100 dengan 80GB, tidak dapat menampung semua data, sehingga perlu mempertimbangkan bandwidth chip. Pelatihan multi-GPU juga melibatkan kecepatan transfer data antar chip. Terkadang, batasan yang membatasi kecepatan pelatihan bukanlah kemampuan komputasi, melainkan kecepatan transfer data.

Rantai industri pembelajaran mendalam terutama mencakup beberapa tahap berikut:

) 1. Penyedia GPU perangkat keras

NVIDIA berada di posisi terdepan yang absolut dalam bidang chip GPU AI. Dunia akademis terutama menggunakan GPU konsumer ( seperti seri RTX ), sementara industri utama menggunakan chip komersial seperti H100, A100, dan lainnya. Google juga memiliki chip TPU yang dikembangkan sendiri, tetapi terutama digunakan untuk layanan Google Cloud.

Setelah dirilis pada tahun 2023, chip Nvidia H100 langsung mendapatkan banyak pesanan, melebihi pasokan. Hingga akhir 2023, jumlah pesanan H100 telah melebihi 500.000 unit. Untuk mengurangi ketergantungan pada Nvidia, Google memimpin pembentukan aliansi CUDA, berharap untuk bersama-sama mengembangkan GPU.

![Pemula Populer丨AI x Crypto: Dari Nol ke Puncak]###https://img-cdn.gateio.im/webp-social/moments-609c5dd6ee0abcec6bf9c118d7741867.webp(

) 2. Penyedia Layanan Awan

Penyedia layanan cloud membeli sejumlah besar GPU untuk membangun kluster komputasi berkinerja tinggi, menyediakan kapasitas komputasi yang fleksibel dan solusi pelatihan yang dikelola untuk perusahaan AI dengan dana terbatas. Terutama dibagi menjadi tiga kategori:

  • Penyedia cloud besar tradisional: AWS, Google Cloud, Azure, dll.
  • Platform kekuatan komputasi AI vertikal: CoreWeave, Lambda, dll.
  • Penyedia layanan inferensi: Together.ai, Fireworks.ai, dll.

( 3. Penyedia sumber data pelatihan

Pelatihan model besar membutuhkan data dalam jumlah besar. Beberapa perusahaan secara khusus menyediakan data pelatihan dari berbagai industri, seperti dataset profesional di bidang keuangan, kesehatan, kimia, dan lainnya.

) 4. Penyedia basis data

Pelatihan AI memerlukan penyimpanan dan pemrosesan efisien dari data tidak terstruktur dalam jumlah besar, sehingga muncul "basis data vektor" khusus. Pemain utama termasuk Chroma, Zilliz, Pinecone, dan lain-lain.

5. Perangkat Tepi

Kumpulan GPU akan menghasilkan sejumlah besar energi panas, membutuhkan sistem pendingin untuk memastikan operasi yang stabil. Saat ini, pendinginan udara adalah metode yang utama, tetapi sistem pendinginan cair mulai mendapatkan perhatian dari investor. Dalam hal pasokan energi, beberapa perusahaan teknologi mulai berinvestasi dalam energi bersih seperti energi geotermal, hidrogen, dan nuklir.

6. Aplikasi AI

Saat ini, perkembangan aplikasi AI mirip dengan industri Blockchain, infrastruktur padat tetapi pengembangan aplikasi relatif tertinggal. Sepuluh aplikasi AI aktif bulanan teratas sebagian besar adalah produk pencarian, aplikasi jenis lain seperti sosial relatif sedikit. Tingkat retensi pengguna aplikasi AI juga umumnya lebih rendah daripada aplikasi internet tradisional.

Secara keseluruhan, rantai industri pembelajaran mendalam sedang berkembang pesat, tetapi juga menghadapi banyak tantangan. Permintaan daya komputasi terus meningkat, konsumsi data dan energi yang besar, serta skenario aplikasi yang perlu diperluas lebih lanjut. Di masa depan, setiap tahap rantai industri akan terus dioptimalkan dan ditingkatkan untuk mendukung pelatihan dan penerapan model AI yang lebih besar dan lebih efisien.

![Pemula Pengetahuan丨AI x Crypto: Dari Nol ke Puncak]###https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp###

Hubungan antara Cryptocurrency dan AI

Inti dari teknologi Blockchain adalah desentralisasi dan penghilangan kepercayaan. Dari Bitcoin sebagai sistem uang elektronik peer-to-peer, hingga platform kontrak pintar Ethereum, Blockchain pada dasarnya adalah jaringan nilai, di mana setiap transaksi merupakan pertukaran nilai yang didasarkan pada nilai token yang mendasarinya.

Dalam internet tradisional, nilai dihitung menjadi harga saham dan nilai pasar melalui indikator seperti P/E. Sedangkan di jaringan blockchain, token asli sebagai perwujudan nilai multidimensi, tidak hanya dapat menghasilkan imbal hasil staking, tetapi juga dapat digunakan sebagai media pertukaran nilai, media penyimpanan nilai, dan barang konsumsi dalam aktivitas jaringan.

Pentingnya ekonomi token terletak pada kemampuannya untuk memberikan nilai pada setiap fungsi atau ide dalam jaringan. Token dapat memungkinkan setiap tahap dalam rantai industri AI untuk melakukan transformasi nilai, mendorong lebih banyak orang untuk mendalami sektor-sektor AI yang lebih spesifik. Pada saat yang sama, efek sinergi dari token akan meningkatkan nilai infrastruktur, membentuk pola "protokol gemuk dan aplikasi ramping."

Karakteristik blockchain yang tidak dapat diubah dan tanpa kepercayaan juga dapat membawa nilai praktis bagi industri AI:

  • Mewujudkan pelatihan model dan inferensi di bawah perlindungan privasi data
  • Melalui distribusi jaringan global dan memanfaatkan daya komputasi GPU yang tidak terpakai
  • Menyediakan mekanisme penemuan dan pertukaran nilai yang dapat dipercaya untuk setiap tahap rantai industri AI

Singkatnya, ekonomi token dapat memfasilitasi restrukturisasi dan penemuan nilai di industri AI, buku besar terdesentralisasi dapat menyelesaikan masalah kepercayaan, dan mengalirkan nilai kembali secara global. Kombinasi ini akan membawa dorongan dan peluang baru bagi industri AI.

![Pemula Populer丨AI x Crypto: Dari Nol ke Puncak]###https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp(

Gambaran Umum Proyek Rantai Industri AI dalam Industri Cryptocurrency

) Sisi pasokan GPU

Saat ini, proyek komputasi awan GPU blockchain utama termasuk Render, Golem, dan lainnya. Render sebagai proyek yang lebih matang, terutama ditujukan untuk tugas tradisional seperti rendering video, secara ketat tidak dianggap sebagai bagian AI. Namun, pasar awan GPU tidak hanya dapat digunakan untuk pelatihan dan inferensi model AI, tetapi juga dapat diterapkan pada rendering tradisional, mengurangi risiko ketergantungan pada satu pasar.

Menurut prediksi industri, permintaan daya komputasi GPU pada tahun 2024 diperkirakan mencapai sekitar 75 miliar USD, dan akan mencapai 773 miliar USD pada tahun 2032, dengan laju pertumbuhan tahunan gabungan sebesar 33,86%. Seiring dengan percepatan iterasi GPU, permintaan untuk daya komputasi GPU yang dibagikan akan meningkat secara signifikan, karena akan ada banyak sumber daya GPU yang tidak terpakai dan bukan yang terbaru.

Pemula Seputar丨AI x Crypto: Dari Nol ke Puncak

Bandwidth perangkat keras

Bandwidth seringkali menjadi faktor kunci yang mempengaruhi kinerja cloud computing, terutama untuk jaringan berbagi GPU yang terdesentralisasi. Beberapa proyek seperti Meson Network berusaha menyelesaikan masalah ini dengan berbagi bandwidth, tetapi efek nyata terbatas karena latensi yang disebabkan oleh lokasi geografis masih sulit dihindari.

( data

Penyedia data AI termasuk EpiK Protocol, Synesis One, Masa, dan lainnya. Dibandingkan dengan perusahaan data Web2 tradisional, proyek blockchain memiliki keunggulan dalam pengumpulan data, dapat memberikan insentif untuk kontribusi data pribadi. Dengan menggabungkan teknologi komputasi privasi seperti bukti nol-pengetahuan, diharapkan dapat mewujudkan berbagi data yang lebih luas.

) ZKML

Untuk mencapai pelatihan dan inferensi model di bawah perlindungan privasi data, beberapa proyek menggunakan solusi pembuktian nol pengetahuan. Proyek-proyek tipikal termasuk Axiom, Risc Zero, dll, yang dapat memberikan pembuktian ZK untuk komputasi dan data di luar rantai. Proyek ZK umum semacam ini memiliki batas aplikasi yang lebih luas dan lebih menarik bagi investor.

GPT0.29%
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • 5
  • Bagikan
Komentar
0/400
MetaNeighborvip
· 16jam yang lalu
Perdagangan Mata Uang Kripto wajib AI, semua bergantung pada AI
Lihat AsliBalas0
ILCollectorvip
· 16jam yang lalu
Siapa bilang bull run pasti tidak Cut Loss, Cut Loss juga merupakan salah satu cara untuk naik.
Lihat AsliBalas0
ColdWalletGuardianvip
· 16jam yang lalu
GPU besar akan To da moon lagi~
Lihat AsliBalas0
HodlOrRegretvip
· 17jam yang lalu
Oke, oke, lagi-lagi berbicara tentang AI. Bull adalah bull, tapi Rig Penambangan tidak laku.
Lihat AsliBalas0
MEVHunterZhangvip
· 17jam yang lalu
Lagi-lagi dihabisi BTC dianggap bodoh
Lihat AsliBalas0
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)