# AIとブロックチェーンの融合:ゼロから頂点へ人工知能業界の最近の急成長は、第四次産業革命と見なされています。大規模言語モデルの出現は、さまざまな業界の効率を著しく向上させ、アメリカ全体の作業効率に約20%の向上をもたらしていると推定されています。同時に、大規模モデルの汎化能力は、新しいソフトウェア設計のパラダイムと見なされており、過去の正確なコード設計と比較して、現在のソフトウェアはより汎化された大規模モデルのフレームワークを採用しており、より広範な入力出力モダリティをサポートしています。深層学習技術は確かにAI業界に新たな繁栄をもたらし、この熱潮は暗号通貨業界にも広がっています。本稿では、AI業界の発展の歴史、技術の分類、そして深層学習が業界に与える深遠な影響について詳細に探討します。私たちは、GPU、クラウドコンピューティング、データソース、エッジデバイスなどを含む深層学習の産業チェーンの上下流を深く分析し、その発展の現状と傾向を考察します。さらに、暗号通貨とAI業界の関係を本質的に探討し、暗号に関連するAI産業チェーンの構図を整理します。! [新人科学丨AI×暗号:ゼロからピークまで](https://img-cdn.gateio.im/social/moments-7e025deb1fddcd5fa716b6f144701074)## AI業界の歴史AI業界は20世紀50年代に始まりました。人工知能のビジョンを実現するために、学術界と産業界は異なる時代背景の中でさまざまな実現の道を発展させました。現代の人工知能技術は主に「機械学習」という用語を採用しており、その核心理念は、データの反復を通じてシステムの性能を改善することです。主なステップには、データをアルゴリズムに入力し、モデルをトレーニングし、モデルをテストしてデプロイし、最後に自動化された予測タスクに使用することが含まれます。機械学習には現在、主に3つの流派があります:コネクショニズム、シンボリズム、行動主義で、それぞれ人間の神経系、思考、行動を模倣しています。現在、神経ネットワークを代表とするコネクショニズムが主導的地位を占めており(、これを深層学習とも呼びます)。神経ネットワークのアーキテクチャには入力層、出力層、そして複数の隠れ層が含まれています。層数とニューロン(のパラメータ)の数が十分に多い場合、複雑な汎用タスクを適合させることができます。神経ネットワークに基づく深層学習技術は、初期の神経ネットワークからフィードフォワード神経ネットワーク、RNN、CNN、GANを経て、最終的にはGPTなどの現代の大規模モデルで使用されるTransformer技術に進化しました。Transformer技術は神経ネットワークの進化の一つであり、異なるモダリティ((音声、動画、画像など)からのデータを対応する数値表現にエンコードするための変換器を追加し、次に神経ネットワークに入力することで、マルチモーダル処理能力を実現します。! [新参者科学人気丨AI×暗号:ゼロからピークまで])https://img-cdn.gateio.im/social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c(AIの発展は三度の技術の波を経てきた:1. 1960年代: シンボリズム技術の発展により、汎用自然言語処理と人間と機械の対話の問題が解決されました。同時期にエキスパートシステムが誕生しました。2. 1990年代: ベイズネットワークと行動に基づくロボティクスが提案され、行動主義の誕生を象徴しています。1997年、IBMのディープブルーがチェスのチャンピオンを打ち負かし、AIのマイルストーンと見なされました。3. 2006年から現在: 深層学習の概念が提唱され、人工ニューラルネットワークを構造とするアルゴリズムが徐々に進化し、RNN、GANからTransformerとStable Diffusionへと至った。これはコネクショニズムの全盛期である。近年のAI分野におけるいくつかの象徴的な出来事には:- 2015年、深層学習アルゴリズムが『ネイチャー』誌に掲載され、学術界や産業界に大きな反響を引き起こしました。- 2016年、AlphaGoは囲碁の世界チャンピオン李世石に勝利しました。- 2017年、GoogleはTransformerアルゴリズムに関する論文を発表し、大規模な言語モデルが登場し始めました。- 2018年から2020年にかけて、OpenAIはGPTシリーズモデルを発表し、パラメータの規模が継続的に増大しました。- 2023年1月に、GPT-4を基にしたChatGPTが登場し、3月には1億ユーザーに達し、歴史上最も早く1億ユーザーに達したアプリとなった。! 【新人科学丨AI×暗号:ゼロからピークまで])https://img-cdn.gateio.im/social/moments-0c9bdea33a39a2c07d1f06760ed7e804(## ディープラーニング産業チェーン現在、大型言語モデルは主に神経ネットワークに基づく深層学習方法を採用しています。GPTを代表とする大モデルは新たなAIブームを引き起こし、多くのプレイヤーがこの分野に参入しています。市場におけるデータと計算力の需要は急速に増加しているため、私たちは深層学習アルゴリズムの産業チェーンの構成、上下流の現状、供給と需要の関係、そして今後の発展について探讨します。GPTなどの大規模言語モデル)LLMs(のトレーニングは主に3つのステップに分かれています:1. 事前訓練:大量のデータを入力して神経細胞の最適なパラメータを探すこのプロセスは、最も計算能力を消費します。2. ファインチューニング: 少量だが質の高いデータを使用してトレーニングし、モデルの出力品質を向上させる。3. 強化学習: "報酬モデル"を構築して出力結果をランキングし、大規模モデルのパラメータを反復するために使用します。大モデルのパフォーマンスに影響を与える3つの重要な要素は、パラメータの数、データの量と質、計算能力です。パラメータの数をp、データの量をn)トークンの数で計算した場合、経験則を用いて必要な計算量を推定することができます。計算能力は一般的にFlopsを基本単位として表され、一回の浮動小数点演算を示します。経験則によれば、大規模モデルの事前トレーニングには約6np Flopsが必要です。また、推論(の入力データがモデルの出力を待つプロセス)には約2np Flopsが必要です。初期は主にCPUチップを使用して訓練を行っていましたが、後に徐々にGPU、例えばNVIDIAのA100、H100チップなどに移行しました。GPUはTensor Coreモジュールを通じて浮動小数点演算を行い、そのFP16/FP32精度でのFlopsデータはチップの計算能力を測る重要な指標です。GPT-3を例に取ると、1750億個のパラメータと1800億個のトークンのデータ量があります。一度のプレトレーニングには約3.15*10^22 Flops、すなわち3.15*10^10 TFLOPSが必要です。NVIDIA H100 SXMチップを使用してGPT-3を一度プレトレーニングするには約584日かかります。トレーニング大規模モデルには膨大な計算量が必要であり、最新のチップを複数枚使用して計算する必要があります。GPT-4のパラメータ数とデータ量はGPT-3の10倍であり、100倍以上のチップの計算能力が必要になる可能性があります。大規模モデルの訓練において、データストレージも課題に直面しています。GPT-3のデータは約570GBを占め、パラメータは約700GBを占めます。GPUメモリは一般に小さく(、例えばA100は80GB)であり、すべてのデータを収容できないため、チップの帯域幅を考慮する必要があります。複数のGPUで訓練する場合、チップ間のデータ転送速度も関与します。時には訓練速度のボトルネックは計算能力ではなく、データ転送速度であることがあります。深層学習産業チェーンは主に以下のいくつかの段階を含みます:( 1. ハードウェアGPUプロバイダーエヌビディアはAI GPUチップ分野で絶対的なリーダーシップを持っています。学術界では主に消費者向けGPU)、例えばRTXシリーズ###が使用され、産業界では主にH100、A100などの商用チップが使用されています。Googleも独自にTPUチップを開発していますが、主にGoogle Cloudサービスに使用されています。2023年にNVIDIAのH100チップが発表されると、すぐに大量の注文を受け、供給が需要に追いつかない状態になりました。2023年末までにH100の注文量は50万枚を超えました。NVIDIAへの依存から脱却するために、GoogleがCUDA連合を設立し、共同でGPUを開発することを希望しています。! [新人科学丨AI×暗号:ゼロからピークまで](https://img-cdn.gateio.im/social/moments-609c5dd6ee0abcec6bf9c118d7741867)( 2. クラウドサービスプロバイダークラウドサービスプロバイダーは、大量のGPUを購入して高性能計算クラスターを構築し、資金が限られたAI企業に対して弾力的な計算力とホスティングトレーニングソリューションを提供します。主に3つのカテゴリに分かれています:- 従来の大規模クラウドベンダー:AWS、Google Cloud、Azureなど- 垂直AIクラウドコンピューティングプラットフォーム:CoreWeave、Lambdaなど- サービスプロバイダーとしての推論:Together.ai、Fireworks.ai など) 3. トレーニングデータソースプロバイダー大規模モデルのトレーニングには大量のデータが必要です。いくつかの企業は、金融、医療、化学などの分野の専門データセットを提供しています。### 4. データベースプロバイダーAIトレーニングには、大量の非構造化データを効率的に保存および処理する必要があるため、専用の「ベクトルデータベース」が登場しました。主要なプレーヤーにはChroma、Zilliz、Pineconeなどが含まれます。### 5. エッジデバイスGPUクラスターは大量の熱エネルギーを生成し、安定した運用を保証するために冷却システムが必要です。現在は主に空冷が使用されていますが、液冷システムは資本からの注目を集めています。エネルギー供給の面では、一部のテクノロジー企業が地熱、氷エネルギー、原子力などのクリーンエネルギーに投資を始めています。### 6. AIアプリケーション現在のAIアプリケーションの発展はブロックチェーン業界に似ており、インフラは混雑していますが、アプリケーションの開発は相対的に遅れています。上位10の月間アクティブAIアプリケーションの多くは検索系製品であり、ソーシャルなどの他のタイプのアプリケーションは少ないです。AIアプリケーションのユーザー保持率も一般に従来のインターネットアプリケーションよりも低いです。総じて、ディープラーニングの産業チェーンは急速に発展していますが、多くの課題にも直面しています。計算力の需要は引き続き増加しており、データとエネルギーの消費も膨大です。応用シーンのさらなる拡大が求められています。今後、産業チェーンの各段階は、より大規模で、より効率的なAIモデルのトレーニングと応用を支えるために、最適化とアップグレードを続けていくでしょう。! [新人科学丨AI×暗号:ゼロからピークまで]###https://img-cdn.gateio.im/social/moments-f37fb0100218188368f4d31940aab2a3##### 暗号通貨とAIの関係ブロックチェーン技術の核心は去中心化と去信任化です。ビットコインを点対点電子現金システムとして、イーサリアムのスマートコントラクトプラットフォームまで、ブロックチェーンは本質的に価値ネットワークであり、各取引は基盤となるトークンの価値交換に基づいています。従来のインターネットでは、価値はP/Eなどの指標によって株価や時価総額に換算されます。しかし、ブロックチェーンネットワークでは、ネイティブトークンが多次元的な価値の具現化として機能し、ステーキング報酬を得ることができるだけでなく、価値交換の媒介、価値保存の媒介、ネットワーク活動の消費財などとしても利用されます。トークンエコノミクスの重要性は、ネットワーク内のあらゆる機能やアイデアに価値を与えることができる点にあります。トークンはAI産業チェーンの各段階で価値の再構築を可能にし、より多くの人々がAIの細分化された分野に深く取り組むように促します。同時に、トークンの相乗効果はインフラの価値を高め、「太いプロトコルと細いアプリケーション」の構図を形成します。ブロックチェーン技術の不可逆性と信頼不要の特性は、AI業界にも実際の価値をもたらすことができます:- データプライバシー保護下でのモデルのトレーニングと推論を実現する- グローバルネットワークを通じて流通し、余剰のGPU計算能力を活用する- AI産業チェーンの各段階に信頼できる価値発見と交換メカニズムを提供する要するに、トークンエコノミーはAI業界の価値の再構築と発見を促進し、分散型台帳は信頼の問題を解決し、価値を世界的に再流動させることができます。この組み合わせはAI産業に新しい発展の原動力と機会をもたらすでしょう。! [新人科学丨AI×暗号:ゼロからピークまで](https://img-cdn.gateio.im/social/moments-8848582a34ba293d15afae15d90e3c95)## 暗号通貨業界AI産業チェーンプロジェクト概要( GPU供給側現在の主要なブロックチェーンGPUクラウドコンピューティングプロジェクトには、Render、Golemなどがあります。Renderは比較的成熟したプロジェクトで、主に動画レンダリングなどの伝統的なタスクに向けられており、厳密にはAI分野には含まれません。しかし、GPUクラウド市場はAIモデルのトレーニングや推論だけでなく、伝統的なレンダリングにも応用できるため、単一市場への依存リスクを低減します。業界の予測によると、2024年のGPU算力の需要は約750億ドル、2032年には7730億ドルに達し、年平均成長率は33.86%になるとされています。GPUのイテレーションが加速するにつれて、共有GPU算力の需要は大幅に増加するでしょう。なぜなら、最新でない大量の遊休GPUリソースが生じるからです。! [新参者科学丨AI×暗号:ゼロからピークまで])https://img-cdn.gateio.im/social/moments-53c48daf49a3dbb35c1a2b47e234f180###( ハードウェア帯域幅帯域幅は、特に分散型GPU共有ネットワークにおいて、クラウドコンピューティングの性能に影響を与える重要な要素です。Meson Networkのようなプロジェクトはいくつか、帯域幅を共有することでこの問題を解決しようとしていますが、実際の効果は限られています。なぜなら、地理的位置による遅延は依然として避けがたいからです。) データAIデータプロバイダーにはEpiK Protocol、Synesis One、Masaなどがあります。従来のWeb2データ企業と比較して、ブロックチェーンプロジェクトはデータ収集において優位性を持ち、個人データの提供に対してインセンティブを与えることができます。ゼロ知識証明などのプライバシー計算技術と組み合わせることで、より広範なデータ共有の実現が期待されています。### ZKMLのデータプライバシー保護下でのモデルのトレーニングと推論を実現するために、一部のプロジェクトはゼロ知識証明ソリューションを採用しています。典型的なプロジェクトにはAxiomやRisc Zeroなどがあり、オフチェーン計算とデータにZK証明を提供します。このような汎用のZKプロジェクトは応用範囲が広く、投資家にとってより魅力的です。###
AIとブロックチェーンの融合: 産業チェーンからトクノミクスまでの全面的な解析
AIとブロックチェーンの融合:ゼロから頂点へ
人工知能業界の最近の急成長は、第四次産業革命と見なされています。大規模言語モデルの出現は、さまざまな業界の効率を著しく向上させ、アメリカ全体の作業効率に約20%の向上をもたらしていると推定されています。同時に、大規模モデルの汎化能力は、新しいソフトウェア設計のパラダイムと見なされており、過去の正確なコード設計と比較して、現在のソフトウェアはより汎化された大規模モデルのフレームワークを採用しており、より広範な入力出力モダリティをサポートしています。深層学習技術は確かにAI業界に新たな繁栄をもたらし、この熱潮は暗号通貨業界にも広がっています。
本稿では、AI業界の発展の歴史、技術の分類、そして深層学習が業界に与える深遠な影響について詳細に探討します。私たちは、GPU、クラウドコンピューティング、データソース、エッジデバイスなどを含む深層学習の産業チェーンの上下流を深く分析し、その発展の現状と傾向を考察します。さらに、暗号通貨とAI業界の関係を本質的に探討し、暗号に関連するAI産業チェーンの構図を整理します。
! 新人科学丨AI×暗号:ゼロからピークまで
AI業界の歴史
AI業界は20世紀50年代に始まりました。人工知能のビジョンを実現するために、学術界と産業界は異なる時代背景の中でさまざまな実現の道を発展させました。
現代の人工知能技術は主に「機械学習」という用語を採用しており、その核心理念は、データの反復を通じてシステムの性能を改善することです。主なステップには、データをアルゴリズムに入力し、モデルをトレーニングし、モデルをテストしてデプロイし、最後に自動化された予測タスクに使用することが含まれます。
機械学習には現在、主に3つの流派があります:コネクショニズム、シンボリズム、行動主義で、それぞれ人間の神経系、思考、行動を模倣しています。現在、神経ネットワークを代表とするコネクショニズムが主導的地位を占めており(、これを深層学習とも呼びます)。神経ネットワークのアーキテクチャには入力層、出力層、そして複数の隠れ層が含まれています。層数とニューロン(のパラメータ)の数が十分に多い場合、複雑な汎用タスクを適合させることができます。
神経ネットワークに基づく深層学習技術は、初期の神経ネットワークからフィードフォワード神経ネットワーク、RNN、CNN、GANを経て、最終的にはGPTなどの現代の大規模モデルで使用されるTransformer技術に進化しました。Transformer技術は神経ネットワークの進化の一つであり、異なるモダリティ((音声、動画、画像など)からのデータを対応する数値表現にエンコードするための変換器を追加し、次に神経ネットワークに入力することで、マルチモーダル処理能力を実現します。
! [新参者科学人気丨AI×暗号:ゼロからピークまで])https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp(
AIの発展は三度の技術の波を経てきた:
1960年代: シンボリズム技術の発展により、汎用自然言語処理と人間と機械の対話の問題が解決されました。同時期にエキスパートシステムが誕生しました。
1990年代: ベイズネットワークと行動に基づくロボティクスが提案され、行動主義の誕生を象徴しています。1997年、IBMのディープブルーがチェスのチャンピオンを打ち負かし、AIのマイルストーンと見なされました。
2006年から現在: 深層学習の概念が提唱され、人工ニューラルネットワークを構造とするアルゴリズムが徐々に進化し、RNN、GANからTransformerとStable Diffusionへと至った。これはコネクショニズムの全盛期である。
近年のAI分野におけるいくつかの象徴的な出来事には:
! 【新人科学丨AI×暗号:ゼロからピークまで])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(
ディープラーニング産業チェーン
現在、大型言語モデルは主に神経ネットワークに基づく深層学習方法を採用しています。GPTを代表とする大モデルは新たなAIブームを引き起こし、多くのプレイヤーがこの分野に参入しています。市場におけるデータと計算力の需要は急速に増加しているため、私たちは深層学習アルゴリズムの産業チェーンの構成、上下流の現状、供給と需要の関係、そして今後の発展について探讨します。
GPTなどの大規模言語モデル)LLMs(のトレーニングは主に3つのステップに分かれています:
事前訓練:大量のデータを入力して神経細胞の最適なパラメータを探すこのプロセスは、最も計算能力を消費します。
ファインチューニング: 少量だが質の高いデータを使用してトレーニングし、モデルの出力品質を向上させる。
強化学習: "報酬モデル"を構築して出力結果をランキングし、大規模モデルのパラメータを反復するために使用します。
大モデルのパフォーマンスに影響を与える3つの重要な要素は、パラメータの数、データの量と質、計算能力です。パラメータの数をp、データの量をn)トークンの数で計算した場合、経験則を用いて必要な計算量を推定することができます。
計算能力は一般的にFlopsを基本単位として表され、一回の浮動小数点演算を示します。経験則によれば、大規模モデルの事前トレーニングには約6np Flopsが必要です。また、推論(の入力データがモデルの出力を待つプロセス)には約2np Flopsが必要です。
初期は主にCPUチップを使用して訓練を行っていましたが、後に徐々にGPU、例えばNVIDIAのA100、H100チップなどに移行しました。GPUはTensor Coreモジュールを通じて浮動小数点演算を行い、そのFP16/FP32精度でのFlopsデータはチップの計算能力を測る重要な指標です。
GPT-3を例に取ると、1750億個のパラメータと1800億個のトークンのデータ量があります。一度のプレトレーニングには約3.1510^22 Flops、すなわち3.1510^10 TFLOPSが必要です。NVIDIA H100 SXMチップを使用してGPT-3を一度プレトレーニングするには約584日かかります。
トレーニング大規模モデルには膨大な計算量が必要であり、最新のチップを複数枚使用して計算する必要があります。GPT-4のパラメータ数とデータ量はGPT-3の10倍であり、100倍以上のチップの計算能力が必要になる可能性があります。
大規模モデルの訓練において、データストレージも課題に直面しています。GPT-3のデータは約570GBを占め、パラメータは約700GBを占めます。GPUメモリは一般に小さく(、例えばA100は80GB)であり、すべてのデータを収容できないため、チップの帯域幅を考慮する必要があります。複数のGPUで訓練する場合、チップ間のデータ転送速度も関与します。時には訓練速度のボトルネックは計算能力ではなく、データ転送速度であることがあります。
深層学習産業チェーンは主に以下のいくつかの段階を含みます:
( 1. ハードウェアGPUプロバイダー
エヌビディアはAI GPUチップ分野で絶対的なリーダーシップを持っています。学術界では主に消費者向けGPU)、例えばRTXシリーズ###が使用され、産業界では主にH100、A100などの商用チップが使用されています。Googleも独自にTPUチップを開発していますが、主にGoogle Cloudサービスに使用されています。
2023年にNVIDIAのH100チップが発表されると、すぐに大量の注文を受け、供給が需要に追いつかない状態になりました。2023年末までにH100の注文量は50万枚を超えました。NVIDIAへの依存から脱却するために、GoogleがCUDA連合を設立し、共同でGPUを開発することを希望しています。
! 新人科学丨AI×暗号:ゼロからピークまで
( 2. クラウドサービスプロバイダー
クラウドサービスプロバイダーは、大量のGPUを購入して高性能計算クラスターを構築し、資金が限られたAI企業に対して弾力的な計算力とホスティングトレーニングソリューションを提供します。主に3つのカテゴリに分かれています:
) 3. トレーニングデータソースプロバイダー
大規模モデルのトレーニングには大量のデータが必要です。いくつかの企業は、金融、医療、化学などの分野の専門データセットを提供しています。
4. データベースプロバイダー
AIトレーニングには、大量の非構造化データを効率的に保存および処理する必要があるため、専用の「ベクトルデータベース」が登場しました。主要なプレーヤーにはChroma、Zilliz、Pineconeなどが含まれます。
5. エッジデバイス
GPUクラスターは大量の熱エネルギーを生成し、安定した運用を保証するために冷却システムが必要です。現在は主に空冷が使用されていますが、液冷システムは資本からの注目を集めています。エネルギー供給の面では、一部のテクノロジー企業が地熱、氷エネルギー、原子力などのクリーンエネルギーに投資を始めています。
6. AIアプリケーション
現在のAIアプリケーションの発展はブロックチェーン業界に似ており、インフラは混雑していますが、アプリケーションの開発は相対的に遅れています。上位10の月間アクティブAIアプリケーションの多くは検索系製品であり、ソーシャルなどの他のタイプのアプリケーションは少ないです。AIアプリケーションのユーザー保持率も一般に従来のインターネットアプリケーションよりも低いです。
総じて、ディープラーニングの産業チェーンは急速に発展していますが、多くの課題にも直面しています。計算力の需要は引き続き増加しており、データとエネルギーの消費も膨大です。応用シーンのさらなる拡大が求められています。今後、産業チェーンの各段階は、より大規模で、より効率的なAIモデルのトレーニングと応用を支えるために、最適化とアップグレードを続けていくでしょう。
! [新人科学丨AI×暗号:ゼロからピークまで]###https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp###
暗号通貨とAIの関係
ブロックチェーン技術の核心は去中心化と去信任化です。ビットコインを点対点電子現金システムとして、イーサリアムのスマートコントラクトプラットフォームまで、ブロックチェーンは本質的に価値ネットワークであり、各取引は基盤となるトークンの価値交換に基づいています。
従来のインターネットでは、価値はP/Eなどの指標によって株価や時価総額に換算されます。しかし、ブロックチェーンネットワークでは、ネイティブトークンが多次元的な価値の具現化として機能し、ステーキング報酬を得ることができるだけでなく、価値交換の媒介、価値保存の媒介、ネットワーク活動の消費財などとしても利用されます。
トークンエコノミクスの重要性は、ネットワーク内のあらゆる機能やアイデアに価値を与えることができる点にあります。トークンはAI産業チェーンの各段階で価値の再構築を可能にし、より多くの人々がAIの細分化された分野に深く取り組むように促します。同時に、トークンの相乗効果はインフラの価値を高め、「太いプロトコルと細いアプリケーション」の構図を形成します。
ブロックチェーン技術の不可逆性と信頼不要の特性は、AI業界にも実際の価値をもたらすことができます:
要するに、トークンエコノミーはAI業界の価値の再構築と発見を促進し、分散型台帳は信頼の問題を解決し、価値を世界的に再流動させることができます。この組み合わせはAI産業に新しい発展の原動力と機会をもたらすでしょう。
! 新人科学丨AI×暗号:ゼロからピークまで
暗号通貨業界AI産業チェーンプロジェクト概要
( GPU供給側
現在の主要なブロックチェーンGPUクラウドコンピューティングプロジェクトには、Render、Golemなどがあります。Renderは比較的成熟したプロジェクトで、主に動画レンダリングなどの伝統的なタスクに向けられており、厳密にはAI分野には含まれません。しかし、GPUクラウド市場はAIモデルのトレーニングや推論だけでなく、伝統的なレンダリングにも応用できるため、単一市場への依存リスクを低減します。
業界の予測によると、2024年のGPU算力の需要は約750億ドル、2032年には7730億ドルに達し、年平均成長率は33.86%になるとされています。GPUのイテレーションが加速するにつれて、共有GPU算力の需要は大幅に増加するでしょう。なぜなら、最新でない大量の遊休GPUリソースが生じるからです。
! [新参者科学丨AI×暗号:ゼロからピークまで])https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp###
( ハードウェア帯域幅
帯域幅は、特に分散型GPU共有ネットワークにおいて、クラウドコンピューティングの性能に影響を与える重要な要素です。Meson Networkのようなプロジェクトはいくつか、帯域幅を共有することでこの問題を解決しようとしていますが、実際の効果は限られています。なぜなら、地理的位置による遅延は依然として避けがたいからです。
) データ
AIデータプロバイダーにはEpiK Protocol、Synesis One、Masaなどがあります。従来のWeb2データ企業と比較して、ブロックチェーンプロジェクトはデータ収集において優位性を持ち、個人データの提供に対してインセンティブを与えることができます。ゼロ知識証明などのプライバシー計算技術と組み合わせることで、より広範なデータ共有の実現が期待されています。
ZKMLの
データプライバシー保護下でのモデルのトレーニングと推論を実現するために、一部のプロジェクトはゼロ知識証明ソリューションを採用しています。典型的なプロジェクトにはAxiomやRisc Zeroなどがあり、オフチェーン計算とデータにZK証明を提供します。このような汎用のZKプロジェクトは応用範囲が広く、投資家にとってより魅力的です。