Fusion de l'IA et de la Blockchain : Analyse complète de la chaîne d'approvisionnement à la tokenomics

Fusion de l'IA et de la Blockchain : de zéro au sommet

Le développement florissant de l'industrie de l'intelligence artificielle ces derniers temps est considéré comme la quatrième révolution industrielle. L'émergence de grands modèles de langage a considérablement amélioré l'efficacité dans divers secteurs, estimée à environ 20 % d'augmentation de l'efficacité globale du travail aux États-Unis. En même temps, la capacité de généralisation des grands modèles est perçue comme un nouveau paradigme de conception logicielle, où les logiciels actuels adoptent davantage un cadre de grands modèles généralisés, par rapport à la conception de code précise du passé, ce qui permet de prendre en charge des modalités d'entrée et de sortie plus larges. La technologie d'apprentissage profond a effectivement apporté une nouvelle prospérité à l'industrie de l'IA, et cette vague s'est également étendue à l'industrie des cryptomonnaies.

Cet article explorera en détail le parcours de développement de l'industrie de l'IA, les classifications technologiques, ainsi que l'impact profond de l'apprentissage profond sur l'industrie. Nous analyserons en profondeur les chaînes de valeur en amont et en aval de l'apprentissage profond, y compris les GPU, le cloud computing, les sources de données, les dispositifs périphériques, etc., et nous examinerons l'état actuel de leur développement et les tendances. De plus, nous explorerons essentiellement la relation entre les cryptomonnaies et l'industrie de l'IA, en dégageant le schéma des chaînes de valeur de l'IA liées aux cryptomonnaies.

Nouveau venu en sciences populaires丨AI x Crypto : de zéro au sommet

L'évolution de l'industrie de l'IA

L'industrie de l'IA a débuté dans les années 1950. Pour réaliser la vision de l'intelligence artificielle, le monde académique et l'industrie ont développé différentes voies de mise en œuvre dans des contextes historiques variés.

Les technologies modernes de l'intelligence artificielle utilisent principalement le terme "apprentissage machine", dont le concept central est de permettre aux machines d'améliorer les performances du système par itération des données. Les étapes principales comprennent l'entrée des données dans l'algorithme, l'entraînement du modèle, le test du modèle déployé, et enfin son utilisation pour des tâches de prédiction automatisées.

L'apprentissage automatique a actuellement trois grandes écoles de pensée : le connexionnisme, le symbolisme et le béhaviorisme, qui imitent respectivement le système nerveux, la pensée et le comportement humains. Actuellement, le connexionnisme, représenté par les réseaux de neurones, domine et est également appelé apprentissage profond. L'architecture des réseaux de neurones comprend une couche d'entrée, une couche de sortie et plusieurs couches cachées. Lorsque le nombre de couches et le nombre de neurones sont suffisamment élevés, il est capable d'ajuster des tâches générales complexes.

Les technologies d'apprentissage profond basées sur les réseaux neuronaux ont également connu de multiples itérations, des premiers réseaux neuronaux, aux réseaux neuronaux à propagation avant, RNN, CNN, GAN, pour finalement évoluer vers des modèles modernes tels que la technologie Transformer utilisée par GPT. La technologie Transformer est une direction d'évolution des réseaux neuronaux, ajoutant un convertisseur pour encoder des données de différentes modalités ( telles que l'audio, la vidéo, les images, etc. ) en représentations numériques correspondantes, puis les entrer dans le réseau neuronal, permettant ainsi des capacités de traitement multimodal.

Nouveau guide丨AI x Crypto : De zéro au sommet

Le développement de l'IA a connu trois vagues technologiques :

  1. Années 1960 : Le développement des technologies symbolistes a résolu les problèmes de traitement du langage naturel général et de dialogue homme-machine. Les systèmes experts ont également vu le jour à cette époque.

  2. Années 1990 : Les réseaux bayésiens et la robotique basée sur le comportement ont été proposés, marquant la naissance du behaviorisme. En 1997, Deep Blue d'IBM a vaincu le champion d'échecs, considéré comme un jalon de l'IA.

  3. Depuis 2006 : le concept d'apprentissage profond a été proposé, les algorithmes basés sur des réseaux de neurones artificiels ont progressivement évolué, passant des RNN, GAN aux Transformateurs et à la Diffusion Stable, c'est l'âge d'or du connexionnisme.

Ces dernières années, certains événements emblématiques dans le domaine de l'IA incluent :

  • En 2015, des algorithmes d'apprentissage profond publiés dans la revue "Nature" ont suscité une énorme réaction dans le monde académique et industriel.
  • En 2016, AlphaGo a vaincu le champion du monde de Go, Lee Sedol.
  • En 2017, Google a publié un article sur l'algorithme Transformer, marquant le début des modèles de langage à grande échelle.
  • De 2018 à 2020, OpenAI a publié la série de modèles GPT, dont la taille des paramètres n'a cessé d'augmenter.
  • En janvier 2023, ChatGPT basé sur GPT-4 a été lancé, atteignant 100 millions d'utilisateurs en mars, devenant ainsi l'application à atteindre 100 millions d'utilisateurs le plus rapidement dans l'histoire.

Nouvelle introduction丨IA x Crypto : De zéro au sommet

Chaîne de valeur de l'apprentissage profond

Les grands modèles de langage actuels adoptent principalement des méthodes d'apprentissage profond basées sur des réseaux de neurones. Les grands modèles représentés par GPT ont déclenché une nouvelle vague d'engouement pour l'IA, ce qui a attiré de nombreux acteurs dans ce domaine. La demande du marché pour les données et la puissance de calcul augmente rapidement, c'est pourquoi nous allons explorer la composition de la chaîne de valeur des algorithmes d'apprentissage profond, ainsi que l'état des segments en amont et en aval, la relation offre-demande et les perspectives d'avenir.

L'entraînement des grands modèles de langage comme GPT(LLMs) se divise principalement en trois étapes :

  1. Pré-entraînement : entrer une grande quantité de données pour trouver les meilleurs paramètres des neurones, ce processus consomme le plus de puissance de calcul.

  2. Ajustement : utiliser une petite quantité de données de haute qualité pour entraîner le modèle et améliorer la qualité de sortie du modèle.

  3. Apprentissage par renforcement : établir un "modèle de récompense" pour trier les résultats de sortie, utilisé pour itérer les paramètres du grand modèle.

Les trois facteurs clés qui influencent la performance des grands modèles sont : le nombre de paramètres, la quantité et la qualité des données, et la puissance de calcul. Supposons que le nombre de paramètres soit p, la quantité de données soit n( calculée en nombre de Tokens), alors on peut estimer la quantité de calcul nécessaire par des règles empiriques.

La puissance de calcul est généralement mesurée en Flops, représentant une opération flottante. Selon la règle empirique, le pré-entraînement d'un grand modèle nécessite environ 6np Flops. Le processus d'inférence où les données d'entrée ( attendent la sortie du modèle nécessite environ 2np Flops.

Au début, l'entraînement était principalement effectué avec des puces CPU, puis il s'est progressivement tourné vers les GPU, comme les puces A100 et H100 de Nvidia. Les GPU effectuent des calculs en virgule flottante via le module Tensor Core, et les données Flops sous les précisions FP16/FP32 sont un indicateur important de la capacité de calcul des puces.

Prenons l'exemple de GPT-3, qui a 175 milliards de paramètres et un volume de données de 180 milliards de tokens. Un pré-entraînement nécessite environ 3,1510^22 Flops, soit 3,1510^10 TFLOPS. Préentraîner GPT-3 une fois avec une puce NVIDIA H100 SXM nécessite environ 584 jours.

On peut voir que l'entraînement de grands modèles nécessite une énorme quantité de calcul, nécessitant plusieurs puces de pointe pour le calcul conjoint. Le nombre de paramètres et la quantité de données de GPT-4 sont dix fois ceux de GPT-3, et il pourrait nécessiter plus de 100 fois la puissance de calcul des puces.

Dans l'entraînement de grands modèles, le stockage des données fait également face à des défis. Les données de GPT-3 occupent environ 570 Go, les paramètres occupent environ 700 Go. La mémoire GPU est généralement plus petite, comme l'A100 qui a 80 Go, ne pouvant pas contenir toutes les données, il faut donc prendre en compte la bande passante des puces. L'entraînement multi-GPU implique également le taux de transfert de données entre les puces. Parfois, le goulot d'étranglement qui limite la vitesse d'entraînement n'est pas la capacité de calcul, mais la vitesse de transfert des données.

La chaîne industrielle de l'apprentissage profond comprend principalement les étapes suivantes :

) 1. Fournisseur de GPU matériel

NVIDIA est en position de leader absolu dans le domaine des puces GPU AI. Le milieu académique utilise principalement des GPU grand public comme la série RTX (, tandis que le secteur industriel utilise principalement des puces commerciales telles que les H100 et A100. Google a également ses propres puces TPU, mais elles sont principalement utilisées pour les services Google Cloud.

Depuis la sortie de la puce H100 d'NVIDIA en 2023, elle a reçu une multitude de commandes, dépassant l'offre. À la fin de 2023, le nombre de commandes pour la H100 a dépassé 500 000 unités. Pour se libérer de la dépendance à NVIDIA, Google a pris l'initiative de créer l'alliance CUDA, espérant développer conjointement des GPU.

![Nouvelle introduction丨AI x Crypto : de zéro au sommet])https://img-cdn.gateio.im/webp-social/moments-609c5dd6ee0abcec6bf9c118d7741867.webp(

) 2. Fournisseur de services cloud

Les fournisseurs de services cloud achètent un grand nombre de GPU pour construire des clusters de calcul haute performance, offrant une puissance de calcul flexible et des solutions d'entraînement hébergées aux entreprises d'IA disposant de ressources financières limitées. Ils se divisent principalement en trois catégories :

  • Fournisseurs de cloud traditionnels: AWS, Google Cloud, Azure, etc.
  • Plateforme de calcul en nuage AI vertical : CoreWeave, Lambda, etc.
  • Fournisseurs de raisonnement en tant que service : Together.ai, Fireworks.ai, etc.

( 3. Fournisseur de données d'entraînement

L'entraînement de grands modèles nécessite d'énormes quantités de données. Certaines entreprises fournissent des ensembles de données d'entraînement spécialisés pour divers secteurs, tels que la finance, la santé, la chimie, etc.

) 4. Fournisseur de base de données

L'entraînement de l'IA nécessite un stockage et un traitement efficaces d'une énorme quantité de données non structurées, c'est pourquoi des "bases de données vectorielles" ont émergé. Les principaux acteurs comprennent Chroma, Zilliz, Pinecone, etc.

5. Périphérique

Les clusters GPU génèrent une grande quantité de chaleur, nécessitant un système de refroidissement pour garantir un fonctionnement stable. Actuellement, le refroidissement par air est principalement utilisé, mais les systèmes de refroidissement liquide sont de plus en plus prisés par les investisseurs. En ce qui concerne l'approvisionnement en énergie, certaines entreprises technologiques commencent à investir dans des énergies propres telles que la géothermie, l'hydrogène et l'énergie nucléaire.

( 6. Applications AI

Le développement actuel des applications AI est similaire à celui de l'industrie Blockchain, avec une infrastructure encombrée mais un développement d'applications relativement en retard. Les dix principales applications AI en termes d'utilisateurs actifs mensuels sont principalement des produits de recherche, tandis que les autres types d'applications, comme les réseaux sociaux, sont moins nombreux. Le taux de rétention des utilisateurs des applications AI est également généralement inférieur à celui des applications Internet traditionnelles.

Dans l'ensemble, la chaîne de valeur de l'apprentissage profond est en rapide développement, mais elle fait également face à de nombreux défis. La demande en puissance de calcul continue d'augmenter, la consommation de données et d'énergie est énorme, et les cas d'application doivent être encore élargis. À l'avenir, les différentes étapes de la chaîne de valeur continueront à être optimisées et mises à niveau pour soutenir l'entraînement et l'application de modèles d'IA à plus grande échelle et plus efficaces.

![Nouveau venu, vulgarisation丨AI x Crypto : De zéro au sommet])https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp(

La relation entre les cryptomonnaies et l'IA

La technologie Blockchain repose sur la décentralisation et la détrustification. Du Bitcoin en tant que système de monnaie électronique peer-to-peer, à la plateforme de contrats intelligents d'Ethereum, la Blockchain est essentiellement un réseau de valeur, chaque transaction étant un échange de valeur basé sur les tokens sous-jacents.

Dans l'internet traditionnel, la valeur est convertie en prix des actions et en capitalisation boursière à travers des indicateurs tels que le P/E. Dans un réseau Blockchain, les tokens natifs représentent une valeur multidimensionnelle, permettant non seulement de générer des revenus de staking, mais aussi d'agir comme moyen d'échange de valeur, moyen de stockage de valeur et biens de consommation pour les activités du réseau.

L'importance de l'économie des jetons réside dans le fait qu'elle peut donner de la valeur à toute fonction ou idée au sein du réseau. Les jetons permettent de redéfinir la valeur à chaque étape de la chaîne de l'industrie de l'IA, incitant davantage de personnes à se consacrer aux niches de l'IA. En même temps, l'effet de synergie des jetons augmentera la valeur des infrastructures, formant un schéma de "protocoles lourds et d'applications légères".

La caractéristique d'immutabilité et de non-confiance de la technologie Blockchain peut également apporter une valeur réelle à l'industrie de l'IA :

  • Réaliser un entraînement et une inférence de modèle sous protection de la vie privée des données
  • Distribuer à travers un réseau mondial et exploiter la puissance de calcul GPU inutilisée
  • Fournir un mécanisme de découverte et d'échange de valeur fiable pour chaque maillon de la chaîne de l'IA

En somme, l'économie des tokens peut favoriser la restructuration et la découverte de la valeur dans l'industrie de l'IA, tandis que le registre décentralisé peut résoudre le problème de la confiance et faire circuler la valeur à l'échelle mondiale. Cette combinaison apportera de nouveaux moteurs de développement et des opportunités à l'industrie de l'IA.

![Nouveau venu Guide丨AI x Crypto : de zéro au sommet])https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp###

Aperçu des projets de la chaîne de valeur de l'IA dans l'industrie des cryptomonnaies

Fourniture de GPU

Les principaux projets de puissance de calcul GPU cloud sur la blockchain incluent Render, Golem, etc. Render, en tant que projet relativement mature, est principalement axé sur des tâches traditionnelles comme le rendu vidéo, et ne fait pas strictement partie du secteur de l'IA. Cependant, le marché du cloud GPU peut non seulement être destiné à l'entraînement et à l'inférence de modèles d'IA, mais également appliqué au rendu traditionnel, réduisant ainsi le risque de dépendance à un seul marché.

Selon les prévisions du secteur, la demande en puissance de calcul GPU atteindra environ 75 milliards de dollars en 2024, et atteindra 773 milliards de dollars d'ici 2032, avec un taux de croissance annuel composé de 33,86 %. Avec l'accélération de l'itération des GPU, la demande de puissance de calcul GPU partagée augmentera considérablement, car cela générera une grande quantité de ressources GPU inactives qui ne sont pas les plus récentes.

![Nouvelle introduction丨IA x Crypto : De zéro au sommet]###https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp###

Bande passante matérielle

La bande passante est souvent un facteur clé influençant la performance du cloud computing, en particulier pour les réseaux de partage de GPU décentralisés. Certains projets comme Meson Network essaient de résoudre ce problème en partageant la bande passante, mais les résultats réels sont limités, car la latence due à la géolocalisation reste difficile à éviter.

( données

Les fournisseurs de données AI incluent EpiK Protocol, Synesis One, Masa, etc. Par rapport aux entreprises de données Web2 traditionnelles, les projets Blockchain ont un avantage en matière de collecte de données, pouvant offrir des incitations pour la contribution de données personnelles. En combinant des technologies de calcul de la confidentialité telles que les preuves à divulgation nulle de connaissance, on espère réaliser un partage de données plus large.

) ZKML

Pour réaliser l'entraînement et l'inférence des modèles sous protection de la vie privée des données, certains projets adoptent des solutions de preuve à divulgation nulle de connaissance. Des projets typiques incluent Axiom, Risc Zero, etc., qui peuvent fournir des preuves ZK pour le calcul hors chaîne et les données. Ce type de projet ZK général a des limites d'application plus larges et est plus attractif pour les investisseurs.

(

GPT1.96%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 5
  • Partager
Commentaire
0/400
MetaNeighborvip
· Il y a 17h
Trading des cryptomonnaies indispensable AI, tout dépend de l'AI.
Voir l'originalRépondre0
ILCollectorvip
· Il y a 17h
Qui a dit que le bull run ne nécessitait pas de prendre les gens pour des idiots ? Prendre les gens pour des idiots est aussi une façon de hausser.
Voir l'originalRépondre0
ColdWalletGuardianvip
· Il y a 17h
GPU大哥又要 To the moon 咯~
Voir l'originalRépondre0
HodlOrRegretvip
· Il y a 17h
D'accord, d'accord, encore une fois sur l'IA. bull ou bull, c'est juste des Rig de minage qui ne se vendent pas.
Voir l'originalRépondre0
MEVHunterZhangvip
· Il y a 17h
Encore une fois, le BTC se fait prendre pour des cons.
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)