Fusion de l'IA et de DePIN : explorer un nouveau modèle de ressources informatiques
Depuis 2023, l'IA et DePIN ont suscité un grand intérêt dans le domaine du Web3, avec une capitalisation boursière atteignant respectivement 30 milliards de dollars et 23 milliards de dollars. Cet article se concentre sur l'état de développement de ces deux domaines croisés.
Dans la pile technologique de l'IA, le réseau DePIN habilite l'IA en fournissant des ressources de calcul. La forte demande en GPU de la part des grandes entreprises technologiques a entraîné une pénurie d'approvisionnement, plaçant d'autres développeurs de modèles d'IA dans une situation de manque de ressources de calcul. Les solutions traditionnelles, telles que le choix de fournisseurs de services cloud centralisés, présentent des problèmes de flexibilité et de coûts élevés.
Le réseau DePIN offre une alternative plus flexible et plus économique. Il intègre les ressources GPU individuelles en une offre unifiée grâce à un mécanisme d'incitation par jetons, fournissant aux demandeurs une capacité de calcul personnalisée et à la demande, tout en créant des revenus supplémentaires pour les propriétaires de ressources GPU inutilisées.
Le marché regorge de divers réseaux DePIN basés sur l'IA, ci-dessous nous allons explorer les caractéristiques et l'état de développement de quelques projets typiques.
Aperçu du réseau AI DePIN
Rendre
Render est le pionnier des réseaux de calcul GPU P2P, initialement axé sur le rendu graphique pour la création de contenu, puis s'est étendu aux tâches de calcul AI.
Principales caractéristiques :
Fondée par la société de graphisme cloud OTOY, lauréate d'un Oscar.
Adoption par des géants du secteur du divertissement tels que Paramount Pictures, PUBG, etc.
Collaborer avec Stability AI pour intégrer des modèles d'IA et des flux de travail de rendu 3D
Prise en charge de plusieurs clients de calcul, intégration de plus de ressources GPU du réseau DePIN
Akash
Akash se positionne comme une plateforme de "super cloud" supportant le stockage, le calcul GPU et CPU, en tant qu'alternative aux services cloud traditionnels.
Principales caractéristiques :
Ciblant une large gamme de tâches de calcul allant de l'informatique générale à l'hébergement réseau
AkashML prend en charge l'exécution de plus de 15 000 modèles sur Hugging Face
Plusieurs applications d'IA renommées ont été hébergées, telles que le chatbot LLM de Mistral AI
Les plateformes de métavers, de déploiement de l'IA et d'apprentissage fédéré utilisent ses services
io.net
io.net propose des clusters cloud GPU distribués, axés sur les applications IA et ML.
Principales caractéristiques :
IO-SDK compatible avec des frameworks tels que PyTorch et Tensorflow
Prend en charge la création de 3 types différents de clusters, pouvant être démarrés en 2 minutes.
Intégrer activement les ressources GPU d'autres réseaux DePIN comme Render, Filecoin, etc.
Gensyn
Gensyn se concentre sur la puissance de calcul GPU pour l'apprentissage automatique et l'apprentissage profond.
Principales caractéristiques :
Le coût par heure d'un GPU équivalent V100 est d'environ 0,40 $, ce qui réduit considérablement les coûts.
Prend en charge le réglage fin des modèles de base pré-entraînés
Modèle de base partagé mondial décentralisé
Aethir
Aethir se concentre sur les GPU de niveau entreprise, se spécialisant dans des domaines intensifs en calcul tels que l'IA, l'apprentissage automatique et le cloud gaming.
Principales caractéristiques :
Étendre le service de cloud phone, en collaboration avec APhone pour lancer un smartphone intelligent décentralisé.
Établir une large collaboration avec des géants du Web2 tels que NVIDIA, Super Micro
Collaborer avec plusieurs projets Web3 tels que CARV, Magic Eden
Phala Network
Phala Network en tant que couche d'exécution de solutions Web3 AI, aborde les problèmes de confidentialité à travers un environnement d'exécution de confiance (TEE).
Principales caractéristiques :
En tant que protocole de coprocesseur pour le calcul vérifiable, prend en charge l'appel de ressources sur la chaîne pour les agents AI
Les contrats d'agent AI peuvent être intégrés à OpenAI, Llama et d'autres grands modèles de langage via Redpill.
À l'avenir, des systèmes de preuve multiples tels que les zk-proofs, le calcul multipartite et le chiffrement homomorphe complet seront pris en charge.
Plan de support pour GPU TEE comme H100, amélioration de la capacité de calcul
Comparaison de projets
| | Rendre | Akash | io.net | Gensyn | Aethir | Phala |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| Matériel | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Points clés | Rendu graphique et IA | Informatique en nuage, rendu et IA | IA | IA | Intelligence artificielle, jeux en nuage et télécommunications | Exécution IA sur la chaîne |
| Type de tâche AI | Inférence | Les deux | Les deux | Entraînement | Entraînement | Exécution |
| Tarification du travail | Tarification basée sur la performance | Enchères inversées | Tarification de marché | Tarification de marché | Système d'appel d'offres | Calcul des droits |
| Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Confidentialité des données | Cryptage&hachage | Authentification mTLS | Cryptage des données | Cartographie sécurisée | Cryptage | TEE |
| Coût du travail | 0,5-5% par travail | 20% USDC, 4% AKT | 2% USDC, 0,25% frais de réserve | Frais peu élevés | 20% par session | Proportionnel au montant mis en jeu |
| Sécurité | Preuve de rendu | Preuve d'équité | Preuve de calcul | Preuve d'équité | Preuve de capacité de rendu | Hérité de la chaîne relais |
| Preuve de complétion | - | - | Preuve de verrouillage temporel | Preuve d'apprentissage | Preuve de rendu | Preuve TEE |
| Garantie de qualité | Controverses | - | - | Vérificateur et dénonciateur | Nœud de vérification | Preuve à distance |
| Cluster GPU | Non | Oui | Oui | Oui | Oui | Non |
Analyse de l'importance
Disponibilité du calcul en cluster et du calcul parallèle
Le cadre de calcul distribué permet de réaliser des clusters GPU, améliorant l'efficacité d'entraînement et l'évolutivité sans affecter la précision des modèles. L'entraînement de modèles d'IA complexes nécessite une puissance de calcul importante, reposant généralement sur le calcul distribué. La plupart des projets ont désormais intégré des clusters pour réaliser un calcul parallèle. io.net a intégré des ressources GPU avec plusieurs partenaires et a déployé plus de 3 800 clusters au premier trimestre 2024.
Protection des données
Le développement de modèles d'IA nécessite de vastes ensembles de données, pouvant impliquer des informations personnelles sensibles. Les projets adoptent généralement le chiffrement des données pour protéger la vie privée. io.net a collaboré avec Mind Network pour lancer le chiffrement totalement homomorphe (FHE), permettant de traiter des données en état chiffré. Phala Network a introduit un environnement d'exécution de confiance (TEE), isolant pour empêcher l'accès externe ou la modification des données.
Preuve de calcul complet et inspection de qualité
Chaque projet utilise différentes méthodes pour vérifier l'achèvement et la qualité des calculs. Gensyn et Aethir génèrent des preuves d'achèvement et effectuent des contrôles de qualité. La preuve de io.net indique que les performances GPU sont pleinement exploitées et sans problème. Render recommande d'utiliser un processus de résolution des litiges. Phala génère des preuves TEE pour garantir que l'agent AI effectue les opérations requises.
Les modèles d'IA ont tendance à utiliser des GPU hautes performances tels que les Nvidia A100 et H100 pour l'entraînement. Les fournisseurs de marché de GPU décentralisés doivent fournir un nombre suffisant de matériels hautes performances pour répondre à la demande du marché. io.net et Aethir disposent de plus de 2000 unités H100/A100, plus adaptées au calcul de grands modèles.
Le coût de ces services GPU décentralisés est inférieur à celui des services centralisés. Gensyn et Aethir affirment pouvoir louer du matériel de niveau A100 pour moins de 1 dollar de l'heure.
Fournir des GPU/CPU de niveau consommateur
Le CPU joue également un rôle important dans l'entraînement des modèles d'IA. Les GPU grand public peuvent être utilisés pour le réglage fin ou l'entraînement de modèles à petite échelle. Des projets comme Render, Akash et io.net peuvent servir ce marché, offrant des options pour des besoins de calcul de différentes échelles.
Conclusion
Le domaine DePIN de l'IA est encore à ses débuts et fait face à de nombreux défis. Cependant, le nombre de tâches exécutées par ces réseaux GPU décentralisés et de matériel a considérablement augmenté, mettant en évidence la demande d'alternatives aux services cloud Web2.
Le marché de l'IA de demain se développera pour atteindre une échelle de mille milliards de dollars, et ces réseaux de GPU décentralisés devraient jouer un rôle clé en offrant aux développeurs des solutions de calcul économiquement efficaces. En continuant à combler le fossé entre la demande et l'offre, ces réseaux contribueront de manière significative à l'avenir de l'IA et de l'infrastructure de calcul.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
11 J'aime
Récompense
11
5
Partager
Commentaire
0/400
SmartContractRebel
· Il y a 12h
Les GPU qui insultent portent de l'argent avec DEP.
Voir l'originalRépondre0
JustHereForMemes
· Il y a 23h
gm comment c'est encore du depin
Voir l'originalRépondre0
SnapshotLaborer
· Il y a 23h
300 milliards de dollars ont été investis, cela ne peut-il pas exploser ?
Fusion de l'IA et de DePIN : un réseau GPU décentralisé qui redéfinit le paysage du calcul
Fusion de l'IA et de DePIN : explorer un nouveau modèle de ressources informatiques
Depuis 2023, l'IA et DePIN ont suscité un grand intérêt dans le domaine du Web3, avec une capitalisation boursière atteignant respectivement 30 milliards de dollars et 23 milliards de dollars. Cet article se concentre sur l'état de développement de ces deux domaines croisés.
Dans la pile technologique de l'IA, le réseau DePIN habilite l'IA en fournissant des ressources de calcul. La forte demande en GPU de la part des grandes entreprises technologiques a entraîné une pénurie d'approvisionnement, plaçant d'autres développeurs de modèles d'IA dans une situation de manque de ressources de calcul. Les solutions traditionnelles, telles que le choix de fournisseurs de services cloud centralisés, présentent des problèmes de flexibilité et de coûts élevés.
Le réseau DePIN offre une alternative plus flexible et plus économique. Il intègre les ressources GPU individuelles en une offre unifiée grâce à un mécanisme d'incitation par jetons, fournissant aux demandeurs une capacité de calcul personnalisée et à la demande, tout en créant des revenus supplémentaires pour les propriétaires de ressources GPU inutilisées.
Le marché regorge de divers réseaux DePIN basés sur l'IA, ci-dessous nous allons explorer les caractéristiques et l'état de développement de quelques projets typiques.
Aperçu du réseau AI DePIN
Rendre
Render est le pionnier des réseaux de calcul GPU P2P, initialement axé sur le rendu graphique pour la création de contenu, puis s'est étendu aux tâches de calcul AI.
Principales caractéristiques :
Akash
Akash se positionne comme une plateforme de "super cloud" supportant le stockage, le calcul GPU et CPU, en tant qu'alternative aux services cloud traditionnels.
Principales caractéristiques :
io.net
io.net propose des clusters cloud GPU distribués, axés sur les applications IA et ML.
Principales caractéristiques :
Gensyn
Gensyn se concentre sur la puissance de calcul GPU pour l'apprentissage automatique et l'apprentissage profond.
Principales caractéristiques :
Aethir
Aethir se concentre sur les GPU de niveau entreprise, se spécialisant dans des domaines intensifs en calcul tels que l'IA, l'apprentissage automatique et le cloud gaming.
Principales caractéristiques :
Phala Network
Phala Network en tant que couche d'exécution de solutions Web3 AI, aborde les problèmes de confidentialité à travers un environnement d'exécution de confiance (TEE).
Principales caractéristiques :
Comparaison de projets
| | Rendre | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Matériel | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Points clés | Rendu graphique et IA | Informatique en nuage, rendu et IA | IA | IA | Intelligence artificielle, jeux en nuage et télécommunications | Exécution IA sur la chaîne | | Type de tâche AI | Inférence | Les deux | Les deux | Entraînement | Entraînement | Exécution | | Tarification du travail | Tarification basée sur la performance | Enchères inversées | Tarification de marché | Tarification de marché | Système d'appel d'offres | Calcul des droits | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Confidentialité des données | Cryptage&hachage | Authentification mTLS | Cryptage des données | Cartographie sécurisée | Cryptage | TEE | | Coût du travail | 0,5-5% par travail | 20% USDC, 4% AKT | 2% USDC, 0,25% frais de réserve | Frais peu élevés | 20% par session | Proportionnel au montant mis en jeu | | Sécurité | Preuve de rendu | Preuve d'équité | Preuve de calcul | Preuve d'équité | Preuve de capacité de rendu | Hérité de la chaîne relais | | Preuve de complétion | - | - | Preuve de verrouillage temporel | Preuve d'apprentissage | Preuve de rendu | Preuve TEE | | Garantie de qualité | Controverses | - | - | Vérificateur et dénonciateur | Nœud de vérification | Preuve à distance | | Cluster GPU | Non | Oui | Oui | Oui | Oui | Non |
Analyse de l'importance
Disponibilité du calcul en cluster et du calcul parallèle
Le cadre de calcul distribué permet de réaliser des clusters GPU, améliorant l'efficacité d'entraînement et l'évolutivité sans affecter la précision des modèles. L'entraînement de modèles d'IA complexes nécessite une puissance de calcul importante, reposant généralement sur le calcul distribué. La plupart des projets ont désormais intégré des clusters pour réaliser un calcul parallèle. io.net a intégré des ressources GPU avec plusieurs partenaires et a déployé plus de 3 800 clusters au premier trimestre 2024.
Protection des données
Le développement de modèles d'IA nécessite de vastes ensembles de données, pouvant impliquer des informations personnelles sensibles. Les projets adoptent généralement le chiffrement des données pour protéger la vie privée. io.net a collaboré avec Mind Network pour lancer le chiffrement totalement homomorphe (FHE), permettant de traiter des données en état chiffré. Phala Network a introduit un environnement d'exécution de confiance (TEE), isolant pour empêcher l'accès externe ou la modification des données.
Preuve de calcul complet et inspection de qualité
Chaque projet utilise différentes méthodes pour vérifier l'achèvement et la qualité des calculs. Gensyn et Aethir génèrent des preuves d'achèvement et effectuent des contrôles de qualité. La preuve de io.net indique que les performances GPU sont pleinement exploitées et sans problème. Render recommande d'utiliser un processus de résolution des litiges. Phala génère des preuves TEE pour garantir que l'agent AI effectue les opérations requises.
Statistiques matérielles
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Nombre de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Nombre de CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Nombre de H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Coût H100/heure | - | $1.46 | $1.19 | - | - | - | | Coût A100/heure | - | $1.37 | $1.50 | $0.55 ( prévu ) | $0.33 ( prévu ) | - |
Exigences en matière de GPU haute performance
Les modèles d'IA ont tendance à utiliser des GPU hautes performances tels que les Nvidia A100 et H100 pour l'entraînement. Les fournisseurs de marché de GPU décentralisés doivent fournir un nombre suffisant de matériels hautes performances pour répondre à la demande du marché. io.net et Aethir disposent de plus de 2000 unités H100/A100, plus adaptées au calcul de grands modèles.
Le coût de ces services GPU décentralisés est inférieur à celui des services centralisés. Gensyn et Aethir affirment pouvoir louer du matériel de niveau A100 pour moins de 1 dollar de l'heure.
Fournir des GPU/CPU de niveau consommateur
Le CPU joue également un rôle important dans l'entraînement des modèles d'IA. Les GPU grand public peuvent être utilisés pour le réglage fin ou l'entraînement de modèles à petite échelle. Des projets comme Render, Akash et io.net peuvent servir ce marché, offrant des options pour des besoins de calcul de différentes échelles.
Conclusion
Le domaine DePIN de l'IA est encore à ses débuts et fait face à de nombreux défis. Cependant, le nombre de tâches exécutées par ces réseaux GPU décentralisés et de matériel a considérablement augmenté, mettant en évidence la demande d'alternatives aux services cloud Web2.
Le marché de l'IA de demain se développera pour atteindre une échelle de mille milliards de dollars, et ces réseaux de GPU décentralisés devraient jouer un rôle clé en offrant aux développeurs des solutions de calcul économiquement efficaces. En continuant à combler le fossé entre la demande et l'offre, ces réseaux contribueront de manière significative à l'avenir de l'IA et de l'infrastructure de calcul.