Fusion de l'IA et du DePIN : exploration des réseaux de calcul GPU décentralisés
Depuis 2023, l'IA et la Décentralisation des Infrastructures Physiques (DePIN) ont suscité un grand intérêt dans le domaine du Web3, avec des capitalisations boursières respectives atteignant 30 milliards de dollars et 23 milliards de dollars. Cet article vise à explorer le domaine croisé de l'IA et de la Décentralisation, en étudiant le développement des protocoles associés.
Dans la pile technologique de l'IA, le réseau DePIN habilite l'IA en fournissant des ressources de calcul. La demande des grandes entreprises technologiques pour les GPU a entraîné une pénurie, rendant difficile pour d'autres développeurs d'obtenir suffisamment de GPU pour le calcul. Cela oblige souvent les développeurs à choisir des services cloud centralisés, mais les contrats de matériel haute performance à long terme manquent souvent de flexibilité et sont inefficaces.
DePIN offre une alternative plus flexible et plus rentable, encourageant la contribution de ressources grâce à des incitations par des jetons. Le DePIN dans le domaine de l'IA intègre les ressources GPU des propriétaires individuels et des centres de données, fournissant une offre unifiée aux utilisateurs ayant besoin de matériel. Ces réseaux non seulement offrent aux développeurs un accès personnalisé et à la demande, mais créent également des revenus supplémentaires pour les propriétaires de GPU.
Il existe plusieurs réseaux AI DePIN sur le marché, chacun ayant ses propres caractéristiques. Nous allons explorer ci-dessous les caractéristiques et les objectifs de quelques projets principaux.
Aperçu du réseau AI DePIN
Render
Render est un pionnier du réseau P2P offrant des capacités de calcul GPU, initialement axé sur le rendu graphique pour la création de contenu, puis élargissant son champ d'application aux tâches de calcul AI.
Caractéristiques :
Fondée par la société de graphisme en nuage OTOY, lauréate d'un Oscar
Le réseau GPU a été utilisé par des grandes entreprises comme Paramount Pictures, PUBG, etc.
Collaboration avec Stability AI et Endeavor, intégration des modèles d'IA et du rendu de contenu 3D
Approuver plusieurs clients de calcul, intégrer plus de GPU des réseaux DePIN
Akash
Akash se positionne comme une plateforme de "super cloud" qui prend en charge le stockage, le calcul GPU et CPU, et constitue une alternative aux services cloud traditionnels.
Caractéristiques :
Pour une large gamme de tâches de calcul, allant du calcul général à l'hébergement web.
AkashML prend en charge l'exécution de plus de 15 000 modèles sur Hugging Face
Héberger des applications de chatbot de modèles LLM de Mistral AI, SDXL de Stability AI, etc.
Prise en charge des plateformes de déploiement de métavers, d'IA et d'apprentissage fédéré
io.net
io.net fournit un accès à des clusters de GPU distribués, spécialement conçus pour les cas d'utilisation en IA et ML.
Caractéristiques :
IO-SDK est compatible avec des frameworks tels que PyTorch et Tensorflow
Prend en charge la création de 3 types différents de clusters, pouvant démarrer en 2 minutes
Collaborer avec des réseaux tels que Render, Filecoin, Aethir pour intégrer les ressources GPU
Gensyn
Gensyn propose des capacités de calcul GPU axées sur l'apprentissage automatique et l'apprentissage profond.
Caractéristiques:
Le coût horaire d'un GPU équivalent V100 est d'environ 0,40 dollar, ce qui permet d'importantes économies.
Soutenir le réglage fin des modèles de base pré-entraînés
Fournir un modèle de base décentralisé et partagé au niveau mondial
Aethir
Aethir propose des GPU de niveau entreprise, principalement destinés aux domaines intensifs en calcul tels que l'IA, le ML et le cloud gaming.
Caractéristiques :
Étendre le service de téléphone cloud, en partenariat avec APhone pour lancer un smartphone intelligent cloud décentralisé
Établir une large coopération avec de grandes entreprises telles que NVIDIA, Super Micro, HPE.
Plusieurs partenaires dans l'écosystème Web3, tels que CARV, Magic Eden, etc.
Phala Network
Phala Network en tant que couche d'exécution de la solution Web3 AI, traite les problèmes de confidentialité à travers un environnement d'exécution de confiance (TEE).
Caractéristiques:
Agir en tant que protocole de coprocesseur de calcul vérifiable, permettant aux agents IA d'accéder aux ressources sur la blockchain.
Obtenez des modèles de langage de pointe comme OpenAI, Llama, etc. via Redpill
L'avenir inclura des systèmes de preuve multiples tels que les zk-proofs, le calcul multipartite et le chiffrement homomorphe complet.
À l'avenir, prise en charge des GPU TEE tels que H100, améliorant la capacité de calcul.
Comparaison de projet
| | Rendre | Akash | io.net | Gensyn | Aethir | Phala |
|--------|--------|-------|--------|--------|--------|-------|
| Matériel | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Points d'affaires | Rendu graphique et IA | Cloud computing, rendu et IA | IA | IA | IA, jeux cloud et télécommunications | Exécution IA sur la chaîne |
| Type de tâche AI | Inférence | Bidirectionnel | Bidirectionnel | Entraînement | Entraînement | Exécution |
| Tarification du travail | Basé sur la performance | Enchères inversées | Tarification de marché | Tarification de marché | Système d'appel d'offres | Calcul des droits |
| Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Confidentialité des données | Cryptage&Hachage | Authentification mTLS | Chiffrement des données | Cartographie sécurisée | Cryptage | TEE |
| Coûts de travail | 0,5-5% par tâche | 20% USDC, 4% AKT | 2% USDC, 0,25% de réserve | Frais faibles | 20% par session | Proportionnel au montant staké |
| Sécurité | Preuve de rendu | Preuve de participation | Preuve de calcul | Preuve de participation | Preuve de capacité de rendu | Hérité de la chaîne relais |
| Preuve d'achèvement | - | - | Preuve de verrouillage temporel | Preuve d'apprentissage | Preuve de travail de rendu | Preuve TEE |
| Garantie de qualité | Controverse | - | - | Vérificateurs et dénonciateurs | Nœud vérificateur | Preuve à distance |
| Grille GPU | Non | Oui | Oui | Oui | Oui | Non |
importance
Disponibilité du calcul en cluster et du calcul parallèle
Le cadre de calcul distribué permet de réaliser des clusters GPU, améliorant ainsi l'efficacité d'entraînement et l'évolutivité. La plupart des projets ont désormais intégré des clusters pour réaliser des calculs parallèles. io.net, en collaboration avec d'autres projets, a déployé plus de 3 800 clusters au cours du premier trimestre de 24 ans. Bien que Render ne prenne pas en charge les clusters, il décompose un seul cadre pour le traiter simultanément sur plusieurs nœuds. Phala ne prend actuellement en charge que les CPU, mais permet la mise en cluster des travailleurs CPU.
Confidentialité des données
La protection des ensembles de données sensibles est cruciale. La plupart des projets utilisent le chiffrement des données pour protéger la vie privée. io.net a collaboré avec Mind Network pour lancer un chiffrement complètement homomorphe (FHE), permettant de traiter des données chiffrées sans décryptage. Phala Network a introduit un environnement d'exécution de confiance (TEE), empêchant les processus externes d'accéder ou de modifier les données.
Preuve de calcul et contrôle de qualité
Différents projets adoptent des méthodes variées pour générer des preuves d'achèvement et effectuer des contrôles de qualité. Gensyn et Aethir génèrent des preuves indiquant que le travail est terminé, et effectuent des contrôles de qualité. La preuve de io.net indique que les performances du GPU sont pleinement utilisées. Render recommande d'utiliser un processus de résolution des conflits. Phala génère une preuve TEE garantissant que l'agent AI exécute les opérations nécessaires.
L'entraînement des modèles d'IA nécessite des GPU de performance optimale, tels que les A100 et H100 de Nvidia. Les performances de raisonnement du H100 sont 4 fois plus rapides que celles de l'A100, en faisant le GPU de choix. Les fournisseurs de marché de GPU décentralisés doivent proposer des prix plus bas et répondre aux besoins réels du marché. io.net et Aethir ont obtenu plus de 2000 unités H100 et A100, mieux adaptées au calcul de grands modèles.
Le coût des services GPU décentralisés est inférieur à celui des services centralisés. Bien que les clusters GPU connectés au réseau aient une mémoire limitée, ils restent attractifs pour les utilisateurs ayant des besoins de charge de travail dynamique ou nécessitant de la flexibilité.
Fournir des GPU/CPU de consommation
Le CPU joue également un rôle important dans l'entraînement des modèles d'IA. Les GPU grand public peuvent être utilisés pour le fine-tuning des modèles pré-entraînés ou pour des entraînements à petite échelle. Des projets comme Render, Akash et io.net servent également ce marché, développant leurs propres niches.
Conclusion
Le domaine de l'IA DePIN est encore relativement nouveau et fait face à des défis. Cependant, le nombre de tâches exécutées sur ces réseaux et de matériel a considérablement augmenté, soulignant la demande d'alternatives aux fournisseurs de cloud Web2. À l'avenir, ces réseaux GPU décentralisés joueront un rôle clé dans la fourniture de solutions de calcul économiques aux développeurs, contribuant ainsi de manière significative à l'avenir de l'IA et de l'infrastructure informatique.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
5 J'aime
Récompense
5
4
Partager
Commentaire
0/400
GasGuzzler
· Il y a 11h
Ceux qui s'emparent des GPU sont de véritables experts.
Voir l'originalRépondre0
FortuneTeller42
· 07-26 07:02
Avec cette tendance, il vaut mieux ne plus trader.
Voir l'originalRépondre0
AirdropSweaterFan
· 07-26 07:01
Rouler sans fin n'est vraiment pas aussi bien que le Mining.
Voir l'originalRépondre0
BlockchainFries
· 07-26 07:01
Joueurs précoces de Web3, embrassant pleinement la Décentralisation.
Fusion de l'IA et de DePIN : l'émergence et les défis des réseaux de calcul GPU décentralisés
Fusion de l'IA et du DePIN : exploration des réseaux de calcul GPU décentralisés
Depuis 2023, l'IA et la Décentralisation des Infrastructures Physiques (DePIN) ont suscité un grand intérêt dans le domaine du Web3, avec des capitalisations boursières respectives atteignant 30 milliards de dollars et 23 milliards de dollars. Cet article vise à explorer le domaine croisé de l'IA et de la Décentralisation, en étudiant le développement des protocoles associés.
Dans la pile technologique de l'IA, le réseau DePIN habilite l'IA en fournissant des ressources de calcul. La demande des grandes entreprises technologiques pour les GPU a entraîné une pénurie, rendant difficile pour d'autres développeurs d'obtenir suffisamment de GPU pour le calcul. Cela oblige souvent les développeurs à choisir des services cloud centralisés, mais les contrats de matériel haute performance à long terme manquent souvent de flexibilité et sont inefficaces.
DePIN offre une alternative plus flexible et plus rentable, encourageant la contribution de ressources grâce à des incitations par des jetons. Le DePIN dans le domaine de l'IA intègre les ressources GPU des propriétaires individuels et des centres de données, fournissant une offre unifiée aux utilisateurs ayant besoin de matériel. Ces réseaux non seulement offrent aux développeurs un accès personnalisé et à la demande, mais créent également des revenus supplémentaires pour les propriétaires de GPU.
Il existe plusieurs réseaux AI DePIN sur le marché, chacun ayant ses propres caractéristiques. Nous allons explorer ci-dessous les caractéristiques et les objectifs de quelques projets principaux.
Aperçu du réseau AI DePIN
Render
Render est un pionnier du réseau P2P offrant des capacités de calcul GPU, initialement axé sur le rendu graphique pour la création de contenu, puis élargissant son champ d'application aux tâches de calcul AI.
Caractéristiques :
Akash
Akash se positionne comme une plateforme de "super cloud" qui prend en charge le stockage, le calcul GPU et CPU, et constitue une alternative aux services cloud traditionnels.
Caractéristiques :
io.net
io.net fournit un accès à des clusters de GPU distribués, spécialement conçus pour les cas d'utilisation en IA et ML.
Caractéristiques :
Gensyn
Gensyn propose des capacités de calcul GPU axées sur l'apprentissage automatique et l'apprentissage profond.
Caractéristiques:
Aethir
Aethir propose des GPU de niveau entreprise, principalement destinés aux domaines intensifs en calcul tels que l'IA, le ML et le cloud gaming.
Caractéristiques :
Phala Network
Phala Network en tant que couche d'exécution de la solution Web3 AI, traite les problèmes de confidentialité à travers un environnement d'exécution de confiance (TEE).
Caractéristiques:
Comparaison de projet
| | Rendre | Akash | io.net | Gensyn | Aethir | Phala | |--------|--------|-------|--------|--------|--------|-------| | Matériel | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Points d'affaires | Rendu graphique et IA | Cloud computing, rendu et IA | IA | IA | IA, jeux cloud et télécommunications | Exécution IA sur la chaîne | | Type de tâche AI | Inférence | Bidirectionnel | Bidirectionnel | Entraînement | Entraînement | Exécution | | Tarification du travail | Basé sur la performance | Enchères inversées | Tarification de marché | Tarification de marché | Système d'appel d'offres | Calcul des droits | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Confidentialité des données | Cryptage&Hachage | Authentification mTLS | Chiffrement des données | Cartographie sécurisée | Cryptage | TEE | | Coûts de travail | 0,5-5% par tâche | 20% USDC, 4% AKT | 2% USDC, 0,25% de réserve | Frais faibles | 20% par session | Proportionnel au montant staké | | Sécurité | Preuve de rendu | Preuve de participation | Preuve de calcul | Preuve de participation | Preuve de capacité de rendu | Hérité de la chaîne relais | | Preuve d'achèvement | - | - | Preuve de verrouillage temporel | Preuve d'apprentissage | Preuve de travail de rendu | Preuve TEE | | Garantie de qualité | Controverse | - | - | Vérificateurs et dénonciateurs | Nœud vérificateur | Preuve à distance | | Grille GPU | Non | Oui | Oui | Oui | Oui | Non |
importance
Disponibilité du calcul en cluster et du calcul parallèle
Le cadre de calcul distribué permet de réaliser des clusters GPU, améliorant ainsi l'efficacité d'entraînement et l'évolutivité. La plupart des projets ont désormais intégré des clusters pour réaliser des calculs parallèles. io.net, en collaboration avec d'autres projets, a déployé plus de 3 800 clusters au cours du premier trimestre de 24 ans. Bien que Render ne prenne pas en charge les clusters, il décompose un seul cadre pour le traiter simultanément sur plusieurs nœuds. Phala ne prend actuellement en charge que les CPU, mais permet la mise en cluster des travailleurs CPU.
Confidentialité des données
La protection des ensembles de données sensibles est cruciale. La plupart des projets utilisent le chiffrement des données pour protéger la vie privée. io.net a collaboré avec Mind Network pour lancer un chiffrement complètement homomorphe (FHE), permettant de traiter des données chiffrées sans décryptage. Phala Network a introduit un environnement d'exécution de confiance (TEE), empêchant les processus externes d'accéder ou de modifier les données.
Preuve de calcul et contrôle de qualité
Différents projets adoptent des méthodes variées pour générer des preuves d'achèvement et effectuer des contrôles de qualité. Gensyn et Aethir génèrent des preuves indiquant que le travail est terminé, et effectuent des contrôles de qualité. La preuve de io.net indique que les performances du GPU sont pleinement utilisées. Render recommande d'utiliser un processus de résolution des conflits. Phala génère une preuve TEE garantissant que l'agent AI exécute les opérations nécessaires.
Statistiques matérielles
| | Rendre | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|--------|--------|-------| | Nombre de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Nombre de CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Quantité H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Coût H100/heure | - | 1,46 $ | 1,19 $ | - | - | - | | A100 Coût/heure | - | $1.37 | $1.50 | $0.55 ( prévision ) | $0.33 ( prévision ) | - |
Exigences des GPU haute performance
L'entraînement des modèles d'IA nécessite des GPU de performance optimale, tels que les A100 et H100 de Nvidia. Les performances de raisonnement du H100 sont 4 fois plus rapides que celles de l'A100, en faisant le GPU de choix. Les fournisseurs de marché de GPU décentralisés doivent proposer des prix plus bas et répondre aux besoins réels du marché. io.net et Aethir ont obtenu plus de 2000 unités H100 et A100, mieux adaptées au calcul de grands modèles.
Le coût des services GPU décentralisés est inférieur à celui des services centralisés. Bien que les clusters GPU connectés au réseau aient une mémoire limitée, ils restent attractifs pour les utilisateurs ayant des besoins de charge de travail dynamique ou nécessitant de la flexibilité.
Fournir des GPU/CPU de consommation
Le CPU joue également un rôle important dans l'entraînement des modèles d'IA. Les GPU grand public peuvent être utilisés pour le fine-tuning des modèles pré-entraînés ou pour des entraînements à petite échelle. Des projets comme Render, Akash et io.net servent également ce marché, développant leurs propres niches.
Conclusion
Le domaine de l'IA DePIN est encore relativement nouveau et fait face à des défis. Cependant, le nombre de tâches exécutées sur ces réseaux et de matériel a considérablement augmenté, soulignant la demande d'alternatives aux fournisseurs de cloud Web2. À l'avenir, ces réseaux GPU décentralisés joueront un rôle clé dans la fourniture de solutions de calcul économiques aux développeurs, contribuant ainsi de manière significative à l'avenir de l'IA et de l'infrastructure informatique.