Les projets Web3 basés sur le concept d'IA deviennent des cibles d'attraction de capitaux sur les marchés primaire et secondaire.
Les opportunités de Web3 dans le secteur de l'IA se manifestent principalement par : l'utilisation d'incitations distribuées pour coordonner des offres potentielles de longue traîne ( à travers les données, le stockage et le calcul ) ; tout en établissant un marché décentralisé pour des modèles open source et des agents d'IA.
L'IA dans l'industrie Web3 est principalement appliquée aux finances on-chain, aux paiements cryptographiques, aux transactions, à l'analyse des données ainsi qu'à l'assistance au développement.
L'utilité de l'IA + Web3 réside dans leur complémentarité : Web3 devrait contrer la centralisation de l'IA, et l'IA devrait aider Web3 à sortir de ses frontières.
Introduction
Au cours des deux dernières années, le développement de l'IA a été rapide, l'apparition de ChatGPT a ouvert une nouvelle ère pour l'intelligence artificielle générative et a également suscité un engouement dans le domaine du Web3.
Avec le soutien du concept d'IA, le financement des projets Web3 a clairement augmenté. Rien qu'au premier semestre 2024, 64 projets Web3+IA ont réalisé un financement, parmi lesquels le système d'exploitation basé sur l'IA Zyber365 a atteint un financement record de 100 millions de dollars lors de la série A.
Le marché secondaire est de plus en plus prospère. Selon les données de Coingecko, la capitalisation totale du secteur de l'IA a atteint 48,5 milliards de dollars, avec un volume de transactions de près de 8,6 milliards de dollars en 24 heures. Les avancées des technologies d'IA ont apporté des avantages évidents, comme après le lancement de Sora d'OpenAI, où le prix moyen du secteur de l'IA a augmenté de 151 %. L'effet IA s'est également propagé au secteur des cryptomonnaies attractives, avec le MemeCoin GOAT, premier concept d'agent IA, qui a rapidement gagné en popularité, atteignant une valorisation de 1,4 milliard de dollars et déclenchant une frénésie des Memes AI.
Les recherches et les sujets liés à l'IA + Web3 sont en plein essor, allant de l'IA + Depin à l'IA Memecoin, en passant par l'IA Agent et l'IA DAO. L'émotion de FOMO a du mal à suivre la vitesse de rotation des nouveaux récits.
Le concept combiné AI+Web3, rempli d'argent facile, de tendances et de fantasmes futurs, ne peut que être perçu comme un mariage arrangé par le capital. Il est difficile de juger s'il s'agit du terrain de jeu des spéculateurs ou de la veille d'une explosion à l'aube.
Pour répondre à cette question, il est essentiel de réfléchir : cela s'améliorera-t-il avec l'autre ? Peut-on bénéficier des modèles de l'autre ? Cet article tente d'examiner ce schéma : comment le Web3 peut-il jouer un rôle à chaque étape de la pile technologique de l'IA, et que peut apporter l'IA au Web3 pour lui donner un nouveau souffle ?
Partie 1 Quelles sont les opportunités de Web3 sous la pile AI ?
Avant d'aborder ce sujet, nous devons comprendre la pile technologique des grands modèles AI :
Les grands modèles d'IA peuvent être comparés au cerveau humain. À un stade précoce, comme un bébé, ils ont besoin d'observer et d'absorber une énorme quantité d'informations externes pour comprendre le monde, c'est la phase de "collecte" des données. Étant donné que les ordinateurs n'ont pas les sens multiples des humains, il est nécessaire de "prétraiter" les informations non étiquetées avant l'entraînement pour les convertir en un format compréhensible par l'ordinateur.
Après avoir saisi les données, l'IA construit un modèle capable de comprendre et de prédire par "entraînement", similaire à la façon dont un bébé comprend progressivement le monde extérieur. Les paramètres du modèle sont comme la capacité linguistique d'un bébé qui s'ajuste continuellement. Le contenu appris est divisé en matières ou obtenu par des échanges avec des personnes pour recevoir des retours et des corrections, entrant dans la phase de "réglage fin".
Une fois que les enfants grandissent et apprennent à parler, ils peuvent comprendre et s'exprimer dans de nouveaux dialogues, similaire à la phase de "raisonnement" des grands modèles d'IA, capables de faire des analyses prédictives sur de nouvelles entrées. Les bébés expriment leurs sentiments par le langage, décrivent des objets et résolvent des problèmes, semblable à ce qu'un grand modèle d'IA fait après l'entraînement pour appliquer à diverses tâches spécifiques, comme la classification d'images, la reconnaissance vocale, etc.
L'Agent IA tend vers la prochaine forme des grands modèles : capable d'exécuter des tâches de manière autonome pour atteindre des objectifs complexes, doté de capacités de réflexion, de mémoire et de planification, et capable d'utiliser des outils pour interagir avec le monde.
Face aux douleurs des différentes piles d'IA, Web3 a actuellement formé un écosystème interconnecté à plusieurs niveaux, couvrant toutes les étapes des processus des modèles d'IA.
( Une, couche de base : Airbnb pour la puissance de calcul et les données
)# Puissance de calcul
Actuellement, l'un des coûts les plus élevés de l'IA est la puissance de calcul et l'énergie nécessaires pour entraîner et inférer des modèles.
Pour former le LLAMA3 de Meta, il faut 16 000 GPU NVIDIA H100 pendant 30 jours. Le prix unitaire de la version 80 Go est de 30 à 40 000 dollars, nécessitant un investissement matériel de 400 à 700 millions de dollars, avec une consommation d'électricité de 1,6 milliard de kilowattheures par mois et des dépenses énergétiques proches de 20 millions de dollars.
La décompression de la puissance de calcul de l'IA est l'un des premiers domaines de croisement entre le Web3 et l'IA ------ DePin### réseau d'infrastructure physique décentralisé ###. DePin Ninja a répertorié plus de 1400 projets, le partage de la puissance de calcul GPU est représenté par des projets tels que io.net, Aethir, Akash, Render Network, etc.
Logique principale : la plateforme permet aux propriétaires de ressources GPU inutilisées de contribuer à la puissance de calcul de manière décentralisée sans autorisation, similaire à un marché en ligne entre acheteurs et vendeurs comme Uber ou Airbnb, augmentant ainsi l'utilisation des ressources GPU sous-utilisées, les utilisateurs finaux bénéficiant de ressources de calcul efficaces à faible coût ; en même temps, un mécanisme de mise en jeu garantit que les fournisseurs de ressources sont pénalisés en cas de violation du contrôle de la qualité ou d'interruption du réseau.
Caractéristiques :
Rassembler des ressources GPU inactives : principalement pour les centres de données tiers de taille moyenne et petite, les fermes de minage de crypto-monnaies, etc. puissance excédentaire, matériels de minage PoS tels que les machines de minage FileCoin et ETH. Il existe également des projets visant à abaisser le seuil d'entrée pour des équipements tels que exolab qui utilise des appareils locaux comme MacBook, iPhone, iPad, etc. pour établir un réseau de puissance de calcul pour l'inférence de grands modèles.
Ciblant le marché de la puissance de calcul AI en longue traîne:
a. Côté technique : mieux adapté aux étapes d'inférence. L'entraînement dépend de clusters de GPU très grands, tandis que l'inférence nécessite des performances de calcul GPU relativement faibles, comme Aethir qui se concentre sur le rendu à faible latence et l'inférence AI.
b. Côté demande : les petites et moyennes entreprises ne formeront pas de grands modèles de manière indépendante, mais se concentreront uniquement sur l'optimisation et le réglage des grands modèles principaux, ce qui convient naturellement aux ressources de puissance de calcul inutilisées et distribuées.
Propriété décentralisée : La signification de la technologie blockchain réside dans le fait que les propriétaires de ressources conservent toujours le contrôle de celles-ci, tout en ajustant de manière flexible et en obtenant des revenus.
(# Données
Les données sont la base de l'IA. Sans données, le calcul est comme des algues flottantes, totalement inutile. La relation entre les données et le modèle est comme "Garbage in, Garbage out", la quantité et la qualité des données déterminent la qualité de la sortie finale du modèle. En ce qui concerne l'entraînement des modèles d'IA, les données déterminent la capacité linguistique, la capacité de compréhension, les valeurs et l'expression humanisée. Actuellement, les principaux défis liés aux besoins en données pour l'IA sont :
Soif de données : l'entraînement des modèles d'IA repose sur des entrées massives de données. OpenAI a entraîné GPT-4 avec un nombre de paramètres atteignant des milliers de milliards.
Qualité des données : Avec l'intégration de l'IA dans divers secteurs, de nouvelles exigences sont posées concernant la temporalité, la diversité, le professionnalisme des données, ainsi que l'intégration de nouvelles sources de données telles que les émotions des médias sociaux.
Confidentialité et conformité : les entreprises de différents pays prennent progressivement conscience de l'importance des ensembles de données de qualité et commencent à limiter le scraping des ensembles de données.
Coût de traitement des données élevé : volume de données important, traitement complexe. Plus de 30 % des coûts de R&D des entreprises d'IA sont consacrés à la collecte et au traitement des données de base.
Les solutions Web3 se manifestent dans quatre domaines :
Collecte de données : la collecte gratuite de données du monde réel s'épuise rapidement, les dépenses des entreprises d'IA pour les données augmentent chaque année, mais ne récompensent pas les véritables contributeurs, la plateforme profite de toute la création de valeur, comme Reddit qui a généré 203 millions de dollars de revenus grâce à un accord de licence de données avec une entreprise d'IA.
Permettre aux véritables utilisateurs de contribuer à la création de valeur des données, d'obtenir des données plus privées et précieuses à moindre coût grâce à un réseau distribué et des mécanismes d'incitation, tel est le rêve du Web3.
Grass : couche de données décentralisée et réseau, les utilisateurs exécutent des nœuds pour contribuer à la bande passante inutilisée, relayer le trafic pour capturer des données en temps réel et obtenir des récompenses en tokens.
Vana : introduction du concept de pool de liquidité de données )DLP###, les utilisateurs téléchargent des données privées vers un DLP spécifique, choisissant de manière flexible d'autoriser ou non des tiers à les utiliser.
PublicAI : Les utilisateurs peuvent collecter des données en utilisant le tag Web3 ( sur X et en @PublicAI.
Prétraitement des données : Dans le traitement des données par IA, la collecte des données est généralement bruyante et comporte des erreurs. Avant l'entraînement, il est nécessaire de nettoyer et de convertir les données en un format utilisable, ce qui implique des tâches répétitives telles que la normalisation, le filtrage et le traitement des valeurs manquantes. Cette phase est l'une des rares étapes manuelles dans l'industrie de l'IA, donnant naissance au secteur des annotateurs de données. Au fur et à mesure que les exigences en matière de qualité des données augmentent avec les modèles, les barrières à l'entrée se renforcent, ce qui convient naturellement aux mécanismes d'incitation décentralisés de Web3.
Grass et OpenLayer envisagent d'ajouter une étape de annotation de données.
Synesis propose le concept "Train2earn", mettant l'accent sur la qualité des données, les utilisateurs fournissant des données annotées, des commentaires, etc. pour obtenir des récompenses.
Le projet de marquage de données Sapien gamifie les tâches de marquage, les utilisateurs mettent en jeu des points pour en gagner plus.
Confidentialité et sécurité des données : il est nécessaire de clarifier que la confidentialité des données et la sécurité des données sont deux concepts distincts. La confidentialité des données concerne le traitement des données sensibles, tandis que la sécurité des données protège les données contre l'accès non autorisé, la destruction et le vol. Avantages des technologies de confidentialité Web3 et scénarios d'application potentiels : )1#AI或# entraînement sur des données sensibles ; (2) collaboration sur les données : plusieurs propriétaires de données participent ensemble à l'entraînement de l'IA sans avoir besoin de partager les données brutes.
Technologies de confidentialité Web3 courantes :
Environnement d'exécution de confiance ( TEE ), comme Super Protocol
Technologie de preuve à divulgation nulle d'information (zk), comme le protocole Reclaim qui utilise la technologie zkTLS pour générer des preuves à divulgation nulle d'information sur le trafic HTTPS, permettant aux utilisateurs d'importer en toute sécurité des activités, des réputations et des données d'identité provenant de sites externes, sans exposer d'informations sensibles.
Ce domaine en est encore à ses débuts, la plupart des projets sont en phase d'exploration, le principal problème actuel est le coût élevé des calculs, par exemple :
Le cadre zkML EZKL nécessite environ 80 minutes pour générer une preuve de modèle 1M-nanoGPT.
Les données de Modulus Labs montrent que les coûts de zkML sont plus de 1000 fois supérieurs à ceux du calcul pur.
Stockage des données : nécessite un stockage de données sur la chaîne et un endroit pour générer LLM. La disponibilité des données (DA) est le problème central, avec un débit de 0,08 Mo avant la mise à niveau Danksharding d'Ethereum. L'entraînement des modèles d'IA et l'inférence en temps réel nécessitent généralement un débit de 50 à 100 Go de données par seconde. Cet écart de magnitude rend les solutions existantes sur la chaîne difficiles à gérer pour les applications d'IA gourmandes en ressources.
0g.AI est un projet représentatif. Il s'agit d'une solution de stockage centralisé conçue pour les besoins de haute performance en IA, ses caractéristiques clés : haute performance et évolutivité, prise en charge du téléchargement et de l'upload rapide de grands ensembles de données grâce à des techniques de sharding avancées et de codes de correction d'erreurs, la vitesse de transmission des données atteignant près de 5 Go par seconde.
( Deux, Middleware : entraînement et inférence du modèle
)# Marché décentralisé de modèles open source
Le débat entre les modèles d'IA propriétaires et open source se poursuit. L'open source apporte une innovation collective, un avantage inégalable par le propriétaire, mais comment améliorer la motivation des développeurs sans un modèle de profit ? Le fondateur de Baidu, Robin Li, a affirmé en avril que "les modèles open source deviendront de plus en plus obsolètes".
Web3 propose la possibilité d'un marché de modèles décentralisés et open source : tokenisation du modèle lui-même, conservation d'un certain pourcentage de tokens pour l'équipe, et orientation d'une partie des revenus futurs vers les détenteurs de tokens.
Le protocole Bittensor établit un marché P2P de modèles open source, composé de dizaines de "sous-réseaux". Les fournisseurs de ressources ### en calcul, collecte/de stockage de données, et talents en apprentissage machine ### rivalisent pour satisfaire les objectifs des propriétaires de sous-réseaux spécifiques. Chaque sous-réseau peut interagir et apprendre les uns des autres pour réaliser une intelligence plus puissante. Les récompenses sont attribuées par vote de la communauté et sont ensuite redistribuées à chaque sous-réseau en fonction des performances concurrentielles.
ORA introduit le concept d'émission de modèle initial (IMO), en tokenisant les modèles d'IA, qui peuvent être achetés, vendus et développés via un réseau décentralisé.
Sentient, une plateforme AGI décentralisée, incite les gens à collaborer, construire, copier et étendre des modèles d'IA, et récompense les contributeurs.
Spectral Nova, se concentre sur la création et l'application de modèles d'IA et d'AM.
(# Raisonnement vérifiable
Pour le problème du "black box" en matière de raisonnement AI, la solution standard Web3 consiste en une comparaison des résultats par plusieurs validateurs. Cependant, la pénurie de "puces Nvidia" haut de gamme entraîne des coûts élevés pour le raisonnement AI, ce qui pose des défis à cette approche.
Il est encore plus prometteur d'exécuter des preuves ZK pour le calcul d'inférence AI hors chaîne, permettant la vérification des calculs de modèles AI sur la chaîne sans autorisation. Il est nécessaire de prouver de manière cryptographique sur la chaîne que le calcul hors chaîne a été correctement complété ) si le jeu de données n'a pas été altéré ###, tout en garantissant la confidentialité de toutes les données.
Principaux avantages :
Scalabilité : les preuves à divulgation nulle de connaissance permettent de confirmer rapidement un grand nombre de calculs hors chaîne. Même si le nombre de transactions augmente, une seule preuve peut vérifier toutes les transactions.
Protection de la vie privée : Les données et les détails des modèles d'IA sont confidentiels, et les parties peuvent vérifier que les données et les modèles n'ont pas été altérés.
Pas besoin de confiance : vous pouvez confirmer les calculs sans dépendre des parties centralisées.
Intégration Web2 : par définition, le Web2 est une intégration hors chaîne, et le raisonnement vérifiable peut aider à amener ses ensembles de données et ses calculs AI sur la chaîne, ce qui aide à augmenter le taux d'adoption du Web3.
Technologies Web3 actuelles pour le raisonnement vérifiable :
zkML : Combinaison de la preuve à divulgation nulle de connaissance et de l'apprentissage automatique, garantissant la confidentialité des données et des modèles, permettant des calculs vérifiables sans révéler les attributs sous-jacents, comme le prouveur ZK construit par AI de Modulus Labs basé sur ZKML, vérifiant efficacement si les fournisseurs d'IA exécutent correctement les algorithmes sur la chaîne, les clients étant principalement des DApp sur la chaîne.
opML : Utiliser le principe de résumé optimiste, en vérifiant le moment du litige, pour améliorer le ML.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
7 J'aime
Récompense
7
3
Partager
Commentaire
0/400
AirdropHunter
· Il y a 12h
Encore pris pour des cons par de gros capitaux
Voir l'originalRépondre0
OnChainDetective
· Il y a 12h
Suivi pendant trois jours des flux de fonds, toutes les baleines accumulent des concepts d'IA.
Comment Web3 joue-t-il un rôle à chaque étape de la chaîne de l'industrie de l'IA
IA+Web3 : Tours et places
TL;DR
Les projets Web3 basés sur le concept d'IA deviennent des cibles d'attraction de capitaux sur les marchés primaire et secondaire.
Les opportunités de Web3 dans le secteur de l'IA se manifestent principalement par : l'utilisation d'incitations distribuées pour coordonner des offres potentielles de longue traîne ( à travers les données, le stockage et le calcul ) ; tout en établissant un marché décentralisé pour des modèles open source et des agents d'IA.
L'IA dans l'industrie Web3 est principalement appliquée aux finances on-chain, aux paiements cryptographiques, aux transactions, à l'analyse des données ainsi qu'à l'assistance au développement.
L'utilité de l'IA + Web3 réside dans leur complémentarité : Web3 devrait contrer la centralisation de l'IA, et l'IA devrait aider Web3 à sortir de ses frontières.
Introduction
Au cours des deux dernières années, le développement de l'IA a été rapide, l'apparition de ChatGPT a ouvert une nouvelle ère pour l'intelligence artificielle générative et a également suscité un engouement dans le domaine du Web3.
Avec le soutien du concept d'IA, le financement des projets Web3 a clairement augmenté. Rien qu'au premier semestre 2024, 64 projets Web3+IA ont réalisé un financement, parmi lesquels le système d'exploitation basé sur l'IA Zyber365 a atteint un financement record de 100 millions de dollars lors de la série A.
Le marché secondaire est de plus en plus prospère. Selon les données de Coingecko, la capitalisation totale du secteur de l'IA a atteint 48,5 milliards de dollars, avec un volume de transactions de près de 8,6 milliards de dollars en 24 heures. Les avancées des technologies d'IA ont apporté des avantages évidents, comme après le lancement de Sora d'OpenAI, où le prix moyen du secteur de l'IA a augmenté de 151 %. L'effet IA s'est également propagé au secteur des cryptomonnaies attractives, avec le MemeCoin GOAT, premier concept d'agent IA, qui a rapidement gagné en popularité, atteignant une valorisation de 1,4 milliard de dollars et déclenchant une frénésie des Memes AI.
Les recherches et les sujets liés à l'IA + Web3 sont en plein essor, allant de l'IA + Depin à l'IA Memecoin, en passant par l'IA Agent et l'IA DAO. L'émotion de FOMO a du mal à suivre la vitesse de rotation des nouveaux récits.
Le concept combiné AI+Web3, rempli d'argent facile, de tendances et de fantasmes futurs, ne peut que être perçu comme un mariage arrangé par le capital. Il est difficile de juger s'il s'agit du terrain de jeu des spéculateurs ou de la veille d'une explosion à l'aube.
Pour répondre à cette question, il est essentiel de réfléchir : cela s'améliorera-t-il avec l'autre ? Peut-on bénéficier des modèles de l'autre ? Cet article tente d'examiner ce schéma : comment le Web3 peut-il jouer un rôle à chaque étape de la pile technologique de l'IA, et que peut apporter l'IA au Web3 pour lui donner un nouveau souffle ?
Partie 1 Quelles sont les opportunités de Web3 sous la pile AI ?
Avant d'aborder ce sujet, nous devons comprendre la pile technologique des grands modèles AI :
Les grands modèles d'IA peuvent être comparés au cerveau humain. À un stade précoce, comme un bébé, ils ont besoin d'observer et d'absorber une énorme quantité d'informations externes pour comprendre le monde, c'est la phase de "collecte" des données. Étant donné que les ordinateurs n'ont pas les sens multiples des humains, il est nécessaire de "prétraiter" les informations non étiquetées avant l'entraînement pour les convertir en un format compréhensible par l'ordinateur.
Après avoir saisi les données, l'IA construit un modèle capable de comprendre et de prédire par "entraînement", similaire à la façon dont un bébé comprend progressivement le monde extérieur. Les paramètres du modèle sont comme la capacité linguistique d'un bébé qui s'ajuste continuellement. Le contenu appris est divisé en matières ou obtenu par des échanges avec des personnes pour recevoir des retours et des corrections, entrant dans la phase de "réglage fin".
Une fois que les enfants grandissent et apprennent à parler, ils peuvent comprendre et s'exprimer dans de nouveaux dialogues, similaire à la phase de "raisonnement" des grands modèles d'IA, capables de faire des analyses prédictives sur de nouvelles entrées. Les bébés expriment leurs sentiments par le langage, décrivent des objets et résolvent des problèmes, semblable à ce qu'un grand modèle d'IA fait après l'entraînement pour appliquer à diverses tâches spécifiques, comme la classification d'images, la reconnaissance vocale, etc.
L'Agent IA tend vers la prochaine forme des grands modèles : capable d'exécuter des tâches de manière autonome pour atteindre des objectifs complexes, doté de capacités de réflexion, de mémoire et de planification, et capable d'utiliser des outils pour interagir avec le monde.
Face aux douleurs des différentes piles d'IA, Web3 a actuellement formé un écosystème interconnecté à plusieurs niveaux, couvrant toutes les étapes des processus des modèles d'IA.
( Une, couche de base : Airbnb pour la puissance de calcul et les données
)# Puissance de calcul
Actuellement, l'un des coûts les plus élevés de l'IA est la puissance de calcul et l'énergie nécessaires pour entraîner et inférer des modèles.
Pour former le LLAMA3 de Meta, il faut 16 000 GPU NVIDIA H100 pendant 30 jours. Le prix unitaire de la version 80 Go est de 30 à 40 000 dollars, nécessitant un investissement matériel de 400 à 700 millions de dollars, avec une consommation d'électricité de 1,6 milliard de kilowattheures par mois et des dépenses énergétiques proches de 20 millions de dollars.
La décompression de la puissance de calcul de l'IA est l'un des premiers domaines de croisement entre le Web3 et l'IA ------ DePin### réseau d'infrastructure physique décentralisé ###. DePin Ninja a répertorié plus de 1400 projets, le partage de la puissance de calcul GPU est représenté par des projets tels que io.net, Aethir, Akash, Render Network, etc.
Logique principale : la plateforme permet aux propriétaires de ressources GPU inutilisées de contribuer à la puissance de calcul de manière décentralisée sans autorisation, similaire à un marché en ligne entre acheteurs et vendeurs comme Uber ou Airbnb, augmentant ainsi l'utilisation des ressources GPU sous-utilisées, les utilisateurs finaux bénéficiant de ressources de calcul efficaces à faible coût ; en même temps, un mécanisme de mise en jeu garantit que les fournisseurs de ressources sont pénalisés en cas de violation du contrôle de la qualité ou d'interruption du réseau.
Caractéristiques :
Rassembler des ressources GPU inactives : principalement pour les centres de données tiers de taille moyenne et petite, les fermes de minage de crypto-monnaies, etc. puissance excédentaire, matériels de minage PoS tels que les machines de minage FileCoin et ETH. Il existe également des projets visant à abaisser le seuil d'entrée pour des équipements tels que exolab qui utilise des appareils locaux comme MacBook, iPhone, iPad, etc. pour établir un réseau de puissance de calcul pour l'inférence de grands modèles.
Ciblant le marché de la puissance de calcul AI en longue traîne: a. Côté technique : mieux adapté aux étapes d'inférence. L'entraînement dépend de clusters de GPU très grands, tandis que l'inférence nécessite des performances de calcul GPU relativement faibles, comme Aethir qui se concentre sur le rendu à faible latence et l'inférence AI. b. Côté demande : les petites et moyennes entreprises ne formeront pas de grands modèles de manière indépendante, mais se concentreront uniquement sur l'optimisation et le réglage des grands modèles principaux, ce qui convient naturellement aux ressources de puissance de calcul inutilisées et distribuées.
Propriété décentralisée : La signification de la technologie blockchain réside dans le fait que les propriétaires de ressources conservent toujours le contrôle de celles-ci, tout en ajustant de manière flexible et en obtenant des revenus.
(# Données
Les données sont la base de l'IA. Sans données, le calcul est comme des algues flottantes, totalement inutile. La relation entre les données et le modèle est comme "Garbage in, Garbage out", la quantité et la qualité des données déterminent la qualité de la sortie finale du modèle. En ce qui concerne l'entraînement des modèles d'IA, les données déterminent la capacité linguistique, la capacité de compréhension, les valeurs et l'expression humanisée. Actuellement, les principaux défis liés aux besoins en données pour l'IA sont :
Soif de données : l'entraînement des modèles d'IA repose sur des entrées massives de données. OpenAI a entraîné GPT-4 avec un nombre de paramètres atteignant des milliers de milliards.
Qualité des données : Avec l'intégration de l'IA dans divers secteurs, de nouvelles exigences sont posées concernant la temporalité, la diversité, le professionnalisme des données, ainsi que l'intégration de nouvelles sources de données telles que les émotions des médias sociaux.
Confidentialité et conformité : les entreprises de différents pays prennent progressivement conscience de l'importance des ensembles de données de qualité et commencent à limiter le scraping des ensembles de données.
Coût de traitement des données élevé : volume de données important, traitement complexe. Plus de 30 % des coûts de R&D des entreprises d'IA sont consacrés à la collecte et au traitement des données de base.
Les solutions Web3 se manifestent dans quatre domaines :
Permettre aux véritables utilisateurs de contribuer à la création de valeur des données, d'obtenir des données plus privées et précieuses à moindre coût grâce à un réseau distribué et des mécanismes d'incitation, tel est le rêve du Web3.
Grass : couche de données décentralisée et réseau, les utilisateurs exécutent des nœuds pour contribuer à la bande passante inutilisée, relayer le trafic pour capturer des données en temps réel et obtenir des récompenses en tokens.
Vana : introduction du concept de pool de liquidité de données )DLP###, les utilisateurs téléchargent des données privées vers un DLP spécifique, choisissant de manière flexible d'autoriser ou non des tiers à les utiliser.
PublicAI : Les utilisateurs peuvent collecter des données en utilisant le tag Web3 ( sur X et en @PublicAI.
Grass et OpenLayer envisagent d'ajouter une étape de annotation de données.
Synesis propose le concept "Train2earn", mettant l'accent sur la qualité des données, les utilisateurs fournissant des données annotées, des commentaires, etc. pour obtenir des récompenses.
Le projet de marquage de données Sapien gamifie les tâches de marquage, les utilisateurs mettent en jeu des points pour en gagner plus.
Technologies de confidentialité Web3 courantes :
Environnement d'exécution de confiance ( TEE ), comme Super Protocol
Cryptographie homomorphe complète ( FHE ), comme BasedAI, Fhenix.io, Inco Network
Technologie de preuve à divulgation nulle d'information (zk), comme le protocole Reclaim qui utilise la technologie zkTLS pour générer des preuves à divulgation nulle d'information sur le trafic HTTPS, permettant aux utilisateurs d'importer en toute sécurité des activités, des réputations et des données d'identité provenant de sites externes, sans exposer d'informations sensibles.
Ce domaine en est encore à ses débuts, la plupart des projets sont en phase d'exploration, le principal problème actuel est le coût élevé des calculs, par exemple :
Le cadre zkML EZKL nécessite environ 80 minutes pour générer une preuve de modèle 1M-nanoGPT.
Les données de Modulus Labs montrent que les coûts de zkML sont plus de 1000 fois supérieurs à ceux du calcul pur.
( Deux, Middleware : entraînement et inférence du modèle
)# Marché décentralisé de modèles open source
Le débat entre les modèles d'IA propriétaires et open source se poursuit. L'open source apporte une innovation collective, un avantage inégalable par le propriétaire, mais comment améliorer la motivation des développeurs sans un modèle de profit ? Le fondateur de Baidu, Robin Li, a affirmé en avril que "les modèles open source deviendront de plus en plus obsolètes".
Web3 propose la possibilité d'un marché de modèles décentralisés et open source : tokenisation du modèle lui-même, conservation d'un certain pourcentage de tokens pour l'équipe, et orientation d'une partie des revenus futurs vers les détenteurs de tokens.
Le protocole Bittensor établit un marché P2P de modèles open source, composé de dizaines de "sous-réseaux". Les fournisseurs de ressources ### en calcul, collecte/de stockage de données, et talents en apprentissage machine ### rivalisent pour satisfaire les objectifs des propriétaires de sous-réseaux spécifiques. Chaque sous-réseau peut interagir et apprendre les uns des autres pour réaliser une intelligence plus puissante. Les récompenses sont attribuées par vote de la communauté et sont ensuite redistribuées à chaque sous-réseau en fonction des performances concurrentielles.
ORA introduit le concept d'émission de modèle initial (IMO), en tokenisant les modèles d'IA, qui peuvent être achetés, vendus et développés via un réseau décentralisé.
Sentient, une plateforme AGI décentralisée, incite les gens à collaborer, construire, copier et étendre des modèles d'IA, et récompense les contributeurs.
Spectral Nova, se concentre sur la création et l'application de modèles d'IA et d'AM.
(# Raisonnement vérifiable
Pour le problème du "black box" en matière de raisonnement AI, la solution standard Web3 consiste en une comparaison des résultats par plusieurs validateurs. Cependant, la pénurie de "puces Nvidia" haut de gamme entraîne des coûts élevés pour le raisonnement AI, ce qui pose des défis à cette approche.
Il est encore plus prometteur d'exécuter des preuves ZK pour le calcul d'inférence AI hors chaîne, permettant la vérification des calculs de modèles AI sur la chaîne sans autorisation. Il est nécessaire de prouver de manière cryptographique sur la chaîne que le calcul hors chaîne a été correctement complété ) si le jeu de données n'a pas été altéré ###, tout en garantissant la confidentialité de toutes les données.
Principaux avantages :
Scalabilité : les preuves à divulgation nulle de connaissance permettent de confirmer rapidement un grand nombre de calculs hors chaîne. Même si le nombre de transactions augmente, une seule preuve peut vérifier toutes les transactions.
Protection de la vie privée : Les données et les détails des modèles d'IA sont confidentiels, et les parties peuvent vérifier que les données et les modèles n'ont pas été altérés.
Pas besoin de confiance : vous pouvez confirmer les calculs sans dépendre des parties centralisées.
Intégration Web2 : par définition, le Web2 est une intégration hors chaîne, et le raisonnement vérifiable peut aider à amener ses ensembles de données et ses calculs AI sur la chaîne, ce qui aide à augmenter le taux d'adoption du Web3.
Technologies Web3 actuelles pour le raisonnement vérifiable :
zkML : Combinaison de la preuve à divulgation nulle de connaissance et de l'apprentissage automatique, garantissant la confidentialité des données et des modèles, permettant des calculs vérifiables sans révéler les attributs sous-jacents, comme le prouveur ZK construit par AI de Modulus Labs basé sur ZKML, vérifiant efficacement si les fournisseurs d'IA exécutent correctement les algorithmes sur la chaîne, les clients étant principalement des DApp sur la chaîne.
opML : Utiliser le principe de résumé optimiste, en vérifiant le moment du litige, pour améliorer le ML.