OpenLedger construit l'IA payante : OP Stack + EigenDA comme base pour alimenter l'économie des données et des modèles.

OpenLedger Depth Rapport de recherche : construire une économie d'agents basée sur des données et des modèles combinables avec OP Stack + EigenDA comme socle.

Introduction | Les sauts de niveau dans les modèles de Crypto AI

Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, comparables au carburant (données), au moteur (modèle) et à l'énergie (puissance de calcul), chacun étant indispensable. À l'instar du chemin d'évolution des infrastructures de l'industrie de l'IA traditionnelle, le domaine de Crypto AI a également traversé des phases similaires. Début 2024, le marché était en grande partie dominé par des projets de GPU décentralisés ( certaines plateformes de calcul, certaines plateformes de rendu, certains réseaux, etc. ), mettant généralement l'accent sur la logique de croissance extensive de "mettre en commun la puissance de calcul". Cependant, à partir de 2025, l'attention de l'industrie se déplace progressivement vers les couches de modèles et de données, marquant la transition de Crypto AI d'une compétition pour les ressources de base vers une construction de niveau intermédiaire plus durable et à valeur d'application.

OpenLedger Depth Research Report : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, pilotée par les données et modélable

Modèle général (LLM) vs Modèle spécialisé (SLM)

Les modèles de langage traditionnels (LLM) reposent fortement sur des ensembles de données à grande échelle et des architectures distribuées complexes, avec des tailles de paramètres allant de 70B à 500B, et le coût d'une seule formation peut atteindre plusieurs millions de dollars. En revanche, le SLM (Modèle de Langage Spécialisé), en tant que paradigme de micro-réglage léger basé sur un modèle fondamental réutilisable, est généralement basé sur des modèles open source tels que LLaMA, Mistral, DeepSeek, combinant une petite quantité de données professionnelles de haute qualité et des technologies comme LoRA, permettant de construire rapidement des modèles experts dotés de connaissances spécifiques à un domaine, tout en réduisant de manière significative les coûts de formation et les barrières techniques.

Il est important de noter que SLM ne sera pas intégré dans les poids LLM, mais fonctionnera en collaboration avec LLM via des appels d'architecture Agent, un système de plugins pour le routage dynamique, un module LoRA à chaud et RAG (génération améliorée par la recherche). Cette architecture préserve la large couverture de LLM tout en renforçant les performances spécialisées grâce à des modules de réglage fin, formant ainsi un système intelligent combiné hautement flexible.

La valeur et les limites de Crypto AI au niveau du modèle

Les projets Crypto AI ont essentiellement du mal à améliorer directement les capacités fondamentales des modèles de langage de grande taille (LLM), la raison principale étant que

  • Barrière technique trop élevée : L'échelle des données, les ressources de calcul et les capacités d'ingénierie nécessaires pour entraîner un modèle de fondation sont extrêmement vastes, actuellement seuls des géants de la technologie tels que certaines entreprises aux États-Unis et en Chine disposent de ces capacités.
  • Limites de l'écosystème open source : Bien que des modèles de base comme LLaMA et Mixtral soient désormais open source, la clé du véritable avancement des modèles reste concentrée dans les institutions de recherche et les systèmes d'ingénierie fermés, l'espace de participation des projets sur la chaîne au niveau des modèles fondamentaux est limité.

Cependant, au-delà des modèles fondamentaux open source, les projets Crypto AI peuvent encore réaliser une extension de valeur en ajustant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation du Web3. En tant que « couche d'interface périphérique » de la chaîne de l'industrie de l'IA, cela se manifeste dans deux directions fondamentales :

  • Couche de validation de confiance : enregistre les chemins de génération de modèles, les contributions de données et les utilisations sur la chaîne, renforçant ainsi la traçabilité et la résistance à la falsification des sorties de l'IA.
  • Mécanisme d'incitation : Grâce au token natif, utilisé pour inciter le téléchargement de données, l'appel de modèles, l'exécution d'agents, etc., construire un cycle vertueux de formation et de service des modèles.

Classification des types de modèles d'IA et analyse de l'applicabilité de la blockchain

Il en ressort que les points d'application viables des projets de type Crypto AI se concentrent principalement sur l'optimisation légère des SLM de petite taille, l'intégration et la validation des données en chaîne via l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme des tokens, Crypto peut offrir une valeur unique dans ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée pour la "couche d'interface" de l'IA.

La chaîne AI basée sur les données et les modèles permet d'enregistrer de manière claire et immuable l'origine des contributions de chaque donnée et modèle, améliorant ainsi la crédibilité des données et la traçabilité de l'entraînement des modèles. De plus, grâce au mécanisme des contrats intelligents, la distribution des récompenses est automatiquement déclenchée lorsque des données ou des modèles sont appelés, transformant ainsi les comportements de l'AI en valeur tokenisée mesurable et échangeable, et construisant un système d'incitation durable. En outre, les utilisateurs de la communauté peuvent également évaluer la performance des modèles par le biais de votes en tokens, participer à l'élaboration et à l'itération des règles, et améliorer la structure de gouvernance décentralisée.

OpenLedgerDepth étude approfondie : construire une économie d'agent intelligente, pilotée par les données et modélisable, sur la base d'OP Stack + EigenDA

Deux, aperçu du projet | La vision de la chaîne AI d'OpenLedger

OpenLedger est l'un des rares projets d'IA blockchain sur le marché qui se concentre sur les mécanismes d'incitation basés sur les données et les modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution d'IA équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications IA à collaborer sur la même plateforme et à obtenir des revenus on-chain en fonction de leurs contributions réelles.

OpenLedger offre une boucle fermée complète allant de « la fourniture de données » à « le déploiement de modèles », puis à « l'appel de partage des profits », dont les modules principaux incluent :

  • Model Factory : sans programmation, il est possible d'utiliser LoRA pour un entraînement et un déploiement de modèles personnalisés basés sur des LLM open source ;
  • OpenLoRA : prend en charge la coexistence de milliers de modèles, chargement dynamique à la demande, réduisant considérablement les coûts de déploiement ;
  • PoA (Proof of Attribution) : Mesure de contribution et distribution de récompenses réalisées par des appels en chaîne.
  • Datanets : un réseau de données structurées orienté vers des scénarios verticaux, construit et validé par la collaboration de la communauté ;
  • Plateforme de proposition de modèle (Model Proposal Platform) : marché de modèles en chaîne, combinable, appelable et payant.

Grâce aux modules ci-dessus, OpenLedger a construit une "infrastructure économique d'agents intelligents" basée sur les données et modulable, favorisant la mise en chaîne de la chaîne de valeur de l'IA.

OpenLedger Depth Research Report : Construire une économie agent intelligente, basée sur OP Stack + EigenDA, axée sur les données et modulable

Dans l'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base, créant un environnement d'exécution de données et de contrats performant, à faible coût et vérifiable pour les modèles d'IA.

  • Construire sur OP Stack : Basé sur la pile technologique Optimism, supporte un haut débit et une exécution à faible coût ;
  • Règlement sur le réseau principal Ethereum : Assurer la sécurité des transactions et l'intégrité des actifs ;
  • Compatible EVM : Facilite le déploiement et l'extension rapides pour les développeurs basés sur Solidity ;
  • EigenDA fournit un support pour la disponibilité des données : réduit considérablement les coûts de stockage et garantit la vérifiabilité des données.

Par rapport à certaines blockchains publiques qui sont plus orientées vers le bas niveau et se concentrent sur la souveraineté des données avec l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction d'une blockchain dédiée à l'IA axée sur les incitations liées aux données et aux modèles, visant à rendre le développement et l'appel des modèles sur la blockchain traçables, combinables et durables en termes de valeur. C'est une infrastructure d'incitation aux modèles dans le monde de Web3, combinant l'hébergement de modèles de type plateforme d'hébergement de modèles, la facturation d'utilisation de type plateforme de paiement et des interfaces combinables sur la blockchain de type service d'infrastructure, favorisant la réalisation du concept de « modèle en tant qu'actif ».

Trois, les composants clés et l'architecture technique d'OpenLedger

3.1 Usine de Modèles, usine de modèles sans code

ModelFactory est une plateforme de micro-ajustement de grands modèles de langage (LLM) au sein de l'écosystème OpenLedger. Contrairement aux cadres de micro-ajustement traditionnels, ModelFactory offre une interface graphique pure sans nécessiter d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent effectuer le micro-ajustement des modèles sur la base des ensembles de données autorisés et vérifiés sur OpenLedger. Cela permet d'intégrer le flux de travail d'autorisation des données, d'entraînement des modèles et de déploiement, dont le processus central comprend :

  • Contrôle d'accès aux données : L'utilisateur soumet une demande de données, le fournisseur examine et approuve, les données sont automatiquement intégrées à l'interface d'entraînement du modèle.
  • Choix et configuration du modèle : Prend en charge les LLM courants (comme LLaMA, Mistral), configuration des hyperparamètres via l'interface graphique.
  • Ajustement léger : moteur LoRA / QLoRA intégré, affichage en temps réel de la progression de l'entraînement.
  • Évaluation et déploiement du modèle : Outils d'évaluation intégrés, supportant l'exportation pour le déploiement ou le partage d'appels écologiques.
  • Interface de validation interactive : Fournit une interface de type chat, facilitant le test direct des capacités de question-réponse du modèle.
  • Génération de traçabilité RAG : Réponses avec références sources, renforçant la confiance et l'auditabilité.

L'architecture du système Model Factory comprend six grands modules, couvrant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement et l'évaluation, ainsi que la traçabilité RAG, créant ainsi une plateforme de services de modèles intégrée, sécurisée, contrôlable, avec une interaction en temps réel et une monétisation durable.

OpenLedger Depth Rapport d'étude : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et les modèles combinables

Le tableau ci-dessous résume les capacités des grands modèles de langage actuellement pris en charge par ModelFactory :

  • Série LLaMA : écosystème le plus large, communauté active, performances générales solides, c'est l'un des modèles de base open source les plus courants actuellement.
  • Mistral : architecture efficace, performances d'inférence excellentes, adaptée aux déploiements flexibles et aux ressources limitées.
  • Qwen : Produit par une certaine entreprise, excelle dans les tâches en chinois, possède de solides compétences, idéal pour les développeurs nationaux.
  • ChatGLM : les effets de conversation en chinois sont remarquables, adaptés aux services clients de niche et aux scénarios de localisation.
  • Deepseek : excelle dans la génération de code et le raisonnement mathématique, adapté aux outils d'assistance au développement intelligent.
  • Gemma : un modèle léger lancé par une entreprise, avec une structure claire, facile à prendre en main et à expérimenter.
  • Falcon : Anciennement une référence de performance, adapté à la recherche fondamentale ou aux tests comparatifs, mais l'activité de la communauté a diminué.
  • BLOOM : support multilingue assez fort, mais les performances d'inférence sont faibles, adapté à la recherche à couverture linguistique.
  • GPT-2 : Modèle classique précoce, uniquement adapté à des fins d'enseignement et de validation, son utilisation en production n'est pas recommandée.

Bien que le modèle combiné d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais plutôt une configuration « axée sur l'utilité » basée sur les contraintes réalistes du déploiement en chaîne (coût d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).

Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages tels que la faible barrière à l'entrée, la monétisation et la combinabilité, comparé aux outils de développement de modèles traditionnels :

  • Pour les développeurs : fournir un chemin complet pour l'incubation, la distribution et les revenus des modèles ;
  • Pour la plateforme : former un écosystème de circulation et de combinaison des actifs modélisés ;
  • Pour les utilisateurs : vous pouvez combiner les modèles ou les agents comme si vous appeliez une API.

OpenLedger Depth Research Report : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et modélisable

3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle de fine-tuning

LoRA (Low-Rank Adaptation) est une méthode de réglage fin des paramètres efficace, qui apprend de nouvelles tâches en insérant des « matrices de faible rang » dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle original, ce qui réduit considérablement les coûts d'entraînement et les besoins de stockage. Les grands modèles de langage traditionnels (comme LLaMA, GPT-3) possèdent généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques (comme les questions juridiques ou les consultations médicales), un réglage fin est nécessaire. La stratégie clé de LoRA est : « geler les paramètres du grand modèle d'origine et n'entraîner que les nouvelles matrices de paramètres insérées. » Sa haute efficacité de paramètre, son entraînement rapide et sa flexibilité de déploiement en font la méthode de réglage fin la plus adaptée au déploiement et à l'appel combiné de modèles Web3.

OpenLoRA est un cadre d'inférence léger construit par OpenLedger, spécialement conçu pour le déploiement multi-modèles et le partage de ressources. Son objectif principal est de résoudre les problèmes courants de coût élevé, de faible réutilisation et de gaspillage des ressources GPU dans le déploiement des modèles d'IA, tout en promouvant l'exécution de l'« IA payante ».

OpenLoRA architecture composants principaux, basé sur une conception modulaire

Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Récompense
  • 6
  • Partager
Commentaire
0/400
WhaleSurfervip
· Il y a 18h
C'est vraiment sympa de copier les devoirs.
Voir l'originalRépondre0
GateUser-c802f0e8vip
· Il y a 18h
Quand l'économie des agents intelligents pourra-t-elle se concrétiser ?
Voir l'originalRépondre0
ShadowStakervip
· Il y a 18h
meh... un autre L2 essayant de résoudre l'IA avec des mots à la mode. montrer moi d'abord les statistiques mev pour être honnête
Voir l'originalRépondre0
PrivateKeyParanoiavip
· Il y a 18h
Économie des agents intelligents, c'est juste du VC !
Voir l'originalRépondre0
GasWastervip
· Il y a 18h
Encore le temps de couper les coupons.
Voir l'originalRépondre0
Ser_This_Is_A_Casinovip
· Il y a 18h
3啊 Juste en attendant de To the moon !
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)