Analyse du secteur AI Layer1 : à la recherche de nouveaux terrains de développement pour l'IA décentralisée

Rapport de recherche sur AI Layer1 : à la recherche d'un sol fertile pour DeAI off-chain

aperçu

Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont continuellement poussé au développement rapide des modèles de langage de grande taille (LLM). Les LLM montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humaine et montrant même, dans certains cas, un potentiel de remplacement du travail humain. Cependant, le cœur de ces technologies est fermement contrôlé par quelques géants technologiques centralisés. Grâce à un capital solide et à un contrôle sur des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficilement franchissables, rendant la concurrence difficile pour la grande majorité des développeurs et des équipes d'innovation.

Dans le même temps, au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention portée à des questions clés telles que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptabilité par la société. Si ces questions ne sont pas résolues de manière appropriée, le débat sur si l'IA "doit être bonne" ou "doit être mauvaise" deviendra de plus en plus prononcé, tandis que les géants centralisés, motivés par leur instinct de profit, manquent souvent de la motivation suffisante pour faire face activement à ces défis.

La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont déjà émergé sur certaines blockchains mainstream. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les maillons clés et les infrastructures dépendent encore des services cloud centralisés, avec une forte prévalence de l'attribut meme, ce qui rend difficile le soutien d'un véritable écosystème ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA on-chain présente encore des limitations en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, la profondeur et l'étendue de l'innovation doivent être améliorées.

Pour réaliser véritablement la vision d'une IA décentralisée, permettant à la blockchain de supporter des applications IA à grande échelle de manière sécurisée, efficace et démocratique, et de rivaliser en performance avec des solutions centralisées, nous devons concevoir une blockchain Layer 1 spécialement adaptée à l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la démocratie de gouvernance et la sécurité des données, favorisant le développement prospère d'un écosystème d'IA décentralisé.

Biteye et PANews publient conjointement un rapport de recherche sur AI Layer1 : à la recherche d'un terreau DeAI off-chain

Les caractéristiques clés de AI Layer 1

AI Layer 1, en tant que blockchain spécialement conçue pour les applications AI, a une architecture sous-jacente et un design de performance étroitement axés sur les besoins des tâches AI, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème AI off-chain. Plus précisément, AI Layer 1 doit posséder les capacités clés suivantes :

  1. Mécanisme d'incitation efficace et de consensus décentralisé Le cœur de AI Layer 1 réside dans la construction d'un réseau partagé de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la comptabilité des livres, les nœuds de AI Layer 1 doivent assumer des tâches plus complexes : non seulement fournir de la puissance de calcul, réaliser l'entraînement et l'inférence des modèles AI, mais également contribuer à des ressources diversifiées telles que le stockage, les données, la bande passante, etc., afin de briser le monopole des géants centralisés sur l'infrastructure AI. Cela impose des exigences plus élevées pour le consensus de base et le mécanisme d'incitation : AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans des tâches telles que l'inférence et l'entraînement AI, réalisant ainsi la sécurité du réseau et une allocation efficace des ressources. Ce n'est qu'ainsi que l'on peut garantir la stabilité et la prospérité du réseau tout en réduisant efficacement le coût global de la puissance de calcul.

  2. Performances élevées exceptionnelles et capacités de support pour des tâches hétérogènes Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, exigent des performances de calcul et des capacités de traitement parallèle très élevées. De plus, l'écosystème IA off-chain doit souvent prendre en charge une diversité de types de tâches hétérogènes, comprenant différentes structures de modèles, traitement des données, inférence, stockage, et d'autres scénarios variés. La couche IA de niveau 1 doit être profondément optimisée au niveau de l'architecture de base pour répondre aux besoins de haut débit, de faible latence et de parallélisme élastique, tout en prévoyant une capacité de support natif pour les ressources de calcul hétérogènes, afin d'assurer que toutes les tâches d'IA peuvent s'exécuter efficacement, réalisant une expansion fluide de "tâches uniques" à "écosystèmes complexes et diversifiés".

  3. Vérifiabilité et garantie de sortie fiable La couche AI Layer 1 doit non seulement prévenir les comportements malveillants des modèles et les problèmes de falsification des données, mais aussi assurer, dès les mécanismes de base, la vérifiabilité et l'alignement des résultats de sortie de l'IA. En intégrant des technologies de pointe telles que les environnements d'exécution de confiance (TEE), les preuves à connaissance nulle (ZK) et le calcul sécurisé multipartite (MPC), la plateforme permet que chaque inférence de modèle, formation et processus de traitement des données puisse être vérifiée de manière indépendante, garantissant l'équité et la transparence des systèmes d'IA. En même temps, cette vérifiabilité aide les utilisateurs à comprendre la logique et les bases des sorties de l'IA, réalisant ainsi "ce qui est obtenu est ce qui est souhaité", augmentant la confiance et la satisfaction des utilisateurs envers les produits d'IA.

  4. Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs. Dans des domaines tels que la finance, la santé et les réseaux sociaux, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 devrait garantir la vérifiabilité tout en adoptant des techniques de traitement des données basées sur le chiffrement, des protocoles de calcul de la vie privée et des moyens de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, et prévenir efficacement les fuites de données et les abus, éliminant ainsi les inquiétudes des utilisateurs concernant la sécurité des données.

  5. Capacité puissante de support et de développement de l'écosystème En tant qu'infrastructure de base Layer 1 native de l'IA, la plateforme doit non seulement posséder un leadership technologique, mais aussi offrir aux développeurs, opérateurs de nœuds, fournisseurs de services d'IA et autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, elle favorise la mise en œuvre d'applications AI natives riches et diverses, réalisant ainsi une prospérité continue de l'écosystème AI décentralisé.

Sur la base de ce contexte et de ces attentes, cet article présentera en détail six projets représentatifs de l'IA Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en systématisant les dernières avancées du secteur, en analysant l'état actuel des projets et en explorant les tendances futures.

Biteye et PANews publient conjointement un rapport de recherche sur l'IA Layer1 : à la recherche des terres fertiles pour DeAI off-chain

Sentient : Construire un modèle d'IA décentralisé et open source fidèle

Aperçu du projet

Sentient est une plateforme de protocole open source qui construit une blockchain AI Layer1 (. La phase initiale est une Layer 2, qui sera ensuite migrée vers la Layer 1). En combinant AI Pipeline et technologie blockchain, elle construit une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes de propriété des modèles, de traçabilité des appels et de répartition de la valeur sur le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant aux modèles AI de réaliser une structure de propriété on-chain, une transparence des appels et une répartition de la valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits AI, favorisant ainsi un écosystème de réseau d'agents AI équitable et ouvert.

L'équipe de Sentient Foundation regroupe des experts académiques, des entrepreneurs en blockchain et des ingénieurs de premier plan du monde entier, dédiés à la construction d'une plateforme AGI communautaire, open-source et vérifiable. Les membres clés comprennent le professeur Pramod Viswanath de l'université de Princeton et le professeur Himanshu Tyagi de l'Institut indien de science, respectivement responsables de la sécurité de l'IA et de la protection de la vie privée, tandis que Sandeep Nailwal, cofondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe ont des antécédents dans des entreprises renommées telles que Meta, Coinbase, Polygon, ainsi que dans des établissements d'enseignement supérieur prestigieux comme l'université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP et la vision par ordinateur, unissant leurs forces pour faire avancer le projet.

En tant que projet de deuxième création de Sandeep Nailwal, cofondateur de Polygon, Sentient a été doté dès sa création d'un halo, bénéficiant de ressources, de contacts et d'une reconnaissance sur le marché, offrant un fort soutien au développement du projet. Mi-2024, Sentient a complété un tour de financement de semences de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, avec d'autres investisseurs tels que Delphi, Hashkey et Spartan parmi des dizaines de VC renommés.

Biteye et PANews publient conjointement un rapport de recherche sur AI Layer1 : à la recherche d'un sol fertile pour DeAI off-chain

Architecture de conception et couche d'application

Infrastructure Layer

Architecture de base

L'architecture centrale de Sentient est composée de deux parties : le pipeline AI et le système blockchain.

Le pipeline d'IA est la base du développement et de l'entraînement des artefacts "IA fidèle", comprenant deux processus clés :​

  • Planification des données (Data Curation) : processus de sélection des données piloté par la communauté, utilisé pour l'alignement des modèles.
  • Formation de fidélité (Loyalty Training) : s'assurer que le modèle maintienne un processus d'entraînement cohérent avec l'intention de la communauté.

Le système blockchain offre transparence et contrôle décentralisé pour le protocole, garantissant la propriété des artefacts d'IA, le suivi de l'utilisation, la répartition des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :

  • Couche de stockage : stocke les poids du modèle et les informations d'enregistrement des empreintes digitales ;
  • Couche de distribution : le contrat d'autorisation contrôle le point d'entrée des appels de modèle ;
  • Couche d'accès : vérifier si l'utilisateur est autorisé par la preuve d'autorisation ;
  • Couche d'incitation : le contrat de routage des revenus attribue à chaque appel des paiements aux entraîneurs, déployeurs et validateurs.

Biteye et PANews publient conjointement un rapport de recherche sur l'AI Layer1 : à la recherche de terres fertiles pour DeAI off-chain

Cadre de modèle OML

Le cadre OML (Ouvert Open, Monétisable Monetizable, Loyal Loyal) est le concept central proposé par Sentient, visant à offrir une protection claire des droits de propriété et des mécanismes d'incitation économique pour les modèles AI open source. En combinant la technologie off-chain et la cryptographie native à l'IA, il présente les caractéristiques suivantes :

  • Ouverture : le modèle doit être open source, le code et la structure des données doivent être transparents, permettant à la communauté de reproduire, d'auditer et d'améliorer.
  • Monétisation : Chaque appel de modèle déclenche un flux de revenus, le contrat off-chain répartit les revenus entre le formateur, le déployeur et le vérificateur.
  • Loyauté : Le modèle appartient à la communauté des contributeurs, la direction des mises à niveau et la gouvernance sont décidées par le DAO, et l'utilisation et la modification sont contrôlées par des mécanismes cryptographiques.

Cryptographie native à l'IA (AI-native Cryptography)

La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure de variété de faible dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie clé est :

  • Empreinte digitale : insérer un ensemble de paires clé-valeur query-response cachées lors de l'entraînement pour former une signature unique du modèle ;
  • Protocole de vérification de la propriété : vérifier si l'empreinte est conservée par le biais d'un détecteur tiers (Prover) sous forme de requête.
  • Mécanisme d'appel autorisé : avant d'appeler, il est nécessaire d'obtenir un "certificat d'autorisation" délivré par le propriétaire du modèle, puis le système autorise le modèle à décoder cette entrée et à renvoyer une réponse précise.

Cette méthode permet de réaliser "l'appel autorisé basé sur le comportement + la vérification d'appartenance" sans coût de réencryption.

Cadre de validation de modèle et d'exécution sécurisée

Sentient utilise actuellement la sécurité Melange : combinaison de la vérification par empreinte digitale, de l'exécution TEE et du partage des bénéfices des contrats off-chain. La méthode d'empreinte digitale est mise en œuvre par OML 1.0, soulignant l'idée de "sécurité optimiste (Optimistic Security)", c'est-à-dire que la conformité est présumée, et les violations peuvent être détectées et punies.

Le mécanisme d'empreinte digitale est une réalisation clé de l'OML, qui permet au modèle de générer une signature unique pendant la phase d'entraînement en intégrant des paires "question-réponse" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi la copie et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable hors chaîne des comportements d'utilisation du modèle.

De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant des environnements d'exécution de confiance (comme AWS Nitro Enclaves) pour garantir que les modèles ne répondent qu'aux requêtes autorisées, empêchant ainsi les accès et utilisations non autorisés. Bien que le TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de performance et de réactivité en font la technologie clé pour le déploiement actuel des modèles.

À l'avenir, Sentient prévoit d'introduire des technologies de preuve à divulgation nulle de connaissance (ZK) et de cryptographie homomorphe complète (FHE) pour renforcer davantage la protection de la vie privée et la vérifiabilité des modèles d'IA.

Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Récompense
  • 5
  • Partager
Commentaire
0/400
NestedFoxvip
· Il y a 3h
Qu'est-ce que l'IA encore ?
Voir l'originalRépondre0
HalfPositionRunnervip
· Il y a 3h
Les grandes entreprises ne peuvent pas se le permettre, à la recherche d'un second printemps.
Voir l'originalRépondre0
0xTherapistvip
· Il y a 4h
Encore un endroit où l'on prend les gens pour des idiots avec des informations évidentes.
Voir l'originalRépondre0
BearMarketSagevip
· Il y a 4h
Encore une fois, l'IA se fait prendre pour des cons.
Voir l'originalRépondre0
SorryRugPulledvip
· Il y a 4h
C'est toujours la vieille routine de spéculation sur les concepts.
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)