Rapport de recherche sur l'IA Layer1 : à la recherche d'un terrain fertile pour DeAI off-chain
Aperçu
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont continuellement poussé au développement rapide des modèles de langage de grande taille (LLM). Les LLM montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humaine, et même, dans certains cas, montrant un potentiel pour remplacer le travail humain. Cependant, le cœur de ces technologies est fermement contrôlé par un petit nombre de géants technologiques centralisés. Grâce à un capital solide et à un contrôle sur des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, ce qui rend extrêmement difficile pour la grande majorité des développeurs et des équipes d'innovation de rivaliser avec elles.
Dans le même temps, au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et la commodité offertes par la technologie, tandis que les préoccupations concernant la protection de la vie privée, la transparence et la sécurité, qui sont des questions centrales, reçoivent relativement peu d'attention. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptabilité sociale. Si ces problèmes ne sont pas résolus de manière adéquate, le débat sur le fait que l'IA soit "bienveillante" ou "malveillante" deviendra de plus en plus prononcé, tandis que les géants centralisés, poussés par leur instinct de profit, manquent souvent de la motivation suffisante pour faire face activement à ces défis.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont émergé sur les blockchains dominantes. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les maillons clés et les infrastructures dépendent encore des services cloud centralisés, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits AI du monde Web2, l'AI on-chain reste limitée en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, et la profondeur et l'ampleur de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision d'une IA décentralisée, permettant à la blockchain de supporter des applications AI à grande échelle de manière sécurisée, efficace et démocratique, et de rivaliser en termes de performance avec les solutions centralisées, nous devons concevoir une blockchain Layer 1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la démocratie de gouvernance et la sécurité des données, favorisant le développement florissant de l'écosystème d'IA décentralisée.
Les caractéristiques clés de la couche AI Layer 1
AI Layer 1 en tant que blockchain spécialement conçue pour les applications d'IA, son architecture sous-jacente et son design de performance sont étroitement liés aux exigences des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème d'IA off-chain. Plus précisément, AI Layer 1 doit posséder les capacités clés suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace
Le cœur de l'AI Layer 1 réside dans la construction d'un réseau de partage de ressources ouvert pour la puissance de calcul, le stockage, etc. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la comptabilité du grand livre, les nœuds de l'AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, réaliser l'entraînement et l'inférence de modèles d'IA, mais aussi contribuer des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur les infrastructures d'IA. Cela impose des exigences plus élevées pour le consensus de base et le mécanisme d'incitation : l'AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans des tâches telles que l'inférence et l'entraînement de l'IA, réalisant ainsi la sécurité du réseau et la répartition efficace des ressources. Ce n'est qu'ainsi que l'on pourra garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente performance élevée et capacité de support des tâches hétérogènes
Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, exigent des performances de calcul et des capacités de traitement parallèle très élevées. De plus, l'écosystème d'IA off-chain doit souvent prendre en charge des types de tâches diversifiés et hétérogènes, y compris différentes structures de modèles, traitement des données, inférence, stockage et autres scénarios variés. La couche d'IA de niveau 1 doit être profondément optimisée au niveau de l'architecture sous-jacente pour répondre aux exigences de haut débit, de faible latence et de parallélisme élastique, tout en prévoyant une capacité de support natif pour les ressources de calcul hétérogènes, afin de garantir que toutes les tâches d'IA puissent s'exécuter efficacement, permettant une extension fluide allant de "tâches uniques" à "écosystèmes complexes et diversifiés".
Vérifiabilité et garantie de sortie fiable
AI Layer 1 doit non seulement prévenir les abus de modèles, les falsifications de données et autres risques de sécurité, mais aussi garantir la vérifiabilité et l'alignement des résultats de l'IA grâce à des mécanismes de base. En intégrant des technologies de pointe telles que les environnements d'exécution de confiance (TEE), les preuves à divulgation nulle de connaissance (ZK) et le calcul sécurisé multi-parties (MPC), la plateforme permet à chaque inférence de modèle, entraînement et traitement de données d'être indépendamment vérifiés, assurant l'équité et la transparence du système IA. De plus, cette vérifiabilité aide les utilisateurs à comprendre la logique et les fondements des sorties de l'IA, réalisant ainsi "ce que l'on obtient est ce que l'on souhaite", augmentant la confiance et la satisfaction des utilisateurs envers les produits IA.
Protection de la vie privée des données
Les applications d'IA impliquent souvent des données sensibles des utilisateurs. Dans des domaines tels que la finance, la santé et les réseaux sociaux, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 doit garantir la vérifiabilité tout en utilisant des technologies de traitement des données basées sur le cryptage, des protocoles de calcul de confidentialité et des systèmes de gestion des droits d'accès aux données. Cela garantit la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, prévenant efficacement les fuites et les abus de données, et éliminant les préoccupations des utilisateurs en matière de sécurité des données.
Puissante capacité de support et de développement de l'écosystème.
En tant qu'infrastructure de couche 1 native de l'IA, la plateforme doit non seulement posséder un avantage technologique, mais également fournir des outils de développement complets, un SDK intégré, un support opérationnel et des mécanismes d'incitation aux développeurs, opérateurs de nœuds, fournisseurs de services d'IA et autres participants à l'écosystème. En optimisant en permanence la disponibilité de la plateforme et l'expérience des développeurs, nous favorisons le déploiement d'applications IA natives variées et riches, réalisant ainsi la prospérité continue d'un écosystème d'IA décentralisé.
Sur la base de ce contexte et de ces attentes, cet article présentera en détail six projets représentatifs de l'AI Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en passant en revue les derniers développements du secteur, en analysant l'état actuel des projets et en explorant les tendances futures.
Sentient : Construire des modèles d'IA décentralisés open source et fidèles
Aperçu du projet
Sentient est une plateforme de protocole open source qui développe une blockchain AI Layer1. La phase initiale est Layer 2, puis elle sera migrée vers Layer 1(. En combinant l'AI Pipeline et la technologie blockchain, elle construit une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes de propriété des modèles, de suivi des appels et de distribution de valeur sur le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant ainsi aux modèles d'IA d'atteindre une structure de propriété on-chain, une transparence des appels et une distribution de valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits d'IA, favorisant ainsi un écosystème de réseau d'agents d'IA équitable et ouvert.
L'équipe de Sentient Foundation regroupe les meilleurs experts académiques, entrepreneurs en blockchain et ingénieurs du monde entier, s'engageant à construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent le professeur Pramod Viswanath de l'Université de Princeton et le professeur Himanshu Tyagi de l'Institut Indien de Science, respectivement responsables de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, co-fondateur de Polygon, dirige la stratégie blockchain et la disposition écologique. Les membres de l'équipe ont des antécédents dans des entreprises renommées telles que Meta, Coinbase, Polygon, ainsi que dans des institutions académiques de premier plan comme l'Université de Princeton et l'Institut Indien de Technologie, couvrant des domaines tels que l'IA/ML, le NLP, la vision par ordinateur, travaillant ensemble pour faire avancer le projet.
En tant que projet de deuxième génération de Sandeep Nailwal, co-fondateur de Polygon, Sentient a été lancé avec un halo de prestige, bénéficiant de ressources abondantes, de réseaux et d'une reconnaissance sur le marché, fournissant un solide soutien au développement du projet. Au milieu de 2024, Sentient a complété un financement de série seed de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, avec d'autres investisseurs tels que Delphi, Hashkey et une dizaine d'autres VC renommés.
![Biteye et PANews publient conjointement un rapport de recherche sur l'IA Layer1 : à la recherche d'un sol fertile pour DeAI off-chain])https://img-cdn.gateio.im/webp-social/moments-f4a64f13105f67371db1a93a52948756.webp(
) architecture de conception et couche d'application
Infrastructure
Architecture de base
L'architecture fondamentale de Sentient se compose de deux parties : le pipeline AI (AI Pipeline) et le système blockchain.
Les pipelines AI sont la base du développement et de l'entraînement des artefacts "AI loyal", comprenant deux processus clés :
Planification des données (Data Curation) : processus de sélection des données piloté par la communauté, destiné à l'alignement des modèles.
Formation à la fidélité (Loyalty Training) : garantir que le modèle maintienne un processus d'entraînement cohérent avec l'intention de la communauté.
Le système blockchain offre transparence et contrôle décentralisé pour les protocoles, garantissant la propriété des artefacts d'IA, le suivi de leur utilisation, la distribution des revenus et une gouvernance équitable. L'architecture spécifique se divise en quatre couches :
Couche de stockage : Stockage des poids du modèle et des informations d'enregistrement des empreintes digitales ;
Couche de distribution : entrée de l'appel de modèle contrôlée par le contrat d'autorisation ;
Couche d'accès : vérifie si l'utilisateur est autorisé via la preuve d'autorisation ;
Couche d'incitation : le contrat de routage des revenus attribue chaque paiement lors d'un appel aux entraîneurs, déployeurs et validateurs.
![Biteye et PANews publient conjointement un rapport de recherche sur AI Layer1 : à la recherche de terres fertiles pour DeAI off-chain]###https://img-cdn.gateio.im/webp-social/moments-a70b0aca9250ab65193d0094fa9b5641.webp(
)## Cadre de modèle OML
Le cadre OML (Ouvert Open, Monétisable Monetizable, Loyal Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native de l'IA, il possède les caractéristiques suivantes :
Ouvert : le modèle doit être open source, avec un code et une structure de données transparents, permettant à la communauté de reproduire, d'auditer et d'améliorer.
Monétisation : Chaque appel de modèle déclenche un flux de revenus, le contrat off-chain répartit les revenus entre les formateurs, les déployeurs et les validateurs.
Loyauté : Le modèle appartient à la communauté des contributeurs, la direction des mises à jour et la gouvernance sont déterminées par le DAO, et son utilisation et sa modification sont contrôlées par des mécanismes cryptographiques.
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure de variété de faible dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie clé est :
Empreinte digitale : insérer un ensemble de paires clé-valeur query-response dissimulées pendant l'entraînement pour former une signature unique du modèle ;
Protocole de vérification de propriété : vérifiez si l'empreinte digitale est conservée via un détecteur tiers (Prover) sous forme de question de requête ;
Mécanisme d'appel autorisé : Avant l'appel, il est nécessaire d'obtenir le "jeton d'autorisation" délivré par le propriétaire du modèle, le système autorisera alors le modèle à décoder cette entrée et à renvoyer la réponse exacte.
Cette méthode permet de réaliser "appels autorisés basés sur le comportement + vérification d'appartenance" sans coût de re-chiffrement.
![Biteye et PANews publient conjointement un rapport de recherche sur l'AI Layer1 : à la recherche d'un terreau pour DeAI off-chain]###https://img-cdn.gateio.im/webp-social/moments-cf5f43c63b7ab154e2201c8d3531be8c.webp(
)## Cadre d'exécution sécurisé et de confirmation du modèle
Sentient utilise actuellement la sécurité hybride Melange : combinaison de l'authentification par empreintes digitales, de l'exécution TEE et du partage des bénéfices des contrats off-chain. La méthode par empreinte digitale est réalisée par OML 1.0, mettant l'accent sur la pensée de "sécurité optimiste (Optimistic Security)", c'est-à-dire que la conformité est présumée et les violations peuvent être détectées et sanctionnées.
Le mécanisme d'empreinte digitale est une mise en œuvre clé d'OML, qui permet au modèle de générer une signature unique pendant la phase d'entraînement en intégrant des paires de "questions-réponses" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi la copie et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant des environnements d'exécution de confiance (comme AWS Nitro Enclaves) pour s'assurer que les modèles ne répondent qu'aux demandes autorisées, empêchant ainsi les accès et les utilisations non autorisés. Bien que les TEE dépendent du matériel et présentent certains risques de sécurité, leurs avantages en termes de haute performance et de réactivité en font une solution privilégiée pour le déploiement actuel des modèles.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
12 J'aime
Récompense
12
5
Partager
Commentaire
0/400
AirdropChaser
· Il y a 6h
Je ne regarde plus, je fonce sur le concept d'IA.
Voir l'originalRépondre0
AirdropFreedom
· Il y a 6h
deai ? ai est fichu, non ?
Voir l'originalRépondre0
EyeOfTheTokenStorm
· Il y a 6h
Actions A sont tous en train de jouer, monter à bord maintenant c'est piégé.
Voir l'originalRépondre0
WhaleMistaker
· Il y a 7h
Le monopole, n'est-ce pas ? Il finira par s'effondrer.
Voir l'originalRépondre0
MoonMathMagic
· Il y a 7h
Est-ce que le Layer 1 peut contenir l'électricité de l'IA ?
Analyse approfondie de l'IA Layer1 : 6 grands projets pour enflammer le sol de DeAI
Rapport de recherche sur l'IA Layer1 : à la recherche d'un terrain fertile pour DeAI off-chain
Aperçu
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont continuellement poussé au développement rapide des modèles de langage de grande taille (LLM). Les LLM montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humaine, et même, dans certains cas, montrant un potentiel pour remplacer le travail humain. Cependant, le cœur de ces technologies est fermement contrôlé par un petit nombre de géants technologiques centralisés. Grâce à un capital solide et à un contrôle sur des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, ce qui rend extrêmement difficile pour la grande majorité des développeurs et des équipes d'innovation de rivaliser avec elles.
Dans le même temps, au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et la commodité offertes par la technologie, tandis que les préoccupations concernant la protection de la vie privée, la transparence et la sécurité, qui sont des questions centrales, reçoivent relativement peu d'attention. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptabilité sociale. Si ces problèmes ne sont pas résolus de manière adéquate, le débat sur le fait que l'IA soit "bienveillante" ou "malveillante" deviendra de plus en plus prononcé, tandis que les géants centralisés, poussés par leur instinct de profit, manquent souvent de la motivation suffisante pour faire face activement à ces défis.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont émergé sur les blockchains dominantes. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les maillons clés et les infrastructures dépendent encore des services cloud centralisés, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits AI du monde Web2, l'AI on-chain reste limitée en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, et la profondeur et l'ampleur de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision d'une IA décentralisée, permettant à la blockchain de supporter des applications AI à grande échelle de manière sécurisée, efficace et démocratique, et de rivaliser en termes de performance avec les solutions centralisées, nous devons concevoir une blockchain Layer 1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la démocratie de gouvernance et la sécurité des données, favorisant le développement florissant de l'écosystème d'IA décentralisée.
Les caractéristiques clés de la couche AI Layer 1
AI Layer 1 en tant que blockchain spécialement conçue pour les applications d'IA, son architecture sous-jacente et son design de performance sont étroitement liés aux exigences des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème d'IA off-chain. Plus précisément, AI Layer 1 doit posséder les capacités clés suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace Le cœur de l'AI Layer 1 réside dans la construction d'un réseau de partage de ressources ouvert pour la puissance de calcul, le stockage, etc. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la comptabilité du grand livre, les nœuds de l'AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, réaliser l'entraînement et l'inférence de modèles d'IA, mais aussi contribuer des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur les infrastructures d'IA. Cela impose des exigences plus élevées pour le consensus de base et le mécanisme d'incitation : l'AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans des tâches telles que l'inférence et l'entraînement de l'IA, réalisant ainsi la sécurité du réseau et la répartition efficace des ressources. Ce n'est qu'ainsi que l'on pourra garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente performance élevée et capacité de support des tâches hétérogènes Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, exigent des performances de calcul et des capacités de traitement parallèle très élevées. De plus, l'écosystème d'IA off-chain doit souvent prendre en charge des types de tâches diversifiés et hétérogènes, y compris différentes structures de modèles, traitement des données, inférence, stockage et autres scénarios variés. La couche d'IA de niveau 1 doit être profondément optimisée au niveau de l'architecture sous-jacente pour répondre aux exigences de haut débit, de faible latence et de parallélisme élastique, tout en prévoyant une capacité de support natif pour les ressources de calcul hétérogènes, afin de garantir que toutes les tâches d'IA puissent s'exécuter efficacement, permettant une extension fluide allant de "tâches uniques" à "écosystèmes complexes et diversifiés".
Vérifiabilité et garantie de sortie fiable AI Layer 1 doit non seulement prévenir les abus de modèles, les falsifications de données et autres risques de sécurité, mais aussi garantir la vérifiabilité et l'alignement des résultats de l'IA grâce à des mécanismes de base. En intégrant des technologies de pointe telles que les environnements d'exécution de confiance (TEE), les preuves à divulgation nulle de connaissance (ZK) et le calcul sécurisé multi-parties (MPC), la plateforme permet à chaque inférence de modèle, entraînement et traitement de données d'être indépendamment vérifiés, assurant l'équité et la transparence du système IA. De plus, cette vérifiabilité aide les utilisateurs à comprendre la logique et les fondements des sorties de l'IA, réalisant ainsi "ce que l'on obtient est ce que l'on souhaite", augmentant la confiance et la satisfaction des utilisateurs envers les produits IA.
Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs. Dans des domaines tels que la finance, la santé et les réseaux sociaux, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 doit garantir la vérifiabilité tout en utilisant des technologies de traitement des données basées sur le cryptage, des protocoles de calcul de confidentialité et des systèmes de gestion des droits d'accès aux données. Cela garantit la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, prévenant efficacement les fuites et les abus de données, et éliminant les préoccupations des utilisateurs en matière de sécurité des données.
Puissante capacité de support et de développement de l'écosystème. En tant qu'infrastructure de couche 1 native de l'IA, la plateforme doit non seulement posséder un avantage technologique, mais également fournir des outils de développement complets, un SDK intégré, un support opérationnel et des mécanismes d'incitation aux développeurs, opérateurs de nœuds, fournisseurs de services d'IA et autres participants à l'écosystème. En optimisant en permanence la disponibilité de la plateforme et l'expérience des développeurs, nous favorisons le déploiement d'applications IA natives variées et riches, réalisant ainsi la prospérité continue d'un écosystème d'IA décentralisé.
Sur la base de ce contexte et de ces attentes, cet article présentera en détail six projets représentatifs de l'AI Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en passant en revue les derniers développements du secteur, en analysant l'état actuel des projets et en explorant les tendances futures.
Sentient : Construire des modèles d'IA décentralisés open source et fidèles
Aperçu du projet
Sentient est une plateforme de protocole open source qui développe une blockchain AI Layer1. La phase initiale est Layer 2, puis elle sera migrée vers Layer 1(. En combinant l'AI Pipeline et la technologie blockchain, elle construit une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes de propriété des modèles, de suivi des appels et de distribution de valeur sur le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant ainsi aux modèles d'IA d'atteindre une structure de propriété on-chain, une transparence des appels et une distribution de valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits d'IA, favorisant ainsi un écosystème de réseau d'agents d'IA équitable et ouvert.
L'équipe de Sentient Foundation regroupe les meilleurs experts académiques, entrepreneurs en blockchain et ingénieurs du monde entier, s'engageant à construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent le professeur Pramod Viswanath de l'Université de Princeton et le professeur Himanshu Tyagi de l'Institut Indien de Science, respectivement responsables de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, co-fondateur de Polygon, dirige la stratégie blockchain et la disposition écologique. Les membres de l'équipe ont des antécédents dans des entreprises renommées telles que Meta, Coinbase, Polygon, ainsi que dans des institutions académiques de premier plan comme l'Université de Princeton et l'Institut Indien de Technologie, couvrant des domaines tels que l'IA/ML, le NLP, la vision par ordinateur, travaillant ensemble pour faire avancer le projet.
En tant que projet de deuxième génération de Sandeep Nailwal, co-fondateur de Polygon, Sentient a été lancé avec un halo de prestige, bénéficiant de ressources abondantes, de réseaux et d'une reconnaissance sur le marché, fournissant un solide soutien au développement du projet. Au milieu de 2024, Sentient a complété un financement de série seed de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, avec d'autres investisseurs tels que Delphi, Hashkey et une dizaine d'autres VC renommés.
![Biteye et PANews publient conjointement un rapport de recherche sur l'IA Layer1 : à la recherche d'un sol fertile pour DeAI off-chain])https://img-cdn.gateio.im/webp-social/moments-f4a64f13105f67371db1a93a52948756.webp(
) architecture de conception et couche d'application
Infrastructure
Architecture de base
L'architecture fondamentale de Sentient se compose de deux parties : le pipeline AI (AI Pipeline) et le système blockchain.
Les pipelines AI sont la base du développement et de l'entraînement des artefacts "AI loyal", comprenant deux processus clés :
Le système blockchain offre transparence et contrôle décentralisé pour les protocoles, garantissant la propriété des artefacts d'IA, le suivi de leur utilisation, la distribution des revenus et une gouvernance équitable. L'architecture spécifique se divise en quatre couches :
![Biteye et PANews publient conjointement un rapport de recherche sur AI Layer1 : à la recherche de terres fertiles pour DeAI off-chain]###https://img-cdn.gateio.im/webp-social/moments-a70b0aca9250ab65193d0094fa9b5641.webp(
)## Cadre de modèle OML
Le cadre OML (Ouvert Open, Monétisable Monetizable, Loyal Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native de l'IA, il possède les caractéristiques suivantes :
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure de variété de faible dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie clé est :
Cette méthode permet de réaliser "appels autorisés basés sur le comportement + vérification d'appartenance" sans coût de re-chiffrement.
![Biteye et PANews publient conjointement un rapport de recherche sur l'AI Layer1 : à la recherche d'un terreau pour DeAI off-chain]###https://img-cdn.gateio.im/webp-social/moments-cf5f43c63b7ab154e2201c8d3531be8c.webp(
)## Cadre d'exécution sécurisé et de confirmation du modèle
Sentient utilise actuellement la sécurité hybride Melange : combinaison de l'authentification par empreintes digitales, de l'exécution TEE et du partage des bénéfices des contrats off-chain. La méthode par empreinte digitale est réalisée par OML 1.0, mettant l'accent sur la pensée de "sécurité optimiste (Optimistic Security)", c'est-à-dire que la conformité est présumée et les violations peuvent être détectées et sanctionnées.
Le mécanisme d'empreinte digitale est une mise en œuvre clé d'OML, qui permet au modèle de générer une signature unique pendant la phase d'entraînement en intégrant des paires de "questions-réponses" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi la copie et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant des environnements d'exécution de confiance (comme AWS Nitro Enclaves) pour s'assurer que les modèles ne répondent qu'aux demandes autorisées, empêchant ainsi les accès et les utilisations non autorisés. Bien que les TEE dépendent du matériel et présentent certains risques de sécurité, leurs avantages en termes de haute performance et de réactivité en font une solution privilégiée pour le déploiement actuel des modèles.