De Filecoin, Arweave à Walrus, Shelby : l'évolution du stockage décentralisé et perspectives d'avenir
Le stockage a longtemps été l'un des secteurs les plus en vogue de l'industrie de la blockchain. Filecoin, en tant que projet phare du dernier marché haussier, a vu sa capitalisation boursière dépasser les dix milliards de dollars. Arweave, qui se positionne en parallèle, met en avant le stockage permanent comme argument de vente, atteignant une capitalisation boursière maximale de 3,5 milliards de dollars. Cependant, avec la disponibilité du stockage de données froides remise en question, les perspectives de développement du stockage décentralisé sont également mises en doute. Récemment, l'émergence de Walrus a apporté une nouvelle attention à ce secteur de stockage longtemps silencieux, tandis que le projet Shelby, lancé en partenariat avec Aptos et Jump Crypto, tente de réaliser de nouvelles percées dans le domaine du stockage de données chaudes. Cet article analysera l'évolution du stockage décentralisé à partir de ces projets représentatifs et explorera ses perspectives de développement futur.
FIL : l'essence des cryptomonnaies sous l'armure du stockage
Filecoin est l'un des premiers projets de blockchain à avoir émergé, dont la direction de développement tourne autour de la Décentralisation. Filecoin tente de passer du stockage centralisé au stockage décentralisé, mais les compromis faits pour atteindre cette décentralisation sont également devenus des points douloureux que les projets ultérieurs tentent de résoudre.
IPFS : architecture Décentralisation, mais limitée par des goulots d'étranglement de transmission
Le système de fichiers interplanétaire (IPFS) ( a été lancé en 2015, visant à révolutionner le protocole HTTP traditionnel grâce à l'adressage par contenu. Cependant, le principal inconvénient d'IPFS est sa lenteur d'accès. À une époque où les fournisseurs de services de données traditionnels peuvent atteindre des temps de réponse en millisecondes, IPFS nécessite toujours plusieurs secondes pour accéder à un fichier, ce qui rend difficile sa promotion dans les applications pratiques.
IPFS est principalement adapté aux "données froides", c'est-à-dire à un contenu statique qui ne change pas souvent. Cependant, lorsqu'il s'agit de traiter des données chaudes, comme des pages web dynamiques, des jeux en ligne ou des applications IA, le protocole P2P n'offre pas d'avantage significatif par rapport aux CDN traditionnels.
Bien que l'IPFS ne soit pas lui-même une blockchain, le concept de conception basé sur le DAG (Directed Acyclic Graph) ) est fortement aligné avec de nombreuses blockchains et protocoles Web3, ce qui le rend adapté en tant que cadre de construction sous-jacent pour les blockchains.
( Logique des pièces minières sous le manteau de stockage
Dans le modèle économique des tokens de Filecoin, il y a principalement trois rôles : les utilisateurs paient des frais pour stocker des données ; les mineurs de stockage obtiennent une incitation en tokens pour le stockage des données des utilisateurs ; les mineurs de récupération fournissent des données lorsque les utilisateurs en ont besoin et obtiennent une incitation.
Ce modèle présente un potentiel d'abus. Les mineurs de stockage peuvent remplir des données inutiles après avoir fourni de l'espace de stockage pour obtenir des récompenses. Comme ces données inutiles ne seront pas récupérées, même si elles sont perdues, cela ne déclenchera pas le mécanisme de confiscation. Cela permet aux mineurs de stockage de supprimer les données inutiles et de répéter ce processus. Le consensus de preuve de réplication de Filecoin ne peut garantir que les données des utilisateurs n'ont pas été supprimées de manière non autorisée, mais ne peut pas empêcher les mineurs de remplir des données inutiles.
Le fonctionnement de Filecoin repose en grande partie sur l'investissement continu des mineurs dans l'économie des tokens, plutôt que sur la demande réelle des utilisateurs finaux pour le stockage décentralisé. Bien que le projet continue d'évoluer, à ce stade, la construction de l'écosystème de Filecoin correspond davantage à la "logique des mineurs" qu'à la définition des projets de stockage "pilotés par les applications".
Arweave : réussi grâce au long-termisme, échoué à cause du long-termisme
Si l'objectif de conception de Filecoin est de construire un "nuage de données" décentralisé, incitatif et prouvable, alors Arweave va dans une autre direction extrême en matière de stockage : fournir la capacité de stockage permanent des données. Arweave n'essaie pas de construire une plateforme de calcul distribué ; tout son système repose sur une hypothèse centrale : les données importantes devraient être stockées une fois pour toutes et conservées sur le réseau pour toujours. Ce long-terme extrême fait qu'Arweave diffère considérablement de Filecoin, tant au niveau des mécanismes que des modèles d'incitation, des exigences matérielles aux récits.
Arweave utilise le Bitcoin comme objet d'étude, essayant d'optimiser en permanence son réseau de stockage permanent sur de longues périodes mesurées en années. Arweave ne se soucie pas du marketing, ni des concurrents ou des tendances du marché. Elle avance simplement sur le chemin de l'itération de l'architecture réseau, même si personne ne s'y intéresse, car c'est la nature même de l'équipe de développement d'Arweave : le long terme. Grâce au long terme, Arweave a été fortement plébiscité lors du dernier marché haussier ; et à cause du long terme, même après avoir chuté au fond du trou, Arweave pourrait encore survivre à plusieurs cycles haussiers et baissiers. Mais la question est de savoir si le stockage décentralisé de demain aura une place pour Arweave ? La valeur de l'existence du stockage permanent ne peut être prouvée que par le temps.
Le réseau principal d'Arweave est passé de la version 1.5 à la version 2.9 récemment. Bien qu'il ait perdu de l'intérêt sur le marché, il s'efforce d'impliquer un plus large éventail de mineurs avec le coût minimal, et d'inciter les mineurs à stocker au maximum des données, ce qui améliore continuellement la robustesse de l'ensemble du réseau. Arweave, conscient de son inadéquation aux préférences du marché, adopte une approche conservatrice, ne s'alliant pas aux communautés de mineurs, avec un écosystème complètement stagnant, mettant à niveau le réseau principal à un coût minimal tout en continuant à abaisser le seuil matériel sans compromettre la sécurité du réseau.
) Retour sur le chemin de mise à niveau de 1,5 à 2,9
La version 1.5 d'Arweave a révélé une vulnérabilité permettant aux mineurs de s'appuyer sur l'empilement de GPU plutôt que sur un véritable stockage pour optimiser leurs chances de bloc. Pour freiner cette tendance, la version 1.7 a introduit l'algorithme RandomX, limitant l'utilisation de puissance de calcul spécialisée et exigeant la participation de CPU génériques au minage, afin d'atténuer la décentralisation de la puissance de calcul.
Dans la version 2.0, Arweave adopte SPoA, transformant la preuve de données en un chemin succinct de structure d'arbre de Merkle, et introduit les transactions de format 2 pour réduire la charge de synchronisation. Cette architecture atténue la pression sur la bande passante du réseau, augmentant considérablement la capacité de collaboration des nœuds. Cependant, certains mineurs peuvent encore éviter la responsabilité de possession de données réelles grâce à une stratégie de pools de stockage centralisés à haute vitesse.
Pour corriger ce biais, la version 2.4 a introduit le mécanisme SPoRA, qui intègre un index global et un accès aléatoire lent aux hachages, obligeant les mineurs à détenir réellement des blocs de données pour participer à la production de blocs valides, réduisant ainsi l'effet d'accumulation de puissance de calcul. En conséquence, les mineurs commencent à se concentrer sur la vitesse d'accès au stockage, ce qui stimule l'application de SSD et de dispositifs de lecture/écriture à haute vitesse. La version 2.6 introduit une chaîne de hachage pour contrôler le rythme de production des blocs, équilibrant les rendements marginaux des équipements haute performance et offrant un espace de participation équitable aux petits et moyens mineurs.
Les versions suivantes renforcent encore les capacités de collaboration réseau et la diversité du stockage : la version 2.7 ajoute le minage collaboratif et le mécanisme de pool, améliorant la compétitivité des petits mineurs ; la version 2.8 introduit un mécanisme d'emballage complexe, permettant aux appareils à grande capacité et basse vitesse de participer de manière flexible ; et la version 2.9 introduit un nouveau processus d'emballage au format replica_2_9, augmentant considérablement l'efficacité et réduisant la dépendance au calcul, complétant ainsi le modèle de minage orienté données.
Dans l'ensemble, la voie de mise à niveau d'Arweave présente clairement sa stratégie à long terme axée sur le stockage : tout en résistant constamment à la tendance à la concentration de la puissance de calcul, elle continue de réduire les barrières à l'entrée, garantissant la possibilité de fonctionnement à long terme du protocole.
![D'FIL, Arweave à Walrus, Shelby : combien de temps encore avant la généralisation du stockage décentralisé ?]###https://img-cdn.gateio.im/webp-social/moments-1ebd281e65dedbe6216b5e1496a2963e.webp###
Walrus : embrasser les données chaudes est-il un battage médiatique ou une richesse cachée ?
La conception de Walrus est complètement différente de celle de Filecoin et Arweave. Le point de départ de Filecoin est de créer un système de stockage décentralisé et vérifiable, au prix d'un stockage de données froides ; le point de départ d'Arweave est de bâtir une bibliothèque d'Alexandrie on-chain capable de stocker des données de manière permanente, au prix d'un nombre trop limité de scénarios ; le point de départ de Walrus est d'optimiser les coûts de stockage pour un protocole de stockage de données chaudes.
( Magic modification of error-correcting codes : innovation in costs or old wine in new bottles ?
En ce qui concerne la conception des coûts de stockage, Walrus estime que les dépenses de stockage de Filecoin par rapport à celles d'Arweave sont déraisonnables. Les deux dernières utilisent une architecture de réplication complète, dont l'avantage principal réside dans le fait que chaque nœud détient une copie complète, offrant ainsi une forte capacité de tolérance aux pannes et une indépendance entre les nœuds. Ce type d'architecture garantit que même si certains nœuds sont hors ligne, le réseau conserve une disponibilité des données. Cependant, cela signifie également que le système nécessite une redondance de plusieurs copies pour maintenir sa robustesse, ce qui augmente les coûts de stockage. En particulier dans la conception d'Arweave, le mécanisme de consensus encourage lui-même le stockage redondant par les nœuds pour améliorer la sécurité des données. En revanche, Filecoin est plus flexible en matière de contrôle des coûts, mais cela implique que certains stockages à faible coût peuvent présenter un risque plus élevé de perte de données. Walrus essaie de trouver un équilibre entre les deux, son mécanisme contrôlant les coûts de réplication tout en renforçant la disponibilité par une redondance structurée, établissant ainsi un nouveau compromis entre la disponibilité des données et l'efficacité des coûts.
La technologie Redstuff, créée par Walrus, est la clé pour réduire la redondance des nœuds. Elle provient de l'encodage Reed-Solomon)RS###. L'encodage RS est un algorithme de code de correction d'erreurs très traditionnel. Le code de correction d'erreurs est une technique qui permet de doubler un ensemble de données en ajoutant des fragments redondants(erasure code), ce qui peut être utilisé pour reconstruire les données d'origine. Des CD-ROM aux communications par satellite en passant par les codes QR, il est fréquemment utilisé dans la vie quotidienne.
Les codes d'effacement permettent aux utilisateurs d'obtenir un bloc, par exemple de 1 Mo, puis de "l'agrandir" à 2 Mo, où le Mo supplémentaire est constitué de données spéciales appelées codes d'effacement. Si un octet du bloc est perdu, l'utilisateur peut facilement récupérer ces octets grâce au code. Même si jusqu'à 1 Mo de bloc est perdu, l'ensemble du bloc peut être récupéré. La même technologie permet aux ordinateurs de lire toutes les données d'un CD-ROM, même si celui-ci est endommagé.
Le code RS est actuellement le plus couramment utilisé. La méthode de mise en œuvre consiste à partir de k blocs d'information, à construire des polynômes connexes, et à les évaluer à différentes coordonnées x pour obtenir des blocs codés. En utilisant des codes d'effacement RS, la probabilité de perdre de grands blocs de données par échantillonnage aléatoire est très faible.
Quelle est la caractéristique principale de l'algorithme de codage RedStuff ? En améliorant l'algorithme de codage de correction d'erreurs, Walrus peut encoder rapidement et de manière robuste des blocs de données non structurées en fragments plus petits, qui sont stockés de manière distribuée dans un réseau de nœuds de stockage. Même si jusqu'à deux tiers des fragments sont perdus, il est possible de reconstruire rapidement les blocs de données d'origine à partir de fragments partiels. Cela devient possible tout en maintenant un facteur de réplication de seulement 4 à 5 fois.
Il est donc raisonnable de définir Walrus comme un protocole léger de redondance et de récupération redessiné autour d'un scénario de Décentralisation. Par rapport aux codes de correction d'erreurs traditionnels ( comme Reed-Solomon ), RedStuff ne recherche plus une stricte cohérence mathématique, mais a plutôt effectué des compromis réalistes concernant la distribution des données, la vérification du stockage et le coût de calcul. Ce modèle abandonne le mécanisme de décodage instantané requis par la planification centralisée, et opte plutôt pour une vérification des nœuds via Proof en chaîne pour déterminer s'ils détiennent des copies spécifiques des données, s'adaptant ainsi à une structure de réseau plus dynamique et marginalisée.
Le cœur de la conception de RedStuff consiste à diviser les données en deux catégories : les "tranches principales" et les "tranches secondaires". Les tranches principales sont utilisées pour restaurer les données d'origine, leur génération et leur distribution étant soumises à des contraintes strictes, le seuil de restauration étant de f+1, et nécessitant 2f+1 signatures comme garantie de disponibilité ; les tranches secondaires sont générées par des opérations simples comme la combinaison par XOR, leur rôle étant de fournir une tolérance aux pannes élastique et d'améliorer la robustesse globale du système. Cette structure réduit essentiellement les exigences de cohérence des données - permettant à différents nœuds de stocker temporairement différentes versions des données, mettant l'accent sur la voie pratique de la "cohérence finale". Bien que similaire à l'exigence assouplie des blocs de retour en arrière dans des systèmes comme Arweave, ayant obtenu un certain effet sur la réduction de la charge du réseau, elle affaiblit également la disponibilité immédiate des données et la garantie d'intégrité.
Il ne faut pas négliger que, bien que RedStuff ait réalisé un stockage efficace dans des environnements à faible puissance de calcul et faible bande passante, il reste essentiellement une "variante" d'un système de codes de correction d'erreurs. Il sacrifie une partie de la détermination de la lecture des données pour obtenir un contrôle des coûts et une scalabilité dans un environnement décentralisé. Cependant, à un niveau d'application, il reste à voir si cette architecture peut soutenir des scénarios de données à grande échelle et à haute fréquence d'interaction. De plus, RedStuff n'a pas réellement franchi le goulet d'étranglement du calcul de codage qui existe depuis longtemps dans les codes de correction d'erreurs, mais a plutôt évité les points de couplage élevés de l'architecture traditionnelle grâce à des stratégies structurelles, son innovation se manifestant davantage dans l'optimisation combinatoire côté ingénierie, plutôt que dans une rupture au niveau des algorithmes fondamentaux.
Ainsi, RedStuff ressemble davantage à une "révision raisonnable" de l'environnement réel actuel de la Décentralisation du stockage. Il apporte effectivement des améliorations en termes de coûts de redondance et de charge d'exploitation, permettant aux dispositifs en périphérie et aux nœuds non hautes performances de participer aux tâches de stockage de données. Cependant, dans les scénarios commerciaux nécessitant une application à grande échelle, une adaptation de calcul général et des exigences de cohérence plus élevées, ses limites de capacité restent assez évidentes. Cela fait de l'innovation de Walrus une adaptation aux systèmes technologiques existants, plutôt qu'une percée décisive pour promouvoir le transfert du paradigme de stockage décentralisé.
( Sui et Walrus : une blockchain publique haute performance peut stimuler l'utilisation du stockage
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
14 J'aime
Récompense
14
4
Partager
Commentaire
0/400
MEVHunterLucky
· 07-07 06:06
Ah, tu es toujours en train de spéculer sur le secteur du stockage ?
Voir l'originalRépondre0
OnchainHolmes
· 07-07 06:06
Fil ne parvient même pas à gérer le stockage à froid, le nouveau produit peut-il fonctionner ?
Voir l'originalRépondre0
ProxyCollector
· 07-07 05:52
C'est à peu près tout ce qu'il y a à dire sur le domaine du stockage.
Voir l'originalRépondre0
MondayYoloFridayCry
· 07-07 05:44
Les données froides dans l'univers de la cryptomonnaie sont vraiment un fléau.
L'évolution du stockage décentralisé : les transformations technologiques de Filecoin à Walrus et les perspectives d'avenir.
De Filecoin, Arweave à Walrus, Shelby : l'évolution du stockage décentralisé et perspectives d'avenir
Le stockage a longtemps été l'un des secteurs les plus en vogue de l'industrie de la blockchain. Filecoin, en tant que projet phare du dernier marché haussier, a vu sa capitalisation boursière dépasser les dix milliards de dollars. Arweave, qui se positionne en parallèle, met en avant le stockage permanent comme argument de vente, atteignant une capitalisation boursière maximale de 3,5 milliards de dollars. Cependant, avec la disponibilité du stockage de données froides remise en question, les perspectives de développement du stockage décentralisé sont également mises en doute. Récemment, l'émergence de Walrus a apporté une nouvelle attention à ce secteur de stockage longtemps silencieux, tandis que le projet Shelby, lancé en partenariat avec Aptos et Jump Crypto, tente de réaliser de nouvelles percées dans le domaine du stockage de données chaudes. Cet article analysera l'évolution du stockage décentralisé à partir de ces projets représentatifs et explorera ses perspectives de développement futur.
FIL : l'essence des cryptomonnaies sous l'armure du stockage
Filecoin est l'un des premiers projets de blockchain à avoir émergé, dont la direction de développement tourne autour de la Décentralisation. Filecoin tente de passer du stockage centralisé au stockage décentralisé, mais les compromis faits pour atteindre cette décentralisation sont également devenus des points douloureux que les projets ultérieurs tentent de résoudre.
IPFS : architecture Décentralisation, mais limitée par des goulots d'étranglement de transmission
Le système de fichiers interplanétaire (IPFS) ( a été lancé en 2015, visant à révolutionner le protocole HTTP traditionnel grâce à l'adressage par contenu. Cependant, le principal inconvénient d'IPFS est sa lenteur d'accès. À une époque où les fournisseurs de services de données traditionnels peuvent atteindre des temps de réponse en millisecondes, IPFS nécessite toujours plusieurs secondes pour accéder à un fichier, ce qui rend difficile sa promotion dans les applications pratiques.
IPFS est principalement adapté aux "données froides", c'est-à-dire à un contenu statique qui ne change pas souvent. Cependant, lorsqu'il s'agit de traiter des données chaudes, comme des pages web dynamiques, des jeux en ligne ou des applications IA, le protocole P2P n'offre pas d'avantage significatif par rapport aux CDN traditionnels.
Bien que l'IPFS ne soit pas lui-même une blockchain, le concept de conception basé sur le DAG (Directed Acyclic Graph) ) est fortement aligné avec de nombreuses blockchains et protocoles Web3, ce qui le rend adapté en tant que cadre de construction sous-jacent pour les blockchains.
( Logique des pièces minières sous le manteau de stockage
Dans le modèle économique des tokens de Filecoin, il y a principalement trois rôles : les utilisateurs paient des frais pour stocker des données ; les mineurs de stockage obtiennent une incitation en tokens pour le stockage des données des utilisateurs ; les mineurs de récupération fournissent des données lorsque les utilisateurs en ont besoin et obtiennent une incitation.
Ce modèle présente un potentiel d'abus. Les mineurs de stockage peuvent remplir des données inutiles après avoir fourni de l'espace de stockage pour obtenir des récompenses. Comme ces données inutiles ne seront pas récupérées, même si elles sont perdues, cela ne déclenchera pas le mécanisme de confiscation. Cela permet aux mineurs de stockage de supprimer les données inutiles et de répéter ce processus. Le consensus de preuve de réplication de Filecoin ne peut garantir que les données des utilisateurs n'ont pas été supprimées de manière non autorisée, mais ne peut pas empêcher les mineurs de remplir des données inutiles.
Le fonctionnement de Filecoin repose en grande partie sur l'investissement continu des mineurs dans l'économie des tokens, plutôt que sur la demande réelle des utilisateurs finaux pour le stockage décentralisé. Bien que le projet continue d'évoluer, à ce stade, la construction de l'écosystème de Filecoin correspond davantage à la "logique des mineurs" qu'à la définition des projets de stockage "pilotés par les applications".
Arweave : réussi grâce au long-termisme, échoué à cause du long-termisme
Si l'objectif de conception de Filecoin est de construire un "nuage de données" décentralisé, incitatif et prouvable, alors Arweave va dans une autre direction extrême en matière de stockage : fournir la capacité de stockage permanent des données. Arweave n'essaie pas de construire une plateforme de calcul distribué ; tout son système repose sur une hypothèse centrale : les données importantes devraient être stockées une fois pour toutes et conservées sur le réseau pour toujours. Ce long-terme extrême fait qu'Arweave diffère considérablement de Filecoin, tant au niveau des mécanismes que des modèles d'incitation, des exigences matérielles aux récits.
Arweave utilise le Bitcoin comme objet d'étude, essayant d'optimiser en permanence son réseau de stockage permanent sur de longues périodes mesurées en années. Arweave ne se soucie pas du marketing, ni des concurrents ou des tendances du marché. Elle avance simplement sur le chemin de l'itération de l'architecture réseau, même si personne ne s'y intéresse, car c'est la nature même de l'équipe de développement d'Arweave : le long terme. Grâce au long terme, Arweave a été fortement plébiscité lors du dernier marché haussier ; et à cause du long terme, même après avoir chuté au fond du trou, Arweave pourrait encore survivre à plusieurs cycles haussiers et baissiers. Mais la question est de savoir si le stockage décentralisé de demain aura une place pour Arweave ? La valeur de l'existence du stockage permanent ne peut être prouvée que par le temps.
Le réseau principal d'Arweave est passé de la version 1.5 à la version 2.9 récemment. Bien qu'il ait perdu de l'intérêt sur le marché, il s'efforce d'impliquer un plus large éventail de mineurs avec le coût minimal, et d'inciter les mineurs à stocker au maximum des données, ce qui améliore continuellement la robustesse de l'ensemble du réseau. Arweave, conscient de son inadéquation aux préférences du marché, adopte une approche conservatrice, ne s'alliant pas aux communautés de mineurs, avec un écosystème complètement stagnant, mettant à niveau le réseau principal à un coût minimal tout en continuant à abaisser le seuil matériel sans compromettre la sécurité du réseau.
) Retour sur le chemin de mise à niveau de 1,5 à 2,9
La version 1.5 d'Arweave a révélé une vulnérabilité permettant aux mineurs de s'appuyer sur l'empilement de GPU plutôt que sur un véritable stockage pour optimiser leurs chances de bloc. Pour freiner cette tendance, la version 1.7 a introduit l'algorithme RandomX, limitant l'utilisation de puissance de calcul spécialisée et exigeant la participation de CPU génériques au minage, afin d'atténuer la décentralisation de la puissance de calcul.
Dans la version 2.0, Arweave adopte SPoA, transformant la preuve de données en un chemin succinct de structure d'arbre de Merkle, et introduit les transactions de format 2 pour réduire la charge de synchronisation. Cette architecture atténue la pression sur la bande passante du réseau, augmentant considérablement la capacité de collaboration des nœuds. Cependant, certains mineurs peuvent encore éviter la responsabilité de possession de données réelles grâce à une stratégie de pools de stockage centralisés à haute vitesse.
Pour corriger ce biais, la version 2.4 a introduit le mécanisme SPoRA, qui intègre un index global et un accès aléatoire lent aux hachages, obligeant les mineurs à détenir réellement des blocs de données pour participer à la production de blocs valides, réduisant ainsi l'effet d'accumulation de puissance de calcul. En conséquence, les mineurs commencent à se concentrer sur la vitesse d'accès au stockage, ce qui stimule l'application de SSD et de dispositifs de lecture/écriture à haute vitesse. La version 2.6 introduit une chaîne de hachage pour contrôler le rythme de production des blocs, équilibrant les rendements marginaux des équipements haute performance et offrant un espace de participation équitable aux petits et moyens mineurs.
Les versions suivantes renforcent encore les capacités de collaboration réseau et la diversité du stockage : la version 2.7 ajoute le minage collaboratif et le mécanisme de pool, améliorant la compétitivité des petits mineurs ; la version 2.8 introduit un mécanisme d'emballage complexe, permettant aux appareils à grande capacité et basse vitesse de participer de manière flexible ; et la version 2.9 introduit un nouveau processus d'emballage au format replica_2_9, augmentant considérablement l'efficacité et réduisant la dépendance au calcul, complétant ainsi le modèle de minage orienté données.
Dans l'ensemble, la voie de mise à niveau d'Arweave présente clairement sa stratégie à long terme axée sur le stockage : tout en résistant constamment à la tendance à la concentration de la puissance de calcul, elle continue de réduire les barrières à l'entrée, garantissant la possibilité de fonctionnement à long terme du protocole.
![D'FIL, Arweave à Walrus, Shelby : combien de temps encore avant la généralisation du stockage décentralisé ?]###https://img-cdn.gateio.im/webp-social/moments-1ebd281e65dedbe6216b5e1496a2963e.webp###
Walrus : embrasser les données chaudes est-il un battage médiatique ou une richesse cachée ?
La conception de Walrus est complètement différente de celle de Filecoin et Arweave. Le point de départ de Filecoin est de créer un système de stockage décentralisé et vérifiable, au prix d'un stockage de données froides ; le point de départ d'Arweave est de bâtir une bibliothèque d'Alexandrie on-chain capable de stocker des données de manière permanente, au prix d'un nombre trop limité de scénarios ; le point de départ de Walrus est d'optimiser les coûts de stockage pour un protocole de stockage de données chaudes.
( Magic modification of error-correcting codes : innovation in costs or old wine in new bottles ?
En ce qui concerne la conception des coûts de stockage, Walrus estime que les dépenses de stockage de Filecoin par rapport à celles d'Arweave sont déraisonnables. Les deux dernières utilisent une architecture de réplication complète, dont l'avantage principal réside dans le fait que chaque nœud détient une copie complète, offrant ainsi une forte capacité de tolérance aux pannes et une indépendance entre les nœuds. Ce type d'architecture garantit que même si certains nœuds sont hors ligne, le réseau conserve une disponibilité des données. Cependant, cela signifie également que le système nécessite une redondance de plusieurs copies pour maintenir sa robustesse, ce qui augmente les coûts de stockage. En particulier dans la conception d'Arweave, le mécanisme de consensus encourage lui-même le stockage redondant par les nœuds pour améliorer la sécurité des données. En revanche, Filecoin est plus flexible en matière de contrôle des coûts, mais cela implique que certains stockages à faible coût peuvent présenter un risque plus élevé de perte de données. Walrus essaie de trouver un équilibre entre les deux, son mécanisme contrôlant les coûts de réplication tout en renforçant la disponibilité par une redondance structurée, établissant ainsi un nouveau compromis entre la disponibilité des données et l'efficacité des coûts.
La technologie Redstuff, créée par Walrus, est la clé pour réduire la redondance des nœuds. Elle provient de l'encodage Reed-Solomon)RS###. L'encodage RS est un algorithme de code de correction d'erreurs très traditionnel. Le code de correction d'erreurs est une technique qui permet de doubler un ensemble de données en ajoutant des fragments redondants(erasure code), ce qui peut être utilisé pour reconstruire les données d'origine. Des CD-ROM aux communications par satellite en passant par les codes QR, il est fréquemment utilisé dans la vie quotidienne.
Les codes d'effacement permettent aux utilisateurs d'obtenir un bloc, par exemple de 1 Mo, puis de "l'agrandir" à 2 Mo, où le Mo supplémentaire est constitué de données spéciales appelées codes d'effacement. Si un octet du bloc est perdu, l'utilisateur peut facilement récupérer ces octets grâce au code. Même si jusqu'à 1 Mo de bloc est perdu, l'ensemble du bloc peut être récupéré. La même technologie permet aux ordinateurs de lire toutes les données d'un CD-ROM, même si celui-ci est endommagé.
Le code RS est actuellement le plus couramment utilisé. La méthode de mise en œuvre consiste à partir de k blocs d'information, à construire des polynômes connexes, et à les évaluer à différentes coordonnées x pour obtenir des blocs codés. En utilisant des codes d'effacement RS, la probabilité de perdre de grands blocs de données par échantillonnage aléatoire est très faible.
Quelle est la caractéristique principale de l'algorithme de codage RedStuff ? En améliorant l'algorithme de codage de correction d'erreurs, Walrus peut encoder rapidement et de manière robuste des blocs de données non structurées en fragments plus petits, qui sont stockés de manière distribuée dans un réseau de nœuds de stockage. Même si jusqu'à deux tiers des fragments sont perdus, il est possible de reconstruire rapidement les blocs de données d'origine à partir de fragments partiels. Cela devient possible tout en maintenant un facteur de réplication de seulement 4 à 5 fois.
Il est donc raisonnable de définir Walrus comme un protocole léger de redondance et de récupération redessiné autour d'un scénario de Décentralisation. Par rapport aux codes de correction d'erreurs traditionnels ( comme Reed-Solomon ), RedStuff ne recherche plus une stricte cohérence mathématique, mais a plutôt effectué des compromis réalistes concernant la distribution des données, la vérification du stockage et le coût de calcul. Ce modèle abandonne le mécanisme de décodage instantané requis par la planification centralisée, et opte plutôt pour une vérification des nœuds via Proof en chaîne pour déterminer s'ils détiennent des copies spécifiques des données, s'adaptant ainsi à une structure de réseau plus dynamique et marginalisée.
Le cœur de la conception de RedStuff consiste à diviser les données en deux catégories : les "tranches principales" et les "tranches secondaires". Les tranches principales sont utilisées pour restaurer les données d'origine, leur génération et leur distribution étant soumises à des contraintes strictes, le seuil de restauration étant de f+1, et nécessitant 2f+1 signatures comme garantie de disponibilité ; les tranches secondaires sont générées par des opérations simples comme la combinaison par XOR, leur rôle étant de fournir une tolérance aux pannes élastique et d'améliorer la robustesse globale du système. Cette structure réduit essentiellement les exigences de cohérence des données - permettant à différents nœuds de stocker temporairement différentes versions des données, mettant l'accent sur la voie pratique de la "cohérence finale". Bien que similaire à l'exigence assouplie des blocs de retour en arrière dans des systèmes comme Arweave, ayant obtenu un certain effet sur la réduction de la charge du réseau, elle affaiblit également la disponibilité immédiate des données et la garantie d'intégrité.
Il ne faut pas négliger que, bien que RedStuff ait réalisé un stockage efficace dans des environnements à faible puissance de calcul et faible bande passante, il reste essentiellement une "variante" d'un système de codes de correction d'erreurs. Il sacrifie une partie de la détermination de la lecture des données pour obtenir un contrôle des coûts et une scalabilité dans un environnement décentralisé. Cependant, à un niveau d'application, il reste à voir si cette architecture peut soutenir des scénarios de données à grande échelle et à haute fréquence d'interaction. De plus, RedStuff n'a pas réellement franchi le goulet d'étranglement du calcul de codage qui existe depuis longtemps dans les codes de correction d'erreurs, mais a plutôt évité les points de couplage élevés de l'architecture traditionnelle grâce à des stratégies structurelles, son innovation se manifestant davantage dans l'optimisation combinatoire côté ingénierie, plutôt que dans une rupture au niveau des algorithmes fondamentaux.
Ainsi, RedStuff ressemble davantage à une "révision raisonnable" de l'environnement réel actuel de la Décentralisation du stockage. Il apporte effectivement des améliorations en termes de coûts de redondance et de charge d'exploitation, permettant aux dispositifs en périphérie et aux nœuds non hautes performances de participer aux tâches de stockage de données. Cependant, dans les scénarios commerciaux nécessitant une application à grande échelle, une adaptation de calcul général et des exigences de cohérence plus élevées, ses limites de capacité restent assez évidentes. Cela fait de l'innovation de Walrus une adaptation aux systèmes technologiques existants, plutôt qu'une percée décisive pour promouvoir le transfert du paradigme de stockage décentralisé.
( Sui et Walrus : une blockchain publique haute performance peut stimuler l'utilisation du stockage