Desde Filecoin, Arweave hasta Walrus, Shelby: la evolución del almacenamiento descentralizado y perspectivas futuras
El almacenamiento ha sido una de las pistas más populares en la industria de blockchain. Filecoin, como el proyecto líder de la última ronda de mercado alcista, tuvo una capitalización de mercado que superó los 10 mil millones de dólares en su momento. Arweave, que se posiciona como competidor, se destaca por su almacenamiento permanente, alcanzando una capitalización máxima de 3.5 mil millones de dólares. Sin embargo, a medida que la viabilidad del almacenamiento de datos fríos ha sido cuestionada, el futuro del almacenamiento descentralizado también ha sido puesto en duda. Recientemente, la aparición de Walrus ha traído nueva atención a este campo de almacenamiento que había estado en silencio por mucho tiempo, y el proyecto Shelby, lanzado en colaboración entre Aptos y Jump Crypto, también intenta lograr un nuevo avance en el almacenamiento de datos calientes. Este artículo analizará la trayectoria de desarrollo de estos proyectos representativos, explorando la evolución del almacenamiento descentralizado y discutiendo sus perspectivas de desarrollo futuro.
FIL: La esencia de la moneda minera bajo la capa de almacenamiento
Filecoin es uno de los primeros proyectos de blockchain que surgieron, y su desarrollo se centra en la Descentralización. Filecoin intenta transformar el almacenamiento centralizado en almacenamiento descentralizado, pero las concesiones realizadas en el proceso para lograr la descentralización se han convertido en puntos problemáticos que los proyectos posteriores intentan resolver.
IPFS: arquitectura Descentralización, pero limitada por cuellos de botella en la transmisión
IPFS(, el sistema de archivos interplanetario, fue lanzado en 2015 con el objetivo de revolucionar el protocolo HTTP tradicional mediante la dirección de contenido. Sin embargo, la mayor desventaja de IPFS es su velocidad de obtención extremadamente lenta. En una era donde los proveedores de servicios de datos tradicionales pueden alcanzar tiempos de respuesta en milisegundos, IPFS todavía requiere decenas de segundos para obtener un archivo, lo que dificulta su promoción en aplicaciones prácticas.
IPFS se adapta principalmente a "datos fríos", es decir, contenido estático que no cambia con frecuencia. Sin embargo, al manejar datos calientes, como páginas web dinámicas, juegos en línea o aplicaciones de IA, el protocolo P2P no presenta ventajas significativas en comparación con las CDN tradicionales.
A pesar de que IPFS en sí no es una blockchain, su diseño basado en un grafo acíclico dirigido )DAG( se alinea estrechamente con muchas cadenas públicas y protocolos Web3, lo que lo hace adecuado como marco de construcción subyacente para blockchain.
) lógica de monedas minadas bajo el manto de almacenamiento
En el modelo económico del token de FIL, hay tres roles principales: los usuarios pagan tarifas para almacenar datos; los mineros de almacenamiento obtienen incentivos en tokens por almacenar los datos de los usuarios; los mineros de recuperación proporcionan datos cuando los usuarios los necesitan y obtienen incentivos.
Este modelo presenta un potencial espacio de mala conducta. Los mineros de almacenamiento pueden, después de proporcionar espacio de almacenamiento, llenar datos basura para obtener recompensas. Dado que estos datos basura no serán recuperados, incluso si se pierden, no activarán el mecanismo de confiscación. Esto permite a los mineros de almacenamiento eliminar los datos basura y repetir este proceso. La prueba de replicación de Filecoin solo puede asegurar que los datos del usuario no se hayan eliminado de manera privada, pero no puede evitar que los mineros llenen datos basura.
El funcionamiento de Filecoin depende en gran medida de la inversión continua de los mineros en la economía de tokens, y no de la demanda real de los usuarios finales por el almacenamiento descentralizado. Aunque el proyecto sigue iterando, en esta etapa, la construcción del ecosistema de Filecoin se ajusta más a la definición de un proyecto de almacenamiento "impulsado por mineros" que a uno "impulsado por aplicaciones".
Arweave: nace del largo plazo, muere por el largo plazo
Si el objetivo de diseño de Filecoin es construir un "nube de datos" descentralizada que sea incentivada y verificable, entonces Arweave se dirige en la otra dirección extrema en almacenamiento: proporcionando la capacidad de almacenamiento permanente para los datos. Arweave no intenta construir una plataforma de computación distribuida, su sistema entero se desarrolla en torno a una suposición central: los datos importantes deben ser almacenados de una sola vez y permanecer eternamente en la red. Este extremo enfoque de largo plazo hace que Arweave difiera enormemente de Filecoin, desde los mecanismos hasta el modelo de incentivos, pasando por los requisitos de hardware y la narrativa.
Arweave toma a Bitcoin como objeto de estudio, intentando optimizar constantemente su red de almacenamiento permanente en ciclos largos medidos en años. Arweave no se preocupa por el marketing, ni por los competidores o las tendencias del mercado. Simplemente avanza en el camino de iterar su arquitectura de red, sin importar si nadie se interesa, porque esa es la esencia del equipo de desarrollo de Arweave: el largo plazo. Gracias al largo plazo, Arweave fue muy popular en el último mercado alcista; y también debido al largo plazo, incluso si cae al fondo, Arweave podría soportar varias rondas de mercados alcistas y bajistas. Pero, ¿tendrá Arweave un lugar en el futuro del almacenamiento descentralizado? El valor de la existencia del almacenamiento permanente solo puede ser probado por el tiempo.
La red principal de Arweave ha pasado de la versión 1.5 a la reciente 2.9. A pesar de haber perdido el interés del mercado, ha estado trabajando para permitir que un mayor número de mineros participe en la red con el menor costo posible, e incentivar a los mineros a almacenar datos al máximo, mejorando así la robustez de toda la red. Arweave, consciente de que no se ajusta a las preferencias del mercado, ha adoptado un enfoque conservador, no abrazando a la comunidad minera, con un ecosistema completamente estancado, actualizando la red principal con el menor costo posible y, sin comprometer la seguridad de la red, reduciendo continuamente el umbral de hardware.
Revisión del camino de actualización de 1.5-2.9
La versión 1.5 de Arweave expuso una vulnerabilidad que permite a los mineros depender de la acumulación de GPU en lugar de almacenamiento real para optimizar las probabilidades de bloque. Para frenar esta tendencia, la versión 1.7 introduce el algoritmo RandomX, limitando el uso de potencia de cálculo especializada y exigiendo la participación de CPU generales en la minería, debilitando así la centralización de la potencia de cálculo.
En la versión 2.0, Arweave adoptó SPoA, convirtiendo la prueba de datos en una ruta concisa de la estructura de árbol de Merkle, e introdujo transacciones de formato 2 para reducir la carga de sincronización. Esta arquitectura alivia la presión del ancho de banda de la red, mejorando significativamente la capacidad de colaboración de los nodos. Sin embargo, algunos mineros aún pueden eludir la responsabilidad de poseer datos reales mediante estrategias de pools de almacenamiento centralizados de alta velocidad.
Para corregir este sesgo, 2.4 lanzó el mecanismo SPoRA, introduciendo un índice global y acceso aleatorio lento a hashes, lo que obliga a los mineros a poseer realmente bloques de datos para participar en la producción efectiva de bloques, debilitando así el efecto de acumulación de poder de cómputo desde el mecanismo. El resultado es que los mineros comienzan a prestar atención a la velocidad de acceso al almacenamiento, impulsando la aplicación de SSD y dispositivos de lectura/escritura de alta velocidad. 2.6 introdujo una cadena de hashes para controlar el ritmo de producción de bloques, equilibrando el rendimiento marginal de los dispositivos de alto rendimiento y proporcionando un espacio de participación equitativo para los mineros pequeños y medianos.
Las versiones posteriores refuerzan aún más la capacidad de colaboración en red y la diversidad de almacenamiento: 2.7 añade minería colaborativa y mecanismos de pools, mejorando la competitividad de los pequeños mineros; 2.8 introduce un mecanismo de empaquetado compuesto, permitiendo que dispositivos de baja velocidad y gran capacidad participen de manera flexible; 2.9 introduce un nuevo proceso de empaquetado en formato replica_2_9, mejorando significativamente la eficiencia y reduciendo la dependencia computacional, completando el ciclo del modelo de minería orientado a datos.
En general, la ruta de actualización de Arweave presenta claramente su estrategia a largo plazo orientada al almacenamiento: mientras resiste constantemente la tendencia a la concentración de poder de cálculo, continúa reduciendo las barreras de entrada, garantizando la posibilidad de funcionamiento a largo plazo del protocolo.
![Desde FIL, Arweave hasta Walrus, Shelby: ¿cuán lejos está la adopción del almacenamiento descentralizado?]###https://img-cdn.gateio.im/webp-social/moments-1ebd281e65dedbe6216b5e1496a2963e.webp(
Walrus: ¿Abrace los datos calientes, es una exageración o hay algo oculto?
El enfoque de diseño de Walrus es completamente diferente al de Filecoin y Arweave. El punto de partida de Filecoin es crear un sistema de almacenamiento descentralizado y verificable, a costa del almacenamiento de datos fríos; el punto de partida de Arweave es construir una biblioteca de Alejandría en la cadena que pueda almacenar datos de forma permanente, a costa de tener muy pocos escenarios; el punto de partida de Walrus es optimizar el protocolo de almacenamiento de datos calientes.
) Modificación mágica de códigos de corrección: ¿innovación en costos o el mismo vino en una nueva botella?
En términos de diseño de costos de almacenamiento, Walrus considera que los gastos de almacenamiento de Filecoin y Arweave son irracionales. Ambos utilizan una arquitectura de replicación completa, cuya principal ventaja es que cada nodo posee una copia completa, lo que proporciona una fuerte capacidad de tolerancia a fallos y la independencia entre nodos. Este tipo de arquitectura asegura que incluso si algunos nodos están fuera de línea, la red aún tiene disponibilidad de datos. Sin embargo, esto también significa que el sistema necesita redundancia de múltiples copias para mantener la robustez, lo que a su vez eleva los costos de almacenamiento. Especialmente en el diseño de Arweave, el mecanismo de consenso en sí mismo fomenta el almacenamiento redundante de nodos para mejorar la seguridad de los datos. En comparación, Filecoin tiene más flexibilidad en el control de costos, pero a costa de que un almacenamiento de bajo costo puede tener un mayor riesgo de pérdida de datos. Walrus intenta encontrar un equilibrio entre ambos, su mecanismo controla los costos de replicación mientras que, a través de una forma estructurada de redundancia, mejora la disponibilidad, estableciendo así un nuevo camino de compromiso entre la disponibilidad de datos y la eficiencia de costos.
La tecnología Redstuff creada por Walrus es clave para reducir la redundancia de nodos, y proviene de la codificación Reed-Solomon###RS(. La codificación RS es un algoritmo de código de borrado muy tradicional, y el código de borrado es una técnica que permite duplicar conjuntos de datos al agregar fragmentos redundantes)erasure code(, que se puede utilizar para reconstruir los datos originales. Desde CD-ROM hasta comunicaciones por satélite y códigos QR, se utiliza con frecuencia en la vida diaria.
La codificación de borrado permite a los usuarios obtener un bloque, por ejemplo de 1MB, y luego "ampliarlo" a 2MB, donde el 1MB adicional se llama datos especiales de codificación de borrado. Si se pierde algún byte en el bloque, el usuario puede recuperar fácilmente esos bytes a través del código. Incluso si se pierde un bloque de hasta 1MB, se puede recuperar todo el bloque. La misma técnica permite a las computadoras leer todos los datos de un CD-ROM, incluso si ha sido dañado.
Actualmente, el más utilizado es el código RS. La forma de implementación es comenzar con k bloques de información, construir un polinomio relacionado y evaluarlo en diferentes coordenadas x para obtener bloques codificados. Al usar códigos de borrado RS, la probabilidad de muestreo aleatorio de grandes bloques de datos perdidos es muy baja.
¿Cuál es la característica más destacada del algoritmo de codificación RedStuff? Mediante la mejora del algoritmo de codificación de borrado, Walrus puede codificar bloques de datos no estructurados en fragmentos más pequeños de manera rápida y robusta; estos fragmentos se almacenan distribuidos en una red de nodos de almacenamiento. Incluso si se pierden hasta dos tercios de los fragmentos, es posible reconstruir rápidamente el bloque de datos original utilizando fragmentos parciales. Esto es posible manteniendo un factor de replicación de solo 4 a 5 veces.
Por lo tanto, es razonable definir a Walrus como un protocolo ligero de redundancia y recuperación rediseñado en torno a un escenario de Descentralización. En comparación con los códigos de borrado tradicionales ) como Reed-Solomon (, RedStuff ya no persigue una estricta coherencia matemática, sino que ha realizado compromisos realistas en torno a la distribución de datos, la verificación de almacenamiento y los costos de cálculo. Este modelo abandona el mecanismo de decodificación instantánea requerido por la programación centralizada, y en su lugar, verifica en la cadena mediante Proof si los nodos poseen copias específicas de datos, adaptándose así a una estructura de red más dinámica y marginal.
El núcleo del diseño de RedStuff es dividir los datos en dos categorías: porciones principales y porciones secundarias. Las porciones principales se utilizan para recuperar los datos originales, su generación y distribución están estrictamente controladas, el umbral de recuperación es f+1, y se requieren 2f+1 firmas como respaldo de disponibilidad; las porciones secundarias se generan a través de operaciones simples como combinaciones XOR, con el fin de proporcionar tolerancia a fallos flexible y mejorar la robustez general del sistema. Esta estructura, en esencia, reduce los requisitos de consistencia de los datos, permitiendo que diferentes nodos almacenen temporalmente diferentes versiones de los datos, enfatizando el camino práctico de "consistencia final". Aunque es similar a los requisitos flexibles sobre bloques de retroceso en sistemas como Arweave y ha logrado cierto efecto en la reducción de la carga de la red, también ha debilitado la disponibilidad inmediata de los datos y la garantía de integridad.
No se puede ignorar que, aunque RedStuff ha logrado un almacenamiento efectivo en entornos de baja potencia de cálculo y baja capacidad de ancho de banda, en esencia sigue siendo una "variante" de un sistema de códigos de corrección de errores. Sacrifica una parte de la determinación de la lectura de datos a cambio de control de costos y escalabilidad en un entorno de Descentralización. Sin embargo, en el nivel de aplicación, aún está por verse si esta arquitectura puede soportar escenarios de datos de gran escala y alta frecuencia de interacción. Más allá de eso, RedStuff no ha superado realmente el cuello de botella de cálculo de codificación que han existido durante mucho tiempo en los códigos de corrección de errores, sino que ha evitado los puntos de alta acoplamiento de la arquitectura tradicional a través de estrategias estructurales. Su innovación se refleja más en la optimización combinatoria del lado de la ingeniería, en lugar de una ruptura a nivel de algoritmos fundamentales.
Por lo tanto, RedStuff es más como una "modificación razonable" para el entorno real de almacenamiento descentralizado actual. Realmente ha traído mejoras en los costos redundantes y en la carga operativa, permitiendo que dispositivos de borde y nodos no de alto rendimiento participen en tareas de almacenamiento de datos. Sin embargo, en escenarios comerciales donde se requiere una aplicación a gran escala, adaptación de computación general y mayores requisitos de consistencia, sus límites de capacidad siguen siendo bastante evidentes. Esto hace que la innovación de Walrus se asemeje más a una adaptación del sistema tecnológico existente, en lugar de ser un avance decisivo que impulse la migración del paradigma de almacenamiento descentralizado.
) Sui y Walrus: una cadena pública de alto rendimiento puede impulsar la utilidad del almacenamiento
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
14 me gusta
Recompensa
14
4
Compartir
Comentar
0/400
MEVHunterLucky
· 07-07 06:06
¿Eh? ¿Todavía están especulando en el sector de almacenamiento?
Ver originalesResponder0
OnchainHolmes
· 07-07 06:06
¿No puede funcionar ni con el almacenamiento en frío de Fil? ¿El nuevo puede hacerlo?
Ver originalesResponder0
ProxyCollector
· 07-07 05:52
Eso es todo lo que hay en el campo del almacenamiento.
Ver originalesResponder0
MondayYoloFridayCry
· 07-07 05:44
Los datos fríos almacenan moneda en el mundo Cripto, verdaderamente un cáncer.
Evolución del almacenamiento descentralizado: transformaciones tecnológicas desde FIL hasta Walrus y perspectivas futuras
Desde Filecoin, Arweave hasta Walrus, Shelby: la evolución del almacenamiento descentralizado y perspectivas futuras
El almacenamiento ha sido una de las pistas más populares en la industria de blockchain. Filecoin, como el proyecto líder de la última ronda de mercado alcista, tuvo una capitalización de mercado que superó los 10 mil millones de dólares en su momento. Arweave, que se posiciona como competidor, se destaca por su almacenamiento permanente, alcanzando una capitalización máxima de 3.5 mil millones de dólares. Sin embargo, a medida que la viabilidad del almacenamiento de datos fríos ha sido cuestionada, el futuro del almacenamiento descentralizado también ha sido puesto en duda. Recientemente, la aparición de Walrus ha traído nueva atención a este campo de almacenamiento que había estado en silencio por mucho tiempo, y el proyecto Shelby, lanzado en colaboración entre Aptos y Jump Crypto, también intenta lograr un nuevo avance en el almacenamiento de datos calientes. Este artículo analizará la trayectoria de desarrollo de estos proyectos representativos, explorando la evolución del almacenamiento descentralizado y discutiendo sus perspectivas de desarrollo futuro.
FIL: La esencia de la moneda minera bajo la capa de almacenamiento
Filecoin es uno de los primeros proyectos de blockchain que surgieron, y su desarrollo se centra en la Descentralización. Filecoin intenta transformar el almacenamiento centralizado en almacenamiento descentralizado, pero las concesiones realizadas en el proceso para lograr la descentralización se han convertido en puntos problemáticos que los proyectos posteriores intentan resolver.
IPFS: arquitectura Descentralización, pero limitada por cuellos de botella en la transmisión
IPFS(, el sistema de archivos interplanetario, fue lanzado en 2015 con el objetivo de revolucionar el protocolo HTTP tradicional mediante la dirección de contenido. Sin embargo, la mayor desventaja de IPFS es su velocidad de obtención extremadamente lenta. En una era donde los proveedores de servicios de datos tradicionales pueden alcanzar tiempos de respuesta en milisegundos, IPFS todavía requiere decenas de segundos para obtener un archivo, lo que dificulta su promoción en aplicaciones prácticas.
IPFS se adapta principalmente a "datos fríos", es decir, contenido estático que no cambia con frecuencia. Sin embargo, al manejar datos calientes, como páginas web dinámicas, juegos en línea o aplicaciones de IA, el protocolo P2P no presenta ventajas significativas en comparación con las CDN tradicionales.
A pesar de que IPFS en sí no es una blockchain, su diseño basado en un grafo acíclico dirigido )DAG( se alinea estrechamente con muchas cadenas públicas y protocolos Web3, lo que lo hace adecuado como marco de construcción subyacente para blockchain.
) lógica de monedas minadas bajo el manto de almacenamiento
En el modelo económico del token de FIL, hay tres roles principales: los usuarios pagan tarifas para almacenar datos; los mineros de almacenamiento obtienen incentivos en tokens por almacenar los datos de los usuarios; los mineros de recuperación proporcionan datos cuando los usuarios los necesitan y obtienen incentivos.
Este modelo presenta un potencial espacio de mala conducta. Los mineros de almacenamiento pueden, después de proporcionar espacio de almacenamiento, llenar datos basura para obtener recompensas. Dado que estos datos basura no serán recuperados, incluso si se pierden, no activarán el mecanismo de confiscación. Esto permite a los mineros de almacenamiento eliminar los datos basura y repetir este proceso. La prueba de replicación de Filecoin solo puede asegurar que los datos del usuario no se hayan eliminado de manera privada, pero no puede evitar que los mineros llenen datos basura.
El funcionamiento de Filecoin depende en gran medida de la inversión continua de los mineros en la economía de tokens, y no de la demanda real de los usuarios finales por el almacenamiento descentralizado. Aunque el proyecto sigue iterando, en esta etapa, la construcción del ecosistema de Filecoin se ajusta más a la definición de un proyecto de almacenamiento "impulsado por mineros" que a uno "impulsado por aplicaciones".
Arweave: nace del largo plazo, muere por el largo plazo
Si el objetivo de diseño de Filecoin es construir un "nube de datos" descentralizada que sea incentivada y verificable, entonces Arweave se dirige en la otra dirección extrema en almacenamiento: proporcionando la capacidad de almacenamiento permanente para los datos. Arweave no intenta construir una plataforma de computación distribuida, su sistema entero se desarrolla en torno a una suposición central: los datos importantes deben ser almacenados de una sola vez y permanecer eternamente en la red. Este extremo enfoque de largo plazo hace que Arweave difiera enormemente de Filecoin, desde los mecanismos hasta el modelo de incentivos, pasando por los requisitos de hardware y la narrativa.
Arweave toma a Bitcoin como objeto de estudio, intentando optimizar constantemente su red de almacenamiento permanente en ciclos largos medidos en años. Arweave no se preocupa por el marketing, ni por los competidores o las tendencias del mercado. Simplemente avanza en el camino de iterar su arquitectura de red, sin importar si nadie se interesa, porque esa es la esencia del equipo de desarrollo de Arweave: el largo plazo. Gracias al largo plazo, Arweave fue muy popular en el último mercado alcista; y también debido al largo plazo, incluso si cae al fondo, Arweave podría soportar varias rondas de mercados alcistas y bajistas. Pero, ¿tendrá Arweave un lugar en el futuro del almacenamiento descentralizado? El valor de la existencia del almacenamiento permanente solo puede ser probado por el tiempo.
La red principal de Arweave ha pasado de la versión 1.5 a la reciente 2.9. A pesar de haber perdido el interés del mercado, ha estado trabajando para permitir que un mayor número de mineros participe en la red con el menor costo posible, e incentivar a los mineros a almacenar datos al máximo, mejorando así la robustez de toda la red. Arweave, consciente de que no se ajusta a las preferencias del mercado, ha adoptado un enfoque conservador, no abrazando a la comunidad minera, con un ecosistema completamente estancado, actualizando la red principal con el menor costo posible y, sin comprometer la seguridad de la red, reduciendo continuamente el umbral de hardware.
Revisión del camino de actualización de 1.5-2.9
La versión 1.5 de Arweave expuso una vulnerabilidad que permite a los mineros depender de la acumulación de GPU en lugar de almacenamiento real para optimizar las probabilidades de bloque. Para frenar esta tendencia, la versión 1.7 introduce el algoritmo RandomX, limitando el uso de potencia de cálculo especializada y exigiendo la participación de CPU generales en la minería, debilitando así la centralización de la potencia de cálculo.
En la versión 2.0, Arweave adoptó SPoA, convirtiendo la prueba de datos en una ruta concisa de la estructura de árbol de Merkle, e introdujo transacciones de formato 2 para reducir la carga de sincronización. Esta arquitectura alivia la presión del ancho de banda de la red, mejorando significativamente la capacidad de colaboración de los nodos. Sin embargo, algunos mineros aún pueden eludir la responsabilidad de poseer datos reales mediante estrategias de pools de almacenamiento centralizados de alta velocidad.
Para corregir este sesgo, 2.4 lanzó el mecanismo SPoRA, introduciendo un índice global y acceso aleatorio lento a hashes, lo que obliga a los mineros a poseer realmente bloques de datos para participar en la producción efectiva de bloques, debilitando así el efecto de acumulación de poder de cómputo desde el mecanismo. El resultado es que los mineros comienzan a prestar atención a la velocidad de acceso al almacenamiento, impulsando la aplicación de SSD y dispositivos de lectura/escritura de alta velocidad. 2.6 introdujo una cadena de hashes para controlar el ritmo de producción de bloques, equilibrando el rendimiento marginal de los dispositivos de alto rendimiento y proporcionando un espacio de participación equitativo para los mineros pequeños y medianos.
Las versiones posteriores refuerzan aún más la capacidad de colaboración en red y la diversidad de almacenamiento: 2.7 añade minería colaborativa y mecanismos de pools, mejorando la competitividad de los pequeños mineros; 2.8 introduce un mecanismo de empaquetado compuesto, permitiendo que dispositivos de baja velocidad y gran capacidad participen de manera flexible; 2.9 introduce un nuevo proceso de empaquetado en formato replica_2_9, mejorando significativamente la eficiencia y reduciendo la dependencia computacional, completando el ciclo del modelo de minería orientado a datos.
En general, la ruta de actualización de Arweave presenta claramente su estrategia a largo plazo orientada al almacenamiento: mientras resiste constantemente la tendencia a la concentración de poder de cálculo, continúa reduciendo las barreras de entrada, garantizando la posibilidad de funcionamiento a largo plazo del protocolo.
![Desde FIL, Arweave hasta Walrus, Shelby: ¿cuán lejos está la adopción del almacenamiento descentralizado?]###https://img-cdn.gateio.im/webp-social/moments-1ebd281e65dedbe6216b5e1496a2963e.webp(
Walrus: ¿Abrace los datos calientes, es una exageración o hay algo oculto?
El enfoque de diseño de Walrus es completamente diferente al de Filecoin y Arweave. El punto de partida de Filecoin es crear un sistema de almacenamiento descentralizado y verificable, a costa del almacenamiento de datos fríos; el punto de partida de Arweave es construir una biblioteca de Alejandría en la cadena que pueda almacenar datos de forma permanente, a costa de tener muy pocos escenarios; el punto de partida de Walrus es optimizar el protocolo de almacenamiento de datos calientes.
) Modificación mágica de códigos de corrección: ¿innovación en costos o el mismo vino en una nueva botella?
En términos de diseño de costos de almacenamiento, Walrus considera que los gastos de almacenamiento de Filecoin y Arweave son irracionales. Ambos utilizan una arquitectura de replicación completa, cuya principal ventaja es que cada nodo posee una copia completa, lo que proporciona una fuerte capacidad de tolerancia a fallos y la independencia entre nodos. Este tipo de arquitectura asegura que incluso si algunos nodos están fuera de línea, la red aún tiene disponibilidad de datos. Sin embargo, esto también significa que el sistema necesita redundancia de múltiples copias para mantener la robustez, lo que a su vez eleva los costos de almacenamiento. Especialmente en el diseño de Arweave, el mecanismo de consenso en sí mismo fomenta el almacenamiento redundante de nodos para mejorar la seguridad de los datos. En comparación, Filecoin tiene más flexibilidad en el control de costos, pero a costa de que un almacenamiento de bajo costo puede tener un mayor riesgo de pérdida de datos. Walrus intenta encontrar un equilibrio entre ambos, su mecanismo controla los costos de replicación mientras que, a través de una forma estructurada de redundancia, mejora la disponibilidad, estableciendo así un nuevo camino de compromiso entre la disponibilidad de datos y la eficiencia de costos.
La tecnología Redstuff creada por Walrus es clave para reducir la redundancia de nodos, y proviene de la codificación Reed-Solomon###RS(. La codificación RS es un algoritmo de código de borrado muy tradicional, y el código de borrado es una técnica que permite duplicar conjuntos de datos al agregar fragmentos redundantes)erasure code(, que se puede utilizar para reconstruir los datos originales. Desde CD-ROM hasta comunicaciones por satélite y códigos QR, se utiliza con frecuencia en la vida diaria.
La codificación de borrado permite a los usuarios obtener un bloque, por ejemplo de 1MB, y luego "ampliarlo" a 2MB, donde el 1MB adicional se llama datos especiales de codificación de borrado. Si se pierde algún byte en el bloque, el usuario puede recuperar fácilmente esos bytes a través del código. Incluso si se pierde un bloque de hasta 1MB, se puede recuperar todo el bloque. La misma técnica permite a las computadoras leer todos los datos de un CD-ROM, incluso si ha sido dañado.
Actualmente, el más utilizado es el código RS. La forma de implementación es comenzar con k bloques de información, construir un polinomio relacionado y evaluarlo en diferentes coordenadas x para obtener bloques codificados. Al usar códigos de borrado RS, la probabilidad de muestreo aleatorio de grandes bloques de datos perdidos es muy baja.
¿Cuál es la característica más destacada del algoritmo de codificación RedStuff? Mediante la mejora del algoritmo de codificación de borrado, Walrus puede codificar bloques de datos no estructurados en fragmentos más pequeños de manera rápida y robusta; estos fragmentos se almacenan distribuidos en una red de nodos de almacenamiento. Incluso si se pierden hasta dos tercios de los fragmentos, es posible reconstruir rápidamente el bloque de datos original utilizando fragmentos parciales. Esto es posible manteniendo un factor de replicación de solo 4 a 5 veces.
Por lo tanto, es razonable definir a Walrus como un protocolo ligero de redundancia y recuperación rediseñado en torno a un escenario de Descentralización. En comparación con los códigos de borrado tradicionales ) como Reed-Solomon (, RedStuff ya no persigue una estricta coherencia matemática, sino que ha realizado compromisos realistas en torno a la distribución de datos, la verificación de almacenamiento y los costos de cálculo. Este modelo abandona el mecanismo de decodificación instantánea requerido por la programación centralizada, y en su lugar, verifica en la cadena mediante Proof si los nodos poseen copias específicas de datos, adaptándose así a una estructura de red más dinámica y marginal.
El núcleo del diseño de RedStuff es dividir los datos en dos categorías: porciones principales y porciones secundarias. Las porciones principales se utilizan para recuperar los datos originales, su generación y distribución están estrictamente controladas, el umbral de recuperación es f+1, y se requieren 2f+1 firmas como respaldo de disponibilidad; las porciones secundarias se generan a través de operaciones simples como combinaciones XOR, con el fin de proporcionar tolerancia a fallos flexible y mejorar la robustez general del sistema. Esta estructura, en esencia, reduce los requisitos de consistencia de los datos, permitiendo que diferentes nodos almacenen temporalmente diferentes versiones de los datos, enfatizando el camino práctico de "consistencia final". Aunque es similar a los requisitos flexibles sobre bloques de retroceso en sistemas como Arweave y ha logrado cierto efecto en la reducción de la carga de la red, también ha debilitado la disponibilidad inmediata de los datos y la garantía de integridad.
No se puede ignorar que, aunque RedStuff ha logrado un almacenamiento efectivo en entornos de baja potencia de cálculo y baja capacidad de ancho de banda, en esencia sigue siendo una "variante" de un sistema de códigos de corrección de errores. Sacrifica una parte de la determinación de la lectura de datos a cambio de control de costos y escalabilidad en un entorno de Descentralización. Sin embargo, en el nivel de aplicación, aún está por verse si esta arquitectura puede soportar escenarios de datos de gran escala y alta frecuencia de interacción. Más allá de eso, RedStuff no ha superado realmente el cuello de botella de cálculo de codificación que han existido durante mucho tiempo en los códigos de corrección de errores, sino que ha evitado los puntos de alta acoplamiento de la arquitectura tradicional a través de estrategias estructurales. Su innovación se refleja más en la optimización combinatoria del lado de la ingeniería, en lugar de una ruptura a nivel de algoritmos fundamentales.
Por lo tanto, RedStuff es más como una "modificación razonable" para el entorno real de almacenamiento descentralizado actual. Realmente ha traído mejoras en los costos redundantes y en la carga operativa, permitiendo que dispositivos de borde y nodos no de alto rendimiento participen en tareas de almacenamiento de datos. Sin embargo, en escenarios comerciales donde se requiere una aplicación a gran escala, adaptación de computación general y mayores requisitos de consistencia, sus límites de capacidad siguen siendo bastante evidentes. Esto hace que la innovación de Walrus se asemeje más a una adaptación del sistema tecnológico existente, en lugar de ser un avance decisivo que impulse la migración del paradigma de almacenamiento descentralizado.
) Sui y Walrus: una cadena pública de alto rendimiento puede impulsar la utilidad del almacenamiento